Francesca Mani, uma adolescente de apenas 14 anos, passou por uma experiência angustiante que revela o lado obscuro da tecnologia moderna. Ela foi chamada ao gabinete da diretora na Escola Secundária de Westfield, em Nova Jersey, apenas para descobrir que uma imagem sua foi alterada por meio de inteligência artificial, transformando-se em uma nudez digital. Este evento, que poderia ter passado despercebido, acendeu uma chama de indignação e um impulso por mudança que Francesca não esperava encontrar dentro de si mesma.
Este tipo de incidente é longe de ser um caso isolado; ele reflete uma tendência inquietante que está se espalhando por várias escolas nos Estados Unidos. Francesca nunca tinha ouvido falar de um site ou aplicativo que “nudifica” imagens antes de sua aterrorizante experiência. Ao sair do escritório da diretora, ela notou um grupo de meninos rindo enquanto observava outro grupo de meninas em lágrimas. “E foi ali que eu percebi que deveria parar de chorar e que deveria ficar brava, porque isso é inaceitável”, declarou Francesca, capturando a dor que muitas vítimas sentem quando suas privacidades são invadidas de tal forma.
O que aconteceu com Francesca Mani e as consequências disso
O drama começou em outubro do ano passado, em sua aula de história, quando rumores começaram a circular sobre meninos que possuíam fotos nuas de colegas do sexo feminino. Francesca rapidamente percebeu que ela e outras garotas da escola estavam entre os alvos dessas práticas perturbadoras. Um processo judicial apresentado posteriormente por outra vítima revelou que um garoto da escola havia carregado fotos de Instagram em um site chamado Clothoff, um dos sites de “nudificação” mais populares. Curiosamente, apenas no mês passado, o Clothoff recebeu mais de 3 milhões de visitas, de acordo com a empresa Graphika, que analisa redes sociais. O site permite que os usuários “nudifiquem” tanto homens quanto mulheres, mas as fotos femininas têm um apelo visivelmente maior.
No Clothoff, os visitantes podem carregar suas próprias fotos ou solicitar uma demonstração gratuita do serviço, onde uma imagem inicial de uma mulher vestida é transformada em uma imagem nua em questão de segundos. A realismo dessas transformações é alarmante, tornando o impacto dessa tecnologia ainda mais profundo. Embora o site afirme que somente pessoas acima de 18 anos são permitidas e que não é permitido usar fotos de terceiros sem consentimento, a verdade é que muitos usuários, como o garoto que atacou Francesca, não atribuem o peso da responsabilidade às regras que a plataforma afirma respeitar. Além disso, a companhia não respondeu a um e-mail da produção do programa 60 Minutes, que indagava sobre suas alegações de que “a manipulação de menores é impossível”.
Francesca nunca viu a imagem que foi criada a partir de sua foto, mas conforme o mesmo processo judicial revelou, a imagem nua gerada por IA de pelo menos uma estudante foi compartilhada no Snapchat, onde vários outros alunos tiveram acesso. O pior, segundo Francesca, foi a forma como ela ficou sabendo do que tinha acontecido: os nomes dela e de outras garotas foram anunciados no sistema de som da escola, levando-as a uma reunião pública no gabinete da diretora.
“Senti que isso foi uma violação total da nossa privacidade, enquanto os responsáveis foram levados para serem confrontados em particular”, lamentou Francesca. A situação se agravou quando a diretora enviou um comunicado aos pais, informando sobre o uso de inteligência artificial para criar imagens pornográficas, assegurando que as imagens geradas tinham sido apagadas e não estavam mais circulando.
A realidade das imagens falsas e seu impacto real nas vítimas
Dorota Mani, mãe de Francesca e educadora, expressou suas dúvidas sobre a veracidade da afirmação da diretora. Para ela, o que foi compartilhado online pode nunca ser realmente apagado. “Quem imprimiu? Quem fez uma captura de tela? Quem baixou? É impossível apagar completamente”, ponderou. O distrito escolar não confirmou informações sobre o incidente ou quais ações disciplinares haviam sido tomadas. O superintendente declarou que as políticas de Assédio, Intimidação e Bullying foram atualizadas para incluir diretrizes sobre inteligência artificial, algo que as Manis lutaram por meses para que fosse feito.
O sentimento de injustiça cresceu quando Francesca observou que as meninas afetadas pagaram um preço muito maior do que aqueles que criaram as imagens. Ela afirmou: “Porque eles apenas têm que viver com a consciência de que talvez uma imagem sua esteja flutuando pela internet. E eles têm que lidar com o que os meninos fizeram.” Sua mãe, Dorota, também tomou a iniciativa de registrar um boletim de ocorrência, mas até o momento, nenhuma acusação foi apresentada.
Yiota Souras, diretora de assuntos jurídicos do Centro Nacional para Crianças Desaparecidas e Exploradas, explica que, embora as imagens criadas por esses sites de “nudificação” sejam falsas, o dano psicológico que causam às vítimas é autêntico. Segundo ela, “eles sofrerão, sabe, distúrbios na saúde mental e danos à sua reputação”, o que, em um ambiente escolar, amplifica ainda mais a situação, uma vez que o conteúdo foi criado por um colega, levando a uma perda de confiança e auto-estima.
Francesca e a sua batalha por mudanças significativas nas escolas
Nos últimos 20 meses, o programa 60 Minutes encontrou aproximadamente 30 casos similares de escolas nos Estados Unidos, além de relatos adicionais em outras partes do mundo. Em pelo menos três desses casos, o Snapchat foi usado para circular fotos geradas por IA. Uma mãe compartilhou que levou mais de oito meses para que as contas que compartilharam as imagens fossem desativadas. Segundo Souras, a falta de respostas efetivas por parte das empresas de tecnologia é um problema recorrente enfrentado pelas vítimas.
A voz de Francesca, junto com a de sua mãe, se levantou não apenas em defesa delas mesmas, mas em busca de proteção para outras jovens que podem ser alvo. Elas têm incentivado escolas a criar políticas adequadas em relação ao uso de inteligência artificial e, paralelamente, têm trabalhado com legisladores para promover diversos projetos de lei federais. Um dos projetos, o Take It Down Act, co-patrocinado pelos senadores Ted Cruz e Amy Klobuchar, já avançou no Senado e aguarda votação na Câmara. Se aprovado, esse projeto estabelecerá penas criminais para quem compartilhar imagens de nudez geradas por IA e exigirá que as empresas de redes sociais removam essas fotos em até 48 horas após um pedido form feito por um dos afetados.
Enquanto isso, a luta de Francesca e sua mãe representa uma oportunidade para todos nós refletirmos sobre a crescente necessidade de proteger nossos jovens em um mundo digital que frequentemente não põe limites. Que o coragem de Francesca possa inspirar uma verdadeira revolução nas políticas de proteção à privacidade e à dignidade humana online.
Para saber mais sobre como a tecnologia está moldando a vida dos jovens e as implicações éticas de sua utilização, você pode conferir este artigo.