A ascensão da inteligência artificial (IA) trouxe consigo não apenas oportunidades tecnológicas, mas também uma sombra sinistra que se traduz no aumento da pornografia de deepfake. Essa prática, que envolve a modificação de imagens para colocar o rosto de uma pessoa em vídeos ou fotos explícitas sem seu consentimento, atingiu novos patamares de acessibilidade, apresentando riscos alarmantes para a privacidade e a dignidade individual. Ao discutir esse problema emergente, a advogada Carrie Goldberg enfatiza que “tudo que precisamos ter é apenas uma forma humana para ser uma vítima” desse tipo de abuso. Essa afirmação resume bem o potencial de todas as pessoas se tornarem alvos, independentemente de já terem compartilhado ou não imagens íntimas.
Embora a pornografia de vingança, que é a divulgação não consensual de imagens sexuais, já existisse desde os primórdios da internet, a popularização das ferramentas de IA ampliou esse espectro de ameaça. A tecnologia agora permite que qualquer um possa ser visado, mesmo aqueles que nunca enviaram uma foto nude. Ferramentas de IA podem sobrepor o rosto de uma pessoa em um corpo nu ou manipular fotos existentes para sugerir que a pessoa está despida, resultando em imagens que parecem reais e que podem devastar a vida de quem é retratado. Nos últimos anos, as vítimas deste fenômeno incluem tanto mulheres conhecidas, como a cantora Taylor Swift e a deputada Alexandria Ocasio-Cortez, quanto jovens estudantes de ensino médio.
Vivenciar o impacto desse tipo de abuso pode ser uma experiência aterrorizante e esmagadora, especialmente para os mais jovens que não têm pelas mãos as ferramentas necessárias para lidar com a situação. Carrie Goldberg, à frente do escritório C.A. Goldberg Law em Nova York e especialista em crimes sexuais e assédio online, retrata como o universo digital pode se tornar um espaço nebuloso e hostil para quem desenvolve esse tipo de crime. Contudo, apesar da dor e do trauma que cercam a descoberta de que uma imagem modificada ou ofensiva circula na rede, existem maneiras de minimizar os danos e de buscar ajuda, com destaque para os esforços das plataformas digitais e organizações não governamentais.
No seu podcast “Terms of Service”, Goldberg compartilha passos práticos que as vítimas podem seguir após serem alvo de deepfakes. A primeira ação recomendada, embora possa parecer contraditório à primeira vista, é tirar uma captura de tela da imagem. Ela explica que muitas pessoas têm o impulso imediato de retirar de cena a imagem, mas para que qualquer possível ação legal possa ser tomada no futuro, é essencial manter provas do abuso. Após essa etapa, as vítimas podem recorrer às ferramentas que plataformas como Google, Meta e Snapchat disponibilizam para solicitar a remoção de imagens explícitas. Organizações como StopNCII.org e Take It Down também têm se destacado nesse campo, facilitando a remoção desses conteúdos de várias plataformas simultaneamente, embora a cooperação de todas as redes sociais não seja garantida.
Em agosto, um grupo bipartidário de senadores enviou uma carta aberta a diversas empresas de tecnologia, incluindo X e Discord, solicitando uma maior participação no combate à pornografia não consensual. A crescente preocupação nacional com a disseminação indevida de imagens explícitas e deepfakes, que afeta um número amplo de indivíduos, também se reflete no testemunho de adolescentes e seus pais afetados por esses abusos. Uma proposta de lei, encabeçada pelo senador republicano Ted Cruz e apoiada pela senadora democrata Amy Klobuchar, visa criminalizar a publicação dessas imagens e obrigar plataformas de redes sociais a removê-las quando notificadas por vítimas.
Entretanto, a situação atual deixa os afetados navegando em um complexo emaranhado de legislações estaduais que variam amplamente em suas abordagens. Em algumas regiões, não existem leis criminais que impeçam a criação ou divulgação de deepfakes de adultos, enquanto imagens geradas por IA de menores de idade se enquadram nas leis de abuso infantil. Nesse contexto, Goldberg fornece uma reflexão provocativa para possíveis infratores: “Não seja uma pessoa desprezível, tentando roubar a imagem de alguém e usá-la para humilhação.” Apesar de não haver uma solução infalível, a responsividade e a empatia entre os indivíduos se mostram fundamentais. Esta situação exige que todos nós tenhamos um compromisso coletivo para respeitar a privacidade e a dignidade do próximo, evitando ser “totalmente escrotos” neste vasto cenário digital.