A edição de 2024 do TechCrunch Disrupt começou com debates acalorados a respeito da desinformação e como a tecnologia pode ser tanto uma vilã quanto uma aliada nesse cenário. No centro das discussões, um painel formado por três especialistas trouxe à tona reflexões profundas sobre o papel das redes sociais e da inteligência artificial gerativa, estabelecendo um diálogo respeitoso, porém claro nas críticas feitas a essas ferramentas.

Imran Ahmed, CEO do Center for Countering Digital Hate, não poupou palavras ao descrever o impacto da inteligência artificial na propagação de notícias falsas. Em uma comparação bastante impactante, Ahmed afirmou que as mentiras que vêm sendo utilizadas na política, antes restritas a um jogar de palavras e manipulação, agora tomaram proporções alarmantes. Segundo ele, “temos sempre presenciado uma quantidade de inverdades na política, mas o que vivemos atualmente é quantitativamente diferente, assemelhando-se mais a uma corrida nuclear do que a uma simples troca de falácias.” Ahmed salientou que a mudança econômica é crítica, pois “o custo marginal da produção de uma peça de desinformação foi reduzido a zero por meio da inteligência artificial gerativa,” o que representa uma preocupação significativa. Isso cria um sistema de “clicks” em que a IA não apenas cria desinformação, mas também a distribui e avalia sua eficácia através de testes, levando a um ciclo vicioso difícil de combater.

Brandie Nonnecke, diretora do CITRIS Policy Lab da UC Berkeley, complementou os comentários de Ahmed apontando que a autolimitação imposta pelas redes sociais, através de relatórios de transparência, é insuficiente. Ela disse: “Eu não acredito que esses relatórios de transparência realmente façam a diferença, na verdade eles fornecem uma sensação falsa de que o trabalho está sendo bem feito. Eles apresentam números impressionantes de conteúdos prejudiciais que foram removidos, mas nunca falam sobre aquilo que não foi retirado do ar, deixando de lado uma bagunça que eles ainda tentam entender.” A fala de Nonnecke destaca a necessidade urgente de abordagens mais eficazes que vão além de uma retórica vazia, sabendo que a verdadeira responsabilidade social deve ir além de apenas relatar suas ações.

Pamela San Martin, co-presidente do Facebook Oversight Board, compartilhou o ponto de vista de que, mesmo reconhecendo a falta de ações mais robustas das plataformas em relação ao controle de desinformação, é necessário cautela. “Não podemos simplesmente jogar fora o que está funcionando, mesmo que existam falhas claras. Este ano, previmos que teríamos uma profunda influência da inteligência artificial nas eleições ao redor do mundo, uma suposta inundação de deepfakes que controlariam a narrativa. Contudo, embora tenha havido um aumento na utilização dessa tecnologia, não observamos uma verdadeira inundação da desinformação gerada por inteligência artificial,” afirmou. San Martin chama a atenção para a importância de abordagens equitativas e ponderadas, evitando que decisões apressadas por medo suprimam as potencialidades positivas da inteligência artificial.

Portanto, o debate em torno da desinformação no contexto atual da inteligência artificial destaca um dilema importante: como regulamentar e educar sobre o uso responsável desses recursos sem comprometer a inovação e as oportunidades que oferecem? As contribuições dos especialistas no TechCrunch Disrupt 2024 deixaram claro que é preciso um esforço coletivo, incluindo governos, instituições e empresas, para encontrar um equilíbrio que permita o uso dessa tecnologia de forma ética e responsável. Assim, fica a pergunta para o leitor: estaremos prontos para enfrentar esse desafio duplo e imprevisível ou seremos certamente vítimas de nossa própria criação? O futuro da informação digital depende das escolhas que fazemos agora.

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *