Nova Iorque
CNN
—
A organização de defesa da liberdade de imprensa, Repórteres Sem Fronteiras, está fazendo um apelo à Apple para que remova sua nova funcionalidade de inteligência artificial que resume notícias, após a ferramenta produzir um título enganoso relacionado a um relato da BBC. Esse chamado surge em meio a um incêndio de críticas que destaca os riscos que a implementação prematura de ferramentas de IA representa para a precisão das informações divulgadas ao público.
O problema específico veio à tona na semana passada, quando uma notificação impulsionada pela Apple Intelligence notificou os usuários com uma informação falsa sobre o suspeito de ter cometido o homicídio do CEO da UnitedHealthcare, indicando erroneamente que Luigi Mangione havia se suicidado. Esta falta de atenção na curadoria de conteúdo pela inteligência artificial gerou indignação, reforçando a preocupação em relação à precisão das informações publicadas por meio de plataformas automatizadas.
A BBC, que se viu envolvida no ocorrido, declarou ter contatado a Apple em busca de uma solução para o problema que a ferramenta gerou. No entanto, não houve confirmação de que a Apple tenha respondido ao seu apelo, o que suscitou mais debates sobre a responsabilidade das grandes empresas de tecnologia em garantir que suas inovações não comprometam a integridade da informação.
Na quarta-feira, Vincent Berthier, chefe do setor de tecnologia e jornalismo da Repórteres Sem Fronteiras, reiterou o apelo por ação da Apple, afirmando: “Inteligências artificiais são máquinas de probabilidade, e os fatos não podem ser decididos a partir de um lance de dados.” Segundo ele, a produção automatizada de informações falsas, atribuídas a veículos de comunicação, representa um sério golpe na credibilidade do meio e um risco ao direito do público a informações confiáveis sobre eventos atuais.
A preocupação é ampliada pelo posicionamento de que a incidentes como estes expõem as fragilidades das ferramentas de IA na produção de informações relevantes e educadas para o público. Ao longo de sua declaração, a organização jornalista expressou que está “muito preocupada com os riscos que novas ferramentas de IA impõem às mídias”, salientando que o episódio enfatiza como a tecnologia ainda se encontra “imatura para produzir informações confiáveis para o público”, e, portanto, não deve ser disponibilizada para tal uso indiscriminadamente.
A forma probabilística pela qual os sistemas de IA operam impede que eles sejam vistos como uma tecnologia confiável para as mídias que buscam soluções para o público. A declaração da RSF sublinha a urgência da situação, reafirmando que a automação que resulta em informações incorretas deve ser considerada inaceitável em um ambiente onde a credibilidade é um ativo inestimável.
Embora a BBC tenha reafirmado sua determinação em proteger a confiança do público em relação às informações que são publicadas sob seu nome, enfatizando a importância dos meios de comunicação regulamentados, esse tipo de incidente ao qual a Apple está sendo submetida é indicativo de um problema ainda maior. Observou-se que a Apple não respondeu a um pedido de comentário sobre a situação, o que levantou questões sobre sua responsabilidade em abordar esses erros.
A ferramenta de IA gerativa da Apple foi introduzida nos Estados Unidos em junho, prometendo resumir conteúdos “sob a forma de um parágrafo digestível, pontos-chave em formato de lista ou tabelas.” Para facilitar a gestão da dieta informativa dos usuários, a empresa permite que usuários em dispositivos iPhone, iPad e Mac agrupem notificações, resultando em alertas únicos contendo várias notícias.
Desde o lançamento da funcionalidade em outubro, foram registrados outros resumos errôneos pela mesma ferramenta. Um exemplo notável ocorreu com uma história do New York Times, na qual a Apple resumiu erroneamente uma notícia que sugeria que o primeiro-ministro israelense Benjamin Netanyahu havia sido preso, quando, na verdade, um mandado de prisão havia sido emitido pelo Tribunal Penal Internacional. Tal erro perpetua a desinformação, obscurecendo o que realmente está acontecendo nos eventos globais.
O desafio que surge com o incidente da Apple Intelligence é que os veículos de comunicação não estão em posição de controlar o resultado. Embora alguns editores tenham optado por usar IA para ajudar na redação de artigos, essa decisão é individual. Por outro lado, os resumos da Apple, que são oferecidos como opção aos usuários, ainda aparecem sob a referência do veículo de comunicação originário, o que potencializa a circulação de desinformação, além do risco de prejudicar a credibilidade dos mesmos.
Os problemas da Apple com a IA emergem no contexto de desafios mais amplos que instituições de notícias enfrentam ao tentar navegar por mudanças radicais provocadas pela nova tecnologia. Desde o surgimento do ChatGPT, há pouco mais de dois anos, várias grandes empresas de tecnologia lançaram seus próprios modelos de linguagem, muitos dos quais têm enfrentado acusações de treinar seus chatbots com conteúdo protegido por direitos autorais, incluindo relatórios de notícias. Embora algumas instituições, como o New York Times, tenham ajuizado ações judiciais contra essa tecnologia, outras, como a Axel Springer, têm celebrado acordos de licenciamento com os desenvolvedores, demonstrando que o setor está dividido em suas abordagens diante das inovações impulsionadas pela IA.