No último fim de semana, uma situação curiosa envolvendo a plataforma de inteligência artificial conversacional ChatGPT provocou a atenção do público e gerou uma série de especulações. Usuários relataram que tentar fazer o chatbot responder perguntas sobre a identidade de “David Mayer” resultava em falhas ou mesmo em um total congelamento do programa. O que começou como um fenômeno peculiar rapidamente se transformou em uma busca coletiva para descobrir o que havia por trás dessa “avaria”. Ao contrário das teorias da conspiração que surgiram, as evidências sugerem que uma questão mais comum de privacidade digital talvez esteja no cerne deste comportamento peculiar da IA.
Rapidamente se espalhou a notícia de que o nome “David Mayer” era “tóxico” para o chatbot, levando cada vez mais pessoas a tentar verificar se, de fato, esse nome inviabilizava a interação com o serviço. Todas as tentativas de fazer com que o ChatGPT reconhecesse e falasse esse nome resultavam em falhas, evidenciando uma quebra de funcionamento. O chatbot, ao ser questionado sobre o nome, frequentemente respondia com: “Não consigo produzir uma resposta”, se é que ele chegava a responder.
Mas o que começou como uma curiosidade isolada logo se desdobrou em descobertas mais intrigantes: não era apenas David Mayer que causava problemas para a plataforma. Outros nomes, como Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza, também pareciam provocar falhas semelhantes. O que une esses indivíduos? Um padrão começou a surgir conforme se investigava suas identidades: muitos deles são figuras públicas ou semi-públicas que, por razões particulares, podem ter solicitado que informações a respeito deles sejam “esquecidas” pelos mecanismos de busca ou pelos modelos de IA.
Brian Hood, por exemplo, foi um dos primeiros nomes a emergir. Ele é um ex-prefeito australiano que, em anos anteriores, acusou o ChatGPT de ter feito uma falsa associação entre ele e um crime do qual ele foi a vítima, e não o perpetrador. Segundo o que Hood relatou, seus advogados entraram em contato com a OpenAI, mas, embora tenham conseguido remover o conteúdo problemático, nenhum processo judicial foi instaurado.
Outros nomes na lista, como David Faber, são conhecidos por suas carreiras em veículos respeitáveis como a CNBC, enquanto Jonathan Turley é um comentarista de lei e de Fox News que foi alvo de um incidente de “swatting” em 2023. Por outro lado, Jonathan Zittrain é um renomado especialista jurídico e histórico que já discorreu amplamente sobre o “direito ao esquecimento”, enquanto Guido Scorza atua no conselho da Autoridade de Proteção de Dados da Itália.
Retornando ao nome David Mayer, a situação se torna ainda mais enigmática. Sem um histórico notável que justifique a confusão do chatbot, uma possibilidade se destaca: um professor chamado David Mayer, que lecionava drama e história, e que faleceu em 2023 aos 94 anos. Este acadêmico britânico-americano enfrentava significativas dificuldades online e legais por conta de sua associação a um criminoso procurado que utilizava seu nome como pseudônimo, prejudicando severamente sua vida e seu trabalho.
Assim, o que podemos concluir diante de tantas conjecturas? Sem uma explicação oficial da OpenAI, levantamos a hipótese de que o modelo de IA pode ter acesso a uma lista de pessoas cujos nomes requerem um tratamento especial. Essa proteção pode ser motivada por questões legais, de segurança ou de privacidade. Da mesma forma como existem protocolos que limitam a oferta de informações sobre candidatos políticos, pode haver um conjunto de regras aplicáveis a outras identidades.
É plausível que essa lista, cuja manutenção e atualização são quase certamente regulares, tenha sofrido uma falha técnica que causou o colapso do agente de chat quando confrontado com esses nomes. Essa especulação não é nova no desenvolvimento da inteligência artificial, visto que comportamentos estranhos frequentemente são resultado da interpretação do modelo diante de regras de orientação pós-treinamento, mas infelizmente, esses protocolos raramente são divulgados ao público.
Como costuma ser o caso nessa área, aplica-se aqui a famosa lâmina de Hanlon: nunca atribua a malícia ou uma conspiração o que pode ser adequadamente explicado por um erro ou um problema de código. Por fim, esta ocorrência reforça o entendimento de que essas tecnologias não são infalíveis. São, na verdade, simplificadas e sofisticadas ferramentas de autocompletar e estão sujeitas a monitoramento e intervenções constantes por parte das empresas que as desenvolvem. Portanto, na próxima vez que for buscar informações em um chatbot, será que não valeria mais a pena consultar fontes diretas de referências?