No início desta semana, o laboratório de inteligência artificial DeepSeek, uma empresa chinesa bem financiada, lançou seu novo modelo de IA, denominado DeepSeek V3. Essa nova versão, amplamente divulgada como um modelo “aberto”, não apenas tem demonstrado um desempenho superior em vários benchmarks populares, mas também se autoidentifica como ChatGPT, a famosa plataforma de chatbot desenvolvida pela OpenAI. Esse fenômeno intrigante levanta questões sobre a integridade dos modelos de IA e suas fontes de treinamento, além de nos convidar a refletir sobre a natureza da inteligência artificial contemporânea.

Durante testes realizados tanto pelos usuários na plataforma X quanto pelas próprias investigações da TechCrunch, observou-se que, em oito gerações de respostas, o modelo DeepSeek V3 identificou-se como ChatGPT em cinco ocasiões, enquanto apenas se identificou como DeepSeek V3 em três respostas. O que pode parecer uma simples confusão na identificação revela uma complexidade maior, já que, se perguntado sobre a API da DeepSeek, o modelo fornece instruções de como usar a API da OpenAI, além de reproduzir algumas piadas semelhantes às do GPT-4, até mesmo nos detalhes das punchlines. Essa situação nos leva a indagar: o que realmente está acontecendo aqui?

Os modelos de IA, como o ChatGPT e o DeepSeek V3, operam como sistemas estatísticos que aprendem a partir de enormes volumes de dados, utilizando bilhões de exemplos para identificar padrões. Esse tipo de aprendizagem permite prever como a informação deve ser estruturada em diferentes contextos, mas a falta de clareza sobre as fontes de dados utilizados no treinamento do DeepSeek V3 levanta preocupações. Embora a DeepSeek não tenha revelado as origens de seus dados de treinamento, é inegável que existem amplos conjuntos de dados públicos que contêm textos gerados pelo GPT-4, acessíveis através da plataforma ChatGPT. Se o modelo DeepSeek V3 foi treinado com essas informações, é possível que ele tenha memorizado partes dos resultados do GPT-4 e esteja, em essência, repetindo essas informações de forma quase literal.

Mike Cook, pesquisador do King’s College London especializado em inteligência artificial, expressou suas preocupações ao comentar que pode haver uma “contaminação” nos dados de treinamento que compromete a qualidade dos modelos. Segundo Cook, a prática de treinar novos modelos com base nas saídas de sistemas concorrentes pode provocar “alucinações” e respostas enganosas, fazendo com que a informação se torne cada vez mais distorcida, comparando-a à cópia de uma cópia. Ao resumir essa dinâmica, ele argumenta que, com o aumento da utilização de textos gerados por IA, estamos assistindo a um fenômeno cujo resultado pode ser um modelo que tem dificuldades em se autoidentificar corretamente.

Ademais, as normas de uso da OpenAI proíbem explicitamente seus clientes de utilizarem as saídas do ChatGPT para desenvolver modelos que funcionem como concorrentes diretos. Sobre esse ponto, tanto a OpenAI quanto a DeepSeek não se pronunciaram imediatamente após a descoberta das reivindicações do DeepSeek V3. Contudo, Sam Altman, CEO da OpenAI, fez uma publicação que muitos interpretaram como um recado aos rivais. Ele ressaltou que “é fácil copiar algo que já funciona, mas é extremamente difícil criar algo novo, arriscado e que possa falhar”.

Contudo, é essencial frisar que a confusão de identidade em modelos de IA não é um fenômeno isolado. Modelos como o Gemini do Google, por exemplo, também se identificam como concorrentes, chegando a afirmar ser o chatbot da Baidu ao serem questionados em mandarim. Isso ocorre em um contexto em que a qualidade dos dados na rede, fonte primordial para o treinamento de muitos desses sistemas, vem sendo comprometida por uma saturação de conteúdo gerado por IA. Estima-se que até 2026, cerca de 90% do conteúdo disponível na web poderá ser gerado por inteligências artificiais.

Heidy Khlaaf, diretora de engenharia da consultoria Trail of Bits, ressaltou que, apesar dos riscos envolvidos, a possibilidade de economizar custos ao “destilar” o conhecimento de um modelo já existente pode ser tentadora para os desenvolvedores. A situação apresenta uma grande preocupação não apenas sobre a identidade do modelo DeepSeek V3, mas também sobre a qualidade das respostas que ele gera. Quando um modelo de IA é alimentado com dados de outras IAs sem um crivo crítico adequado, isso pode levar ao reforço de um viés preexistente ou a reprodução de falhas já documentadas em outros sistemas.

Ao final, a situação do novo modelo DeepSeek V3 nos lembra que, enquanto a inteligência artificial avança em um ritmo acelerado, questões fundamentais sobre a ética, a originalidade e a qualidade dos dados que alimentam esses sistemas se tornam mais relevantes do que nunca. A reflexão sobre a forma como identificamos e compreendemos esses sistemas inteligentes é crucial, não só para evitar equívocos de identidade, mas também para garantir que as inovações na área de IA continuem a seguir padrões éticos e de qualidade. Afinal, em um mundo saturado de informação e de “nuvens de dados”, quem realmente define a identidade de um modelo de IA?

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *