No último mês, os fundadores e investidores do setor de inteligência artificial (IA) manifestaram a TechCrunch que estamos vivenciando a “segunda era das leis de escalonamento.” Essa nova fase traz à tona métodos tradicionais para aprimorar modelos de IA que demonstram retornos decrescentes. Uma abordagem promissora indicada por esses especialistas é a “escalonamento no tempo de teste,” que parece ser um dos fundamentos por trás do notável desempenho do modelo o3 da OpenAI, embora venha acompanhada de suas próprias desvantagens.
Um Marco na Evolução dos Modelos de IA
A maioria da comunidade de IA recebeu o anúncio do modelo o3 da OpenAI como uma confirmação de que o progresso na escalabilidade da IA não chegou a um beco sem saída. O modelo destacou-se em benchmarks, superando significativamente todos os outros modelos em um teste de inteligência geral, denominado ARC-AGI, e alcançando uma pontuação de 25% em um desafiador teste de matemática, onde nenhum outro modelo de IA ultrapassou 2%. Para aqueles que acompanham as notícias da IA, o o3 representa um claro avanço, mas também levanta questões sobre seus custos operacionais.
É importante observar que, em comparação com suas versões anteriores — como o modelo o1, que foi lançado apenas três meses antes do o3 — o co-criador do o3, Noam Brown, indicou que a OpenAI está já executando saltos significativos de desempenho em prazos relativamente curtos. Ele comentou em uma rede social que a companhia possui razões para acreditar que essa trajetória de avanços irá continuar, o que tem instigado a curiosidade do setor.
Expectativas de um Futuro Brilhante para a IA
Jack Clark, cofundador da Anthropic, reforçou, em um post em seu blog, que o o3 é um indício de que o progresso em IA será mais rápido em 2025 do que em 2024. Este tipo de afirmação, embora pareça ser um elogio a um concorrente, também impressiona, significando que métodos como a escalabilidade no tempo de teste e os tradicionais métodos de pré-treinamento se entrelaçarão, maximizando ainda mais os retornos dos modelos de IA. Dessa maneira, a expectativa de desenvolvimento para raciocínio e processamento humano em novos modelos, como o o4 e o o5, cresce a cada dia.
A introdução do escalonamento no tempo de teste na operação do ChatGPT também gera curiosidade. Nesse novo processo, a OpenAI está utilizando mais recursos computacionais durante a fase de inferência, que é o intervalo de tempo após o envio de um prompt. O funcionamento interno exato desse processo ainda não é totalmente claro, mas o que se sabe é que a OpenAI está utilizando mais chips de computador ou chips de inferência mais potentes, ou até funcionando com esses chips por um período mais longo, o que pode ter contribuído para a alavancagem do desempenho do modelo o3.
Desafios e Implicações de Custo com o Avanço da IA
Apesar de o o3 dar a alguns uma renovada crença no progresso das leis de escalonamento de IA, o novo modelo utiliza um nível de computação sem precedentes, implicando, portanto, em um custo mais elevado por resposta. O que realmente chama a atenção é a observação de que um dos fatores que torna o o3 tão superior é o custo envolvido na execução em tempo de inferência. Com isso, a capacidade de utilizar computação em tempo de teste significa que, em certos problemas, aumentar a computação resulta em respostas qualitativamente melhores.
A avaliação do desempenho do o3 no benchmark ARC-AGI é um indicador significativo de seu progresso. Embora a pontuação de 88% alcançada pelo modelo o3 seja impressionante, ela vem acompanhada da constatação de que o custo computacional foi estratosférico, superando a marca de US$ 1.000 por tarefa em comparação com os meros centavos utilizados por versões anteriores, como o o1.
Um Novo Olhar sobre o Futuro da IA e Seus Custos
Essas observações levantam questões pertinentes: Para que serve realmente o o3? E qual a quantidade de computação necessária para gerar mais ganhos com futuros modelos? A utilização do o3 pode não ser o ideal para tarefas cotidianas, como responder a perguntas simples sobre eventos esportivos, pois o custo elevado pode não justificar seu uso para questões triviais.
Instituições com orçamentos mais robustos, em áreas como a academia, finanças e diversos problemas industriais, podem ser as principais beneficiárias desse modelo, como observou o professor da Wharton, Ethan Mollick. Ele apontou que o o3 poderia ter múltiplos casos de uso, mesmo antes que os custos caíssem, uma vez que pagar centenas ou até milhares de dólares por uma resposta bem-sucedida não seria um grande problema para essas instituições.
Conforme as tecnologias de IA avançam, a possibilidade de melhores chips para inferência também se torna uma opção viável. Startups como Groq e Cerebras estão ativas na busca por esses avanços, enquanto outras estão criando chips de IA mais custo-efetivos, como o MatX. Há uma expectativa crescente em que esses desenvolvimentos possam desempenhar um papel significativo na escalabilidade da computação em tempo de teste nos anos vindouros.
Reflexões Finais sobre o Potencial do Modelo O3
Ainda que o modelo o3 represente uma melhoria significativa no desempenho de modelos de IA, ele suscita inúmeras dúvidas sobre o uso e os custos envolvidos. Contudo, o desempenho do o3 adiciona credibilidade à ideia de que a computação em tempo de teste é a próxima grande tendência na escalabilidade de modelos de IA. O que resta saber é qual direção a OpenAI tomará em suas futuras inovações e como isso irá impactar a indústria e seu consumidor final.
Não deixe de acompanhar as atualizações sobre IA, inscrevendo-se em nosso boletim informativo semanal. Você certamente não vai querer perder as próximas novidades!