A era da inteligência artificial (IA) trouxe consigo uma série de inovações que têm revolucionado a forma como interagimos com a tecnologia, e os chamados agentes de inteligência artificial parecem ser o próximo grande avanço nesse campo. No entanto, uma questão persiste: o que exatamente define um agente de IA? Apesar do entusiasmo em torno dessa novidade, a falta de um consenso claro sobre suas funções e aplicações ainda traz confusão entre especialistas e usuários, levantando questões importantes sobre o futuro dessa tecnologia.
Em sua essência, um agente de IA pode ser descrito como um software alimentado por inteligência artificial que realiza uma variedade de tarefas que, anteriormente, eram atribuídas a profissionais humanos, como atendentes de serviço ao cliente, profissionais de recursos humanos ou especialistas em suporte técnico. A proposta é que esses agentes possam não apenas responder perguntas, mas também executar uma série complexa de funções, cruzando informações entre diferentes sistemas. Recentemente, a empresa Perplexity lançou um agente de IA que auxilia usuários nas compras de fim de ano, e o Google apresentou o seu primeiro agente, denominado Projeto Mariner, que pode auxiliar na busca por passagens aéreas, reservas de hotéis e até na criação de receitas, entre outras tarefas cotidianas.
Parece simples, não é mesmo? Contudo, a situação é complexa e marcada pela ambiguidade. Entre os gigantes da tecnologia, ainda não há um acordo sobre o que, de fato, constitui um agente de IA. Para a Google, esses agentes são assistentes baseados em tarefas, adaptando-se às necessidades de cada área, como ajudar desenvolvedores com codificação, ajudar profissionais de marketing na criação de esquemas de cores ou colaborar com especialistas de TI na resolução de problemas técnicos. A Asana, uma plataforma de gerenciamento de trabalho, vê esses agentes como colaboradores adicionais, encarregados de realizar tarefas específicas, como se fossem um colega de trabalho eficiente. Por outro lado, a Sierra, uma startup cofundada por Bret Taylor, ex-CEO da Salesforce, considera esses agentes ferramentas para melhorar a experiência do cliente, oferecendo soluções mais elaboradas do que os chatbots tradicionais, superando os desafios de interações simples e triviais.
Essa falta de uma definição coesa leva à confusão sobre a funcionalidade real desses agentes, mas, independentemente de como são categorizados, a essência permanece: eles são projetados para ajudar a completar tarefas de maneira automatizada, com mínima intervenção humana. Rudina Seseri, fundadora e sócia-gerente da Glasswing Ventures, destaque que ainda estamos em um estágio inicial em relação aos agentes de IA. Segundo ela, “não há uma única definição do que é um agente de IA. Contudo, a visão mais recorrente é que um agente é um sistema de software inteligente projetado para perceber seu ambiente, raciocinar sobre ele, tomar decisões e realizar ações para alcançar objetivos específicos de forma autônoma”. Os agentes utilizam uma combinação de tecnologias de IA, incluindo processamento de linguagem natural, aprendizado de máquina e visão computacional, para operar em campos dinâmicos, agindo sozinhos ou em colaboração com outros agentes e usuários humanos.
A visão otimista defendida por Aaron Levie, cofundador e CEO da Box, sugere que, à medida que a IA continua a evoluir, os agentes de IA serão capazes de executar um escopo ainda maior de tarefas em nome dos humanos. Ele menciona que diversos componentes funcionam em um ciclo de reforço que promete melhorar drasticamente o que esses agentes podem alcançar, como o custo de desempenho de unidades de processamento gráfico (GPUs), eficiência de modelos e melhorias em frameworks de IA e infraestrutura. No entanto, essa perspectiva assume um crescimento em todas essas áreas, algo que nem sempre é garantido.
O pioneiro em robótica do MIT, Rodney Brooks, levanta questões sobre essa visão otimista, destacando que a IA deve lidar com problemas muito mais desafiadores do que a maioria das tecnologias. Em uma entrevista recente, Brooks observou que “quando um ser humano vê um sistema de IA realizar uma tarefa, ele rapidamente generaliza isso para coisas semelhantes e faz uma estimativa da competência do sistema de IA; não apenas o desempenho naquela tarefa, mas a competência em torno dela”. Ele alertou que as pessoas costumam ser excessivamente otimistas em relação ao desempenho da IA, o que pode levar a uma superestimação das suas capacidades reais.
A complexidade de atravessar sistemas diferentes é um dos principais desafios, especialmente considerando que muitos sistemas legados carecem de acesso básico a interfaces de programação de aplicativos (APIs). Embora melhorias constantes sejam observadas nas áreas mencionadas por Levie, a capacidade de um software acessar múltiplos sistemas enquanto soluciona problemas que possa encontrar durante o processo pode ser mais desafiadora do que muitos acreditam.
Esse cenário sugere que a indústria pode estar exagerando nas expectativas sobre o que os agentes de IA devem ser capazes de realizar. David Cushman, líder de pesquisa da HFS Research, vê os bots atuais de maneira semelhante à Asana: como assistentes que ajudam os humanos na conclusão de determinadas tarefas, visando alcançar um objetivo estratégico definido pelo usuário. O real desafio reside em permitir que um sistema automatizado lide com contingências de maneira verdadeiramente autônoma, e claramente, ainda estamos longe desse objetivo.
Jon Turow, sócio da Madrona Ventures, reforça a necessidade de construir uma infraestrutura dedicada aos agentes de IA, que envolva uma pilha tecnológica projetada especificamente para a criação desses assistentes. Em uma postagem recente em seu blog, Turow apresenta exemplos de agentes de IA que já estão funcionando no mercado e discute como estão sendo construídos atualmente. Ele propõe que, à medida que a infraestrutura se desenvolve, o raciocínio dos agentes será aprimorado ao longo do tempo, e os desenvolvedores poderão se concentrar mais na criação de produtos e no gerenciamento de dados – os fatores que diferenciam suas ofertas.
Outro aspecto importante a considerar é que provavelmente será necessário utilizar múltiplos modelos para que os agentes funcionem adequadamente, em vez de depender de um único modelo de linguagem. Isso se justifica ao pensar nesses agentes como coletivos de diferentes tarefas. Fred Havemeyer, chefe de Pesquisa em AI e software na Macquarie US Equity Research, expressou sua crença de que nenhum modelo de linguagem grande, pelo menos os disponíveis publicamente, é capaz de lidar com tarefas de agente. Havemeyer lamenta a impossibilidade desses modelos realizarem um raciocínio de múltiplos passos, o que tornaria o futuro dos agentes mais empolgante. Ele acredita que os agentes mais eficazes provavelmente serão coleções de diferentes modelos com uma camada de roteamento, que encaminhará pedidos ou comandos para o modelo mais eficaz e apropriado para a tarefa.
Para Havemeyer, a indústria está caminhando para ver agentes que operem de forma independente, capazes de entender objetivos abstratos e raciocinar sobre todos os passos necessários, completamente de forma autônoma. No entanto, o fato é que ainda estamos em um período de transição quando se trata desses agentes, e a incerteza persiste quanto a quando atingiremos o ideal descrito por Havemeyer, onde os agentes operam como imaginado. Embora o que foi observado até agora indique um passo promissor na direção certa, ainda são necessárias muitas melhorias e breakthroughs para que os agentes de IA funcionem conforme foram idealizados. É fundamental reconhecer que ainda não chegamos lá.
Esta história foi publicada originalmente em 13 de julho de 2024 e foi atualizada para incluir novos agentes da Perplexity e do Google.