A recente declaração do CEO da Nvidia, Jensen Huang, sobre o desempenho dos chips de inteligência artificial (IA) da empresa tem levantado discussões acaloradas na comunidade tecnológica. Durante uma entrevista à TechCrunch, Huang assegurou que a evolução dos chips de IA da Nvidia está superando as taxas históricas estabelecidas pela famosa Lei de Moore, que por décadas dirigiu o progresso computacional e estabeleceu expectativas para a indústria. Este anúncio veio logo após uma apresentação impressionante que Huang fez para uma plateia de 10 mil pessoas na Consumer Electronics Show (CES) em Las Vegas.

O conceito de Lei de Moore, criado por Gordon Moore, cofundador da Intel, em 1965, previu que o número de transistores nos chips de computador dobraria a cada ano, levando a um aumento equitativo no desempenho desses chips. Historicamente, essa previsão se concretizou, permitindo avanços rápidos em capacidade e uma drástica redução nos preços. Contudo, nas últimas décadas, essa lei parece ter desacelerado, com o crescimento mais moderado observado nas melhorias de desempenho dos chips de tecnologia. Entretanto, Huang afirma que os chips de IA da Nvidia estão acelerando seu progresso, indicando que seu mais recente superchip para datacenters é mais de 30 vezes mais rápido na execução de cargas de trabalho de inferência de IA em comparação com a geração anterior.

Huang acredita que a capacidade da Nvidia de desenvolver a arquitetura, o chip, o sistema, as bibliotecas e os algoritmos simultaneamente é a chave para essa evolução acelerada. Ele apresentou essa ideia destacando que a capacidade de inovar em todo o espectro tecnológico permite que a companhia avance além das limitações da Lei de Moore. Em suas palavras, “se você faz isso, pode avançar mais rápido do que a Lei de Moore, porque pode inovar em toda a pilha”. Este discurso audacioso se dá em um momento em que muitos especialistas estão questionando se o progresso da IA encontra-se estagnado.

As afirmações de Huang ganham ainda mais relevância considerando o papel vital que a Nvidia desempenha no ecossistema da IA. Laboratórios renomados, tais como Google, OpenAI e Anthropic, utilizam chips da Nvidia para treinar e executar seus modelos de IA. Portanto, melhorias significativas nos chips da Nvidia têm um impacto direto nas capacidades dos modelos de IA desenvolvidos por essas entidades. Em um podcast no final do ano passado, Huang até mencionou a possibilidade de um novo fenômeno que poderia ser definido como “hiper Lei de Moore”.

No entanto, o CEO da Nvidia não compartilha a ideia de que o progresso da IA está desacelerando, apresentando uma nova perspectiva sobre as leis de escalonamento da IA, que incluem três fases principais: pré-treinamento, que é a fase inicial onde os modelos de IA aprendem padrões a partir de grandes volumes de dados; pós-treinamento, que envolve o aperfeiçoamento das respostas de um modelo de IA por meio de feedback humano e ajuste fino; e computação durante o teste, que, segundo Huang, aumenta a capacidade de um modelo de IA de processar informações após cada pergunta feita, permitindo uma reflexão mais aprofundada e respostas mais precisas.

Huang também destacou que a Lei de Moore foi crucial na história da computação, pois possibilitou a redução dos custos computacionais. Ele acredita que o mesmo pode ser observado no campo da inferência, onde o aumento da performance resultará em uma diminuição nos custos associados. “O que estamos vendo hoje é que os modelos de IA que usam computação em tempo de teste são caros”, admitiu Huang. Um exemplo notável é o modelo o3 da OpenAI, que utilizava uma versão escalonada da computação em tempo de teste, resultando em custos que superaram os $20 por tarefa para alcançar pontuações de inteligência geral comparáveis às de seres humanos.

O potencial do chip mais recente da Nvidia, o GB200 NVL72, foi um dos destaques da apresentação de Huang na CES. Este chip é entre 30 e 40 vezes mais rápido em executar cargas de trabalho de inferência de IA em comparação com os chips anteriores da linha H100, conhecidos por serem o chip de escolha entre as empresas de tecnologia para o treinamento de modelos de IA. Com esse salto de desempenho, Huang acredita que os modelos de raciocínio IA, como o o3 da OpenAI, que demandam um processamento significativo durante a fase de inferência, podem se tornar mais acessíveis com o tempo.

Apesar do aumento inicial dos custos associados aos modelos de IA nas suas primeiras versões, Huang ainda mantém a confiança de que à medida que o desempenho dos chips da Nvidia aumenta, os preços tendem a cair, tornando a tecnologia e seus potenciais mais acessíveis a todos. Ele ressalta que o foco da empresa é criar chips mais eficientes e que esses chips de alta performance acabem gerando menor custo ao longo do tempo. Como ele afirmara a TechCrunch, “A solução imediata e direta para a computação em tempo de teste, tanto em performance quanto em custo acessível, é aumentar nossa capacidade computacional”. Este é um aspecto que não apenas molda o futuro da IA, mas também promessas de acessibilidade e eficiência na tecnologia como um todo.

Com isso, a Nvidia não só se posiciona à frente no desenvolvimento de tecnologia de IA, mas também molda o futuro da computação com um relacionamento histórico com a Lei de Moore, que está cada vez mais sendo considerada como um parâmetro a ser superado. Huang enfatiza que a performance atual de seus chips já é 1.000 vezes superior à dos chips fabricados há apenas dez anos, e essa trajetória de crescimento apresentou uma taxa de evolução que foge dos padrões tradicionais. Em suma, o mundo da tecnologia observa com expectativa as promessas e inovações que a Nvidia e seus chips de IA trarão para os próximos anos.

Leia mais sobre a entrevista de Jensen Huang na TechCrunch.

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *