Nos últimos anos, gritos de alerta vindos de tecnólogos sobre os perigos potenciais de sistemas avançados de inteligência artificial (IA) ecoaram nas discussões sociais e acadêmicas. A ansiedade em torno da possibilidade de a IA causar danos catastróficos à humanidade levou a debates acalorados sobre sua regulação e segurança. Contudo, em 2024, a narrativa deu uma guinada surpreendente. A perspectiva pessimista, tradicionalmente defendida pelos chamados “doomsters da IA”, perdeu espaço para uma visão mais prática e otimista promovida pela indústria de tecnologia, uma mudança que, de certa forma, beneficiou também os interesses financeiros do setor.

Os “doomsters da IA”, como são comumente conhecidos os que alertam sobre riscos catastróficos associados à IA, expressam preocupações legítimas. Eles temem que sistemas de IA tomem decisões que possam resultar na morte de pessoas, ser utilizados pelos poderosos para oprimir as massas ou ainda contribuir para o colapso da sociedade contemporânea de diversas formas. Durante o ano de 2023, estava em andamento uma espécie de renascimento da discussão sobre regulação tecnológica; dois assuntos emergentes, “desastre da IA” e “segurança da IA” — que incluem tópicos como alucinações de IA e moderação de conteúdo inadequado — começaram a ganhar visibilidade não apenas em cafés de São Francisco, mas também nas principais redes de notícias, como CNN e MSNBC, e em páginas de destaque do *The New York Times*.

Em um apanhado dos alertas emitidos em 2023, destacamos a reunião de Elon Musk e mais de 1.000 tecnólogos e cientistas, que clamaram por uma pausa no desenvolvimento da IA, instando o mundo a se preparar para os profundos riscos que essa tecnologia representa. Pouco depois, principais cientistas de organizações como OpenAI e Google assinaram uma carta aberta enfatizando que a possibilidade de a IA causar a extinção humana deveria receber mais atenção. Em um movimento significativo, o presidente Biden assinou uma ordem executiva com o objetivo geral de proteger os americanos dos riscos associados a sistemas de IA. No entanto, a turbulência na OpenAI culminou em novembro de 2023 com a demissão de Sam Altman, CEO da organização, por um conselho não lucrativo, que alegou que Altman tinha um histórico de desonestidade que tornava questionável sua capacidade de lidar com a inteligência artificial geral, ou AGI — um conceito que antes era considerado o objetivo final da IA, referindo-se a sistemas que demonstram autoconsciência, mas que atualmente está se adaptando ao contexto empresarial do setor.

Por um breve período, parecia que os anseios dos empreendedores do Vale do Silício iriam ceder diante da saúde coletiva da sociedade. Contudo, essa narrativa sobre o “apocalipse da IA” se tornou mais preocupante para os empreendedores do que os próprios modelos de IA. Como resposta, Marc Andreessen, cofundador da a16z, publicou um extenso ensaio intitulado “Por que a IA salvará o mundo” em junho de 2023. Nesse texto de 7.000 palavras, ele desmontou a agenda dos doomsters da IA, apresentando uma visão mais otimista sobre o futuro da tecnologia.

Durante o evento TechCrunch Disrupt SF, em São Francisco, Andreessen declarou: “A era da inteligência artificial chegou, e as pessoas estão assustadas. Felizmente, estou aqui para trazer boas notícias: a IA não destruirá o mundo e, na verdade, pode salvá-lo.” Ao finalizar seu argumento, Andreessen sugeriu uma solução prática e conveniente para os temores em torno da IA: “mova-se rápido e quebre coisas”, uma filosofia que, na verdade, tem definido a abordagem da tecnologia no século XXI em relação a suas diversas questões. Ele argumentou que empresas de tecnologia de grande porte e startups deveriam poder desenvolver IA o mais rápido e agressivamente possível, com pouca ou nenhuma barreira regulatória. Para Andreessen, isso garantiria que a IA não caísse nas mãos de algumas empresas ou governos poderosos, além de permitir que os Estados Unidos competissem efetivamente com a China.

Naturalmente, essa abordagem favorece a16z e suas várias startups de IA, levantando críticas em um momento de extrema desigualdade de renda, crises habitacionais e pandemias. E enquanto Andreessen pode ter desavenças com a Big Tech, o lucro é uma questão sobre a qual toda a indústria concorda. Em uma carta escrita em conjunto com o CEO da Microsoft, Satya Nadella, este ano, cofundadores da a16z solicitaram ao governo que não regulasse a indústria de IA de forma alguma.

Por outro lado, apesar dos apelos por mais segurança, o verdadeiro investimento em inteligência artificial cresceu em 2024, superando todas as expectativas e marcos anteriores. Sam Altman retornou rapidamente à liderança da OpenAI, enquanto um êxodo de pesquisadores pela segurança deixou a organização em 2024, alertando sobre a cultura de segurança em declínio dentro da empresa. A ordem executiva sobre segurança da IA, que havia recebido foco em 2023, rapidamente perdeu apoio em Washington, D.C. O presidente eleito Donald Trump anunciou planos para revogar a ordem de Biden, alegando que ela impede inovações em IA. Andreessen se posicionou como conselheiro de Trump em questões de tecnologia e IA, e Sriram Krishnan, um tradicional capitalista de risco da a16z, assumiu o cargo de assessor sênior de Trump para a IA.

Os republicanos em Washington têm várias prioridades relacionadas à IA que passam à frente da preocupação sobre o “apocalipse da IA”, de acordo com Dean Ball, pesquisador focado em IA no centro Mercatus da Universidade George Mason. Entre esses itens estão a construção de data centers para apoiar a IA, sua utilização em operações do governo e militares, competição com a China, limitação da moderação de conteúdo por empresas de tecnologia de centro-esquerda e proteção de crianças contra chatbots de IA. “Acredito que o movimento para prevenir riscos catastróficos da IA perdeu espaço em nível federal. No nível estadual e local, eles também enfrentaram derrota em uma das únicas batalhas que travaram,” disse Ball em uma entrevista ao TechCrunch, referindo-se à situação em torno da polêmica lei de segurança da IA da Califórnia, SB 1047.

Parte do motivo pelo qual a preocupação com o “apocalipse da IA” ficou em segundo plano em 2024 é que, enquanto os modelos de IA se tornaram mais populares, ficou claro o quão limitados eles podem ser em sua inteligência. Fica difícil imaginar o Google Gemini se tornando a Skynet, especialmente quando ele sugere colocar cola em uma pizza. Entretanto, 2024 foi um ano em que muitos produtos de IA pareciam transformar conceitos de ficção científica em realidade, como quando a OpenAI demonstrou pela primeira vez a comunicação interativa com telefones e a Meta apresentou óculos inteligentes com entendimento visual em tempo real.

A maior batalha sobre o “apocalipse da IA” em 2024 focalizou a legislação SB 1047, apoiada por renomados pesquisadores de IA como Geoffrey Hinton e Yoshua Benjio. Essa lei buscava prevenir que sistemas avançados de IA causassem eventos de extinção em massa ou ciberataques que pudessem causar danos iguais ou superiores ao que ocorreu no incidente da CrowdStrike em 2024. A SB 1047 passou pela legislatura da Califórnia e chegou a ser considerada pelo governador Gavin Newsom, que a classificou como uma proposta de “impacto desproporcional”. O projeto visava impedir os cenários apocalípticos que Musk, Altman e outros líderes do Vale do Silício haviam alertado em 2023, ao assinar cartas abertas sobre a IA.

No entanto, Newsom optou por vetar a SB 1047. Nos dias que antecederam sua decisão, o governador falou sobre a regulação da IA em um evento em São Francisco, onde afirmou: “Não posso resolver tudo. O que podemos resolver?” Essa afirmação reflete o pensamento de muitos formuladores de políticas que encaram o risco catastrófico da IA como um problema sem solução prática. Apesar disso, o projeto SB 1047 tinha falhas além de sua ênfase no risco apocalíptico. Ele propunha regular modelos de IA com base em seu tamanho, com o objetivo de focar apenas nos maiores players do setor, mas essa medida não considerou novas técnicas como computação sob teste ou a ascensão de pequenos modelos de IA, que os principais laboratórios de IA já estavam adotando. Ademais, a proposta foi amplamente vista como um ataque à IA de código aberto — e, indiretamente, à pesquisa na área — ao restringir a liberação de modelos de IA altamente personalizáveis por empresas como Meta e Mistral.

Pelo lado dos defensores do projeto, o senador estadual Scott Wiener, autor da SB 1047, alegou que o Vale do Silício interferiu indevidamente para mudar a opinião pública ao redor dessa proposta, mencionando que capitalistas de risco associados à Y Combinator e a a16z envolveram-se em uma campanha de propaganda contra o projeto. Esse grupo espalhou afirmações de que a SB 1047 poderia levar à prisão de desenvolvedores de software por perjúrio. Enquanto isso, a Y Combinator pediu que jovens fundadores assinassem uma carta afirmando essa ideia em junho de 2024. Aproximadamente na mesma época, Anjney Midha, associado de alto escalão da a16z, fez uma afirmação similar em um podcast.

A Brookings Institution categorizou isso como uma entre muitas distorções apresentadas em relação à SB 1047. Embora o projeto realmente exigisse que as instituições tecnológicas enviassem relatórios identificando deficiências de seus modelos de IA, ele ressaltou que mentir em um documento governamental é, de fato, caracterizado como perjúrio. Contudo, os capitalistas de risco que propagaram esses temores falharam em mencionar que pessoas raramente enfrentam acusações por perjúrio e, ainda mais raramente, são condenadas por isso. A Y Combinator rejeitou a acusação de que disseminou informações falsas, alegando anteriormente ao TechCrunch que a SB 1047 era vaga e não tão concreta quanto o senador Wiener a descreveu.

Além disso, havia uma crescente percepção durante a disputa sobre a SB 1047 de que os doomsters da IA não apenas eram contra a tecnologia, mas também considerados delirantes. O renomado investidor Vinod Khosla declarou que Wiener estava “desinformado” sobre os verdadeiros perigos da IA em outubro deste ano. O principal cientista de IA da Meta, Yann LeCun, que por muito tempo se opôs aos conceitos que fundamentam a ideia de “apocalipse da IA”, tornou-se mais vocal este ano. Ele afirmou no evento de Davos 2024: “A ideia de que, de alguma forma, sistemas inteligentes irão estabelecer seus próprios objetivos e dominar a humanidade é simplesmente absurda, ridícula. Estamos a uma longa distância de desenvolver sistemas de IA superinteligentes.”

Os legisladores mudaram seu foco para um novo conjunto de problemas relacionados à segurança da IA e preveem que aqueles por trás da SB 1047 podem voltar com uma versão modificada em 2025, abordando riscos de longo prazo da IA. Sonny Gandhi, vice-presidente de assuntos políticos da Encode, um dos patrocinadores do projeto, afirmou que a atenção nacional gerada pela SB 1047 foi um sinal positivo, acrescentando: “O movimento de segurança da IA avançou de forma muito encorajadora em 2024, apesar do veto à SB 1047”. Ele revelou uma expectativa de “esforços significativos” em 2025, focando na regulação de riscos catastróficos assistidos pela IA, embora não tenha divulgado propostas específicas.

Por outro lado, Martin Casado, sócio geral da a16z, é um dos lideres da resistência a regulamentações sobre riscos catastróficos da IA. Em um artigo de opinião sobre políticas de IA publicado em dezembro, Casado defendeu a necessidade de políticas de IA mais razoáveis, apresentando a ideia de que “a IA parece ser tremendamente segura”. Sua afirmação de que a primeira onda de políticas “estúpidas” relacionadas à IA está, em grande parte, atrás de nós, oferece uma visão simplista da complexidade que envolve a regulamentação dessa tecnologia. Por exemplo, a Character.AI — uma startup na qual a a16z investiu — está enfrentando um processo e investigações sobre preocupações com a segurança infantil. Um dos processos ativos refere-se ao caso trágico em que um menino de 14 anos, na Flórida, cometeu suicídio após compartilhar seus pensamentos suicidas com um chatbot da Character.AI com o qual tinha conversas românticas e sexuais. Este caso ilustra bem a necessidade de a sociedade se preparar para novos tipos de riscos relacionados à IA, que alguns anos atrás poderiam soar como absurdos.

Enquanto outras propostas sobre riscos de longo prazo da IA estão sendo discutidas — incluindo uma apresentada recentemente em nível federal pelo senador Mitt Romney — parece que os doomsters da IA enfrentarão uma batalha difícil em 2025, diante do apelo por uma abordagem mais equilibrada e consciente da regulamentação da IA.

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *