A crescente ascensão da inteligência artificial (IA) tem provocado debates acalorados sobre a segurança e os impactos sociais dessa tecnologia. Nesse contexto, a organização sem fins lucrativos Encode decidiu se unir ao empresário Elon Musk em sua luta judicial para impedir que a OpenAI, um dos principais desenvolvedores de IA, se transforme em uma entidade com fins lucrativos. Este movimento faz parte de um esforço maior para garantir que a evolução da IA não comprometa a segurança pública e princípios humanitários que agora estão em jogo.
Na última sexta-feira, Encode, que foi co-sponsorizadora da legislação de segurança em IA SB 1047 na Califórnia, submeteu uma petição ao Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia, solicitando permissão para apresentar um amicus brief em apoio ao pedido de Elon Musk. A argumentação da entidade é que a transição da OpenAI para uma estrutura lucrativa poderia comprometer sua missão de desenvolver e implantar tecnologias transformadoras de maneira segura e benéfica ao público.
Na proposta do amicus brief, os advogados da Encode ressaltam que a conversão da OpenAI em uma empresa focada no lucro iria “minar” os compromissos anteriormente assumidos. De acordo com o documento, “OpenAI e seu CEO, Sam Altman, afirmam estar desenvolvendo uma tecnologia transformadora para a sociedade, e tais afirmações devem ser levadas a sério.” Caso o mundo esteja realmente à beira de uma nova era da inteligência geral artificial (AGI), enfatizam, o interesse público exige que essa tecnologia seja controlada por uma entidade pública, ética e legalmente obrigada a priorizar a segurança e o bem-estar coletivo, e não por uma organização que visa tão somente o lucro financeiro para um número restrito de investidores privilegiados.
Sneha Revanur, fundadora e presidente da Encode, expressou preocupações sobre a direção que a OpenAI está tomando, acusando-a de “internalizar os lucros da IA, mas externalizar as consequências para toda a humanidade.” Afirmou também que “os tribunais devem intervir para garantir que o desenvolvimento da IA sirva ao interesse público.” Sua declaração ecoa as vozes de outros especialistas notáveis, como Geoffrey Hinton, um dos pioneiros na área de IA e laureado com o Nobel em 2024, e Stuart Russell, professor de ciência da computação da UC Berkeley. Hinton argumentou que a OpenAI foi fundada como uma entidade sem fins lucrativos focada na segurança e fez diversas promessas relacionadas à segurança em seu estatuto, que deveriam ser mantidas para preservar a confiança no ecossistema de desenvolvedores de IA.
A OpenAI foi criada em 2015 como um laboratório de pesquisa sem fins lucrativos e, à medida que suas experimentações se tornavam mais exigentes financeiramente, a organização implementou uma nova estrutura que permitiu investimentos de capital externo, incluindo de empresas como a Microsoft. Atualmente, a OpenAI opera com um modelo híbrido, com uma parte lucrativa controlada por uma instituição sem fins lucrativos que apresenta um “lucro limitado” para investidores e colaboradores. Contudo, em um post em seu blog, a OpenAI anunciou planos para iniciar sua transição a uma Delaware Public Benefit Corporation (PBC), com ações ordinárias e a missão da OpenAI como seu interesse público.
Este não é um assunto meramente acadêmico; o impacto se manifesta em uma série de questões práticas. Desde que a fundação da OpenAI, ela acumulou benefícios tributários e outras vantagens por sua condição de organização sem fins lucrativos. Permitir que a OpenAI desfaça essas obrigações em uma transição para fins lucrativos dá uma mensagem preocupante a outros atores do setor de IA. Como mencionado no amicus brief da Encode, tal movimento poderia transformar uma organização legalmente obrigada a garantir a segurança da IA em uma organização vinculada a “balancear” benefícios públicos com os interesses financeiros de seus acionistas.
O cenário se torna ainda mais complexo à medida que membros da equipe da OpenAI expressam preocupações sobre o caminho que a organização está tomando. Por exemplo, Miles Brundage, um ex-pesquisador de políticas da OpenAI, manifestou sua inquietude em postagens na plataforma X, afirmando que teme que a branch sem fins lucrativos da OpenAI se torne apenas um “aspecto secundário” que permitirá que a PBC opere como uma empresa convencional, sem abordar áreas problemáticas que possam surgir. A alegação de que a OpenAI tem o dever fiduciário com a humanidade pode se desvanecer, visto que a legislação de Delaware deixa claro que diretores de uma PBC não têm dever legal para com o público.
Encode, fundada em julho de 2020 por Revanur, se define como uma rede de voluntários dedicada a assegurar que as vozes das gerações mais jovens sejam ouvidas nas conversas sobre os impactos da IA. A organização tem atuado em diversas legislações federais e estaduais relacionadas à inteligência artificial, incluindo a Carta dos Direitos da IA da Casa Branca e a ordem executiva do presidente Joe Biden sobre IA.
Com o cenário da IA rapidamente em transformação, a disputa entre a OpenAI e seus críticos promete moldar o futuro da IA e a forma como será regulamentada. À medida que avançamos em direção a uma era em que a IA desempenha um papel preponderante em nossas vidas, a batalha em torno da governança e responsabilidade dessas tecnologias se torna cada vez mais urgente e relevante.
Leia mais sobre o impacto da regulação da IA e como organizações estão pressionando por um futuro mais ético e transparente na tecnologia.