A Partida de Lilian Weng e Seu Impacto no Cenário de Segurança da IA
No último mês, o mundo da inteligência artificial (IA) presenciou mais uma despedida significativa, desta vez com a saída de Lilian Weng, uma das principais pesquisadoras de segurança da OpenAI. Em um comunicado postado em sua conta na plataforma X, Weng confirmou que enfrentou uma dura decisão ao deixar a empresa após sete anos de contribuição. Assumindo a posição de vice-presidente de pesquisa e segurança em agosto, Weng teve um papel crucial na evolução das práticas de segurança da IA dentro da OpenAI, equipe cuja liderança lhe conferiu um papel de destaque na pesquisa de segurança.
A partir de 15 de novembro, a saída de Weng adiciona seu nome a uma lista crescente de profissionais de segurança de IA, pesquisadores em políticas e executivos que deixaram a OpenAI ao longo do último ano. Este movimento gerou debates intensos sobre a direção da companhia e a alegação de que as iniciativas comerciais têm ganhado precedência sobre a segurança da IA. Weng se junta a figuras proeminentes que também deixaram a OpenAI para buscar novas oportunidades em segurança da IA, incluindo Ilya Sutskever e Jan Leike, que eram líderes de uma equipe que buscava métodos para guiar sistemas de IA superinteligentes e que agora já não existe.
Trajetória Impressionante na OpenAI
A jornada de Weng na OpenAI começou em 2018, quando se uniu à equipe focada em robótica, desenvolvendo uma mão robótica capaz de resolver um cubo mágico, um projeto que demandou dois anos até ser finalizado. A transição de foco da OpenAI para o paradigma GPT também havia coincidido com as mudanças na carreira de Weng, que em 2021 começou a ajudar na formação da equipe de pesquisa aplicada em IA.
Após o lançamento do GPT-4, Weng recebeu a missão de estabelecer uma equipe dedicada à criação de sistemas de segurança em 2023, que rapidamente se expandiu para mais de 80 especialistas, entre cientistas, pesquisadores e profissionais de políticas, conforme revelado em seu anúncio. Este crescimento, no entanto, não é sem controvérsias, visto que muitos especialistas expressaram preocupações sobre a verdadeira prioridade que a OpenAI atribui à segurança enquanto busca desenvolver sistemas de IA cada vez mais poderosos.
Cenário de Incerteza e Mudança
Outros especialistas, como Miles Brundage, que atuava como pesquisador de políticas na OpenAI, também optaram por deixar a empresa, divulgando que a equipe de prontidão para AGI estava sendo dissolvida, uma informação que foi publicada no mesmo dia em que o New York Times divulgou uma história sobre Suchir Balaji, um ex-pesquisador da OpenAI que saiu por acreditar que a tecnologia da empresa poderia causar mais malefícios à sociedade do que benefícios.
Em resposta à saída de Weng, a OpenAI destacou, por meio de uma declaração oficial, que está atenta à transição para substituir suas funções. “Agradecemos profundamente as contribuições de Lilian para a pesquisa de segurança inovadora e para a construção de salvaguardas técnicas rigorosas”, comentou um porta-voz da OpenAI, assegurando que a equipe de Sistemas de Segurança continuará a desempenhar um papel fundamental para que suas tecnologias sejam seguras e confiáveis, beneficiando milhões de usuários ao redor do mundo.
Um Futuro Incerto Para a OpenAI
Recentemente, a OpenAI também viu o êxodo de outros executivos, incluindo o CTO Mira Murati, o diretor de pesquisa Bob McGrew e o VP de pesquisa Barret Zoph. As despedidas de figuras tão proeminentes indicam sinais de instabilidade dentro da companhia, e alguns dos que deixaram a OpenAI, como Leike e Schulman, já incorporaram uma nova equipe na concorrente Anthropic, enquanto outros decidiram iniciar seus próprios empreendimentos. Esse atual cenário levanta um questionamento pertinente: o que o futuro reserva para a OpenAI e para a segurança da IA em um mundo em constante transformação e no qual as demandas comerciais parecem estar se sobrepondo aos interesses de segurança?