A OpenAI, uma das principais entidades de pesquisa em inteligência artificial (IA), está apoiando financeiramente pesquisas acadêmicas na busca por algoritmos que consigam prever o juízo moral dos seres humanos. Este movimento não só revela a ambição da OpenAI em abordar questões éticas relacionadas à tecnologia, mas também levanta questionamentos sérios sobre a possibilidade de uma máquina entender nuances tão complexas quanto a moralidade humana.
detalhes sobre o financiamento e os pesquisadores envolvidos
Em um documento enviado ao Serviço de Receita Federal dos Estados Unidos (IRS), a OpenAI Inc., que é a organização sem fins lucrativos associada à OpenAI, anunciou que concedeu uma bolsa aos pesquisadores da Universidade Duke para um projeto intitulado “Pesquisa sobre a Moralidade da IA”. Um porta-voz da OpenAI comentou que este prêmio faz parte de um investimento mais amplo, que durante três anos totaliza 1 milhão de dólares, e visa auxiliar professores da Duke a desenvolver aplicações de inteligência artificial com moralidade incorporada.
Atualmente, os detalhes sobre esse projeto específico de moralidade ainda são escassos e, segundo informações, a bolsa deve ser completada até o ano de 2025. O investigador principal do estudo, Walter Sinnott-Armstrong, professor de ética prática na Duke, afirmou à TechCrunch que “não poderá falar” sobre as especificidades de seu trabalho. Apesar disso, ele e a co-investigadora do projeto, Jana Borg, já haviam produzido diversos estudos e uma publicação sobre o potencial da inteligência artificial servir como um “GPS moral”, ajudando os seres humanos a tomarem decisões mais acertadas em situações éticas.
objetivo da pesquisa e seus desafios
De acordo com o comunicado à imprensa, o objetivo do trabalho financiado pela OpenAI é treinar algoritmos capazes de “prever os juízos morais humanos” em cenários que envolvem conflitos “entre características moralmente relevantes nos campos da medicina, direito e negócios”. Entretanto, a aplicabilidade de um conceito tão complexo quanto a moralidade à tecnologia de hoje ainda é incerta. Em 2021, o Instituto Allen para IA, uma organização sem fins lucrativos, desenvolveu uma ferramenta chamada Ask Delphi, que tinha como intuito fornecer recomendações eticamente corretas. Apesar do sucesso em responder algumas questões morais básicas, como a desaprovação da trapaça em um exame, o sistema falhou em situações mais sutis, permitindo, por exemplo, a aprovação de ações moralmente questionáveis com apenas uma leve reinterpretação da pergunta inicial.
Esse fenômeno é consequência da forma como os sistemas de IA modernos funcionam. Os modelos de aprendizado de máquina são baseados em estatísticas, sendo treinados com um vasto conjunto de dados extraídos da internet. Eles aprendem a identificar padrões, mas carecem da compreensão dos conceitos éticos. Assim, as respostas da IA muitas vezes refletem os valores predominantes das sociedades ocidentais, educadas e industrializadas, que dominam a maioria dos conteúdos disponíveis online. Como resultado, valores de diversas culturas e sociedades podem ser negligenciados, especialmente se essas vozes não estiverem representadas nos dados de treinamento da IA.
os dilemas éticos presentes na pesquisa
A pesquisa e os desafios enfrentados pela OpenAI e pelos pesquisadores da Duke são ainda mais complicados pela subjetividade inerente à moralidade. Por milênios, filósofos debatem as vantagens de diversas teorias éticas, e ainda não há um quadro universalmente aplicável a ser seguido. Um sistema de IA destinado a prever o juízo moral humano precisará considerar uma ampla gama de perspectivas éticas, o que representa uma tarefa monumental. Diferentes abordagens éticas, como o kantianismo, que prioriza regras morais absolutas, e o utilitarismo, que busca o maior bem para o maior número de pessoas, apresentam dilemas sobre qual delas seria a mais adequada na programação de algoritmos morais.
A criação de um algoritmo que pretenda prever julgamentos morais humanos deve, portanto, levar em conta essa diversidade de teorias e suas respectivas nuances. A qualidade e a relevância desse algoritmo dependerão não apenas da capacidade técnica da OpenAI, mas da aceitação de que a moralidade não é um conceito simples e, sim, um campo repleto de complexidades. A pergunta que permanece é se a tecnologia conseguirá, de fato, atingir esse elevado padrão.
Concluímos que a pesquisa não somente visa promover a criação de inteligência artificial mais ética, mas também provoca uma reflexão mais profunda sobre a moralidade humana e como, os valores que assumimos como certos, são moldados por experiências culturais, sociais e históricas diversas. O futuro da moralidade em IA é um assunto que, sem dúvida, ainda nos proporcionará muitas discussões e aprendizados ao longo dos próximos anos.