Recentemente, o Google atualizou suas diretrizes para esclarecer que seus clientes podem utilizar suas ferramentas de inteligência artificial generativa para tomar decisões automatizadas em domínios considerados “altamente arriscados”, como é o caso da área de saúde. Para que isso aconteça, no entanto, a presença de um ser humano no processo é essencial. Essa mudança foi oficializada através da nova Política de Uso Proibido da IA Generativa, publicada na terça-feira.

A nova política permite que os clientes do Google utilizem sua inteligência artificial generativa para realizar decisões que possam impactar de forma significativa os direitos individuais, desde que um humano atue como supervisor em algum nível. As decisões automatizadas que podem ser tomadas incluem aquelas que dizem respeito a áreas críticas como emprego, habitação, seguros e assistência social. Essa abordagem reflete uma tentativa do Google de abrir suas ferramentas para usos que podem facilitar a automação, ao mesmo tempo em que garante que medidas de supervisão estão em vigor.

No contexto da inteligência artificial, decisões automatizadas referem-se a escolhas feitas por um sistema de IA baseado em dados que podem ser tanto factuais quanto inferidos. Por exemplo, pode ocorrer uma decisão automatizada ao aprovar um empréstimo ou ao selecionar candidatos a vagas de emprego. A abordagem anterior das diretrizes do Google indicava uma proibição geral em relação à tomada de decisões automatizadas de alto risco que envolvessem sua IA generativa. No entanto, em conversa com a TechCrunch, a empresa esclareceu que sempre foi possível utilizar sua IA gerativa para decisões automatizadas, mesmo em aplicações de alto risco, desde que houvesse supervisão humana envolvida.

Um representante do Google comentou, por e-mail, que “o requisito de supervisão humana sempre foi parte de nossa política, para todos os domínios de alto risco”. A reorganização e a clara categorização das condições visam oferecer uma orientação mais fácil de entender para os usuários.

Quando comparadas, as regras dos principais concorrentes do Google, como OpenAI e Anthropic, são bastante rígidas em termos de governança do uso de suas IAs em decisões automatizadas de alto risco. O OpenAI, por exemplo, proíbe expressamente o uso de seus serviços para decisões automatizadas em áreas como crédito, empregos, habitação, educação, avaliação social e seguros. A Anthropic, por sua vez, permite o uso de sua IA em áreas de alto risco, como direito, seguros e saúde, mas somente sob a supervisão de um “profissional qualificado”, além de exigir que os clientes informem quando estão utilizando IA para essas finalidades. Essa diferença na abordagem levanta questões sobre a responsabilidade e as melhores práticas em um campo tão sensível.

A utilização da IA para decisões automatizadas que impactam indivíduos tem atraído a atenção de reguladores, que expressaram preocupações a respeito do potencial que a tecnologia tem de enviesar resultados. Estudos indicam, por exemplo, que a IA utilizada para aprovar solicitações de crédito e financiamento pode perpetuar discriminações históricas. Este cenário é corroborado pela Human Rights Watch, que defende a proibição de sistemas de “avaliação social”, argumentando que tais sistemas ameaçam o acesso de pessoas a benefícios sociais, comprometem a privacidade e as perfilam de maneiras preconceituosas.

No quadro regulatório da União Europeia, sob a Lei de IA, sistemas de IA considerados de alto risco, incluindo aqueles que influenciam decisões de crédito e emprego, estão sujeitos a um rigoroso controle. Os fornecedores desse tipo de sistema devem registrar suas operações em um banco de dados, realizar gestão de qualidade e riscos, empregar supervisores humanos e relatar incidentes às autoridades competentes, entre outras obrigações.

Nos Estados Unidos, o estado do Colorado recentemente aproveitou uma legislação que exige que desenvolvedores de IA divulguem informações sobre sistemas de IA de “alto risco” e publiquem declarações que resumam as capacidades e limitações desses sistemas. Enquanto isso, a cidade de Nova Iorque proíbe que empregadores utilizem ferramentas automatizadas para selecionar candidatos a empregos a menos que essas ferramentas tenham sido submetidas a uma auditoria de viés no ano anterior. Essa diversidade de normas sugere que a política ao redor do uso da IA em decisões críticas está em constante evolução, refletindo a complexidade e a relevância dessa tecnologia nos dias atuais.

Em conclusão, a nova política do Google representa um passo significativo na integração da inteligência artificial em setores de alto risco, sempre com a presença de supervisão humana como salvaguarda. Essa mudança não só amplia as possibilidades de uso da IA, mas também assegura que as preocupações éticas e regulatórias sejam levadas em consideração, garantindo um equilíbrio entre inovação e proteção dos dados e direitos dos indivíduos. Resta saber como essa abordagem será recebida pelos usuários e reguladores e de que maneira moldará o futuro do uso de IA em nossa sociedade.

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *