tensões entre ética e inovação tecnológica no campo militar
Em um contexto de crescente interesse e debate acerca do uso de tecnologias autônomas no setor militar, declarações recentes de fundadores de empresas de defesa tecnológica geraram polêmica e revelaram a complexidade da discussão sobre armas autônomas nos Estados Unidos. No final de setembro, Brandon Tseng, cofundador da Shield AI, afirmou categoricamente que armas que operam de forma totalmente autônoma — isto é, aquelas que utilizam algoritmos de inteligência artificial para tomar decisões finais sobre a vida e a morte — jamais seriam aceitas nos EUA, afirmando que nem o governo, nem a sociedade desejam tal cenário. No entanto, a situação se alterou drasticamente apenas cinco dias depois, quando Palmer Luckey, cofundador da Anduril, apresentou uma visão mais flexível sobre o tema, desafiando a ideia de que a autonomia total em armamentos seria um absoluto a ser evitado. Em palestra realizada na Pepperdine University, Luckey defendeu a importância de reavaliar tais afirmações, questionando onde estaria a superioridade moral em armamentos que não possuem discriminação entre alvos civis e militares, como uma mina terrestre que não pode diferenciar entre um ônibus escolar e um tanque de guerra.
divergências e complexidade regulatória no setor de defesa
A declaração de Luckey provocou reações, levando um porta-voz da Anduril a esclarecer que o cofundador não advogava por robôs que deveriam ser programados para matar de forma independente, mas sim que expressava preocupações sobre o uso de inteligência artificial por “pessoas mal-intencionadas”. Essa discussão é emblemática de um posicionamento mais amplo da indústria de tecnologia, que outrora se mostrava cautelosa em relação ao desenvolvimento de tecnologias que possam levar a decisões letais sem supervisão humana. Trae Stephens, cofundador da Anduril, havia afirmado anteriormente que as tecnologias que estão sendo desenvolvidas visam garantir que as decisões críticas e potencialmente letais sejam tomadas por humanos, reforçando a ideia de responsabilidade nesse processo. No entanto, tanto Luckey quanto Stephens expressaram a necessidade de que sempre haja uma parte responsável no processo decisório, embora as interpretações sobre a extensão da autonomia de armas variem consideravelmente.
Os posicionamentos do governo dos EUA também contribuem para essa ambiguidade. A política atual do Pentágono não reconhece a compra de armas totalmente autônomas, mas, paradoxalmente, não impõe restrições à fabricação ou venda dessas tecnologias para outras nações. Diretrizes recentes públicas sobre segurança em inteligência artificial, embora endossadas por aliados dos EUA, permanecem voluntárias e não proíbem a autonomia total nos sistemas de armamento. As autoridades expressam continuamente que este não é o momento adequado para considerar uma proibição vinculativa sobre armas autônomas. Adicionalmente, Joe Lonsdale, cofundador da Palantir e investidor da Anduril, manifestou uma disposição semelhante para explorar a questão de armamentos autônomos em um evento promovido pelo Hudson Institute, enfatizando a inadequação de enquadrar o debate em termos absolutos, como um “sim ou não” simplista.
Ele argumentou que o debate deve ser mais nuances e destacou o potencial de um “botão” que deve ser acionado toda vez que uma arma é disparada. O empresário sustentou que policiais devem ser educados sobre as complexidades relacionadas ao uso de IA em armamentos, convicto de que é responsabilidade de representantes eleitos estabelecer as políticas, mas que esses mesmos representantes necessitam de um entendimento profundo para que possam legislar adequadamente.
conflito internacional e a pressão por maior automação no setor armamentista
Enquanto isso, a guerra na Ucrânia trouxe um novo fator para a discussão, com as autoridades ucranianas clamando por uma maior automação nos sistemas de armamento como um meio de obter vantagem sobre a Rússia. Mykhailo Fedorov, ministro da transformação digital da Ucrânia, fez apelos claros em declarações à imprensa, enfatizando que a automação é fundamental para a vitória em conflitos contemporâneos. Por sua vez, ativistas de direitos humanos enfrentam desafios crescentes ao tentar estabelecer proibições internacionais sobre armas letais autônomas, enquanto a resistência dos EUA a assinar essas convenções continua a ser um obstáculo significativo. No entanto, a urgência de um equilíbrio estratégico entre inovação tecnológica e segurança nacional se torna mais evidente, principalmente dada a crescente preocupação com a possibilidade de adversários como China e Rússia implementarem armas totalmente autônomas antes dos EUA, o que poderia exigir uma resposta rápida da parte americana.
Os recentes debates sobre armamentos autônomos e o uso da inteligência artificial nas forças armadas são reveladores não apenas das complexidades éticas envolvidas, mas também da necessidade de um diálogo aberto e informado entre os setores de tecnologia e as autoridades governamentais. A formatação de políticas eficazes requer uma profunda compreensão das capacidades tecnológicas em evolução e das possíveis implicações de suas implementações em cenários militares, onde o dilema da responsabilidade sobre decisões letais continua a direcionar as discussões para o futuro.