EUA desafiam decisão que impede punição à Anthropic por uso militar de IA
O governo dos Estados Unidos anunciou que irá recorrer de uma decisão judicial que impediu a aplicação de punições contra a Anthropic, empresa de inteligência artificial criadora do assistente Claude, rival do ChatGPT. A disputa gira em torno do uso de ferramentas de IA para fins militares, uma área onde a Anthropic impõe restrições por considerar antiético o emprego em sistemas de vigilância em massa e armamentos autônomos.
A Justiça americana vetou a possibilidade de o Departamento de Guerra, conhecido como Pentágono, classificar a Anthropic como um risco à cadeia de suprimentos, um rótulo geralmente reservado a empresas de nações adversárias. Além disso, foi derrubada uma ordem do ex-presidente Donald Trump que determinava o fim do uso de IA da Anthropic por órgãos federais.
Apesar das restrições impostas pela empresa, o jornal The Wall Street Journal reportou que os EUA utilizaram o Claude em operações militares contra o Irã, empregando o assistente para avaliações de inteligência, identificação de alvos e simulação de cenários de combate. Conforme informação divulgada pelo The Wall Street Journal, o governo busca ter o uso irrestrito de IA para fins militares.
Juíza Cita George Orwell ao Defender Anthropic
A juíza Rita Lin, responsável pela decisão inicial, considerou as medidas punitivas do governo americano como arbitrárias e com potencial para paralisar a Anthropic. Ela afirmou que a legislação vigente não ampara a ideia de que uma empresa americana possa ser vista como adversária ou sabotadora por divergir das diretrizes governamentais, fazendo uma alusão à obra distópica de George Orwell. A magistrada ressaltou que sua decisão não força os EUA a utilizarem os produtos da Anthropic nem os impede de buscar outros fornecedores de IA.
Pentágono Critica Decisão e Anuncia Recurso
Um alto funcionário do Pentágono classificou a decisão judicial como uma “vergonha”, argumentando que ela prejudicaria a capacidade do Departamento de Guerra de conduzir operações militares com parceiros escolhidos. O subsecretário de Guerra dos EUA, Emir Michael, expressou preocupação com o impacto na autonomia das operações militares. O governo americano informou que terá até 30 de abril para apresentar seus argumentos no recurso contra a decisão que proíbe punições à Anthropic.
Anthropic Luta Contra Ações do Governo Americano
A Anthropic também moveu um processo no tribunal federal de apelações em Washington, D.C., contestando outras ações do Pentágono. Diversas entidades, incluindo a Microsoft, associações comerciais, trabalhadores do setor de tecnologia, militares aposentados e teólogos católicos, apresentaram pareceres jurídicos em apoio à Anthropic, demonstrando um amplo espectro de apoio à posição da empresa em relação ao uso ético da inteligência artificial.
Debate Ético e a Aplicação da IA em Conflitos
O caso evidencia o crescente debate sobre os limites éticos no desenvolvimento e aplicação da inteligência artificial, especialmente em contextos militares. Enquanto o governo dos EUA busca explorar todo o potencial da IA para a segurança nacional e operações de defesa, empresas como a Anthropic defendem a implementação de salvaguardas para evitar usos considerados prejudiciais à sociedade, como vigilância indiscriminada e sistemas de armas autônomas.