Trump Proíbe Uso de IA da Anthropic em Agências Federais dos EUA e Gera Tensão com a Empresa de Tecnologia
Em uma decisão que agita o setor de inteligência artificial, o presidente dos Estados Unidos, Donald Trump, ordenou nesta sexta-feira (27) que todas as agências federais interrompam imediatamente o uso de programas de IA desenvolvidos pela Anthropic. A medida atinge diretamente o Claude, modelo rival do ChatGPT, e reflete um profundo desacordo entre o governo e a empresa sobre a aplicação ética da tecnologia.
A ordem presidencial surge após a Anthropic recusar a pressão do Departamento de Guerra para permitir o uso irrestrito de seus modelos em aplicações militares, incluindo vigilância em massa e sistemas de armamento autônomos. Trump classificou a postura da empresa como “egoísta”, alegando que ela coloca vidas americanas e a segurança nacional em risco.
“O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça”, declarou Trump em sua rede social. Ele enfatizou que a decisão sobre o uso da tecnologia em forças armadas pertence aos líderes militares nomeados por ele, e não a uma empresa privada. Conforme informação divulgada, o governo americano havia dado um ultimato à Anthropic até esta sexta-feira para aceitar as condições, sob pena de sanções. A empresa, por sua vez, reafirmou sua posição ética.
Conflito Ético e Ultimato Presidencial
A decisão de Trump de banir a tecnologia da Anthropic de todos os órgãos federais, com um período de transição de seis meses para departamentos como o antigo Departamento de Defesa, marca um ponto de inflexão nas relações governamentais com empresas de IA. O presidente foi enfático ao afirmar que “não precisamos dela, não a queremos e não faremos mais negócios com eles novamente”.
A Anthropic, representada por seu CEO Dario Amodei, tem expressado consistentemente preocupações éticas sobre o uso governamental irrestrito de IA. A empresa proíbe o uso de seus modelos para fins de violência e, mais recentemente, declarou que sistemas de IA de ponta ainda não são confiáveis o suficiente para serem encarregados do controle de armas letais sem supervisão humana direta.
Essa recusa em ceder às demandas militares americanas gerou uma resposta dura do governo. O Pentágono, em comunicado anterior, ameaçou usar a Lei de Produção de Defesa para forçar a conformidade da Anthropic, além de considerar a empresa um risco à cadeia de suprimentos, uma designação geralmente reservada a adversários estrangeiros.
Contrato Bilionário e Aplicações Militares
Apesar das restrições éticas impostas pela Anthropic, a empresa possuía um contrato de US$ 200 milhões com o Pentágono desde 2025. Este acordo previa o fornecimento de modelos de IA para diversas aplicações militares. Um exemplo citado pelo “The Wall Street Journal” foi o uso do Claude pelo Exército americano em uma operação que culminou na deposição do ditador venezuelano Nicolás Maduro.
A tensão entre o governo Trump e a Anthropic atingiu o ápice após uma reunião entre o CEO Dario Amodei e o secretário de Guerra, Pete Hegseth, na última terça-feira (24). Na ocasião, o Pentágono reiterou suas exigências, e a Anthropic manteve sua posição, afirmando que não poderia atender à solicitação “em consciência”.
Ameaças de Consequências Graves
O presidente Trump, em sua declaração, deixou claro que não hesitará em usar “todo o poder da presidência” para forçar a conformidade da Anthropic durante o período de transição. Ele alertou para “graves consequências civis e criminais” caso a empresa não coopere com as determinações estabelecidas.
A decisão de Trump levanta questões importantes sobre o futuro da colaboração entre o governo dos EUA e empresas de tecnologia em projetos de IA de alta sensibilidade. A postura da Anthropic, focada em princípios éticos, contrasta diretamente com a visão de uso irrestrito defendida pelo presidente, criando um impasse com potencial para redefinir as regras do jogo no desenvolvimento e aplicação de inteligência artificial para fins de segurança nacional.