Os Estados Unidos teriam utilizado a inteligência artificial Claude, uma ferramenta desenvolvida pela empresa Anthropic e considerada rival do ChatGPT, durante a ofensiva militar contra o Irã no último sábado, 28 de outubro. A informação, divulgada pelo jornal The Wall Street Journal e confirmada por outros veículos, como Axios e Reuters, adiciona uma nova camada de complexidade à escalada de tensões na região.

O Claude, similar ao ChatGPT, é capaz de responder a perguntas e executar comandos. No entanto, sua integração com outros sistemas permite o desenvolvimento de funções mais avançadas, como as que teriam sido empregadas pelo Comando Central dos EUA no Oriente Médio (Centcom). O uso da IA em cenários de combate levanta questionamentos sobre a autonomia e a ética por trás dessas tecnologias.

A polêmica se intensifica devido a um conflito paralelo entre o governo americano e a própria Anthropic. O presidente Donald Trump ordenou que órgãos federais suspendessem o uso de programas da empresa, citando riscos à segurança nacional e a vidas americanas. A decisão surge após a Anthropic recusar o uso irrestrito de seus modelos de IA pelo Departamento de Guerra, mesmo com um contrato de US$ 200 milhões (cerca de R$ 1 bilhão) em vigor desde 2025.

Uso estratégico da IA em operações militares

Segundo o Wall Street Journal, o Centcom utiliza o Claude para realizar **avaliações de inteligência**, **identificar alvos** e **simular cenários de batalha**. Embora o Centcom não tenha detalhado como a IA foi empregada especificamente no ataque ao Irã, o histórico de uso sugere um papel significativo na tomada de decisões estratégicas e operacionais.

A integração de **inteligência artificial em operações militares** não é novidade para o Pentágono. A mesma ferramenta, Claude, teria sido utilizada na operação que resultou na captura do então presidente da Venezuela, Nicolás Maduro, em fevereiro. Na ocasião, a operação envolveu uma parceria entre o Pentágono e a empresa de dados Palantir Technologies.

Conflito ético entre EUA e Anthropic

Apesar da colaboração financeira, a Anthropic tem estabelecido limites claros para o uso de sua tecnologia. A empresa declarou que não permitirá o uso irrestrito de suas ferramentas pelo Departamento de Guerra, especialmente em aplicações como **vigilância em massa de cidadãos** e **sistemas de armamento autônomos**.

O diretor-executivo da Anthropic, Dario Amodei, reiterou que, embora os modelos possam ser usados para a defesa do país, a empresa adota uma postura ética rigorosa. Ele enfatizou que sistemas de IA de vanguarda ainda não possuem a confiabilidade necessária para gerenciar armas letais sem a supervisão humana final, um ponto crucial no debate sobre a autonomia bélica.

Ameaças e a recusa da Anthropic

A decisão de Donald Trump de proibir o uso dos programas da Anthropic por órgãos federais foi motivada por uma insatisfação governamental com as restrições impostas pela empresa. Trump afirmou que o “egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça”.

Em resposta, a Anthropic manteve sua posição. “Essas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação”, declarou a empresa na quinta-feira, 26 de outubro. A companhia reafirma seu compromisso com o desenvolvimento responsável da IA, mesmo que isso gere atritos com importantes parceiros governamentais.

O futuro da IA em conflitos

O caso do Claude e sua aplicação em operações militares contra o Irã expõe a complexa relação entre o avanço tecnológico e as implicações éticas e geopolíticas. Enquanto os EUA buscam otimizar suas capacidades de defesa com o uso de inteligência artificial, empresas como a Anthropic tentam impor limites para garantir um uso mais seguro e responsável da tecnologia.

A controvérsia levanta debates importantes sobre a **autonomia de armas**, a **vigilância de dados** e o **papel da inteligência artificial em conflitos internacionais**. A forma como esses dilemas serão resolvidos definirá o futuro da tecnologia em áreas sensíveis como a defesa e a segurança global.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Você também pode gostar

ECA Digital: O que muda na vida de crianças e adolescentes online com a nova lei e o que ainda falta ser regulamentado

ECA Digital entra em vigor: um marco na proteção online de crianças…

Adeus, Barry: Usuários de IA Expressam Luto Profundo Após Desativação do ChatGPT-4o e Criam Novos Refúgios Virtuais

A despedida de um companheiro virtual: O impacto da desativação do ChatGPT-4o…

X questiona testes da ANPD sobre Grok e alega falta de detalhes em geração de imagens eróticas

X contesta ANPD sobre falhas na geração de imagens pelo Grok A…

China Alerta Órgãos Estatais e Estatais Sobre Riscos de Segurança do IA OpenClaw, Tensão Geopolítica em Foco

China Impõe Restrições ao Uso de IA OpenClaw em Órgãos Públicos e…