O Departamento de Defesa dos Estados Unidos (DE) teria utilizado o sistema de inteligência artificial Claude, desenvolvido pela empresa Anthropic, em uma operação militar voltada ao sequestro do presidente da Venezuela, Nicolás Maduro. A informação foi divulgada pelo jornal norte-americano The Wall Street Journal, que atribui o relato a fontes ligadas ao caso. A notícia foi repercutida pela Sputnik Brasil, destacando que o episódio evidencia o avanço do uso de modelos de inteligência artificial em ações estratégicas e militares dentro do aparato de segurança dos Estados Unidos.
Segundo o Wall Street Journal, o Claude teria sido empregado diretamente em uma operação planejada pelo Pentágono para sequestrar Maduro, demonstrando a crescente presença de ferramentas de IA em atividades sensíveis do setor militar. O jornal afirma que “O instrumento de inteligência artificial Claude, desenvolvido pela empresa Anthropic, foi empregado em uma operação militar norte-americana para capturar Nicolás Maduro, o que evidencia a crescente popularidade dos modelos de IA no Pentágono”.
No entanto, o episódio teria gerado tensões devido às condições impostas pela Anthropic. A empresa mantém restrições explícitas para impedir que seu sistema seja aplicado em contextos relacionados à violência, armamentos ou vigilância. Essas limitações levaram o DE a considerar o rompimento de um contrato estimado em US$ 200 milhões — cerca de R$ 1,14 bilhão — com a empresa Palantir, que funcionava como intermediária no acesso ao sistema de IA da Anthropic.
O caso reforça o debate sobre os limites éticos e operacionais da inteligência artificial no setor militar, especialmente diante da expansão acelerada dessas tecnologias dentro de estruturas de defesa e inteligência dos Estados Unidos. A utilização de modelos de IA em ações estratégicas levanta questões sobre a responsabilidade e controle sobre esses sistemas, bem como sobre a conformidade com normas internacionais e leis de guerra. É essencial estabelecer diretrizes claras e padrões éticos para orientar o uso da inteligência artificial em contextos militares.
A crescente presença de ferramentas de IA em atividades sensíveis do setor militar também destaca a importância do desenvolvimento de capacidades e mecanismos de supervisão para garantir a transparência e a prestação de contas no uso dessas tecnologias. Além disso, a colaboração entre diferentes setores da sociedade, incluindo a academia, o setor privado e organizações da sociedade civil, é fundamental para garantir a avaliação e mitigação de riscos associados à integração da inteligência artificial em operações militares. Por fim, é essencial promover o diálogo e a cooperação internacional para estabelecer padrões globais de governança e segurança no uso da inteligência artificial no âmbito da segurança e defesa.




