Por Akash Sriram
9 Março (Reuters) – A Anthropic processou o governo dos Estados Unidos na segunda-feira, intensificando uma disputa que a empresa de inteligência artificial diz ser uma retaliação por sua recusa em remover as restrições de segurança em seu modelo Claude.
A empresa apoiada pela Amazon disse que estava disposta a trabalhar com os militares. Só que não em nenhuma circunstância.
Ela também entrou com uma ação relacionada no Tribunal de Apelações dos EUA para o Circuito de DC, desafiando a autoridade legal separada invocada pelo governo.
O relato a seguir é baseado em alegações feitas pela Antrópico em sua ação judicial.
Sobre o que a anthropica diz que é a polêmica
A Anthropic disse que passou anos transformando o Cloud no modelo de IA de fronteira mais amplamente implantado pelo governo, inclusive em redes militares classificadas, desenvolvendo uma versão especial “Cloud Gov” e curando muitas de suas limitações padrão para se adequar ao trabalho de segurança nacional.
O conflito começou no outono de 2025, durante as negociações sobre a plataforma GenAI.mil do Pentágono, quando o Departamento de Defesa exigiu que a Anthropy abandonasse completamente a sua política de utilização e permitisse que Claude fosse usado, nas palavras do governo, “para todos os usos legais”.
A Anthropic disse que concordava amplamente, exceto em dois pontos que considerava inegociáveis: não permitiria que Cloud fosse usado para guerra autônoma letal sem supervisão humana ou para vigilância em massa de americanos.
A empresa alega que Claude não foi testado para esses usos e não pode realizá-los com segurança. Ele disse que também se ofereceu para ajudar a transferir o trabalho para outro fornecedor caso não fosse possível chegar a um acordo.
Funcionários do Pentágono ofereceram um relato diferente de como o conflito começou. O diretor de tecnologia do departamento disse publicamente que as tensões aumentaram após uma operação dos EUA na Venezuela, quando um executivo da Anthropy ligou para um colega da Palantir para perguntar se Claude havia sido usado na operação.
Esse relato não aparece na denúncia da Anthropic.
Do ultimato à proibição total
O secretário de Defesa, Pete Hegseth, reuniu-se com o CEO da Anthropy, Dario Amudi, em 24 de fevereiro, e apresentou um ultimato: cumprir dentro de quatro dias ou enfrentar uma de duas punições – coerção sob a Lei de Produção de Defesa, ou remoção da cadeia de fornecimento de defesa como um “risco à segurança nacional”.
Amudi rejeitou publicamente a exigência em 26 de fevereiro. No dia seguinte, antes das 17h01. prazo final, o presidente Donald Trump emitiu uma ordem executiva sobre a Truth Social ordenando que todas as agências federais cessassem imediatamente todo o uso da tecnologia da Antrópico.
Em uma postagem nas redes sociais, o presidente caracterizou a Anthropic como uma “empresa de esquerda radical e desperta”.




