O Pentágono e a empresa de inteligência artificial Anthropic, sediada em São Francisco, estão envolvidos numa disputa sobre a utilização, pela agência, do seu modelo avançado de IA, Claude. A disputa, que diz respeito à recusa da Anthropic em permitir que a agência use Claude sem restrições de segurança para “todos os fins legítimos”, agravou-se quando um funcionário do Pentágono disse que a agência poderia encerrar seu relacionamento com a empresa, declarando-o um “risco da cadeia de abastecimento” sobre a disputa.
Um funcionário do Pentágono que falou com a Axios sob condição de anonimato revelou que a agência poderia cortar relações e declarar a empresa um “risco da cadeia de abastecimento”, o que significa que qualquer empresa que faça negócios com o Pentágono não pode ter qualquer relação comercial com a Antrópico.
“Será um grande pé no saco e vamos garantir que eles paguem por nos forçar a fazer isso”, disse o funcionário ao Axios, acrescentando que o Pentágono estava “perto” de cortar relações.
No entanto, esta decisão tem desafios logísticos, uma vez que Claude é o único modelo de IA actualmente em uso no sistema classificado das forças armadas dos EUA e tem sido amplamente elogiado pela sua eficácia. Substituí-lo por outro exigiria que o Pentágono assinasse novos contratos com empresas que poderiam ser tão eficazes como Claude.
Na verdade, a eficiência parece ser uma questão maior a este respeito, uma vez que outros modelos de IA concorrentes, como xAI, OpenAI e Google, já concordaram em remover medidas de segurança, mas ainda não são utilizados nas forças armadas.
Como cortar relações com o Pentágono pode afetar o antrópico
O impacto da possível interrupção em si terá apenas um pequeno impacto na Antrópica. Axios relata que o negócio em questão tem uma receita anual de cerca de US$ 200 milhões, o que é insignificante em comparação com sua receita anual de US$ 14 bilhões. No entanto, declará-lo um “risco da cadeia de abastecimento” poderia afetar a empresa porque levaria a cancelamentos por parte de outras empresas.
Além disso, os funcionários do Departamento de Guerra não mostram sinais de progresso, embora a Anthropic relate que as negociações estão caminhando numa direção “eficaz”.
“A relação do Departamento de Guerra com a Anthropic está sob revisão”, disse um porta-voz do Departamento de Guerra. “Nossa nação exige que nossos parceiros estejam prontos para ajudar nossos combatentes a vencer qualquer batalha. Em última análise, o que importa é nossos soldados e a segurança do povo americano”.
Leia também: EUA usaram IA de nuvem antrópica na Venezuela, ataque para prender Nicolás Maduro: relatório
Do que se trata o argumento: Explique
A disputa, que não foi resolvida apesar de meses de reuniões entre a Antrópico e o Pentágono, diz respeito aos termos sob os quais os militares podem usar Claude. Embora a agência queira uso irrestrito para “todos os fins legítimos”, o CEO da Anthropic, Dario Amodei, expressou preocupação com vigilância e violações de privacidade.
De acordo com a Axios, a Anthropic deseja que o contrato inclua disposições que impeçam a agência e os militares de vigiar em massa os americanos ou de desenvolver armas que possam ser disparadas sem intervenção humana.
Designar uma empresa como “risco da cadeia de abastecimento” é um passo importante normalmente reservado a concorrentes comerciais estrangeiros. Parece que em algum momento é preciso arriscar, já que as autoridades admitem que outros modelos de IA são “deixados para trás” quando se trata de operações militares especiais.





