Relatório diz que Antrópico na defesa de IA: Pentágono pode cortar relações com a empresa por causa de disputa

O Pentágono e a empresa de inteligência artificial Anthropic, sediada em São Francisco, estão envolvidos numa disputa sobre a utilização, pela agência, do seu modelo avançado de IA, Claude. A disputa, que diz respeito à recusa da Anthropic em permitir que a agência use Claude sem restrições de segurança para “todos os fins legítimos”, agravou-se quando um funcionário do Pentágono disse que a agência poderia encerrar seu relacionamento com a empresa, declarando-o um “risco da cadeia de abastecimento” sobre a disputa.

Dario Amodei, cofundador e CEO da Anthropic em Bengaluru, Índia, na segunda-feira, 16 de fevereiro. (Bloomberg)

Um funcionário do Pentágono que falou com a Axios sob condição de anonimato revelou que a agência poderia cortar relações e declarar a empresa um “risco da cadeia de abastecimento”, o que significa que qualquer empresa que faça negócios com o Pentágono não pode ter qualquer relação comercial com a Antrópico.

“Será um grande pé no saco e vamos garantir que eles paguem por nos forçar a fazer isso”, disse o funcionário ao Axios, acrescentando que o Pentágono estava “perto” de cortar relações.

No entanto, esta decisão tem desafios logísticos, uma vez que Claude é o único modelo de IA actualmente em uso no sistema classificado das forças armadas dos EUA e tem sido amplamente elogiado pela sua eficácia. Substituí-lo por outro exigiria que o Pentágono assinasse novos contratos com empresas que poderiam ser tão eficazes como Claude.

Na verdade, a eficiência parece ser uma questão maior a este respeito, uma vez que outros modelos de IA concorrentes, como xAI, OpenAI e Google, já concordaram em remover medidas de segurança, mas ainda não são utilizados nas forças armadas.

Como cortar relações com o Pentágono pode afetar o antrópico

O impacto da possível interrupção em si terá apenas um pequeno impacto na Antrópica. Axios relata que o negócio em questão tem uma receita anual de cerca de US$ 200 milhões, o que é insignificante em comparação com sua receita anual de US$ 14 bilhões. No entanto, declará-lo um “risco da cadeia de abastecimento” poderia afetar a empresa porque levaria a cancelamentos por parte de outras empresas.

Além disso, os funcionários do Departamento de Guerra não mostram sinais de progresso, embora a Anthropic relate que as negociações estão caminhando numa direção “eficaz”.

“A relação do Departamento de Guerra com a Anthropic está sob revisão”, disse um porta-voz do Departamento de Guerra. “Nossa nação exige que nossos parceiros estejam prontos para ajudar nossos combatentes a vencer qualquer batalha. Em última análise, o que importa é nossos soldados e a segurança do povo americano”.

Leia também: EUA usaram IA de nuvem antrópica na Venezuela, ataque para prender Nicolás Maduro: relatório

Do que se trata o argumento: Explique

A disputa, que não foi resolvida apesar de meses de reuniões entre a Antrópico e o Pentágono, diz respeito aos termos sob os quais os militares podem usar Claude. Embora a agência queira uso irrestrito para “todos os fins legítimos”, o CEO da Anthropic, Dario Amodei, expressou preocupação com vigilância e violações de privacidade.

De acordo com a Axios, a Anthropic deseja que o contrato inclua disposições que impeçam a agência e os militares de vigiar em massa os americanos ou de desenvolver armas que possam ser disparadas sem intervenção humana.

Designar uma empresa como “risco da cadeia de abastecimento” é um passo importante normalmente reservado a concorrentes comerciais estrangeiros. Parece que em algum momento é preciso arriscar, já que as autoridades admitem que outros modelos de IA são “deixados para trás” quando se trata de operações militares especiais.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui