Gigante da tecnologia Antrópico vs. Pentágono sobre quanta IA poderia ser usada na guerra para controlar os cidadãos dos EUA

O conflito entre uma das empresas de inteligência artificial mais conhecidas do Vale do Silício e os militares dos Estados Unidos intensificou-se esta semana, com o CEO da Anthropic, Dario Amodei, a recusar-se a pressionar o Pentágono sobre como a sua tecnologia de IA está a ser utilizada em operações de segurança nacional, essencialmente para armas guiadas por IA.

O CEO da Anthropic, Dario Amodei, visto aqui no recente India AI Impact Summit em Delhi, disse que sua empresa está disposta a abrir mão de contratos com o governo dos EUA para defender seus princípios. (foto de arquivo PTI)

A disputa, que estava sendo preparada há meses, tornou-se pública quando funcionários do Pentágono deram à Antrópica até às 17h01, horário do leste dos EUA, na sexta-feira (3h31 IST, sábado) para suspender as restrições ao seu modelo Claude AI.

O CEO da Anthropic, Amodei, não esperou pelo prazo, em vez disso já respondeu com um sonoro “Não”. “Estas ameaças não mudam a nossa posição: não podemos, em sã consciência, aceitar o seu pedido”, disse ele num comunicado.

Pacto sob pressão: não sobre “se”, mas sobre “quanto”

A Antthropic ainda não foi uma parceira relutante dos militares; só que tem limites sobre quanto da sua IA deve ser usada para a guerra e para a segurança nacional dos EUA.

Em comunicado, Amodei observou que sua empresa foi “a primeira empresa de IA de fronteira a implantar nossos modelos em redes confidenciais do governo dos EUA, a primeira a implantá-los em Laboratórios Nacionais e a primeira a oferecer modelos personalizados para clientes de segurança nacional”.

A Anthropic observou que Claude está atualmente destacado no Departamento de Defesa e em outras agências de segurança nacional para análise de inteligência, planejamento operacional, operações cibernéticas e muito mais.

Referindo-se a uma lenda chinesa

Amodei disse que a empresa sofreu golpes financeiros para proteger os interesses americanos e tinha a opção de “perder centenas de milhões de dólares em receitas para impedir o uso de Claude por empresas afiliadas ao Partido Comunista Chinês”.

“A Anthropic também agiu para defender a liderança da América em IA, mesmo que isso entrasse em conflito com os interesses de curto prazo da empresa. Optamos por renunciar a várias centenas de milhões de dólares em receitas para impedir o uso de Claude por empresas afiliadas ao Partido Comunista Chinês (algumas das quais foram designadas pelo Departamento de Guerra como empresas militares chinesas), em um esforço para impedir Claude. Guerra, não empresas privadas, nunca nos opusemos a operações militares especiais ou procuramos limitar especificamente o uso de nossa tecnologia.

Amodei desenha duas linhas vermelhas

Mas dois usos específicos nunca fizeram parte dos contratos da Antrópico com o Pentágono, e Amodei diz que nunca deveriam ter feito — vigilância interna em massa e armas totalmente autónomas.

Durante a vigilância, Amodei argumentou que a utilização de sistemas de IA para monitorizar os americanos em grande escala é “inconsistente com os valores democráticos”, mesmo que seja tecnicamente legal.

“De acordo com a lei actual, o governo pode comprar registos detalhados dos movimentos, navegação na Internet e associações dos americanos sem um mandado de fontes públicas”, escreveu ele, observando que a poderosa IA permitiria que estes dados fragmentados fossem reunidos “num quadro abrangente da vida de cada pessoa – automaticamente e em escala”.

No que diz respeito às armas autónomas, a posição de Amodei era mais técnica do que de princípio.

As armas semiautônomas, reconheceu ele, “são essenciais para a defesa da democracia”.

Mas sistemas totalmente autónomos – sistemas que removem completamente os humanos do processo de seleção e envolvimento de alvos – estão além do que a IA atual pode lidar de forma confiável. “Não fornecemos conscientemente produtos que coloquem em perigo combatentes e civis americanos”, disse ele. Ele acrescentou que a Anthropic se ofereceu para trabalhar com o Pentágono em pesquisa e desenvolvimento para melhorar a confiabilidade de tais sistemas, mas a proposta não foi aceita.

O Pentágono está recuando

Funcionários do Departamento de Defesa consideraram a disputa uma questão de soberania americana. O porta-voz do Pentágono, Sean Parnell, escreveu nas redes sociais: “Não permitiremos que NENHUMA empresa dite os termos das nossas decisões operacionais”.

Parnell insistiu que os militares não estão interessados ​​na vigilância em massa dos americanos, o que é “ilegal”, ou em armas autónomas que operam sem intervenção humana.

Mas o Pentágono só contratará empresas de IA que concordem com o padrão de “qualquer uso legal”, além dos limites estabelecidos pelas próprias empresas, acrescentou o Departamento de Justiça.

Emil Michael, subsecretário de defesa para pesquisa e engenharia, continuou a responder aos comentários de Amodei, escrevendo em X que o CEO da Anthropic “tem um complexo de deus” e “não quer nada mais do que tentar controlar pessoalmente as forças armadas dos EUA e está bem em pôr em risco a segurança da nossa nação”.

O que está em jogo?

A AP relata que até US$ 200 milhões em contratos militares estão em preparação para a Antrópico, juntamente com outros trabalhos governamentais. Pior para a empresa, o Pentágono ameaçou rotular a Anthropic como uma “ameaça à cadeia de abastecimento”, uma designação anteriormente reservada a adversários estrangeiros que impediria efectivamente a empresa de trabalhar também com outros empreiteiros de defesa.

As autoridades também levantaram a possibilidade de invocar a Lei de Produção de Defesa da era da Guerra Fria para forçar a Anthropic a usar tecnologia sem o consentimento da empresa.

Amodei mostrou claramente a contradição. “Estas duas últimas ameaças são inerentemente contraditórias: uma apresenta-nos como um risco para a segurança; a outra apresenta Claude como essencial para a segurança nacional.”

O apoio à posição da Antrópico veio de fontes inesperadas. O general aposentado da Força Aérea dos EUA, Jack Shanahan, que liderou o Projeto Maven, a controversa iniciativa de alvos de drones de IA do Pentágono, disse que as linhas vermelhas da Anthropic eram “razoáveis”. Ele acrescentou que os grandes modelos linguísticos “não estão preparados para funcionar em ambientes de segurança nacional”.

“Eles não estão tentando jogar bem aqui”, disse ele nas redes sociais sobre a recusa da Anthropic em concordar com as exigências do Pentágono.

Executivos de tecnologia da OpenAI e do Google também apoiaram Amodei em uma carta aberta, alertando que o Pentágono está “tentando dividir cada empresa por medo de que a outra ceda”.

Antropik, por sua vez, disse esperar que o Pentágono reconsidere esta questão. Se isso não acontecer, Amodei prometeu uma transição tranquila para outro fornecedor e Claude permanecerá disponível “pelo tempo que for necessário”.

(trechos da AP, AFP, Bloomberg)

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui