Robôs assassinos e vigilância em massa: por que a administração Trump e a Anthropic estão em desacordo

A briga entre o governo dos EUA e a Antrópica não é mais uma disputa de negociação contratual. É um confronto entre robôs assassinos e vigilância em massa – e sobre quem decide como a inteligência artificial é usada na guerra. No centro está uma questão óbvia: deveria uma empresa privada de IA abster-se de utilizar os seus sistemas para armas totalmente autónomas e vigilância doméstica em massa, mesmo que o Pentágono considere tais utilizações legais?

Enquanto o líder antrópico Dario Amodei e Donald Trump se recusam a se afastar, a OpenAI de Sam Altman emergiu como uma alternativa para o Pentágono.

A questão está agora aos olhos do público, uma vez que tanto o governo Antrópico como o governo dos EUA se recusam a ceder. O presidente dos EUA, Donald Trump, ordenou na sexta-feira que as agências federais parassem imediatamente de usar as ferramentas de IA da Antrópico, um dia depois de a gigante da tecnologia negar o pedido do Pentágono para “uso legal” de seus modelos.

A medida ameaça cortar o principal fluxo de receita da startup de São Francisco e pode desacelerar a inteligência artificial nas agências de defesa e inteligência dos EUA.

Antrópico vs. Trump: o ponto de inflexão

Fundada pelo ex-chefe de pesquisa da OpenAI, Dario Amodei, a Anthropic se posicionou como um laboratório de IA de primeira linha. O seu modelo emblemático, Claude, já está implementado em todos os sistemas de segurança nacional dos EUA, incluindo redes classificadas.

A empresa ganhou até US$ 200 milhões em contratos com o Pentágono no ano passado e afirma que suas ferramentas são usadas para análise de inteligência, planejamento operacional e operações cibernéticas.

Mas o Antrópico é construído sobre abrigos claros. Diz que não permite que sua IA:

  • Vigilância interna em massa de cidadãos dos EUA
  • Sistemas de armas totalmente autônomos que tiram as pessoas do circuito

Em uma declaração pública, Amodei disse que tais usos violam os valores democráticos ou excedem o que os atuais sistemas de IA podem suportar com segurança.

O Pentágono não concordou.

Os empreiteiros não podem ditar como os militares utilizam os equipamentos adquiridos legalmente, disseram as autoridades. O Departamento de Defesa estabeleceu um prazo para a Anthropic concordar com o uso incondicional. Quando a empresa recusou, a polêmica cresceu.

O secretário de Defesa, Pete Hegseth, anunciou que o Pentágono avançaria para designar a Antrópico como uma “ameaça à cadeia de abastecimento” – uma designação normalmente usada para adversários estrangeiros.

A opção nuclear

A designação da cadeia de abastecimento efetivamente coloca a Antrópico na lista negra da base industrial de defesa – dezenas de milhares de empreiteiros que fazem negócios com o Pentágono.

Os advogados que falaram com a mídia local descreveram a medida como “o equivalente a um tratado de guerra nuclear”.

O presidente Trump continuou com a Verdade Social, acusando a Antrópica de tentar ditar o que os militares fariam com as guerras. Ele chamou a administração da empresa de “malucos esquerdistas” e disse que usaria “todo o poder do presidente” se necessário.

Ele ordenou o fim da tecnologia antrópica em todas as agências federais dentro de seis meses.

A retórica não foi sutil. Também não havia apostas.

O que o Pentágono queria da Antrópico?

No centro da disputa está a insistência do Pentágono para que os fornecedores de IA concordem com “qualquer uso legal” dos seus sistemas.

A Anthropic procurou duas exceções claras:

  • Não usado para controle interno em massa
  • Não usado em armas letais totalmente autônomas

O Pentágono disse que não está interessado nestes programas. Mas recusou-se a aceitar as restrições do tratado.

O aumento também reflete uma mudança mais ampla: a forma como a IA está a passar dos chatbots e assistentes de código para a logística do campo de batalha, sistemas de seleção de alvos e plataformas de fusão de inteligência.

Grupos de direitos humanos há muito alertam sobre os chamados “robôs assassinos” que selecionam e recrutam alvos sem supervisão humana. Embora os sistemas semi-autónomos já estejam a ser utilizados em conflitos como a Ucrânia e Gaza, os sistemas letais totalmente autónomos continuam a ser controversos.

A posição da Anthropic é que os atuais modelos de fronteira de IA não são confiáveis ​​o suficiente para esta função.

A posição do Pentágono é que ele determina a doutrina militar, e não o Vale do Silício.

O OpenAI está chegando ou não?

Determinada a conseguir o que deseja, a administração Trump recorreu ao concorrente da Antrópico OpenAI para preencher a lacuna.

A rivalidade entre a Anthropic e a OpenAI remonta a 2021, quando Amodei e vários pesquisadores seniores deixaram a OpenAI devido ao que ele mais tarde descreveu como “diferenças direcionais”, especialmente em torno de segurança e interoperabilidade.

No entanto, o CEO da OpenAI, Sam Altman, disse aos funcionários que sua empresa também não apoia vigilância em massa ou armas letais autônomas.

Em um memorando interno, Altman escreveu que os humanos precisam “ficar informados” para tomar decisões de alto nível, e que a OpenAI procurará linhas vermelhas semelhantes às da Antrópica.

Torna-se político e ideológico

Trump chamou o conflito de ideológico. Em suas mensagens, ele acusou a Anthropic de tentar “armar” o Departamento de Guerra e afirmou que sua posição colocava os soldados americanos em risco.

O senador democrata Mark Warner criticou a medida da administração, alertando que as decisões de segurança nacional não devem ser tomadas tendo em mente considerações políticas.

Enquanto isso, centenas de funcionários da OpenAI e do Google DeepMind assinaram uma carta aberta instando as empresas de IA a não se dividirem sob pressão do Pentágono.

A carta aborda claramente as preocupações sobre a vigilância doméstica em massa e a matança autónoma.

A luta não está mais confinada às salas de reuniões. Isso se espalha para a força de trabalho mais ampla de IA.

O que está em jogo: choque de receitas, risco operacional

Para a Antrópica, o risco imediato é financeiro. Os contratos governamentais e as melhorias na segurança nacional são fundamentais para a sua estratégia de crescimento antes de um potencial IPO.

A exposição ao risco da cadeia de abastecimento pode prejudicar não só os contratos federais, mas também as relações do setor privado.

Para o governo, os custos são diferentes.

Claude já está inserido nos processos de inteligência e defesa. Uma fase forçada pode perturbar sistemas de planeamento, pipelines de análise e operações de segurança cibernética.

Substituir o modelo de fronteira da IA ​​não é como substituir o software de escritório. Inclui reciclagem de sistemas, migração de dados e revisão de autorização de segurança.

Um cronograma de seis meses pode ser ambicioso.

Elon Musk nos bastidores?

Também é possível que Elon Musk entre com Grok, modelo de IA desenvolvido por sua empresa xAI.

Musk posicionou-se tanto como um crítico da “IA desperta” quanto como um defensor do desenvolvimento agressivo da IA ​​no contexto da segurança nacional.

Se Grock conseguisse contratos federais, a corrida pela IA assumiria ainda outra dimensão política.

Governo x Vale do Silício: a linha familiar

Esta não é a primeira vez que o Vale do Silício e o Pentágono entram em conflito. Em 2018, funcionários do Google protestaram contra a participação da empresa no projeto de análise de drones do Pentágono. A empresa acabou desistindo do acordo.

Desde então, as grandes empresas de tecnologia voltaram à defesa. Amazon, Microsoft e outros estão agora a competir activamente por contratos de segurança nacional.

O que mudou foi o poder da própria tecnologia.

Os sistemas Frontier AI podem sintetizar inteligência, criar planos operacionais e auxiliar em operações cibernéticas em velocidades que comprimem os prazos de tomada de decisões.

A ideia de “robôs assassinos” não é mais ficção científica. Também a perspectiva de vigilância em massa possibilitada pela IA, que pode combinar dados de localização, histórico de navegação e registos públicos num retrato quase universal da vida de uma pessoa.

A Antrópica argumenta que a lei não conseguiu acomodar essas capacidades.

O Pentágono afirma que opera dentro das leis existentes e que a segurança nacional não pode depender das preferências morais das empresas privadas.

O que vem a seguir?

A Antrópica poderá contestar essa determinação na Justiça. O rótulo de “risco da cadeia de abastecimento”, normalmente reservado a concorrentes estrangeiros, poderá ser alvo de escrutínio se for aplicado a uma empresa norte-americana, dizem especialistas jurídicos.

Mas os procedimentos legais levam tempo.

Entretanto, o governo dos EUA parece estar a reforçar parcerias com empresas de IA dispostas a aceitar termos de implementação mais amplos.

A questão mais ampla permanece sem solução.

À medida que os sistemas de IA se tornam mais capazes, a distância entre a investigação laboratorial e a implantação no campo de batalha está a diminuir. O debate sobre o controlo em massa e as armas totalmente autónomas não desaparecerá com um único tratado.

Neste momento, a mensagem de Washington é clara: o Estado decide sobre questões de guerra.

A resposta da Anthropic é a mesma: nem todos os usos legítimos são seguros.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui