O mesmo modelo de inteligência artificial que ajuda a redigir um e-mail de marketing ou uma receita de jantar rápido também foi usado para atacar o Irã. O Comando Central dos EUA usou Claude AI Anthropic para “avaliações de inteligência, identificação de alvos e simulações de cenários de batalha” durante os ataques ao país, de acordo com uma reportagem do Wall Street Journal.
Horas antes, o presidente Donald Trump ordenou que as agências federais parassem de usar o Claude após uma disputa com o seu criador, mas a ferramenta estava tão profundamente enraizada nos sistemas do Pentágono que levaria meses para ser resolvida em favor de um rival mais complacente. Também foi utilizado na operação de janeiro que levou à captura de Nicolás Maduro.
Mas o que significam na prática “avaliações de inteligência” e “identificação de alvos”? Claude estava sinalizando locais para atacar ou fazendo estimativas de vítimas? Ninguém fez essa divulgação e, surpreendentemente, ninguém tem qualquer obrigação.
A inteligência artificial tem sido usada há muito tempo na guerra para coisas como análise de imagens de satélite, detecção de ameaças cibernéticas e orientação de sistemas de defesa antimísseis. Mas a utilização de chatbots – a mesma tecnologia básica utilizada por milhares de milhões de pessoas para tarefas globais como escrever e-mails – está agora a ser utilizada no campo de batalha.
Em Novembro passado, a Anthropic fez parceria com a Palantir Technologies Inc., uma empresa de análise de dados que faz muito trabalho para o Pentágono, transformando o seu grande modelo de linguagem Claude num motor de raciocínio dentro de um sistema de apoio à decisão para os militares.
Então, em janeiro, a Anthropic apresentou uma proposta de US$ 100 milhões ao Pentágono para desenvolver tecnologia de drones autônomos, informou a Bloomberg News. Argumento da empresa: Use Claude para traduzir a intenção de um comandante em instruções digitais para coordenar uma frota de drones.
A oferta foi rejeitada, mas a concorrência exigiu que ela fizesse muito mais do que resumir relatórios informativos, como seria de esperar que um chatbot fizesse. O objetivo do contrato era desenvolver “consciência e compartilhamento de alvos” e “lançar até o fim” para ataques de drones potencialmente letais.
Terra de ninguém
Surpreendentemente, tudo isto está a acontecer num vácuo regulamentar e com tecnologia conhecida por cometer erros. As alucinações de grandes modelos de linguagem são resultado de seu treinamento, quando são recompensados por compreender uma resposta em vez de admitir a incerteza. Alguns cientistas dizem que o desafio contínuo da confabulação da IA poderá nunca ser resolvido.
Esta não é a primeira vez que sistemas de IA não confiáveis são usados na guerra. Lavender era um banco de dados alimentado por IA usado para ajudar a identificar alvos militares relacionados ao Hamas em Gaza. Não era um modelo de grande linguagem, mas analisava enormes quantidades de dados de vigilância, como conexões sociais e histórico de localização, para atribuir uma pontuação de 1 a 100 a cada indivíduo. Quando a pontuação de uma pessoa excede um certo limite, Lavender a define como alvo militar.
O problema é que Lavender errou 10% das vezes, de acordo com um relatório investigativo publicado pelo veículo Israel-Palestina +972. “Cerca de 3.600 pessoas foram visadas por engano”, disse-me Mariarosaria Taddeo, professora de ética digital e tecnologia de defesa no Oxford Internet Institute.
“Existem vulnerabilidades incríveis nestes sistemas e uma falta de fiabilidade tão grande… para algo tão dinâmico, tão sensível e tão humano como a guerra”, diz Elke Schwarz, professora de teoria política na Universidade Queen Mary de Londres e autora de Death Machines: The Ethics of Violent Technologies.
Schwarz salienta que a IA é frequentemente utilizada na guerra para acelerar as coisas, como forma de contrariar resultados indesejados. As decisões são tomadas mais rapidamente, em maior escala e com menos inspeção humana. Ao longo da última década e meia, o uso militar da IA tornou-se ainda mais opaco, diz ela.
E o sigilo está incorporado na forma como os laboratórios de IA funcionam, mesmo antes das aplicações de guerra. Essas empresas se recusam a divulgar em quais dados seus modelos são treinados ou como seus sistemas chegam às conclusões.
É claro que as operações militares muitas vezes têm de ser mantidas em segredo para proteger os combatentes e manter os inimigos longe do rasto. Mas a defesa é em grande parte regida pelo direito humanitário internacional e pelas normas de teste de armas, que, em teoria, também deveriam abordar a utilização da inteligência artificial. Mas tais padrões estão ausentes ou estão gravemente ausentes.
Regras desatualizadas
Taddeo observa que o Artigo 36 da Convenção de Genebra exige que novos sistemas de armas sejam testados antes de serem implantados, mas um novo sistema que emerge com um sistema de IA que aprende com o seu ambiente cada vez que é atualizado. Portanto, é quase impossível fazer cumprir a regra.
Num mundo ideal, governos como os dos EUA divulgariam como estes sistemas são utilizados no campo de batalha, e há precedentes. Os americanos começaram a usar drones armados depois do 11 de Setembro e expandiram a sua utilização sob a administração de Barack Obama, recusando-se a reconhecer a existência de tal programa.
Foram necessários quase 15 anos de vazamento de documentos, pressão constante da imprensa e ações judiciais da União Americana pelas Liberdades Civis antes que a Casa Branca de Obama finalmente publicasse, em 2016, o número de vítimas de ataques de drones. Foram amplamente vistos como subcontagens, mas permitiram que o público, o Congresso e os meios de comunicação social responsabilizassem o governo pela primeira vez.
Policiar a IA será ainda mais difícil, exigindo mais pressão pública e legislativa para forçar a relutante administração Trump a criar um quadro de relatórios semelhante.
O objetivo não seria revelar exatamente como Claude foi usado em algo como a Operação Epic Fury, mas abandonar os contornos gerais, segundo Schwarz. E, principalmente, para revelar quando algo dá errado.
A maior questão que falta na actual discussão pública sobre o potencial do Antropoceno-Pentágono – sobre o que é legal e ético para a IA criar vigilância em massa dos americanos ou de exércitos totalmente autónomos – é a falta de visibilidade sobre como a tecnologia já está a ser usada na guerra. Com sistemas tão novos e não testados propensos a erros, isso é muito necessário. “Nós não decidimos como sociedade se estamos bem com uma máquina decidindo se devemos ou não matar alguém”, diz Taddeo.
É imperativo pressionar por essa transparência antes que a IA na guerra se torne tão rotineira que ninguém pense mais em perguntar. Caso contrário, poderemos esperar por um erro catastrófico e impor transparência apenas depois de o dano ter sido feito.
Parmy Olson é colunista da Bloomberg Opinion que cobre tecnologia. Ex-repórter do Wall Street Journal e da Forbes, ela é autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World”. ©2026 Bloomberg LP Visite bloomberg.com/opinion. Distribuído pela Agência de Conteúdo Tribune.




