À medida que o conflito entre os Estados Unidos, Israel e o Irão aumenta, as plataformas de redes sociais enfrentam um aumento da desinformação, incluindo vídeos de guerra gerados por IA, e X revelou que recentemente derrubou uma rede baseada no Paquistão que publicava imagens do conflito.
Nikita Bier, chefe de produto da X, disse que a plataforma identificou um usuário no Paquistão que administrava uma rede coordenada de contas que distribuía vídeos de guerra gerados por IA.
“Ontem à noite encontramos um cara no Paquistão que administrava 31 contas postando vídeos de guerra de IA.” Bier em X. “Todos foram hackeados e os nomes de usuário alterados para ‘Iran War Monitor’ ou algum derivado em 27 de fevereiro.”
Segundo Bier, as contas foram rapidamente excluídas como parte dos esforços crescentes da plataforma para detectar e coibir campanhas coordenadas de desinformação. “Estamos ficando muito mais rápidos na detecção disso e também eliminando o incentivo para fazer isso”, disse ele.
Sua resposta veio a um posto X em que um míssil iraniano foi disparado contra um navio em Tel Aviv, Israel. Na sua biografia, a pessoa que publicou o vídeo, Ahmed Hamdan, afirmou ser um jornalista de Gaza.
Durante o conflito, cresce a desinformação sobre IA
A revelação surge no meio de uma explosão massiva de desinformação alimentada pela IA durante a crise em curso na Ásia Ocidental, onde os Estados Unidos e Israel atacaram o Irão, desencadeando ataques retaliatórios que se espalharam por toda a região.
À medida que os intercâmbios militares aumentam, as plataformas de redes sociais têm sido inundadas com imagens e vídeos que pretendem mostrar ataques e danos no Irão, em Israel e noutras partes do Médio Oriente. No entanto, investigadores e investigadores dizem que muitas dessas mensagens contêm conteúdo falso ou completamente fabricado.
Num caso destacado pelo Financial Times, uma imagem de satélite online, inclusive da conta oficial do Irão no Tehran Times, alegou mostrar danos num sistema de radar dos EUA no Qatar, na sequência de um ataque de drone iraniano.
Uma análise do jornal revelou que a imagem foi alterada por meio de inteligência artificial. Embora as imagens de satélite originais confirmassem que o local do radar estava danificado, a imagem amplamente divulgada era na verdade uma imagem alterada por IA do local no Bahrein.
Apesar de falsa, a postagem no X atraiu quase um milhão de visualizações e permaneceu online por mais de dois dias.
Imagens falsas e vídeos duplicados aumentam a confusão
O conflito actual não é a primeira vez que os meios de comunicação social gerados pela IA são amplamente divulgados durante a guerra.
Durante o conflito de 12 dias entre Israel e o Irão, em Junho de 2025, vários vídeos feitos pelo homem que pretendiam mostrar o poderio militar do Irão e os danos à infra-estrutura de Israel tornaram-se virais, de acordo com a BBC.
Contas pró-Israel também partilharam mensagens enganosas, incluindo imagens antigas de protestos falsamente apresentadas como manifestações contra a liderança do Irão.
A equipe de testes do GeoConfirmed também sinalizou repetidamente clipes falsos ou rotulados incorretamente durante a batalha atual. Num incidente recente, o grupo negou alegações virais de que o ataque mortal a uma escola para raparigas em Minab foi o resultado de um lançamento falhado de um míssil pela Guarda Revolucionária do Irão, e não de um ataque da América e de Israel.
A postagem enganosa já havia recebido quase 11 mil curtidas e mais de 750 mil visualizações antes de ser contestada.
Em outros casos, imagens antigas ressurgiram como possíveis evidências de novos ataques. Um vídeo divulgado afirmava que mísseis iranianos haviam atingido Tel Aviv, mas os investigadores determinaram posteriormente que o clipe era na verdade do terremoto de 2024 na Turquia.
Ferramentas de IA que reduzem barreiras à desinformação
Especialistas dizem que o rápido desenvolvimento de ferramentas de geração de IA reduziu significativamente a barreira para a geração de conteúdo falso confiável.
“Com imagens de satélite, você observa edifícios, estradas, terrenos – coisas que não possuem características específicas”, disse Henk van Ess, especialista em métodos de pesquisa online. “A maioria das pessoas não sabe como será a imagem original de satélite de um sensor específico em uma resolução específica.”
Brady African, pesquisador de inteligência de código aberto do American Enterprise Institute, alertou que as imagens de satélite podem se tornar um grande problema para jornalistas e analistas que tentam rastrear conflitos.
“As imagens de satélite podem ser manipuladas como qualquer outra imagem. A IA tornou isso muito fácil”, disse Afrik.
Plataformas e governos estão respondendo
Em resposta à disseminação de conteúdo falso, X disse que iria reforçar os controles contra a mídia de guerra gerada por IA e publicada sem divulgação.
De acordo com as novas regras, os usuários que postarem vídeos de conflitos armados gerados artificialmente sem serem marcados serão banidos do programa de participação nos lucros dos criadores da plataforma por 90 dias. Violações repetidas podem resultar na remoção permanente do programa.
A empresa também expandiu o uso do recurso “Notas da Comunidade”, que permite aos usuários adicionar contexto e verificação de fatos a postagens enganosas.
Os governos também alertam contra a propagação de desinformação. Nos Emirados Árabes Unidos, a Polícia do Dubai alertou os residentes contra a divulgação de rumores ou imagens não verificadas relacionadas com incidentes de segurança, dizendo que os infractores seriam multados em pelo menos 200.000 dirhams.



