Domingo, 8 de fevereiro de 2026 – 18h WIB
Jacarta – (EN) O desenvolvimento da inteligência artificial (IA), que deverá aumentar a eficiência, abriu de facto um novo capítulo no crime digital. Se no passado a fraude online era sinónimo de mensagens de spam ou chamadas telefónicas suspeitas, agora o rosto, a voz e até a identidade de uma pessoa podem ser falsificados de forma muito convincente.
Leia mais:
Onda de demissões em tecnologia Já em 2026, Amazon e Meta cortaram milhares de empregos
Este fenómeno já não é uma ocorrência esporádica, mas diz-se que ocorreu de forma ampla e organizada.
Uma análise realizada por especialistas em IA revela que a fraude baseada em deepfake está ocorrendo agora em escala industrial. A tecnologia para criar conteúdo falso direcionado a indivíduos específicos não é mais cara ou difícil de acessar.
Leia mais:
Como a tecnologia está mudando a maneira como as pessoas leem as notícias
Por outro lado, acredita-se que essas ferramentas sejam baratas, fáceis de usar e produzidas em massa. Um relatório do AI Incident Database lista mais de uma dúzia de exemplos recentes de “disfarce para lucro”.
Os casos variam, desde o presidente de Chipre falsificando vídeos de jornalistas suecos até médicos falsos promovendo produtos de creme para a pele. Na verdade, há um vídeo falso do primeiro-ministro da Austrália Ocidental sendo usado para anunciar um esquema de investimento.
Leia mais:
O papel da IA na mudança dos métodos de ensino na era digital
Esta tendência mostra que os fraudadores estão usando IA amplamente disponível para realizar ações cada vez mais direcionadas. No ano passado, um diretor financeiro de uma multinacional de Singapura transferiu quase US$ 500 mil para fraudadores depois de participar de uma videochamada que ele acreditava ser da liderança da empresa. No Reino Unido, estima-se que os consumidores tenham perdido £9,4 mil milhões devido a fraudes nos nove meses até Novembro de 2025.
“As capacidades tecnológicas atingiram agora o ponto em que quase qualquer pessoa pode criar conteúdo falso”, disse Simon Mylius, pesquisador do MIT envolvido no projeto do banco de dados de incidentes de IA, citado pelo The Guardian, domingo, 8 de fevereiro de 2026.
Calcula que fraudes, fraudes e manipulação direcionada representaram a maior parte dos incidentes relatados em 11 bases de dados nos últimos 12 meses. “Esta tecnologia tornou-se tão acessível que não existem mais barreiras à entrada”,
O pesquisador de Harvard, Fred Heiding, estuda fraudes baseadas em IA. “A escala está mudando”, disse ele. “Os custos tornaram-se tão baratos que quase qualquer pessoa pode usá-los agora. Os modelos de IA estão se desenvolvendo muito bem e sua velocidade é muito maior do que muitos especialistas esperavam”, disse ele.
Próxima página
Jason Rebolz, CEO da empresa de segurança de IA Evoke, tem um exemplo da vida real. Ele admitiu que quase contratou um candidato a emprego que aparentemente usou um vídeo deepfake durante uma entrevista online. “O fundo do vídeo parece muito falso”, disse ele. “A aparência não parece natural e o sistema tem dificuldade em processar as bordas do corpo da pessoa. É como se partes do corpo aparecessem e desaparecessem. O rosto também parece muito suave nas bordas.”




