Últimas

IA intensifica desinformação e dificulta cobertura da guerra EUA-Irã

Radar Olhar Aguçado(há cerca de 3 horas)

Por Gretel Kahn

A guerra nunca foi travada apenas no campo de batalha. O conceito de “névoa da guerra”, de Clausewitz, descrevia a incerteza e a confusão que obscurecem a tomada de decisões em combate. O documentário de 2003 de Errol Morris transformou a expressão em um atalho para as ambiguidades morais e informacionais dos conflitos modernos. Mas, na era digital, em que guerras também são filmadas, editadas e promovidas on-line, a névoa está ficando mais densa, e os conflitos estão se tornando mais difíceis de cobrir.

O conflito entre os Estados Unidos e o Irã deixa isso mais claro do que nunca. À medida que imagens, vídeos e narrativas inundam as redes sociais, está cada vez mais difícil distinguir o que é real do que não é, com o avanço da inteligência artificial e as mudanças nas plataformas digitais remodelando a forma como a guerra é vista e compreendida.

Este não é o 1º conflito depois do lançamento do ChatGPT. Mas pode ser o 1º em que a IA generativa desempenhou um papel central na guerra da informação.

Em 2026, o conteúdo feito por IA disparou nas redes sociais, tanto em volume quanto em visibilidade. Imagens falsas de drones, fotos de satélite fabricadas, vídeos editados e declarações criadas por IA estão circulando amplamente, muitas vezes alcançando milhões de visualizações.

Em conflitos anteriores, como nos primeiros momentos da guerra entre Israel e Hamas, a desinformação ainda dependia mais de vídeos reais reutilizados ou legendados de forma enganosa. Agora, até contas oficiais estão compartilhando conteúdo falso abertamente. Para entender como essas narrativas se espalham –e como atravessar essa cortina de fumaça– conversei com 5 investigadores, pesquisadores e jornalistas que atuam na linha de frente desse ambiente informacional perigoso.

Guerra de memes

Os Estados Unidos e o Irã travam uma disputa paralela por narrativa, imagem e percepção pública on-line. Para isso, ambos os lados adotaram um estilo de comunicação que fala fluentemente a linguagem da internet: a “trollagem”.

O que antes poderia ser descartado como mera provocação on-line passou a integrar a gramática da comunicação geopolítica, em que ironia, deboche e espetáculo são usados para projetar poder, ridicularizar adversários e moldar a forma como o público interpreta o conflito.

Do lado norte-americano, contas oficiais da Casa Branca publicaram vídeos com imagens de drones de bombardeios e ataques intercaladas com cenas de filmes como “Top Gun” e “Coração Valente”, além de referências a videogames como Wii.

O lado iraniano, por outro lado, abraçou completamente a mídia feita por IA, produzindo vídeos animados em estilo Lego, deepfakes claramente fabricados, videoclipes estilizados e até vídeos antigos e sem relação com o conflito.

Os EUA projetam uma mensagem de domínio militar e autoridade. Já o Irã zomba de Donald Trump (Partido Republicano) e da política externa norte-americana, usando humor e paródia para enfraquecer a autoridade dos EUA e adaptando suas mensagens para diferentes públicos ao redor do mundo.

Enquanto deepfakes e outros tipos de desinformação tentam enganar o público, o conteúdo de baixa qualidade produzido com e sem IA busca outro objetivo: apesar da falsidade evidente, essas imagens são usadas para impulsionar uma narrativa e uma visão de mundo específicas.

Emerson T. Brooking diretor de Estratégia do Digital Forensic Research Lab, do Atlantic Council, e autor do livro “Likewar: The Weaponization of Social Media”, afirma que a propaganda iraniana e a propaganda norte-americana exploram lados diferentes da cultura da internet. Mas acredita que ambas representam uma nova geração de propaganda de guerra que começou a ganhar forma depois dos ataques do Hamas em 7 de outubro de 2023.

Pesquisas sustentam a ideia de que isso não é um fenômeno totalmente novo: na Ucrânia, memes foram usados para mobilizar apoio em torno da resistência no campo de batalha e do constrangimento russo. Mas, depois de 7 de outubro, os memes passaram a ser usados para justificar retaliações, contestar a simpatia por Gaza ou acusar adversários de indignação seletiva, transformando os ataques em um motor recorrente de propaganda.

Desta vez, iranianos e norte-americanos recorreram a diferentes estéticas da cultura da internet enquanto impulsionavam narrativas distintas. O Irã, por exemplo, apresentou-se como defensor global contra a agressão dos EUA, retratando Trump como um “fantoche” do primeiro-ministro israelense, Benjamin Netanyahu, enquanto o provocava sobre os arquivos de Jeffrey Epstein.

“A Casa Branca está aderindo a uma estética cultural diferente da internet, com vídeos editados e supercuts que incorporam imagens de videogames e usos ocasionais de IA”, disse Brooking. “Não há história nesse conteúdo. É uma sequência de explosões e atos de destruição. O subtexto é: se você não fizer o que mandamos, faremos mais disso com você.”

Brooking cita os famosos vídeos em Lego do Irã como a verdadeira inovação da guerra. “Eles são tão inéditos que as pessoas continuam assistindo”, disse. “Na verdade, são bastante longos, durando vários minutos. Mas a questão é que contam uma história, e você só entende de fato se assistir até o fim.”

Essa inflação de memes e paródias representa uma mudança real na guerra da informação. À medida que o combate é apresentado por lentes divertidas ou lúdicas, isso pode desumanizar e dessensibilizar o público em relação aos danos causados a civis. Essa é a visão de Sam Dubberley, diretor de Tecnologia, Direitos e Investigações da HRW (Human Rights Watch).

Dubberley e sua equipe usam ferramentas de investigação de fontes aberta –conhecidas como Osint– para verificar, expor e documentar violações de direitos humanos.

Recentemente encontrei Dubberley em uma cafeteria de bairro em Oxford. Durante nossa conversa, ele compartilhou suas preocupações sobre essa tendência. O crescimento dos memes na guerra não representa um problema para verificar os eventos investigados por sua equipe, mas pode representar uma questão de direitos humanos.

“Nosso maior medo é uma escalada da retórica da guerra como se fosse um jogo”, disse. “Para nós, o importante em conflitos é minimizar ao máximo os danos a civis. Mas, se você usa memes, videogames ou vídeos em Lego, a guerra não parece real. Se há essa ‘memificação’ da guerra, a retórica se intensifica, o que pode levar a mais conflito e mais danos a civis.”

Alexios Mantzarlis é um pioneiro da checagem de fatos. Cofundou a agência italiana Pagella Politica e foi diretor fundador da International Fact-Checking Network, que liderou de 2015 a 2018. Recentemente fundou a Indicator Media, veículo especializado em reportagens de fontes abertas e investigações on-line.

Mantzarlis disse que conteúdos feitos por IA são mais eficazes e enganosos quando aparecem ao lado de material real, porque as pessoas têm menos capacidade de analisá-los criticamente no consumo rápido e distraído típico das redes sociais. Mesmo que alguém pudesse reconhecer algo como falso ao ver com atenção, na prática as pessoas só continuam rolando a tela e absorvem uma impressão rápida do que veem.

“Infelizmente, para a maioria das pessoas, até mesmo a guerra no Irã não importa tanto assim”, disse. “Então, enquanto passam pelo feed, [o conteúdo criado por IA] simplesmente fica na parte de trás da mente delas, seja realista ou não.”

O dividendo do mentiroso

Governos não estão usando IA apenas para “trollagem”. De forma ainda mais significativa –e talvez mais dissimulada— também estão empregando a tecnologia para espalhar narrativas falsas e manipular audiências globais.

A propaganda sempre fez parte da guerra. Mas, segundo as fontes com quem conversei, a IA e as redes sociais ampliaram isso para uma escala quase inimaginável. Não se trata apenas de “slop” de IA. Agentes mal-intencionados estão usando essas ferramentas para fabricar imagens militares e até deepfakes de vítimas da guerra.

O ataque dos EUA que matou mais de 100 meninas iranianas em uma escola em Minab talvez tenha se tornado o exemplo mais claro disso. Depois do ataque, imagens falsas e feitas por IA circularam ao lado de fotos autênticas das vítimas e de seus túmulos, tornando até evidências reais mais fáceis de serem questionadas.

Mahsa Alimardani, diretora associada do programa Technology Threats and Opportunities da Witness, observou isso em suas próprias investigações. Sua equipe recebeu um número sem precedentes de pedidos de análises forenses de IA nas últimas semanas. Ela afirma que o problema visto no Irã é o colapso estrutural da confiança em conteúdos e documentos autênticos.

“O que estamos vendo no Irã é um caso clássico: veículos de oposição e contas da diáspora descartaram imagens verificadas de vítimas civis do ataque à escola de Minab como sendo geradas por IA ou recicladas, baseando-se apenas em julgamentos estéticos”, explicou. “‘A iluminação está boa demais.’ ‘Parece encenação.’ Nenhuma metodologia forense, apenas impressões subjetivas. E essas alegações se espalharam amplamente antes de checadores e investigadores confirmarem que as imagens eram autênticas.”

Alimardani é iraniana, então também tem recebido pedidos de amigos para verificar o que veem on-line.

“O Irã é esse laboratório para os piores tipos de poluição possíveis em um ambiente informacional”, disse. “É um laboratório para vermos cenários extremos, especialmente o tipo de cenário sobre o qual minha equipe na Witness alerta há muito tempo: como a IA realmente vai afetar aquilo em que confiamos e acreditamos.”

Manisha Ganguly atua em um espaço semelhante. Ela é chefe de perícia visual do Guardian e pioneira no uso de Osint para investigar crimes de guerra. Embora não dependa de um único artefato ou fonte para seu trabalho, imagens feitas por IA continuam sendo uma preocupação porque podem fazer informações falsas ou enganosas parecerem confiáveis.

“A enxurrada de imagens de satélite geradas por IA está permitindo que atores alinhados ao Estado validem visualmente versões oficiais ou apliquem Osint de forma incorreta, conscientemente, para alinhar-se a narrativas ideológicas”, disse Ganguly.

A especialista citou o exemplo do Tehran Times, jornal em inglês ligado ao Estado iraniano, que publicou em seu perfil no X imagens de satélite de “um radar norte-americano no Catar” destruído em um ataque iraniano com drones –imagens que depois foram identificadas como criadas por IA. A publicação foi vista quase 1 milhão de vezes sob o selo do que aparenta ser um veículo legítimo de notícias.

Esse exemplo aponta para um problema maior. Quando imagens feitas por IA circulam sob a autoridade de veículos aparentemente legítimos, não só espalham falsidades, mas também corroem a confiança em evidências autênticas.

Alimardani afirmou que a IA introduziu um novo tipo de névoa na guerra, em que fotos reais podem ser descartadas como falsas e imagens falsas podem ser usadas para retratar eventos reais. Uma vez que uma única imagem fabricada é desmascarada, pode ser usada para minar a confiança em provas genuínas também, tornando a própria realidade mais difícil de verificar e até evidências reais de crimes de guerra mais fáceis de negar.

“As mentiras se espalham muito mais rápido e ainda não descobrimos como lidar com isso. Isso criou uma falta de confiança generalizada”, disse.

Dubberley, da Human Rights Watch, declarou que o volume crescente de deepfakes não mudou fundamentalmente a forma como investigadores analisam possíveis crimes de guerra, mas tornou o trabalho mais lento e difícil. Investigadores conseguem identificar rapidamente falsificações óbvias. Mas a disseminação ampla de conteúdo falso levanta mais desconfiança pública, cria mais ruído e dificulta estabelecer os fatos do que realmente aconteceu.

“Embora isso não afete nossas investigações, nos desacelera”, disse Dubberley. “Faz as pessoas questionarem tudo e leva mais tempo para atravessarmos essa névoa de ruído on-line e nas redes sociais. Esse é o desafio.”

Essa lentidão importa além da checagem pública. Organizações como Human Rights Watch e Bellingcat também preservam evidências digitais para possíveis processos judiciais futuros. A IA adiciona uma nova camada de autenticação: investigadores agora precisam demonstrar não apenas onde e quando uma imagem foi feita, mas também se ela é sintética ou manipulada.

Como combater a propaganda

A maior parte dessas narrativas se espalha on-line. Mas em quais condições se tornam predominantes? Plataformas digitais não são apenas canais de distribuição. Também fazem parte da engrenagem que ajuda a criar, moldar e amplificar esse tipo de conteúdo.

Brooking, investigador do DFRLab no Atlantic Council, afirmou que os algoritmos são centrais nesse processo: “Hoje, nenhuma plataforma de rede social permite que você descubra conteúdo apenas com base em quem segue ou em seus interesses declarados”, disse. “Os algoritmos foram fundamentais. Você não teria esse tipo de conflito informacional sem eles”.

Isso torna a procedência –a capacidade de verificar de onde uma imagem veio e como foi alterada– cada vez mais importante. Mas Alimardani disse que padrões como o C2PA ainda não estão amplamente implementados o suficiente para ajudar a maioria das pessoas em conflitos que evoluem rapidamente. “A maioria dos celulares não assina imagens no momento da captura, a maioria dos modelos não incorpora procedência quando cria conteúdo, e a maioria das plataformas não exibe sinais de procedência aos usuários”, disse. “Então, em termos do ambiente informacional imediato ao redor, por exemplo, do conflito no Irã, a procedência ainda não é um fator.”

Se amplamente adotada, a procedência não impediria a disseminação de desinformação, afirmou Alimardani, mas poderia oferecer uma cadeia verificável de custódia para conteúdos autênticos. O problema maior, segundo ela, é o colapso da confiança em documentação autêntica, como ocorreu no caso da escola de Minab. “Isso é o que chamamos de dividendo do mentiroso. A mera existência de mídia sintética dá às pessoas –especialmente a agentes mal-intencionados –uma ferramenta retórica para descartar evidências reais”, afirmou.

Mantzarlis, da Indicator Media, ressaltou que este é um momento especialmente difícil para a integridade da informação. Plataformas reduziram algumas de suas intervenções e diminuíram o apoio ao jornalismo justamente no pior momento possível. Ainda assim, argumenta ele, as plataformas continuam tendo responsabilidade em reduzir danos, e isso começa pelo reconhecimento de que nem todo conteúdo de IA representa o mesmo tipo de ameaça.

Mantzarlis fez uma distinção entre conteúdo de IA deliberadamente enganoso e conteúdo de IA apenas de baixa qualidade ou spam, argumentando que cada um exige respostas diferentes.

“Precisamos de remoções, rótulos e intervenções explícitas para o material realmente falso”, disse. “Mas também precisamos de algum acordo mais amplo para conter os espaços em que existe conteúdo visivelmente falso, mas ainda prejudicial –seja porque é odioso ou porque é propaganda impulsionada por mídia estatal ou regimes autoritários. Pode não violar as políticas das plataformas, mas isso não significa que deva ser empurrado para todos o tempo inteiro.”

As plataformas não são os únicos atores tornando a verificação mais difícil. Imagens de satélite do Oriente Médio estão sendo restringidas ou limitadas pelas empresas que as fornecem. Muitos dos investigadores com quem conversei consideram isso profundamente preocupante, já que essas restrições dificultam a verificação de eventos no terreno e criam mais espaço para enganos. A falta de imagens confiáveis torna muito mais difícil entender o que está acontecendo.

“Com as novas restrições de imagens impostas por esses provedores comerciais de satélite, esse processo [de verificação] está significativamente atrasado e prejudicando reportagens de interesse público”, disse Ganguly.

Apesar desses desafios, jornalistas, investigadores e checadores de fatos ainda atuam como autoridades de evidência encarregadas de atravessar essa névoa de guerra alimentada por IA e oferecer um contraponto à propaganda patrocinada por Estados.

Muitos dos especialistas com quem conversei mencionaram que a melhor defesa contra desinformação impulsionada por IA ainda é o jornalismo básico: estar no local, conversar com fontes confiáveis e compreender o que é crível.

Mantzarlis argumentou que, para jornalistas que não conseguem acessar um lugar diretamente, isso significa ser transparente sobre as incertezas, compartilhar o que é conhecido e desconhecido antes da verificação completa e usar ferramentas disponíveis de IA e outras tecnologias.

“É uma escalada contínua entre defensores e seus adversários. Checadores, jornalistas e plataformas sempre estarão correndo atrás. Mas isso não significa que precisem estar quilômetros atrás”, disse.


Texto traduzido por Victor Boscato. Leia o original em inglês.


O Poder360 tem uma parceria com duas divisões da Fundação Nieman, de Harvard: o Nieman Journalism Lab e o Nieman Reports. O acordo consiste em traduzir para português os textos do Nieman Journalism Lab e do Nieman Reports e publicar esse material no Poder360. Para ter acesso a todas as traduções já publicadas, clique aqui.

IA intensifica desinformação e dificulta cobertura da guerra EUA-Irã — Radar Olhar Aguçado | Radar Olhar Aguçado