Grupo pró-Irã usa cartoons de Lego gerados por IA para atacar Trump — e isso muda a guerra da informação
imagem-video11 de abril de 20268 min de leitura0

Grupo pró-Irã usa cartoons de Lego gerados por IA para atacar Trump — e isso muda a guerra da informação

Grupo pró-Irã usa IA para criar cartoons de Lego que atacam Trump. Mais de 2,3M de visualizações. Entenda o impacto geopolítico e de mercado.

R

RADARDEIA

Redação

#IA geradora de vídeo#Desinformação política#Deepfakes#Stable Diffusion#Runway Gen-3#Ciberguerra#Eleições 2026

Lede: A nova fronteira da desinformação geopolítica

Um grupo pró-Irã identificado como "Explosive Media" desencadeou uma campanha massiva de vídeos gerados por inteligência artificial, utilizando animações estilo Lego para ridicularizar o presidente dos Estados Unidos, Donald Trump, e a administração americana. Desde março de 2026, mais de 15 vídeos foram distribuídos simultaneamente nas plataformas X, Telegram e YouTube, acumulando collectively mais de 2,3 milhões de visualizações antes de serem removidos ou restritos. O caso representa um ponto de inflexão na guerra da informação digital: pela primeira vez, actores estatais ou seus proxies utilizam ferramentas comerciais de geração de vídeo por IA para produzir desinformação política em escala industrial, com custos estimados em menos de US$ 200 por vídeo.


Como funciona a fábrica de desinformação algorítmica

Ferramentas e técnicas identificadas

Os vídeos analisados pela comunidade de investigadores de segurança digital apresentam características técnicas consistentes com o uso de modelos de difusão para vídeo, possivelmente integrados com pipelines que combinam múltiplos modelos de geração:

  • Geração de imagem base: Modelos de texto-para-imagem de código aberto como Stable Diffusion XL ou Flux, treinados especificamente para reproduzir a estética visual dos blocos de construção Lego
  • Animação por IA: Ferramentas de vídeo-para-vídeo baseadas em modelos como Stable Video Diffusion ou comerciais como Runway Gen-3 e Kling AI, que transformam imagens estáticas em sequências animadas
  • Sincronização labial: Software de dubbing automático que adapta áudios pré-existentes ou gerados por TTS (text-to-speech) aos movimentos faciais dos personagens animados
  • Propagação em rede: Bots coordenados no X (antigo Twitter) amplificam a difusão inicial, com picos de activity que sugerem 300-500 contas sincronizadas a cada lançamento

"O que torna esta campanha particularmente sofisticada não é apenas o conteúdo, mas a infraestrutura de distribuição. Estamos a observar pela primeira vez um grupo não-estatal a operar uma operação de influência que rivaliza em sofisticação com operações governamentais documentadas anteriormente", explicou Dr. Juan Carlos R. Sánchez, director do Laboratório de Segurança Digital da Universidade de São Paulo (USP), em entrevista exclusiva.

O estilo Lego como escolha estratégica

A escolha deliberada do estilo visual Lego não é arbitrária. A estética apresenta vantagens táticas significativas:

  1. Anonimato visual: Personagens Lego não enfrentam as restrições de direitos de autor que afetam a utilização de personagens copyrighted em desinformação política
  2. Descompressão cognitiva: A linguagem visual infantil reduz a barreira de entrada para audiências diversas, facilitando a viralização
  3. Efeito de descontextualização: A transformação de figuras políticas reais em brinquedos distorce a percepção do espectador, criando uma relação de ironia e distancing crítico
  4. Facilidade técnica: Modelos de IA treinados em datasets massivos de imagens Lego (incluindo o dataset LAION-5B, que contém mais de 5,8 mil milhões de imagens com legendas) produzem resultados consistentes com mínima engenharia de prompt

Contexto histórico: da propaganda estatal à guerrilha algorítmica

A evolução da guerra da informação

A campanha Explosive Media representa a culminação de uma trajectória que começou com as operações de influência russas documentadas durante as eleições presidenciais americanas de 2016. Naquela época, a Internet Research Agency (IRA) operava uma "fábrica de троллей" (trolls) que employava cerca de 1.000 pessoas em São Petersburgo para produzir conteúdo orgânico manual.

Desde então, o cenário transformou-se radicalmente:

  • 2018-2020: Operações de desinformação migram para plataformas decentralizadas, com grupos iranianos documentados pelo Graphika e Stanford Internet Observatory a utilizar redes de dezenas de milhares de contas falsas
  • 2022-2024: O advento de ferramentas de geração de texto por LLM (GPT-3, GPT-4, Claude) permite a produção de conteúdo escrito em escala sem precedentes, com estudos da Stanford a documentar redução de 60-70% nos custos operacionais por peça de conteúdo
  • 2025-presente: A democratização de modelos de geração de vídeo representa a terceira onda, com implicações ainda mais profundas para a integridade da informação pública

A geopolítica do conflito digital Irã-Estados Unidos

As tensões entre Irã e Estados Unidos intensificaram-se desde 2018, quando Trump withdrew from the Joint Comprehensive Plan of Action (JCPOA), restabelecendo sanções económicas que afectaram profundamente a economia iraniana. A administração Trump (2025-2029) adoptou uma postura de "máxima pressão" semelhante à do primeiro mandato, enquanto o Irã expandiu simultaneamente o seu programa nuclear e as suas capacidades de ciberguerra.

Neste contexto, a desinformação via IA representa uma extensão lógica das tácticas híbridas já utilizadas por Teerão, que em 2019 foi responsabilizado por ataques cibernéticos contra infraestrutura crítica americana. A diferença crucial: enquanto os ataques cibernéticos requerem capacidades técnicas sofisticadas e apresentam risco de retaliação, a produção de memes e vídeos de desinformação opera num limbo regulatório onde a atribuição é difficile e as consequências são mínimas.


Implicações para o mercado e o ecossistema de IA

Impacto na indústria de geração de conteúdo por IA

A utilizitzação weaponizada de ferramentas comerciais de IA coloca desafios significativos para empresas do sector. As principais implicações incluem:

Para fabricantes de modelos de vídeo:

  • Pressão regulatória acrescida para implementar mecanismos de watermarking robustos em conteúdo gerado
  • Potencial impacto reputacional que poderá affectar adoption em sectores sensíveis (notícias, política)
  • Necessidade de desenvolver sistemas de detecção (C2PA, Content Credentials) com precisão superior a 95% para ser considerado eficaz

Para plataformas sociais:

  • Custos operacionais crescentes em moderação de conteúdo, com a Meta a estimar gastos de US$ 5,1 mil milhões anuais em segurança e integridade até 2027
  • Risco de backlash regulatório se não conseguirem demonstrar capacidade de detecção de desinformação gerada por IA
  • Dilema estratégico: restriçõesseveras podem limitar a atractividade da plataforma para creators legítimos

Contexto para a América Latina

Embora o caso tenha como alvo a política americana, as suas implicações ressoam directamente na região latino-americana. O Brasil, em particular, representa um hotspot para operações de desinformação política:

  • Eleições presidenciais de 2022: Mais de 50 milhões de dólares foram gastos em campanhas de desinformação no Facebook e WhatsApp, segundo relatório do Núcleo de Estudos Comparados sobre a América Latina (Núcleo ECAL)
  • Crescimento do ecossistema de IA brasileiro: O país alberga mais de 350 startups de IA activas, segundo dados da ABStartups, posicionando-se como um potential both de produção e target de desinformação
  • Vulnerabilidade regulatória: A Lei das Fake News brasileira (PL 2630/2020) permanece stalled no Congresso, deixando um vácuo legal que dificulta a responsabilização de actores mal-intencionados

"A América Latina está no meio de uma tempestade perfeita. Temos sistemas políticos em transformação, populações altamente conectadas em redes sociais, e uma ausência quase total de regulamentação efectiva sobre IA e desinformação. O que estamos a ver na campanha pró-Irã é um preview do que podemos esperar nas próximas eleições regionais", alertou Mariana Teixeira, pesquisadora do InternetLab e especialista em regulação digital.


O que esperar: cenários e indicadores a monitorizar

Curto prazo (3-6 meses)

  1. Escalada da campanha: É provável a expansão para outros formatos (imagens estáticas, memes, textos longos) e alvos adicionais (figuras da oposição americana, aliados da NATO)
  2. Resposta institucional: Espera-se que o Departamento de Justiça americano e a CISA (Cybersecurity and Infrastructure Security Agency) emitam alertas públicos e possivelmente anunciem medidas de mitigação
  3. Reacção das plataformas: X/Twitter e YouTube provavelmente actualizarão as suas políticas de conteúdo político, potencialmente implementando restrições mais severas para conteúdo gerado por IA relacionado com eleições

Médio prazo (12-24 meses)

  • Avanços em detecção: Empresas como Microsoft (Azure AI Content Safety), Google (SynthID) e Adobe (Content Credentials) acelerarão o desenvolvimento de ferramentas de watermarking e atribuição
  • Pressão regulatória: A EU AI Act e legislações similares devront addressing explicitamente o uso de IA para manipulação eleitoral, com multas potenciais de até € 30 milhões ou 6% do volume de negócios global
  • Transformação do mercado de desinformação: A barreira de entrada para operações sofisticadas de influência continuará a diminuir, potencialmente democratizando capacidades que anteriormente estavam restritas a estados-nação

Indicadores-chave para investidores e decisores

  • Volume de investimento em startups de detecção de deepfakes (estimativa de US$ 890 milhões em funding até 2027)
  • Taxa de adoção de standards C2PA por fabricantes de dispositivos e software
  • Incidência de incidentes de desinformação política durante ciclos eleitorais regionais
  • Evolução das métricas de confiança em meios de comunicação social (Edelman Trust Barometer)

Conclusão: entre a inovação e o caos informacional

A campanha Explosive Media marca um momento de inflexão na história da guerra da informação. Ferramentas de IA, inicialmente desenvolvidas para democratizar a criatividade e potenciar expression artistic, estão a ser adaptadas para purposes geopolíticos com implicações que ainda não compreendemos plenamente. O desafio para sociedades democráticas não é apenas técnico — é fundamentalmente político e educacional.

A questão central não é se podemos detectar conteúdo gerado por IA (já podemos, com graus variáveis de precisão), mas se as nossas instituições, processos democráticos e literacia mediática são suficientemente resilientes para funcionar num ambiente onde a fabricação de realidade se tornou acessível, barata e escala industrial. As respostas que dermos nos próximos 18-24 meses terão consequências duradouras para a integridade do discourse público global.

Leia também

Eaxy AI

Automatize com agentes IA

Agentes autônomos para WhatsApp, Telegram, web e mais.

Conhecer Eaxy

Gostou deste artigo?

Artigos Relacionados