Políticos compartilham vídeos de IA com falsas comemorações na Venezuela

Material artificial que simula comemorações no país após captura de Nicolás Maduro pelos EUA acumula milhões de visualizações

Por Redação TMC | Atualizado em
(Foto: Reprodução/Instagram, Estadão)

Vídeos gerados por inteligência artificial estão sendo utilizados para criar vídeos que simulam comemorações populares na Venezuela após a captura de Nicolás Maduro pelos Estados Unidos. Os conteúdos hiper-realistas começaram a circular nas redes sociais desde 3 de janeiro de 2026, acumulando milhões de visualizações em plataformas como TikTok e X. Políticos brasileiros compartilharam esses materiais, mesmo com claros indícios de falsidade.

A prisão do ex-presidente venezuelano, resultado de uma operação militar americana, desencadeou uma onda de desinformação digital. Os vídeos artificiais mostram multidões fictícias festejando e agradecendo ao presidente Donald Trump pela intervenção, eventos que não aconteceram na realidade.

Acompanhe tudo o que acontece no Brasil e no mundo: siga a TMC no WhatsApp

No Brasil, um vídeo falsamente atribuído ao MST (Movimento dos Trabalhadores Rurais sem Terra) ganhou destaque nas redes sociais. A gravação fabricada por inteligência artificial apresentava supostos integrantes do movimento ameaçando “invadir” os Estados Unidos para libertar Maduro. O MST emitiu comunicado oficial negando qualquer relação com o conteúdo.

Mesmo após o desmentido, o material foi amplamente divulgado por políticos conservadores brasileiros. O senador Cleitinho Azevedo (Republicanos-MG) compartilhou o vídeo e incentivou seus seguidores a fazerem o mesmo, sugerindo uma “vaquinha” para transportar militantes aos EUA. Sóstenes Cavalcante, líder do PL na Câmara, afirmou em suas redes que o movimento estaria “desafiando Trump” e “prometendo guerra”.

A repercussão se estendeu além do Congresso Nacional. Parlamentares estaduais e vereadores utilizaram o conteúdo para fazer ironias, mesmo reconhecendo a possibilidade de ser material gerado artificialmente.

Um dos vídeos falsos de maior alcance internacional foi publicado pela conta “Wall Street Apes” no X. O perfil, que possui mais de 1 milhão de seguidores, divulgou conteúdo mostrando venezuelanos fictícios expressando gratidão aos Estados Unidos. O vídeo ultrapassou 5,6 milhões de visualizações e foi redistribuído por aproximadamente 38 mil perfis, incluindo o do empresário Elon Musk.

A publicação recebeu posteriormente uma marcação da comunidade indicando sua natureza artificial e potencial enganoso, antes de ser removida da plataforma.

O Estadão Verifica checou algumas das publicações utilizando as ferramentas de análise Hive Moderation e Invid, indicando uso de IA na geração dos vídeos.

O realismo e a velocidade com que os vídeos gerados por IA se propagam representam um desafio sem precedentes para a verificação de informações. Ferramentas como Sora e Midjourney permitem criar rapidamente conteúdos visuais convincentes que se misturam ao fluxo de notícias reais.

Leia mais: Nelsinho: “Ninguém acha certo um país invadir a soberania do outro”

Casos semelhantes ocorreram em outros contextos de conflito, como na guerra entre Rússia e Ucrânia e nos confrontos no Oriente Médio. O avanço desse tipo de conteúdo aumenta a pressão sobre as plataformas digitais para aprimorarem seus sistemas de identificação de materiais produzidos por inteligência artificial. Países como Índia e Espanha discutem ou implementam regulamentações mais rigorosas, incluindo multas para conteúdos não identificados corretamente.

Empresas como TikTok e Meta anunciaram ferramentas automáticas para detectar conteúdos gerados por IA, mas o alcance dos vídeos relacionados à situação na Venezuela demonstra que os mecanismos atuais são insuficientes para eventos de grande impacto político.

Ao vivo
São Paulo
Ouça a TMC pelo Brasil
  • 100,1FM São Paulo
  • 101,3FM Rio de Janeiro
  • 100,3FM Curitiba
  • 88,7FM Belo Horizonte
  • 92,7FM Recife
  • 100,1FM Brasília
Notícias que importam para você
Copyright © 2026 CNPJ: 44.060.192/0001-05