Vídeos com IA e desinformação não são 'erro' ocasional, mas mecanismo contínuo de pressão psicológica e disputa de legitimidade


Nas horas seguintes ao sequestro do presidente Nicolás Maduro e sua esposa, Cilia Flores, muitos nas redes sociais não discutiam o fato, mas sim brincavam com imagens e áudios elaborados a partir de Inteligência Artificial (IA), conhecidos como deepfakes (conteúdos ultrafalsos).

A sequência não foi novidade. Primeiro apareceu uma fotografia “perfeita demais” — Maduro escoltado por supostos agentes estadunidenses — e, quase ao mesmo tempo, versões derivadas: recortes, vídeos gerados a partir da imagem, reuploads com música épica e textos que apontavam culpados e conclusões.

Suposta primeira imagem de Maduro escoltado por forças norte-americanas, cuja autenticidade foi questionada por serviços de verificação de agências como EFE e AFP

No X (antigo Twitter), uma das imagens mais compartilhadas foi rastreada até uma conta que se apresenta como entusiasta da “arte em vídeo feita com inteligência artificial”. Em poucos minutos, o TikTok, Instagram, Facebook e YouTube foram inundados com peças falsas ou recicladas, enquanto as plataformas fingiam não ver ou ofereciam respostas inconsistentes sobre a origem do material.

De acordo com a revista especializada Wired, “nos últimos anos, os principais incidentes globais desencadearam enormes quantidades de desinformação nas redes sociais, uma vez que as empresas de tecnologia retiraram os esforços para moderar suas plataformas. Muitas contas tentaram aproveitar essas regras flexíveis para aumentar sua visibilidade e ganhar seguidores”.

Esse episódio é o ponto de partida desta análise: não a questão de saber se a tecnologia existe para a manipulação e a desinformação mais descarada, mas como ela é usada, como é distribuída e que danos causa quando a verificação chega tarde.

Do deepfake ao “choque informativo”

A literatura recente tende a classificar o fenômeno em três camadas:

a) Deepfake “estrito”: conteúdo gerado com IA que simula identidade ou fatos (rosto, voz ou cena) com verossimilhança suficiente para confundir. Relatórios de referência alertam que um deepfake bem sincronizado pode desencadear crises políticas, violência ou colapsos de confiança, especialmente em contextos polarizados.

b) Cheapfake/manipulação de baixa complexidade: desacelerar um vídeo, cortar o contexto, alterar legendas; seu poder está na distribuição, não na sofisticação. Um exemplo canônico é o caso Pelosi (2019), que usou um audiovisual “desacelerado” para apresentar Nancy Pelosi, ex-presidente da Câmara dos Representantes dos Estados Unidos, como se ela estivesse bêbada.

c) “Liar’s dividend” (dividendo do mentiroso): quanto mais os deepfakes se popularizam, mais fácil é negar o material autêntico. Esse efeito não exige conteúdos ultrafalsos perfeitos: basta que exista uma dúvida generalizada. Várias análises acadêmicas e de políticas públicas apontam isso como um fator crítico para a democracia e o jornalismo.

Em conflitos e crises de alta tensão — guerras, golpes, eleições disputadas, operações militares — a chamada “desinformação sintética” (elaborada com IA) se integra a um padrão repetido: “choque + saturação + atribuição”.

Cubadebate

Primeiro, gera-se um impacto emocional (choque). Em seguida, o espaço é inundado com variantes (saturação) para dificultar o rastreamento. E, finalmente, tenta-se definir “culpados” e “relatos” (atribuição), mesmo que o conteúdo original já tenha sido desmentido.

Casos documentados na Venezuela (2026)

De vídeos aparentemente gerados por IA a imagens antigas reutilizadas, o TikTok, o Instagram e o X fizeram pouco para deter a avalanche de publicações enganosas que ocorreram a partir de 3 de janeiro de 2026, após a invasão dos Estados Unidos à Venezuela, de acordo com uma investigação publicada pela Wired.

Padrões já conhecidos foram seguidos. Algumas pessoas compartilharam vídeos antigos nas plataformas sociais, enquanto afirmavam falsamente que eles mostravam os ataques na capital venezuelana, Caracas.

Captura de tela por Cubadebate

Poucos minutos após a notícia do sequestro do presidente Maduro, várias imagens que mostravam agentes da Drug Enforcement Administration (DEA) levando o presidente venezuelano se espalharam amplamente em várias plataformas. A imagem falsa foi denunciada pela primeira vez pelo verificador de fatos David Puente.

Captura de tela por Cubadebate

David Puente utilizou o SynthID, uma tecnologia desenvolvida pelo Google DeepMind, que identifica imagens geradas por IA:

“De acordo com minha análise, a maior parte ou toda essa imagem foi gerada ou editada utilizando o Google AI. Detectei uma marca d’água SynthID, que é um sinal digital invisível incorporado pelas ferramentas de IA do Google durante o processo de criação ou edição. Essa tecnologia foi projetada para permanecer detectável mesmo quando as imagens são modificadas por meio de recortes ou compressão”.

Enquanto isso, o chatbot do X, Grok, também confirmou que a imagem era falsa quando vários usuários perguntaram a ele. Ele confirmou que a imagem era uma versão alterada da prisão do traficante mexicano Dámaso López Núñez em 2017.

Captura de tela por Cubadebate

Além disso, ferramentas de IA foram utilizadas para criar vídeos a partir da imagem que pretendia mostrar a prisão de Maduro. No TikTok, vários exemplos desses vídeos gerados por IA acumularam centenas de milhares de visualizações poucas horas após o sequestro do presidente e de sua esposa.

Captura de tela por Cubadebate

 

Vários dos vídeos do TikTok são baseados em imagens geradas por IA publicadas originalmente no Instagram por um criador digital chamado Rubén Darío e vistas milhares de vezes.

Vídeos semelhantes também apareceram no X e em diversas variações com imagens de maior resolução, claramente projetadas para se parecerem mais com o estilo de um fotógrafo que trabalha para as autoridades norte-americanas. Por exemplo, esta apresentação de slides publicada no Instagram apresentava várias dessas imagens com a legenda: “Mais fotos de Maduro divulgadas pelos Estados Unidos”.

Captura de tela por Cubadebate

Também foram replicados nas redes sociais e chats de mensagens (Telegram e WhatsApp) áudios com mensagens de voz (geradas com IA) atribuídas ao presidente Maduro, que supostamente vazaram através de seu advogado de defesa da prisão onde ele está detido ilegalmente em Nova York.

Apesar de ter sido comprovada como falso, conteúdo continua ativo no X, Facebook e Instagram



Uma análise de um desses áudios realizada pelo Observatório de Mídia do Cubadebate, através da plataforma Undetectable.ai, estimou que havia apenas 1% de chance de ser real:

Captura de tela por Cubadebate

Também circulou nas redes sociais cubanas a imagem de um soldado das forças especiais dos Estados Unidos, supostamente de origem cubana, apresentado como chefe do comando Delta Force que sequestrou Nicolás Maduro. Originalmente, ela foi divulgada por uma página de um extremista de direita anticubano no Facebook e a imagem foi replicada por dezenas de usuários:

Captura de tela por Cubadebate

 

Quando perguntado ao Grok se esta imagem foi gerada com IA, ele respondeu:

Sim, esta imagem foi gerada com inteligência artificial.

Principais razões:

Não há evidências reais de Alexis “Cuco” Mendieta: Embora a captura de Nicolás Maduro pelas forças Delta Force seja um evento real relatado por fontes confiáveis, nenhuma menção oficial ou credível identifica o comandante como um cubano-americano chamado Alexis Mendieta. Essa afirmação só aparece em publicações virais nas redes sociais (Facebook, Instagram, Threads) e sites da diáspora cubana, muitas vezes com tom sensacionalista ou humorístico (“é o que diz a vizinha fofoqueira”), o que indica que se trata de um boato ou meme fabricado para se tornar viral em comunidades anti-Maduro.

A foto não coincide com outras fotos reais de operadores da Delta Force: As fotografias autênticas da Delta Force são extremamente raras devido ao sigilo da unidade (eles nunca publicam rostos nítidos de operadores ativos). As imagens reais disponíveis são borradas, antigas ou de treinamento genérico.

Esta foto mostra detalhes típicos de imagens geradas por IA: iluminação perfeita, texturas impecáveis no equipamento, proporções faciais ideais e um fundo artificialmente desfocado.

Semelhança com imagens de IA: Pesquisas de imagens semelhantes revelam que esta foto circula exclusivamente em publicações sobre o rumor de Mendieta e, quando comparada com exemplos conhecidos de soldados da Delta Force gerados por IA (como modelos 3D ou fotos de banco de imagens), compartilha características comuns: capacete com NVG quádruplo, colete com patch “DELTA FORCE” estilizado (raro em fotos reais), bandeira americana invertida em alguns casos e pose dram.

Há muitos outros exemplos, alguns identificados pela imprensa estadunidense. A influente trumpista Laura Loomer foi uma das pessoas que compartilhou imagens que mostravam um cartaz de Maduro sendo supostamente retirado. Ela escreveu no X: “Após a captura de Maduro pelas Forças Especiais dos Estados Unidos nesta manhã, o povo da Venezuela está rasgando cartazes de Maduro e levando-os às ruas para comemorar sua prisão pelo governo Trump”. As imagens foram tiradas originalmente em 2024.

Captura de tela por Cubadebate

Outro vídeo que afirma mostrar imagens do ataque norte-americano a Caracas foi publicado pelo usuário “Inteligencia de Defensa” pouco depois de Trump anunciar o sequestro do presidente Maduro, e foi visto mais de dois milhões de vezes. As imagens em questão foram publicadas originalmente no TikTok em novembro de 2025.

Captura de tela por Cubadebate

O pesquisador Alan MacLeod, editor do jornal Mint Press News, denunciou que “um vídeo que mostra Maduro supostamente torturando dissidentes venezuelanos está se tornando viral, com 15 milhões de visualizações e 81 mil curtidas até agora. O único problema? É uma cena de um filme”.

Captura de tela por Cubadebate

Este caso pode ser considerado um deepfake (ou, mais precisamente, um deepfake “por recontextualização”), pois cumpre a função central das imagens ultrafalsas na guerra cognitiva: fazer passar como evidência real um material audiovisual que não documenta o fato que lhe é atribuído. Embora não haja um “rosto sintético” gerado quadro a quadro, o efeito é o mesmo: uma realidade é fabricada por meio da manipulação do significado, não necessariamente dos pixels.

Plataformas e canais: o que fazer

Detectar deepfakes protege a tomada de decisões em contextos em que uma imagem, um vídeo ou um áudio podem desencadear reações imediatas e descontroladas antes que haja uma verificação.

Um “conteúdo sintético” verossímil pode induzir pânico, agitação social, mudanças no comportamento eleitoral ou decisões econômicas baseadas em informações falsas. Quando esse material circula rapidamente e se instala como “prova”, o dano não se limita ao contexto em que aparece: ele corrói a confiança nas instituições, na mídia e nos processos de segurança ou justiça, mesmo que depois se prove que era falso.

Pesquisas demonstraram que, em uma população exposta a notícias falsas, apenas 30% das pessoas que consomem informações falsas conseguem ver as desmentidas. É por isso que os deepfakes facilitam operações de manipulação que buscam polarizar, impor marcos interpretativos e atribuir culpas em momentos críticos, tornando-se um instrumento eficaz de influência política.

No plano individual, a falsificação audiovisual pode resultar em extorsão, ameaças, assédio ou destruição da reputação. E, a longo prazo, sua normalização alimenta um efeito especialmente corrosivo: a ideia de que “tudo pode ser falso”, o que permite que atores reais neguem fatos autênticos alegando que se trata de inteligência artificial.

Embora a tecnologia avance rapidamente e, em 2026, muitos deepfakes sejam quase indistinguíveis, ainda existem métodos manuais e ferramentas para detectá-los:

  • Regra de ouro (20 segundos): se o conteúdo provoca euforia, raiva ou medo e “encerra o caso” com uma única imagem/áudio, trate-o como suspeito até que se prove o contrário.
  • Verificação rápida antes de compartilhar (lista de verificação):

– Origem: quem publicou primeiro? Se você não conseguir identificar a postagem original ou a fonte primária, não a reenvie.
-Contexto: há data, local e um meio/autor identificável? Se faltarem, é um sinal de alerta.
-Confirmação cruzada: procure duas confirmações independentes (comunicados oficiais, meios de comunicação com edição e assinatura, verificadores).

  • Coerência audiovisual:

-Imagem: contornos do rosto/mãos, texto deformado, acessórios “perfeitos demais”, sombras incoerentes.
-Vídeo: saltos de iluminação, cintilação estranha, dentes/lábios com artefatos, áudio que não “respira”.
-Áudio: dicção excessivamente uniforme, respiração ausente, ênfase “plana”, cortes estranhos.

  • Prova de proveniência: se for imagem, faça uma pesquisa reversa; se for vídeo, extraia fotogramas e repita a pesquisa; se for áudio, exija o link para uma publicação original (não “me passaram”).
  • Como desmentir sem amplificar:

-Não reenvie o arquivo tal como está; se precisar mostrá-lo, use captura parcial, baixa resolução ou blur e marque como FALSO.
-Compartilhe a desmentida com link para a fonte primária e explique por que é falso (origem, data real, material reciclado).

  • O que fazer se você já compartilhou:

-Apague o reenvio, publique a correção no mesmo tópico/grupo e peça para não continuar reenviando.

  • Se você administra grupos, fixe uma mensagem: “sem fonte primária não se publica”.
  • Higiene informativa em mensagens (WhatsApp/Telegram): Desconfie de áudios “filtrados” sem documento original.
  • Em crises, defina 1–2 canais “de referência” (instituição/mídia/verificador) e priorize esses.

E lembre-se: os detectores automáticos ajudam, mas não substituem a verificação da origem e do contexto.

Conclusão

Em uma crise, a questão decisiva não é mais se a inteligência artificial pode fabricar uma imagem verossímil, mas quanto tempo leva para instalá-la como “prova”. Nas horas seguintes a um evento de alta tensão, a desinformação não compete pela verdade: ela compete pelo primeiro impacto, pelo volume e pela interpretação.

É aí que opera a sequência “choque + saturação + atribuição”: emocionar, inundar e encerrar a narrativa antes que a verificação chegue ao centro da conversa.

É por isso que o deepfake é menos um prodígio técnico do que uma arma de distribuição e manipulação em grande escala.

Quando uma imagem falsa viaja de uma postagem original para os reuploads, daí para os chats de mensagens fechadas e, finalmente, para a esfera pública, o dano já não depende de a montagem ser perfeita, mas de encontrar um público disposto a reenviá-la como certeza.

E cada reenvio, nesse contexto, é uma decisão.

A defesa mais eficaz não exige transformar toda a população em peritos forenses. Exige instalar um reflexo cívico mínimo: pausar, exigir procedência, contrastar e, acima de tudo, não amplificar.

Paralelamente, é necessário que as plataformas assumam sua parte: rotulagem real, atrito ao compartilhar, rastreabilidade de reuploads e respostas consistentes. Sem essa dupla camada — cidadãos treinados e plataformas responsáveis —, a próxima crise repetirá o mesmo roteiro, com novos rostos e o mesmo objetivo.

A experiência da Venezuela deixa como lição que, em contextos de alta polarização, sanções, guerra psicológica e circulação massiva de rumores, a desinformação não opera como um “erro” ocasional, mas como um dispositivo sustentado de pressão psicológica e disputa de legitimidade: nesse contexto, o deepfake não é apenas uma falsificação técnica, mas um instrumento de guerra cognitiva orientado para moldar percepções, condicionar emoções e desviar o julgamento público.

Viu-se como áudios “vazados”, vídeos editados e peças fabricadas com IA podem ativar picos de ansiedade coletiva, alimentar decisões precipitadas e, acima de tudo, impor um quadro interpretativo antes que haja confirmação documental.

Por isso, diante do deepfake, o segredo é antecipar sua dinâmica de distribuição: reagir rapidamente com fontes primárias, criar rotinas públicas de verificação, reduzir o reenvio impulsivo em mensagens fechadas e manter um “cordão sanitário” informativo nas primeiras horas, quando o choque busca se transformar em certeza.

 Publicado originalmente por: Opera Mundi

Comentário(s)

-Os comentários reproduzidos não refletem necessariamente a linha editorial do blog
-São impublicáveis acusações de carácter criminal, insultos, linguagem grosseira ou difamatória, violações da vida privada, incitações ao ódio ou à violência, ou que preconizem violações dos direitos humanos;
-São intoleráveis comentários racistas, xenófobos, sexistas, obscenos, homofóbicos, assim como comentários de tom extremista, violento ou de qualquer forma ofensivo em questões de etnia, nacionalidade, identidade, religião, filiação política ou partidária, clube, idade, género, preferências sexuais, incapacidade ou doença;
-É inaceitável conteúdo comercial, publicitário (Compre Bicicletas ZZZ), partidário ou propagandístico (Vota Partido XXX!);
-Os comentários não podem incluir moradas, endereços de e-mail ou números de telefone;
-Não são permitidos comentários repetidos, quer estes sejam escritos no mesmo artigo ou em artigos diferentes;
-Os comentários devem visar o tema do artigo em que são submetidos. Os comentários “fora de tópico” não serão publicados;

Postagem Anterior Próxima Postagem

ads

ads