segunda-feira, 2 de março de 2026

Depois do Deepfake: indignação, algoritmo e a captura silenciosa do Estado

Como a desinformação moderna troca “prova” por emoção — e empurra democracias (na Alemanha e no Brasil) para uma zona cinzenta



Índice

  1. O novo problema: não é “fake news”, é colapso de confiança
    1.1 Do boato à engenharia da realidade
    1.2 A política na era da prova impossível
  2. Deepfakes e o colapso da evidência
    2.1 Da falsificação “cara” ao sintético barato
    2.2 “Mesmo quando for falso, vai funcionar”: o efeito corrosivo
    2.3 O que a Europa está tentando fazer (rotulagem e rastreabilidade)
  3. A economia da indignação
    3.1 Raiva como combustível de engajamento
    3.2 Ranking por “curtida” como política pública de fato
    3.3 Personalização, espiral de radicalização e polarização afetiva
  4. O Estado como alvo e troféu
    4.1 Do “anti-sistema” à captura do sistema
    4.2 Como se enfraquece uma democracia sem dar golpe clássico
    4.3 O risco eleitoral como “projeto” (e não acidente)
  5. Alemanha e Brasil: semelhanças, diferenças e um mesmo dilema
    5.1 Resiliência institucional vs. vulnerabilidade informacional
    5.2 Memória histórica e cultura cívica: vantagem comparativa alemã
    5.3 O Brasil e a fadiga do mundo comum
  6. Antídotos realistas: o que funciona fora do discurso
    6.1 Regras para plataformas e transparência algorítmica
    6.2 Prova digital: marca d’água, contexto, auditoria
    6.3 Educação midiática e “higiene informacional”
    6.4 Instituições blindadas contra captura
  7. Conclusão
  8. 5 pontos relevantes do artigo
  9. Indicação de livros
  10. Referências (ABNT)


A desinformação política entrou em uma fase qualitativamente diferente: não se trata apenas de mentiras circulando, mas da erosão do próprio critério de prova. Quando vídeos, áudios e imagens podem ser fabricados com realismo e velocidade, a sociedade passa a viver sob suspeita permanente — e, nesse ambiente, a política tende a trocar argumentos por emoções, principalmente indignação. O resultado é um terreno fértil para extremismos e para um fenômeno ainda mais perigoso: a captura do Estado por dentro, sem necessidade de ruptura explícita. A Alemanha, por sua história e pelo debate europeu sobre regulação digital, enxerga esse risco com atenção crescente; o Brasil, com seu ecossistema informacional mais vulnerável e eleições polarizadas, enfrenta a mesma lógica com custos potencialmente maiores.


1. O novo problema: não é “fake news”, é colapso de confiança


1.1 Do boato à engenharia da realidade


Chamou-se de “fake news” por comodidade, como se fosse apenas uma notícia falsa que alguém inventou. Só que o fenômeno contemporâneo é mais sofisticado: envolve produção, distribuição e monetização de conteúdo que maximiza conflito, recompensa emocional e confunde o público até que “o que é verdadeiro” vire uma disputa tribal. O foco deixa de ser convencer pela evidência; passa a ser mobilizar pelo sentimento.


Nessa transição, duas tecnologias mudam o jogo:

  • IA generativa, que reduz o custo de fabricar conteúdo plausível (inclusive audiovisual).
  • Sistemas de recomendação, que decidem o que cada pessoa vê — e, portanto, o que cada pessoa sente como “realidade”.


Quando essas duas forças se combinam, a democracia entra em um modo de funcionamento instável: o debate público depende de um mínimo de mundo comum (fatos, procedimentos, confiança básica). Sem isso, o conflito vira regra.


1.2 A política na era da prova impossível


A grande ruptura não é “vai ter mais mentira”. A ruptura é: a prova perde autoridade social. Se um vídeo pode ser falso e um desmentido pode ser chamado de “manobra”, instala-se uma atmosfera em que qualquer evidência vira “opinião”.


E aí aparece a pergunta mais perigosa para uma democracia: se nada é confiável, por que confiar em eleições, tribunais, imprensa, ciência, instituições? Esse “ceticismo dirigido” não nasce espontaneamente. Ele é útil — e por isso pode ser produzido em escala.



2. Deepfakes e o colapso da evidência


2.1 Da falsificação “cara” ao sintético barato


Historicamente, falsificar prova era caro: precisava de produção profissional, edição complexa, logística. A IA reduz drasticamente esse custo e aumenta a escala. Não é apenas “um vídeo falso”; é a possibilidade de criar centenas de variações segmentadas, adaptadas a públicos específicos, no tempo político correto (véspera, madrugada, “quando ninguém consegue checar”).


Essa mudança explica por que a União Europeia vem tratando marcação/rotulagem e detectabilidade de conteúdo sintético como um eixo de proteção do espaço informacional. Em novembro de 2025, a Comissão Europeia explicitou o problema: a dificuldade crescente de distinguir conteúdo gerado por IA de material autêntico e a necessidade de transparência para reduzir riscos de desinformação, fraude e personificação. 


2.2 “Mesmo quando for falso, vai funcionar”: o efeito corrosivo


O deepfake tem dois impactos.

  1. Impacto imediato (enganar): uma parcela acredita e age (vota, compartilha, ataca, ameaça, boicota).
  2. Impacto estrutural (corroer): mesmo quem não acredita passa a desconfiar de tudo. O deepfake não precisa vencer a checagem; basta vencer o relógio emocional.


Esse segundo impacto é o mais devastador: a democracia depende de procedimentos (provas, contraditório, auditoria). Quando o público perde paciência para procedimentos e passa a exigir “fé no grupo”, o sistema político muda de natureza.


2.3 O que a Europa está tentando fazer (rotulagem e rastreabilidade)


Na arquitetura regulatória europeia, aparecem dois caminhos complementares:

  • DSA (Digital Services Act): foca em obrigações de plataformas, especialmente as muito grandes (acima de 45 milhões de usuários mensais na UE), com medidas como transparência de anúncios, opções de feed não personalizado e dever de analisar/mitigar riscos sistêmicos, incluindo impactos sobre processos eleitorais e debate cívico.  
  • AI Act (e instrumentos associados): avança na lógica de transparência para conteúdos sintéticos, incluindo obrigações de marcação/rotulagem e detectabilidade de materiais gerados ou manipulados por IA, com marcos de implementação e guias técnicos em desenvolvimento.  


A ideia central é simples: se a sociedade não consegue mais distinguir o autêntico do sintético, a democracia precisa de “infraestrutura de autenticidade”. Isso não resolve tudo — mas muda o jogo: dificulta operações de larga escala e reduz a impunidade do falsário.


3. A economia da indignação


3.1 Raiva como combustível de engajamento


A política sempre teve emoção. A novidade é que, hoje, emoção não é só retórica — é modelo de negócio.


Plataformas lucram com tempo de tela, cliques, comentários, compartilhamentos. E certos afetos geram mais engajamento do que outros. Indignação funciona como gasolina: acelera o compartilhamento, reduz reflexão, simplifica o mundo em “bons vs. maus”.


Com isso, a esfera pública passa por uma inversão: em vez de fatos orientarem o debate, o debate passa a ser otimizado para reação.


3.2 Ranking por “curtida” como política pública de fato


O feed não é neutro; ele é uma política pública privada, diária, invisível. E há pesquisa econômica recente modelando exatamente esse trade-off: algoritmos que dão mais peso a sinais de popularidade (likes, shares) aumentam engajamento, mas também elevam desinformação e polarização — porque o verdadeiro pode ser “expulso” pelo que rende mais reação. 


Isso é crucial para o leitor alemão porque, na UE, a discussão sobre risco sistêmico não é abstrata: o DSA trata explicitamente de como plataformas muito grandes podem amplificar conteúdos e afetar direitos, pluralismo, segurança pública e processos eleitorais. 


3.3 Personalização, espiral de radicalização e polarização afetiva


A personalização aprofunda o problema: não se trata apenas de “ver coisas diferentes”; trata-se de viver em climas morais diferentes.


Há evidências experimentais recentes sugerindo que a forma como conteúdos são ranqueados altera sentimentos partidários (polarização afetiva) em períodos curtos, mesmo sem “remover” conteúdo — só mudando a ordem de exposição. 


Quando a tecnologia aprende a maximizar indignação, ela cria um incentivo estrutural para políticos e influenciadores: quem fala “moderado” perde alcance; quem fala “guerra moral” ganha palco. O extremismo deixa de ser desvio e passa a ser estratégia competitiva.


4. O Estado como alvo e troféu


4.1 Do “anti-sistema” à captura do sistema


A desinformação não serve apenas para vencer um debate; ela serve para deslegitimar árbitros (justiça, imprensa, ciência, órgãos de controle). Sem árbitro confiável, o espaço fica livre para a regra mais antiga do poder: manda quem grita mais alto e mobiliza mais gente.


O extremismo, então, vira um método de conquista em duas etapas:

  1. Destruir confiança no sistema (“nada presta”, “tudo é fraude”, “tudo é inimigo”).
  2. Ocupar o sistema com lealdades e punições (“quem discorda é traidor”, “quem fiscaliza é inimigo do povo”).


A captura institucional raramente começa com tanques; começa com narrativas que justificam excepcionalidades: cortar orçamento, perseguir servidores, desacreditar auditorias, “reformar” regras eleitorais com o pretexto de “salvar a democracia”.


4.2 Como se enfraquece uma democracia sem dar golpe clássico


O roteiro costuma incluir:

  • Ataque à credibilidade das eleições (antes, durante e depois).
  • Criminalização moral do adversário (oponente vira ameaça existencial).
  • Pressão sobre burocracias técnicas (agências, fiscalização, dados públicos).
  • Hostilização da imprensa e substituição por ecossistemas paralelos.
  • Uso seletivo de indignação para justificar medidas “de emergência”.


Nesse ambiente, deepfakes e desinformação têm função precisa: criar “escândalos” rápidos, difíceis de checar, e manter o adversário permanentemente na defensiva. É uma política de desgaste contínuo.


4.3 O risco eleitoral como “projeto” (e não acidente)


O ponto central: a democracia não morre apenas por um evento. Ela pode morrer por acumulação de micro-rupturas.

  • Uma mentira que “passa batido”.
  • Uma ameaça que “vira normal”.
  • Um ataque à instituição que “parece merecido”.
  • Um conteúdo sintético que “fica no ar até o dano acontecer”.


Quando isso vira rotina, eleições seguem acontecendo, parlamentos seguem funcionando — mas a substância muda: o Estado vira espólio e o debate vira guerra.



5. Alemanha e Brasil: semelhanças, diferenças e um mesmo dilema


5.1 Resiliência institucional vs. vulnerabilidade informacional


A Alemanha possui vantagens clássicas: administração pública profissionalizada, alto capital institucional, cultura de normas e uma memória histórica que torna socialmente custoso flertar com autoritarismo explícito. Ainda assim, não existe imunidade quando a disputa migra para o plano informacional e emocional.


O debate europeu tem reconhecido isso ao tratar a moderação e o design das plataformas como tema de risco sistêmico — isto é, não apenas “conteúdo ruim”, mas efeitos previsíveis sobre direitos e processos democráticos. 


5.2 Memória histórica e cultura cívica: vantagem comparativa alemã


A Alemanha tende a encarar democracia como infraestrutura moral e institucional, não como simples resultado de eleição. Isso ajuda a resistir ao discurso de “tudo é fraude”. Em contrapartida, o ecossistema digital reduz o efeito dessa vantagem ao substituir mediações tradicionais (partidos, imprensa local, associações) por fluxos instantâneos e personalizados.


5.3 O Brasil e a fadiga do mundo comum


No Brasil, a vulnerabilidade tem outro desenho: desigualdade educacional, baixa confiança institucional crônica, alta exposição a plataformas como principal fonte de informação para grande parcela da população e ciclos de polarização intensa. Nesse contexto, a desinformação não precisa “criar” desconfiança; muitas vezes ela só precisa organizar a desconfiança existente e apontá-la para alvos.


Quando chega 2026, o risco não é apenas “mentira eleitoral”; é a consolidação de uma cultura política onde a prova perde valor e o grito ganha legitimidade.



6. Antídotos realistas: o que funciona fora do discurso


Não existe solução mágica. Existe engenharia institucional e tecnológica, com custo e escolha política.


6.1 Regras para plataformas e transparência algorítmica


O DSA aponta uma direção importante: exigir de plataformas muito grandes responsabilidade proporcional ao impacto, incluindo transparência e mitigação de riscos, além de dar ao usuário opção de não depender de feed personalizado. 


Na prática, o que interessa é:

  • Auditar incentivos: o algoritmo está premiando mentira e ódio?
  • Exigir transparência de anúncios: quem paga, quem segmenta, por quê.  
  • Abrir dados a pesquisadores qualificados (sem depender da boa vontade corporativa), para medir risco sistêmico com método e evidência.


6.2 Prova digital: marca d’água, contexto, auditoria


Na frente dos deepfakes, a estratégia é “trazer a prova de volta” por meios técnicos:

  • Marcação/rotulagem de conteúdo sintético, com padrões interoperáveis e detecção.  
  • Proveniência (cadeia de custódia): quando, onde, como foi produzido e editado.
  • Protocolos eleitorais: campanhas e partidos com obrigações de transparência para material audiovisual.


Sem isso, a democracia vira dependente de “acreditar no time”.


6.3 Educação midiática e “higiene informacional”


Alfabetização midiática não é ensinar “a checar tudo” (ninguém tem tempo). É ensinar heurísticas simples:

  • Desconfiar de conteúdo que exige reação imediata.
  • Separar “evidência” de “performances”.
  • Preferir fontes com método, correção pública e responsabilidade.


O objetivo não é formar especialistas; é reduzir a vulnerabilidade coletiva ao gatilho emocional.


6.4 Instituições blindadas contra captura


O ponto político é direto: a captura acontece quando cargos, orçamento e regulação viram moeda de lealdade. O antídoto inclui:

  • critérios técnicos,
  • transparência de decisões,
  • proteção contra assédio institucional,
  • rotinas de auditoria e prestação de contas.


Sem isso, qualquer onda de indignação pode virar autorização para desmontar controles.



7. Conclusão


A democracia contemporânea enfrenta um adversário que não aparece de uniforme: ele opera como ecossistema. Deepfakes tornam a evidência instável; algoritmos transformam indignação em vantagem competitiva; e a soma desses fatores cria um ambiente propício para extremismos que não precisam romper o Estado — basta capturá-lo por dentro, corroendo confiança, punindo dissidência e substituindo o mundo comum por fidelidade de grupo.


A Alemanha tem razões históricas e institucionais para levar esse risco a sério, e a União Europeia já reagiu com um arcabouço regulatório que trata plataformas como infraestrutura com dever de mitigação de risco sistêmico.  O Brasil, por sua vez, entra em 2026 com um desafio adicional: reconstruir a autoridade social da prova, sem entregar liberdade a soluções autoritárias e sem aceitar a “guerra moral” como norma.


No fim, a pergunta decisiva não é tecnológica; é política e cultural: a sociedade aceitará viver em um ambiente em que tudo pode ser falso e nada pode ser provado — ou exigirá, coletivamente, uma infraestrutura de confiança compatível com democracia? Sem essa exigência, o futuro tende a ser um presente infinito de escândalos, suspeitas e capturas silenciosas.



8. 5 pontos relevantes do artigo


  1. O deepfake é mais perigoso pelo efeito estrutural (corrosão da confiança) do que pelo engano pontual.
  2. A indignação virou economia: algoritmos e monetização recompensam conflito e simplificação moral.
  3. Feeds são políticas públicas privadas: ranqueamento e personalização moldam percepção de realidade e polarização.
  4. Extremismo eficiente busca capturar o Estado por dentro, deslegitimando árbitros e ocupando instituições.
  5. Antídotos exigem engenharia institucional e técnica: transparência, rastreabilidade, auditoria e educação midiática realista.


9. Indicação de livros


  1. ZUBOFF, Shoshana. A era do capitalismo de vigilância. (Edição em português).
  2. EMPOLI, Giuliano da. Os engenheiros do caos. (Edição em português).
  3. LEVITSKY, Steven; ZIBLATT, Daniel. Como as democracias morrem. (Edição em português).


10. Referências 


COMISSÃO EUROPEIA. Commission launches work on a code of practice on marking and labelling AI-generated content. Shaping Europe’s digital future, 05 nov. 2025. Disponível em: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content. Acesso em: 1 mar. 2026. 


COMISSÃO EUROPEIA. The Digital Services Act. Shaping Europe’s digital future. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/digital-services-act. Acesso em: 1 mar. 2026. 


IFO INSTITUT; CESIFO. Ranking for Engagement: How Social Media Algorithms Fuel Misinformation and Polarization. CESifo Working Paper No. 10011, 2026. Disponível em: https://www.ifo.de/en/cesifo/publications/2026/working-paper/ranking-engagement-how-social-media-algorithms-fuel-misinformation. Acesso em: 1 mar. 2026. 


MILLER, Gabby; HENDRIX, Justin. Assessing Systemic Risk Under the Digital Services Act. Tech Policy Press, 06 out. 2024. Disponível em: https://techpolicy.press/assessing-systemic-risk-under-the-digital-services-act/. Acesso em: 1 mar. 2026. 


LLOYD, Noah. New research reveals algorithms’ hidden political power. Northeastern Global News, 27 nov. 2025. Disponível em: https://news.northeastern.edu/2025/11/27/social-media-political-polarization-research/. Acesso em: 1 mar. 2026. 


TECH POLICY PRESS. What the EU’s New AI Code of Practice Means for Labeling Deepfakes. Tech Policy Press, 07 jan. 2026. Disponível em: https://www.techpolicy.press/what-the-eus-new-ai-code-of-practice-means-for-labeling-deepfakes/. Acesso em: 1 mar. 2026. 


U.S. NATIONAL LIBRARY OF MEDICINE. Engagement, user satisfaction, and the amplification of divisive content on social media. PubMed Central (PMC), 2025. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC11894805/. Acesso em: 1 mar. 2026. 


Nenhum comentário:

Postar um comentário