segunda-feira, 2 de março de 2026

Depois do Deepfake: indignação, algoritmo e a captura silenciosa do Estado

Como a desinformação moderna troca “prova” por emoção — e empurra democracias (na Alemanha e no Brasil) para uma zona cinzenta



Índice

  1. O novo problema: não é “fake news”, é colapso de confiança
    1.1 Do boato à engenharia da realidade
    1.2 A política na era da prova impossível
  2. Deepfakes e o colapso da evidência
    2.1 Da falsificação “cara” ao sintético barato
    2.2 “Mesmo quando for falso, vai funcionar”: o efeito corrosivo
    2.3 O que a Europa está tentando fazer (rotulagem e rastreabilidade)
  3. A economia da indignação
    3.1 Raiva como combustível de engajamento
    3.2 Ranking por “curtida” como política pública de fato
    3.3 Personalização, espiral de radicalização e polarização afetiva
  4. O Estado como alvo e troféu
    4.1 Do “anti-sistema” à captura do sistema
    4.2 Como se enfraquece uma democracia sem dar golpe clássico
    4.3 O risco eleitoral como “projeto” (e não acidente)
  5. Alemanha e Brasil: semelhanças, diferenças e um mesmo dilema
    5.1 Resiliência institucional vs. vulnerabilidade informacional
    5.2 Memória histórica e cultura cívica: vantagem comparativa alemã
    5.3 O Brasil e a fadiga do mundo comum
  6. Antídotos realistas: o que funciona fora do discurso
    6.1 Regras para plataformas e transparência algorítmica
    6.2 Prova digital: marca d’água, contexto, auditoria
    6.3 Educação midiática e “higiene informacional”
    6.4 Instituições blindadas contra captura
  7. Conclusão
  8. 5 pontos relevantes do artigo
  9. Indicação de livros
  10. Referências (ABNT)


A desinformação política entrou em uma fase qualitativamente diferente: não se trata apenas de mentiras circulando, mas da erosão do próprio critério de prova. Quando vídeos, áudios e imagens podem ser fabricados com realismo e velocidade, a sociedade passa a viver sob suspeita permanente — e, nesse ambiente, a política tende a trocar argumentos por emoções, principalmente indignação. O resultado é um terreno fértil para extremismos e para um fenômeno ainda mais perigoso: a captura do Estado por dentro, sem necessidade de ruptura explícita. A Alemanha, por sua história e pelo debate europeu sobre regulação digital, enxerga esse risco com atenção crescente; o Brasil, com seu ecossistema informacional mais vulnerável e eleições polarizadas, enfrenta a mesma lógica com custos potencialmente maiores.


1. O novo problema: não é “fake news”, é colapso de confiança


1.1 Do boato à engenharia da realidade


Chamou-se de “fake news” por comodidade, como se fosse apenas uma notícia falsa que alguém inventou. Só que o fenômeno contemporâneo é mais sofisticado: envolve produção, distribuição e monetização de conteúdo que maximiza conflito, recompensa emocional e confunde o público até que “o que é verdadeiro” vire uma disputa tribal. O foco deixa de ser convencer pela evidência; passa a ser mobilizar pelo sentimento.


Nessa transição, duas tecnologias mudam o jogo:

  • IA generativa, que reduz o custo de fabricar conteúdo plausível (inclusive audiovisual).
  • Sistemas de recomendação, que decidem o que cada pessoa vê — e, portanto, o que cada pessoa sente como “realidade”.


Quando essas duas forças se combinam, a democracia entra em um modo de funcionamento instável: o debate público depende de um mínimo de mundo comum (fatos, procedimentos, confiança básica). Sem isso, o conflito vira regra.


1.2 A política na era da prova impossível


A grande ruptura não é “vai ter mais mentira”. A ruptura é: a prova perde autoridade social. Se um vídeo pode ser falso e um desmentido pode ser chamado de “manobra”, instala-se uma atmosfera em que qualquer evidência vira “opinião”.


E aí aparece a pergunta mais perigosa para uma democracia: se nada é confiável, por que confiar em eleições, tribunais, imprensa, ciência, instituições? Esse “ceticismo dirigido” não nasce espontaneamente. Ele é útil — e por isso pode ser produzido em escala.



2. Deepfakes e o colapso da evidência


2.1 Da falsificação “cara” ao sintético barato


Historicamente, falsificar prova era caro: precisava de produção profissional, edição complexa, logística. A IA reduz drasticamente esse custo e aumenta a escala. Não é apenas “um vídeo falso”; é a possibilidade de criar centenas de variações segmentadas, adaptadas a públicos específicos, no tempo político correto (véspera, madrugada, “quando ninguém consegue checar”).


Essa mudança explica por que a União Europeia vem tratando marcação/rotulagem e detectabilidade de conteúdo sintético como um eixo de proteção do espaço informacional. Em novembro de 2025, a Comissão Europeia explicitou o problema: a dificuldade crescente de distinguir conteúdo gerado por IA de material autêntico e a necessidade de transparência para reduzir riscos de desinformação, fraude e personificação. 


2.2 “Mesmo quando for falso, vai funcionar”: o efeito corrosivo


O deepfake tem dois impactos.

  1. Impacto imediato (enganar): uma parcela acredita e age (vota, compartilha, ataca, ameaça, boicota).
  2. Impacto estrutural (corroer): mesmo quem não acredita passa a desconfiar de tudo. O deepfake não precisa vencer a checagem; basta vencer o relógio emocional.


Esse segundo impacto é o mais devastador: a democracia depende de procedimentos (provas, contraditório, auditoria). Quando o público perde paciência para procedimentos e passa a exigir “fé no grupo”, o sistema político muda de natureza.


2.3 O que a Europa está tentando fazer (rotulagem e rastreabilidade)


Na arquitetura regulatória europeia, aparecem dois caminhos complementares:

  • DSA (Digital Services Act): foca em obrigações de plataformas, especialmente as muito grandes (acima de 45 milhões de usuários mensais na UE), com medidas como transparência de anúncios, opções de feed não personalizado e dever de analisar/mitigar riscos sistêmicos, incluindo impactos sobre processos eleitorais e debate cívico.  
  • AI Act (e instrumentos associados): avança na lógica de transparência para conteúdos sintéticos, incluindo obrigações de marcação/rotulagem e detectabilidade de materiais gerados ou manipulados por IA, com marcos de implementação e guias técnicos em desenvolvimento.  


A ideia central é simples: se a sociedade não consegue mais distinguir o autêntico do sintético, a democracia precisa de “infraestrutura de autenticidade”. Isso não resolve tudo — mas muda o jogo: dificulta operações de larga escala e reduz a impunidade do falsário.


3. A economia da indignação


3.1 Raiva como combustível de engajamento


A política sempre teve emoção. A novidade é que, hoje, emoção não é só retórica — é modelo de negócio.


Plataformas lucram com tempo de tela, cliques, comentários, compartilhamentos. E certos afetos geram mais engajamento do que outros. Indignação funciona como gasolina: acelera o compartilhamento, reduz reflexão, simplifica o mundo em “bons vs. maus”.


Com isso, a esfera pública passa por uma inversão: em vez de fatos orientarem o debate, o debate passa a ser otimizado para reação.


3.2 Ranking por “curtida” como política pública de fato


O feed não é neutro; ele é uma política pública privada, diária, invisível. E há pesquisa econômica recente modelando exatamente esse trade-off: algoritmos que dão mais peso a sinais de popularidade (likes, shares) aumentam engajamento, mas também elevam desinformação e polarização — porque o verdadeiro pode ser “expulso” pelo que rende mais reação. 


Isso é crucial para o leitor alemão porque, na UE, a discussão sobre risco sistêmico não é abstrata: o DSA trata explicitamente de como plataformas muito grandes podem amplificar conteúdos e afetar direitos, pluralismo, segurança pública e processos eleitorais. 


3.3 Personalização, espiral de radicalização e polarização afetiva


A personalização aprofunda o problema: não se trata apenas de “ver coisas diferentes”; trata-se de viver em climas morais diferentes.


Há evidências experimentais recentes sugerindo que a forma como conteúdos são ranqueados altera sentimentos partidários (polarização afetiva) em períodos curtos, mesmo sem “remover” conteúdo — só mudando a ordem de exposição. 


Quando a tecnologia aprende a maximizar indignação, ela cria um incentivo estrutural para políticos e influenciadores: quem fala “moderado” perde alcance; quem fala “guerra moral” ganha palco. O extremismo deixa de ser desvio e passa a ser estratégia competitiva.


4. O Estado como alvo e troféu


4.1 Do “anti-sistema” à captura do sistema


A desinformação não serve apenas para vencer um debate; ela serve para deslegitimar árbitros (justiça, imprensa, ciência, órgãos de controle). Sem árbitro confiável, o espaço fica livre para a regra mais antiga do poder: manda quem grita mais alto e mobiliza mais gente.


O extremismo, então, vira um método de conquista em duas etapas:

  1. Destruir confiança no sistema (“nada presta”, “tudo é fraude”, “tudo é inimigo”).
  2. Ocupar o sistema com lealdades e punições (“quem discorda é traidor”, “quem fiscaliza é inimigo do povo”).


A captura institucional raramente começa com tanques; começa com narrativas que justificam excepcionalidades: cortar orçamento, perseguir servidores, desacreditar auditorias, “reformar” regras eleitorais com o pretexto de “salvar a democracia”.


4.2 Como se enfraquece uma democracia sem dar golpe clássico


O roteiro costuma incluir:

  • Ataque à credibilidade das eleições (antes, durante e depois).
  • Criminalização moral do adversário (oponente vira ameaça existencial).
  • Pressão sobre burocracias técnicas (agências, fiscalização, dados públicos).
  • Hostilização da imprensa e substituição por ecossistemas paralelos.
  • Uso seletivo de indignação para justificar medidas “de emergência”.


Nesse ambiente, deepfakes e desinformação têm função precisa: criar “escândalos” rápidos, difíceis de checar, e manter o adversário permanentemente na defensiva. É uma política de desgaste contínuo.


4.3 O risco eleitoral como “projeto” (e não acidente)


O ponto central: a democracia não morre apenas por um evento. Ela pode morrer por acumulação de micro-rupturas.

  • Uma mentira que “passa batido”.
  • Uma ameaça que “vira normal”.
  • Um ataque à instituição que “parece merecido”.
  • Um conteúdo sintético que “fica no ar até o dano acontecer”.


Quando isso vira rotina, eleições seguem acontecendo, parlamentos seguem funcionando — mas a substância muda: o Estado vira espólio e o debate vira guerra.



5. Alemanha e Brasil: semelhanças, diferenças e um mesmo dilema


5.1 Resiliência institucional vs. vulnerabilidade informacional


A Alemanha possui vantagens clássicas: administração pública profissionalizada, alto capital institucional, cultura de normas e uma memória histórica que torna socialmente custoso flertar com autoritarismo explícito. Ainda assim, não existe imunidade quando a disputa migra para o plano informacional e emocional.


O debate europeu tem reconhecido isso ao tratar a moderação e o design das plataformas como tema de risco sistêmico — isto é, não apenas “conteúdo ruim”, mas efeitos previsíveis sobre direitos e processos democráticos. 


5.2 Memória histórica e cultura cívica: vantagem comparativa alemã


A Alemanha tende a encarar democracia como infraestrutura moral e institucional, não como simples resultado de eleição. Isso ajuda a resistir ao discurso de “tudo é fraude”. Em contrapartida, o ecossistema digital reduz o efeito dessa vantagem ao substituir mediações tradicionais (partidos, imprensa local, associações) por fluxos instantâneos e personalizados.


5.3 O Brasil e a fadiga do mundo comum


No Brasil, a vulnerabilidade tem outro desenho: desigualdade educacional, baixa confiança institucional crônica, alta exposição a plataformas como principal fonte de informação para grande parcela da população e ciclos de polarização intensa. Nesse contexto, a desinformação não precisa “criar” desconfiança; muitas vezes ela só precisa organizar a desconfiança existente e apontá-la para alvos.


Quando chega 2026, o risco não é apenas “mentira eleitoral”; é a consolidação de uma cultura política onde a prova perde valor e o grito ganha legitimidade.



6. Antídotos realistas: o que funciona fora do discurso


Não existe solução mágica. Existe engenharia institucional e tecnológica, com custo e escolha política.


6.1 Regras para plataformas e transparência algorítmica


O DSA aponta uma direção importante: exigir de plataformas muito grandes responsabilidade proporcional ao impacto, incluindo transparência e mitigação de riscos, além de dar ao usuário opção de não depender de feed personalizado. 


Na prática, o que interessa é:

  • Auditar incentivos: o algoritmo está premiando mentira e ódio?
  • Exigir transparência de anúncios: quem paga, quem segmenta, por quê.  
  • Abrir dados a pesquisadores qualificados (sem depender da boa vontade corporativa), para medir risco sistêmico com método e evidência.


6.2 Prova digital: marca d’água, contexto, auditoria


Na frente dos deepfakes, a estratégia é “trazer a prova de volta” por meios técnicos:

  • Marcação/rotulagem de conteúdo sintético, com padrões interoperáveis e detecção.  
  • Proveniência (cadeia de custódia): quando, onde, como foi produzido e editado.
  • Protocolos eleitorais: campanhas e partidos com obrigações de transparência para material audiovisual.


Sem isso, a democracia vira dependente de “acreditar no time”.


6.3 Educação midiática e “higiene informacional”


Alfabetização midiática não é ensinar “a checar tudo” (ninguém tem tempo). É ensinar heurísticas simples:

  • Desconfiar de conteúdo que exige reação imediata.
  • Separar “evidência” de “performances”.
  • Preferir fontes com método, correção pública e responsabilidade.


O objetivo não é formar especialistas; é reduzir a vulnerabilidade coletiva ao gatilho emocional.


6.4 Instituições blindadas contra captura


O ponto político é direto: a captura acontece quando cargos, orçamento e regulação viram moeda de lealdade. O antídoto inclui:

  • critérios técnicos,
  • transparência de decisões,
  • proteção contra assédio institucional,
  • rotinas de auditoria e prestação de contas.


Sem isso, qualquer onda de indignação pode virar autorização para desmontar controles.



7. Conclusão


A democracia contemporânea enfrenta um adversário que não aparece de uniforme: ele opera como ecossistema. Deepfakes tornam a evidência instável; algoritmos transformam indignação em vantagem competitiva; e a soma desses fatores cria um ambiente propício para extremismos que não precisam romper o Estado — basta capturá-lo por dentro, corroendo confiança, punindo dissidência e substituindo o mundo comum por fidelidade de grupo.


A Alemanha tem razões históricas e institucionais para levar esse risco a sério, e a União Europeia já reagiu com um arcabouço regulatório que trata plataformas como infraestrutura com dever de mitigação de risco sistêmico.  O Brasil, por sua vez, entra em 2026 com um desafio adicional: reconstruir a autoridade social da prova, sem entregar liberdade a soluções autoritárias e sem aceitar a “guerra moral” como norma.


No fim, a pergunta decisiva não é tecnológica; é política e cultural: a sociedade aceitará viver em um ambiente em que tudo pode ser falso e nada pode ser provado — ou exigirá, coletivamente, uma infraestrutura de confiança compatível com democracia? Sem essa exigência, o futuro tende a ser um presente infinito de escândalos, suspeitas e capturas silenciosas.



8. 5 pontos relevantes do artigo


  1. O deepfake é mais perigoso pelo efeito estrutural (corrosão da confiança) do que pelo engano pontual.
  2. A indignação virou economia: algoritmos e monetização recompensam conflito e simplificação moral.
  3. Feeds são políticas públicas privadas: ranqueamento e personalização moldam percepção de realidade e polarização.
  4. Extremismo eficiente busca capturar o Estado por dentro, deslegitimando árbitros e ocupando instituições.
  5. Antídotos exigem engenharia institucional e técnica: transparência, rastreabilidade, auditoria e educação midiática realista.


9. Indicação de livros


  1. ZUBOFF, Shoshana. A era do capitalismo de vigilância. (Edição em português).
  2. EMPOLI, Giuliano da. Os engenheiros do caos. (Edição em português).
  3. LEVITSKY, Steven; ZIBLATT, Daniel. Como as democracias morrem. (Edição em português).


10. Referências 


COMISSÃO EUROPEIA. Commission launches work on a code of practice on marking and labelling AI-generated content. Shaping Europe’s digital future, 05 nov. 2025. Disponível em: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content. Acesso em: 1 mar. 2026. 


COMISSÃO EUROPEIA. The Digital Services Act. Shaping Europe’s digital future. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/digital-services-act. Acesso em: 1 mar. 2026. 


IFO INSTITUT; CESIFO. Ranking for Engagement: How Social Media Algorithms Fuel Misinformation and Polarization. CESifo Working Paper No. 10011, 2026. Disponível em: https://www.ifo.de/en/cesifo/publications/2026/working-paper/ranking-engagement-how-social-media-algorithms-fuel-misinformation. Acesso em: 1 mar. 2026. 


MILLER, Gabby; HENDRIX, Justin. Assessing Systemic Risk Under the Digital Services Act. Tech Policy Press, 06 out. 2024. Disponível em: https://techpolicy.press/assessing-systemic-risk-under-the-digital-services-act/. Acesso em: 1 mar. 2026. 


LLOYD, Noah. New research reveals algorithms’ hidden political power. Northeastern Global News, 27 nov. 2025. Disponível em: https://news.northeastern.edu/2025/11/27/social-media-political-polarization-research/. Acesso em: 1 mar. 2026. 


TECH POLICY PRESS. What the EU’s New AI Code of Practice Means for Labeling Deepfakes. Tech Policy Press, 07 jan. 2026. Disponível em: https://www.techpolicy.press/what-the-eus-new-ai-code-of-practice-means-for-labeling-deepfakes/. Acesso em: 1 mar. 2026. 


U.S. NATIONAL LIBRARY OF MEDICINE. Engagement, user satisfaction, and the amplification of divisive content on social media. PubMed Central (PMC), 2025. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC11894805/. Acesso em: 1 mar. 2026. 


Psicopolítica e Neonazismo Religioso

O autoritarismo “polido” que vira escolha — e a eleição de 2026 como teste de imunidade democrática



Índice

  1. A armadilha do “polido”: quando o perigo não tem cara de perigo
  2. Psicopolítica: governar pela liberdade, otimizar pela positividade
  3. Neonazismo religioso: não é fé — é captura moral e hierarquia humana
  4. A ponte: como a psicopolítica “embelezam” projetos extremistas
    4.1. Virtude performática e reputação como disciplina
    4.2. Guerra do bem vs. mal como produto emocional
    4.3. Transparência forçada e delação moral
    4.4. Exclusão “técnica”: o ban-óptico como política social
  5. Brasil em 2026: eleição sob modulação algorítmica
    5.1. Calendário eleitoral e a pré-campanha permanente
    5.2. IA, deepfakes e a crise da confiança
    5.3. Religiosidade política e a tentação do “Estado moral”
  6. O perigo das escolhas polidas
    6.1. Pequenas concessões, grande erosão
    6.2. A estética do “bem” como licença para a exceção
  7. Resistência democrática: negatividade, freios institucionais e alfabetização cívica
  8. Conclusão


O autoritarismo mais eficiente raramente entra pela porta da brutalidade; ele entra pela porta do bom senso. Ele se apresenta como “proteção”, “ordem”, “valores”, “cuidado com as crianças”, “salvação nacional”, “defesa da fé” — e, quando se percebe, o que era uma “escolha polida” se torna uma arquitetura de exclusão. A psicopolítica, como descreve Byung-Chul Han, ajuda a explicar esse mecanismo: trata-se de um poder que captura a psique pela liberdade, pela positividade e pela sedução, convertendo participação e comunicação em dispositivos de controle. Em 2026, ano de eleição presidencial no Brasil, a combinação entre hipercomunicação, IA generativa, microsegmentação e moralização religiosa cria um ambiente ideal para extremismos se apresentarem como virtude.


1. A armadilha do “polido”: quando o perigo não tem cara de perigo


Há um erro recorrente no senso comum: imaginar que o autoritarismo sempre virá com estética agressiva, símbolos explícitos e discurso abertamente violento. O mundo real costuma ser mais perverso: movimentos e agendas de viés supremacista ou antidemocrático podem se apresentar em linguagem educada, com terno e gravata, com “citações bíblicas”, com “apelo à família”, com “defesa da moral” e com promessas de “reconciliação nacional”.


O “polido” não é detalhe; é técnica. Ele reduz a resistência social, torna o discurso aceitável nos ambientes comuns (família, escola, trabalho, igreja), e desloca o debate: quem questiona passa a ser visto como “radical”, “imoral”, “inimigo da ordem”. Esse é o terreno em que a psicopolítica opera com máxima eficiência: o poder não precisa se impor; basta organizar o ambiente para que as pessoas queiram o que as conduz.


2. Psicopolítica: governar pela liberdade, otimizar pela positividade


Em Psicopolítica, Han sustenta que o neoliberalismo atual não domina prioritariamente pela coerção física (modelo disciplinar), mas por um poder “inteligente”, que explora a liberdade como mecanismo de sujeição: o indivíduo acredita que escolhe, enquanto o ambiente digital-econômico desenha as opções, premia certos afetos e pune outros por invisibilização. (Han, 2018).


A gramática desse poder é positiva: em vez de “não pode”, diz “você consegue”; em vez de punição explícita, oferece recompensa simbólica; em vez de censura, incentiva hiperexpressão; em vez de silêncio imposto, cria ruído contínuo. É por isso que plataformas e política se encaixam tão bem: a governança por engajamento é uma política sem aparência de política — e, por isso, mais difícil de ser contestada.


3. Neonazismo religioso: não é fé — é captura moral e hierarquia humana


“Neonazismo religioso”, aqui, não nomeia uma religião, nem uma tradição de fé específica. Nomeia a instrumentalização política de linguagens religiosas (pureza, guerra espiritual, missão, povo eleito, inimigo demonizado) para justificar hierarquias humanas, exclusões e perseguições — frequentemente em sintonia com supremacismos, conspiracionismos e moralismos autoritários.


No Brasil, o crescimento e a organização de grupos neonazistas e correlatos têm sido objeto de alerta institucional e de relatórios apresentados a organismos internacionais, com ênfase na atuação em redes e na capilarização digital.  O elemento “religioso” entra como dispositivo de legitimação moral: transforma política em cruzada e desacordo em blasfêmia.


O ponto decisivo é este: quando a política vira religião civil, o adversário deixa de ser um concorrente legítimo e passa a ser um “inimigo do bem”. E quando o “bem” reivindica pureza, o passo seguinte costuma ser a exceção: restringir direitos “em nome de um valor superior”.


4. A ponte: como a psicopolítica “embelezam” projetos extremistas


4.1. Virtude performática e reputação como disciplina


No ambiente digital, reputação é métrica. “Ser do bem” vira performance pública. O “curtir”, o compartilhar e o atacar são recompensas de pertencimento. Em termos psicopolíticos, o sujeito não precisa ser coagido: ele se autoalinha para preservar posição no grupo, audiência e reconhecimento. (Han, 2018).

O extremismo se beneficia disso porque cria códigos simples: frases-chave, sinais identitários, inimigos fixos. A pessoa participa para ser aceita; e, participando, reforça a máquina.


4.2. Guerra do bem vs. mal como produto emocional


A psicopolítica favorece narrativas de alta carga emocional, baixa complexidade e alta transmissibilidade. A estrutura “bem vs. mal” é perfeita para o ecossistema de engajamento: dispensa argumentação, mobiliza medo e indignação, e produz coesão grupal.

Resultado: políticas públicas, economia e instituições viram cenário de uma guerra moral. A decisão eleitoral deixa de ser comparação de projetos; vira “prova de fé”.


4.3. Transparência forçada e delação moral


Han descreve a sociedade da transparência como um ambiente em que opacidade e silêncio são tratados como culpa. (Han, 2018). Em política, isso aparece como coerção social: “se você não se posicionar, você é cúmplice”; “quem não compartilha, protege o inimigo”.

Esse mecanismo é especialmente perigoso quando acoplado a moral religiosa: a exigência de alinhamento torna-se espiritualizada. A esfera pública perde o direito à hesitação, ao meio-termo, à dúvida — isto é, perde uma condição básica da democracia.


4.4. Exclusão “técnica”: o ban-óptico como política social


Uma das faces mais corrosivas do autoritarismo “polido” é a exclusão com linguagem técnica: score, risco, perfil, merecimento. Em vez de dizer “não quero você”, diz-se “você não se adequa”; “não é compatível”; “não atende aos critérios”.

Na era de dados, essa exclusão pode ser automatizada e naturalizada, parecendo neutra. O que se produz é um tipo de “banimento” social que não precisa de discurso explicitamente odioso para funcionar: basta reduzir acesso, visibilidade, crédito, oportunidade.



5. Brasil em 2026: eleição sob modulação algorítmica


5.1. Calendário eleitoral e a pré-campanha permanente


O calendário formal importa, mas a campanha real começa muito antes. O TSE informa que o 1º turno das Eleições Gerais de 2026 está marcado para 4 de outubro, e que o fechamento do cadastro eleitoral ocorre em 6 de maio de 2026. 

Entre o formal e o real, há a pré-campanha permanente: lives, cortes, influenciadores, grupos de mensageria e ecossistemas de páginas que constroem “verdades emocionais” antes que a disputa institucional consiga enquadrar o debate.


5.2. IA, deepfakes e a crise da confiança


O TSE já enfrentou o tema em 2024/2025, com regras sobre propaganda e menções explícitas à proibição de deepfakes e à exigência de aviso sobre uso de IA em conteúdos. 

Em 2026, o próprio TSE segue aprovando resoluções para reger o pleito. 

Isso importa porque a psicopolítica opera melhor quando o ambiente informacional é instável: quando a confiança é corroída, as pessoas recorrem mais à identidade do grupo do que a critérios de realidade. A eleição vira plebiscito de pertencimento.


5.3. Religiosidade política e a tentação do “Estado moral”


Pesquisas comparativas internacionais indicam que nacionalismo religioso (a ideia de que a tradição religiosa dominante deve guiar leis e identidade nacional) existe em graus variados e pode ser medido por atitudes específicas. No recorte do Pew Research Center, o Brasil aparece com proporções relevantes nesse espectro, o que ajuda a entender por que a linguagem religiosa tem poder de mobilização política. 

O risco, em contexto polarizado, é a transição do “valor pessoal” para a “lei moral imposta”: quando uma ética de grupo reivindica o Estado como instrumento de salvação.



6. O perigo das escolhas polidas


6.1. Pequenas concessões, grande erosão


O autoritarismo raramente começa com o grande ato. Ele começa com concessões pequenas, “razoáveis”, “temporárias”, “necessárias”:

  • restringir direitos “para proteger”,
  • deslegitimar imprensa “para evitar manipulação”,
  • atacar universidades “para combater doutrinação”,
  • fragilizar controles “para destravar o país”.


Cada gesto parece isolado. No conjunto, cria-se um regime em que pluralismo vira ameaça.


6.2. A estética do “bem” como licença para a exceção


Quando a política se apresenta como missão moral absoluta, qualquer limite institucional vira obstáculo. A exceção passa a ser justificável: “o país está em guerra”; “o inimigo é interno”; “Deus acima de tudo”; “não dá para negociar com o mal”.

É assim que escolhas polidas — votar “pela família”, “pela fé”, “pela ordem” — podem se tornar escolhas que corroem a democracia por dentro, sem que o eleitor se perceba antidemocrático. A psicopolítica trabalha justamente nesse ponto: ela transforma coerção em desejo e violência simbólica em virtude.


7. Resistência democrática: negatividade, freios institucionais e alfabetização cívica


Em Han, a resistência passa por recuperar negatividade: silêncio, demora, opacidade legítima — o direito de não performar e de não se submeter à coação de comunicar-se o tempo todo. (Han, 2018).

No Brasil de 2026, isso se traduz em medidas cívicas objetivas:

  1. Suspender reação emocional como regra.
  2. Exigir procedência e contexto, especialmente para conteúdo “perfeito demais”.
  3. Tratar cruzadas morais como alerta institucional (não como virtude automática).
  4. Defender limites ao poder mesmo quando o poder parece “do lado certo”.
  5. Recolocar o debate em critérios públicos: direitos, legalidade, pluralismo, proteção a minorias, alternância e freios.


Conclusão


A psicopolítica ajuda a enxergar o perigo mais difícil de nomear: o autoritarismo que não tem aparência autoritária. Quando extremismos se revestem de linguagem religiosa e de estética de “bons costumes”, eles se tornam politicamente eficazes porque deslocam a discussão da esfera pública para o tribunal moral do pertencimento. Em 2026, com campanha permanente e tecnologias de persuasão em escala (IA, microsegmentação, manipulações audiovisuais), a democracia brasileira enfrenta um teste que não é apenas eleitoral: é psicológico e cultural. O risco não é só votar mal; é votar “bem” — no sentido estético — por razões que naturalizam exclusão e pedem exceção. A escolha polida pode ser a mais perigosa quando ela carrega, escondida, a ideia de que certos brasileiros pertencem mais do que outros. A democracia, por definição, começa onde termina a fantasia da pureza: ela exige limites, convivência, conflito regulado e respeito à diferença. Sem isso, resta apenas a administração da psique — e, então, a política vira técnica de dominação com rosto de virtude.


Referências essenciais


AGÊNCIA BRASIL. Conselho leva à ONU alerta sobre avanço do neonazismo no Brasil. Agência Brasil, Brasília, DF, 9 abr. 2024. Disponível em: https://agenciabrasil.ebc.com.br/direitos-humanos/noticia/2024-04/conselho-leva-onu-alerta-sobre-avanco-do-neonazismo-no-brasil. Acesso em: 1 mar. 2026. 


AGÊNCIA BRASIL. Brasil envia alerta de crescimento de grupos neonazistas para ONU. Agência Brasil, Brasília, DF, 10 abr. 2024. Disponível em: https://agenciabrasil.ebc.com.br/radioagencia-nacional/direitos-humanos/audio/2024-04/brasil-envia-alerta-de-crescimento-de-grupos-neonazistas-para-onu. Acesso em: 1 mar. 2026. 


BRASIL. Tribunal Superior Eleitoral. Resolução nº 23.732, de 27 de fevereiro de 2024. Altera a Res.-TSE nº 23.610/2019 (propaganda eleitoral). Brasília, DF: TSE, 2024. Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024. Acesso em: 1 mar. 2026. 


BRASIL. Tribunal Superior Eleitoral. TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições. TSE, Brasília, DF, 28 fev. 2024 (atual. 22 fev. 2025). Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes. Acesso em: 1 mar. 2026. 


BRASIL. Tribunal Superior Eleitoral. Eleições 2026: TSE aprova sete resoluções que vigorarão no pleito. TSE, Brasília, DF, 26 fev. 2026. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2026/Fevereiro/eleicoes-2026-tse-aprova-sete-resolucoes-que-vigorarao-no-pleito. Acesso em: 1 mar. 2026. 


BRASIL. Tribunal Regional Eleitoral de São Paulo. Eleições 2026: confira as principais datas e regras do pleito. TRE-SP, São Paulo, 7 jan. 2026 (atual. 13 fev. 2026). Disponível em: https://www.tre-sp.jus.br/comunicacao/noticias/2026/Janeiro/eleicoes-2026-confira-as-principais-datas-e-regras-do-pleito. Acesso em: 1 mar. 2026. 


BRASIL. Tribunal Regional Eleitoral de Goiás. Prazo para tirar o título de eleitor vai até 6 de maio. TRE-GO, Goiânia, 7 jan. 2026. Disponível em: https://www.tre-go.jus.br/comunicacao/noticias/2026/Janeiro/prazo-para-tirar-o-titulo-de-eleitor-vai-ate-6-de-maio. Acesso em: 1 mar. 2026. 


HAN, Byung-Chul. Psicopolítica: o neoliberalismo e as novas técnicas de poder. Belo Horizonte: Âyiné, 2018.


INSTITUTO DEMOCRACIA E SUSTENTABILIDADE (IDS). TSE approves resolution regulating the use of AI and prohibiting deepfakes during elections. IDS, 2024. Disponível em: https://ids.org.br/en/news-post/tse-approves-resolution-regulating-the-use-of-ai-and-prohibiting-deepfakes-during-elections/. Acesso em: 1 mar. 2026. 


PEW RESEARCH CENTER. Comparing Levels of Religious Nationalism Around the World. Washington, DC: Pew Research Center, 28 jan. 2025. Disponível em: https://www.pewresearch.org/global/2025/01/28/comparing-levels-of-religious-nationalism-around-the-world/. Acesso em: 1 mar. 2026.