sábado, 28 de fevereiro de 2026

Artigo 3: Captura Teocrática — Dominionismo e redes digitais no Brasil: como o algoritmo transforma pânico moral em política pública

Dominionismo e redes digitais no Brasil

Como o algoritmo transforma pânico moral em política pública, disciplina o debate e captura a educação



Índice

  1. A virada digital da guerra cultural
    1.1. Do púlpito à plataforma: a nova infraestrutura do conflito
    1.2. Por que o algoritmo prefere indignação a argumento
  2. Dominionismo em chave informacional
    2.1. “Tomar as esferas” no século XXI: atenção, dados e recomendação
    2.2. Moral como protocolo de mobilização
  3. A engenharia do pânico moral
    3.1. O roteiro operacional: ameaça às crianças, inimigo interno, urgência legislativa
    3.2. O ciclo de retroalimentação: escândalo → engajamento → pressão → norma
  4. Algoritmos, dados e microgovernança da opinião
    4.1. Perfilização e recomendação: quando “preferência” vira destino
    4.2. Amplificação algorítmica: evidência empírica e implicações políticas
    4.3. O mercado do conflito: monetização da raiva e profissionalização do pânico
  5. Do feed à lei: como a pauta vira Estado
    5.1. Produção de “problema público” por viralização
    5.2. Pressão sobre escolas, secretarias, conselhos e parlamentos
  6. Freios democráticos no Brasil
    6.1. Constituição: pluralismo, laicidade e liberdade de ensinar
    6.2. Marco Civil, LGPD e a disputa por transparência e responsabilização
    6.3. Justiça Eleitoral e IA: deepfakes, rotulagem e integridade informacional
    6.4. Regulação de plataformas: o debate do PL 2.630 e princípios do CGI.br
  7. Quadro comparativo de estratégias
  8. Saídas realistas
    8.1. Transparência algorítmica e auditoria independente
    8.2. Proteção de docentes e governança educacional
    8.3. Prebunking, alfabetização midiática e resposta institucional rápida
  9. Conclusão
  10. 5 pontos relevantes do artigo
  11. 3 livros indicados
  12. Referências (ABNT)


Lide

A guerra cultural no Brasil ganhou um motor novo: o algoritmo de recomendação. Em vez de depender apenas de lideranças, templos, programas de TV ou palanques, o conflito passou a ser “fabricado” e distribuído por sistemas que premiam choque, medo e indignação. Nesse ambiente, o dominionismo — entendido como projeto de poder que busca hegemonia institucional de uma moral religiosa específica — encontra uma vantagem competitiva: o pânico moral funciona como combustível perfeito para plataformas orientadas por engajamento. O resultado é um circuito fechado em que uma narrativa viral vira pressão política e, muitas vezes, tentativa de norma, censura informal e disciplinamento de escolas, professores e currículos — mesmo diante de limites constitucionais e de decisões reiteradas do Supremo e de regras eleitorais mais duras contra desinformação e deepfakes.





1) A virada digital da guerra cultural




1.1 Do púlpito à plataforma: a nova infraestrutura do conflito



A política sempre disputou “corações e mentes”. O que mudou foi a infraestrutura. Plataformas digitais deixaram de ser apenas meios de comunicação e viraram ambientes de governança: distribuem visibilidade, organizam reputações, conectam comunidades, definem quem aparece, quando aparece e para quem aparece. A esfera pública, que antes passava por jornais, rádio, TV, partidos e sindicatos, agora passa por feeds que personalizam a realidade.


Nesse cenário, a guerra cultural se torna eficiente porque entrega aquilo que o sistema de recomendação mais valoriza: atenção contínua. E atenção contínua, na prática, nasce mais facilmente do medo do que da nuance.



1.2 Por que o algoritmo prefere indignação a argumento



Recomendadores trabalham com sinais simples: clique, comentário, compartilhamento, tempo de tela. Isso não mede verdade; mede reação. Conteúdo que simplifica o mundo em “bem versus mal”, “pureza versus corrupção”, “crianças em perigo” tende a gerar mais reação do que explicações graduais.


É o ponto em que moral vira tecnologia: o pânico moral é um formato comunicacional otimizado para o feed.





2) Dominionismo em chave informacional




2.1 “Tomar as esferas” no século XXI: atenção, dados e recomendação



O dominionismo clássico se expressa como projeto de “dominar esferas” (governo, educação, mídia etc.). No século XXI, a mídia não é apenas um canal: é uma máquina de recomendação. Logo, tomar a esfera “mídia” passa menos por ter emissora e mais por controlar comunidades digitais, influenciadores, redes de distribuição e rotinas de engajamento.


O poder deixa de ser só institucional e passa a ser informacional: quem controla a narrativa controla o custo político do adversário e molda a pauta do Estado. A pressão não depende de maioria social real; pode depender de uma minoria altamente mobilizada, barulhenta e estrategicamente amplificada.



2.2 Moral como protocolo de mobilização



O dominionismo opera bem com um protocolo recorrente:


  • identificar uma “ameaça moral” (escola, gênero, arte, ciência, imprensa);
  • construir um inimigo interno (professor, universidade, “ideologia”, “globalismo”);
  • transformar a disputa em missão (salvar crianças, salvar família, salvar nação);
  • exigir uma resposta estatal (lei, punição, proibição, censura).



Esse protocolo é altamente compatível com ambientes digitais porque cria pertencimento e um “nós” permanente em guerra — e guerra produz engajamento.





3) A engenharia do pânico moral




3.1 O roteiro operacional: ameaça às crianças, inimigo interno, urgência legislativa



O pânico moral moderno tem um roteiro quase industrial:


  1. Escolha do alvo: escola pública, currículo, professor, livro, evento cultural.
  2. Frame de perigo: “ameaça às crianças” (gatilho emocional máximo).
  3. Nome tóxico: “doutrinação”, “ideologia”, “perversão”, “ataque à família”.
  4. Caso exemplar: um vídeo recortado, uma fala fora de contexto, uma imagem-chamariz.
  5. Escalada: “isso está em todo lugar”.
  6. Conversão em política: “precisa de lei”, “precisa punir”, “precisa proibir”.



O que era um debate pedagógico vira um tribunal moral.



3.2 O ciclo de retroalimentação: escândalo → engajamento → pressão → norma



A lógica algorítmica cria um ciclo:


  • Escândalo vira alcance;
  • alcance vira “prova” de que o tema é central;
  • “centralidade” vira pressão sobre gestores e parlamentares;
  • pressão vira tentativa de norma, sindicância, censura informal;
  • o conflito produzido realimenta o engajamento.



Mesmo quando a norma cai no Judiciário, o objetivo prático muitas vezes já foi alcançado: disciplinar pelo medo.





4) Algoritmos, dados e microgovernança da opinião




4.1 Perfilização e recomendação: quando “preferência” vira destino



Recomendadores inferem preferências a partir de rastros. Isso gera perfilização: um retrato probabilístico do usuário. O problema político é que perfilização não serve apenas para “personalizar entretenimento”; ela organiza exposição a conteúdos políticos e morais.


Em termos sociológicos, a plataforma cria microambientes de realidade. Em termos políticos, isso vira microgovernança: pequenas decisões automatizadas sobre o que será visto e repetido moldam o senso comum. É por isso que regulação contemporânea fala de transparência sobre moderação e recomendação e de autodeterminação informacional. O CGI.br, por exemplo, inclui explicitamente processos de perfilização, moderação e recomendação como temas centrais quando discute princípios para regulação de redes sociais. 



4.2 Amplificação algorítmica: evidência empírica e implicações políticas



A discussão “algoritmo amplifica política?” deixou de ser só opinião. Há estudos que auditam recomendadores e discutem como algoritmos podem alterar a exposição a conteúdo político, reforçando a necessidade de transparência. 


A implicação para o Brasil é direta: pânico moral não precisa convencer todo mundo. Ele precisa dominar o feed de segmentos estratégicos — e, ao dominar, produz a sensação de maioria e urgência. Essa sensação, por sua vez, pressiona o Estado.



4.3 O mercado do conflito: monetização da raiva e profissionalização do pânico



Guerra cultural é um produto: gera cliques, doações, audiência, influência e, em muitos casos, carreiras políticas. Plataformas funcionam como mercado de atenção. O pânico moral é uma mercadoria de alta rotatividade: toda semana um novo “absurdo”, toda semana um novo inimigo.


Quando isso se acopla a um projeto dominionista, o conflito deixa de ser consequência e vira método: manter a base mobilizada significa manter o fluxo de atenção — e o fluxo de atenção é poder.





5) Do feed à lei: como a pauta vira Estado




5.1 Produção de “problema público” por viralização



A pauta política nem sempre nasce de evidência; às vezes nasce de viralização. O que viraliza passa a ser tratado como problema público, ainda que seja exceção, distorção ou fraude.


Esse mecanismo é perigoso em educação: uma política curricular não pode ser governada por clips de 20 segundos. Mas a pressão digital frequentemente tenta impor exatamente isso: governar escola como se governasse trending topics.



5.2 Pressão sobre escolas, secretarias, conselhos e parlamentos



A conversão do pânico em política pública costuma ocorrer por três vias:


  • Via administrativa: pressão sobre direções, secretarias, conselhos, comissões.
  • Via legislativa: projetos de lei municipais/estaduais que tentam proibir temas e vigiar docentes.
  • Via judicial e midiática: denúncias, representações, campanhas locais para intimidar.



É a “censura sem decreto”: não se proíbe formalmente — cria-se um ambiente em que ensinar custa caro.





6) Freios democráticos no Brasil




6.1 Constituição: pluralismo, laicidade e liberdade de ensinar



A Constituição brasileira delimita princípios do ensino, incluindo liberdade de aprender e ensinar e pluralismo de ideias e concepções pedagógicas. 

E também veda que o Estado estabeleça relações de dependência/aliança com cultos e igrejas, núcleo institucional da laicidade. 


Esses princípios são a “parede” contra a conversão do Estado em catecismo.



6.2 Marco Civil, LGPD e a disputa por transparência e responsabilização



O Marco Civil da Internet (Lei nº 12.965/2014) define princípios, garantias e diretrizes para o uso da internet no Brasil. 

A LGPD (Lei nº 13.709/2018) regula tratamento de dados pessoais e explicita o objetivo de proteger liberdade, privacidade e o livre desenvolvimento da personalidade. 


Na prática, esses marcos não resolvem a guerra cultural, mas fornecem base para discutir:


  • limites de coleta e uso de dados para perfilização política;
  • transparência e prestação de contas;
  • governança de sistemas que organizam exposição e reputação.




6.3 Justiça Eleitoral e IA: deepfakes, rotulagem e integridade informacional



A Justiça Eleitoral brasileira passou a enfrentar o tema da IA na propaganda, com regras que incluem proibição de deepfakes e exigência de aviso quando há uso de IA em conteúdo eleitoral, além de medidas voltadas ao enfrentamento da desinformação. 


Isso importa para a guerra cultural porque boa parte do pânico moral digital opera por falsificação, montagem, recorte e conteúdo sintético. Quando a regra exige rotulagem e proíbe deepfake, mexe no “petróleo” da indignação.



6.4 Regulação de plataformas: o debate do PL 2.630 e princípios do CGI.br



O PL 2.630/2020 (conhecido como “Lei das Fake News”) continua sendo referência central do debate sobre transparência e responsabilidade de plataformas, com tramitação acompanhada pelo Senado e pela Câmara. 


Em 2025, o CGI.br apresentou versão final de princípios para regulação de redes sociais, defendendo uma abordagem multissetorial e mencionando, de forma explícita, transparência e autodeterminação informacional em processos como perfilização, moderação e recomendação. 


Do ponto de vista democrático, esse é o ponto sensível: não se trata apenas de “tirar conteúdo do ar”; trata-se de entender e limitar mecanismos que amplificam distorção e que transformam pânico moral em política pública.





7) Quadro comparativo de estratégias


Camada

Estratégia típica

Como aparece no discurso

Como opera no digital

Efeito na educação

Contrapeso institucional

Narrativa

“Crianças em perigo”

urgência moral

clipes, recortes, choque

medo e autocensura

princípios constitucionais do ensino 

Distribuição

Rede de páginas/canais

“verdade censurada”

recomendação, grupos, repetição

cerco social a escolas

transparência/ governança de plataformas 

Pressão

Denúncia e exposição

“doutrinação”

ataque coordenado, linchamento

desgaste docente

liberdade de ensinar/aprender 

Norma

PL/lei local

“neutralidade”

viralização como base política

censura curricular

competências e marcos legais (LDB/CF) 

Tecnologia

Deepfake / IA

“prova definitiva”

conteúdo sintético escalável

colapso de confiança

regras eleitorais sobre IA/deepfakes 





8) Saídas realistas




8.1 Transparência algorítmica e auditoria independente



Sem transparência sobre recomendação, o debate fica cego. A agenda internacional tem defendido diretrizes de governança de plataformas que evitem censura prévia e imponham prestação de contas compatível com direitos. 

No plano nacional, os princípios do CGI.br reforçam a necessidade de lidar com perfilização e recomendação com foco em autodeterminação informacional e transparência. 



8.2 Proteção de docentes e governança educacional



A política pública educacional precisa de blindagem institucional contra linchamentos digitais:


  • protocolos de resposta rápida a campanhas de desinformação local;
  • suporte jurídico e institucional ao docente;
  • comunicação pública transparente para impedir que boatos virem “fato oficial”.



Se o pânico moral disciplina professores, a democracia educacional exige proteção para que o professor ensine sem medo.



8.3 Prebunking, alfabetização midiática e resposta institucional rápida



Há recomendações internacionais que enfatizam estratégias preventivas (“prebunking”) e respostas coordenadas, com cuidado para evitar viés e reforçar critérios públicos. 

A alfabetização midiática, por sua vez, é uma política estrutural: reduz o “lucro cognitivo” do pânico moral.





9) Conclusão



A guerra cultural no Brasil não é apenas uma disputa de ideias; é uma disputa por infraestrutura informacional. Algoritmos de recomendação transformaram moral em produto escalável: medo, choque e indignação viraram formatos ideais para a economia da atenção. Nesse ambiente, o dominionismo ganha eficiência porque não precisa convencer pelo argumento — basta dominar a distribuição, produzir urgência e converter viralização em pressão sobre instituições. O resultado é um circuito em que o feed fabrica “problemas públicos”, e esses problemas públicos tentam se materializar em norma, punição e censura informal sobre a escola. A resposta democrática não pode ser ingenuamente moralista (“basta dialogar”) nem autoritária (“basta censurar”). Ela precisa ser institucional: proteger pluralismo e liberdade de ensinar, reforçar laicidade como regra de convivência, exigir transparência e prestação de contas de plataformas, limitar perfilização abusiva e enfrentar deepfakes e desinformação com regras claras — como já vem fazendo a Justiça Eleitoral ao restringir IA enganosa e exigir rotulagem. A escola pública é o lugar onde a democracia aprende a existir; quando ela é governada por pânico moral amplificado por algoritmos, não é só o currículo que perde — é o próprio futuro comum.





10) 5 pontos relevantes do artigo



  1. A guerra cultural digital é uma disputa por infraestrutura (recomendação e distribuição), não só por opinião.  
  2. O pânico moral é um formato comunicacional otimizado para engajamento e, por isso, altamente “algoritmável”.
  3. Marco Civil e LGPD fornecem base para discutir dados, perfilização e governança da internet no Brasil.  
  4. A Justiça Eleitoral endureceu regras sobre IA e deepfakes na propaganda, atacando um dos combustíveis do pânico moral.  
  5. O debate regulatório brasileiro avança com o PL 2.630 e com princípios do CGI.br voltados a transparência e autodeterminação informacional.  






11) 3 livros indicados



  1. CUNHA, Magali do Nascimento. Religião, política e comunicação (obras da autora sobre mídia, evangelicalismo e esfera pública — úteis para entender o “púlpito-plataforma”).
  2. HAN, Byung-Chul. Psicopolítica: o neoliberalismo e as novas técnicas de poder.
  3. ZUBOFF, Shoshana. A era do capitalismo de vigilância.



12) Referências 


BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil (Marco Civil da Internet). Brasília, DF: Presidência da República, 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 6 fev. 2026.


BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 6 fev. 2026.


BRASIL. Tribunal Superior Eleitoral. Resolução nº 23.732, de 27 de fevereiro de 2024. Altera a Res.-TSE nº 23.610/2019, dispondo sobre propaganda eleitoral (inclui medidas sobre desinformação e IA). Brasília, DF: TSE, 2024. Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024. Acesso em: 6 fev. 2026.


BRASIL. Tribunal Superior Eleitoral. TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições; exige aviso de uso de IA e veda deepfakes na propaganda. Brasília, DF: TSE, 2024 (atualizações até 2025). Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes. Acesso em: 6 fev. 2026.


BRASIL. Tribunal Superior Eleitoral. Confira as novidades da resolução da propaganda sobre o enfrentamento da desinformação (inclui IA). Brasília, DF: TSE, 2024. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Agosto/confira-as-novidades-da-resolucao-da-propaganda-sobre-o-enfrentamento-da-desinformacao. Acesso em: 6 fev. 2026.


BRASIL. Senado Federal. Projeto de Lei nº 2.630, de 2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Brasília, DF: Senado, 2020. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944. Acesso em: 6 fev. 2026.


BRASIL. Senado Federal. Senado discute propostas para enfrentar desinformação (inclui atualização sobre tramitação do PL 2.630/2020). Brasília, DF: Senado, 2025. Disponível em: https://www12.senado.leg.br/verifica/materias-especiais/2025/senado-discute-propostas-para-enfrentar-desinformacao. Acesso em: 6 fev. 2026.


CGI.BR – Comitê Gestor da Internet no Brasil. Dez princípios para regulação de redes sociais (inclui autodeterminação informacional e transparência em perfilização, moderação e recomendação). São Paulo: CGI.br, 2025. Disponível em: https://cgi.br/pagina/principios-cgibr-regulacao-redes-sociais/. Acesso em: 6 fev. 2026.


CGI.BR – Comitê Gestor da Internet no Brasil. Após consulta aberta, CGI.br apresenta versão final dos Princípios para a Regulação de Redes Sociais. São Paulo: CGI.br, 2025. Disponível em: https://cgi.br/noticia/releases/apos-consulta-aberta-cgi-br-apresenta-versao-final-dos-principios-para-a-regulacao-de-redes-sociais/. Acesso em: 6 fev. 2026.


HUSZÁR, Ferenc et al. Algorithmic amplification of politics on Twitter. Proceedings of the National Academy of Sciences (PNAS)/arXiv, 2021. Disponível em: https://arxiv.org/pdf/2110.11010. Acesso em: 6 fev. 2026.


UNESCO. Guidelines for regulating digital platforms: a multistakeholder approach to safeguard freedom of expression and access to information. Paris: UNESCO, 2023. Disponível em: https://www.unesco.org/sites/default/files/medias/fichiers/2023/04/draft2_guidelines_for_regulating_digital_platforms_en.pdf. Acesso em: 6 fev. 2026.


UNESCO. Guidelines for the Governance of Digital Platforms (Internet Trust). Paris: UNESCO, 2023–2024. Disponível em: https://www.unesco.org/en/internet-trust/guidelines. Acesso em: 6 fev. 2026.


-—————-———————————-

Siga a série:

-——————————————-


Nenhum comentário:

Postar um comentário