Dominionismo e redes digitais no Brasil
Como o algoritmo transforma pânico moral em política pública, disciplina o debate e captura a educação
Índice
- A virada digital da guerra cultural
1.1. Do púlpito à plataforma: a nova infraestrutura do conflito
1.2. Por que o algoritmo prefere indignação a argumento - Dominionismo em chave informacional
2.1. “Tomar as esferas” no século XXI: atenção, dados e recomendação
2.2. Moral como protocolo de mobilização - A engenharia do pânico moral
3.1. O roteiro operacional: ameaça às crianças, inimigo interno, urgência legislativa
3.2. O ciclo de retroalimentação: escândalo → engajamento → pressão → norma - Algoritmos, dados e microgovernança da opinião
4.1. Perfilização e recomendação: quando “preferência” vira destino
4.2. Amplificação algorítmica: evidência empírica e implicações políticas
4.3. O mercado do conflito: monetização da raiva e profissionalização do pânico - Do feed à lei: como a pauta vira Estado
5.1. Produção de “problema público” por viralização
5.2. Pressão sobre escolas, secretarias, conselhos e parlamentos - Freios democráticos no Brasil
6.1. Constituição: pluralismo, laicidade e liberdade de ensinar
6.2. Marco Civil, LGPD e a disputa por transparência e responsabilização
6.3. Justiça Eleitoral e IA: deepfakes, rotulagem e integridade informacional
6.4. Regulação de plataformas: o debate do PL 2.630 e princípios do CGI.br - Quadro comparativo de estratégias
- Saídas realistas
8.1. Transparência algorítmica e auditoria independente
8.2. Proteção de docentes e governança educacional
8.3. Prebunking, alfabetização midiática e resposta institucional rápida - Conclusão
- 5 pontos relevantes do artigo
- 3 livros indicados
- Referências (ABNT)
Lide
A guerra cultural no Brasil ganhou um motor novo: o algoritmo de recomendação. Em vez de depender apenas de lideranças, templos, programas de TV ou palanques, o conflito passou a ser “fabricado” e distribuído por sistemas que premiam choque, medo e indignação. Nesse ambiente, o dominionismo — entendido como projeto de poder que busca hegemonia institucional de uma moral religiosa específica — encontra uma vantagem competitiva: o pânico moral funciona como combustível perfeito para plataformas orientadas por engajamento. O resultado é um circuito fechado em que uma narrativa viral vira pressão política e, muitas vezes, tentativa de norma, censura informal e disciplinamento de escolas, professores e currículos — mesmo diante de limites constitucionais e de decisões reiteradas do Supremo e de regras eleitorais mais duras contra desinformação e deepfakes.
1) A virada digital da guerra cultural
1.1 Do púlpito à plataforma: a nova infraestrutura do conflito
A política sempre disputou “corações e mentes”. O que mudou foi a infraestrutura. Plataformas digitais deixaram de ser apenas meios de comunicação e viraram ambientes de governança: distribuem visibilidade, organizam reputações, conectam comunidades, definem quem aparece, quando aparece e para quem aparece. A esfera pública, que antes passava por jornais, rádio, TV, partidos e sindicatos, agora passa por feeds que personalizam a realidade.
Nesse cenário, a guerra cultural se torna eficiente porque entrega aquilo que o sistema de recomendação mais valoriza: atenção contínua. E atenção contínua, na prática, nasce mais facilmente do medo do que da nuance.
1.2 Por que o algoritmo prefere indignação a argumento
Recomendadores trabalham com sinais simples: clique, comentário, compartilhamento, tempo de tela. Isso não mede verdade; mede reação. Conteúdo que simplifica o mundo em “bem versus mal”, “pureza versus corrupção”, “crianças em perigo” tende a gerar mais reação do que explicações graduais.
É o ponto em que moral vira tecnologia: o pânico moral é um formato comunicacional otimizado para o feed.
2) Dominionismo em chave informacional
2.1 “Tomar as esferas” no século XXI: atenção, dados e recomendação
O dominionismo clássico se expressa como projeto de “dominar esferas” (governo, educação, mídia etc.). No século XXI, a mídia não é apenas um canal: é uma máquina de recomendação. Logo, tomar a esfera “mídia” passa menos por ter emissora e mais por controlar comunidades digitais, influenciadores, redes de distribuição e rotinas de engajamento.
O poder deixa de ser só institucional e passa a ser informacional: quem controla a narrativa controla o custo político do adversário e molda a pauta do Estado. A pressão não depende de maioria social real; pode depender de uma minoria altamente mobilizada, barulhenta e estrategicamente amplificada.
2.2 Moral como protocolo de mobilização
O dominionismo opera bem com um protocolo recorrente:
- identificar uma “ameaça moral” (escola, gênero, arte, ciência, imprensa);
- construir um inimigo interno (professor, universidade, “ideologia”, “globalismo”);
- transformar a disputa em missão (salvar crianças, salvar família, salvar nação);
- exigir uma resposta estatal (lei, punição, proibição, censura).
Esse protocolo é altamente compatível com ambientes digitais porque cria pertencimento e um “nós” permanente em guerra — e guerra produz engajamento.
3) A engenharia do pânico moral
3.1 O roteiro operacional: ameaça às crianças, inimigo interno, urgência legislativa
O pânico moral moderno tem um roteiro quase industrial:
- Escolha do alvo: escola pública, currículo, professor, livro, evento cultural.
- Frame de perigo: “ameaça às crianças” (gatilho emocional máximo).
- Nome tóxico: “doutrinação”, “ideologia”, “perversão”, “ataque à família”.
- Caso exemplar: um vídeo recortado, uma fala fora de contexto, uma imagem-chamariz.
- Escalada: “isso está em todo lugar”.
- Conversão em política: “precisa de lei”, “precisa punir”, “precisa proibir”.
O que era um debate pedagógico vira um tribunal moral.
3.2 O ciclo de retroalimentação: escândalo → engajamento → pressão → norma
A lógica algorítmica cria um ciclo:
- Escândalo vira alcance;
- alcance vira “prova” de que o tema é central;
- “centralidade” vira pressão sobre gestores e parlamentares;
- pressão vira tentativa de norma, sindicância, censura informal;
- o conflito produzido realimenta o engajamento.
Mesmo quando a norma cai no Judiciário, o objetivo prático muitas vezes já foi alcançado: disciplinar pelo medo.
4) Algoritmos, dados e microgovernança da opinião
4.1 Perfilização e recomendação: quando “preferência” vira destino
Recomendadores inferem preferências a partir de rastros. Isso gera perfilização: um retrato probabilístico do usuário. O problema político é que perfilização não serve apenas para “personalizar entretenimento”; ela organiza exposição a conteúdos políticos e morais.
Em termos sociológicos, a plataforma cria microambientes de realidade. Em termos políticos, isso vira microgovernança: pequenas decisões automatizadas sobre o que será visto e repetido moldam o senso comum. É por isso que regulação contemporânea fala de transparência sobre moderação e recomendação e de autodeterminação informacional. O CGI.br, por exemplo, inclui explicitamente processos de perfilização, moderação e recomendação como temas centrais quando discute princípios para regulação de redes sociais.
4.2 Amplificação algorítmica: evidência empírica e implicações políticas
A discussão “algoritmo amplifica política?” deixou de ser só opinião. Há estudos que auditam recomendadores e discutem como algoritmos podem alterar a exposição a conteúdo político, reforçando a necessidade de transparência.
A implicação para o Brasil é direta: pânico moral não precisa convencer todo mundo. Ele precisa dominar o feed de segmentos estratégicos — e, ao dominar, produz a sensação de maioria e urgência. Essa sensação, por sua vez, pressiona o Estado.
4.3 O mercado do conflito: monetização da raiva e profissionalização do pânico
Guerra cultural é um produto: gera cliques, doações, audiência, influência e, em muitos casos, carreiras políticas. Plataformas funcionam como mercado de atenção. O pânico moral é uma mercadoria de alta rotatividade: toda semana um novo “absurdo”, toda semana um novo inimigo.
Quando isso se acopla a um projeto dominionista, o conflito deixa de ser consequência e vira método: manter a base mobilizada significa manter o fluxo de atenção — e o fluxo de atenção é poder.
5) Do feed à lei: como a pauta vira Estado
5.1 Produção de “problema público” por viralização
A pauta política nem sempre nasce de evidência; às vezes nasce de viralização. O que viraliza passa a ser tratado como problema público, ainda que seja exceção, distorção ou fraude.
Esse mecanismo é perigoso em educação: uma política curricular não pode ser governada por clips de 20 segundos. Mas a pressão digital frequentemente tenta impor exatamente isso: governar escola como se governasse trending topics.
5.2 Pressão sobre escolas, secretarias, conselhos e parlamentos
A conversão do pânico em política pública costuma ocorrer por três vias:
- Via administrativa: pressão sobre direções, secretarias, conselhos, comissões.
- Via legislativa: projetos de lei municipais/estaduais que tentam proibir temas e vigiar docentes.
- Via judicial e midiática: denúncias, representações, campanhas locais para intimidar.
É a “censura sem decreto”: não se proíbe formalmente — cria-se um ambiente em que ensinar custa caro.
6) Freios democráticos no Brasil
6.1 Constituição: pluralismo, laicidade e liberdade de ensinar
A Constituição brasileira delimita princípios do ensino, incluindo liberdade de aprender e ensinar e pluralismo de ideias e concepções pedagógicas.
E também veda que o Estado estabeleça relações de dependência/aliança com cultos e igrejas, núcleo institucional da laicidade.
Esses princípios são a “parede” contra a conversão do Estado em catecismo.
6.2 Marco Civil, LGPD e a disputa por transparência e responsabilização
O Marco Civil da Internet (Lei nº 12.965/2014) define princípios, garantias e diretrizes para o uso da internet no Brasil.
A LGPD (Lei nº 13.709/2018) regula tratamento de dados pessoais e explicita o objetivo de proteger liberdade, privacidade e o livre desenvolvimento da personalidade.
Na prática, esses marcos não resolvem a guerra cultural, mas fornecem base para discutir:
- limites de coleta e uso de dados para perfilização política;
- transparência e prestação de contas;
- governança de sistemas que organizam exposição e reputação.
6.3 Justiça Eleitoral e IA: deepfakes, rotulagem e integridade informacional
A Justiça Eleitoral brasileira passou a enfrentar o tema da IA na propaganda, com regras que incluem proibição de deepfakes e exigência de aviso quando há uso de IA em conteúdo eleitoral, além de medidas voltadas ao enfrentamento da desinformação.
Isso importa para a guerra cultural porque boa parte do pânico moral digital opera por falsificação, montagem, recorte e conteúdo sintético. Quando a regra exige rotulagem e proíbe deepfake, mexe no “petróleo” da indignação.
6.4 Regulação de plataformas: o debate do PL 2.630 e princípios do CGI.br
O PL 2.630/2020 (conhecido como “Lei das Fake News”) continua sendo referência central do debate sobre transparência e responsabilidade de plataformas, com tramitação acompanhada pelo Senado e pela Câmara.
Em 2025, o CGI.br apresentou versão final de princípios para regulação de redes sociais, defendendo uma abordagem multissetorial e mencionando, de forma explícita, transparência e autodeterminação informacional em processos como perfilização, moderação e recomendação.
Do ponto de vista democrático, esse é o ponto sensível: não se trata apenas de “tirar conteúdo do ar”; trata-se de entender e limitar mecanismos que amplificam distorção e que transformam pânico moral em política pública.
7) Quadro comparativo de estratégias
|
Camada |
Estratégia típica |
Como aparece no discurso |
Como opera no digital |
Efeito na educação |
Contrapeso institucional |
|
Narrativa |
“Crianças em perigo” |
urgência moral |
clipes, recortes, choque |
medo e autocensura |
princípios constitucionais do ensino |
|
Distribuição |
Rede de páginas/canais |
“verdade censurada” |
recomendação, grupos, repetição |
cerco social a escolas |
transparência/ governança de plataformas |
|
Pressão |
Denúncia e exposição |
“doutrinação” |
ataque coordenado, linchamento |
desgaste docente |
liberdade de ensinar/aprender |
|
Norma |
PL/lei local |
“neutralidade” |
viralização como base política |
censura curricular |
competências e marcos legais (LDB/CF) |
|
Tecnologia |
Deepfake / IA |
“prova definitiva” |
conteúdo sintético escalável |
colapso de confiança |
regras eleitorais sobre IA/deepfakes |
8) Saídas realistas
8.1 Transparência algorítmica e auditoria independente
Sem transparência sobre recomendação, o debate fica cego. A agenda internacional tem defendido diretrizes de governança de plataformas que evitem censura prévia e imponham prestação de contas compatível com direitos.
No plano nacional, os princípios do CGI.br reforçam a necessidade de lidar com perfilização e recomendação com foco em autodeterminação informacional e transparência.
8.2 Proteção de docentes e governança educacional
A política pública educacional precisa de blindagem institucional contra linchamentos digitais:
- protocolos de resposta rápida a campanhas de desinformação local;
- suporte jurídico e institucional ao docente;
- comunicação pública transparente para impedir que boatos virem “fato oficial”.
Se o pânico moral disciplina professores, a democracia educacional exige proteção para que o professor ensine sem medo.
8.3 Prebunking, alfabetização midiática e resposta institucional rápida
Há recomendações internacionais que enfatizam estratégias preventivas (“prebunking”) e respostas coordenadas, com cuidado para evitar viés e reforçar critérios públicos.
A alfabetização midiática, por sua vez, é uma política estrutural: reduz o “lucro cognitivo” do pânico moral.
9) Conclusão
A guerra cultural no Brasil não é apenas uma disputa de ideias; é uma disputa por infraestrutura informacional. Algoritmos de recomendação transformaram moral em produto escalável: medo, choque e indignação viraram formatos ideais para a economia da atenção. Nesse ambiente, o dominionismo ganha eficiência porque não precisa convencer pelo argumento — basta dominar a distribuição, produzir urgência e converter viralização em pressão sobre instituições. O resultado é um circuito em que o feed fabrica “problemas públicos”, e esses problemas públicos tentam se materializar em norma, punição e censura informal sobre a escola. A resposta democrática não pode ser ingenuamente moralista (“basta dialogar”) nem autoritária (“basta censurar”). Ela precisa ser institucional: proteger pluralismo e liberdade de ensinar, reforçar laicidade como regra de convivência, exigir transparência e prestação de contas de plataformas, limitar perfilização abusiva e enfrentar deepfakes e desinformação com regras claras — como já vem fazendo a Justiça Eleitoral ao restringir IA enganosa e exigir rotulagem. A escola pública é o lugar onde a democracia aprende a existir; quando ela é governada por pânico moral amplificado por algoritmos, não é só o currículo que perde — é o próprio futuro comum.
10) 5 pontos relevantes do artigo
- A guerra cultural digital é uma disputa por infraestrutura (recomendação e distribuição), não só por opinião.
- O pânico moral é um formato comunicacional otimizado para engajamento e, por isso, altamente “algoritmável”.
- Marco Civil e LGPD fornecem base para discutir dados, perfilização e governança da internet no Brasil.
- A Justiça Eleitoral endureceu regras sobre IA e deepfakes na propaganda, atacando um dos combustíveis do pânico moral.
- O debate regulatório brasileiro avança com o PL 2.630 e com princípios do CGI.br voltados a transparência e autodeterminação informacional.
11) 3 livros indicados
- CUNHA, Magali do Nascimento. Religião, política e comunicação (obras da autora sobre mídia, evangelicalismo e esfera pública — úteis para entender o “púlpito-plataforma”).
- HAN, Byung-Chul. Psicopolítica: o neoliberalismo e as novas técnicas de poder.
- ZUBOFF, Shoshana. A era do capitalismo de vigilância.
12) Referências
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil (Marco Civil da Internet). Brasília, DF: Presidência da República, 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 6 fev. 2026.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 6 fev. 2026.
BRASIL. Tribunal Superior Eleitoral. Resolução nº 23.732, de 27 de fevereiro de 2024. Altera a Res.-TSE nº 23.610/2019, dispondo sobre propaganda eleitoral (inclui medidas sobre desinformação e IA). Brasília, DF: TSE, 2024. Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024. Acesso em: 6 fev. 2026.
BRASIL. Tribunal Superior Eleitoral. TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições; exige aviso de uso de IA e veda deepfakes na propaganda. Brasília, DF: TSE, 2024 (atualizações até 2025). Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes. Acesso em: 6 fev. 2026.
BRASIL. Tribunal Superior Eleitoral. Confira as novidades da resolução da propaganda sobre o enfrentamento da desinformação (inclui IA). Brasília, DF: TSE, 2024. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Agosto/confira-as-novidades-da-resolucao-da-propaganda-sobre-o-enfrentamento-da-desinformacao. Acesso em: 6 fev. 2026.
BRASIL. Senado Federal. Projeto de Lei nº 2.630, de 2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Brasília, DF: Senado, 2020. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944. Acesso em: 6 fev. 2026.
BRASIL. Senado Federal. Senado discute propostas para enfrentar desinformação (inclui atualização sobre tramitação do PL 2.630/2020). Brasília, DF: Senado, 2025. Disponível em: https://www12.senado.leg.br/verifica/materias-especiais/2025/senado-discute-propostas-para-enfrentar-desinformacao. Acesso em: 6 fev. 2026.
CGI.BR – Comitê Gestor da Internet no Brasil. Dez princípios para regulação de redes sociais (inclui autodeterminação informacional e transparência em perfilização, moderação e recomendação). São Paulo: CGI.br, 2025. Disponível em: https://cgi.br/pagina/principios-cgibr-regulacao-redes-sociais/. Acesso em: 6 fev. 2026.
CGI.BR – Comitê Gestor da Internet no Brasil. Após consulta aberta, CGI.br apresenta versão final dos Princípios para a Regulação de Redes Sociais. São Paulo: CGI.br, 2025. Disponível em: https://cgi.br/noticia/releases/apos-consulta-aberta-cgi-br-apresenta-versao-final-dos-principios-para-a-regulacao-de-redes-sociais/. Acesso em: 6 fev. 2026.
HUSZÁR, Ferenc et al. Algorithmic amplification of politics on Twitter. Proceedings of the National Academy of Sciences (PNAS)/arXiv, 2021. Disponível em: https://arxiv.org/pdf/2110.11010. Acesso em: 6 fev. 2026.
UNESCO. Guidelines for regulating digital platforms: a multistakeholder approach to safeguard freedom of expression and access to information. Paris: UNESCO, 2023. Disponível em: https://www.unesco.org/sites/default/files/medias/fichiers/2023/04/draft2_guidelines_for_regulating_digital_platforms_en.pdf. Acesso em: 6 fev. 2026.
UNESCO. Guidelines for the Governance of Digital Platforms (Internet Trust). Paris: UNESCO, 2023–2024. Disponível em: https://www.unesco.org/en/internet-trust/guidelines. Acesso em: 6 fev. 2026.
-—————-———————————-
Siga a série:
- Artigo 1: Captura Teocrática — Dominionismo: o projeto de poder religioso que quer governar as “esferas” do Estado. —> Link: https://brasilesferapublica.blogspot.com/2026/02/artigo-1-captura-teocratica.html?m=1
- Artigo 2: Captura Teocrática — Dominionismo, educação e guerra cultural no Brasil: currículo, censura informal e a engenharia do pânico moral. —> Link: https://brasilesferapublica.blogspot.com/2026/02/artigo-2-captura-teocratica.html?m=1
- Artigo 3: Captura Teocrática — Dominionismo e redes digitais no Brasil: como o algoritmo transforma pânico moral em política pública. —> Link: https://brasilesferapublica.blogspot.com/2026/02/artigo-3-captura-teocratica.html?m=1
- Artigo 4: Captura Teocrática — Dominionismo e sistema político no Brasil: bancadas, “orçamento simbólico” e pontos de captura da política pública. —> Link: https://brasilesferapublica.blogspot.com/2026/02/artigo-4-captura-teocratica.html?m=1
- Artigo 5: Captura Teocrática — Dominionismo e política pública educacional: como blindar currículo, docentes e gestão contra captura moral e pânico algorítmico. —> Link: https://brasilesferapublica.blogspot.com/2026/02/artigo-5-captura-teocratica.html?m=1
-——————————————-
Nenhum comentário:
Postar um comentário