Mostrando postagens com marcador governança de plataformas. Mostrar todas as postagens
Mostrando postagens com marcador governança de plataformas. Mostrar todas as postagens

sábado, 3 de janeiro de 2026

A democracia do algoritmo: como as redes reprogramam o aceitável no debate público

Entre a liberdade de expressão e a indústria da manipulação existe um território decisivo: o desenho algorítmico da esfera pública.


 A política brasileira entrou numa nova era — e não foi por decisão do Congresso, nem por uma grande reforma institucional. Ela mudou porque o feed assumiu o papel de “editor” do debate público. Hoje, o que vira assunto nacional, o que vira “escândalo” e até o que vira “verdade” pode ser empurrado por sistemas que não têm ideologia, mas têm um objetivo muito claro: maximizar engajamento. E quando a democracia passa a competir com máquinas de otimização de atenção, o risco não é apenas a mentira: é a normalização da manipulação. Neste artigo, eu mostro como a “Janela de Overton digital” desloca o aceitável, por que o Brasil é especialmente vulnerável (mensageria privada, polarização e economia da indignação) e quais medidas realistas podem reduzir o dano sem cair no atalho da censura.



1. O problema de fundo: quem define o que “todo mundo” está discutindo?



Vamos ser bem diretos: boa parte do debate público hoje não começa no Congresso, na universidade, no sindicato, na igreja ou no jornal. Ele começa no feed. E aí vem a pergunta incômoda: quem está segurando o volante quando o assunto do país muda do nada?


No modelo clássico, havia editores, critérios explícitos, responsabilidade jurídica relativamente clara e uma “fila” pública de assuntos — com todos os problemas que isso trazia (viés, concentração, desigualdade de voz). No modelo atual, o que organiza a conversa é um conjunto de sistemas de recomendação, publicidade comportamental e métricas de engajamento. É como trocar um maestro por um medidor de aplausos: não importa a partitura; importa o barulho.


E quando a política vira barulho, o aceitável muda de lugar com uma velocidade que a nossa cultura democrática não consegue acompanhar.



2. Do jornal ao feed: a troca do editor por um “motor de engajamento”



A transição mais importante não foi “do papel para a tela”. Foi do editorial para o algorítmico.


No feed, o “sucesso” de um conteúdo é medido em cliques, tempo de retenção, comentários e compartilhamentos. Esse conjunto de métricas vira o equivalente moderno do “ibope”, só que em tempo real e com personalização individual. O resultado é simples: conteúdos com alto potencial de reação emocional (indignação, medo, desejo de punição, escárnio) tendem a ser premiados.


Isso empurra o debate para extremos, simplifica dilemas complexos e cria um tipo de política em que parecer certo importa mais do que ser verdadeiro. Como já se discute há anos na literatura sobre esfera pública e mídia, o problema não é só “mentira”, é o ambiente que torna a mentira competitiva.

_______________________________________________________


O que é, na prática, o “motor de engajamento”?



Pense no algoritmo como um gerente invisível de audiência. Ele não pergunta “isso é verdadeiro?”; ele pergunta:


  • Isso prende a atenção?
  • Isso gera reação (raiva, medo, choque, riso)?
  • Isso vira comentário, briga, curtida, compartilhamento?
  • Isso faz a pessoa voltar amanhã?



Se a resposta for “sim”, o conteúdo ganha alcance. Se for “não”, ele desaparece — mesmo que seja correto, útil e equilibrado.


Pergunta incômoda: numa disputa entre “verdade” e “retenção”, qual delas você acha que é otimizada?

________________________________________________________


3. Janela de Overton digital: o aceitável virou produto escalável



A Janela de Overton descreve o espectro do que é socialmente aceitável dizer, defender e transformar em política pública. Em tese, ela se move com cultura, eventos históricos, disputas de valores.


Mas no ambiente digital, a janela pode ser “puxada” por arquiteturas de amplificação: um tema vira tendência, um recorte vira slogan, um caso vira “prova” de uma tese geral, e pronto — aquilo que era impensável passa a soar “corajoso”, “autêntico” ou “inevitável”.


A metáfora que mais ajuda é esta: a esfera pública virou uma esteira rolante. Se você fica parado, é levado. Se tenta caminhar, já está atrasado. E quem controla a velocidade da esteira não é o eleitor; são sistemas que otimizam engajamento.

___________________________________________________


Janela de Overton digital: 6 sinais de que o aceitável está sendo “puxado”



Você percebe o deslocamento quando:


  1. O absurdo vira “piada” antes de virar pauta (humor como porta de entrada).
  2. O extremo vira “opinião corajosa” (“ele fala o que ninguém tem coragem”).
  3. A exceção vira regra (“se aconteceu uma vez, sempre acontece”).
  4. A violência simbólica vira linguagem cotidiana (desumanização do adversário).
  5. O debate vira torcida (argumento perde para identidade).
  6. A proposta radical vira “inevitável” (“não tem outro jeito”).



Metáfora útil: a janela não se move sozinha. Ela é empurrada por repetição + emoção + sensação de urgência.


___________________________________________________


4. Como o algoritmo “puxa” o debate: 5 mecanismos práticos




4.1 Economia da atenção e recompensa variável



As plataformas competem por atenção. E a atenção humana responde muito bem a recompensas variáveis — a lógica do “só mais um vídeo”, “só mais um comentário”, “só mais uma notificação”. Isso não é moralismo; é design comportamental.


Quando esse design se acopla à política, você cria uma política dopaminérgica: o conteúdo que “dá descarga” emocional vence o conteúdo que exige reflexão.



4.2 Recomendação e “túnel de conteúdo”



Sistemas de recomendação são ótimos para sugerir música. Mas na política eles podem construir túneis: você entra por um vídeo “leve” e sai em uma sequência de conteúdos que reforçam uma mesma visão de mundo, sempre um pouco mais intensa, porque intensidade retém.


Em pesquisas recentes, esse efeito aparece com força em plataformas de vídeo curto: conteúdos tóxicos e altamente polarizados tendem a gerar mais engajamento em ciclos eleitorais. 

______________________________________________________


O “túnel de conteúdo”: como alguém entra moderado e sai radicalizado



O túnel costuma seguir um roteiro:


  • Entrada leve: um vídeo “curioso” ou “indignante”, mas plausível.
  • Reforço: conteúdos parecidos, com uma explicação “mais simples” (e mais enviesada).
  • Escalada: o algoritmo testa o limite do que você tolera — e vai aumentando a dose.
  • Blindagem: surgem conteúdos que te ensinam a desconfiar de qualquer fonte externa (“a mídia mente”, “a ciência é comprada”, “a justiça é tudo armação”).
  • Fechamento: você passa a consumir apenas conteúdo que confirma sua identidade.



Resultado: o cidadão não muda de ideia por debate público; ele muda por ambiente informacional.


______________________________________________________


4.3 Microtargeting e propaganda sob medida



Microtargeting é a capacidade de segmentar mensagens políticas para grupos específicos com base em dados comportamentais. O risco democrático aqui é óbvio: a política deixa de ser um discurso público e vira um conjunto de versões privadas.


Quando cada pessoa recebe uma promessa diferente (e às vezes contraditória), a fiscalização social enfraquece. Sem um “palco comum”, o debate vira um corredor cheio de portas fechadas.

_____________________________________________________________


Microtargeting: quando a política deixa de ser pública


No microtargeting, a campanha consegue enviar mensagens diferentes para grupos diferentes, com base em dados e inferências (o que você curte, assiste, compartilha, evita).


Qual é o problema democrático?


  • A promessa pode ser contraditória entre grupos.
  • A fiscalização social cai, porque a mensagem não aparece no palco público.
  • A política vira um conjunto de “salas fechadas”.



Uma regra simples: democracia precisa de debate comum.

Se cada um recebe uma “verdade personalizada”, o país perde o terreno compartilhado.


_____________________________________________________________


4.4 A/B testing político: a engenharia do que funciona



Plataformas e campanhas testam variações de mensagens em tempo real: muda-se o título, a imagem, o tom, o inimigo do dia — e mede-se o resultado. É como se a política fosse uma vitrine em shopping: o que vende mais fica; o que não vende some.


O efeito colateral é brutal: a mensagem “vencedora” costuma ser a mais emocionalmente agressiva, não a mais verdadeira.



4.5 Arquiteturas de fricção zero: repassar é mais fácil que pensar



No WhatsApp e afins, encaminhar é fácil, checar é difícil. A fricção é assimétrica. E onde a fricção é baixa, o impulso manda.


A consequência é que a esfera pública brasileira — já marcada por desigualdades de informação — pode virar uma máquina de replicação: a mensagem que combina medo + identidade + urgência se espalha com força.



5. O caso brasileiro: quando a esfera pública vira grupo e encaminhamento



O Brasil tem uma particularidade: nossa vida digital política não é só feed público; ela é, em larga medida, mensageria privada. Isso muda o jogo.


No feed, ao menos existe algum nível de visibilidade e contestação pública. Na mensageria, a circulação é rápida, segmentada e socialmente blindada (“foi meu tio que mandou”, “é do meu pastor”, “é do meu grupo do bairro”). A confiança não é na fonte jornalística; é no vínculo.


O resultado é uma esfera pública em “ilhas”. E ilhas são facilmente governadas por emoções coletivas.



6. Eleições e IA: deepfakes, rótulos e o novo jogo regulatório




6.1 O que o TSE passou a exigir e proibir



Depois das eleições municipais de 2024, o debate sobre IA e propaganda eleitoral deixou de ser hipótese para virar regra. O TSE atualizou a Resolução que trata de propaganda eleitoral, alterando a Res.-TSE nº 23.610/2019 por meio da Resolução nº 23.732/2024. 


Na comunicação institucional sobre as mudanças, o TSE destacou a proibição de deepfakes e a exigência de aviso obrigatório quando houver uso de IA em conteúdos divulgados, mirando diretamente o risco de conteúdos sintéticos enganosos em campanhas. 


Além disso, iniciativas de cooperação interinstitucional foram formalizadas para enfrentar desinformação e deepfakes, inclusive com menção explícita ao aperfeiçoamento do uso de IA no âmbito eleitoral. 

__________________________________________________________


Deepfake e conteúdo sintético: como identificar rápido (sem paranoia)



Não é para virar detetive. É para reduzir o risco de ser usado como “linha de transmissão”.


Checklist de 30 segundos:


  • O vídeo tem áudio estranho, cortes bruscos, ou sincronia labial esquisita?
  • A fala tem fluência perfeita, mas sem “respiração”, hesitações ou ruído de ambiente?
  • O conteúdo gera urgência moral (“compartilhe agora antes que apaguem”)?
  • A fonte é um perfil sem histórico confiável ou “print sem contexto”?
  • Há outra fonte independente confirmando (veículo, documento, nota oficial)?



Se falhar em 2 ou 3 itens: não repasse.

A democracia agradece — e sua credibilidade também.


__________________________________________________________


6.2 Por que 2026 é um “laboratório nacional”



Há uma leitura estratégica aqui: 2026 será a primeira eleição geral sob a vigência dessa atualização regulatória, o que coloca o país diante de um teste institucional em escala. 


O ponto não é “proibir tecnologia”. É impedir que tecnologia vire fraude perceptiva: manipular o eleitor não pelo argumento, mas pelo simulacro.



7. Liberdade de expressão vs. liberdade de manipulação: dá para separar?



A discussão costuma virar um duelo simplista: “regulação é censura” versus “sem regulação é caos”. Só que o dilema real é mais sofisticado.


Liberdade de expressão é condição da democracia. Mas a democracia também pressupõe autonomia do juízo. E autonomia não é só “poder falar”; é poder decidir com um mínimo de integridade informacional.


Quando sistemas são desenhados para explorar vulnerabilidades cognitivas e emocionais em larga escala, a liberdade formal pode coexistir com uma captura prática da atenção e do comportamento. É aqui que a filosofia política ajuda: o cidadão vira consumidor; o debate vira mercado; e o “bem comum” vira performance.



8. Direito e governança no Brasil: o que já existe e o que falta




8.1 Marco Civil: princípios e limites



O Marco Civil da Internet estabelece princípios, garantias e direitos para o uso da internet no Brasil (BRASIL, 2014). 

Ele é decisivo porque fixa um “chão” normativo: liberdade de expressão, privacidade, proteção de dados (em articulação posterior), e diretrizes de responsabilidade.


O problema é que princípios não bastam quando a disputa é sobre arquitetura de sistemas e incentivos econômicos. A democracia pode morrer não por um decreto, mas por um design.



8.2 LGPD: dados pessoais como matéria-prima política



A LGPD regula o tratamento de dados pessoais e protege direitos fundamentais de liberdade e privacidade (BRASIL, 2018). 

Em termos políticos, isso toca o coração do microtargeting: segmentação baseada em dados pessoais e inferências.


Mesmo com a LGPD, há um desafio: muitas práticas de perfilamento e inferência não são transparentes para o usuário. Você não sabe o “rótulo invisível” que te atribuíram — e, portanto, não sabe por que recebeu aquela mensagem específica.



8.3 PL 2630: disputa de modelo, não só de texto



O PL 2630/2020 — conhecido como “PL das Fake News” — busca instituir regras de responsabilidade e transparência para plataformas e serviços de mensagem. 

Ele é o exemplo perfeito de como o tema é menos “técnico” e mais político-institucional: quem audita? quais obrigações? que tipo de transparência? como evitar abuso?


A disputa é por um modelo de governança da esfera pública digital.

________________________________________________________


Regulação não é sinônimo de censura — e desregulação não é sinônimo de liberdade



O debate costuma ser sequestrado por extremos. Uma forma mais séria de organizar é separar três camadas:


  1. Camada do conteúdo (o que pode ou não pode): alto risco de abuso.
  2. Camada do processo (como decide, com qual transparência): aqui mora a proteção.
  3. Camada da arquitetura (como o sistema amplifica e recomenda): aqui mora o “motor” do problema.



Tese prática: a regulação mais inteligente é a que atua na arquitetura e nos incentivos, com transparência, auditoria e devido processo — e não a que tenta “governar opinião”.


________________________________________________________


9. O mundo como espelho: UE, DSA e AI Act como referências de desenho institucional



A União Europeia criou marcos que servem como laboratório regulatório. O Digital Services Act (DSA) estabelece obrigações para plataformas, inclusive para as muito grandes, e estrutura mecanismos de supervisão e mitigação de riscos sistêmicos (UNIÃO EUROPEIA, 2022). 


Já o AI Act (Regulation (EU) 2024/1689) cria regras harmonizadas para IA, com abordagem baseada em risco, trazendo uma gramática regulatória que muitos países vêm observando de perto (UNIÃO EUROPEIA, 2024). 


Essas normas não resolvem tudo, mas apontam um caminho: transparência, responsabilização, auditoria e gestão de risco.



10. Riscos reais: censura privada, captura regulatória e moral panic



Agora, uma honestidade necessária: regular não é “bem” por definição. Há riscos.


  • Censura privada: plataformas podem remover conteúdo de forma opaca, sem devido processo.
  • Captura regulatória: governos e grupos econômicos podem transformar regulação em vantagem competitiva ou arma política.
  • Moral panic: cada crise vira justificativa para exceções permanentes.



Ou seja: precisamos de governança — mas governança com freios, contrapesos e transparência. Democracia não se salva com cheque em branco.



11. O que fazer (sem mágica): um pacote de medidas realistas




11.1 Transparência e auditoria algorítmica



Se algoritmo organiza a esfera pública, ele precisa ser tratável como infraestrutura crítica: auditorias independentes, relatórios de risco, explicabilidade proporcional e mecanismos de contestação.



11.2 Rastreabilidade e rotulagem de conteúdo sintético



No campo eleitoral, rotulagem e rastreabilidade são essenciais. O movimento do TSE ao exigir aviso de uso de IA e vedar deepfakes enganosos aponta nessa direção. 



11.3 Biblioteca de anúncios e limites ao microtargeting



Biblioteca pública de anúncios políticos (com segmentação, gasto e alcance) é medida de higiene democrática. Limitar microtargeting sensível reduz a política “de corredor”.



11.4 Acesso a dados para pesquisa e fiscalização



Sem dados, não há ciência; sem ciência, não há diagnóstico; sem diagnóstico, só sobra palpite. A experiência europeia coloca pesquisa e accountability no centro do debate sobre plataformas. 



11.5 Alfabetização midiática e “higiene do feed”



Aqui entra o que parece “pequeno”, mas não é: educação midiática e hábitos individuais. Não é culpa do indivíduo, mas ele é parte da solução.


Perguntas simples mudam tudo:


  • Quem ganha com a minha indignação agora?
  • Isso me informa ou só me ativa?
  • Se eu não repassar, o que eu perco?



A democracia começa onde termina o automatismo.

________________________________________________________



Higiene do feed: um protocolo simples para não virar massa de manobra




Você não controla o algoritmo. Mas controla sua exposição e seu comportamento.


5 hábitos realistas:


  • Reduza o “gatilho”: não comente no auge da raiva (você vira combustível).
  • Diversifique intencionalmente: siga fontes diferentes (não é “centrismo”, é antídoto contra túnel).
  • Pare de recompensar o lixo: não clique em título caça-clique “só para ver”.
  • Crie fricção: antes de repassar, espere 10 minutos e procure confirmação.
  • Proteja seu sono e sua atenção: exaustão reduz senso crítico.



Pergunta final: você quer ser cidadão ou “métrica”?


________________________________________________________


12. Conclusão: recuperar a política como obra humana, não como produto do feed



O ponto central é este: a democracia não foi desenhada para competir com máquinas de otimização de atenção. Quando a política vira produto, o cidadão vira métrica. E quando o cidadão vira métrica, a autonomia — que é a alma da democracia — começa a ser corroída sem barulho, como ferrugem em estrutura metálica: por fora ainda parece firme, por dentro já está comprometida.


O desafio brasileiro para 2026 e além é construir uma arquitetura institucional que proteja a liberdade de expressão, mas desarme a liberdade de manipulação; que preserve o pluralismo, mas desincentive a indústria do ódio; que valorize inovação, mas imponha responsabilidade. Em outras palavras: fazer a tecnologia caber na democracia — e não a democracia caber na tecnologia. E isso exige maturidade pública: do Estado, das plataformas, da imprensa, da escola e de nós, como sociedade, porque o futuro do debate público não é um detalhe técnico; é o próprio destino da política como forma de vida coletiva.





13. 5 pontos relevantes do artigo



  1. O debate público migrou do editorial para a recomendação algorítmica, alterando incentivos e premiando conteúdo emocional.
  2. A Janela de Overton ganhou um “motor” digital, capaz de deslocar rapidamente o aceitável via tendências e amplificação.
  3. No Brasil, a mensageria privada intensifica o problema, pois segmenta a esfera pública e reduz contestação visível.
  4. O TSE passou a regular IA na propaganda eleitoral, com foco em deepfakes e rotulagem, tornando 2026 um marco de teste institucional.  
  5. Soluções eficazes combinam regulação, auditoria, transparência e educação midiática, evitando tanto o “vale-tudo” quanto o autoritarismo regulatório.


______________________________________________________________


Se a esfera pública virou uma esteira rolante, a primeira forma de resistência é recuperar o passo. Compartilhe este texto com alguém que você respeita — inclusive alguém que discorda de você — e proponha um combinado simples: debater ideias sem virar refém do feed. Porque democracia não é só votar; é sustentar, todos os dias, um mínimo de honestidade intelectual e coragem cívica.


______________________________________________________________




14. 3 livros para aprofundar



  1. ZUBOFF, Shoshana. A era do capitalismo de vigilância.
  2. PARISER, Eli. O filtro invisível (The Filter Bubble).
  3. TUFEKCI, Zeynep. Twitter and Tear Gas: The Power and Fragility of Networked Protest.






Referências



BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil (Marco Civil da Internet). Diário Oficial da União: Brasília, DF, 24 abr. 2014. Disponível em:  . Acesso em: 3 jan. 2026.


BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União: Brasília, DF, 15 ago. 2018. Disponível em:  . Acesso em: 3 jan. 2026.


SENADO FEDERAL. PL 2630/2020. Projeto de Lei n° 2630, de 2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Brasília, DF: Senado Federal, 2020. Disponível em:  . Acesso em: 3 jan. 2026.


TRIBUNAL SUPERIOR ELEITORAL (TSE). Resolução nº 23.610, de 18 de dezembro de 2019. Dispõe sobre propaganda eleitoral, utilização e geração do horário gratuito e condutas ilícitas em campanha eleitoral. Brasília, DF: TSE, 2019. Disponível em:  . Acesso em: 3 jan. 2026.


TRIBUNAL SUPERIOR ELEITORAL (TSE). Resolução nº 23.732, de 27 de fevereiro de 2024. Altera a Res.-TSE nº 23.610/2019, dispondo sobre a propaganda eleitoral. Brasília, DF: TSE, 2024. Disponível em:  . Acesso em: 3 jan. 2026.


TRIBUNAL SUPERIOR ELEITORAL (TSE). TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições. Brasília, DF: TSE, 28 fev. 2024 (atualizado em 22 fev. 2025). Disponível em:  . Acesso em: 3 jan. 2026.


TRIBUNAL SUPERIOR ELEITORAL (TSE). Portaria nº 180, de 12 de março de 2024. Dispõe sobre cooperação e ações relacionadas a inteligência artificial no âmbito eleitoral, combate à desinformação e deepfakes. Brasília, DF: TSE, 2024. Disponível em:  . Acesso em: 3 jan. 2026.


SENADO FEDERAL. IA e desinformação: por que as eleições de 2026 exigem atenção redobrada. Brasília, DF: Senado Federal, 23 out. 2025. Disponível em:  . Acesso em: 3 jan. 2026.


UNIÃO EUROPEIA. Regulation (EU) 2022/2065, de 19 de outubro de 2022. Digital Services Act (DSA). Bruxelas: União Europeia, 2022. Disponível em:  . Acesso em: 3 jan. 2026.


UNIÃO EUROPEIA. Regulation (EU) 2024/1689, de 13 de junho de 2024. Artificial Intelligence Act (AI Act). Bruxelas: União Europeia, 2024. Disponível em:  . Acesso em: 3 jan. 2026.


WIKSTRÖM, Oscar et al. Toxic politics and TikTok engagement in the 2024 U.S. election. Harvard Kennedy School Misinformation Review, 2025. Disponível em:  . Acesso em: 3 jan. 2026.