domingo, 29 de março de 2026

Inteligência Artificial e eleições de 2026: a nova fronteira da manipulação política no Brasil

Entre deepfakes, segmentação algorítmica e opacidade das plataformas, a democracia brasileira entra na campanha sob o risco de uma erosão silenciosa da autonomia do voto



Há momentos em que uma democracia não começa a se perder no ato visível da ruptura, mas no gesto quase imperceptível da deformação. Não é o colapso barulhento que chega primeiro. É a corrosão silenciosa do ambiente em que as pessoas pensam, sentem, escolhem e julgam. A eleição brasileira de 2026 se aproxima exatamente sob esse signo. O país continua com urnas eletrônicas robustas, rito institucional consolidado e Justiça Eleitoral experiente. Mas a pergunta decisiva já não está apenas na segurança da apuração. Ela está, cada vez mais, na integridade invisível da formação da vontade política.


A Inteligência Artificial transformou esse problema em algo mais agudo, mais veloz e mais sofisticado. Pela primeira vez, o Brasil entra em um ciclo eleitoral no qual sistemas de geração sintética, segmentação automatizada, otimização de linguagem e amplificação algorítmica deixam de ser apenas ferramentas periféricas e passam a compor o centro da disputa política. Não se trata de futurismo. O próprio Tribunal Superior Eleitoral regulamentou, em março de 2026, o uso de IA no processo eleitoral, publicou as resoluções do pleito e reconheceu, em termos institucionais, que a tecnologia já se tornou variável central da integridade democrática. O Senado também apresentou material explicativo sobre as novas regras, e o Conselho de Comunicação Social anunciou debate específico sobre desinformação e IA nas eleições deste ano (Brasil, 2026a; Brasil, 2026b; Brasil, 2026c).


O ponto central, porém, é que o problema não se resume aos deepfakes mais caricatos, aos vídeos fraudulentos ou às montagens mais escandalosas. Esse é o lado chamativo do fenômeno, mas não necessariamente o mais perigoso. O risco mais profundo é estrutural. Está na capacidade crescente de sistemas digitais organizarem atenção, refinarem narrativas, testarem estímulos emocionais, personalizarem mensagens e produzirem ambientes perceptivos diferentes para públicos distintos. Em vez de uma mentira única lançada para todos, surge uma arquitetura de persuasão calibrada para muitos. Em vez do panfleto grosseiro, entra em cena a engenharia fina da influência.


É aí que o debate precisa amadurecer. A ameaça democrática contemporânea já não está apenas na falsidade explícita. Ela está na customização da realidade política. Está na distribuição desigual de estímulos, medos, ressentimentos e crenças. Está na possibilidade de que grupos diferentes passem a viver campanhas distintas, recebendo versões igualmente funcionais, mas politicamente assimétricas, do mundo comum. Quando isso acontece, a esfera pública deixa de ser apenas conflitiva — o que é normal em qualquer democracia — e começa a se tornar fragmentada em circuitos de indução comportamental.



O que mudou em 2026



A principal novidade de 2026 é que a institucionalidade brasileira deixou de tratar a Inteligência Artificial como tema lateral e passou a reconhecê-la como problema eleitoral central. O TSE aprovou o calendário do pleito e regulamentou o uso de IA, além de publicar, poucos dias depois, o conjunto das resoluções que orientarão as eleições. O Senado, ao explicar o conteúdo dessas normas, foi explícito ao afirmar que o objetivo é garantir que a tecnologia seja aliada, e não ameaça, à democracia. E o Conselho de Comunicação Social indicou que a combinação entre fake news e IA já se tornou tema prioritário da agenda pública nacional (Brasil, 2026a; Brasil, 2026b; Brasil, 2026c; Brasil, 2026d).


Essa movimentação institucional é correta e necessária. Ela mostra que o Estado brasileiro percebeu que a eleição de 2026 não será disputada apenas por partidos, candidatos, alianças e programas, mas também por sistemas de circulação, recomendação e amplificação de conteúdos. É um avanço importante. Durante muito tempo, o debate eleitoral ainda se comportou como se bastasse combater boatos isolados e remover peças fraudulentas mais evidentes. Agora, ao menos em parte, o diagnóstico começa a tocar a estrutura do problema.


Mas reconhecer não é o mesmo que resolver. A regulação alcança melhor aquilo que consegue nomear juridicamente. Ela atua com mais precisão sobre o conteúdo identificável do que sobre a lógica infraestrutural que o distribui. Consegue proibir certos usos, retirar peças específicas do ar, impor deveres formais e delimitar responsabilidades. O que faz com muito mais dificuldade é penetrar na caixa-preta dos sistemas de recomendação, do microdirecionamento, da personalização estratégica de mensagens e da otimização contínua de estímulos emocionais. Em linguagem simples: a norma alcança com mais facilidade a superfície visível da manipulação do que o subterrâneo técnico que a torna eficaz.



O erro de olhar apenas para o deepfake



O debate público costuma ficar fascinado com a imagem mais espetacular do problema. Um candidato falsificado em vídeo. Uma voz sintética simulando uma autoridade. Uma montagem hiper-realista produzida para enganar. Nada disso deve ser subestimado. Mas concentrar toda a atenção aí é como olhar apenas para a fumaça e ignorar a estrutura do incêndio.


Uma campanha politicamente agressiva não precisa necessariamente inventar um fato inexistente para produzir dano. Ela pode operar com fragmentos verdadeiros, contextos mutilados, associações enviesadas, ênfases emocionais calculadas e mensagens feitas sob medida para públicos específicos. Pode mobilizar medo em uma audiência, indignação moral em outra, ressentimento econômico em uma terceira e descrença institucional em uma quarta. Pode testar milhares de formulações discursivas, medir reação, ajustar tom e reaplicar em velocidade industrial. Tudo isso sem depender, obrigatoriamente, da fraude visual extrema que domina as manchetes.


É precisamente nesse ponto que a Inteligência Artificial altera qualitativamente a disputa política. Ela reduz custo de produção, amplia escala de difusão, acelera variações de linguagem e torna mais simples adaptar mensagens a nichos psicologicamente distintos. A propaganda clássica falava para massas. A propaganda assistida por IA fala para perfis. A primeira pressupunha alguma estabilidade narrativa. A segunda trabalha com mutação permanente, tentando descobrir, quase em tempo real, qual combinação de linguagem, afeto e oportunidade produz mais adesão, mais rejeição ou mais apatia.


A consequência é severa. O eleitor deixa de ser apenas receptor de propaganda e passa a ser objeto de leitura, classificação e indução. A política já não disputa somente convencimento; disputa previsibilidade comportamental.



A democracia continua com urna segura, mas pode ter vontade sitiada



Durante anos, a defesa da segurança do sistema eletrônico de votação ocupou, com razão, posição central no debate democrático brasileiro. Essa defesa continua indispensável. O problema é imaginar que ela esgota a questão. Não esgota. A urna pode continuar íntegra e, ainda assim, o processo de formação da escolha política pode tornar-se cada vez mais vulnerável.


Esse é o paradoxo do presente. A contagem dos votos pode seguir confiável, mas as condições que antecedem o voto podem ser progressivamente corroídas por uma ecologia informacional assimétrica, opaca e orientada por interesses que escapam à deliberação pública. A ameaça desloca-se da fraude material para a indução perceptiva. Sai do momento final da apuração e entra no longo processo anterior de produção da crença, do medo, da plausibilidade e da disposição para aderir ou rejeitar determinados projetos políticos.


Essa mudança deveria ser suficiente para redesenhar a gramática do debate público. Já não basta perguntar se o resultado será respeitado. É preciso perguntar em que condições cognitivas, comunicacionais e afetivas esse resultado foi produzido. Democracia não é apenas procedimento. Democracia também é ecologia da deliberação. Se essa ecologia se converte em ambiente de manipulação estatística e segmentada, o voto segue existindo formalmente, mas a autonomia que deveria sustentá-lo começa a ser cercada por fora.



A desigualdade política entra na era infraestrutural



Há outro aspecto menos debatido e talvez ainda mais preocupante. A Inteligência Artificial tende a aprofundar desigualdades políticas já existentes, mas agora em uma camada nova: a da infraestrutura da influência. Em toda eleição, alguns atores dispõem de mais recursos, mais estrutura, mais alcance e mais capacidade de comunicação. Isso não é novidade. O que muda com a IA é a qualidade dessa vantagem.


Quem tem acesso superior a dados, capacidade de segmentação, automação de campanhas, testes em larga escala e leitura fina de comportamento entra na disputa com um poder muito mais sofisticado do que o mero poder publicitário tradicional. Não se trata apenas de falar mais alto. Trata-se de falar de forma mais ajustada à vulnerabilidade específica de cada audiência. Trata-se de prever melhor, adaptar mais rápido e influenciar com menor gasto visível. O desequilíbrio deixa de ser só econômico ou partidário; torna-se técnico, estatístico e infraestrutural.


Esse ponto merece atenção porque a desigualdade, nesse caso, pode crescer sem chamar tanta atenção. O jogo continua parecendo aberto, mas as condições reais de disputa tornam-se menos transparentes. Alguns atores passam a operar com uma espécie de inteligência de campanha ampliada, enquanto outros permanecem presos a instrumentos mais rudimentares. Em um ambiente político polarizado e emocionalmente saturado, essa assimetria pode fazer diferença decisiva.



O espaço público já não é o mesmo



A esfera pública democrática sempre foi imperfeita. Sempre conviveu com poder econômico, desigualdades de voz, concentração midiática, manipulação e propaganda. Nada disso começou com a internet, muito menos com a IA. O erro analítico está em supor, por causa disso, que nada mudou de maneira substancial. Mudou. E mudou muito.


O que se altera agora é o modo como a percepção coletiva é organizada. Em vez de um debate relativamente compartilhado, ainda que atravessado por disputas ideológicas, tende a crescer um ambiente em que diferentes segmentos da população são expostos a trilhas narrativas distintas, com ritmos, intensidades e estímulos específicos. A experiência política se fragmenta. A realidade pública deixa de ser apenas disputada e passa a ser distribuída diferencialmente. Cada grupo recebe não só argumentos diferentes, mas estruturas distintas de plausibilidade.


Essa transformação é especialmente grave em sociedades já tensionadas por desigualdade, ressentimento social, fadiga institucional e polarização identitária. Nesses contextos, a IA não cria sozinha o caos político, mas pode funcionar como multiplicadora de vulnerabilidades já existentes. Ela potencializa o que encontra: medos, fraturas, crenças, ansiedades, hostilidades e repertórios de desconfiança.



O desafio não é apenas regular conteúdo, mas iluminar sistemas



A resposta pública mais imediata costuma ser regulatória, e isso é compreensível. Sem norma, a democracia fica desarmada. Mas a regulação de conteúdo, embora necessária, é insuficiente se não vier acompanhada de esforço mais amplo de transparência algorítmica, rastreabilidade de impulsionamento, auditoria de sistemas de recomendação e responsabilização efetiva de plataformas.


O problema não é só o conteúdo que aparece; é a lógica que decide sua circulação. Não é só a peça falsa; é a estrutura que premia aquilo que mais engaja, independentemente do dano público que provoca. Não é só o discurso sintético; é a arquitetura inteira que acelera sua disseminação, o encaixa em perfis específicos e o reapresenta no momento de maior vulnerabilidade emocional.


Sem algum grau de visibilidade sobre esses mecanismos, o debate democrático continuará combatendo sintomas enquanto a lógica profunda da desordem permanece ativa. Será sempre uma corrida atrasada, sempre uma reação posterior, sempre um esforço de conter o efeito quando a causa já se reorganizou.



2026 será um teste para a inteligência institucional do país



A eleição de 2026 não será apenas um teste para candidatos e partidos. Será um teste para o Estado, para a imprensa, para a academia, para a sociedade civil e para a própria cidadania democrática. O país precisará decidir se vai continuar tratando a desinformação como uma coleção de episódios isolados ou se finalmente reconhecerá que ela já se fundiu a uma transformação mais ampla da infraestrutura do poder político.


A imprensa, por exemplo, terá de ir além da cobertura reativa da peça viral. Precisará examinar padrões, modos de entrega, contextos de segmentação, estratégias de repetição e engenharia da visibilidade. A academia terá de abandonar parte do fascínio abstrato pelo termo “Inteligência Artificial” e tratar com mais seriedade seu uso concreto como tecnologia de poder. O Estado precisará combinar normatividade, capacidade técnica e coragem política. E o eleitor, por sua vez, terá de reaprender a desconfiar não só do que vê, mas também do modo como certas coisas lhe chegam.


A alfabetização democrática do presente já não pode ser apenas verificação de fatos. Ela precisa incluir compreensão de arquitetura digital. A pergunta não é só “isso é verdade?”. A pergunta passa a ser também “por que isso apareceu para mim, agora, desse modo, com esse tom, nesse fluxo e neste contexto?”.



Conclusão



A grande ameaça eleitoral de 2026 não está apenas na mentira mais visível. Está na capacidade de sistemas opacos moldarem o terreno mental sobre o qual a política será disputada. Está na possibilidade de que a sociedade continue olhando para a peça falsa, enquanto a verdadeira transformação ocorre no nível mais profundo: o da organização algorítmica da atenção, da emoção e da plausibilidade pública.


O Brasil agiu ao perceber parte do problema. O TSE regulamentou. O Senado explicou. O debate institucional avançou. Mas ainda existe uma distância perigosa entre identificar a existência do risco e enfrentá-lo em sua escala real. O que está em jogo não é apenas a lisura formal da eleição. É a liberdade interior do voto. É a autonomia do juízo político. É a preservação de um espaço público no qual divergências continuem sendo produzidas por disputa aberta de ideias, e não por trilhas invisíveis de indução comportamental (Brasil, 2026a; Brasil, 2026b; Brasil, 2026c).


A pergunta correta para 2026, portanto, não é somente quem vencerá a eleição. A pergunta cirúrgica é outra: o Brasil ainda escolherá seus governantes em um ambiente democrático reconhecível ou começará a transferir, sem perceber, parcelas crescentes da formação da vontade popular para sistemas privados de manipulação perceptiva?


Se essa pergunta for evitada, o país correrá o risco de celebrar a integridade da urna no exato momento em que a liberdade do eleitor começa a ser sitiada antes dela.



Referências



Brasil. Câmara dos Deputados. Conselho de Comunicação Social vai debater combate à desinformação nas eleições de 2026. Brasília: Câmara dos Deputados, 2026. Disponível em: portal da Câmara dos Deputados. Acesso em: 28 mar. 2026. 


Brasil. Senado Federal. Inteligência artificial nas eleições? Veja o que ficou decidido pelo TSE. Brasília: Senado Federal, 2026. Disponível em: portal Senado Verifica. Acesso em: 28 mar. 2026. 


Brasil. Tribunal Superior Eleitoral. TSE aprova calendário eleitoral e regulamenta uso de IA nas eleições de 2026. Brasília: TSE, 2026. Disponível em: portal do TSE. Acesso em: 28 mar. 2026. 


Brasil. Tribunal Superior Eleitoral. Eleições 2026: TSE publica todas as resoluções que orientarão o pleito. Brasília: TSE, 2026. Disponível em: portal do TSE. Acesso em: 28 mar. 2026. 


Brasil. Tribunal Superior Eleitoral. Grupo de especialistas vai propor novas medidas para aprimorar combate à desinformação eleitoral. Brasília: TSE, 2025. Disponível em: portal do TSE. Acesso em: 28 mar. 2026. 



Nenhum comentário:

Postar um comentário