A guerra que não declara guerra
Tem um tipo de guerra que não precisa de tanque, não precisa de sirene e não precisa de ocupação territorial. Ela começa antes, entra pela tela, e trabalha onde o Estado é mais vulnerável: na confiança coletiva. É a guerra informacional — e a inteligência artificial não criou esse fenômeno, mas deu a ele uma coisa decisiva: escala industrial.
O que antes exigia “exércitos” de perfis falsos, redações clandestinas e operações artesanais, hoje pode ser automatizado com geração de texto, imagem, áudio e vídeo. O alvo também mudou: em vez de convencer “o mundo”, a lógica agora é quebrar a sociedade em pedaços, empurrar cada grupo para sua bolha, e tornar impossível o acordo mínimo sobre fatos e regras.
E quando isso acontece, a soberania vira um problema íntimo: não é só sobre fronteira, é sobre integridade do espaço público, confiança eleitoral, capacidade de governar e resiliência cognitiva.
1) Guerra informacional não é “fake news”: é operação de influência
A expressão “fake news” virou um rótulo pobre para um fenômeno mais sofisticado. Operações de influência combinam:
- conteúdo (verdades parciais, mentiras, montagens, distorções);
- distribuição (algoritmos de recomendação e impulsionamento);
- segmentação (microdirecionamento por perfil e vulnerabilidade);
- persistência (campanhas contínuas, não eventos isolados).
Quando a IA entra nesse circuito, ela permite produção contínua e personalizada: você não fabrica “um boato”, você fabrica mil versões do mesmo boato — cada uma calibrada para um público específico.
É por isso que organismos internacionais estão tratando “integridade informacional” como infraestrutura democrática, e não como tema moralizante. Um relatório recente do PNUD sobre integridade informacional em eleições enfatiza que a IA generativa (incluindo deepfakes) complica o cenário e exige respostas coordenadas, sobretudo após o “super ano eleitoral” de 2024 (PNUD, 2025).
2) Deepfakes e “realidade sob demanda”: a arma perfeita para corroer confiança
Deepfakes não são perigosos apenas quando “enganam”. Eles são perigosos porque criam um ambiente em que ninguém acredita em nada. E isso é ouro para quem quer desorganizar a esfera pública: se tudo pode ser falso, então qualquer denúncia vira “armação”; qualquer prova vira “montagem”; qualquer jornalismo vira “narrativa”.
A União Internacional de Telecomunicações (UIT/ITU) vem discutindo padrões de autenticidade multimídia, watermarking e proveniência como resposta técnica ao problema — isto é, tentar devolver rastreabilidade ao conteúdo digital (ITU, 2024). E, em 2025, a Reuters noticiou alerta da ONU/ITU para medidas mais fortes de detecção e verificação diante do risco de interferência eleitoral e erosão de confiança (REUTERS, 2025a).
Aqui mora a mudança de época: a disputa não é mais “quem tem a verdade”; é “quem consegue fabricar plausibilidade mais rápido do que as instituições conseguem verificar”.
3) “Cognitive warfare”: a guerra pelo cérebro, não pelo território
A OTAN (NATO) tem trabalhado o conceito de cognitive warfare como um tipo de conflito que mira a racionalidade e a tomada de decisão, explorando vulnerabilidades cognitivas e sociais — e que envolve alvos não militares, como população e infraestrutura social (NATO, s.d.).
No debate acadêmico, essa noção aparece como um campo emergente que articula tecnologia e exploração da cognição para modificar, perturbar ou direcionar decisões humanas (DEPPE, 2024).
Traduzindo para o chão da política: quando o objetivo é desorganizar percepção, você não precisa “provar” nada; basta induzir dúvida, medo, raiva e cinismo. E a IA ajuda a fazer isso em três velocidades:
- velocidade de produção (conteúdo infinito);
- velocidade de distribuição (recomendação + segmentação);
- velocidade de adaptação (A/B test de emoção, linguagem, estética).
4) Plataformas como “infraestrutura de segurança” (sem terem sido eleitas para isso)
Aqui o Estado moderno enfrenta um dilema: plataformas digitais viraram parte da infraestrutura do debate público, mas não foram concebidas como instituições democráticas. Elas otimizam atenção, não verdade; engajamento, não cidadania.
A União Europeia tenta endereçar isso com o Digital Services Act (DSA), que busca impor obrigações proporcionais a riscos e responsabilidades, especialmente para plataformas muito grandes (COMISSÃO EUROPEIA, 2025). Em 2025, a Comissão também endossou a integração do Code of Practice on Disinformation ao DSA, sinalizando a tentativa de transformar compromissos voluntários em engrenagens mais vinculantes de mitigação de risco (COMISSÃO EUROPEIA, 2025).
E o tema não é abstrato: no fim de 2025, a Polônia pediu à Comissão Europeia que investigasse o TikTok após a circulação de conteúdo gerado por IA com teor anti-UE, associado a padrões de desinformação russa, alegando riscos à integridade democrática e obrigações do DSA (REUTERS, 2025b).
O que isso mostra? Que, goste-se ou não, moderação, transparência algorítmica e acesso a dados para pesquisa estão virando peças de segurança democrática.
5) Segurança “dura”: IA, ciberconflito e autonomia em sistemas críticos
Guerra informacional é a parte visível. Mas, no fundo, ela conversa com segurança “dura”: ciberataques, sabotagem, inteligência, operações psicológicas e, em certos contextos, autonomia em sistemas militares.
Nos EUA, a Diretiva 3000.09 (2023) estabelece política para autonomia em sistemas de armas e inclui diretrizes para minimizar probabilidade e consequências de falhas que levem a engajamentos não intencionais (ESTADOS UNIDOS, 2023). O valor dessa referência aqui não é “militarismo”; é o sinal institucional: o Estado está formalizando governança do uso de autonomia em contextos críticos.
O ponto é simples: se o Estado se preocupa com “falhas e engajamentos não intencionais” em sistemas de armas, por que aceitaria caixas-pretas em escala em policiamento, assistência social, justiça, saúde, educação e eleições sem auditabilidade e sem due process? A soberania algorítmica deveria ter a mesma seriedade.
6) O que funciona como defesa? (Spoiler: não existe bala de prata)
A resposta realista é uma arquitetura de defesa em camadas, que mistura técnica, direito, instituições e cultura.
Camada técnica: autenticidade e proveniência
- padrões de autenticação e metadados de origem;
- watermarking e sinais de geração sintética;
- infraestrutura para checagem e validação distribuída (ITU, 2024; REUTERS, 2025a).
Camada institucional: integridade eleitoral e resposta rápida
- protocolos de crise para deepfakes em eleições;
- coordenação entre justiça eleitoral, plataformas e imprensa;
- transparência de anúncios e rotulagem (PNUD, 2025; UNESCO; PNUD, 2025).
Camada regulatória: dever de mitigação de risco
- obrigações proporcionais para plataformas e sistemas de alto impacto;
- auditorias e acesso para pesquisadores;
- mecanismos de sanção e transparência (COMISSÃO EUROPEIA, 2025).
Camada social: alfabetização midiática e resiliência
- educação para leitura crítica e verificação;
- redução de vulnerabilidades emocionais exploradas por campanhas;
- cultura pública de “freio cognitivo”: pausar, verificar, comparar fontes.
7) E o Brasil? Segurança democrática é soberania
O Brasil entra aqui com uma vantagem e um risco.
A vantagem: tem instituições eleitorais e jurídicas com experiência em crise informacional, e tem uma sociedade civil que aprendeu a desconfiar do “viral”. O risco: a infraestrutura de plataformas e parte do ecossistema de IA seguem altamente dependentes e opacos. Isso significa que uma parcela do nosso espaço público roda em sistemas cujo critério de priorização não é o interesse público.
Se soberania algorítmica significa capacidade de governar a própria vida digital, então guerra informacional é o teste mais cruel: quando a pressão sobe, só fica de pé quem tem instituições, métodos e infraestrutura de integridade. O resto vira plateia do próprio colapso.
Fecho: a democracia não cai de uma vez — ela é corroída
O risco central da guerra informacional não é “um vídeo falso”. É uma cultura de descrença em que a verdade vira opinião, e a opinião vira arma. A IA acelera esse processo porque automatiza persuasão e industrializa plausibilidade.
Na Parte 5, eu vou entrar no núcleo político dessa corrosão: Democracia sob regime algorítmico — microdirecionamento, captura de atenção, polarização, e o que muda quando o debate público é mediado por sistemas que não prestam contas ao cidadão.
Assim que a próxima sequência estiver pronta, eu vou publicá-la e deixar o link logo abaixo para você seguir direto para a continuação: [https://brasilesferapublica.blogspot.com/2026/01/soberania-na-era-da-ia-parte-5.html?m=1].
Referências (ABNT)
COMISSÃO EUROPEIA. The Digital Services Act. Bruxelas: European Commission, 2025. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/digital-services-act. Acesso em: 3 jan. 2026.
COMISSÃO EUROPEIA. Commission endorses the integration of the voluntary Code of Practice on Disinformation into the Digital Services Act. Bruxelas: European Commission, 12 fev. 2025. Disponível em: https://ec.europa.eu/commission/presscorner/detail/en/ip_25_505. Acesso em: 3 jan. 2026.
DEPPE, C. Cognitive warfare: a conceptual analysis of the NATO ACT concept. [Artigo em repositório PMC], 2024. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC11565700/. Acesso em: 3 jan. 2026.
ESTADOS UNIDOS. Department of Defense. DoD Directive 3000.09: Autonomy in Weapon Systems. Washington, DC: DoD, 25 jan. 2023. Disponível em: https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf. Acesso em: 3 jan. 2026.
ESTADOS UNIDOS. Department of Defense. DoD Announces Update to DoD Directive 3000.09, “Autonomy in Weapon Systems”. Washington, DC: DoD, 25 jan. 2023. Disponível em: https://www.war.gov/News/Releases/Release/Article/3278076/dod-announces-update-to-dod-directive-300009-autonomy-in-weapon-systems/. Acesso em: 3 jan. 2026.
INTERNATIONAL TELECOMMUNICATION UNION. Detecting deepfakes and generative AI: Report on standards for AI watermarking and multimedia authenticity workshop. Genebra: ITU, 2024. Disponível em: https://www.itu.int/hub/publication/t-ai4g-ai4good-2024-7/. Acesso em: 3 jan. 2026.
NATO. Cognitive warfare. Norfolk: Allied Command Transformation, s.d. Disponível em: https://www.act.nato.int/activities/cognitive-warfare/. Acesso em: 3 jan. 2026.
PNUD. Strengthening information integrity in elections: Insights from the 2025 Action Coalition Strategic Dialogue. Nova York: United Nations Development Programme, 2025. Disponível em: https://www.undp.org/sites/g/files/zskgke326/files/2025-12/undp-strengthening-information-integrity-in-elections.pdf. Acesso em: 3 jan. 2026.
REUTERS. UN report urges stronger measures to detect AI-driven deepfakes. Reuters, 11 jul. 2025a. Disponível em: https://www.reuters.com/business/un-report-urges-stronger-measures-detect-ai-driven-deepfakes-2025-07-11/. Acesso em: 3 jan. 2026.
REUTERS. Poland urges Brussels to probe TikTok over AI-generated content. Reuters, 30 dez. 2025b. Disponível em: https://www.reuters.com/world/china/poland-urges-brussels-probe-tiktok-over-ai-generated-content-2025-12-30/. Acesso em: 3 jan. 2026.
UNESCO; UNITED NATIONS DEVELOPMENT PROGRAMME. Freedom of expression, artificial intelligence and elections. Paris: UNESCO; UNDP, 2025. Disponível em: https://unesdoc.unesco.org/ark%3A/48223/pf0000393473_ara. Acesso em: 3 jan. 2026.