Mostrando postagens com marcador guerra informacional. Mostrar todas as postagens
Mostrando postagens com marcador guerra informacional. Mostrar todas as postagens

sábado, 3 de janeiro de 2026

Soberania na Era da IA — Parte 4: Guerra informacional e segurança: quando a democracia vira campo de teste e o cidadão vira alvo estatístico

 



A guerra que não declara guerra



Tem um tipo de guerra que não precisa de tanque, não precisa de sirene e não precisa de ocupação territorial. Ela começa antes, entra pela tela, e trabalha onde o Estado é mais vulnerável: na confiança coletiva. É a guerra informacional — e a inteligência artificial não criou esse fenômeno, mas deu a ele uma coisa decisiva: escala industrial.


O que antes exigia “exércitos” de perfis falsos, redações clandestinas e operações artesanais, hoje pode ser automatizado com geração de texto, imagem, áudio e vídeo. O alvo também mudou: em vez de convencer “o mundo”, a lógica agora é quebrar a sociedade em pedaços, empurrar cada grupo para sua bolha, e tornar impossível o acordo mínimo sobre fatos e regras.


E quando isso acontece, a soberania vira um problema íntimo: não é só sobre fronteira, é sobre integridade do espaço público, confiança eleitoral, capacidade de governar e resiliência cognitiva.





1) Guerra informacional não é “fake news”: é operação de influência



A expressão “fake news” virou um rótulo pobre para um fenômeno mais sofisticado. Operações de influência combinam:


  • conteúdo (verdades parciais, mentiras, montagens, distorções);
  • distribuição (algoritmos de recomendação e impulsionamento);
  • segmentação (microdirecionamento por perfil e vulnerabilidade);
  • persistência (campanhas contínuas, não eventos isolados).



Quando a IA entra nesse circuito, ela permite produção contínua e personalizada: você não fabrica “um boato”, você fabrica mil versões do mesmo boato — cada uma calibrada para um público específico.


É por isso que organismos internacionais estão tratando “integridade informacional” como infraestrutura democrática, e não como tema moralizante. Um relatório recente do PNUD sobre integridade informacional em eleições enfatiza que a IA generativa (incluindo deepfakes) complica o cenário e exige respostas coordenadas, sobretudo após o “super ano eleitoral” de 2024 (PNUD, 2025). 





2) Deepfakes e “realidade sob demanda”: a arma perfeita para corroer confiança



Deepfakes não são perigosos apenas quando “enganam”. Eles são perigosos porque criam um ambiente em que ninguém acredita em nada. E isso é ouro para quem quer desorganizar a esfera pública: se tudo pode ser falso, então qualquer denúncia vira “armação”; qualquer prova vira “montagem”; qualquer jornalismo vira “narrativa”.


A União Internacional de Telecomunicações (UIT/ITU) vem discutindo padrões de autenticidade multimídia, watermarking e proveniência como resposta técnica ao problema — isto é, tentar devolver rastreabilidade ao conteúdo digital (ITU, 2024).  E, em 2025, a Reuters noticiou alerta da ONU/ITU para medidas mais fortes de detecção e verificação diante do risco de interferência eleitoral e erosão de confiança (REUTERS, 2025a). 


Aqui mora a mudança de época: a disputa não é mais “quem tem a verdade”; é “quem consegue fabricar plausibilidade mais rápido do que as instituições conseguem verificar”.





3) “Cognitive warfare”: a guerra pelo cérebro, não pelo território



A OTAN (NATO) tem trabalhado o conceito de cognitive warfare como um tipo de conflito que mira a racionalidade e a tomada de decisão, explorando vulnerabilidades cognitivas e sociais — e que envolve alvos não militares, como população e infraestrutura social (NATO, s.d.). 


No debate acadêmico, essa noção aparece como um campo emergente que articula tecnologia e exploração da cognição para modificar, perturbar ou direcionar decisões humanas (DEPPE, 2024). 


Traduzindo para o chão da política: quando o objetivo é desorganizar percepção, você não precisa “provar” nada; basta induzir dúvida, medo, raiva e cinismo. E a IA ajuda a fazer isso em três velocidades:


  1. velocidade de produção (conteúdo infinito);
  2. velocidade de distribuição (recomendação + segmentação);
  3. velocidade de adaptação (A/B test de emoção, linguagem, estética).






4) Plataformas como “infraestrutura de segurança” (sem terem sido eleitas para isso)



Aqui o Estado moderno enfrenta um dilema: plataformas digitais viraram parte da infraestrutura do debate público, mas não foram concebidas como instituições democráticas. Elas otimizam atenção, não verdade; engajamento, não cidadania.


A União Europeia tenta endereçar isso com o Digital Services Act (DSA), que busca impor obrigações proporcionais a riscos e responsabilidades, especialmente para plataformas muito grandes (COMISSÃO EUROPEIA, 2025).  Em 2025, a Comissão também endossou a integração do Code of Practice on Disinformation ao DSA, sinalizando a tentativa de transformar compromissos voluntários em engrenagens mais vinculantes de mitigação de risco (COMISSÃO EUROPEIA, 2025). 


E o tema não é abstrato: no fim de 2025, a Polônia pediu à Comissão Europeia que investigasse o TikTok após a circulação de conteúdo gerado por IA com teor anti-UE, associado a padrões de desinformação russa, alegando riscos à integridade democrática e obrigações do DSA (REUTERS, 2025b). 


O que isso mostra? Que, goste-se ou não, moderação, transparência algorítmica e acesso a dados para pesquisa estão virando peças de segurança democrática.





5) Segurança “dura”: IA, ciberconflito e autonomia em sistemas críticos



Guerra informacional é a parte visível. Mas, no fundo, ela conversa com segurança “dura”: ciberataques, sabotagem, inteligência, operações psicológicas e, em certos contextos, autonomia em sistemas militares.


Nos EUA, a Diretiva 3000.09 (2023) estabelece política para autonomia em sistemas de armas e inclui diretrizes para minimizar probabilidade e consequências de falhas que levem a engajamentos não intencionais (ESTADOS UNIDOS, 2023).  O valor dessa referência aqui não é “militarismo”; é o sinal institucional: o Estado está formalizando governança do uso de autonomia em contextos críticos.


O ponto é simples: se o Estado se preocupa com “falhas e engajamentos não intencionais” em sistemas de armas, por que aceitaria caixas-pretas em escala em policiamento, assistência social, justiça, saúde, educação e eleições sem auditabilidade e sem due process? A soberania algorítmica deveria ter a mesma seriedade.





6) O que funciona como defesa? (Spoiler: não existe bala de prata)



A resposta realista é uma arquitetura de defesa em camadas, que mistura técnica, direito, instituições e cultura.



Camada técnica: autenticidade e proveniência



  • padrões de autenticação e metadados de origem;
  • watermarking e sinais de geração sintética;
  • infraestrutura para checagem e validação distribuída (ITU, 2024; REUTERS, 2025a).  




Camada institucional: integridade eleitoral e resposta rápida



  • protocolos de crise para deepfakes em eleições;
  • coordenação entre justiça eleitoral, plataformas e imprensa;
  • transparência de anúncios e rotulagem (PNUD, 2025; UNESCO; PNUD, 2025).  




Camada regulatória: dever de mitigação de risco



  • obrigações proporcionais para plataformas e sistemas de alto impacto;
  • auditorias e acesso para pesquisadores;
  • mecanismos de sanção e transparência (COMISSÃO EUROPEIA, 2025).  




Camada social: alfabetização midiática e resiliência



  • educação para leitura crítica e verificação;
  • redução de vulnerabilidades emocionais exploradas por campanhas;
  • cultura pública de “freio cognitivo”: pausar, verificar, comparar fontes.






7) E o Brasil? Segurança democrática é soberania



O Brasil entra aqui com uma vantagem e um risco.


A vantagem: tem instituições eleitorais e jurídicas com experiência em crise informacional, e tem uma sociedade civil que aprendeu a desconfiar do “viral”. O risco: a infraestrutura de plataformas e parte do ecossistema de IA seguem altamente dependentes e opacos. Isso significa que uma parcela do nosso espaço público roda em sistemas cujo critério de priorização não é o interesse público.


Se soberania algorítmica significa capacidade de governar a própria vida digital, então guerra informacional é o teste mais cruel: quando a pressão sobe, só fica de pé quem tem instituições, métodos e infraestrutura de integridade. O resto vira plateia do próprio colapso.





Fecho: a democracia não cai de uma vez — ela é corroída



O risco central da guerra informacional não é “um vídeo falso”. É uma cultura de descrença em que a verdade vira opinião, e a opinião vira arma. A IA acelera esse processo porque automatiza persuasão e industrializa plausibilidade.


Na Parte 5, eu vou entrar no núcleo político dessa corrosão: Democracia sob regime algorítmico — microdirecionamento, captura de atenção, polarização, e o que muda quando o debate público é mediado por sistemas que não prestam contas ao cidadão.


Assim que a próxima sequência estiver pronta, eu vou publicá-la e deixar o link logo abaixo para você seguir direto para a continuação: [https://brasilesferapublica.blogspot.com/2026/01/soberania-na-era-da-ia-parte-5.html?m=1].





Referências (ABNT)



COMISSÃO EUROPEIA. The Digital Services Act. Bruxelas: European Commission, 2025. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/digital-services-act. Acesso em: 3 jan. 2026.


COMISSÃO EUROPEIA. Commission endorses the integration of the voluntary Code of Practice on Disinformation into the Digital Services Act. Bruxelas: European Commission, 12 fev. 2025. Disponível em: https://ec.europa.eu/commission/presscorner/detail/en/ip_25_505. Acesso em: 3 jan. 2026.


DEPPE, C. Cognitive warfare: a conceptual analysis of the NATO ACT concept. [Artigo em repositório PMC], 2024. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC11565700/. Acesso em: 3 jan. 2026.


ESTADOS UNIDOS. Department of Defense. DoD Directive 3000.09: Autonomy in Weapon Systems. Washington, DC: DoD, 25 jan. 2023. Disponível em: https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf. Acesso em: 3 jan. 2026.


ESTADOS UNIDOS. Department of Defense. DoD Announces Update to DoD Directive 3000.09, “Autonomy in Weapon Systems”. Washington, DC: DoD, 25 jan. 2023. Disponível em: https://www.war.gov/News/Releases/Release/Article/3278076/dod-announces-update-to-dod-directive-300009-autonomy-in-weapon-systems/. Acesso em: 3 jan. 2026.


INTERNATIONAL TELECOMMUNICATION UNION. Detecting deepfakes and generative AI: Report on standards for AI watermarking and multimedia authenticity workshop. Genebra: ITU, 2024. Disponível em: https://www.itu.int/hub/publication/t-ai4g-ai4good-2024-7/. Acesso em: 3 jan. 2026.


NATO. Cognitive warfare. Norfolk: Allied Command Transformation, s.d. Disponível em: https://www.act.nato.int/activities/cognitive-warfare/. Acesso em: 3 jan. 2026.


PNUD. Strengthening information integrity in elections: Insights from the 2025 Action Coalition Strategic Dialogue. Nova York: United Nations Development Programme, 2025. Disponível em: https://www.undp.org/sites/g/files/zskgke326/files/2025-12/undp-strengthening-information-integrity-in-elections.pdf. Acesso em: 3 jan. 2026.


REUTERS. UN report urges stronger measures to detect AI-driven deepfakes. Reuters, 11 jul. 2025a. Disponível em: https://www.reuters.com/business/un-report-urges-stronger-measures-detect-ai-driven-deepfakes-2025-07-11/. Acesso em: 3 jan. 2026.


REUTERS. Poland urges Brussels to probe TikTok over AI-generated content. Reuters, 30 dez. 2025b. Disponível em: https://www.reuters.com/world/china/poland-urges-brussels-probe-tiktok-over-ai-generated-content-2025-12-30/. Acesso em: 3 jan. 2026.


UNESCO; UNITED NATIONS DEVELOPMENT PROGRAMME. Freedom of expression, artificial intelligence and elections. Paris: UNESCO; UNDP, 2025. Disponível em: https://unesdoc.unesco.org/ark%3A/48223/pf0000393473_ara. Acesso em: 3 jan. 2026.