A nova corrida pelo poder algorítmico
Como a inteligência artificial está reconfigurando soberania, guerra informacional e democracia no século XXI
Durante décadas, “soberania” foi uma palavra desenhada em mapas: fronteiras, mar territorial, espaço aéreo. Só que, de repente, a soberania ganhou uma outra geografia — feita de chips, nuvem, data centers, modelos e plataformas. E isso muda tudo. Porque, quando a infraestrutura que sustenta informação, segurança, serviços públicos e opinião pública está fora do seu alcance (ou dentro de caixas-pretas inalcançáveis), a soberania vira um slogan bonito, mas operacionalmente frágil.
A inteligência artificial deixou de ser um assunto de laboratório e passou a ser um assunto de Estado. Não por fetiche tecnológico, mas por realidade material: IA exige computação, energia, dados, talento e cadeias industriais altamente concentradas — e quem controla esses gargalos consegue impor padrões, condições, dependências e, em casos extremos, constrangimentos geopolíticos. É por isso que a União Europeia, ao colocar o AI Act em vigor, não está apenas “regulando empresas”: está exercendo poder normativo sobre o mercado global (UNIÃO EUROPEIA, 2024). É por isso que os Estados Unidos, ao editar uma ordem executiva para orientar segurança e governança da IA e depois revogá-la, revelam que a própria regulação virou parte do tabuleiro estratégico (ESTADOS UNIDOS, 2023; REUTERS, 2025). E é por isso que a China trata IA generativa com regras explícitas de controle, responsabilidade e segurança informacional (CHINA, 2023).
No Brasil, a pergunta inevitável é desconfortável: vamos ser apenas usuários — ou vamos construir capacidade real de decisão, auditoria e governança algorítmica? O debate legislativo sobre um marco legal de IA e iniciativas de modelos públicos em português mostram que esse tema já bateu na porta da política (BRASIL, 2023; BRASIL, 2025). A questão é se vamos responder com estratégia ou com improviso.
Introdução
A IA virou um “território estratégico” — só que invisível
Eu gosto de um ponto de partida simples: IA não é só software. IA é uma infraestrutura inteira de poder. Ela depende de uma cadeia concreta — e essa cadeia tem donos, gargalos e vulnerabilidades:
- semicondutores (chips): onde estão os estrangulamentos industriais e geopolíticos;
- computação em escala: data centers, GPUs, redes, nuvem;
- dados: volume, qualidade, governança, idioma e acesso;
- modelos: quem treina, quem ajusta, quem audita, quem define limites;
- plataformas: quem distribui, recomenda, hierarquiza e monetiza atenção.
Quando você olha para isso com calma, a conclusão assusta pela clareza: quem domina essa cadeia tem poder para definir as condições do jogo — preços, acesso, padrões técnicos, cláusulas contratuais, “compliance”, bloqueios, dependências de segurança e até assimetrias de decisão. É aqui que soberania deixa de ser retórica e vira capacidade institucional.
Três arquiteturas de poder: EUA, China e União Europeia
A disputa global por IA não é homogênea. Ela se organiza, grosso modo, em três arquiteturas que competem e se influenciam.
A União Europeia, ao formalizar uma regulação abrangente baseada em risco, sinaliza que a IA deve operar sob limites jurídicos e salvaguardas associadas a direitos e segurança — e, ao fazê-lo, exporta padrões para além de suas fronteiras (UNIÃO EUROPEIA, 2024). Esse é o “poder normativo” aplicado a um mercado transnacional.
Os Estados Unidos, por sua vez, oscilaram entre governança por diretrizes federais e disputas políticas internas sobre até onde ir na contenção de riscos. A Ordem Executiva 14110 buscou orientar um eixo de segurança e confiabilidade (ESTADOS UNIDOS, 2023), mas sua revogação posterior tornou evidente um fator crítico: a regulação também virou instrumento de estratégia, sensível a mudanças de coalizão e prioridades (REUTERS, 2025). Em geopolítica, instabilidade regulatória também é mensagem.
Já a China deixa explícita a lógica de soberania informacional: regras para serviços de IA generativa conectam inovação a obrigações e controles associados à segurança, governança de conteúdo e responsabilidade — com o Estado definindo o perímetro do aceitável (CHINA, 2023). O recado é: IA é produtividade, mas também é ordem social e segurança nacional.
Soberania algorítmica: o conceito que organiza o artigo
É aqui que entra o eixo central do texto: soberania algorítmica. Eu vou usar o termo de modo operacional, sem romantismo: soberania algorítmica é a capacidade de um país desenhar, desenvolver, auditar e governar sistemas algorítmicos críticos conforme seus marcos legais, valores democráticos e objetivos estratégicos. Não é apenas “ter dados”. Não é apenas “ter lei”. É ter capacidade.
Na prática, isso envolve pelo menos quatro dimensões:
- Capacidade técnica e institucional para desenvolver ou internalizar criticamente tecnologias essenciais (incluindo auditoria e testes).
- Infraestrutura e autonomia relativa em computação, armazenamento, conectividade e segurança.
- Governança de dados e modelos com transparência, rastreabilidade e responsabilização (accountability).
- Mecanismos democráticos de controle: direitos, devido processo, contestabilidade e supervisão pública.
Sem isso, o país pode até consumir IA — mas consome como quem compra um motor lacrado: funciona, mas ninguém sabe o que faz por dentro, nem quem responde quando falha.
Democracia e guerra informacional: a mesma arena, só que com novas armas
A parte mais sensível — e mais humana — é que a IA não reconfigura apenas Estado e mercado. Ela reconfigura o ambiente onde a democracia respira: a esfera pública. Se modelos e plataformas permitem segmentar mensagens, otimizar emoções e automatizar persuasão, então o debate público passa a ser atravessado por uma engenharia de atenção que altera o modo como confiança e legitimidade se formam.
Organizações multilaterais já tratam essa interseção como tema de governança democrática, alertando para riscos à integridade informacional, pluralismo e participação (UNESCO, 2024). Em termos diretos: democracia depende de uma infraestrutura invisível — confiança mínima, instituições previsíveis, algum consenso sobre fatos e regras do conflito. Quando esse “solo” é corroído por manipulação em escala, a democracia pode continuar de pé por um tempo, mas fica instável, como uma construção que parece firme até o dia em que cede.
O recorte brasileiro: dependência ou janela histórica?
No Brasil, esse debate já não é abstrato. Há uma discussão legislativa em torno de um marco regulatório para IA (BRASIL, 2023) e há iniciativas governamentais recentes voltadas a modelos e infraestrutura em português no setor público, explicitamente associadas à ideia de soberania digital (BRASIL, 2025). Isso pode significar duas coisas: ou entramos numa fase de estratégia, com critérios claros, compras públicas inteligentes e auditoria robusta; ou caímos numa fase de marketing tecnológico, em que o vocabulário da soberania encobre dependências ainda maiores.
E aqui fica a pergunta que vai guiar o artigo inteiro, sem atalhos: quem governará a nova corrida pelo poder algorítmico — sociedades democráticas, Estados capturados ou corporações sem voto?
Se você chegou até aqui, eu te convido a acompanhar a sequência deste artigo nas próximas publicações do Brasil Esfera Pública. A partir daqui, vamos descer um degrau por vez — da infraestrutura física da IA (chips, nuvem, energia e dados) às disputas geopolíticas entre EUA, China e União Europeia, e daí aos efeitos mais íntimos e perigosos sobre democracia, eleições e esfera pública. Não é uma discussão para “especialistas em tecnologia”: é uma discussão sobre poder, liberdade e futuro comum. Então, fica comigo nas próximas partes — porque, se a soberania do século XXI está sendo escrita em código e em contratos, a nossa leitura crítica precisa ser tão persistente quanto essa nova corrida pelo controle do mundo.
Assim que a próxima sequência estiver pronta, eu vou publicá-la e deixar o link logo abaixo, para você seguir direto para a continuação: https://brasilesferapublica.blogspot.com/2025/12/soberania-na-era-da-ia-parte-2.html?m=1
______
Nenhum comentário:
Postar um comentário