A pergunta que ninguém quer encarar: quem está escrevendo as regras do século?
Se a Parte 2 mostrou que a IA tem corpo — chips, energia, data centers — a Parte 3 precisa mostrar quem manda nesse corpo. Porque a disputa real não é só por “quem tem o modelo mais inteligente”. É por quem define padrões, quem controla gargalos e quem decide o que é aceitável quando algoritmos atravessam segurança, economia e democracia.
Hoje, três polos organizam a ordem global da IA de forma mais visível: Estados Unidos, China e União Europeia. Eles não são apenas “atores com estratégias diferentes”. Eles são três projetos de poder que tentam, cada um à sua maneira, comandar o novo tabuleiro — e empurram o mundo para uma tendência perigosa: fragmentação em blocos tecnológicos, com regras, infraestrutura e dependências incompatíveis entre si.
1) Estados Unidos: liderança por inovação, com segurança como pretexto e mercado como motor
O DNA do modelo americano
O modelo norte-americano nasce de um triângulo que se retroalimenta:
- Big Tech como infraestrutura (plataformas, nuvem, modelos, chips na ponta da aplicação);
- Estado como poder de segurança e financiamento (defesa, pesquisa, compras públicas);
- mercado como mecanismo de escala (capital, talento, concorrência, narrativa de liderança).
Na prática, os EUA operam como uma potência que transforma inovação em hegemonia: quando um padrão “vira americano”, o mundo inteiro passa a rodar naquele padrão — mesmo que discorde dele.
A inflexão de 2023: tentativa de governança federal
A Ordem Executiva 14110 (outubro de 2023) tentou dar um eixo federal para segurança e confiança em IA, incluindo diretrizes para testes, coordenação interagências e prioridades de política pública (ESTADOS UNIDOS, 2023). O texto se tornou uma espécie de “ponto de referência” porque reconhecia, formalmente, que IA poderia afetar infraestrutura crítica, segurança nacional e serviços essenciais.
Só que, na política real, governança não é só técnica: é disputa ideológica.
2025: revogação e guinada para “liderança sem barreiras”
Em 21 de janeiro de 2025, o governo Trump revogou a ordem de 2023, sob argumento de que ela criava barreiras à inovação (REUTERS, 2025a). Dois dias depois, uma nova ordem executiva determinou a criação de um AI Action Plan (prazo de 180 dias), explicitamente orientado a consolidar a liderança americana em IA, com foco em bem-estar, força econômica e segurança nacional — e com uma diretriz política: remover heranças regulatórias anteriores (REUTERS, 2025b; ESTADOS UNIDOS, 2025).
Repare na mensagem subliminar: o Estado americano quer liderar o mundo em IA mesmo quando discorda internamente sobre como reduzir riscos. O resultado é um paradoxo: potência forte, mas com oscilação regulatória que vira sinal para o resto do planeta.
Export controls: o “freio seletivo” imposto ao adversário
A política externa entra no coração da IA quando os EUA usam controles de exportação para limitar o acesso da China a computação avançada e equipamentos críticos. Em 2024, o Bureau of Industry and Security (BIS) publicou clarificações e ajustes para restringir acesso da China a itens de computação e supercomputação avançadas, além de equipamentos relevantes para manufatura (ESTADOS UNIDOS, 2024). E, em 2025, o Congressional Research Service consolidou o debate: há disputa interna sobre “apertar ou afrouxar” controles, justamente porque chips e IA já são tratados como ativos de segurança nacional (CONGRESSIONAL RESEARCH SERVICE, 2025).
Em termos diretos: a liderança americana opera com duas mãos. Uma mão acelera (mercado e escala). A outra impede o rival (controle de gargalos).
2) China: soberania informacional, coordenação estatal e governança de conteúdo
O coração do modelo chinês
A China não trata IA apenas como produtividade; trata como capacidade de Estado. Isso significa:
- coordenação industrial e planejamento;
- forte integração entre tecnologia e objetivos de governo;
- ênfase em controle informacional e estabilidade social;
- mecanismos regulatórios voltados a conteúdo, segurança e responsabilidade.
Não é um “julgamento moral”. É diagnóstico institucional.
Regras para IA generativa: inovação sob perímetro de controle
As “Interim Measures” para serviços de IA generativa, em vigor desde 15 de agosto de 2023, deixam claro o objetivo: promover desenvolvimento e aplicação padronizada, mas com obrigações relacionadas a governança, conformidade e requisitos de licenças quando aplicáveis (CHINA, 2023). Ou seja: inovação, sim — mas dentro de um perímetro político-jurídico.
E a China continua apertando o cerco em áreas sensíveis. Em dezembro de 2025, a Reuters noticiou que o regulador chinês propôs regras para sistemas de IA que simulam personalidade humana e interagem emocionalmente com usuários, incluindo exigências de monitoramento, mitigação de risco psicológico e controles de conteúdo (REUTERS, 2025c). O recado é inequívoco: a fronteira da governança chinesa não é só “o que o sistema faz”, mas “o que ele provoca nas pessoas”.
A diferença central: a prioridade é estabilidade e soberania, não “mercado primeiro”
Enquanto os EUA tendem a operar pela dinâmica empresa–mercado, a China opera pela lógica Estado–capacidade. Isso não significa “não ter empresas fortes”. Significa que, quando o Estado considera um tema estratégico, ele atua para:
- reduzir dependência externa,
- controlar efeitos sociais,
- direcionar setores,
- impor conformidade.
Nesse modelo, soberania algorítmica não é só autonomia técnica; é autonomia política sobre o ecossistema informacional.
3) União Europeia: poder normativo, regulação por risco e o “modelo direitos-first”
A UE não quer ser refém de big tech nem de potências militares
A União Europeia não disputa liderança por “ter as maiores empresas do planeta” no mesmo ritmo dos EUA, nem disputa controle político da informação como a China. A UE disputa por outra via: regra, padrão, certificação e direitos.
É a lógica do poder normativo: se você regula o mercado com peso econômico e coerência jurídica, o mundo inteiro precisa se adaptar para vender, operar e escalar.
O AI Act: o padrão que pretende atravessar fronteiras
O AI Act (Regulation (EU) 2024/1689) cria regras harmonizadas para desenvolvimento, colocação no mercado e uso de sistemas de IA, estruturadas por categorias de risco e com obrigações específicas para usos mais sensíveis (UNIÃO EUROPEIA, 2024). E, em 1º de agosto de 2024, a Comissão Europeia comunicou a entrada em vigor do AI Act como marco para desenvolvimento e implantação “responsáveis” (COMISSÃO EUROPEIA, 2024).
Mesmo sem entrar em tecnicalidades aqui, o ponto político é: a UE tenta constitucionalizar a IA pelo direito. Ela quer que IA opere sob uma gramática de:
- risco,
- direitos fundamentais,
- segurança,
- transparência e obrigações.
O custo e o efeito colateral: inovação pode migrar, mas o padrão fica
Críticos dizem que a UE “engessa inovação”. A UE responde que “sem salvaguardas, o dano social e institucional é maior”. O fato é que o AI Act já nasceu com vocação extraterritorial: quem quiser operar no mercado europeu tende a internalizar requisitos. A depender do setor, isso vira filtro global.
E aqui está a tensão: o mundo começa a se organizar em ecossistemas com regras incompatíveis — e cada bloco tenta “exportar” a sua visão de poder.
4) Três modelos, uma disputa: o “sistema operacional” da ordem global
Vamos amarrar com uma metáfora simples (e cruel): o século XXI não está sendo disputado só por território; está sendo disputado por sistema operacional. Quem define o sistema operacional define:
- padrões técnicos,
- critérios de segurança,
- regras de interoperabilidade,
- limites para conteúdo,
- lógica de auditoria,
- e, sobretudo, quem responde quando dá errado.
- EUA tendem a privilegiar escala, mercado e vantagem competitiva, usando segurança nacional como eixo para controles seletivos (ESTADOS UNIDOS, 2023; ESTADOS UNIDOS, 2024; CONGRESSIONAL RESEARCH SERVICE, 2025).
- China tende a privilegiar coordenação estatal e soberania informacional, com governança de conteúdo e efeitos sociais explícitos (CHINA, 2023; REUTERS, 2025c).
- UE tende a privilegiar direitos e regulação por risco, usando mercado e norma como instrumento de poder (UNIÃO EUROPEIA, 2024; COMISSÃO EUROPEIA, 2024).
O efeito sistêmico disso é a fragmentação. E fragmentação, em tecnologia, significa duas coisas perigosas: aumento de custo e aumento de dependência.
5) Onde o Brasil entra nesse tabuleiro?
O Brasil não é “espectador neutro”. Ele é um país grande o suficiente para virar zona de disputa e, ao mesmo tempo, dependente o suficiente para virar zona de captura — especialmente se comprar soluções opacas como se fossem inevitáveis.
E aqui eu insisto: soberania algorítmica não é “ter uma lei” ou “ter um projeto”. É ter capacidade de:
- negociar contratos e requisitos técnicos,
- auditar sistemas,
- exigir governança de dados e logs,
- reduzir dependência em infraestrutura crítica,
- formar quadros técnicos no Estado,
- e escolher parcerias sem virar satélite tecnológico.
Se o Brasil não fizer isso, ele vai “aderir” a um sistema operacional externo por inércia: ou pela plataforma, ou pela nuvem, ou pelo chip, ou pelo modelo.
Fecho: o mundo está virando um arquipélago digital
A disputa EUA–China–UE já não é só um debate sobre “regulação” ou “inovação”. É uma disputa por quem comanda a infraestrutura do poder — e isso tende a transformar o planeta num arquipélago digital: ilhas regulatórias, ilhas tecnológicas, ilhas de segurança, com pontes cada vez mais caras e politicamente condicionadas.
Na Parte 4, eu vou entrar no ponto mais sensível do tabuleiro: IA, segurança e guerra informacional. Porque, quando a IA encontra ciberataques, desinformação automatizada e operações de influência, a democracia vira campo de teste — e o cidadão vira alvo estatístico.
Assim que a próxima sequência (Parte 4) estiver pronta, eu vou publicá-la e deixar o link logo abaixo para você seguir direto para a continuação: [https://brasilesferapublica.blogspot.com/2026/01/soberania-na-era-da-ia-parte-4-guerra.html?m=1].
Referências
CHINA. Cyberspace Administration of China; National Development and Reform Commission; Ministry of Education; et al. Interim Measures for the Management of Generative Artificial Intelligence Services. Beijing, 2023. (Tradução em inglês). Disponível em: https://www.airuniversity.af.edu/Portals/10/CASI/documents/Translations/2023-08-07%20ITOW%20Interim%20Measures%20for%20the%20Management%20of%20Generative%20Artificial%20Intelligence%20Services.pdf. Acesso em: 29 dez. 2025.
COMISSÃO EUROPEIA. AI Act enters into force. Brussels: European Commission, 1 ago. 2024. Disponível em: https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en. Acesso em: 29 dez. 2025.
CONGRESSIONAL RESEARCH SERVICE. U.S. Export Controls and China: Advanced Semiconductors (R48642). Washington, DC: CRS, 2025. Disponível em: https://www.congress.gov/crs-product/R48642. Acesso em: 29 dez. 2025.
ESTADOS UNIDOS. Federal Register. Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (Executive Order 14110). Washington, DC, 1 nov. 2023. Disponível em: https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence. Acesso em: 29 dez. 2025.
ESTADOS UNIDOS. Department of Commerce. Bureau of Industry and Security. Commerce releases clarifications of export control rules to restrict the PRC’s access to advanced computing and supercomputing items and semiconductor manufacturing equipment. Washington, DC, 4 abr. 2024. Disponível em: https://www.bis.gov/press-release/commerce-releases-clarifications-export-control-rules-restrict-prcs-access-advanced-computing. Acesso em: 29 dez. 2025.
ESTADOS UNIDOS. The White House. Removing Barriers to American Leadership in Artificial Intelligence. Washington, DC, 23 jan. 2025. Disponível em: https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/. Acesso em: 29 dez. 2025.
REUTERS. Trump revokes Biden executive order on addressing AI risks. Reuters, 21 jan. 2025a. Disponível em: https://www.reuters.com/technology/artificial-intelligence/trump-revokes-biden-executive-order-addressing-ai-risks-2025-01-21/. Acesso em: 29 dez. 2025.
REUTERS. Trump orders AI action plan and more work erasing Biden’s AI efforts. Reuters, 23 jan. 2025b. Disponível em: https://www.reuters.com/technology/artificial-intelligence/trump-orders-ai-action-plan-more-work-erasing-bidens-ai-efforts-2025-01-23/. Acesso em: 29 dez. 2025.
REUTERS. China issues draft rules to regulate AI with human-like interaction. Reuters, 27 dez. 2025c. Disponível em: https://www.reuters.com/world/asia-pacific/china-issues-drafts-rules-regulate-ai-with-human-like-interaction-2025-12-27/. Acesso em: 29 dez. 2025.
UNIÃO EUROPEIA. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, 12 jul. 2024. Disponível em: https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng. Acesso em: 29 dez. 2025.