sexta-feira, 9 de janeiro de 2026

Soberania na Era da IA — Parte 7: Cenários e agenda de ação: do diagnóstico geopolítico à capacidade estatal, com a democracia como métrica de sucesso

 Se soberania algorítmica é capacidade, então o debate brasileiro precisa sair do terreno do “manifesto” e entrar no terreno do planejamento estratégico: quais futuros são plausíveis, quais riscos são sistêmicos e quais decisões precisam ser tomadas agora para que o Brasil não apenas “use IA”, mas governe a IA — com autonomia tecnológica, segurança nacional e integridade democrática como critérios de desempenho.



1) Por que encerrar a série com cenários (e não com slogans)



Em ciência política e em estudos estratégicos, cenários não são futurologia; são instrumentos de decisão sob incerteza. Eles organizam variáveis críticas, mapeiam dependências e expõem “pontos sem retorno” em políticas públicas. No caso da IA, essa abordagem é indispensável porque o sistema global está atravessado por:


  • incerteza tecnológica (capacidade e custo de modelos, segurança e vulnerabilidades);
  • incerteza regulatória (padrões conflitantes e corrida por governança);
  • incerteza geopolítica (fragmentação em blocos e controle de cadeias críticas);
  • incerteza social (captura algorítmica, confiança pública e crises de legitimidade).



Ao longo da série, nós vimos que o “poder” migrou para infraestrutura, dados e algoritmos. Agora, a pergunta final é: qual arquitetura de futuro o Brasil quer habitar — e qual é o custo de adiar escolhas?





2) As duas grandes incertezas que reorganizam o mundo (e o lugar do Brasil)



Para fechar esta série com rigor, eu proponho duas incertezas-mãe (as que mais “movem” o sistema). Elas não esgotam tudo, mas explicam quase todo o tabuleiro.



2.1 Fragmentação geopolítica vs. governança mínima compartilhada



O mundo caminha para balkanização (padrões e infraestruturas incompatíveis, cadeias “amigas”, barreiras de exportação) ou consegue construir um núcleo mínimo de princípios e mecanismos? Documentos recentes mostram a disputa: de um lado, esforços de convergência (OCDE, ONU) e, de outro, divergências políticas sobre regulação e segurança (OECD, 2019; UNITED NATIONS, 2023). 



2.2 Democracia robusta vs. tecnopolítica opaca (captura algorítmica)



A segunda incerteza é interna: a governança da IA reforça devido processo, transparência e contestabilidade — ou normaliza opacidade, vigilância e manipulação? A UNESCO chama atenção para o vínculo entre IA e condições democráticas de funcionamento (UNESCO, 2024). 


Essas duas forças geram um “mapa” de futuros possíveis. E é aí que entram cenários.





3) Três cenários plausíveis para 2026–2032 (e o que cada um cobra do Brasil)




Cenário A — “Balkanização Algorítmica”: blocos tecnológicos e dependência cara



Premissa: cadeias de chips, nuvem e modelos se fecham em blocos; export controls e restrições normativas se intensificam. Iniciativas voluntárias de segurança e códigos internacionais existem, mas não criam interoperabilidade real (G7, 2023; UNITED KINGDOM, 2023). 


Efeito sobre o Brasil:


  • custo de infraestrutura sobe (compute vira ativo geopolítico);
  • lock-in tecnológico aumenta;
  • o Estado compra mais “caixa-preta” por pressão de curto prazo;
  • soberania vira slogan, mas dependência vira contrato.



Resposta estratégica exigida:


  • política de multinuvem e portabilidade como regra de Estado;
  • infraestrutura e dados como política nacional (IND) (BRASIL, 2024).
  • contratações públicas com cláusulas duras anti-lock-in (BRASIL, 2021).






Cenário B — “Governança mínima viável”: padrões de risco e auditoria ganham tração



Premissa: o mundo não vira “um só”, mas constrói padrões pragmáticos para risco, transparência e segurança — não por altruísmo, mas por necessidade sistêmica (incidentes, pressão social, custos jurídicos). Aqui entram marcos como princípios OCDE e frameworks de risco (NIST AI RMF), além de padrões de gestão (ISO/IEC 42001) (OECD, 2019; NIST, 2023; ISO, 2023). 


Efeito sobre o Brasil:


  • abre-se espaço para o país “subir de nível” institucionalmente;
  • compras públicas podem exigir auditoria e gestão de risco como critério técnico;
  • cooperação internacional vira vantagem (não submissão).



Resposta estratégica exigida:


  • institucionalizar gestão de risco e governança no Estado (inspirada em NIST/ISO);  
  • transformar LGPD/ANPD em eixo operacional, não apenas jurídico (BRASIL, 2018; ANPD, s.d.).  
  • avançar marco legal de IA com foco em risco e alto impacto (PL 2.338/2023).  






Cenário C — “Oligarquia de Plataformas”: Estados terceirizam a soberania por conveniência



Premissa: a política não “enfrenta” a arquitetura das plataformas; regulações ficam fragmentadas; e a esfera pública passa a ser governada por termos privados, com IA amplificando persuasão e automação.


Efeito sobre o Brasil:


  • Estado se torna dependente de infraestruturas externas para serviços críticos;
  • democracia sofre erosão por assimetria informacional e crise de confiança;
  • capacidade estatal vira “integração de APIs”, não governança.



Resposta estratégica exigida:


  • soberania algorítmica via capacidade interna (quadros, auditoria, arquitetura de dados);
  • IND e Governo Digital como política de Estado (BRASIL, 2024);
  • investimento consistente (PBIA) para P&D, infraestrutura e aplicação socialmente orientada (BRASIL, 2025).  






4) A agenda de ação: o que fazer agora, o que fazer em seguida, e o que sustenta tudo



Abaixo, eu consolido uma agenda em camadas. Não é “lista de desejos”; é uma arquitetura de capacidade.



4.1 Horizonte imediato (0–6 meses): parar o sangramento do lock-in



  1. Guia nacional de contratações de IA por risco (alto impacto vs. baixo impacto), com requisitos mínimos de auditabilidade, logs, portabilidade e governança de dados — ancorado na Lei 14.133 (BRASIL, 2021).
  2. Checklist LGPD/ANPD para IA pública, para impedir que “modernização” vire desproteção (BRASIL, 2018; ANPD, s.d.).  
  3. Política anti-caixa-preta: nenhum sistema de alto impacto sem documentação técnica (model cards/datasheets) e trilha de decisão.




4.2 Curto prazo (6–18 meses): transformar governança em rotina do Estado



  1. Unidades de Auditoria Algorítmica em órgãos críticos (saúde, educação, assistência, justiça, segurança), com capacidade de avaliação e resposta a incidentes.
  2. IND como infraestrutura operacional (interoperabilidade, qualidade e governança federativa), conectando dados para políticas públicas (BRASIL, 2024).
  3. Padrão de gestão de IA no setor público, compatível com frameworks de risco (NIST AI RMF) e sistemas de gestão (ISO/IEC 42001) (NIST, 2023; ISO, 2023).  




4.3 Médio prazo (18–36 meses): soberania como infraestrutura e não como retórica



  1. Compute público/consorciado para áreas críticas (não como monopólio estatal, mas como capacidade estratégica), com arquitetura multinuvem e critérios de soberania.
  2. Ecossistema de modelos em português com governança, alinhado ao PBIA, com benchmarks, avaliações de viés e segurança (BRASIL, 2025).  
  3. Marco legal de IA concluído e implementável, com foco em alto impacto e responsabilização (PL 2.338/2023).  




4.4 O “fundamento invisível”: formação de Estado e cultura institucional



Nada disso se sustenta sem gente. Soberania algorítmica exige uma burocracia capaz de:


  • especificar requisitos (técnicos e jurídicos);
  • auditar modelos e dados;
  • administrar risco;
  • e proteger direitos.



Sem capacidade humana, o Brasil vira consumidor sofisticado — mas continua dependente.





5) Métricas de soberania: como saber se o Brasil está avançando (ou apenas “digitalizando”)



Uma agenda acadêmica séria precisa de métricas verificáveis. Sugiro cinco indicadores estruturantes:


  1. Índice de Portabilidade e Reversibilidade: proporção de sistemas críticos com cláusulas anti-lock-in e possibilidade de migração.
  2. Cobertura de Auditoria: percentuais de sistemas de alto impacto com trilha de decisão, logs e avaliação periódica.
  3. Maturidade IND: interoperabilidade real entre bases e qualidade de dados para políticas públicas.
  4. Capacidade pública instalada: número de equipes e carreiras com competência em avaliação, risco e segurança de IA.
  5. Integridade democrática: protocolos e resposta institucional a campanhas de manipulação e incidentes informacionais (UNESCO, 2024; UNITED NATIONS, 2024).  



Essas métricas fazem uma coisa importante: impedem que o país confunda “ter aplicativo” com “ter soberania”.





Conclusão: o futuro não é inevitável — ele é contratado, regulado e administrado



Encerrar esta série é, paradoxalmente, abrir o problema na sua forma mais concreta. Porque, no fim, soberania algorítmica não é uma tese abstrata; é um conjunto de decisões acumuladas: como o Estado compra, como governa dados, como exige auditoria, como protege direitos, como estrutura infraestrutura e como constrói competência interna.


O Brasil pode seguir dois caminhos. O caminho fácil é o da modernização por terceirização: soluções prontas, pouca transparência, dependência confortável — até o dia em que um incidente, uma crise democrática ou um choque geopolítico mostra o preço real dessa comodidade. O caminho difícil é o da capacidade: infraestrutura, governança, normas, pessoas, métricas e um Estado que sabe o que está fazendo quando incorpora IA.


E aqui fica o “gosto de quero mais”: se esta série foi o mapa, o próximo passo — inevitável — é o manual de execução. Porque o debate agora pede desdobramentos práticos: modelos de edital, requisitos técnicos, matrizes de risco, governança federativa, padrões de auditoria e um roteiro de implementação para setores como educação, saúde e segurança pública. Assim que essa próxima sequência estiver pronta, ela será publicada no Brasil Esfera Pública e o link será inserido logo abaixo para você continuar: [INSERIR LINK AQUI].





Referências



AGÊNCIA NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Competências. Brasília, DF: ANPD, s.d. Disponível em: https://www.gov.br/anpd/pt-br/acesso-a-informacao/institucional/competencias. Acesso em: 9 jan. 2026. 


BRASIL. Presidência da República. Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais). Brasília, DF: Planalto, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 9 jan. 2026. 


BRASIL. Presidência da República. Lei nº 14.133, de 1º de abril de 2021 (Lei de Licitações e Contratos Administrativos). Brasília, DF: Planalto, 2021. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2019-2022/2021/lei/l14133.htm. Acesso em: 9 jan. 2026.


BRASIL. Presidência da República. Decreto nº 12.198, de 24 de setembro de 2024. Institui a Estratégia Federal de Governo Digital 2024–2027 e a Infraestrutura Nacional de Dados. Brasília, DF: Planalto, 2024. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2024/decreto/d12198.htm. Acesso em: 9 jan. 2026.


BRASIL. Ministério da Gestão e da Inovação em Serviços Públicos. Estratégia Federal de Governo Digital (2024–2027) — EFGD. Brasília, DF: Governo Digital, s.d. Disponível em: https://www.gov.br/governodigital/pt-br/estrategias-e-governanca-digital/EFGD. Acesso em: 9 jan. 2026.


BRASIL. Ministério da Ciência, Tecnologia e Inovação. Plano Brasileiro de Inteligência Artificial (PBIA) 2024–2028: IA para o bem de todos. Brasília, DF: MCTI, 2025. Disponível em: (PDF) https://www.gov.br/mcti/pt-br/centrais-de-conteudo/publicacoes-mcti/plano-brasileiro-de-inteligencia-artificial/pbia_mcti_2025.pdf. Acesso em: 9 jan. 2026. 


BRASIL. Senado Federal. Projeto de Lei nº 2.338, de 2023 — Dispõe sobre o uso da Inteligência Artificial. Brasília, DF: Senado, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 9 jan. 2026. 


G7. Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems. 2023. Disponível em: https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-code-conduct-advanced-ai-systems. Acesso em: 9 jan. 2026. 


INTERNATIONAL ORGANIZATION FOR STANDARDIZATION (ISO). ISO/IEC 42001:2023 — Information technology — Artificial intelligence — Management system. Genebra: ISO, 2023. Disponível em: https://www.iso.org/standard/42001. Acesso em: 9 jan. 2026. 


NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY (NIST). Artificial Intelligence Risk Management Framework (AI RMF 1.0). Gaithersburg: NIST, 2023. Disponível em: https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf. Acesso em: 9 jan. 2026. 


ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449). Paris: OECD, 2019. Disponível em: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449. Acesso em: 9 jan. 2026. 


UNITED KINGDOM. Government. The Bletchley Declaration by Countries Attending the AI Safety Summit (1–2 November 2023). Londres: Gov.uk, 2023. Disponível em: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023. Acesso em: 9 jan. 2026. 


UNITED NATIONS. Governing AI for Humanity: Interim Report. New York: UN AI Advisory Body, 2023. Disponível em: https://www.un.org/sites/un2.un.org/files/un_ai_advisory_body_governing_ai_for_humanity_interim_report.pdf. Acesso em: 9 jan. 2026. 


UNITED NATIONS. General Assembly. A/78/L.49 — Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development. New York: United Nations, 2024. Disponível em: https://docs.un.org/en/A/78/L.49. Acesso em: 9 jan. 2026. 


UNESCO. Artificial intelligence and democracy. Paris: UNESCO, 2024. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000389736. Acesso em: 9 jan. 2026. 


Nenhum comentário:

Postar um comentário