Se soberania algorítmica é capacidade, então o debate brasileiro precisa sair do terreno do “manifesto” e entrar no terreno do planejamento estratégico: quais futuros são plausíveis, quais riscos são sistêmicos e quais decisões precisam ser tomadas agora para que o Brasil não apenas “use IA”, mas governe a IA — com autonomia tecnológica, segurança nacional e integridade democrática como critérios de desempenho.
1) Por que encerrar a série com cenários (e não com slogans)
Em ciência política e em estudos estratégicos, cenários não são futurologia; são instrumentos de decisão sob incerteza. Eles organizam variáveis críticas, mapeiam dependências e expõem “pontos sem retorno” em políticas públicas. No caso da IA, essa abordagem é indispensável porque o sistema global está atravessado por:
- incerteza tecnológica (capacidade e custo de modelos, segurança e vulnerabilidades);
- incerteza regulatória (padrões conflitantes e corrida por governança);
- incerteza geopolítica (fragmentação em blocos e controle de cadeias críticas);
- incerteza social (captura algorítmica, confiança pública e crises de legitimidade).
Ao longo da série, nós vimos que o “poder” migrou para infraestrutura, dados e algoritmos. Agora, a pergunta final é: qual arquitetura de futuro o Brasil quer habitar — e qual é o custo de adiar escolhas?
2) As duas grandes incertezas que reorganizam o mundo (e o lugar do Brasil)
Para fechar esta série com rigor, eu proponho duas incertezas-mãe (as que mais “movem” o sistema). Elas não esgotam tudo, mas explicam quase todo o tabuleiro.
2.1 Fragmentação geopolítica vs. governança mínima compartilhada
O mundo caminha para balkanização (padrões e infraestruturas incompatíveis, cadeias “amigas”, barreiras de exportação) ou consegue construir um núcleo mínimo de princípios e mecanismos? Documentos recentes mostram a disputa: de um lado, esforços de convergência (OCDE, ONU) e, de outro, divergências políticas sobre regulação e segurança (OECD, 2019; UNITED NATIONS, 2023).
2.2 Democracia robusta vs. tecnopolítica opaca (captura algorítmica)
A segunda incerteza é interna: a governança da IA reforça devido processo, transparência e contestabilidade — ou normaliza opacidade, vigilância e manipulação? A UNESCO chama atenção para o vínculo entre IA e condições democráticas de funcionamento (UNESCO, 2024).
Essas duas forças geram um “mapa” de futuros possíveis. E é aí que entram cenários.
3) Três cenários plausíveis para 2026–2032 (e o que cada um cobra do Brasil)
Cenário A — “Balkanização Algorítmica”: blocos tecnológicos e dependência cara
Premissa: cadeias de chips, nuvem e modelos se fecham em blocos; export controls e restrições normativas se intensificam. Iniciativas voluntárias de segurança e códigos internacionais existem, mas não criam interoperabilidade real (G7, 2023; UNITED KINGDOM, 2023).
Efeito sobre o Brasil:
- custo de infraestrutura sobe (compute vira ativo geopolítico);
- lock-in tecnológico aumenta;
- o Estado compra mais “caixa-preta” por pressão de curto prazo;
- soberania vira slogan, mas dependência vira contrato.
Resposta estratégica exigida:
- política de multinuvem e portabilidade como regra de Estado;
- infraestrutura e dados como política nacional (IND) (BRASIL, 2024).
- contratações públicas com cláusulas duras anti-lock-in (BRASIL, 2021).
Cenário B — “Governança mínima viável”: padrões de risco e auditoria ganham tração
Premissa: o mundo não vira “um só”, mas constrói padrões pragmáticos para risco, transparência e segurança — não por altruísmo, mas por necessidade sistêmica (incidentes, pressão social, custos jurídicos). Aqui entram marcos como princípios OCDE e frameworks de risco (NIST AI RMF), além de padrões de gestão (ISO/IEC 42001) (OECD, 2019; NIST, 2023; ISO, 2023).
Efeito sobre o Brasil:
- abre-se espaço para o país “subir de nível” institucionalmente;
- compras públicas podem exigir auditoria e gestão de risco como critério técnico;
- cooperação internacional vira vantagem (não submissão).
Resposta estratégica exigida:
- institucionalizar gestão de risco e governança no Estado (inspirada em NIST/ISO);
- transformar LGPD/ANPD em eixo operacional, não apenas jurídico (BRASIL, 2018; ANPD, s.d.).
- avançar marco legal de IA com foco em risco e alto impacto (PL 2.338/2023).
Cenário C — “Oligarquia de Plataformas”: Estados terceirizam a soberania por conveniência
Premissa: a política não “enfrenta” a arquitetura das plataformas; regulações ficam fragmentadas; e a esfera pública passa a ser governada por termos privados, com IA amplificando persuasão e automação.
Efeito sobre o Brasil:
- Estado se torna dependente de infraestruturas externas para serviços críticos;
- democracia sofre erosão por assimetria informacional e crise de confiança;
- capacidade estatal vira “integração de APIs”, não governança.
Resposta estratégica exigida:
- soberania algorítmica via capacidade interna (quadros, auditoria, arquitetura de dados);
- IND e Governo Digital como política de Estado (BRASIL, 2024);
- investimento consistente (PBIA) para P&D, infraestrutura e aplicação socialmente orientada (BRASIL, 2025).
4) A agenda de ação: o que fazer agora, o que fazer em seguida, e o que sustenta tudo
Abaixo, eu consolido uma agenda em camadas. Não é “lista de desejos”; é uma arquitetura de capacidade.
4.1 Horizonte imediato (0–6 meses): parar o sangramento do lock-in
- Guia nacional de contratações de IA por risco (alto impacto vs. baixo impacto), com requisitos mínimos de auditabilidade, logs, portabilidade e governança de dados — ancorado na Lei 14.133 (BRASIL, 2021).
- Checklist LGPD/ANPD para IA pública, para impedir que “modernização” vire desproteção (BRASIL, 2018; ANPD, s.d.).
- Política anti-caixa-preta: nenhum sistema de alto impacto sem documentação técnica (model cards/datasheets) e trilha de decisão.
4.2 Curto prazo (6–18 meses): transformar governança em rotina do Estado
- Unidades de Auditoria Algorítmica em órgãos críticos (saúde, educação, assistência, justiça, segurança), com capacidade de avaliação e resposta a incidentes.
- IND como infraestrutura operacional (interoperabilidade, qualidade e governança federativa), conectando dados para políticas públicas (BRASIL, 2024).
- Padrão de gestão de IA no setor público, compatível com frameworks de risco (NIST AI RMF) e sistemas de gestão (ISO/IEC 42001) (NIST, 2023; ISO, 2023).
4.3 Médio prazo (18–36 meses): soberania como infraestrutura e não como retórica
- Compute público/consorciado para áreas críticas (não como monopólio estatal, mas como capacidade estratégica), com arquitetura multinuvem e critérios de soberania.
- Ecossistema de modelos em português com governança, alinhado ao PBIA, com benchmarks, avaliações de viés e segurança (BRASIL, 2025).
- Marco legal de IA concluído e implementável, com foco em alto impacto e responsabilização (PL 2.338/2023).
4.4 O “fundamento invisível”: formação de Estado e cultura institucional
Nada disso se sustenta sem gente. Soberania algorítmica exige uma burocracia capaz de:
- especificar requisitos (técnicos e jurídicos);
- auditar modelos e dados;
- administrar risco;
- e proteger direitos.
Sem capacidade humana, o Brasil vira consumidor sofisticado — mas continua dependente.
5) Métricas de soberania: como saber se o Brasil está avançando (ou apenas “digitalizando”)
Uma agenda acadêmica séria precisa de métricas verificáveis. Sugiro cinco indicadores estruturantes:
- Índice de Portabilidade e Reversibilidade: proporção de sistemas críticos com cláusulas anti-lock-in e possibilidade de migração.
- Cobertura de Auditoria: percentuais de sistemas de alto impacto com trilha de decisão, logs e avaliação periódica.
- Maturidade IND: interoperabilidade real entre bases e qualidade de dados para políticas públicas.
- Capacidade pública instalada: número de equipes e carreiras com competência em avaliação, risco e segurança de IA.
- Integridade democrática: protocolos e resposta institucional a campanhas de manipulação e incidentes informacionais (UNESCO, 2024; UNITED NATIONS, 2024).
Essas métricas fazem uma coisa importante: impedem que o país confunda “ter aplicativo” com “ter soberania”.
Conclusão: o futuro não é inevitável — ele é contratado, regulado e administrado
Encerrar esta série é, paradoxalmente, abrir o problema na sua forma mais concreta. Porque, no fim, soberania algorítmica não é uma tese abstrata; é um conjunto de decisões acumuladas: como o Estado compra, como governa dados, como exige auditoria, como protege direitos, como estrutura infraestrutura e como constrói competência interna.
O Brasil pode seguir dois caminhos. O caminho fácil é o da modernização por terceirização: soluções prontas, pouca transparência, dependência confortável — até o dia em que um incidente, uma crise democrática ou um choque geopolítico mostra o preço real dessa comodidade. O caminho difícil é o da capacidade: infraestrutura, governança, normas, pessoas, métricas e um Estado que sabe o que está fazendo quando incorpora IA.
E aqui fica o “gosto de quero mais”: se esta série foi o mapa, o próximo passo — inevitável — é o manual de execução. Porque o debate agora pede desdobramentos práticos: modelos de edital, requisitos técnicos, matrizes de risco, governança federativa, padrões de auditoria e um roteiro de implementação para setores como educação, saúde e segurança pública. Assim que essa próxima sequência estiver pronta, ela será publicada no Brasil Esfera Pública e o link será inserido logo abaixo para você continuar: [INSERIR LINK AQUI].
Referências
AGÊNCIA NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Competências. Brasília, DF: ANPD, s.d. Disponível em: https://www.gov.br/anpd/pt-br/acesso-a-informacao/institucional/competencias. Acesso em: 9 jan. 2026.
BRASIL. Presidência da República. Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais). Brasília, DF: Planalto, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 9 jan. 2026.
BRASIL. Presidência da República. Lei nº 14.133, de 1º de abril de 2021 (Lei de Licitações e Contratos Administrativos). Brasília, DF: Planalto, 2021. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2019-2022/2021/lei/l14133.htm. Acesso em: 9 jan. 2026.
BRASIL. Presidência da República. Decreto nº 12.198, de 24 de setembro de 2024. Institui a Estratégia Federal de Governo Digital 2024–2027 e a Infraestrutura Nacional de Dados. Brasília, DF: Planalto, 2024. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2024/decreto/d12198.htm. Acesso em: 9 jan. 2026.
BRASIL. Ministério da Gestão e da Inovação em Serviços Públicos. Estratégia Federal de Governo Digital (2024–2027) — EFGD. Brasília, DF: Governo Digital, s.d. Disponível em: https://www.gov.br/governodigital/pt-br/estrategias-e-governanca-digital/EFGD. Acesso em: 9 jan. 2026.
BRASIL. Ministério da Ciência, Tecnologia e Inovação. Plano Brasileiro de Inteligência Artificial (PBIA) 2024–2028: IA para o bem de todos. Brasília, DF: MCTI, 2025. Disponível em: (PDF) https://www.gov.br/mcti/pt-br/centrais-de-conteudo/publicacoes-mcti/plano-brasileiro-de-inteligencia-artificial/pbia_mcti_2025.pdf. Acesso em: 9 jan. 2026.
BRASIL. Senado Federal. Projeto de Lei nº 2.338, de 2023 — Dispõe sobre o uso da Inteligência Artificial. Brasília, DF: Senado, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 9 jan. 2026.
G7. Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems. 2023. Disponível em: https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-code-conduct-advanced-ai-systems. Acesso em: 9 jan. 2026.
INTERNATIONAL ORGANIZATION FOR STANDARDIZATION (ISO). ISO/IEC 42001:2023 — Information technology — Artificial intelligence — Management system. Genebra: ISO, 2023. Disponível em: https://www.iso.org/standard/42001. Acesso em: 9 jan. 2026.
NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY (NIST). Artificial Intelligence Risk Management Framework (AI RMF 1.0). Gaithersburg: NIST, 2023. Disponível em: https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf. Acesso em: 9 jan. 2026.
ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449). Paris: OECD, 2019. Disponível em: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449. Acesso em: 9 jan. 2026.
UNITED KINGDOM. Government. The Bletchley Declaration by Countries Attending the AI Safety Summit (1–2 November 2023). Londres: Gov.uk, 2023. Disponível em: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023. Acesso em: 9 jan. 2026.
UNITED NATIONS. Governing AI for Humanity: Interim Report. New York: UN AI Advisory Body, 2023. Disponível em: https://www.un.org/sites/un2.un.org/files/un_ai_advisory_body_governing_ai_for_humanity_interim_report.pdf. Acesso em: 9 jan. 2026.
UNITED NATIONS. General Assembly. A/78/L.49 — Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development. New York: United Nations, 2024. Disponível em: https://docs.un.org/en/A/78/L.49. Acesso em: 9 jan. 2026.
UNESCO. Artificial intelligence and democracy. Paris: UNESCO, 2024. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000389736. Acesso em: 9 jan. 2026.
Nenhum comentário:
Postar um comentário