sábado, 28 de fevereiro de 2026

Inteligência Artificial como juiz invisível no Brasil

Quando um “sim” ou “não” cai na sua vida sem explicação — e você nem sabe a quem recorrer



Você tenta parcelar uma geladeira numa loja do bairro e ouve um “não aprovado”. Abre o app do banco e não aparece nada além de um limite baixo, travado. No dia seguinte, se candidata a uma vaga de auxiliar administrativo e recebe um e-mail automático: “perfil não aderente”. Na semana seguinte, é abordado na rua porque uma câmera “achou parecido”. Em cada cena, a sensação é a mesma: alguém decidiu algo importante sobre você — só que não tem balcão, não tem carimbo, não tem assinatura. Tem um sistema.


Introdução


A cena mais comum é simples e humilhante: o atendente vira a tela, dá aquele meio sorriso e diz “o sistema não aprovou”. A frase parece neutra, mas ela carrega um recado bem concreto: você foi julgado por uma regra que você não enxerga. E, pior, em geral você sai dali sem saber qual dado pesou contra você, qual critério foi aplicado, quem programou aquilo e como contestar.


Este artigo defende uma posição clara: o Brasil está aceitando, na prática, um “devido processo” de segunda categoria quando decisões automatizadas entram no cotidiano — especialmente em crédito, emprego, serviços públicos e segurança. A Constituição garante que ninguém será privado de liberdade ou bens sem devido processo legal e que contraditório e ampla defesa valem em processos judiciais e administrativos (Brasil, 1988). O problema é que, no varejo da vida real, decisões “feitas por máquina” muitas vezes passam como se não fossem decisão. Passam como “resultado”, “score”, “triagem”, “alerta”. E aí o direito de contestar vira um favor.


O objetivo aqui é bem pé no chão: mostrar como esse “juiz invisível” funciona no Brasil, com exemplos que cabem na rotina urbana, no trabalho, na escola, no posto de atendimento e na pequena empresa. A metodologia é jornalístico-analítica: revisão de fontes primárias normativas (Constituição, LGPD, atos do CNJ), documentos públicos e comunicados oficiais (Planalto, ANPD, INSS), além de materiais institucionais de sistemas que operam pontuação e triagem no mercado brasileiro, cruzados com casos e relatórios sobre vigilância e reconhecimento facial no país (Brasil, 1988; Brasil, 2018; CNJ, 2020; Serasa, 2025; ANPD, 2024; Instituto Igarapé, s.d.).


E já dá para adiantar a tese em português direto: o problema não é “ter IA”. O problema é ter decisão com impacto real sem explicação, sem contestação e sem responsabilidade identificável.


O “não” que não vem com motivo: crédito como sentença rápida


Começa pelo lugar mais comum: crédito. Não é “o mercado”. É o carnê da loja, o cartão de R$ 800, o limite do Pix parcelado, o financiamento do celular em 12 vezes. Quem vive isso não precisa de palestra sobre “modelos estatísticos”. Precisa de resposta simples: por que eu não passei?


No Brasil, a pontuação de crédito é parte do cotidiano. Um exemplo explícito é o Serasa Score, que descreve o cálculo com base em “pilares” e pesos — pagamentos, experiência no mercado, dívidas, busca por crédito, informações cadastrais e contratos, com percentuais associados a cada grupo (Serasa, 2025). Não é o único score do país, mas é um termômetro conhecido e usado como referência em várias jornadas de consumo. O ponto aqui não é demonizar a existência de pontuação. O ponto é outro: a pontuação vira uma espécie de sentença social sem direito de defesa em tempo real.


Imagine a rotina de uma mãe solo em Ceilândia ou no bairro de Fátima, em Fortaleza, que compra material escolar parcelado em fevereiro. Pagou atrasado duas vezes no ano passado porque o dinheiro do ônibus e da comida veio antes. O “histórico de pagamentos” pesa (Serasa, 2025). Até aí, dá para entender. Só que a vida real não é só isso: ela também foi fazer “busca por crédito” quando tentou um cartão melhor, e isso pode entrar como sinal (Serasa, 2025). Ou seja: tentar sair do aperto pode ser lido como indício de aperto. Você fica preso num paradoxo: precisa de fôlego para pagar em dia, mas pedir fôlego pode piorar seu retrato.


Agora coloca nessa história uma camada nova: o próprio ecossistema de dados. Há iniciativas de conexão de contas via Open Finance como forma de “refletir melhor” a situação financeira (Serasa, 2025). Isso pode ser útil para alguém que tem renda estável e pouco histórico formal. Só que a pergunta incômoda é: o que acontece quando a vida financeira “real” vira um feed para avaliação permanente? A pessoa deixa de ser alguém que paga conta e vira um perfil com padrão de transação. A decisão vira menos “análise do mês” e mais “vigilância do hábito”.


E aí aparece o traço do “juiz invisível”: o cidadão não recebe uma decisão com fundamentação. Recebe um número, um limite, um “não”. No máximo, recebe dicas genéricas do tipo “pague em dia, regularize dívidas”. Isso não é contraditório. Isso é autoajuda com verniz financeiro.


O detalhe jurídico é que o Brasil já tem, na LGPD, uma peça importante: o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado que afetem interesses, incluindo decisões para definir perfil de consumo e de crédito (Brasil, 2018). Esse dispositivo existe no papel. O que falta é ele virar prática simples, com canal fácil, prazo, justificativa e rastreabilidade. Sem isso, o direito vira frase bonita para advogado citar; não vira ferramenta para quem toma “não” no balcão.


Por que isso importa para o leitor? Porque, no Brasil, crédito pequeno é sobrevivência. Não é luxo. É botijão, remédio, conserto de moto, compra do mês. Quando uma máquina vira árbitro silencioso, o risco de injustiça fica concentrado justamente em quem tem menos margem de erro.


O funil do emprego: o currículo que nem chega em gente


Agora troca o cenário: emprego. Você termina o ensino médio, fez curso técnico, pegou experiência como atendente em farmácia, e tenta uma vaga numa rede grande. Não é entrevista com gestor. É cadastro numa plataforma, upload de PDF, testes, perguntas repetidas, e depois… silêncio.


No Brasil, plataformas de recrutamento e seleção são usadas por redes varejistas, operadores logísticos, empresas de atendimento, bancos, seguradoras. Uma parte delas trabalha com triagem automatizada para lidar com volume alto de candidaturas. Isso é dito de forma direta por empresas do setor: um ATS com IA pode “otimizar” triagem e tornar o processo “mais rápido e eficiente” (Gupy, 2022). Há também comunicação recente sobre “agentes de IA” organizando e analisando informações do currículo para acelerar etapas (Gupy, 2026). O discurso é claro: velocidade.


Velocidade, na prática, significa uma coisa: muita gente é descartada antes de alguém ler o currículo com calma. E isso pode ser perfeitamente racional do ponto de vista do RH sobrecarregado. Só que para o candidato — o cara de Duque de Caxias que pega trem lotado e depende daquele salário — o processo vira um “julgamento sem audiência”.


Um exemplo bem brasileiro: vaga de “auxiliar de estoque” numa rede de atacarejo. Requisito: ensino médio, disponibilidade de horário e “experiência desejável”. O candidato tem experiência em descarga, mas escreveu no currículo “ajudante geral” porque foi o nome do registro informal. A triagem automatizada procura palavras-chave, padrões, consistência de dados. O currículo pode cair numa zona cinza: não “bate” no filtro. Resultado: “perfil não aderente”. E pronto.


Aqui entra a mesma lógica: a decisão é real (você não vai trabalhar), mas o caminho para contestar é praticamente inexistente. Não tem “recurso” para dizer: “minha experiência é essa, só está escrita com outro termo”. Não tem “segunda instância”. O máximo que existe é “tente novamente em outras vagas”.


A crítica comum a essa preocupação é: “Mas triagem automatizada é necessária. Sem isso, ninguém contrata; o RH não dá conta”. Essa crítica tem um fundo de verdade. Só que ela erra o alvo. O debate sério não é “proibir filtro”. O debate é: quando um filtro decide destino, ele precisa ser explicável, auditável e contestável. Do contrário, vira um tribunal de portas fechadas.


A LGPD, de novo, tem relevância aqui porque fala em revisão de decisões automatizadas inclusive no perfil profissional (Brasil, 2018). Só que, no cotidiano do candidato, isso não aparece como direito efetivo. Aparece como “o sistema”.


E tem um efeito colateral bem perverso: a pessoa aprende a “escrever para robô”. Começa a encher currículo com palavras-chave, duplicar termos, ajustar frases para “passar no filtro”. Isso cria uma cultura de performar para algoritmo, não de mostrar competência real. É o oposto de mérito. É maquiagem textual.


Serviços públicos: quando o Estado vira atendente que aponta para a tela


O “juiz invisível” fica mais sério quando entra o Estado. Porque, aí, não é só consumo. É direito social, benefício, acesso a serviço essencial.


O INSS, por exemplo, divulgou testes de inteligência artificial no Meu INSS com objetivo de cruzar dados e identificar padrões para impedir uso de atestados falsos (INSS, 2024). Isso pode soar ótimo para quem está cansado de fraude. Só que a pergunta do cidadão honesto é simples: se o sistema me marcar como suspeito, o que acontece? Vou cair numa fila maior? Vou ter benefício negado? Vou precisar “provar inocência”? Em quanto tempo? Com qual canal?


A automação no combate a fraude pode ser necessária. Fraude existe. Mas existe também o risco de um desenho institucional ruim: a IA vira filtro que bloqueia gente correta junto com fraudador, e o correto é quem paga o custo do “erro aceitável”. Isso não é teoria abstrata. No Brasil, o custo do erro costuma cair no lado mais fraco: o trabalhador com dor, a pessoa com deficiência tentando BPC, o idoso que depende do benefício para remédio.


A Receita Federal tem, há anos, mecanismos de análise de dados e cruzamento de informações — e comunica operações dentro de uma lógica de “malha” e “análise de dados” (Receita Federal, 2025). De novo: faz sentido o fisco usar inteligência para identificar inconsistências. Só que o mesmo dilema se repete: quando o contribuinte é selecionado por um processo automatizado, qual é a transparência mínima sobre o critério de seleção? O cidadão recebe um auto de infração, uma intimação, um “caiu na malha”, mas raramente recebe algo como “o padrão que te trouxe aqui foi este”.


Nessa hora, a ideia de devido processo legal — que parece tema de aula de direito constitucional — vira coisa básica de vida. Porque devido processo, em linguagem comum, é: me diga do que estou sendo acusado e com base em quê, para que eu possa responder (Brasil, 1988). Quando a triagem é automatizada e opaca, a contestação vira “chute”.


E aí entra um ponto que quase ninguém discute no boteco, mas que decide tudo: a assimetria de capacidade. Uma microempresa de Goiânia que recebe uma notificação fiscal não tem time de ciência de dados. Um MEI de Salvador não vai auditar algoritmo. O resultado prático é uma justiça administrativa em que o Estado tem máquina e o cidadão tem formulário.


Por isso a tese do artigo é dura: sem transparência mínima e canais de revisão reais, automação no serviço público vira burocracia com motor. Troca o carimbo por um score. O peso, para quem está do lado de fora, é o mesmo — às vezes pior, porque não tem com quem falar.


Segurança pública e reconhecimento facial: quando “parecido” vira motivo de abordagem


Aqui o “juiz invisível” deixa de ser metáfora e vira risco físico. No Brasil, o uso de reconhecimento facial e biometria se espalhou em diferentes contextos. A própria ANPD publicou radar tecnológico sobre biometria e reconhecimento facial, discutindo aplicações e riscos no contexto brasileiro (ANPD, 2024). Há também registros e análises de expansão e pouca transparência sobre resultados e eficácia, como aponta o Instituto Igarapé ao observar que o acesso a informações sobre resultados e eficiência é escasso e que muitos relatos públicos se concentram na implementação, não no desempenho real (Instituto Igarapé, s.d.).


Agora traduz isso para uma cena que acontece: você está indo para o trabalho num centro urbano, passa por uma área com câmeras, o sistema gera um alerta. A polícia aborda. Você explica. Perde tempo. Perde o ônibus. Às vezes perde mais do que isso.


Casos de prisões injustas e discussões sobre viés racial e falsos positivos aparecem com frequência no debate público. Há relatos de crítica ao reconhecimento facial na Bahia, com menção a prisões e a casos de inocentes afetados (Geledés, 2023). Há também notícia de audiência em que foi citado índice de falsos positivos em abordagens por reconhecimento facial na casa de 9% a 10% em determinado contexto (Brasil de Fato, 2024). Não precisa ser especialista para entender a gravidade: se 1 em cada 10 alertas pode ser falso, o custo humano é enorme — e não é distribuído de forma igual na cidade. Ele tende a cair em quem já é alvo preferencial de suspeita.


E aqui entra o coração do problema: em segurança pública, “erro” não é só inconveniente. Erro é humilhação, constrangimento, às vezes violência. A pessoa abordada não tem como “recorrer” na hora. Não tem como pedir auditoria do sistema no meio da rua. Então, o que acontece? a máquina vira argumento de autoridade. O policial pode até agir com cautela, mas o alerta dá legitimidade: “o sistema apontou”.


A ANPD observa preocupações com falta de transparência sobre acertos e erros dessas tecnologias, inclusive em aplicações de segurança pública (ANPD, 2024). Isso conversa com o que a população já sente: você vira parte de uma estatística sem saber como entrou nela.


Se isso não é “fim do devido processo” na vida cotidiana, é o quê? É a substituição do motivo verificável por uma indicação automatizada. É o “parecido com” como gatilho de poder.


Escola e rotina urbana: biometria para presença, câmera para disciplina


Quem acha que isso é só banco e polícia esquece da escola e da vida de bairro. Em muitas redes e projetos, cresce o interesse em usar biometria para registro automático de frequência e gestão escolar. O debate aparece em análises sobre biometria no ambiente escolar e suas possíveis finalidades — combate à evasão, segurança e gestão (IDS, 2024). A questão é prática: o que acontece quando um aluno falta no registro porque o sistema falhou? Vai perder prova? Vai cair em “evasão”? Vai afetar benefício vinculado à frequência?


No Brasil, onde muita família depende de escola pública funcionando como eixo de cuidado e rotina, um erro de registro não é detalhe. Um adolescente que já vive com pressão de trabalho informal, ônibus ruim e casa apertada pode ser classificado como “desinteressado” por um dado errado. E dado errado, em política pública, vira punição sem conversa.


No cotidiano urbano, a mesma lógica aparece em condomínios com reconhecimento facial para entrada, academias de bairro que exigem biometria, eventos com catraca inteligente. Parece “comodidade”. Só que comodidade tem custo: concentração de dados biométricos, risco de vazamento e uso secundário, e, de novo, decisões que não passam por conversa humana.


A pergunta que ninguém faz quando está apressado é: se meu rosto vira chave, quem controla o cadeado? E se o cadeado errar?


“Mas IA reduz erro humano”: a crítica mais comum — e por que ela não fecha a conta


A defesa típica desse cenário é conhecida: “Humano erra, discrimina e é lento; IA padroniza, acelera e reduz injustiça”. Em algumas situações, isso pode ser verdade. Um sistema pode reduzir arbitrariedade de um atendente que “vai com a sua cara” e facilitar análise em massa. Um filtro pode impedir fraude e liberar recursos para quem precisa.


Só que essa defesa tem um problema lógico: ela troca um tipo de erro por outro. O erro humano costuma ser visível: dá para reclamar do gerente, registrar protocolo, identificar o responsável. O erro automatizado costuma ser difuso: ninguém se sente responsável. O atendente diz “foi o sistema”. O RH diz “foi a plataforma”. O órgão diz “foi a triagem”.


E quando ninguém é responsável, a correção vira exceção.


Além disso, “padronização” não é sinônimo de justiça. Se o padrão foi treinado com dados que refletem desigualdade histórica, a máquina aprende desigualdade como se fosse “normalidade”. A máquina não acorda racista ou classista por vontade própria, mas pode reproduzir o mundo como ele é — e o mundo brasileiro é desigual.


O que deveria ser exigido, então? Coisa concreta, sem palavra bonita:

  • Explicação mínima do motivo (não precisa revelar segredo industrial; precisa indicar fatores relevantes).
  • Canal real de revisão humana — não um formulário que cai no vazio.
  • Prazo de resposta e registro (protocolo que anda, não protocolo que dorme).
  • Auditoria e governança em sistemas de alto impacto.
  • Ônus da prova equilibrado: se o sistema bloqueou você, o sistema precisa justificar, não você “adivinhar”.


Isso não é invenção. A LGPD já prevê a possibilidade de revisão de decisões automatizadas (Brasil, 2018). O que falta é enforcement e desenho de processo para o cotidiano.


O Judiciário regulando IA: sinal de que o risco é reconhecido — mas ainda longe do balcão


No Poder Judiciário, há preocupação formal com ética, transparência e governança no uso de IA. O CNJ tem resolução sobre o tema, estabelecendo diretrizes para uso de IA no Judiciário (CNJ, 2020). Isso é importante porque reconhece que IA não é “só ferramenta neutra”; é ferramenta que mexe com direitos.


Só que isso ainda está longe da vida do trabalhador que teve o currículo barrado, da mulher que teve crédito negado, do idoso abordado por câmera. A maior parte das decisões automatizadas que moldam a vida cotidiana acontece fora do processo judicial — em triagens, perfis, pontuações, alertas.


O Brasil está montando regras no topo. A base continua no improviso.


O que muda quando o “juiz” não aparece: a cultura do medo de ser marcado


Um efeito silencioso desse “juiz invisível” é psicológico e social: as pessoas começam a agir com medo de “ser mal interpretadas” por sistemas.


  • O trabalhador evita pedir crédito, mesmo precisando, para não “sujar” a busca.
  • O candidato enche currículo de palavra-chave, mesmo que isso deturpe a história.
  • O microempreendedor muda operação para parecer “regular” aos olhos do sistema, não para ser de fato mais eficiente.
  • O jovem evita circular em certas áreas com câmera por medo de abordagem.


Isso cria uma cidadania estranha: a cidadania do comportamento “otimizado para máquina”. A pessoa vira usuária de um sistema de reputação invisível. Em vez de direitos, tem “pontuação”. Em vez de garantias, tem “probabilidade”.


E, no Brasil, probabilidade costuma cair do mesmo lado de sempre.


Fechamento


O país já tem Constituição garantindo devido processo (Brasil, 1988) e tem LGPD falando em revisão de decisões automatizadas (Brasil, 2018). O básico agora é parar de aceitar “foi o sistema” como resposta suficiente. Na próxima negativa — crédito, vaga, benefício — peça protocolo e peça revisão humana por escrito. Se isso parecer “exagero”, ótimo: é sinal de que a gente se acostumou rápido demais a ser julgado sem motivo.


Referências 


ANPD — Autoridade Nacional de Proteção de Dados. Radar Tecnológico nº 2: Biometria e Reconhecimento Facial. Brasília, DF: ANPD, 2024. Disponível em: (documento em domínio público no portal gov.br). Acesso em: 15 fev. 2026. 


BRASIL. Constituição (1988). Constituição da República Federativa do Brasil. Brasília, DF: Presidência da República, 1988. Disponível em: (texto oficial no portal Planalto). Acesso em: 15 fev. 2026. 


BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 2018. Disponível em: (texto oficial no portal Planalto). Acesso em: 15 fev. 2026. 


BRASIL DE FATO. Abordagens por reconhecimento facial têm 10% de falsos positivos, diz PM em audiência na Alerj. São Paulo: Brasil de Fato, 3 set. 2024. Disponível em: (site do veículo). Acesso em: 15 fev. 2026. 


CNJ — Conselho Nacional de Justiça. Resolução nº 332, de 25 de agosto de 2020. Dispõe sobre ética, transparência e governança na produção e no uso de Inteligência Artificial no Poder Judiciário. Brasília, DF: CNJ, 2020. Disponível em: (portal de atos do CNJ). Acesso em: 15 fev. 2026. 


GELEDÉS — Instituto da Mulher Negra. Com mais de mil prisões na BA, sistema de reconhecimento facial é criticado por racismo algorítmico; inocente ficou preso por 26 dias. São Paulo: Geledés, 2 set. 2023. Disponível em: (site da organização). Acesso em: 15 fev. 2026. 


GUPY. Triagem de currículos: confira dicas de como fazer uma boa triagem. São Paulo: Gupy, 8 fev. 2022. Disponível em: (blog institucional). Acesso em: 15 fev. 2026. 


GUPY. Agentes de IA da Gupy: como avaliam o seu currículo. São Paulo: Gupy, 30 jan. 2026. Disponível em: (blog institucional). Acesso em: 15 fev. 2026. 


IDS — Instituto de Defesa dos Consumidores e Dados (referência institucional sobre divulgação do Radar). ANPD lança 2ª edição de seu Radar Tecnológico: Biometria e Reconhecimento Facial. [S. l.]: IDS, 8 jul. 2024. Disponível em: (site institucional). Acesso em: 15 fev. 2026. 


INSS — Instituto Nacional do Seguro Social. Começa fase de testes de inteligência artificial no Meu INSS. Brasília, DF: INSS, 15 jan. 2024. Disponível em: (portal gov.br). Acesso em: 15 fev. 2026. 


INSTITUTO IGARAPÉ. Infográfico: reconhecimento facial no Brasil. Rio de Janeiro: Instituto Igarapé, s.d. Disponível em: (site institucional). Acesso em: 15 fev. 2026. 


RECEITA FEDERAL. Malha Fiscal Digital: Receita Federal inicia nova edição da operação. Brasília, DF: Receita Federal, 26 dez. 2025. Disponível em: (portal gov.br). Acesso em: 15 fev. 2026. 


SERASA. Serasa Score e outros tipos de pontuação de crédito. São Paulo: Serasa, 21 maio 2025. Disponível em: (blog Serasa Score). Acesso em: 15 fev. 2026. 


Nenhum comentário:

Postar um comentário