No Brasil do WhatsApp, da escola improvisada e do balcão do serviço público, a IA generativa virou um jeito elegante de ninguém responder por nada — e isso dá ruim mais rápido do que parece.
Você abre o WhatsApp e tem uma mensagem do colégio do seu filho: “Professor faltou, a aula vai ser remota. Segue aqui um resumo do conteúdo e os exercícios”. A mensagem está bem escrita, organizada, com aquele tom “neutro” que parece padrão. Só tem um detalhe: ninguém sabe direito quem escreveu. A coordenação jogou a tarefa num modelo generativo, o professor deu uma revisada rápida entre uma turma e outra, e o texto foi. No fim da tarde, seu filho chega com uma dúvida simples, e você percebe que o resumo “bonito” pulou a parte mais importante. Aí começa a dança: professor culpa a coordenação, coordenação culpa “o sistema”, e você fica com a conta da bagunça — tempo perdido, aprendizado capenga, estresse em casa.
Esse tipo de cena não é futurismo. É uma versão bem brasileira do que já está acontecendo quando texto vira produto sob demanda e ninguém quer ficar com o peso de assinar o que foi dito. E isso importa porque o Brasil já vive em plataformas e serviços digitais o tempo todo: o WhatsApp virou infraestrutura social; o GOV.BR já atende mais da metade do país em algum nível; e a adoção de IA em organizações cresceu rápido (IBGE, 2025; Governo do Brasil, 2025; Forbes Brasil, 2025). Não é conversa de “tecnófilo” nem de “tecnófobo”. É rotina.
O objetivo deste texto é simples e bem prático: discutir, no contexto brasileiro, duas coisas que estão ficando confusas com modelos generativos — quem é o autor e quem responde quando dá errado. A metodologia aqui é direta: leitura crítica de obras de filosofia da técnica e teoria crítica (Heidegger, 2007; Han, 2015; Horkheimer; Adorno, 1985; Adorno, 1996; Bostrom, 2014), cruzada com dados públicos recentes sobre digitalização e uso de IA no Brasil (IBGE, 2025; CGI.br, 2024; Governo do Brasil, 2025) e exemplos concretos de trabalho, escola, serviços públicos e pequenos negócios. Não tem “laboratório”, não tem jargão desnecessário. Tem o que interessa: vida real e consequência.
A posição defendida aqui é clara: toda vez que um modelo generativo entra numa decisão, num atendimento ou numa comunicação que afeta alguém, tem que existir um autor humano identificável e uma responsabilidade institucional explícita — sem “foi o algoritmo” como desculpa. Isso não é frescura. É higiene básica de vida pública e de relações de trabalho.
Quando “autor” vira “quem apertou enviar”, o Brasil vira terra sem assinatura
No Brasil, a maior parte da comunicação que manda na vida cotidiana não vem de “sites oficiais”. Vem do WhatsApp. É grupo de condomínio, grupo de igreja, grupo da escola, grupo do trabalho, grupo da família, grupo de bairro. A depender do lugar, WhatsApp é quase o “protocolo” da cidade. Não é exagero dizer que ele funciona como infraestrutura social, porque ele organiza avisos, horários, cobranças, pedidos e até disputa política. E o tamanho disso é gigante: o Brasil é um dos maiores mercados do app, com centenas de milhões de usuários e presença diária quase universal entre quem está conectado (Forbes Brasil, 2025).
Agora coloca modelos generativos nesse circuito. O que acontece com “autoria”?
Antes, autoria era uma coisa meio óbvia no dia a dia: alguém escreveu, alguém falou, alguém assinou. Mesmo quando a mensagem vinha “pela empresa” ou “pela escola”, tinha um rosto mais ou menos claro: a secretária, o coordenador, o RH, o gerente. Você sabia pra quem reclamar, e a própria pessoa sabia que ia levar cobrança se a informação estivesse errada.
Com texto gerado por IA, aparece uma tentação bem brasileira: “deixa o robô escrever, fica mais arrumado e rápido”. Aí a autoria vira uma soma de pequenos empurrões: alguém manda um prompt, outro copia e cola, outro dá uma revisada de 10 segundos e pronto. É como se o autor fosse “o grupo”. Só que “o grupo” não responde. “O grupo” some.
Na prática, você vê isso em quatro lugares que o brasileiro conhece bem:
No trabalho, especialmente em escritório, loja maiorzinha, clínica, empresa de logística e setor financeiro local, virou comum usar IA pra redigir e-mail, proposta, resposta a cliente, anúncio, contrato “modelo”. Só que tem diferença entre usar como rascunho e usar como assinatura. Quando o vendedor de uma loja de móveis manda um orçamento com condições erradas porque “a IA montou” e ele só repassou, quem é o autor do compromisso? Ele? A loja? O sistema? O consumidor não quer saber da engenharia. O consumidor quer o preço e o prazo que recebeu.
Na escola, o risco é mais feio porque envolve formação. O professor usa IA pra montar exercício, atividade, resumo. A coordenação usa pra produzir comunicado, circular, texto de projeto. A família recebe o material com cara “técnica”, bem formatado, e assume que aquilo foi pensado. Só que o pensamento — o trabalho de escolher o que importa, o que é prioridade, o que é perigoso simplificar — é justamente a parte que você não pode terceirizar sem critério. Adorno chamaria isso de um caminho rápido para “semiformação”: muito material, pouca compreensão (Adorno, 1996). Não é falta de conteúdo; é perda de profundidade e de responsabilidade.
Nos serviços públicos, a coisa escala. Se o GOV.BR já concentra milhares de serviços e dezenas ou centenas de milhões de usuários (Governo do Brasil, 2025), qualquer texto automatizado que apareça ali — instrução, aviso, justificativa de indeferimento, orientação de benefício — tem efeito enorme. Quando um cidadão tem um pedido negado e recebe uma resposta “bonita”, mas genérica, sem explicar o motivo real e sem apontar quem responde, ele fica preso num labirinto. E o labirinto é um jeito de governar sem assumir que está governando. Bostrom, mesmo vindo de outra linha, acerta numa coisa: quando sistemas entram como infraestrutura decisória, o problema não é “se eles escrevem bem”. É a governança de objetivos e a imputação de responsabilidade quando o sistema erra ou quando é usado como escudo (Bostrom, 2014).
Nas pequenas empresas, o caso é mais cotidiano e menos teórico: salão, barbearia, pet shop, oficina, loja de roupa, lanchonete. IA entrou como “marketing rápido”: legenda pronta, card, resposta automática no WhatsApp Business, script de atendimento. E o dono pensa: “isso me ajuda”. Ajuda, sim. Mas a autoria da comunicação vira uma coisa estranha: o cliente conversa com “a empresa” e não sabe se está falando com alguém que entendeu o pedido ou com um texto padrão. Aí o erro vem com aquele cheiro conhecido de “mal-entendido” brasileiro: pedido errado, horário errado, condição errada. No fim, a pequena empresa que achou que ia economizar tempo perde reputação.
O ponto filosófico aqui é bem simples de dizer sem firula: autor não é quem mexe no teclado; autor é quem assume o sentido do que foi dito e aceita responder por isso. Quando a cultura aceita que autoria é “enviar mensagem”, você cria um mundo sem assinatura. E mundo sem assinatura vira mundo sem vergonha.
Heidegger diria, em outra linguagem, que isso é um efeito do enquadramento (Gestell): a técnica passa a organizar o mundo como estoque disponível, e o humano vira operador do dispositivo (Heidegger, 2007). Traduzindo pro português de rua: a pessoa deixa de escrever e vira “usuária de texto”. A linguagem vira peça pronta, e ninguém se vê como responsável pelo que circula.
“Foi o algoritmo”: o jeitinho perfeito para não responder por nada
O Brasil já tem um problema velho: a dificuldade de responsabilizar alguém quando a coisa dá errado em cadeia — repartição, empresa grande, terceirizada, call center. Todo mundo conhece o roteiro: você liga, passa por quatro atendentes, cada um joga pra um setor, e ninguém resolve. O que a IA pode fazer é dar uma camada nova de maquiagem nesse velho problema: a desculpa técnica.
“Foi o algoritmo” tem cara de frase neutra, mas funciona como truque. Ela transforma uma escolha humana (usar um sistema, aceitar uma resposta, decidir um indeferimento, mandar uma orientação) num evento natural, como se fosse chuva. E isso é perigoso porque, no Brasil, o uso de sistema vira rapidamente uma forma de poder: quem controla a regra, controla a vida do outro — ainda mais quando o outro depende de serviço público ou de trabalho precarizado.
Han ajuda a entender por que essa desculpa pega. A sociedade do desempenho adora terceirizar angústia: se a decisão vem “do sistema”, você reduz o peso moral de decidir e de se explicar (Han, 2015). No cotidiano brasileiro, isso aparece em frases como “o sistema não deixa”, “o aplicativo não permite”, “a plataforma bloqueou”. Agora imagine isso com texto gerado automaticamente: o sistema não só bloqueia; ele explica o bloqueio com um texto convincente. A pessoa lê, cansa e desiste.
Aí entra a diferença entre responsabilidade e culpa, que muita gente mistura. Responsabilidade não é “quem é o vilão”. Responsabilidade é quem tem dever de corrigir, de reparar, de explicar e de evitar repetição. E isso, com IA, precisa ser desenhado, porque o risco é criar uma “névoa de agência”: muita gente participa, mas ninguém responde.
No Brasil, essa névoa tende a ficar bem concreta em três situações.
Atendimento automatizado que decide a vida de alguém
Pensa numa unidade de saúde municipal onde a recepção vive lotada e a equipe está exausta. Alguém decide usar uma triagem “inteligente” em tablet ou totem pra organizar fila. O sistema faz perguntas, classifica prioridades, imprime senha. Se ele errar a prioridade, o prejuízo não é “um erro administrativo”. É sofrimento real. E quando a família reclama, a equipe pode dizer: “foi o sistema”.
Aqui a responsabilidade tem que ter nome e cargo: quem escolheu o sistema, quem configurou critérios, quem audita os erros, quem atende reclamação. Sem isso, você cria uma gestão que se esconde atrás de uma tela. E aí a tecnologia vira instrumento de desumanização, não porque “é malvada”, mas porque permite que ninguém olhe no olho.
Escola usando IA para produzir avaliação e comunicação
No Brasil, muita escola (pública e privada) vive sob pressão: metas, prova, pai cobrando, professor sobrecarregado. A IA entra como “atalho”. Só que avaliação e comunicação escolar não são meras burocracias. Elas mexem com trajetória de aluno, autoestima, reprovação, encaminhamento. Se um exercício vem com erro, se um texto de orientação vem enviesado, se um comunicado cria pânico, o dano é concreto.
Quando ninguém assina, a responsabilidade evapora. E isso é o oposto do que educação deveria ensinar. Adorno chamaria isso de formação para a heteronomia: o aluno aprende que texto é algo que aparece pronto e que ninguém precisa responder por ele (Adorno, 1996). É um treino de obediência ao “conteúdo”, não de pensamento.
Pequeno comércio automatizando conversa e promessa
Imagina uma loja de celular de bairro que usa IA para responder orçamento no WhatsApp Business. O cliente pergunta: “Troca tela de iPhone 11? Quanto? Tem garantia?” A IA responde bonito, promete prazo, fala de garantia, passa valor. O dono chega depois, vê a conversa e pensa: “depois eu ajusto”. Só que o cliente já veio, já organizou dinheiro, já pegou ônibus.
Quando dá errado, o dono diz: “foi mensagem automática”. O cliente escuta como “problema seu”. E vira briga. Responsabilidade aqui não é filosofia abstrata: é regra simples de comércio. Se você automatiza promessa, você automatiza também o conflito.
O que a teoria crítica joga na mesa é um ponto desconfortável: tecnologia não entra no mundo “neutra”. Ela entra por interesses e por pressões. E, na lógica da razão instrumental, o que vale é eficiência, escala, redução de custo — mesmo que a consequência seja empurrar erro para o lado mais fraco (Horkheimer; Adorno, 1985). No Brasil, o lado mais fraco costuma ser quem depende de serviço, quem depende de fila, quem depende de salário.
Por que “autor identificável” e “responsabilidade explícita” é o mínimo aceitável
Defender autor identificável e responsabilidade explícita não é pedir “certificação internacional”. É pedir duas coisas bem básicas, do tipo que qualquer brasileiro entende quando está do lado prejudicado:
- Quem assina o que me foi dito?
- Quem resolve se estiver errado?
Aí alguém responde: “mas isso é burocracia, vai travar tudo”. Esse é o argumento clássico contra qualquer regra de responsabilização. Só que ele se sustenta mal no Brasil porque a ausência de regra já “trava tudo” de outro jeito: trava no retrabalho, na judicialização, na perda de confiança, no conflito, no improviso.
E tem um dado que joga contra a desculpa do “não dá”: a adoção de IA já está avançando, inclusive em ambientes organizacionais. O IBGE registrou crescimento forte no uso de IA em empresas industriais, chegando a 41,9% em 2024, com salto grande em relação a 2022 (IBGE, 2025). Ou seja: o país está correndo com IA. O mínimo é correr também com mecanismo de responsabilidade.
O que isso significaria, na prática brasileira, sem virar um manual interminável?
Significaria, por exemplo, que um comunicado escolar feito com auxílio de IA vem com uma frase curta e honesta: “Texto revisado por [nome], coordenação”. Não é para “pedir desculpa por usar IA”. É para dizer: existe alguém que respondeu pelo conteúdo.
Num serviço público, significaria que uma resposta automatizada que indeferiu um pedido vem com indicação de base legal, canal de recurso e setor responsável, e não só um texto genérico que parece “educado”, mas não resolve nada.
Numa pequena empresa, significaria que mensagens automáticas não podem prometer preço, prazo e garantia como se fossem contrato, sem revisão humana. Se quiser automatizar, automatize a triagem (“vou verificar e te respondo em X horas”), não a promessa.
É aqui que a distinção entre autor e responsabilidade fica bem clara.
Autor é quem assume o sentido e coloca o próprio nome, o próprio cargo, a própria cara.
Responsabilidade é o dever de reparar, explicar e corrigir, que pode ser do autor e também da instituição.
No Brasil, a gente precisa das duas juntas, porque só autoria sem responsabilidade vira “assinatura decorativa” (a pessoa assina e some), e só responsabilidade sem autoria vira “responsabilidade abstrata” (um setor genérico que nunca atende).
Bostrom coloca isso num nível macro quando fala de alinhamento e controle: sistemas poderosos precisam de governança e accountability, senão a sociedade perde capacidade de corrigir rota (Bostrom, 2014). Traduzindo: quando o sistema vira desculpa, o erro vira destino.
Han coloca isso no nível micro: se a cultura se acostuma a delegar decisão e linguagem para ferramentas, o sujeito se torna menos capaz de sustentar conflito e justificar escolhas (Han, 2015). Traduzindo: vira gente que só repete “o sistema fez” e dorme em paz.
Heidegger aponta o pano de fundo: o perigo não é a máquina “pensar”, mas o humano se reduzir a operador do dispositivo e aceitar que o mundo só aparece como algo gerenciável (Heidegger, 2007). Traduzindo: a pessoa não escreve mais; ela “executa texto”.
E Adorno dá o alerta social: quando a cultura vira produção de conteúdo padronizado, a crítica enfraquece, a autonomia murcha e a vida pública se torna administrada (Horkheimer; Adorno, 1985; Adorno, 1996). Traduzindo: tudo parece funcionar, mas ninguém pensa — e quem sofre é quem não tem como fugir do sistema.
Um ataque direto ao argumento “a IA só ajuda”: ajuda quem? e em que custo?
Aqui entra uma parte que muita gente não gosta: no Brasil, “ajudar” quase sempre significa “tirar tempo de alguém que já está sem tempo”. E isso é real. Professor está sobrecarregado. Servidor está sobrecarregado. Dono de pequeno negócio faz tudo. Atendente aguenta fila e grito. IA vira muleta.
O problema é que muleta tem preço quando vira substituição de perna.
Quando a IA “ajuda” a escola a produzir mais material, isso pode parecer bom. Só que o aluno não precisa de mais PDF. Precisa de clareza, sequência, feedback. Se a IA aumenta volume e reduz responsabilidade, ela não ajudou: ela barateou aparência de trabalho.
Quando a IA “ajuda” o serviço público a responder mais rápido, isso pode parecer bom. Só que resposta rápida e vazia é só um jeito elegante de empurrar o problema. O cidadão perde tempo igual, só que com um texto mais polido.
Quando a IA “ajuda” o pequeno negócio a vender mais por WhatsApp, isso pode ser ótimo. Mas se ela aumenta ruído e promessa furada, ela transforma rotina urbana em atrito: cliente indo e voltando, cancelando, reclamando, falando mal no bairro.
O argumento “só ajuda” costuma esconder uma coisa: ajuda quem manda a mensagem, não quem recebe. E, em país desigual, essa diferença pesa.
O Brasil tem outro agravante: conectividade desigual e qualidade de acesso ainda é desafio; não basta dizer “todo mundo está online”. A própria TIC Domicílios aponta avanço grande, mas também aponta que “conectividade significativa” não é universal (CGI.br, 2024). Ou seja: o sistema automatiza e presume letramento digital e tempo de navegação que muita gente não tem. Aí a IA vira mais uma camada de exclusão, porque quem tem menos recurso sofre mais com texto genérico e processo confuso.
Uma crítica possível à posição defendida aqui — e a resposta
A crítica mais comum vai ser esta: “Se exigir autor identificável e responsabilidade explícita, vai virar caça às bruxas. O professor vai ficar com medo de usar. O servidor vai ser responsabilizado por coisa que veio de cima. O pequeno empresário vai ser punido por erro que nem entendeu.”
Essa crítica tem um fundo legítimo, porque o Brasil adora resolver problema estrutural jogando culpa no indivíduo mais fraco da cadeia. Isso acontece com professor, com servidor de ponta, com atendente, com terceirizado. Então, sim: dá para usar “responsabilização” como arma de perseguição.
Só que essa crítica não derruba a posição. Ela só obriga a deixar claro o desenho correto:
Autor identificável não é “bode expiatório”. É ponto de contato.
Responsabilidade institucional não é “lavar as mãos”. É dever de governança.
Na prática, isso significa que escola precisa ter regra interna: o professor assina o que é conteúdo pedagógico; a coordenação assina o que é política e comunicado institucional; a mantenedora assina o que é diretriz. Se der problema, não é “pega o mais fraco”. É segue a cadeia de decisão.
No serviço público, isso significa que o servidor da ponta não pode virar o culpado porque “o sistema indeferiu”. Quem responde pela regra é quem definiu a regra; quem responde pelo canal é quem administra o canal; quem responde pela correção é quem tem poder de corrigir. O cidadão precisa saber quem é quem.
No pequeno negócio, isso significa uma coisa bem simples: se automatizou, tem que configurar para não prometer o que não controla. Não precisa virar lei. Precisa virar prática básica. Quem não consegue fazer isso hoje, vai pagar com reputação amanhã — e não é um “amanhã otimista”. É só a realidade chata do bairro: cliente some e fala mal.
Então, sim: existe risco de responsabilização injusta. A resposta não é abandonar responsabilidade. A resposta é organizar responsabilidade para não virar violência administrativa.
O que isso tem a ver com “sermos dados” e com a perda da imaginação
Quando alguém diz “a IA só reorganiza o passado”, a provocação não é técnica; é cultural. A IA faz texto “parecido” com o que já circula. E isso tem um efeito curioso no Brasil: ela tende a reforçar o tom burocrático, o “português padrão de aviso”, a comunicação que não diz nada, mas soa correta.
É aí que autoria e responsabilidade voltam como antídoto. Porque a saída gerada pode até ser polida, mas quem assina tem que perguntar: isso está claro para quem recebe? Isso resolve ou enrola? Isso empurra o problema? Isso muda a vida de alguém?
Sem autoria, ninguém faz essas perguntas. Sem responsabilidade, ninguém paga pelo estrago.
E o estrago aqui não é abstrato. É aprendizado ruim, atendimento ruim, promessa ruim, conflito urbano bobo que vira briga grande, processo que vira judicialização, cidadão que desiste. O país já é bom em cansar gente. IA pode virar máquina de cansar em escala.
O teste prático: três perguntas que deveriam existir em qualquer uso de IA no Brasil
Não é para virar cartilha. É só um jeito de cortar o autoengano.
Quando um texto ou decisão envolve IA, deveria existir, no mínimo, a capacidade de responder:
Quem assina isso?
Se estiver errado, quem corrige e como?
Esse texto foi feito para ajudar quem recebe ou para livrar quem envia?
Se a resposta é “não sei”, a organização está usando IA do jeito mais brasileiro possível: para ganhar tempo agora e empurrar dano para depois.
Encerramento
Se um comunicado, um indeferimento ou uma promessa vier “do sistema” e ninguém topar colocar nome e cargo embaixo, não é tecnologia avançada. É só covardia automatizada — e isso o Brasil já conhecia antes do prompt.
Referências
ADORNO, Theodor W. Teoria da semiformação. In: ADORNO, Theodor W. Educação e emancipação. 2. ed. Rio de Janeiro: Paz e Terra, 1996.
BOSTROM, Nick. Superintelligence: paths, dangers, strategies. Oxford: Oxford University Press, 2014.
CGI.br. Em duas décadas, proporção de lares urbanos brasileiros com Internet passou de 13% para 85%, aponta TIC Domicílios 2024. Comitê Gestor da Internet no Brasil, 31 out. 2024. Disponível em: https://www.cgi.br/noticia/releases/em-duas-decadas-proporcao-de-lares-urbanos-brasileiros-com-internet-passou-de-13-para-85-aponta-tic-domicilios-2024/. Acesso em: 24 fev. 2026.
FORBES BRASIL. O que fez do WhatsApp um fenômeno das mensagens? O Brasil é a resposta. Forbes Brasil, 2 maio 2025. Disponível em: https://forbes.com.br/forbes-tech/2025/05/o-que-fez-do-whatsapp-um-fenomeno-das-mensagens-o-brasil-e-a-resposta/. Acesso em: 24 fev. 2026.
GOVERNO DO BRASIL. Número de contas Ouro no GOV.BR cresce 142% entre 2022 e 2025. Ministério da Gestão e da Inovação em Serviços Públicos, 18 dez. 2025. Disponível em: https://www.gov.br/gestao/pt-br/assuntos/noticias/2025/dezembro/numero-de-contas-ouro-no-gov-br-cresce-142-entre-2022-e-2025. Acesso em: 24 fev. 2026.
HAN, Byung-Chul. Psicopolítica: o neoliberalismo e as novas técnicas de poder. Belo Horizonte: Âyiné, 2015.
HEIDEGGER, Martin. A questão da técnica. In: HEIDEGGER, Martin. Ensaios e conferências. Petrópolis: Vozes, 2007.
HORKHEIMER, Max; ADORNO, Theodor W. Dialética do esclarecimento: fragmentos filosóficos. Rio de Janeiro: Zahar, 1985.
IBGE. De 2022 a 2024, percentual de empresas industriais utilizando inteligência artificial subiu de 16,9 para 41,9. Agência de Notícias IBGE, 24 set. 2025. Disponível em: https://agenciadenoticias.ibge.gov.br/agencia-noticias/2012-agencia-de-noticias/noticias/44551-de-2022-a-2024-percentual-de-empresas-industriais-utilizando-inteligencia-artificial-subiu-de-16-9-para-41-9. Acesso em: 24 fev. 2026.
Nenhum comentário:
Postar um comentário