sábado, 2 de maio de 2026

A distância entre informação disponível e compreensão real

Como redes sociais, algoritmos e inteligência artificial transformaram o público em espectador hiperconectado


Lide

Nunca houve tanta informação disponível. Nunca foi tão fácil pesquisar, compartilhar, comentar, reagir e produzir conteúdo. Mas essa abundância não significou, automaticamente, mais compreensão. Pelo contrário: redes sociais, algoritmos e inteligência artificial ampliaram a distância entre o acesso ao dado e a capacidade humana de interpretá-lo criticamente. Walter Lippmann já havia percebido, em The Phantom Public, que o cidadão moderno é afetado por acontecimentos públicos que não consegue ver, dominar ou dirigir plenamente (Lippmann, 1925). No século XXI, esse problema se agravou: o público deixou de ser apenas “fantasma” e passou a ser também um público algorítmico, mobilizado por estímulos, métricas, emoções, bolhas informacionais e sistemas automatizados de recomendação.


Índice

  1. Introdução
  2. O problema original de Lippmann: o cidadão diante de um mundo invisível
  3. Informação disponível não é compreensão real
  4. Redes sociais: a transformação da esfera pública em fluxo emocional
  5. Algoritmos: seleção invisível, personalização e poder de condução da atenção
  6. Inteligência artificial: produção automática de linguagem, autoridade aparente e nova opacidade
  7. A ilusão da participação: comentar não é compreender
  8. A crise da mediação: quando todos publicam, mas poucos verificam
  9. O público fantasma na era algorítmica
  10. Consequências sociais e políticas
  11. Caminhos para reduzir a distância entre informação e compreensão
  12. Conclusão
  13. Referências


1. Introdução

Dizer que “redes sociais, algoritmos e inteligência artificial ampliaram a distância entre informação disponível e compreensão real” significa reconhecer uma das maiores contradições do nosso tempo: a sociedade contemporânea multiplicou brutalmente os meios de acesso à informação, mas não multiplicou, na mesma proporção, a capacidade coletiva de interpretar, contextualizar, verificar e transformar essa informação em conhecimento.

Há mais dados, mais notícias, mais vídeos, mais análises, mais comentários, mais gráficos, mais postagens, mais especialistas autoproclamados e mais sistemas capazes de responder rapidamente a quase qualquer pergunta. No entanto, esse excesso não produziu automaticamente cidadãos mais esclarecidos. Muitas vezes, produziu cidadãos mais ansiosos, mais polarizados, mais reativos e mais vulneráveis à manipulação.

Walter Lippmann ajuda a compreender esse paradoxo. Em The Phantom Public, publicado em 1925, ele argumenta que a teoria democrática clássica atribuiu ao cidadão comum uma tarefa impossível: acompanhar, compreender e julgar todos os assuntos públicos relevantes. Para Lippmann, o cidadão é afetado por regras, impostos, guerras e decisões de governo, mas vive distante dos centros reais de decisão. Ele “reina” simbolicamente, mas não governa de fato (Lippmann, 1925).  

A atualidade dessa crítica é impressionante. Se, em 1925, o cidadão já não conseguia acompanhar a complexidade do mundo industrial, burocrático e midiático, imagine agora, em uma sociedade atravessada por plataformas digitais, inteligência artificial generativa, microsegmentação política, deepfakes, sistemas de recomendação, campanhas automatizadas e produção massiva de conteúdo sintético.

O problema não é simplesmente a falta de informação. O problema é a perda da mediação crítica entre informação e entendimento. Informação é matéria-prima. Compreensão é elaboração. Informação é acesso. Compreensão é interpretação. Informação pode ser recebida em segundos. Compreensão exige tempo, comparação, memória histórica, repertório conceitual, método, dúvida, verificação e capacidade de julgamento.

O drama contemporâneo está exatamente aí: a informação circula na velocidade da máquina, mas a compreensão continua dependendo do tempo humano.


2. O problema original de Lippmann: o cidadão diante de um mundo invisível

Lippmann descreve o cidadão moderno como alguém que vive dentro de uma realidade pública que não consegue observar diretamente. Ele sabe que é afetado por decisões políticas, econômicas e administrativas, mas não vê claramente como essas decisões são tomadas. A política aparece para ele como uma espécie de teatro distante, com bastidores inacessíveis e personagens parcialmente conhecidos (Lippmann, 1925).

Essa imagem é fundamental. Para Lippmann, o cidadão comum não possui “conhecimento de insider”. Ele não acompanha os detalhes técnicos, os interesses envolvidos, os antecedentes históricos nem as consequências futuras de cada decisão. Por isso, tende a reagir apenas a sinais grosseiros, símbolos públicos, crises visíveis e narrativas simplificadas (Lippmann, 1925).  

Essa tese é decisiva para compreender a era digital. As redes sociais não resolveram a invisibilidade do mundo público. Elas deram ao cidadão a sensação de que tudo está visível. Essa é uma diferença sutil, mas profunda.

Antes, o cidadão sabia que não via tudo. Hoje, muitas vezes, acredita que vê.

A timeline parece o mundo. O feed parece a realidade. O vídeo curto parece explicação. A thread parece pesquisa. O comentário viral parece consenso. O influenciador parece especialista. A inteligência artificial parece autoridade. Mas, em muitos casos, o que chega ao cidadão é apenas uma fração editada, ranqueada, personalizada e emocionalmente otimizada da realidade.

Lippmann já criticava o ideal do cidadão onicompetente: aquele sujeito imaginado pela democracia romântica como capaz de formar opinião sobre tudo. A sociedade digital agravou esse ideal. Agora, além de se esperar que o cidadão opine sobre tudo, espera-se que ele opine imediatamente. A velocidade substitui a maturação. A reação substitui a reflexão. O engajamento substitui o julgamento.

O resultado é uma cidadania pressionada a se manifestar antes de compreender.


3. Informação disponível não é compreensão real

A distinção entre informação e compreensão precisa ser feita com rigor.

Informação é dado organizado em alguma forma comunicável. Pode ser uma notícia, um número, uma imagem, uma fala, uma estatística, um documento, uma postagem, um vídeo, um gráfico ou uma resposta produzida por inteligência artificial. Compreensão, por outro lado, é a capacidade de situar essa informação em um contexto, avaliar sua confiabilidade, relacioná-la com outras evidências, perceber seus limites e inferir consequências.

Uma pessoa pode ter muita informação e pouca compreensão. Pode repetir dados corretos sem entender sua estrutura. Pode conhecer manchetes sem conhecer processos. Pode decorar frases de autores sem compreender seus conceitos. Pode compartilhar gráficos sem saber ler escalas, amostras, métodos ou interesses institucionais. Pode usar IA para obter uma resposta elegante, mas sem saber se a resposta é verdadeira, incompleta ou enviesada.

Essa distinção é essencial para a democracia. Uma sociedade informada apenas superficialmente pode ser facilmente manipulada. Basta oferecer sinais emocionais fortes: medo, indignação, ameaça, pertencimento, inimigo comum, promessa de salvação, teoria conspiratória, falsa simplicidade.

A Organização para a Cooperação e Desenvolvimento Econômico alerta que informações falsas e enganosas podem aumentar polarização, comprometer políticas públicas e corroer a confiança nas instituições democráticas (OECD, 2024).  

Esse ponto é crucial. A desinformação não é apenas erro factual. Ela é também um fenômeno político. Desorganiza o ambiente comum de interpretação da realidade. Quando uma sociedade perde critérios mínimos compartilhados sobre o que é fato, evidência, prova e mentira, a democracia deixa de discutir soluções e passa a disputar realidades paralelas.

Nesse ambiente, o problema não é apenas “não saber”. É acreditar que se sabe porque se viu algo em algum lugar.

A informação disponível pode, paradoxalmente, produzir arrogância cognitiva. O cidadão acessa um vídeo de três minutos e acredita dominar uma guerra. Lê uma postagem sobre economia e acredita entender política monetária. Recebe uma resposta de IA e acredita ter feito pesquisa. Vê uma sequência de conteúdos semelhantes e acredita que “todo mundo está dizendo a mesma coisa”.

Mas aquilo que parece confirmação pode ser apenas repetição algorítmica.


4. Redes sociais: a transformação da esfera pública em fluxo emocional

As redes sociais mudaram profundamente a circulação da informação pública. Elas reduziram barreiras de publicação, ampliaram vozes antes marginalizadas, permitiram denúncias, mobilizações, campanhas de solidariedade, divulgação científica e participação política. Seria equivocado tratá-las apenas como ameaça. Elas também democratizaram formas de expressão.

O problema é que essa democratização ocorreu dentro de plataformas cuja lógica central não é o esclarecimento público, mas a captura da atenção.

A rede social organiza o debate em torno de métricas: curtidas, compartilhamentos, comentários, visualizações, tempo de permanência, seguidores, impulsionamento, engajamento. A questão não é apenas o que é verdadeiro, relevante ou socialmente necessário. A questão é o que prende o usuário.

Esse deslocamento é decisivo. A esfera pública passa a ser estruturada por uma economia da atenção. O conteúdo mais ponderado, contextualizado e responsável muitas vezes perde espaço para o conteúdo mais emocional, indignado, simplificado ou espetacular. A consequência é a substituição gradual da reflexão pública por estímulos afetivos.

O Pew Research Center mostrou que redes sociais se tornaram parte importante da dieta informacional de adultos nos Estados Unidos, com diferenças relevantes entre plataformas como TikTok, X, Facebook e Instagram (Pew Research Center, 2024).   Em levantamento posterior, o instituto registrou que parcelas significativas da população consomem notícias regularmente por plataformas como Facebook, YouTube, Instagram e TikTok (Pew Research Center, 2025).  

Ainda que esses dados se refiram ao contexto norte-americano, o fenômeno é global: plataformas digitais tornaram-se portas de entrada para a realidade pública. O problema é que essas portas não são neutras. Cada plataforma possui arquitetura própria, cultura própria, formato próprio e incentivos próprios.

Um vídeo curto favorece simplificação. Uma postagem viral favorece impacto. Um meme favorece associação rápida. Um comentário agressivo favorece polarização. Um algoritmo de recomendação favorece permanência. Uma plataforma de imagens favorece estética. Uma plataforma de vídeos favorece narrativa emocional.

Assim, a forma técnica do meio influencia o conteúdo social da mensagem.

Esse ponto já estava presente em autores como Marshall McLuhan, para quem o meio não é apenas canal, mas parte constitutiva da experiência comunicacional (McLuhan, 1964). Na era digital, o meio não apenas transmite: ele organiza, hierarquiza, recomenda, oculta, repete e monetiza.


5. Algoritmos: seleção invisível, personalização e poder de condução da atenção

O algoritmo é uma das figuras centrais da nova esfera pública. Em sentido técnico, algoritmo é uma sequência de instruções para resolver um problema ou executar uma tarefa. Nas plataformas digitais, algoritmos são usados para ordenar conteúdos, sugerir vídeos, recomendar perfis, filtrar anúncios, detectar padrões, classificar usuários e personalizar experiências.

O ponto político é este: o cidadão não vê a totalidade da informação disponível. Ele vê aquilo que foi selecionado para aparecer.

Essa seleção não é aleatória. Ela se baseia em dados de comportamento: o que a pessoa curte, assiste, pausa, comenta, compartilha, ignora, pesquisa, compra, segue, denuncia ou repete. A partir desses sinais, sistemas inferem preferências e passam a oferecer conteúdos com maior probabilidade de engajamento.

O problema é que engajamento não é sinônimo de compreensão. Um conteúdo pode engajar porque é falso, chocante, ofensivo, conspiratório ou emocionalmente viciante. Um conteúdo equilibrado pode engajar menos justamente porque exige atenção lenta.

Aqui aparece uma das grandes tensões democráticas da era digital: a arquitetura algorítmica personaliza a experiência pública. Cada cidadão recebe uma versão diferente do mundo. Isso enfraquece a existência de uma esfera pública comum.

Em termos práticos, duas pessoas podem viver na mesma cidade, votar na mesma eleição, enfrentar os mesmos problemas econômicos e, ainda assim, habitar universos informacionais quase incompatíveis. Uma recebe conteúdos que reforçam medo da criminalidade. Outra recebe conteúdos sobre desigualdade social. Outra recebe conteúdos religiosos. Outra recebe teorias conspiratórias. Outra recebe análises econômicas. Outra recebe entretenimento político disfarçado de notícia.

Cada uma acredita estar “vendo a realidade”.

Mas vê uma realidade filtrada.

Essa filtragem algorítmica amplia a distância entre informação disponível e compreensão real porque substitui a busca ativa por uma recepção conduzida. O usuário pensa que está escolhendo, mas muitas vezes está apenas reagindo ao que lhe foi servido. A autonomia permanece formal, mas a atenção é orientada por sistemas invisíveis.

Isso não significa que o usuário seja um robô manipulado passivamente. A relação é mais complexa. O usuário também escolhe, busca, interpreta e resiste. Mas sua liberdade opera dentro de ambientes desenhados para maximizar permanência, previsibilidade e rentabilidade.

É uma liberdade em arquitetura condicionada.


6. Inteligência artificial: produção automática de linguagem, autoridade aparente e nova opacidade

A inteligência artificial generativa acrescentou uma camada ainda mais profunda ao problema. Antes, as plataformas organizavam conteúdos produzidos por humanos. Agora, sistemas automatizados também produzem textos, imagens, vídeos, áudios, resumos, análises, códigos, simulações e respostas personalizadas.

A UNESCO define a IA generativa como tecnologia capaz de produzir novos conteúdos a partir de padrões aprendidos em grandes bases de dados, e alerta para desafios envolvendo educação, pesquisa, ética, privacidade, vieses e confiabilidade (UNESCO, 2023).  

A IA amplia o acesso à informação? Sim. Pode ajudar estudantes, professores, pesquisadores, gestores, jornalistas e cidadãos. Pode explicar conceitos, organizar ideias, comparar argumentos, traduzir textos, sugerir bibliografia e ampliar a produtividade intelectual.

Mas também amplia riscos.

O primeiro risco é a autoridade aparente. Uma resposta gerada por IA pode parecer organizada, elegante e convincente mesmo quando contém erros. A fluência da linguagem produz aparência de verdade. O leitor desavisado pode confundir coerência textual com validade factual.

O segundo risco é a opacidade. Muitos sistemas de IA funcionam como modelos complexos cujo processo interno não é plenamente compreensível para o usuário comum. Mesmo quando se sabe, em linhas gerais, que o sistema prevê padrões linguísticos, isso não significa que o cidadão compreenda suas limitações, vieses, dados de treinamento ou critérios de resposta.

O terceiro risco é a escala. A IA permite produzir desinformação em volume industrial: textos falsos, imagens sintéticas, vídeos manipulados, perfis automatizados, comentários coordenados e campanhas de persuasão segmentada.

O Stanford AI Index Report 2025 destaca que a IA generativa segue em forte expansão, com crescimento de investimentos e adoção organizacional, ao mesmo tempo em que riscos como desinformação e deepfakes permanecem relevantes, especialmente em contextos eleitorais (Stanford HAI, 2025).  

Aqui a tese de Lippmann ganha nova força. O público já tinha dificuldade de compreender problemas públicos complexos. Agora precisa também avaliar se o próprio conteúdo que recebe é humano ou sintético, verdadeiro ou fabricado, contextualizado ou manipulado.

A realidade pública tornou-se tecnicamente editável.


7. A ilusão da participação: comentar não é compreender

Um dos fenômenos mais delicados da vida digital é a confusão entre participação e compreensão. O cidadão comenta, compartilha, reage, grava vídeos, discute em grupos, assina petições, participa de enquetes e acompanha debates ao vivo. Tudo isso pode ser politicamente relevante. Mas nada disso garante compreensão real.

Participar não é necessariamente compreender. Opinar não é necessariamente julgar com fundamento. Engajar não é necessariamente deliberar. Viralizar não é necessariamente esclarecer.

A democracia digital produziu uma sensação de presença permanente. O cidadão sente que está participando da política porque acompanha discussões públicas todos os dias. No entanto, muitas vezes essa participação é fragmentada, episódica e emocional. Ele reage a recortes, não a processos. Reage a frases, não a projetos. Reage a escândalos, não a estruturas.

Lippmann ajuda a nomear isso. Para ele, o público normalmente não acompanha o desenvolvimento completo dos problemas. Ele aparece quando a crise já está visível e se dispersa quando a crise sai de cena (Lippmann, 1925).  

As redes sociais aceleraram essa dinâmica. O público surge em ondas. Um tema domina o debate por dois dias. Depois desaparece. Um escândalo substitui outro. Uma indignação atropela a anterior. A atenção pública se torna instável. E uma democracia com atenção instável tem dificuldade de sustentar reformas profundas.

Problemas estruturais exigem continuidade. Educação, saúde, desigualdade, orçamento público, meio ambiente, segurança, ciência e infraestrutura não cabem no ritmo emocional das plataformas. São temas que exigem acompanhamento, método, indicadores, memória institucional e avaliação de longo prazo.

Mas a lógica digital favorece o evento, não o processo.


8. A crise da mediação: quando todos publicam, mas poucos verificam

Durante muito tempo, a informação pública passava por mediadores relativamente definidos: jornais, editoras, universidades, instituições científicas, partidos, sindicatos, igrejas, escolas, rádios, televisões e órgãos oficiais. Esses mediadores nunca foram neutros. Tinham interesses, limites, ideologias e erros. Mas exerciam algum tipo de filtragem.

A internet desorganizou esse sistema. Isso trouxe ganhos democráticos evidentes. Vozes antes excluídas puderam publicar. Abusos puderam ser denunciados. Minorias puderam se articular. Pesquisadores puderam divulgar ciência diretamente. Professores puderam alcançar públicos maiores.

Mas a desintermediação também produziu uma crise: quando todos publicam, quem verifica?

O jornalismo profissional perdeu centralidade relativa. A autoridade científica passou a competir com influenciadores. A escola passou a competir com vídeos curtos. O livro passou a competir com resumos automáticos. O especialista passou a competir com alguém carismático que fala com segurança diante da câmera.

A UNESCO alertou, em 2024, para a necessidade de formação urgente em checagem de fatos entre criadores de conteúdo, destacando riscos de disseminação de informações falsas por influenciadores digitais (UNESCO apud The Guardian, 2024).  

Esse dado é socialmente importante. Muitos influenciadores não se apresentam como jornalistas, professores ou cientistas, mas ocupam funções informacionais semelhantes. Explicam política, saúde, economia, religião, educação, ciência e comportamento. O público os acompanha não necessariamente por sua competência técnica, mas por proximidade emocional, linguagem acessível, identificação estética ou confiança pessoal.

A autoridade muda de base. Antes: “isso é confiável porque foi verificado por uma instituição”. Agora, muitas vezes: “isso é confiável porque eu gosto de quem falou”.

Essa personalização afetiva da confiança é perigosa. Ela desloca o critério da verdade para o vínculo emocional.


9. O público fantasma na era algorítmica

O conceito de “público fantasma” torna-se ainda mais potente quando aplicado à era digital. Em Lippmann, o público é fantasma porque é invocado como soberano, mas raramente atua como sujeito contínuo, informado e competente. Ele aparece em momentos de crise, reage a sinais visíveis e se dispersa depois (Lippmann, 1925).

Na era algorítmica, esse público é também produzido tecnicamente. Ele não surge apenas da convivência social ou do debate público tradicional. Surge de métricas, impulsionamentos, segmentações, recomendações e viralizações.

O público contemporâneo é, em parte, fabricado por sistemas de visibilidade.

Um tema parece importante porque apareceu muitas vezes. Uma opinião parece majoritária porque viralizou. Uma indignação parece espontânea porque milhares repetiram a mesma frase. Uma autoridade parece legítima porque acumulou seguidores. Uma tese parece verdadeira porque o algoritmo recomendou dez vídeos semelhantes.

Mas repetição não é prova.

A lógica algorítmica pode transformar frequência em sensação de verdade. Quanto mais uma pessoa vê uma ideia, mais familiar ela se torna. E quanto mais familiar, mais plausível parece. Esse mecanismo psicológico é conhecido em estudos de cognição como efeito de verdade ilusória: a repetição aumenta a percepção de veracidade, mesmo quando a afirmação é falsa.

Esse fenômeno tem implicações políticas profundas. Campanhas de desinformação não precisam convencer racionalmente todos os cidadãos. Muitas vezes basta criar dúvida, ruído e saturação. Quando tudo parece incerto, o cidadão se refugia em identidades: “acredito nos meus”, “desconfio dos outros”.

A democracia, então, deixa de ser disputa argumentativa e vira guerra de pertencimentos.


10. Consequências sociais e políticas

A ampliação da distância entre informação disponível e compreensão real produz várias consequências.

A primeira é a polarização afetiva. As pessoas não apenas discordam; passam a se odiar. O adversário deixa de ser alguém com interpretação diferente e passa a ser visto como inimigo moral. Essa dinâmica destrói a possibilidade de deliberação.

A segunda é o enfraquecimento institucional. Quando a confiança pública é corroída por desinformação permanente, instituições como imprensa, universidades, tribunais, parlamentos, escolas e órgãos científicos passam a ser tratadas como parte de uma conspiração. A crítica legítima às instituições é necessária; a destruição sistemática da confiança pública é outra coisa.

A terceira é a vulnerabilidade eleitoral. Em ambientes digitais, campanhas podem explorar medos, ressentimentos e identidades com precisão crescente. A política deixa de falar ao cidadão universal e passa a falar ao perfil psicométrico, ao nicho, à bolha, ao grupo emocionalmente segmentado.

A quarta é a precarização do conhecimento. O estudo longo perde prestígio diante da resposta rápida. A formação intelectual passa a concorrer com a produtividade instantânea. O cidadão quer respostas imediatas para problemas que exigem maturação.

A quinta é a captura da atenção. A atenção humana é finita. Quando ela é continuamente fragmentada, a capacidade de leitura profunda, escuta paciente e análise complexa diminui. Sem atenção, não há compreensão. Sem compreensão, não há cidadania robusta.

A sexta é a ascensão do simplificador profissional. Em contextos complexos, cresce o apelo de quem oferece respostas simples, culpados claros e soluções mágicas. O simplificador profissional é o oposto do educador democrático. Ele não amplia a compreensão; apenas organiza ressentimentos.

Essas consequências recolocam Lippmann no centro do debate. O público não pode governar tudo diretamente, mas também não pode ser manipulado por sistemas que exploram sua limitação informacional. A democracia precisa reconhecer a limitação do cidadão para protegê-lo, não para desprezá-lo.


11. Caminhos para reduzir a distância entre informação e compreensão

Reduzir a distância entre informação disponível e compreensão real exige uma resposta múltipla.

A primeira resposta é educacional. A escola precisa formar leitores críticos da realidade digital. Isso significa ensinar leitura, escrita, lógica, estatística básica, história, filosofia, ciência, argumentação e ética da informação. Não basta ensinar o aluno a usar tecnologia. É preciso ensiná-lo a perguntar: quem produziu este conteúdo? Com que interesse? Com quais evidências? Que informação está faltando? Que emoção este conteúdo tenta provocar?

A segunda resposta é jornalística. O jornalismo precisa recuperar sua função pública de mediação, verificação e contextualização. Em uma sociedade saturada de opinião, o valor do jornalismo está menos em “dar a notícia primeiro” e mais em explicar melhor.

A terceira resposta é institucional. Plataformas digitais precisam ser objeto de regulação democrática, com transparência sobre critérios de recomendação, publicidade política, uso de dados, impulsionamento e sistemas automatizados. Regulação não significa censura. Significa responsabilidade pública sobre infraestruturas que moldam a esfera pública.

A quarta resposta é tecnológica. Sistemas de inteligência artificial precisam ser desenvolvidos com critérios de segurança, explicabilidade, governança, auditoria e responsabilidade. A recomendação da OECD sobre IA enfatiza princípios como crescimento inclusivo, respeito aos direitos humanos, transparência, robustez, segurança e responsabilização (OECD, 2024).  

A quinta resposta é cultural. É preciso recuperar o valor da demora. Compreender exige tempo. Ler um livro exige tempo. Estudar um autor exige tempo. Avaliar uma política pública exige tempo. A democracia precisa de velocidade para responder a crises, mas precisa de lentidão para pensar com profundidade.

A sexta resposta é ética. O cidadão precisa desenvolver humildade cognitiva. Nem toda opinião precisa ser imediata. Nem todo tema exige posicionamento instantâneo. Nem toda dúvida é fraqueza. Em muitos casos, a frase mais democrática é: “ainda não sei o suficiente para opinar”.

Essa humildade dialoga diretamente com Lippmann. O público deve agir quando há critérios claros de intervenção. Quando não há, muitas vezes a neutralidade prudente é melhor do que a militância confusa (Lippmann, 1925).  


12. Conclusão

A frase “redes sociais, algoritmos e inteligência artificial ampliaram a distância entre informação disponível e compreensão real” expressa uma das contradições centrais da modernidade digital. A humanidade criou sistemas capazes de armazenar, organizar, distribuir e produzir informação em escala inédita. Mas não criou, na mesma velocidade, instituições, hábitos intelectuais e práticas sociais capazes de converter essa abundância em sabedoria pública.

Walter Lippmann já havia percebido que a democracia moderna repousava sobre uma ficção: o cidadão onicompetente. O século XXI agravou essa ficção. Agora, o cidadão não apenas é chamado a opinar sobre tudo; é convocado a opinar rapidamente, publicamente e sob pressão emocional permanente.

O público fantasma de Lippmann tornou-se público algorítmico. Continua aparecendo em crises, reagindo a sinais e desaparecendo em seguida. Mas agora sua aparição é mediada por plataformas, métricas, sistemas de recomendação e inteligência artificial. O problema não é que o público tenha deixado de existir. O problema é que ele existe em ambientes desenhados para capturar atenção antes de formar compreensão.

A saída não está em desprezar o cidadão comum. Também não está em entregar a sociedade a especialistas fechados em gabinetes. A saída está em reconstruir as mediações democráticas: escola forte, jornalismo responsável, ciência comunicável, instituições transparentes, plataformas reguladas, inteligência artificial auditável e cultura pública orientada por critérios.

Informação é abundância. Compreensão é responsabilidade.

A democracia do futuro dependerá menos da quantidade de dados disponíveis e mais da capacidade coletiva de transformar dados em discernimento, discernimento em julgamento e julgamento em ação pública responsável.


Referências

HABERMAS, Jürgen. Mudança estrutural da esfera pública: investigações quanto a uma categoria da sociedade burguesa. Rio de Janeiro: Tempo Brasileiro, 1984.

LIPPMANN, Walter. Public opinion. New York: Harcourt, Brace and Company, 1922.

LIPPMANN, Walter. The phantom public. New York: Harcourt, Brace and Company, 1925.

MCLUHAN, Marshall. Understanding media: the extensions of man. New York: McGraw-Hill, 1964.

OECD. Facts not fakes: tackling disinformation, strengthening information integrity. Paris: OECD Publishing, 2024.

OECD. Recommendation of the Council on Artificial Intelligence. Paris: OECD, 2024.

PEW RESEARCH CENTER. How Americans get news on TikTok, X, Facebook and Instagram. Washington, DC: Pew Research Center, 2024.

PEW RESEARCH CENTER. Social media and news fact sheet. Washington, DC: Pew Research Center, 2025.

STANFORD HAI. Artificial Intelligence Index Report 2025. Stanford: Stanford University, 2025.

UNESCO. Guidance for generative AI in education and research. Paris: UNESCO, 2023.


Nenhum comentário:

Postar um comentário