Da economia da atenção ao colonialismo de dados: por que a vida online virou território de captura, normalização e dependência — e como a inteligência artificial acelera esse processo
A colonização mental deixou de ser apenas um fenômeno entre países. Nas redes digitais, ela se instala também dentro do indivíduo, capturando atenção, modulando desejo, normalizando padrões e produzindo dependência cotidiana. O mecanismo não exige censura explícita: basta um feed que premia indignação, um sistema de recomendação que mede valor em engajamento e uma economia que transforma cada gesto em dado. Com a inteligência artificial, esse processo ganha escala e precisão: conteúdos sintéticos e deepfakes barateiam a manipulação, a personalização aprende vulnerabilidades e a “verdade” passa a competir com narrativas otimizadas para impacto. Em países não hegemônicos, o custo é maior porque infraestrutura, plataformas e modelos costumam vir de fora — e, com eles, vêm também critérios, valores implícitos e filtros de visibilidade. A mente conectada vira território: não por ocupação militar, mas por administração algorítmica do cotidiano.
1. Introdução — quando a mente vira território
No colonialismo clássico, o território era chão. No colonialismo mental digital, o território é tempo de atenção, fluxo de emoção e formação de crença. Não se trata apenas de “usar muito celular” ou “perder tempo em rede social”. Trata-se de algo mais estrutural: redes digitais organizam a realidade percebida por meio de ranking, recomendação e métricas de reputação, criando uma espécie de governo invisível do cotidiano.
A pergunta decisiva, então, muda de forma: não é só “quem controla o território físico?”, mas “quem controla a janela pela qual o mundo é visto?”. Quando a vida social passa pelo filtro de plataformas, e as plataformas operam por modelos de negócio baseados em captura e previsão, abre-se espaço para uma colonização mental que é silenciosa, barata e cotidiana.
A inteligência artificial intensifica esse processo porque ela desloca o digital do “conteúdo produzido por humanos” para um ecossistema em que se pode fabricar realidade em volume industrial — textos, imagens, vozes, vídeos — e distribuí-la com otimização estatística para aderência emocional. Relatórios recentes descrevem como a IA generativa amplia desafios de integridade informacional e manipulação, inclusive com foco em atores estrangeiros e campanhas coordenadas (PARLAMENTO EUROPEU, 2025).
2. Do colonialismo territorial ao colonialismo mental individual
2.1. Colonialidade do poder e do saber: o padrão como “natureza”
A crítica decolonial usa o conceito de colonialidade para explicar por que hierarquias coloniais persistem mesmo após independências formais: o centro mantém capacidade de definir padrões de valor, de verdade e de legitimidade. Essa lógica não se limita ao comércio; ela organiza também o que é reconhecido como conhecimento, cultura “superior” e modernidade (QUIJANO, 2005).
No ambiente digital, a colonialidade ganha um novo “corpo”: não é apenas a hegemonia cultural tradicional, mas a hegemonia infraestrutural. Quem controla plataformas controla:
- a gramática do prestígio (o que viraliza);
- a gramática da confiança (o que parece verdadeiro);
- a gramática do valor (o que é recompensado).
2.2. Da nação ao sujeito: o indivíduo como “colônia cotidiana”
Se no passado a colônia era um território nacional, agora há uma colonização mental no nível microscópico: cada pessoa se torna um microterritório governado por incentivos algorítmicos. O feed organiza estímulos, a timeline define prioridades emocionais e as métricas (curtidas, views, seguidores) transformam reconhecimento em moeda de autoestima.
É nesse ponto que o colonialismo mental deixa de ser apenas tema geopolítico e vira tema de saúde pública democrática: a autonomia do sujeito é disputada não só por discursos, mas por arquiteturas de plataforma desenhadas para maximizar retenção e engajamento.
3. A arquitetura da colonização mental nas redes
A colonização mental digital não é “mistério”. Ela tem peças reconhecíveis. Quatro delas formam o núcleo do mecanismo.
3.1. Economia da atenção: o tempo como matéria-prima
Redes digitais competem por atenção como empresas competem por petróleo. A atenção é finita, mas a oferta de estímulos é infinita. O resultado é um regime de disputa agressiva pelo olhar, pelo clique, pela permanência.
Nesse regime, conteúdos “calmos” perdem para conteúdos “quentes”. E conteúdos “quentes” têm um padrão: gatilhos de indignação, medo, escândalo, humilhação e tribalismo. O indivíduo passa a ser treinado por recompensas rápidas: a dopamina da notificação vira uma microcorrente que puxa o comportamento.
3.2. Persuasive technology: design para moldar comportamento
Existe um nome para isso: tecnologia persuasiva (persuasive technology). A própria literatura e movimentos de ética do design descrevem plataformas como sistemas construídos para alterar opiniões, atitudes e comportamento do usuário (HUMANE TECHNOLOGY, s.d.).
O ponto é simples e brutal: quando um produto é “gratuito”, o produto é o comportamento. O design é ajustado para reduzir fricção e aumentar hábito, transformando o usuário em padrão previsível. A colonização mental aparece quando se naturaliza a ideia de que “é assim mesmo”, quando na verdade se trata de engenharia de escolha.
3.3. Recomendação algorítmica: ranking como governo invisível
A peça mais poderosa é a recomendação algorítmica: a ordem do feed define o que existe na consciência do usuário naquele instante. Em termos políticos, isso é governo: não pela lei, mas pela visibilidade.
E há evidência acadêmica de que algoritmos orientados a engajamento podem alimentar desinformação e polarização por um mecanismo de retroalimentação entre comportamento do usuário e ranking do conteúdo. Um trabalho recente modela esse trade-off: mais peso para curtidas e interações aumenta engajamento, mas também aumenta desinformação e polarização (GERMANO; GÓMEZ; SOBBRIO, 2025).
Ou seja: a colonização mental digital não depende de um “vilão”. Ela pode emergir do próprio objetivo de otimizar engajamento.
3.4. Métricas, status e vergonha: a moral do engajamento
As métricas não medem apenas performance: elas produzem uma moral. Ter likes vira “ser bom”. Não ter engajamento vira “não existir”. Surge, então, uma disciplina emocional: produzir o que rende, dizer o que performa, imitar o que viraliza.
Esse é o ponto em que a colonização mental entra no corpo: o sujeito passa a adaptar linguagem, opinião e estética ao que o sistema recompensa. Não é censura; é adição de incentivo. Não é proibição; é condicionamento.
4. A intensificação pela IA: o salto de escala e precisão
Se as redes já eram potentes na colonização mental, a IA muda a escala e a velocidade. Ela oferece três capacidades decisivas: produção sintética, personalização preditiva e simulação convincente.
4.1. Conteúdo sintético em massa: propaganda sem custo marginal
A IA generativa reduz o custo marginal de produzir conteúdo persuasivo. Antes, propaganda exigia equipe, tempo e orçamento. Agora, um único operador pode gerar milhares de variações de mensagens, imagens e roteiros, testando o que “cola” por microsegmentos.
Relatórios europeus apontam que a IA generativa desafia a integridade da informação e amplia a capacidade de atores (inclusive estrangeiros) de manipular o ambiente informacional (PARLAMENTO EUROPEU, 2025).
O efeito psicológico é a saturação: o sujeito fica cercado por “realidades concorrentes”, todas plausíveis, todas emocionalmente eficazes.
4.2. Deepfakes e crise epistêmica: a verdade sob suspeita
Deepfakes não são apenas “vídeos falsos”. Eles produzem um efeito mais corrosivo: criam uma crise do critério. Quando tudo pode ser falsificado, a confiança pública entra em colapso — e, nesse terreno, vence quem grita mais alto ou quem tem mais alcance.
A UNESCO descreve deepfakes como fenômeno capaz de agravar uma “crise do conhecer”, justamente por tornar a falsificação convincente e escalável (UNESCO, 2025).
Além disso, organismos da ONU/ITU vêm alertando para riscos de deepfakes e defendendo medidas e padrões de detecção/verificação (ITU, 2025).
Em linguagem direta: quando a verdade vira areia movediça, a mente fica mais colonizável — porque busca abrigo em tribos, líderes carismáticos ou narrativas simplificadoras.
4.3. Personalização preditiva: quando o feed aprende a “puxar” a mente
A IA não apenas gera conteúdo; ela aprende padrões de vulnerabilidade. Cada clique vira dado. Cada pausa no vídeo vira sinal. Cada curtida vira mapa emocional. A partir disso, a plataforma pode calibrar o que mostrar para maximizar retenção e resposta.
Shoshana Zuboff descreve um regime econômico baseado na extração de experiência humana como matéria-prima para previsão e modulação de comportamento — o chamado “capitalismo de vigilância” (ZUBOFF, 2019).
Mesmo sem aceitar todos os termos, a lógica é verificável: quando o modelo de negócio depende de prever e influenciar, a IA é a ferramenta ideal.
4.4. Operações de influência e polarização: a política como engenharia
A IA também intensifica operações de influência porque permite:
- automatizar perfis e personas;
- criar “chuvas” de conteúdo coordenado;
- testar mensagens por performance;
- operar em múltiplos idiomas e contextos.
O resultado é uma política mais parecida com engenharia de tráfego do que com debate público. E isso é especialmente perigoso em países com instituições mais frágeis ou com menor capacidade de fiscalização.
5. Colonialismo de dados: a nova extração da vida humana
5.1. Da conexão ao extrativismo: capturar para prever e vender
Nick Couldry e Ulises Mejias propõem a ideia de “colonialismo de dados” para descrever a apropriação sistemática de aspectos da vida humana como matéria-prima para o capitalismo, estendendo a mercantilização a esferas antes não colonizadas (COULDRY; MEJIAS, 2019). A própria Stanford University Press apresenta essa tese como núcleo do livro The Costs of Connection (COULDRY; MEJIAS, 2019).
Isso muda a noção de colonização mental: não se trata só de impor cultura, mas de extrair comportamento, transformá-lo em produto e devolvê-lo como influência.
5.2. Dependência informacional: ver o mundo pela janela do outro
Quando as principais plataformas, infraestruturas e modelos pertencem a poucas corporações e países, cria-se dependência informacional: a realidade cotidiana passa a ser filtrada por critérios externos.
A consequência é sutil: mesmo sem censura, o usuário passa a viver num ecossistema em que “o importante” é o que o ranking decide. A colonização mental acontece quando o sujeito toma esse filtro por realidade.
6. Países não hegemônicos: por que o custo é maior
Em qualquer lugar, a colonização mental digital é perigosa. Mas em países não hegemônicos ela tende a ser mais profunda por três razões.
6.1. Infraestrutura externa, soberania frágil
Plataformas, nuvens, sistemas de anúncio, modelos de IA, padrões de detecção e até mecanismos de autenticação frequentemente são externos. Isso reduz capacidade estatal e social de:
- auditar sistemas,
- exigir transparência,
- impor regras,
- proteger dados.
Quando a infraestrutura é externa, a autonomia é sempre negociada — e quase sempre em posição desigual.
6.2. Assimetria cultural e linguística
Modelos de IA e ecossistemas digitais tendem a favorecer línguas e repertórios do centro. Isso não é só questão de idioma: é questão de “normalidade cultural”. O que não cabe no padrão vira ruído, exceção ou invisibilidade.
A UNESCO defende, na recomendação global sobre ética em IA, princípios ligados a direitos humanos, diversidade cultural, inclusão, governança de dados e supervisão humana — justamente para evitar que a IA aprofunde desigualdades e exclusões (UNESCO, 2021).
6.3. Vulnerabilidade social: desigualdade, baixa proteção e desinformação
Sociedades desiguais e com baixa alfabetização midiática pagam mais caro: a colonização mental encontra terreno fértil quando há medo, precariedade e desconfiança institucional. É mais fácil capturar atenção de quem vive em urgência.
7. Sinais clínicos da colonização mental digital no indivíduo
Não é necessário usar metáforas grandiosas para detectar colonização mental digital. Ela aparece em sintomas cotidianos, como:
- Perda de autonomia atencional: incapacidade de sustentar foco sem checar estímulos.
- Opinião reativa: crenças formadas por indignação imediata, não por reflexão.
- Autoestima metrificada: humor regulado por números (likes, views, seguidores).
- Tribalização: necessidade de pertencer a bolhas para sentir segurança cognitiva.
- Ceticismo paralisante: “nada é verdadeiro”, abrindo espaço para cinismo e manipulação.
- Imitação de padrões dominantes: estética, linguagem e agenda moldadas pelo que o algoritmo premia.
- Ansiedade de visibilidade: existir apenas quando performa.
Quando esse conjunto vira rotina, a mente passa a funcionar como colônia: uma vida governada por incentivos externos, com pouca soberania sobre tempo e pensamento.
8. Como reduzir a colonialização mental por IA sem cair em caricaturas
Não se trata de “sair das redes” como solução mágica. Trata-se de reconstruir fricções, critérios e governança. Quatro frentes são decisivas.
8.1. Alfabetização midiática e informacional
A UNESCO sustenta há anos que alfabetização midiática e informacional é competência de cidadania para lidar com desinformação e ambientes digitais complexos (UNESCO, s.d.).
Isso inclui:
- checagem básica de fonte;
- leitura de contexto;
- noção de manipulação emocional;
- compreensão de como recomendação funciona.
8.2. Higiene algorítmica: limites, fricções e auditoria
Medidas práticas reduzem captura:
- desativar autoplay quando possível;
- limitar notificações a funções essenciais;
- criar “fricções” voluntárias (tempos de pausa);
- diversificar fontes intencionalmente.
No plano público, auditoria e transparência de sistemas de recomendação devem ser tratados como tema de interesse coletivo, não como segredo comercial absoluto.
8.3. Soberania de dados e governança democrática
A recomendação da UNESCO propõe princípios para orientar governança de IA com direitos humanos, transparência, responsabilidade e proteção contra discriminação (UNESCO, 2021).
Em países não hegemônicos, isso significa:
- marcos regulatórios aplicáveis;
- capacidade técnica estatal;
- exigência de relatórios de risco;
- padrões de autenticação e proveniência de conteúdo (contra deepfakes).
8.4. Cultura e educação: reconstruir repertório e autoria
Colonização mental digital é também colonização cultural: o repertório vira monotonia internacionalizada. A saída é fortalecer autoria local, ciência local, jornalismo local e educação crítica — não por nacionalismo vazio, mas por pluralismo real.
9. Conclusão — liberdade mental exige política da atenção e soberania informacional
A colonização mental do indivíduo nas redes digitais é uma dominação sem uniforme. Ela opera por ranking, por recompensa, por hábito e por captura de tempo. A inteligência artificial acelera esse processo porque industrializa a persuasão: produz conteúdo sintético em massa, personaliza estímulos com precisão e instala uma crise epistêmica por meio de deepfakes e manipulação escalável. Ao mesmo tempo, o colonialismo de dados transforma vida cotidiana em matéria-prima para previsão e influência, deslocando a soberania do sujeito para infraestruturas invisíveis.
Em países não hegemônicos, o risco é agravado: infraestrutura externa, modelos centrados em repertórios do centro e menor capacidade de regulação criam dependência informacional. A consequência é política e existencial: o indivíduo passa a viver sob uma “realidade assistida” por plataformas, enquanto sua autonomia atencional e crítica se desgasta.
Reduzir essa colonialização mental não é um gesto moral individual, nem uma guerra cultural simplista. É uma agenda de civilização digital: alfabetização midiática, governança de IA, soberania de dados, auditoria de recomendação e reconstrução de autoria cultural. Sem isso, a mente conectada seguirá como território aberto — colonizada não por tropas, mas por modelos que aprendem a puxar, dia após dia, o fio invisível do comportamento.
Referências
COULDRY, Nick; MEJIAS, Ulises A. The costs of connection: how data is colonizing human life and appropriating it for capitalism. Stanford: Stanford University Press, 2019. Disponível em: https://www.sup.org/books/sociology/costs-connection. Acesso em: 3 fev. 2026.
COULDRY, Nick; MEJIAS, Ulises A. The costs of connection: preface and chapter 1 (excerpt). Stanford: Stanford University Press, 2019. Disponível em: https://law.unimelb.edu.au/__data/assets/pdf_file/0008/3290381/Couldry-and-Mejias-Preface-and-Ch-1.pdf. Acesso em: 3 fev. 2026.
GERMANO, Fabrizio; GÓMEZ, Vicenç; SOBBRIO, Francesco. Ranking for Engagement: How Social Media Algorithms Fuel Misinformation and Polarization. Barcelona: Barcelona School of Economics Working Paper 1501, 2025. Disponível em: https://bw.bse.eu/wp-content/uploads/2025/07/1501.pdf. Acesso em: 3 fev. 2026.
HUMANE TECHNOLOGY. Persuasive technology. Center for Humane Technology, s.d. Disponível em: https://www.humanetech.com/youth/persuasive-technology. Acesso em: 3 fev. 2026.
INTERNATIONAL TELECOMMUNICATION UNION (ITU). UN report urges stronger measures to detect AI-driven deepfakes. Reuters, 11 jul. 2025. Disponível em: https://www.reuters.com/business/un-report-urges-stronger-measures-detect-ai-driven-deepfakes-2025-07-11/. Acesso em: 3 fev. 2026.
PARLAMENTO EUROPEU. European Parliamentary Research Service (EPRS). Information manipulation in the age of generative artificial intelligence. Brussels: European Parliament, 2025. Disponível em: https://www.europarl.europa.eu/RegData/etudes/BRIE/2025/779259/EPRS_BRI%282025%29779259_EN.pdf. Acesso em: 3 fev. 2026.
QUIJANO, Aníbal. Colonialidade do poder, eurocentrismo e América Latina. In: LANDER, Edgardo (org.). A colonialidade do saber: eurocentrismo e ciências sociais – perspectivas latino-americanas. Buenos Aires: CLACSO, 2005. Disponível em: https://unesdoc.unesco.org/ark%3A/48223/pf0000380455. Acesso em: 3 fev. 2026.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021. Disponível em: https://unesdoc.unesco.org/ark%3A/48223/pf0000380455. Acesso em: 3 fev. 2026.
UNESCO. Recommendation on the ethics of artificial intelligence. Paris: UNESCO, 2021. Disponível em: https://en.unesco.org/artificial-intelligence/ethics. Acesso em: 3 fev. 2026.
UNESCO. Deepfakes and the crisis of knowing. Paris: UNESCO, 27 out. 2025. Disponível em: https://www.unesco.org/en/articles/deepfakes-and-crisis-knowing. Acesso em: 3 fev. 2026.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs, 2019. Disponível em: https://www.hbs.edu/faculty/Pages/item.aspx?num=56791. Acesso em: 3 fev. 2026.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism (PDF). 2019. Disponível em: https://we.riseup.net/assets/533560/Zuboff%2C%2BShoshana.The%2BAge%2Bof%2BSurveillance%2BCapitalism.2019.pdf. Acesso em: 3 fev. 2026.
Nenhum comentário:
Postar um comentário