domingo, 19 de abril de 2026

Pesquisa eleitoral não é adivinhação: como poucas entrevistas podem medir milhões de eleitores

Entre estatística, método e política, o que de fato uma pesquisa eleitoral mostra — e o que ela não pode prometer


Introdução

A desconfiança em torno das pesquisas eleitorais costuma nascer de uma impressão intuitiva: parece estranho que um estado com milhões de eleitores ou um país com um eleitorado gigantesco possa ser “representado” por pouco mais de mil entrevistas. Para muita gente, isso soa como insuficiência numérica; para a estatística, porém, a questão central não é ouvir uma grande fração da população, mas selecionar uma amostra suficientemente bem distribuída, com método capaz de estimar o comportamento coletivo dentro de uma faixa conhecida de incerteza. No Brasil, esse processo ainda passa por exigências legais e regulatórias, como o registro prévio dos levantamentos, a divulgação do plano amostral, da margem de erro e do período de coleta, sob supervisão da Justiça Eleitoral (Brasil, 1997; TSE, 2026).  

Esse tema interessa não apenas a estatísticos, jornalistas e institutos de pesquisa. Interessa ao eleitor comum, ao professor, ao gestor público, ao militante, ao analista político e a qualquer pessoa que pretenda compreender o debate público com um mínimo de rigor. A pesquisa eleitoral séria não é um oráculo; ela é um instrumento de medição. Mede tendências, rejeições, consolidação de candidaturas, disposição de comparecimento e humor político em um dado momento. Seu valor depende menos de espetáculo numérico e mais de desenho metodológico, qualidade da coleta e interpretação honesta dos resultados (AAPOR, 2015; AAPOR, 2023).  

O problema começa quando a manchete transforma estimativa em profecia. Uma pesquisa pode apontar liderança sem garantir vitória, pode registrar empate técnico sem significar igualdade real de forças, e pode mostrar um candidato competitivo no quadro geral ao mesmo tempo em que revela rejeição alta e baixa capacidade de crescer no segundo turno. Ler pesquisa eleitoral, portanto, exige alfabetização estatística mínima e compreensão metodológica suficiente para separar fotografia de futurologia (TSE, 2025; TSE, 2026).  


1. O que é, afinal, uma pesquisa eleitoral

Pesquisa eleitoral é um levantamento quantitativo sobre preferências políticas, percepções e intenções de voto realizado a partir de uma amostra de eleitores. O ponto decisivo está justamente nessa palavra: amostra. Não se trata de consultar todos os eleitores, como numa apuração oficial, mas de entrevistar um conjunto menor de pessoas selecionadas segundo critérios técnicos que permitam inferir, com margem conhecida de incerteza, como está o conjunto maior do eleitorado. A Justiça Eleitoral brasileira exige que esse tipo de levantamento seja registrado previamente e acompanhado de informações sobre contratante, metodologia, plano amostral, nível de confiança, margem de erro e questionário aplicado (Brasil, 1997; TSE, 2026).  

Essa exigência institucional não é mero formalismo burocrático. Ela cumpre um papel democrático importante: permitir fiscalização pública. Quando um levantamento informa apenas o percentual final sem revelar como chegou a ele, o número perde transparência. A qualidade de uma pesquisa não está estampada apenas no resultado, mas no percurso metodológico que produziu esse resultado. É por isso que a leitura séria começa pela ficha técnica, não pela manchete (TSE, 2026).  


2. Por que mil entrevistas podem bastar para milhões de eleitores

Aqui está a dúvida mais comum e, talvez, a mais mal compreendida. O senso comum imagina que, se a população é muito grande, a amostra precisaria crescer na mesma proporção. A estatística mostra que não. Quando a população já é muito grande, o tamanho da amostra necessário para estimar uma proporção com boa precisão passa a depender muito mais da margem de erro desejada do que do tamanho bruto do universo pesquisado. Em termos práticos, uma amostra aleatória de aproximadamente mil entrevistados pode produzir algo próximo de ±3 pontos percentuais de margem de erro para o resultado geral, o que explica por que esse patamar se tornou um padrão clássico em pesquisas de opinião (AAPOR, 2023; AAPOR, 2015).  

A explicação intuitiva é simples: a pesquisa não precisa “copiar” a população inteira em miniatura; precisa captar um padrão confiável de distribuição das respostas. Se um recipiente muito grande estiver bem misturado, poucas retiradas aleatórias já permitem estimar a proporção entre seus componentes. A Office for National Statistics ilustra isso com um exemplo eloquente: uma amostra aleatória de mil pessoas pode produzir margem de erro semelhante tanto em uma população de centenas de milhares quanto em outra de mais de um bilhão, desde que a seleção seja realmente aleatória e a amostra seja pequena em relação ao total (ONS, 2017).  

O ponto técnico por trás disso é que o erro amostral diminui com a raiz quadrada do tamanho da amostra, e não de forma linear. Isso significa que dobrar o número de entrevistas não corta o erro pela metade. A melhora existe, mas vai ficando cada vez menor. Por isso, sair de 100 para 400 entrevistas produz ganho expressivo; sair de 1.000 para 2.000 melhora menos do que a intuição imagina. A consequência prática é clara: há um ponto de equilíbrio entre custo, tempo e precisão, e esse ponto frequentemente está na faixa de 1.000 a 2.500 entrevistas para medições gerais (AAPOR, 2023).  

Gráfico 1 — Normalização min–max em porcentagem: amostra x margem de erro


Esse gráfico ajuda a visualizar a relação inversa entre as duas variáveis: à medida que o tamanho da amostra cresce, a margem de erro cai. O leitor percebe, com nitidez, que a curva de melhora é forte no começo e menos intensa depois, exatamente como prevê a lógica estatística.


3. A fórmula existe — e pode ser entendida sem mistério

A fórmula clássica da margem de erro para proporções, em amostras probabilísticas, é:

Nessa expressão, ME é a margem de erro, z representa o nível de confiança, p é a proporção observada e n é o tamanho da amostra. Para 95% de confiança, usa-se normalmente z \approx 1{,}96. Quando se considera o caso mais conservador, isto é, p = 0{,}50, uma amostra de 1.000 entrevistas produz algo em torno de 3,1 pontos percentuais de margem de erro; com 2.500 entrevistas, esse valor cai para aproximadamente 2,0 pontos (AAPOR, 2023).  

Traduzindo: se uma pesquisa indica que um candidato tem 40%, isso não significa que o valor real seja exatamente 40%. Significa que, dentro do modelo estatístico adotado, ele provavelmente está em uma faixa próxima — por exemplo, entre 37% e 43%, se a margem for de ±3 pontos. É essa faixa que explica o chamado empate técnico: dois percentuais podem parecer diferentes no número bruto e, ainda assim, se sobrepor estatisticamente (AAPOR, 2023; TSE, 2026).  

Mas a fórmula não resolve tudo. Ela cobre o erro amostral, isto é, a incerteza decorrente do fato de se trabalhar com uma amostra e não com um censo. Ela não corrige cobertura ruim, seleção enviesada, pergunta mal redigida, ordem inadequada do questionário, entrevistador mal treinado ou ponderação mal feita. Em pesquisas reais, muitas vezes esses erros não amostrais pesam tanto quanto ou mais do que a margem estampada na divulgação (AAPOR, 2015; AAPOR, 2023).  


4. O que torna uma amostra boa: não basta quantidade, é preciso desenho

Uma amostra forte não é apenas grande. Ela precisa ser bem construída. No caso brasileiro, isso envolve, idealmente, amostragem estratificada e multietápica, com distribuição por capital, região metropolitana, interior, sexo, idade, escolaridade, nível econômico e, quando pertinente, urbano e rural. A própria Justiça Eleitoral exige que o registro informe a área física de realização e os critérios de ponderação adotados, exatamente porque o objetivo é aproximar a amostra da estrutura real do eleitorado (TSE, 2026).  

Daí vem uma das advertências mais importantes do debate público: uma amostra de 5.000 pessoas pode ser pior do que uma de 1.200, se tiver sido montada por conveniência, concentrada em poucos territórios ou contaminada por vieses de seleção. O tamanho da amostra reduz uma parte da incerteza; não corrige defeitos de origem. É por isso que enquetes em rede social, painéis abertos na internet e levantamentos sem transparência metodológica não podem ser tratados como equivalentes a pesquisas probabilísticas de opinião (AAPOR, 2015; TSE, 2025).  


5. O questionário: onde a pesquisa pode se fortalecer ou se sabotar

Se a amostra é o esqueleto da pesquisa, o questionário é sua musculatura interpretativa. A redação das perguntas define o que está sendo medido e como o entrevistado compreende o problema. Questões sobre intenção de voto espontânea, voto estimulado, segundo turno, rejeição, decisão consolidada, interesse por política, avaliação de governo e temas prioritários não medem a mesma coisa. Misturá-las ou lê-las como se fossem equivalentes produz ruído analítico (AAPOR, 2015).  

A pergunta espontânea mede lembrança imediata e presença simbólica do candidato. A estimulada mede desempenho diante de um conjunto explícito de opções. A rejeição mede limite de crescimento. A pergunta sobre voto decidido ou voto que ainda pode mudar mede estabilidade da escolha. Já a avaliação de governo ajuda a entender se a disputa tende a funcionar como referendo sobre a situação presente ou como busca de mudança (TSE, 2025; AAPOR, 2015).  

Por isso, a ordem do questionário importa. Uma boa prática metodológica é iniciar por filtro do eleitorado, seguir para intenção de voto espontânea e estimulada, depois testar rejeição, estabilidade do voto e, só depois, entrar em avaliação de governo, imagem dos candidatos, temas prioritários e perfil sociodemográfico. Quando uma pesquisa abre com perguntas carregadas de julgamento moral ou emoção política, aumenta o risco de contaminar as respostas subsequentes (AAPOR, 2015; AAPOR, 2023).  


6. Como ler uma pesquisa sem cair na armadilha da manchete

A leitura correta de uma pesquisa começa com cinco perguntas: quem contratou, quem executou, quantas entrevistas foram feitas, quando a coleta ocorreu e que tipo de pergunta está sendo apresentada. Sem isso, o número vira slogan. A Justiça Eleitoral brasileira mantém o sistema PesqEle justamente para tornar públicos esses dados e permitir controle social sobre os levantamentos registrados (TSE, 2026).  

Também é decisivo saber distinguir votos totais de votos válidos. Os votos válidos excluem brancos, nulos e indecisos e reproduzem a lógica da apuração oficial das eleições majoritárias, que desconsidera brancos e nulos. Isso é metodologicamente legítimo, mas pode ampliar a sensação de vantagem na manchete quando ainda há muita indefinição no eleitorado (Brasil, 1997).  

Outro ponto central é a análise dos subgrupos. O resultado geral de uma amostra de 1.000 entrevistas pode ter cerca de ±3 pontos de erro, mas isso não vale automaticamente para recortes menores dentro dela. Se um subgrupo específico tiver apenas 100 entrevistados, sua margem de erro pode saltar para algo próximo de ±10 pontos. A AAPOR é taxativa ao alertar que o erro do total não pode ser transferido mecanicamente para subconjuntos da amostra (AAPOR, 2023; AAPOR, 2022).  

Gráfico 2 — Gráfico de barras: amostra x margem de erro normalizadas


Esse gráfico funciona bem neste ponto do texto porque transforma a discussão abstrata em comparação direta: o leitor vê, em cada tamanho de amostra, a distância entre crescimento do esforço de campo e redução da incerteza estatística.


7. O caso brasileiro: transparência institucional e limites democráticos

No Brasil, a pesquisa eleitoral está submetida à Lei nº 9.504/1997 e às normas do Tribunal Superior Eleitoral. Para as Eleições 2026, o TSE reafirmou a regra de registro prévio dos levantamentos até cinco dias antes da divulgação, bem como a necessidade de apresentação dos elementos técnicos indispensáveis à fiscalização. Em fevereiro de 2026, inclusive, a Corte reforçou por decisão liminar a vedação à divulgação de pesquisa sem registro prévio, sinalizando que o tema é tratado como questão de integridade informacional do processo eleitoral (Brasil, 1997; TSE, 2026).  

Esse arranjo institucional não elimina todos os problemas, mas cria um ambiente mais controlável. Pesquisa registrada não é, por definição, perfeita; pesquisa sem registro, por sua vez, já nasce sem o mínimo de transparência exigível. Numa democracia atravessada por disputas narrativas intensas, a circulação de números sem ficha técnica, de enquetes travestidas de levantamento científico e de estatísticas isoladas do método representa um risco real de desinformação política (TSE, 2025; TSE, 2026).  


8. Visualizar ajuda a compreender: o papel dos gráficos na alfabetização estatística

A comunicação pública da estatística melhora quando números abstratos ganham forma visual compreensível. No debate sobre pesquisas eleitorais, gráficos são especialmente úteis porque ajudam a quebrar duas ilusões comuns: a de que amostras “pequenas” não podem medir universos grandes e a de que aumentar indefinidamente a quantidade de entrevistas sempre produz ganhos proporcionais de precisão. O primeiro gráfico, em linha, mostra a direção das curvas; o segundo, em barras, evidencia os contrastes em cada ponto; a prancha comparativa reúne ambos e facilita a leitura conjunta do fenômeno.

Gráfico 3 —  Prancha comparativa com os dois gráficos de normalização


A presença dessa prancha é metodologicamente estratégica na reta final do artigo, porque ela converte o argumento em evidência visual: a amostra cresce rapidamente em esforço, enquanto a margem de erro cai em ritmo progressivamente menor.


Conclusão

Pesquisa eleitoral séria não é jogo de adivinhação, nem truque de propaganda, nem simples recitação de percentuais. É uma técnica de estimativa baseada em amostragem, probabilidade, controle de incerteza, desenho de questionário, supervisão de campo e interpretação responsável. Sua legitimidade não decorre do fato de entrevistar multidões, mas de conseguir selecionar, com método, um conjunto de eleitores capaz de representar tendências do todo dentro de limites conhecidos. É por isso que algo em torno de mil entrevistas pode, sim, produzir um retrato robusto do panorama geral de um estado ou de uma nação, desde que a amostra seja bem construída e a coleta seja correta (AAPOR, 2023; ONS, 2017).  

Quando essa lógica é mal compreendida, abre-se espaço para duas distorções igualmente nocivas: de um lado, o ceticismo absoluto, que descarta toda pesquisa como fraude; de outro, a credulidade automática, que trata cada número como sentença definitiva. Nenhuma das duas posições ajuda a democracia. O caminho intelectualmente mais honesto está em reconhecer que a pesquisa é uma ferramenta poderosa, mas condicional: poderosa quando respeita método, transparência e desenho; limitada quando seus resultados são arrancados do contexto ou usados como peça de manipulação narrativa. Em política, como na ciência, não basta olhar o número. É preciso entender como ele foi produzido, o que ele mede, o que ele não mede e quais margens de incerteza o cercam.  



Referências

AAPOR. A primer on pre-election polls. [S. l.]: American Association for Public Opinion Research, 2015.  

AAPOR. Measuring sub-group preferences. [S. l.]: American Association for Public Opinion Research, 2022.  

AAPOR. Margin of sampling error/credibility interval. [S. l.]: American Association for Public Opinion Research, 2023.  

BRASIL. Lei nº 9.504, de 30 de setembro de 1997. Estabelece normas para as eleições. Brasília, DF: Presidência da República, 1997.  

ONS. The beauty of randomness. [S. l.]: Office for National Statistics, 2017.  

TSE. Glossário explica o que é pesquisa eleitoral. Brasília, DF: Tribunal Superior Eleitoral, 2025.  

TSE. Eleições 2026: pesquisas eleitorais devem ser registradas a partir desta quinta (1º). Brasília, DF: Tribunal Superior Eleitoral, 2026.  

TSE. TSE suspende divulgação de pesquisa eleitoral sem registro prévio. Brasília, DF: Tribunal Superior Eleitoral, 2026.  


Nenhum comentário:

Postar um comentário