- Thais Carrança – @tcarran
- Da BBC News Brasil em São Paulo
Um estudo inédito realizado por pesquisadores da UFPE (Universidade Federal de Pernambuco) durante pós-doutorado na Universidade de Oxford, na Inglaterra, não encontrou qualquer evidência de irregularidades na contagem de votos das eleições brasileiras de 2018.
Alguns dos métodos usados pelos pesquisadores foram utilizados em eleições em outras partes do mundo — e já mostraram sinais de possíveis fraudes em países como Rússia e Uganda.
O novo estudo corrobora análises feitas pelo Tribunal Superior Eleitoral (TSE) e por outros pesquisadores independentes, que chegaram ao mesmo resultado, reiterando a confiabilidade do sistema eleitoral brasileiro.
No levantamento, os pesquisadores da UFPE utilizam cinco testes estatísticos diferentes, baseados em três metodologias distintas, para analisar os resultados da última eleição presidencial brasileira, a partir dos dados oficiais fornecidos pelo TSE.
O ano de 2018 foi escolhido para análise por se tratar de um evento singular na história eleitoral, explicam Dalson Figueiredo, Lucas Silva e Ernani Carvalho, autores do estudo.
“Foi a primeira vez em que um candidato vencedor alegou suspeição do processo que regulou a sua própria vitória. As dúvidas quanto à integridade das apurações costumam ser feitas, exclusivamente, pelos candidatos derrotados”, destacam os pesquisadores, citando como exemplo desse padrão a contestação da vitória de Dilma Rousseff (PT) por Aécio Neves (PSDB) em 2014 e da vitória de Joe Biden por Donald Trump nas eleições americanas de 2020.
O ineditismo do estudo está na aplicação simultânea dos cinco testes matemáticos com diferentes metodologias, explica Figueiredo, em entrevista à BBC News Brasil.
“Quando dados são manipulados de forma intencional, isso pode ser detectado por métodos estatísticos, porque deixa rastros”, diz o coordenador do Programa de Pós-graduação em Ciência Política da UFPE.
“Normalmente, na literatura de perícia eleitoral, o que os pesquisadores fazem é aplicar um ou outro teste. O que nós fazemos é pegar todas as metodologias estatísticas conhecidas e juntar numa mesma aplicação”, acrescenta.
“Não é impossível alguém fraudar [um pleito] antecipando algum desses testes. Mas fazer isso com diferentes testes, que têm diferentes pressupostos, é praticamente impossível”, afirma Figueiredo. “Exigiria um conhecimento matemático fora do normal, uma capacidade computacional muito avançada e que isso fosse feito de forma sistemática, envolvendo urnas de todo o Brasil, sem deixar nenhum rastro. Não vou dizer que é impossível, mas exigiria uma conspiração de nível hollywoodiano, com muita gente envolvida.”
Além de publicarem seus resultados no periódico científico internacional, os pesquisadores também disponibilizam publicamente todos os dados e scripts computacionais utilizados no estudo. Isso permite que qualquer outro pesquisador ou pessoa com conhecimentos de computação possa avaliar a robustez dos resultados e reproduzir os testes.
Eles também planejam aplicar a mesma metodologia na análise dos resultados eleitorais de 2022.
“Já montamos os códigos para, na noite da apuração, rodar tudo de novo para 2022. Se os resultados forem similares aos de 2018, teremos uma evidência robusta de que a contagem foi íntegra e que não houve nenhuma distorção significativa”, diz o cientista político.
Os cinco testes matemáticos
Os cinco testes utilizados pelos pesquisadores da UFPE durante sua estadia no Centro Latino-Americano (LAC, na sigla em inglês) da Universidade de Oxford são os seguintes:
- Lei de Benford do segundo dígito;
- média do último dígito;
- análise de frequência dos últimos dígitos 0 e 5;
- correlação entre o percentual de votos válidos recebido pelo candidato vencedor e a taxa de participação;
- e densidade de Kernel reamostrada da proporção de votos válidos.
Apesar da linguagem estatística, é possível explicar cada um desses termos de forma simplificada.
1) Lei de Benford do segundo dígito
A Lei de Benford, que leva o nome do físico Frank Benford e foi descoberta pelo astrônomo Simon Newcomb em 1881, estabelece que, em alguns conjuntos de números, como tamanhos de rio ou da população de cidades, o dígito inicial mais comum é o 1 (com 30,1% de frequência), seguido do 2 (17,6%). A frequência dos demais algarismos como dígito inicial vai caindo sucessivamente do 3 até o 9, quando é de apenas 4,6%.
A Lei de Benford, no entanto, tende a funcionar quando se está analisando um conjunto abrangente de números que não tenham uniformidade.
No caso das seções eleitorais brasileiras, o Código Eleitoral estabelece um limite mínimo de 50 e máximo de 400 eleitores por seção. Por conta disso, como não há uma grande variação entre os números analisados, é mais indicada a análise do segundo dígito, e não do primeiro, explica Figueiredo, da UFPE.
Para o segundo dígito, a frequência esperada segundo a Lei de Benford é muito próxima de 10% para cada algarismo — não é difícil de entender: o sistema de numeração decimal tem dez algarismos (0, 1, 2, 3, 4, 5, 6, 7, 8, 9), então cada um deles tem cerca de 10% de chance de aparecer como segundo dígito num conjunto de dados que não tenha sido manipulado.
Para ser mais preciso, a expectativa de frequência do segundo dígito vai diminuindo gradualmente do zero ao 9, de 11,97% para 8,50%
Veja a frequência esperada para o segundo dígito segundo a Lei de Benford:
Agora veja a relação entre a expectativa segundo a Lei de Benford e os votos por candidato no primeiro e segundo turnos de 2018, considerando dados por município fornecidos pelo TSE:
A conclusão dos pesquisadores é: não há evidência de anomalias, o que é um sinal de ausência de fraude sistemática na contagem dos votos.
2) Média do último dígito
A lógica do teste de média do último dígito fica fácil se você entendeu que, no sistema de numeração decimal, cada um dos dez algarismos tem aproximadamente 10% de chance de aparecer como dígito num conjunto de dados que não tenha sido manipulado.
Partindo dessa premissa, de que a distribuição dos algarismos de 0 a 9 é uniforme, se você somar os últimos dígitos de um conjunto de números, a média esperada deve ser próxima de 4,5 (ou seja: 0 1 2 3 4 5 6 7 8 9 = 45, dividido por 10 = 4,5).
Agora veja a média encontrada pelos pesquisadores, analisando o último dígito do número de votos por candidato no primeiro turno de 2018, considerando dados municipais. A terceira coluna mostra o intervalo de confiança e a última, o número de municípios com informação disponível:
E agora, a média do último dígito para os votos do segundo turno:
A conclusão dos pesquisadores é que os valores obtidos nas eleições presidenciais de 2018 estão próximos do parâmetro esperado, com todos os candidatos com média do último dígito próxima a 4,5. A evidência, portanto, não mostra nenhuma anormalidade.
3) Análise de frequência dos últimos dígitos 0 e 5
Esse teste segue a mesma lógica do anterior. Partindo do pressuposto de que, numa eleição não manipulada, a incidência de cada um dos dez algarismos (0 a 9) como último dígito tende a estar próxima de 10%, a frequência esperada para que os números 0 e 5 apareçam como último dígito é de 20% (ou 0,2, se quisermos representar esse 20% de forma decimal).
Veja o que os pesquisadores encontraram, analisando a frequência com que 0 e 5 aparecem como último dígito no número de votos por candidatos no primeiro e segundo turnos de 2018:
Mais uma vez a conclusão dos pesquisadores é de que não há anormalidades nos dados.
4) Correlação entre o percentual de votos válidos recebido pelo candidato vencedor e a taxa de participação
Depois de três testes baseados em dígitos, chegamos a um teste diferente, com uma metodologia que foi desenvolvida para identificar fraudes eleitorais na Rússia.
A fraude que ela busca identificar é o desvio de votos de pessoas que não compareceram ou votaram nos candidatos perdedores, para o candidato mais votado.
“Se isso é feito de forma repetida, gera um padrão de associação — uma correlação estatística — entre a taxa de comparecimento e a votação do candidato vencedor”, explica Figueiredo.
Para analisar essa associação, os estudiosos fazem um tipo de gráfico chamado histograma, em que cada ponto é uma sessão ou distrito eleitoral. O eixo vertical (↑) é o percentual de votos no candidato vencedor e o eixo horizontal (→), a taxa de comparecimento para votação.
Quando há uma manipulação sistemática de votos, transformando abstenções e votos nos candidatos derrotados em votos para o candidato vencedor, surge uma “mancha” no canto superior direito dos gráficos: são sessões eleitorais com comparecimento próximo a 100% e votação no candidato vitorioso também próximo a 100%, o que é indicativo de possível fraude.
Agora veja o que os pesquisadores da UFPE encontraram analisando os dados das eleições de 2018:
Conclusão: nenhuma mancha anormal no canto superior direito do gráfico que possa sugerir manipulação dos votos.
5) Densidade de Kernel reamostrada da proporção de votos válidos
O quinto e último teste realizado pelos pesquisadores da UFPE durante o pós-doutorado de dois deles em Oxford, foi o que deu mais trabalho, por exigir uma elevadíssima capacidade computacional para ser realizado, conta Figueiredo.
Os pesquisadores só conseguiram rodar o modelo porque um professor da UFPE, Rafael Mesquita, conseguiu um financiamento para fazer computação na nuvem — sem depender da memória local do computador, os dados são rodados no ambiente virtual.
“Levou um dia e meio para conseguir rodar o modelo para cada candidato. E fizemos isso para Bolsonaro, Haddad e Ciro no primeiro turno, e para Bolsonaro e Haddad no segundo turno”, lembra o professor da UFPE.
Nesse processo de reamostragem, o sistema pega o percentual de votos válidos por seção eleitoral e seleciona amostras, realizando testes repetitivos em busca de percentuais arredondados.
“Dificilmente um percentual de votos válidos vai ser 45%, por exemplo. Ele vai ser 45,13%, 44,29%. Então esse método busca quantas seções têm percentuais sem a fração, em comparação a quanto seria esperado”, diz o pesquisador.
Para as eleições da Rússia de 2003, 2007 e 2011, os percentuais de sessões eleitorais com indícios de fraude chegaram a 24%, 86% e 94%, segundo estudo de Arturas Rozenas, professor da Universidade Nova York (NYU), que desenvolveu essa metodologia.
No Brasil, os percentuais encontrados são menores do que 1%, abaixo até do percentual de sessões suspeitas em eleições no Canadá em 2011, onde não houve qualquer indício de fraude.
“Mesmo trocando o método estatístico, da estatística frequentista para a bayesiana, e utilizando uma computação muito mais intensiva, também não encontramos nada remotamente parecido com indício de fraude ou de irregularidade”, conclui Figueiredo.
“Estamos muito mais próximos do ideal canadense do que da Rússia. O pessoal diz que ‘o Brasil vai virar a Venezuela’, mas estamos mais perto de países com democracias consolidadas e desenvolvidas”, acrescenta.
O pesquisador explica qual é a conclusão tirada após a realização dos cinco testes.
“A conclusão que tiramos é que, independe do tipo de teste — usamos testes de dígito, teste de correlação e teste de padrões de distribuição de votos válidos —, as três vertentes apontam para uma mesma conclusão: não há sinais de irregularidade na apuração dos votos”, afirma.
“Isso prova que não houve irregularidade? Não prova, mas o ônus da prova cabe a quem acusa. Se você diz que o sistema está adulterado, é você quem tem que apresentar onde está a corrupção, o adultério, o erro do sistema.”
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!
Você precisa fazer login para comentar.