- Paula Adamo Idoeta
- Da BBC News Brasil em Londres
“Cidadãos de bem” versus “jihadistas”, “patriotismo e decência” versus “perversão” e “princípios e valores” versus “declínio nacional”.
Expressões e palavras parecidas a essas, com forte cunho moral e apelo à identidade social do público, apareceram com frequência em 92 mil textos de língua inglesa analisados pelo pesquisador espanhol Carlos Carrasco-Farré.
O pesquisador coletou esse material de 194 sites americanos classificados como difusores de desinformação pelo banco de dados Fake News Corpus e dividiu-o em categorias (notícias puramente falsas, teorias da conspiração, discursos de ódio, pseudociência, rumores e conteúdo “caça-clique” enganoso).
Em seguida, Carrasco-Farré comparou as palavras desses textos com as de 3 mil reportagens de veículos jornalísticos em inglês, como The New York Times, The Wall Street Journal, The Guardian e BBC.
O resultado dessa comparação, publicado no periódico científico da Nature Humanities and Social Sciences Communication, é o que o pesquisador chama de “impressão digital da desinformação”.
Palavras e expressões com algum tipo de apelo à moralidade — “honra”, “infidelidade”, “patriotismo”, “demônio” — apareceram 37% a mais nos textos classificados como desinformação do que nos jornalísticos convencionais.
“Ou seja, eles tentam influenciar psicologicamente o usuário por intermédio de ideias que expressam um ataque à identidade social individual do leitor”, conclui o estudo. Algo que, com base em pesquisas e observações empíricas, estudiosos dizem ocorrer também no Brasil, sobretudo em período eleitoral (leia mais abaixo).
Embora o uso da moralidade como arma de desinformação já fosse conhecido, Carrasco-Farré diz que essa é a primeira vez que o emprego desse palavreado moral foi medido em tantos detalhes.
“Isso foi o mais surpreendente da pesquisa, porque o apelo à moralidade é a variável [entre todas as estudadas] com mais diferença em relação às notícias reais, que têm de seguir um código deontológico [normas] e jornalístico”, diz à BBC News Brasil Carrasco-Farré, atualmente professor na Toulouse Business School, na França.
Classificar automaticamente textos falsos unicamente pelo tipo de palavreado tem limitações. Dalby Dienstbach, linguista da Escola de Comunicação, Mídia e Informação da FGV, lembra que a moralidade é um conceito relativo, e a própria escolha de quais palavras serão tratadas como “de cunho moral” exige um juízo de valor prévio, que pode gerar discordâncias.
No estudo, Carrasco-Farré explica que usou como referência um dicionário acadêmico previamente empregado para mensurar discursos em assuntos polarizados nos EUA, como controle de armas, casamento homossexual e mudanças climáticas.
Ele calculou quantas das palavras contidas no dicionário apareciam nos textos de desinformação e mediu sua frequência (número de palavras de cunho moral a cada 500 palavras de texto).
Além da moralidade, ele mensurou a complexidade léxica dos textos e a evocação de emoções negativas.
Textos falsos são mais fáceis de ler
Dos 92 mil textos em inglês analisados, 16 mil eram especificamente “fake news” — ou seja, seu conteúdo era totalmente fabricado.
Segundo os cálculos de Carrasco-Farré, esse conteúdo falso tinha 18 vezes mais ênfase em emoções negativas do que as notícias veiculadas pela grande imprensa. Soma-se a isso o fato de que eram mais fáceis de ler, porque tinham menos diversidade léxica — ou seja, menos palavras difíceis.
Com isso e uma estrutura gramatical mais simples, eles exigiam, em geral, menos esforço cognitivo do leitor. Essas características dão à desinformação vantagens competitivas para serem mais compartilhadas nas redes sociais do que as notícias com padrões jornalísticos, explica Carrasco-Farré.
“Em geral, conteúdo que evoca emoções intensas é mais viral, o que explica por que redes sociais são uma fonte de contágio emocional em grande escala”, escreve.
Ao ler ou assistir ao conteúdo com forte carga moral, o leitor que acredita no discurso de desinformação conclui que seu grupo social está sob ataque, aponta o pesquisador.
“Isso cria uma espécie de conflito, na maioria das vezes falso, de que alguém externo está atacando o grupo ao qual você pertence, e portanto atacando você pessoalmente”, explica ele à BBC News Brasil.
Desinformação nas eleições brasileiras
Algumas das palavras encontradas em grande volume pelo pesquisador espanhol — como “decência”, “cidadão de bem”, “perversão” — são vistas diariamente pela equipe do coletivo jornalístico Bereia, dedicado à checagem de informações que circulam no meio religioso cristão brasileiro, de sites e blogs gospel às redes sociais de influenciadores. No momento, o coletivo está voltado à checagem de informações ligadas às eleições.
“O conteúdo de pânico moral é muito utilizado”, diz à BBC News Brasil Magali Cunha, editora-geral do Bereia e pesquisadora do Instituto de Estudos da Religião (Iser).
Nestas eleições, a maior parte da desinformação de cunho moral nos grupos religiosos tem sido de falsas ameaças à liberdade religiosa e ao funcionamento de igrejas, prossegue a pesquisadora.
Embora identifique também conteúdo de desinformação em discursos da direita e da esquerda tradicionais, Cunha observa que, no meio religioso, a maior parte do material de “pânico moral” vem do que ela classifica como extrema direita.
“São materiais mais enganosos do que falsos — têm algum elemento verdadeiro que trazem alguma credibilidade, mas são manipulados”, explica Cunha.
E ganham muita relevância porque, assim como as notícias de cunho moral em língua inglesa, afetam as emoções do público.
“Sensibilizam muito as pessoas porque mexem com suas crenças. Se você diz que é algo que está sob ameaça, as pessoas se mobilizam e se tornam propagadoras. É uma estratégia antiga de desinformação que tem muito impacto no público religioso. (…) E tem efeitos fortíssimos em temas eleitorais, por isso passou a ser estratégico.”
Mesmo antes das eleições, conteúdos enganosos com alguma referência à “moralidade sexual” foram os mais volumosos entre os checados pelo Bereia até o ano passado, atrás apenas da desinformação ligada à covid-19.
Cunha classifica como desinformação de “moralidade sexual” notícias enganosas sobre sexualidade nas escolas, por exemplo. “E sempre com essa ideia do pânico — de colocar medo nas pessoas de que possa haver destruição da família, erotização das crianças, ‘imposição do gayzismo'”, diz Cunha.
Mesmo para o público em geral (e não apenas o religioso), estratégias de apelo moral são usadas com frequência no Brasil, explica Raquel Recuero, coordenadora do Laboratório de Mídia, Discurso e Análise de Redes Sociais (MIDIARS) da Universidade Federal de Pelotas.
Na eleição de 2018, uma das pesquisas de Recuero no Twitter identificou que os tuítes e retuítes com avaliação moral (que faziam algum tipo de referência a “bem contra o mal” e “moralmente desejável versus indesejável”) tiveram mais sucesso do que a média em serem compartilhados e legitimados.
O objetivo é fazer com que o leitor que se enxergue como “pessoa de bem” reaja contra os que “estão prejudicando a sociedade”, ela explica.
“É uma das principais estratégias da desinformação — feita para (apelar para) as pessoas ‘valorosas’, para o ‘bem contra o mal'”, diz Recuero à BBC News Brasil.
É um método com potencial impacto na decisão de uma parcela dos eleitores, avalia Jacqueline Moraes Teixeira, professora do Departamento de Sociologia da UnB, pesquisadora do Cebrap (Centro Brasileiro de Análise e Planejamento) e do Iser.
“As pessoas sempre percebem a política como um espaço de corrupção e da lógica de que ‘vou ter que escolher o menos pior’ [na eleição]. Nesse processo, esses princípios morais acabam sendo significativos”, diz Teixeira.
“E isso sustenta muito a circulação e o engajamento de voto ao [presidente Jair] Bolsonaro”, agrega Teixeira — uma vez que o presidente se apresenta como um defensor da moral e da família.
‘Ativar os sinais de alerta’
Nos textos de língua inglesa avaliados pelo pesquisador Carrasco-Farré, se sobressaíram temas como a imigração (ligada, sobretudo, à ideia de ataque à civilização ocidental) e feminismo (“apelando à população masculina de medo ao grupo social sendo atacado por outro gênero”, detalha o pesquisador).
“O mais importante é se dar conta que, quando um conteúdo nos gera emoções fortes, é preciso ativar os sinais de alerta. Porque a intenção desse tipo de conteúdo é nos afastar da racionalidade e nos levar ao campo da emoção, onde as decisões que tomamos já não são tão corretas”, diz ele.
“Não somos computadores. Quando nosso cérebro está mais cansado, não consegue se concentrar, é muito mais fácil cair em um conteúdo que seja mais fácil de se processar. (…) E o mesmo ocorre com o tema da identidade social: a emoção torna mais provável que compartilhemos esse conteúdo nas redes, no grupo de WhatsApp da família, e que ajudemos a difundir desinformação — isso no melhor dos casos. No pior, mais extremo, nos leva a agir, com consequências não muito boas para o resto da sociedade”, afirma Carrasco-Farré.
Embora alguns dos exemplos estudados pelo pesquisador sejam bastante extremos de discurso de ódio, teorias da conspiração ou fake news, ele se preocupa também com os casos mais sutis.
“Alguns textos fazem soar todos os alarmes [por serem claramente falsos ou conspiratórios], exceto pelas pessoas que estão muito convencidas de que essas conspirações existem. Os casos mais sutis são mais perigosos porque não são tão facilmente detectáveis. E há evidência científica de que quando as pessoas são submetidas a eles por muito tempo, começam a se acostumar a esse tipo de conteúdo. Isso faz com que seja menos provável que ela perceba que os casos extremos são falsos, porque começam a ter dúvidas.”
Por isso, o pesquisador espanhol acha problemático quando meios jornalísticos profissionais também recorrem a táticas como “caça-cliques” — com manchetes exageradas ou dúbias para atrair audiência e publicidade.
“Isso é perigoso não pelo caça-clique em si, mas sim porque faz o público se aclimatar e se acostumar a esse tipo de conteúdo. E gente que talvez fosse muito boa a identificar pseudociência ou teoria da conspiração terá mais dificuldade”, avalia Carrasco-Farré.
No estudo, o pesquisador reconhece que classificar um texto por seu palavreado tem limitações. Mas ele argumenta que o método pode servir de parâmetro inicial para ajudar os algoritmos das redes sociais e as agências de checagem a identificar quais textos e vídeos têm mais potencial para viralizar.
Com essa informação em mãos, argumenta ele, seria possível checá-los, hierarquizá-los ou contextualizá-los nas redes sociais com mais rapidez, antes que uma informação potencialmente enganosa de fato viralize.
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!
Você precisa fazer login para comentar.