Nos últimos anos, o debate sobre a regulação e moderação de conteúdo nas grandes plataformas tecnológicas tornou-se cada vez mais acirrado. A pressão sobre essas empresas se mantém alta, e as discussões sobre como devem gerenciar o conteúdo e cumprir a legislação continuam a evoluir.
Casos recentes, como o confronto entre o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes e o bilionário Elon Musk, proprietário do X (anteriormente Twitter), e a prisão do fundador do Telegram, Pavel Durov, na França, destacam a transformação crescente na relação entre governos e plataformas digitais, observa o brasileiro João C. Magalhães, professor de Mídia, Política e Democracia na Universidade Groningen, na Holanda, em entrevista à BBC News Brasil.
Magalhães explica que, antes vistas com mais indulgência, as grandes plataformas agora enfrentam uma abordagem mais crítica das autoridades, especialmente no que diz respeito ao conteúdo em suas redes.
“A mudança na abordagem governamental é um reflexo da crescente desconfiança pública e da percepção que os conteúdos compartilhados nessas redes contribuíram para graves crises sociais, como a erosão da democracia em vários países”, diz ele.
“Não imagino esses sentimentos mudando no curto ou médio prazo.”
Magalhães observa uma clara divisão na percepção pública: a esquerda critica as plataformas por não moderarem o suficiente, enquanto a direita acusa de moderação excessiva.
“Essa polarização desgastou a autoridade das plataformas para resolver sozinhas problemas de moderação de conteúdo, como elas faziam antes, e forçou os governos a intervirem mais. Políticos estão cada vez menos dispostos a adotar uma abordagem ‘laissez-faire’ [algo como “não intervir”] em relação à regulação das plataformas”, explica ele.
Magalhães lembra que, desde meados dos anos 2010, as plataformas enfrentam pressões da sociedade civil e de governos para controlarem de maneira mais rígida a produção de dados digitais e, principalmente, a liberdade de expressão dos usuários.
Essas pressões se concretizaram em leis como o Regulamento Geral sobre a Proteção de Dados (GDPR) e a Lei de Serviços Digitais (DSA) da União Europeia, que estabelecem requisitos mais específicos sobre a gestão de dados e a moderação de conteúdos.
Até o fim da pandemia de covid-19, as plataformas responderam a essas pressões e novas leis ampliando suas práticas de moderação e investindo em sistemas automatizados de análise de conteúdo.
No entanto, Magalhães observa que, desde então, as plataformas começaram a questionar a viabilidade desse modelo.
“O custo financeiro elevado e a complexidade política envolvida na moderação têm levado algumas plataformas a buscar formas de reduzir a politização e encontrar um equilíbrio entre os requisitos regulatórios e a viabilidade econômica”, afirma.
Recentemente, lembra o especialista, o Instagram e o Threads, plataformas controladas pela Meta, decidiram diminuir a amplificação de conteúdos políticos para aliviar as pressões regulatórias e evitar a politização excessiva.
“É um exemplo de como as plataformas estão tentando equilibrar a moderação eficaz do conteúdo com as pressões regulatórias, ao mesmo tempo em que buscam minimizar os custos”, explica Magalhães.
“Em vez de dizerem ‘não vamos moderar’, esse tipo de medida visa diminuir a circulação de conteúdos que, em geral, forçam essas empresas a tomarem decisões contraditórias de moderação.”
Futuro incerto
O futuro da moderação de conteúdo nas grandes plataformas de tecnologia permanece incerto, segundo Magalhães.
Ele ressalta que esse tipo de controle da liberdade de expressão por empresas privadas e globais é historicamente novo, e que não existe ainda um modelo claro de como isso deve ser feito.
“O dilema das plataformas é como moderar o conteúdo de maneira menos controversa possível, atender às exigências regulatórias, e manter as altas taxas de lucro”, diz ele.
“É uma equação difícil de resolver, um campo de batalha complexo onde regulação, política e dinheiro se entrelaçam”, acrescenta.
Fonte: BBC
Você precisa fazer login para comentar.