Katerina Sergatskova teve que fugir de seu país, a Ucrânia, por conta de ameaças de mortes.
Seria uma história já bem conhecida no Brasil: jornalista ou ativista expõe a verdade sobre grupos de extrema-direita, esse grupo reage com uma intensa campanha de difamação baseada em mentiras, começam as ameaças de morte e culmina no autoexílio. Apenas um detalhe é diferente: o grupo que ela expôs, que a difamou e ameaçou fora escolhido pelo Facebook para cuidar do “fact-check” no país.
StopFake foi o grupo escolhido pelo Facebook para combater o que seriam notícias falsas vindas da Rússia. O grupo afirmava ser isento e apartidário. Porém, o jornal de Katerina Sergatskova, chamado Zaborona, publicou uma reportagem bem documentada sobre as ligações com grupos neonazistas ucranianos.
O grupo que deveria garantir o que era verdade e o que era mentira em um país era politicamente próximo de pessoas que negam a existência do Holocausto, por exemplo.
Então, como devemos combater as fake news? Seria esse modelo de fact-check o caminho? Deveríamos aprimorá-lo? Qual será o resultado da CPI das Fake News e das investigações policiais sobre o tema no Brasil?
Para nós, um problema mal colocado jamais terá boa solução. As fake news, o uso e abuso de robôs para divulgação de notícias falsas, as campanhas de desinformação e até mesmo as ameaças de morte que se tornaram comuns nas redes sociais são um sintoma de um problema fundamental na internet, qual seja, o controle privado e corporativo de uma estrutura de uso público.
As redes sociais e sites como Google ou Wikipedia exercem um poder nunca visto na história da humanidade sobre a política e os rumos da sociedade. Compará-los com as mídias de massa do passado, como grandes jornais e canais de televisão é impossível. Se antes ouvíamos uma visão parcial em um veículo de mídia, ainda tínhamos a possibilidade de criticar tal visão entre amigos e conhecidos. Hoje, os algoritmos que controlam seu funcionamento decidem não só quais notícias serão mais vistas mas se nossos amigos e conhecidos terão acesso ou não à nossa opinião sobre elas.
Não temos interesse em espalhar mais desinformação sobre o funcionamento das redes. Não há capacidade de filtrar a opinião política uma a uma, o Facebook ou Twitter não tem condições de saber se uma publicação é de esquerda ou de direita, apesar de haverem evidências que eles reduzem a influência ou mesmo bloqueiam usuários que comentam sobre temas específicos, como as violações de direitos humanos na Palestina. Foi o caso da QUD News.
A distorção é um tanto mais sutil. O grande objetivo dessas plataformas, como empresas privadas que são, é gerar lucro para seus proprietários. E tal lucro é obtido pela venda de anúncios. Para garantir que uma pessoa veja o maior número possível de anúncios, uma complicada inteligência artificial é desenvolvida. O objetivo é que você seja seduzido a utilizar a plataforma de forma a ver mais anúncios. No caso do Facebook ou Twitter, o anúncio é mostrado depois de ingressar no site e “rolar” a tela para baixo uma vez. No caso do YouTube, o objetivo é que você permaneça na plataforma o máximo de tempo, dado que os anúncios são mostrados a cada porção de minutos que você permanece nela.
Ora, esse algoritmo “aprendeu” que discursos de ódio, pseudociência e similares prende a atenção do público. Alguns entre nós acreditam fielmente nisso, outros ficam tão indignados com seu conteúdo que o consomem como “protesto”, muitas vezes compartilhando com críticas. A elevação inacabável do ódio é o alimento perfeito para esses algoritmos.
A esse funcionamento do tipo de conteúdo que viraliza e do tipo de conteúdo que cai no ostracismo, dá-se o nome de arquitetura das redes. E ela é essencial para a forma que nos relacionamos hoje, dado que o meio virtual se tornou uma extensão essencial das nossas vidas. E, hoje, essa arquitetura é construída priorizando vender mais anúncio e não evitar desinformação, disseminação de discurso de ódio ou pseudociência perigosa, como artigos anti-vacina ou negacionistas do COVID.
Essas são as conclusões da pesquisa e obra de Andrew Keen, um do maiores especialistas contemporâneo nessa área, autor de livro como Vertigem Digital e A Internet Não É A Resposta.
Para nós, contudo, não se trata de dar um passo atrás e acabar com as redes. Nossa solução seria tratar essas super-plataformas como serviços públicos essenciais. Na definição legal contemporânea, um serviço público essencial é aquele que coloquem em perigo a sociedade. Tais plataformas, hoje, tem esse poder, hoje. O poder de desinformar sobre vacinas e sobre a pandemia de COVID não é um poder perigoso? Por que deixamos ele ser exercido com menos vigilância do que a farmácia de esquina?
Precisamos regulamentar as super-plataformas de internet com, ao menos, o mesmo zelo que regulamentamos outras atividades que podem colocar nossa sociedade em risco. Nos últimos anos, o Congresso dos EUA iniciaram essa discussão. Semana passada, diversos donos de empresas de tecnologia como essa depuseram perante deputados e senadores de lá.
O Brasil é um dos países mais afetados pelas fake news. É urgente começarmos essa discussão.
“Na definição legal contemporânea, um serviço público essencial é aquele que coloquem em perigo a sociedade.” É isso mesmo, Renato? Não entendi a ideia!