Por Geraldine Wong Sak Hoi
Pesquisadores suíços e europeus procuram novos algoritmos para detectar notícias falsas tão comuns atualmente nas mídias sociais. Porém treinar as máquinas para fazer esse trabalho não é uma tarefa fácil.
Notícias falsas foram destaques nas manchetes da imprensa internacional em 2016. Alguns críticos consideram que elas foram um fator fundamental na eleição de Donald Trump. Após desmentir que tenha influenciado na escolha dos eleitores, a mais popular rede social do mundo começou a testar novas medidas para limitar a desinformação na rede.
De gigantes como a Google até fanáticos por computação, muitos outros atores estão entrando em ação. No entanto, aqueles que já começaram a estudar o aumento do volume de notícias falsas antes mesmo da publicação dos resultados inesperados na eleição presidencial americana ressaltam: o problema é a dificuldade de enfrentar a batalha contra a desinformação. "É uma corrida entre máquinas e pessoas (fabricando informação) por divertimento, pela agenda política ou o dinheiro", afirma Kalina Bontcheva, professor na Universidade de Sheffield, no Reino
Unido.
O trabalho realizado nessa área por especialistas em computação como Bontcheva e organizações de mídia, dentre elas a swissinfo.ch, revelam o quão difícil é limitar a propagação de mentiras e distorções nas mídias sociais.
Detectando notícias falsas
O diretor-executivo do Facebook, Mark Zuckerberg anunciou um plano conter a propagação da desinformação na plataforma que ajudou a fundar que inclui "um maior esforço de detecção...para melhorar a nossa capacidade de classificar as notícias falsas". Bontcheva compara essa tecnologia aos filtros para evitar "spam" no correio eletrônico. Todavia suas capacidades são limitadas.
"Enquanto é fácil detectar os sites de notícias falsas com objetivo de lucros, já é mais difícil verificar os que têm estratégias ocultas, pois trabalham de uma forma mais sutil. Além disso, os sistemas automatizados também têm dificuldade de detectá-los", diz.
Um projeto de pesquisa liderado por ela tenta resolver o problema. Denominado "Pheme" e fundado pela Comissão Europeia, o projeto reúne especialistas de informática, universidades e a swissinfo.ch para conceber tecnologias capazes de auxiliar os jornalistas a encontrar e verificar o grau de veracidade das notícias disseminadas em rede.
"Tentamos utilizar muitos rumores do passado como base de treino para desenvolver algoritmos avançados de aprendizado e classificação automática", explica Bontcheva. "Treinamos modelos para detectar as opiniões dos usuários sobre uma notícia e, baseando-se nisso, esperamos poder definir se algo tende a ser verdadeiro ou falso."
Sistemas automatizados aprendem, mas com lentidão
Pode parecer simples, mas treinar sistemas automatizados para dar uma indicação clara se um texto é credível ou não é uma tarefa muito complexa. Cientistas precisam combinar abordagens que levam em consideração a história das redes sociais e o conteúdo de postagens individuais para determinar padrões que diferenciem os conteúdos credíveis e questionáveis, avalia o pesquisador de dados Pierre Vandergheynst.
"Ninguém ainda conseguiu encontrar uma resposta à charada", diz o professor na Escola Politécnica Federal de Lausanne (EPFL), que estuda como as informações evoluem em plataformas como a Wikipédia. "Você pode ler um texto e decidir se acredita nele, mas um sistema automatizado não tem o raciocínio cognitivo para fazê-lo."
Bontcheva admite que o desenvolvimento dessa tecnologia ainda está nos primórdios. "Já se passaram três anos de experimentação, mas ainda estamos longe do nível de confiabilidade que gostaríamos de ter."
Mas ela acredita que os pesquisadores do Pheme já fizeram muitos progressos desde o início do projeto. "A tecnologia fica cada vez melhor. Nós já fizemos grandes avanços até agora", afirma, acrescentando que os parceiros no projeto também contribuíram ao permitir o acesso a uma grande quantidade de dados. "Quando iniciamos, não havia ainda muitos rumores nas mídias sociais (para utilizar como base de treinamento)."
De fato, os pesquisadores muitas vezes enfrentam o problema da falta de acesso aos dados geridos pelo Facebook e outras redes sociais. Mas o volume de informação que essas companhias têm de lidar é um desafio para os próprios gigantes tecnológicos, analisa Bontcheva. Isso significa que elas têm de desenvolver sistemas capazes de encontrar conteúdos suspeitos dentro desse grande volume de dados compartilhados todos os dias.
Censura
Outra questão é como manter a confiança dos usuários em um sistema (remove automaticamente) que decide quais são as postagens que contém informações falsas. "As empresas de alta tecnologia necessitam ser transparentes ao determinar se um site é produtor de notícias falsas", considera Linards Udris, especialista de mídias na Universidade de Zurique.
Bontcheva concorda. Para evitar acusações de censura, ela afirma que Facebook poderia dar aos usuários a opção de ver conteúdo questionável em um fluxo de informações à parte. Elas seriam similares às pastas de correio eletrônico para coleta de e-mails "spam", que os usuários abrem em caso de necessidade. Já o Facebook aposta em um sistema que sinaliza notícias consideradas "questionáveis" para alertar os usuários quando eles quiserem compartilham esses itens.
O risco de censura também limita a possibilidade que os países têm de restringir informações. Udris não vê muito sentido em introduzir novas legislações, ressaltando que as atuais leis contra difamação - pelo menos na Suíça - são uma forma para lidar com os casos de notícias falsas ou incendiárias atingindo grupos ou pessoas específicas. Porém os governos poderiam utilizar outros instrumentos.
"As companhias de alta tecnologia têm poucos incentivos comerciais" para limitar as notícias falsas, afirma Udris, vice-diretor do Instituto de Pesquisa da Esfera Pública e Sociedade (fög). Quando essas histórias se tornam virais, elas ajudam a gerar mais receitas para as redes sociais. Assim os governos poderiam oferecer incentivos fiscais, por exemplo, para as companhias que tomam medidas de combate à desinformação.
O fator humano
Outros atores precisam se envolver. Facebook testa instrumentos para que usuários e terceiros participantes, incluindo organizações de verificação de fatos, ajudem a identificar notícias enganosas. Porém jornalistas também devem contribuir para encontrar uma solução.
"O problema é quando as plataformas sérias de informação pescam notícias falsas e as disseminam", afirma Pierre Vandergheynst. "Nesse caso elas dão um selo de autenticidade a elas. Esse ciclo tem de ser quebrado."
Com redações cada vez mais enxutas para garantir a rentabilidade, Udris gostaria de ver "um debate amplo sobre como o bom jornalismo pode ser promovido na sociedade". Nesse caso os canais públicos de informação são cruciais, acrescenta. "É um importante pilar, onde as pessoas podem encontrar informações comprovadas, diversificadas e de alto nível de qualidade."
A responsabilidade recai também sobre os usuários: eles deveriam ser mais críticos em relação às informações consumidas. Pesquisas recentes mostram que menos de metade das pessoas entrevistadas, e que recebem suas informações através das mídias sociais, fazem atenção às fontes, lembra Udris.
"É necessário ter um pensamento crítico", diz, sugerindo que existe uma necessidade de fortalecer a educação dos jovens no consumo de mídias. Segundo uma pesquisa recente da agência Reuters, esse grupo tende a consumir mais informações através das mídias sociais do que outros. Ele também acredita que pagar pelas notícias online poderia ajudar as pessoas a fazer escolhas mais críticas. "No entanto, mesmo com os esforços de todos setores, a propagação de notícias falsas não pode ser freada completamente. Udris diz que não é possível esperar milagres à curto prazo. "Rumores fazem parte da natureza humana", ressalta.
Pierre Vandergheynst concorda. "No final, não foi a web que inventou as teorias da conspiração", diz o pesquisador da EPFL. "A rede só fez elas se espalharem mais rápido, pois ao invés da conversa da esquina, hoje você tem o Facebook."
Adaptação: Alexander Thoele
Postar um comentário
Obrigado pela participação.