“FAKE NEWS” E A DEMOCRACIA

No primeiro semestre de 2020, o Reuters Institute, em colaboração com a Universidade de Oxford, publicou o Relatório de Notícias Digitais – 2020, documento que tem como base os resultados de uma pesquisa realizada com usuários da internet em 40 países. Segundo a publicação, mais da metade (56%) dos entrevistados afirmaram que se preocupam com veracidade das notícias disponíveis nesse meio de informação e comunicação. A pesquisa demostrou que essa preocupação tende a ser maior em países onde o uso de mídias sociais é mais alto e as “[...] instituições sociais tradicionais estão enfraquecidas”, como o Brasil (84%), Quênia (76%) e Estados Unidos (67%). Segundo os dados, os níveis mais baixos de preocupação estão em países com menos polarização política, tais como Holanda (32%), Alemanha (37%) e Dinamarca (37%). (NEWMAN; FLETCHER; SIMGE; NIELSEN, 2020, p. 18).

Agora que bilhões de pessoas estão entrando para a vida on-line na Índia, no Brasil e na África, a internet está se transformando num espaço realmente global. Cada vez mais, esse será o lugar em que vivemos nossa vida. No entanto, no fim das contas, um pequeno número de empresas nos Estados Unidos poderá ditar unilateralmente o modo como bilhões de pessoas trabalham, se divertem, se comunicam e compreendem o mundo. (PARISER, 2012, p. 164).

Outro dado interessante dessa pesquisa é que, segundo a percepção dos entrevistados, os políticos (40%) são os principais responsáveis pelas “fake news” que circulam na internet, seguidos por ativistas (142%), jornalistas (13%), pessoas comuns (13%) e governos estrangeiros (10%), conforme a Figura 2. Esses números, segundo o relatório, reforçam os argumentos de estudiosos que defendem que a desinformação e as notícias falsas geralmente “vem do topo” e não de cidadãos comuns. (NEWMAN; FLETCHER; SIMGE; NIELSEN, 2020).

Figura 2 – Responsáveis pelas "fake news" na internet

Porém, o Relatório, também, pondera esses resultados e mostra que reconhecer a origem das “fake news” é uma questão complexa, uma vez que envolve a subjetividade do indivíduo. Em países mais polarizados, o posicionamento político do entrevistado pode levá-lo a responsabilizar o candidato da oposição pela propagação da desinformação ou de notícias falsas.

Nos Estados Unidos, por exemplo, eleitores de esquerda são mais propensos a culpar os políticos de direita por espalharem mentiras e meias-verdades on-line, enquanto os eleitores de direita tendem a reproduzir os ataques de Donald Trump à imprensa, responsabilizando os jornalistas pela divulgação de tais notícias. Ou seja, nos EUA, entre os eleitores da direita, 43% culpam jornalistas por desinformação ou notícias falsas; já entre os da esquerda, 49% culpam políticos e apenas 9% culpam jornalistas pela divulgação de “fake news”. Isso demostra que questões cognitivas e emocionais afetam a percepção do sujeito para julgar o impacto e a origem das notícias. (NEWMAN; FLETCHER; SIMGE; NIELSEN, 2020, p. 18).

Segundo Pariser (2012), com as mídias sociais, interpretar a realidade conforme os seus direcionamentos político e ideológico tendem a se ampliar drasticamente, isso porque as “bolhas de filtros”[1] presentes nas plataformas possibilitam que o sujeito consuma informações e interajam com pessoas que se ajustam com a sua ideia de mundo, e isso é mais fácil e prazeroso para ele, conforme sinaliza Kahneman (2012, p. 87): “A repetição induz ao conforto cognitivo e a uma sensação tranquilizadora de familiaridade”. E é nesse conforto cognitivo que as “fake news” se apoiam pois, esse tipo de publicação influencia àqueles que, de uma alguma maneira, tendem a acreditar na estória apresentada na notícia enganosa.

Por outro lado, acessar informações que o desafia a questionar suas verdades e conceitos é frustrante, mais difícil e exige uma atividade mental mais complexa. Por isso, os defensores de uma determinada posição política tendem a não consumir informações produzidas pela oposição, restringindo a sua percepção da realidade e reforçando suas certezas. Essa tendência de só prestar atenção em informações que se encaixam na sua percepção de mundo é reforçada pelas mídias sociais, pois com as “bolhas de filtros” as pessoas deixam de ter acesso a informações, opiniões e acontecimentos inquietantes e confusos que estimulariam sua vontade de entender melhor os fatos e adquirir novas ideias e conhecimentos e isso pode interferir na aprendizagem.

O Relatório de Notícias Digitais – 2020 aponta, também, que, entre os 40 países pesquisados, as mídias sociais são consideradas a maior fonte de desinformação (40%), bem à frente dos sites de notícias (20%), aplicativos de mensagens como o WhatsApp (14%), e ferramentas de busca como o Google (10%). Porém, no Brasil, os entrevistados afirmaram se preocupar mais com notícias e mensagens que circulam no WhatsApp (35%). O mesmo acontece em países como Chile e México. A percepção dos brasileiros faz sentido pois, em aplicativos de mensagens privadas e criptografadas, como o WhatsApp, a disseminação de desinformação torna-se mais preocupante. Esses conteúdos tendem a ser mais direcionados, o que dificulta a sua identificação e denúncia, ficando por conta de cada usuário identificar as informações enganosas. (NEWMAN; FLETCHER; SIMGE; NIELSEN, 2020, p. 19).

Após os escândalos eleitorais no Reino Unido e nos Estados Unidos, o Facebook se comprometeu a ajudar aos usuários nessa difícil missão de identificar as notícias enganosas. No site institucional do Facebook, a Gerente de Produto da plataforma, Tessa Lyons, afirmou que adotaram uma estratégia para impedir a desinformação baseada em três pilares, são eles:

· remover contas e conteúdos que violam as políticas da empresa, isso inclui excluir páginas e perfis não autênticos;

· reduzir a distribuição de notícias falsas e outros conteúdos de baixa qualidade, como caça-cliques, para isso a empresa fez parcerias com verificadores de fatos independentes. O objetivo é analisar, avaliar e classificar a precisão de notícias e posts no Facebook, assim, se a publicação for classificada como falsa, o usuário será informado;

· por fim, informar aos usuários com contexto adicional. Esse pilar consiste em educar as pessoas para ajudá-las a tomarem decisões sobre o que ler, acreditar e compartilhar. (FACEBOOK, 2018).

Além desses três pilares, a empresa se comprometeu a repensar o uso de algoritmos em suas plataformas e desenvolver inteligência artificial para acelerar a identificação de publicações enganosas.

Essa iniciativa do Facebook veio após um longo desgaste midiático e judicial. No primeiro momento a empresa se defendia afirmando que não era responsável pelos conteúdos que circulam na plataforma e que não poderia se tornar árbitro da verdade. Devido à repercussão, decidiu participar do diálogo e contribuir para a solução do problema.

As mídias sociais não são totalmente isentas de responsabilidade, mas não se pode atribuir a elas a obrigação de resolver sozinhas o problema das notícias falsas e da desinformação. O Facebook, assim como as outras plataformas de mídias sociais, é uma empresa privada e permitir que empresas censurem conteúdos publicados pelos cidadãos é conceder muito poder a elas. Isso pode gerar conflito de interesses entre o que é mais lucrativo para a empresa e mais benéfico para a sociedade. “Responsabilizar é empoderar. Empoderar é atribuir papel de censor a quem não está preparado nem é independente para tal”. (GENESINI, 2018, p. 56).

O problema das notícias falsas, desinformação e das “bolhas de filtros” vêm alterando a legislação em diversos países. No Brasil, em 2018, foi promulgada a Lei Geral de Proteção de Dados (LGPD), que entrou em vigor em 2020, cujo objetivo é o de proteger os direitos fundamentais como liberdade e privacidade, além de garantir o “livre desenvolvimento da personalidade”. (BRASIL, 2018b). O texto da LGPD foi inspirado no Regulamento Geral de Proteção de Dados (RGPD), elaborado pela União Europeia em 2016, entrando em vigor em 2018. Assim, como a lei brasileira, o RGPD tem o propósito de melhorar a segurança da informação, a proteção e o acesso a dados pessoais.

Em 2017, a Alemanha também editou uma lei relacionada com o tema, a “Lei de fiscalização da rede”[2], que gerou muita polêmica por obrigar que as plataformas removem conteúdos que sejam claramente ilegais, no prazo de até 24 horas, após a denúncia e, além disso, a lei prevê multa de até 50 milhões de euros caso as empresas a desrespeite. Segundo levantamento da BBC News, até junho de 2020, na Alemanha, o YouTube já havia excluído 346.830 publicações, 24% das 1,868 milhão de denúncias recebidas. Já o Twitter deletou 235.683 conteúdos, 12,6% do total de 1,436 milhão de queixas que recebeu até 2019. Quanto ao Facebook, acusada de não ser transparente e não cumprir as exigências da lei alemã, foi multada em 2 milhões de euros. (SCHREIBER, 2020).

O Brasil também planeja legislar nesse sentido, um projeto de lei conhecido como o "PL das fake news", baseado na lei alemã está tramitando no Congresso Nacional. Porém, assim como em outros países, a lei brasileira gera muitas polêmicas, pois existe o receio de que ela seja utilizada para controlar a informação, opiniões e cercear a liberdade de expressão. Para Cruz, dando entrevista à Gragnani (2020) esse receio se justifica, pois é importante considerar que as leis não existem apenas para resolver o problema que elas enunciam, mas também para atender aos interesses políticos. Dessa forma, uma lei que pode afetar a liberdade de expressão, deve ser bem elaborada e debatida para evitar que ela seja utilizada como instrumento de censura e atenda ao interesse de poucos. Além disso, uma lei sobre notícias falsas não resolverá todo o problema, não poderá atingir questões mais profundas, afinal, senso crítico, inteligência emocional, respeito a opinião do outro e habilidades de investigar os fatos não podem ser resolvidos com ato legislativo, tais competências e habilidades só podem ser desenvolvidas por meio de um trabalho educativo e social consciente.

Rosling (2019) defende que para combater a desinformação, antes de tudo, é necessário que as pessoas substituam reações instintivas e emocionais por pensamentos críticos baseados em fatos, negando uma visão de mundo desatualizada, polarizada e/ou preconceituosa, que tende a fazê-las enxergar o mundo através do binômio “nós” x “eles”. Uma postura mais racional é indispensável perante às mídias sociais, pois elas são arquitetadas justamente para despertar emoções e reações instintivas nos seus usuários.

Empoli (2019) explica que algoritmos presentes no YouTube, responsáveis por 70% dos vídeos assistidos, foram desenvolvidos para impulsionar o público na direção dos conteúdos mais extremistas, pois esses conseguem maximizar o nível de engajamento dos usuários. Com isso, considerando a forma como os algoritmos foram programados, uma pessoa que procura informações acerca do sistema solar no YouTube, por exemplo, possivelmente esbarrará com diversos vídeos que sustentam a teoria da Terra Plana e, dependendo da solidez de seus conhecimentos prévios e de sua predisposição cognitiva, ela acreditará nessas teorias ou não.

Para Kahneman (2012) as operações da memória associativa, presentes no sistema cognitivo humano, contribuem para um “viés de confirmação”. Segundo essa teoria, as pessoas, para validarem ou não uma sentença, usam a “estratégia de teste positivo”. Ou seja, ao receber uma afirmação, o sujeito, ao invés de tentar refutá-la, tende a buscar evidências confirmatórias, procurando acomodar a informação às suas crenças, o que, em alguns casos, favorece uma interpretação acrítica. Além do “viés de confirmação”, Kahneman (2012), também, afirma que o “efeito halo” pode influenciar a forma como as pessoas interpretam os fatos: se determinada informação ou ação partiu de alguém confiável e digno de seu apreço, o sujeito tende a validar e aprovar tal informação ou ação, e o oposto também ocorre: se alguém não aprova o portador da notícia ou ação, ela tende a invalidá-las.

E é exatamente no “viés de confirmação” e no “efeito halo” que a “bolha de filtros” tenta influenciar os seus usuários. Para Pariser (2012), essas bolhas cercam os usuários com ideias e pessoas com as quais já estão familiarizados e já possuem afinidade, isso lhes permite ter confiança excessiva sobre suas crenças. Como dito, ao retirar as opiniões contrárias e novas ideias do ambiente de navegação, esses filtros também desestimulam o aprendizado.

Segundo Kahneman (2012), saber pouco, ter poucas informações sobre os fatos torna as pessoas mais suscetíveis a falhas de julgamento, pois as deixam superconfiantes em suas crenças, tendendo a se apegar a apenas um ponto de vista da história e a julgar pela aparência. Assim, para relacionar-se melhor com as informações disponíveis na internet, elas precisam criar o hábito de confrontar informações, checar os fatos através de fontes seguras para transformar aquela informação em conhecimento. Além disso, é necessário ter consciência dos processos cognitivos para fortalecer aos usuários contra os enganos suscitados pelas aparências. O psicólogo canadense Albert Bandura (2002) aponta que as tecnologias da informação estão mudando significativamente o sistema educacional. As instituições de ensino devem, mais do que antes, trabalhar além dos conteúdos típicos da educação escolar, desenvolver nos estudantes habilidades cognitivas e socioemocionais.

As pessoas, mais do que nunca, precisam ter a iniciativa de buscar o conhecimento, pois se antes as informações chegavam até eles com algum tipo de filtro ou tratamento realizados por profissionais, hoje, na internet, essa tarefa de filtrar e analisar os dados ou é feita por algoritmos de forma robotizada, ou fica sob a responsabilidade do próprio usuário. Segundo Ferrari, Ochs e Machado (2020), os usuários têm acesso aos inúmeros conteúdos, que não passam por curadorias ou interpretação de intermediários, como nos livros didáticos, jornais, dentre outros. Isso amplia o poder dos indivíduos, mas também requer responsabilidade.

A sociedade encontra-se na era da informação, mas isso não significa que a era do conhecimento chegou. Afinal, para transformar informação, dados, em conhecimento é necessário que o sujeito tenha acesso a um processo de educação consistente e de qualidade que inclua o letramento midiático e informacional. Por muito tempo as escolas foram compreendidas como um espaço de aquisição de informação, porém, a sociedade contemporânea precisa que as instituições de ensino sejam mais do que meras transmissoras de conteúdo.

No vocabulário das rotinas escolares, também desafiadas pela explosão de informações, novos verbos sobressaem: para os alunos, questionar, investigar, refletir, conectar, aplicar, recortar, sintetizar e publicar criações próprias; para os professores, mediar, facilitar e orientar. (FERRARI; OCHS; MACHADO, 2020, p. 40).

E essa mudança, embora seja tema de discussão no campo teórico desde o século 20, tornou-se ainda mais urgente com a chegada da pandemia da Covid-19 e a adoção de aulas remotas. Se incentivar a autonomia do estudante, antes, era considerada uma possibilidade, atualmente, deve ser encarada como prioridade.

___

[1] Os filtros baseados no comportamento e nos cliques dos usuários geram, nas plataformas de mídia social, uma espécie de “bolha de filtros”, onde as pessoas passam a interagir apenas com informações que reforçam a sua percepção de mundo. Essas bolhas estão diretamente associadas com a “algoritimização”.

[2] A Lei alemã conhecida pela abreviação NetzDG, de Neztdurchsetzungsgesetz, Lei de Fiscalização da Rede em português, serviu como base para uma proposta de lei no Brasil que pretende regular o funcionamento das redes sociais e conter a circulação de informações falsas.


Acesse: "fatooufake.me", jogo educativo fruto do do projeto de mestrado de Luana Costa Santos, no IF Baiano - Campus Catu, desenvolvido sob a orientação do Prof. Dr. Fábio Carvalho Nunes e coorientação do Prof. Dr. José Rodrigues de S. Filho e com a programação de Vinícius Costa Santos.