RJESPM_19

40 JANEIRO | JUNHO 2017 REVISTA DE JORNALISMO ESPM | CJR 41 aconteceu o Brexit, a aprovação do rompimento do Reino Unido com a União Europeia, após uma campanha carregada de notícias falsas. Na busca que sobreveio, dos cul- pados pela desinformação, não fal- tou quem apontasse o dedo para os tabloides londrinos e para os veícu- los e meios de Rupert Murdoch. Mas aos poucos se tornou evidente que o problema estava agora emoutra parte. Efeito bolha Emily Bell, jornalista inglesa hoje na direção do Tow Center for Digital Journalism, da Columbia University, vislumbrou no plebiscito britânico a primeira votação em que o chamado “efeito bolha” contribuiu decisiva- mente para o desfecho. A expressão foi criada num livro de 2011, The Filter Bubble:What the Inter- net isHiding fromYou ( OFiltro Invisí- vel –OQue a Internet EstáEscondendo de Você , Zahar, 2012), de Eli Pariser, para descrever o que as plataformas digitaispassaramaoferecer a seus usu- ários: “Um universo único para cada umde nós, que altera amaneira como encontramos ideias e informações”. Os algoritmos – conjuntos de regras e operações para chegar a um resul- tado –, tanto das buscas no Google como do Facebook, servemconteúdo diferente, namedida, para cada umde nós. Esses resultados reforçam o que já pensamos, filtrando as notícias que poderiamnos levar a raciocinar. Faci- litam a propagação de notícias falsas, se elas semostraremdo nosso agrado. O Brexit foi uma introdução. O choque maior veio com a eleição de Donald Trump nos Estados Unidos, em novembro de 2016. Foi quando Google e Facebook, este depois de alguma resistência inicial, acordaram para o risco de estarem subvertendo a democracia – ou pelo menos man- chando suas imagens corporativas. No Google, o caso símbolo foram as buscas sobre a “contagem final” do pleito, que destacaram um site obs- curo que afirmava que Trump havia vencido no voto popular, quando na verdade ele perdeu. No Facebook, foi a disseminação do suposto apoio do papa Francisco a Trump. O primeiro a reagir foi o Google, anunciando uma revisão de centenas de sites, que levaria 200 deles, não identificados pela empresa, a serem banidos do AdSense – seu sistema de publicidade, que ajuda a sustentar  2 milhões de sites pelo mundo. No Facebook, a resposta inicial de Mark Zuckerberg foi negar respon- sabilidade: “Acho bastante maluca a ideia de que notícias falsas no Face- book influenciaram a eleição”. Mas, dias depois, diante das críticas, a rede social atualizou a linguagem de sua política de audiência, para incluir sites de notícias falsas como alvo. Era muito pouco, como questiona- ram instituições de mídia e tecnolo- gia. Seguiram-se, então, novas ações. Emconjunto, Google e Facebook esti- mularam a formação de uma rede de checadores independentes e, com o tempo, passaram a registrar em suas plataformas que esta ou aquela notí- cia era questionada. Ainda era pouco, como ficou claro quando entrou 2017, com a perspec- tiva de interferência em outras vota- ções importantes. França e Alema- nha tinham eleições programadas para o ano e ameaçaram o duopólio com mudanças de legislação e mul- tas elevadas. Um pouco de transparência Google e Facebook amontoarammais medidas, da criação ou valorização de funções jornalísticas em suas hie- rarquias, visando aprofundar a rela- ção com os veículos, até a adoção de programas de alfabetização demídia,  ou seja, de esclarecimento dos usuá- rios sobre o funcionamento da produ- ção de notícias. Mas o quadro só foi começar a ganhar robustez quando as medidas paliativas deram lugar amodificações no coração do duopólio: seus algo- ritmos de busca, no caso do Google, e de composição do feed de notícias, do Facebook. Aomesmo tempo, passaram a bus- car alguma transparência quanto às mudanças. Foi assim que executivos, como o vice-presidente mundial de engenharia do Google, Ben Gomes, se dispuseram a dar entrevistas para explicar o que estavam fazendo. De família indiana de Goa, um dos muitos imigrantes do Vale do Silício ameaçados por Trump, Gomes deta- lhou que o Google tem 10 mil ava- liadores ao redor do mundo – seres humanos – e que as alterações no algoritmo são realizadas por tenta- tiva e erro, com base nas respostas desses avaliadores. No Facebook, essa equipe de seres humanos é menor, mais de mil no mundo, com promessa de acrescen- tar alguns milhares, mas o processo não é diferente. Por exemplo, uma mudança em andamento no algoritmo relaciona o número de usuários que clicam num link com o número daqueles que o compartilham. Se poucos dos que acessam resolverem compartilhar, é sinal de notícia questionável. Depois de testar comos avaliadores diversas alterações no algoritmo, ela é rebai- xada nos feeds. A interferência em seus algorit- mos é a mudança mais sensível para o duopólio e também a mais promis- sora no combate a fake news . Não que se possa mensurar os resultados: os dois gigantes não dão sinal de per- mitir, algum dia, auditoria indepen- dente de suas ações. O primeiro teste de vulto foi a elei- ção na França. Não faltounotícia falsa, mas o próprio resultado, a vitória com dois terços dos votos do candidato mais visado, Emmanuel Macron, é indicação de que Google e Facebook passaram na prova. É sinal, para começar, de que a par- ceria iniciada três meses antes com organizações jornalísticas como  Le Monde , Agence France-Presse e outras 35, que ganhou o nome de CrossCheck, deu certo – ou pelo menos ajudou a disseminar leitura mais crítica das informações veicu- ladas nas plataformas. Mais importante, Google e, sobre- tudo, Facebook teriam rebaixado em seus rankings ou simplesmente tirado do ar páginas que os algoritmos iden- tificaram como foco de notícia falsa. A rede social anunciou ter começado a fazer o mesmo com perfis britâni- cos, visando às eleições convocadas para junho. Ainda assim, falta transparência. O Facebook chegou a citar um rela- tório que identificou a ação de agen- tes governamentais na França, dando a entender que seriam ligados à Rús- sia. Nada, porém, sobre agentes liga- dos aos Estados Unidos – que agiram na eleição francesa anterior, como revelou o WikiLeaks. ■ nelson de sá é jornalista e escreve sobre mídia e cultura em sua coluna no jornal Folha de S.Paulo . No Facebook, uma mudança realizada no algoritmo é capaz de indicar quando a matéria é questionável

RkJQdWJsaXNoZXIy NDQ1MTcx