RJESPM_18

REVISTA DE JORNALISMO ESPM | CJR 35 por iniciativas de contraterrorismo. Qualquer intervenção, contudo, sus- cita questões. Um exemplo: o Face- book ofereceu publicidade grátis para contas que postam conteúdo antiex- tremista. Mas para quais e até que ponto deveria ir? Alémdisso, plataformas criamuma oportunidade para a construção da solidariedade social em face de epi- sódios de terrorismo –muitomais do que seria possível para um órgão de comunicação. Após o assassinato de Lee Rigby, houve muita reação nas redes sociais – incluindodemuçulma- nos – expressando choque e revolta com os ataques. Houve também iniciativas positi- vas buscando homenagear a vítima. Mas parte das opiniões foi incendi- ária e anti-islâmica e certas pessoas foramdenunciadas por incitar o ódio racial nas redes. Parlamentares britânicos há pouco criticaram essas plataformas por não fazerem o suficiente para combater o EI. Contudo, as empresas garan- tem que já estão fazendo muito para remover conteúdo incendiário. “A maioria dos recrutados pelo EI na Grã-Bretanha e em outros países europeus que partiram para a Síria foram aliciados pela interação com outras pessoas, não apenas pela inter- net”, observa o especialista em radi- calização Peter Neumann, professor de estudos de segurança da King’s College, em Londres. “Culpar o Facebook, o Google ou o Twit- ter por esse fenômeno é ser muito simplista e, diria até, equivocado.” As plataformas e osmeios de comu- nicação não podempoliciar sozinhos essas redes. Autoridades também têm a responsabilidade de monitorar e estar presentes em redes sociais – e de combater ativamente a má infor- mação com a transmissão de dados confiáveis em tempo real. Em última análise, o preço do acesso aberto e da interação nessas plataformas talvez seja que o usuário deva aceitar algum material negativo e nocivo. Equipes de checagem No entanto, a complexidade das ques- tões não impede que uma plataforma adapte suas políticas e práticas. Tal- vez seja possível instalar um inter- ruptor virtual que adie transmissões ao vivo que contenham violência. Talvez surjammais “intermediários honestos” como o Storyful ou a agên- cia de verificação First Draft para ser- vir de filtro especializado durante episódios de terrorismo. Uma suges- tão é que plataformas como o Face- book montem equipes de checagem de fatos. Outra é que contratem jor- nalistas tarimbados para atuar como editores. Obviamente, essas últimas suges- tões deixariam essas empresas, que se identificam como de tecnologia, mais parecidas com as de comunica- ção. Hoje, contudo, habitamos aquilo que Andrew Chadwick, professor de mídia da faculdade Royal Holloway, em Londres, chama de um ambiente de “mídia híbrida”, no qual essas dis- tinções perderam nitidez. Organiza- ções jornalísticas tiveram de mudar para se adaptar às redes sociais – e as plataformas também terão de seguir ajustando seu modo de agir diante de notícias de última hora. Empresas como Facebook e Goo- gle já estão se aproximando de jor- nalistas e editores para buscar for- mas de trabalhar que combinem os pontos fortes de cada um. Twitter e Facebook, por exemplo, uniram-se a 20 organizações jornalísticas emuma coalizão coordenada pela First Draft para buscar novas maneiras de filtrar notícias falsas. Tanto plataformas como meios de comunicação têmmuito a ganhar em termos de confiança – e no sentido de evitar a regulação ou o controle compulsórios – ao tomar a inicia- tiva, em vez de esperar que governos enfurecidos ajam e imponham solu- ções que prejudiquem a criativi- dade e a liberdade de expressão em nome da segurança. Basta observar regimesmais repres- sivos ao redor do mundo para ver o preço pago pela democracia quando há restrição de qualquer forma de comunicação em nome da segurança pública. ■ charlie beckett é professor do Departamento de Mídia e Comunicação na London School of Economics (LSE) e diretor-fundador do Polis, o centro de estudos em jornalismo internacional da instituição. Texto publicado no site www.cjr.org em 22 de setembro de 2016.

RkJQdWJsaXNoZXIy NDQ1MTcx