REVISTA_de_JO_ESPM 20

REVISTA DE JORNALISMO ESPM | CJR 73 do “Exposure to Ideologically Diverse News and Opinion on Facebook” (Exposição a notícias e opiniões ideologica- mentediferentesnoFacebook,emtraduçãolivre),essaspre- ferências indicadas pela própria pessoa têmomaior peso no algoritmo. Emum experimento polêmico, o Facebook mostrou conteúdos diferentes a usuários para monitorar como a pessoa reagia, o que permitia em tese que priori- zasse informaçõesquedeixavamaspessoas felizes. Ouse- ja, esses dados ajudama adaptar oNews Feed às preferên- cias de cada usuário. O resultado é que, quando ummeio posta ummaterial jornalístico no Facebook, amenos que pague pela exposi- ção, nada garante que vai aparecer no feed de seus segui- dores. No sistema de informação do Facebook, o controle sobre a distribuição do jornalismo é cedido ao algoritmo. Oalgoritmo do feedde notícias decide o que o usuário vai verprimeiroquandoabreoFacebook.Essaequaçãoécons- tantemente iterada para otimizar a experiência emaximi- zar o valor comercial do feed. O leitor recebe o conteúdo quemais condiz comsua opinião, pois omercado publici- tário vive de curtidas e compartilhamentos. Para incenti- var a mídia a compartilhar conteúdo, o Facebook lançou ferramentas para ajudar na produção e na distribuição de jornalismo e criou incentivos financeiros para isso. Naturalmente, a intenção era que isso fosse – e de cer- to modo foi – um avanço em relação à mídia tradicional e suas limitações. O público não teria mais de depender de um número restrito de fontes para filtrar e agregar todo o conteúdodamídia. Emuma sessãodeperguntas e respos- tas emnovembrode 2014, Zuckerbergdissequeoobjetivo do Facebook era criar um jornal perfeitamente personali- zado para cada pessoa nomundo. Estamos tentando per- sonalizar [o feed] e mostrar aquilo que é mais interessan- te para cada um. Segundo ele, era uma necessidade, pois qualquer pessoa só conseguiria consumir uma fração de todoo conteúdohoje disponível. E acrescentou: “Comohá mais concorrênciaparamostrar algo [aos usuários ], somen- teoconteúdodequalidadevai passar”. Quandooalgoritmo determina que conteúdo é de qualidade, o Facebook vira o gateway para o público. A consequência imediata, no entanto, não foi um jornal personalizado, mas o surgimento de toda uma indústria de empresas buscando tirar partido do potencial viral do conteúdo no Facebook. O Facebook conseguiu converter seu gigantesco exército de usuários ativos em receita pu- blicitária, especialmentenomobile. ComomostraTimWu no livro The AttentionMerchants (2016), a publicidade pro- gramática permitiu a microssegmentação do público, pu- xando o crescimento da receita das grandes plataformas. Qualquer publisher, legítimoounão, podiamanipular o algoritmoparaaumentar aprobabilidadedeoconteúdovi- ralizar.Secriasseumconteúdoquecalavafundoemumde- terminadopúblico, comtítulos chamativos ouaté lascivos, qualquer um podia conseguir um alto compartilhamen- to, não importando para onde o link levasse. Enquanto si- tes como o Upworthy tentaramaproveitar o algoritmo do Facebook para viralizarmensagens positivas, outros usa- ram o recurso para espalhar desinformação, teorias da conspiração e mentiras, como mostrou Craig Silverman em reportagens no BuzzFeed. A capacidade de criar conteúdo que viralizasse – tan- to de organizações legítimas quanto de “fazendas de con- teúdo” mais questionáveis – virou um problema crescen- te para o Facebook, pois o conteúdo caça-cliques, alémde frustrante para o usuário, gerava umexcesso de desinfor- mação que começava a afetar a qualidade do feed de no- tícias da pessoa. Emumestudode 2015 para oTowCenter (“Lies, DamnLies andViral Content”), CraigSilvermanmos- trouqueorganizações jornalísticas tradicionais tambémti- nhamculpapela circulaçãode conteúdo falsoouengano- so, pois volta emeia não corrigiama informaçãopara con- seguir cliques: “Emvez de agir como fontede informações fidedignas, a mídia digital com frequência promove a de- sinformaçãopara gerar tráfegoe engajamento social. Ore- sultado é uma situação na qual amentira se propagamui- tomais do que a verdade e o papel de organizações jorna- lísticas é importantíssimo.” Em resposta a esses problemas, em janeiro de 2015 o Facebookanunciouquequalquer “publicaçãocomumlink paraumartigoquemuitagentetenhaindicadoserum“hoax” (boato) oudeletado teria suadistribuição reduzidano feed de notícias”. Aplataforma previu que isso diminuiria o pú- blicodeboatose fraudes. Foi, noentanto, aprimeiradeuma série de tentativas basicamente infrutíferas de resolver o problema. Para lidar com o enorme fluxo de conteúdo do Facebook, a solução teria de ser algorítmica, não humana – e é muito difícil programar um algoritmo para resolver questões complexas de verdade ementira. Em abril de 2015, o Facebook passou a priorizar posta- gens da rede de amigos da pessoa, deixando veículos de comunicaçãoemsegundoplano. Comseu feeddenotícias invadidopor caça-cliques, usuários temiam “perder publi- cações importantes”. Quase um ano depois, a campanha de transformação do feed para aumentar a facilidade de compartilhamen- to e darmais regularidade ao fluxo de informações estava tendo o efeito desejado. Como informou o site de tecnolo- giaThe Information, as pessoas estavamcompartilhando mais. Mas tambémestavampostandomenos. Aindahoje, oFacebookcontinua lutandoparaacharuma

RkJQdWJsaXNoZXIy NDQ1MTcx