RJESPM_17.indb

revista de jornalismo ESPM | cJR 63 dados coletados, avaliandoo resultado, seja examinando a arquitetura do algo- ritmopara entender comoele funciona e chega a suas conclusões. Atualmente, o grosso da cobertura sobre o tema se concentra nos resul- tados e tenta entender o algoritmo por meio de engenharia reversa, como se faz como jornalismo de dados. O Wall Street Journal usou esse processo para descobrir que os preços via internet da Staples, uma grande rede de papela- rias, eram determinados pela distân- cia entre o usuário e uma loja da con- corrência. Isso fazia comque os clien- tes emáreas rurais acabassempagando mais caro. Osite FiveThirtyEight usou o mesmo processo para desmascarar as críticas de cinema do site Fandango – uma subsidiária do grupo NBCUni- versal, responsável por fazer filmes –, sempre boas demais. Uma análise da ProPublica demonstrou que os pre- çosmais altos doUber emhorários de pico não atraíammaismotoristas, mas simreduziama demanda pelo serviço. Enquanto essas reportagens anali- saram diretamente os resultados dos algoritmos,muitas outras sededicaram aos próprios algoritmos. Na área do direito penal, por exemplo, foi publi- cada bastante coisa sobre algoritmos proprietários usados pelos departa- mentos de polícia. Por exemplo, em Fresno, na Califórnia, um programa chamado Beware permite que a polí- cia use o Twitter para atribuir um “potencial de ameaça” a cada cidadão; na Califórnia, um homem está sendo acusado por um estupro ocorrido há mais de 40 anos, após uma análise de DNA feita pelo software TrueAl- lele; especialistas na área não sabem como funciona o teste Abel Assess- ment for Sexual Interest, desenvol- vido pelo pesquisador Gene Abel e que teoricamente tem a capacidade de indicar se uma pessoa pode ou não cometer umcrime sexual. Ao longodos Estados Unidos, vários departamen- tos de polícia estão usando softwares para cálculo de probabilidades, como o PredPol, para determinar onde dis- tribuir os policiais, combase no histó- rico de crimes de cada região. Há racismo? Em uma dessas matérias, o New York Times escreveu sobre várias startups do setor bancário que estão usando o Big Data para reinventar o ramo dos empréstimos. O (louvável) objetivo de algumas dessas startups é identifi- car pessoas que até então foram igno- radas pelas financeiras. Para isso, uma das empresas afirmou que em vez de avaliar o histórico financeiro determi- naria a possibilidade de emprestar (ou não) o dinheiro após analisar fatores como: a pessoa digita tudo em maiús- culas? Quanto tempo essa pessoa leva paralerosTermoseCondições?Amaté- ria apresentou mais perguntas do que respostas, começandopor: seráqueesse método é realmente mais justo? Aliás, essa é a questão que não quer calar quando falamos sobre o tema. “Algoritmos são como uma criança pequena, e aprendem com seu ambiente”, explica Suresh Venkata- subramanian. Venkatasubramanian é professor de Ciência da Computação da Univer- sity of Utah. Ele pensa sobre o equilí- brio dos algoritmos desde que leu um conto de Cory Doctorow, publicado em 2006, chamado “Human Reada- ble” (“Legível para Humanos”, em tradução livre). A história se passa no futuro, emuma sociedade semelhante à nossa, mas em que toda a infraes- trutura (transportes, comunicações, mídia etc.) é comandada por “redes centralizadas emergentes”, desenvol- vidas com base em colônias de formi- gas. Em outras palavras: uma rede de algoritmos. A trama gira em torno de dois amantes: um engenheiro de sis- temas que tem certeza que o sistema é incorruptível e uma advogada que sabe que ele já foi corrompido. “Me fez pensar no que acontece se vivermos em um mundo que é total- mente controlado por algoritmos”, diz Venkatasubramanian. Ele não é o único a fazer essa per- gunta. A responsabilidade algorítmica, ou a possibilidade de responsabilizar um algoritmo por algo, é uma disci- plina em ascensão em várias áreas do conhecimento. Cientistas da compu- tação, acadêmicos em direito e espe- cialistas em políticas públicas estão bolando jeitos de identificar ou até prevenir prejulgamentos, nos mes- mos termos em que são estabelecidos os padrões de responsabilidade nos negócios e na política. A maior preo- cupação é se (e como) os algoritmos reforçam ou aumentam preconceitos contra minorias. Essa responsabilização se apoia em leis e políticas públicas já existentes voltadas para combater a discrimina- ção emquestões demoradia, emprego e pontos semelhantes. Oconceito ado- tado é o da disparidade de impactos , ou seja, o que é avaliado não é a inten- ção quemotivou a elaboração daquela política, mas o impacto que ela teve em determinada classe protegida. Falando em termos de algoritmos, isso quer dizer que um ato racista não precisa de uma motivação racista para gerar seus efeitos. Existemduas razõesparaqueos algo- ritmos sejam especialmente susce- tíveis a perpetuar preconceitos. Pri- meiro, eles podem receber o precon- ceito humano em seu código, inten- cionalmente ou não. Isso acontece ao usar um histórico de dados ou crité- rios que reflitam uma certa tendên- cia (como classificar famílias gays de maneira diferente etc.). Isso é ainda mais forte no caso de algoritmos que aprendemcoma experiência do usuá- rio. Por exemplo, pesquisadoresdaCar- negieMellonUniversity descobriram

RkJQdWJsaXNoZXIy NDQ1MTcx