RJESPM_17.indb

64 abril | maio | junho 2016 que as mulheres usuárias do Google recebiamanúncios viaGoogleAds para vagas de emprego comsaláriosmeno- res, semsaber o porquê. Uma das pos- sibilidades, escreveramos pesquisado- res, é que se a maioria das mulheres costumasse clicar nos anúncios com salários menores, o algoritmo apren- deria a partir daquele comportamento, e estabeleceria esse padrão. Segundo, algoritmos têm algumas caraterísticas inerentemente injustas em seus projetos. Muitas delas foram explicadas pelo pesquisador Moritz Hardt em um artigo chamado “How Big Data is unfair” (“Como o Big Data é injusto”, em tradução livre), publi- cado emsetembrode 2014noMedium. O autor explica que como o algoritmo trabalha compadrões e como por defi- nição asminorias não se encaixamnos mesmos padrões da maioria os resul- tados sempre serão diferentes para a minoria. E, se a média de acertos for bastante alta, as pessoas podem aca- bar não notando que os usuários para quemelenão funcionapertencemtodos a um grupo parecido. Para deixar isso claro, Venkatasu- bramanian, com vários outros cole- gas, escreveu um artigo acadêmico sobre como cientistas da computação podemverificardemaneiramatemática a existência de um prejulgamento ao criar umalgoritmo. Isso pode ser feito damesmamaneira que os pesquisado- res verificam taxas de erros e acertos em qualquer pesquisa com dados. Ele também está desenvolvendo uma fer- ramenta para cientistas fora do meio da computação, baseada nos mesmos princípios estatísticos, que ranqueia os dados analisados conformeuma “escala de igualdade”. Embora a ferramenta não possa dizer se o algoritmo é ou não “justo”, ela procura garantir que os dados sejam inseridos de maneira equilibrada. Amaioria dos algoritmos aprende combase nos dados apresen- tados, explica Venkatasubramanian, então esse é o primeiro lugar para procurar por possíveis preconceitos. Muitas dasmatérias sobre o assunto escritas até hoje se concentraram em seu impacto sobre grupos margina- lizados. Uma reportagem da ProPu- blica para a PrincetonReview mostrou que as famílias de ascendência asiá- tica tinham quase o dobro de chance de pagar preços mais altos em cursos preparatórios para o SAT, o equiva- lente americano do vestibular. E essa possibilidadede cobrançamaior não se baseavano rendimentodessas famílias. Enquanto isso, uma equipe de jorna- listas da University of Maryland des- cobriu que o tempo de espera por um UberemWashingtonDCeramaior fora das regiões exclusivamente brancas. Retrocesso e discriminação Opreconceitotambéméumadasmaio- res preocupações no casode softwares usados no trabalho da polícia, como o PredPol, que ajuda os departamentos de polícia americanos a distribuir seu efetivo a partir de padrões nas estatís- ticas criminais, prevendoas regiões em queémaisprovável aocorrênciadecri- mes.Aquestão, dizMauriceChammah, jornalista do Marshall Project que já cobriu esse sistema de policiamento, é se isso não vai servir só para patrulhar ainda mais as minorias. “Existe uma preocupação de simplesmente usar os dados deprisões emumalgoritmo. Ele vai analisá-los e continuar mandando a polícia de volta às comunidades des- sas minorias”, explica. Como emqualquer área nova, escre- ver sobre algoritmos apresenta seus próprios desafios. Primeiro, ainda não entendemos completamente os seus efeitos, assim, não sabemos o que culpar. Se os computadores não podem ser racistas, quem é respon- sável se eles apresentarem um resul- tado discriminador? Os jornalistas não precisam respon- der a essas perguntas, mas eles devem levá-lasemconsideraçãoquandofazem análises e publicam sua conclusão. Nos dois exemplos anteriores, o da Princeton Review e doUber, as desco- bertas são, provavelmente, um resul- tadodocapitalismo. AProPublicadisse que o resultado do experimento da Princeton Review foi “inesperado”. Isso quer dizer que a empresa respon- sável pelos cursos não estava usando a ascendência asiática como um fator determinante para cobrança. Mesmo uma olhada rápida nomapa de tempos de espera do Uber que acompanhava amatéria sugeria que aquilo podia ser simplesmente uma amostra das áreas demaior demanda. A realidade da dis- criminação econômica pode não ser agradável, mas está dentro da lei se você não está discriminando aberta- mente determinado grupo protegido. Sobre a matéria do Uber fora das regiões exclusivamente brancas, Jona- than Stray, jornalista e professor de jornalismo de dados na Columbia Journalism School, informa: “É uma bela história, mas não consigo inter- pretar sua conclusão muito bem”. O problema é que dá para comparar o critério “raça” com qualquer outro fator, e provavelmente será possível achar alguma associação, continua Stray. Isso acontece em parte por- que muitos fatores, como localiza- ção e renda, atuam como substitutos para o critério raça, e eles interagem uns com os outros de maneiras que não conseguimos prever. “Você tem que tomar cuidado com esse tipode raciocínio”, continuaStray. Mesmoque amatéria sobreoUber não culpe ninguém, a conclusão a que che- gamos é que o Uber é responsável por LEITURA BÁSICA 1 - “How Big Data is unfair”: Um guia para leigos, explicando como o Big Data e os algoritmos são naturalmente tendenciosos. 2 - Algorithmic Accountability Reporting: On the Inves- tigation of Black Boxes : O guia definitivo para a cobertura de algoritmos, escrito por Nick Diakopoulos, professor assistente da University of Maryland, que escreve detalhadamente

RkJQdWJsaXNoZXIy NDQ1MTcx