Revista de Jornalismo ESPM - 28

52 JULHO | DEZEMBRO 2021 seus cálculos, há cerca de cem“criadores talentosos” de deepfakes pornográficos, um terço deles na ativa. Ovalor cobradopor umvídeode 10a 15minutos deduração, estimou, éde cerca de US$ 200. Há um punhado de regras – o dpfks não permite pornografia infantil, bestialidade e imagensdenãocelebridades–eumprincípio geral importante: “Não toleramosgente tentandopassardeepfakes por vídeos ‘reais’”, disse. A política de tolerância zero com a tapeação parece sublinharumerrodecompreensão crucial sobre o risco imposto por deepfakes: não é a suposta veracidadequeestácausandoproblemas. Ninguémnositepornográfico,ouqualquer outro, parece defraudado. É o irreal que as pessoas estão buscando. Háoutrosproblemas,noentanto–o doconsentimento–,eoriscodaversão deepfakedapornografiadevingança. Shales (oTheFakening)medisseque recebeumaenxurradadepedidosde vídeos para maiores. A coisa sempre partedomesmo jeito: alguémmanda a imagem de uma mulher dizendo queé suaesposaounamoradaepede para colocá-la em um vídeo pornô. Emseguida, Shalespedequeapessoa envie a ele um vídeo da mulher concordandoemparticipar dodeepfake. “Aí eles somem. Ninguémestá vendo isso pelo lado legítimo.” Nesse reino subterrâneo, a distinção entre o deepfake e o real desaba sob o potencial da perseguição. É também o reino no qual, talvez, o primeiro deepfake político de fato foi usado contra alguém. Em abril de 2018, Intidhar Ahmed Jassim, professora de uma universidade em Bagdá, estava disputando uma vaga noparlamentodoIraque. Foi quando um vídeo explícito de três minutos de umhomem e uma mulher na cama viralizou; embora a imagem fossepouconítida, usuários de redes sociais suspeitaram pela voz e pela aparência que fosse ela. Jassimsuspendeu a campanha, embora insistindo que o vídeo era falso. O caso teve repercussão internacional; a The Economist sugeriu que o vídeo fora postado para desacreditar sua candidatura (não foi possível obter declarações de Jassim). YousifAstarabadi, quepoucoantes tinha criado uma empresa chamada NotEvil, que analisava e desmascarava deepfakes, ficou sabendo do vídeo, procurou Jassim e se ofereceu para analisá-lo. O relatório da NotEvil, queAstarabadimemandou, concluiu com 95% de certeza que o vídeoeraumdeepfake. Uma evidência seria a aparição de um terceiro globo ocular, sinal de uma “face trocada” eumbrinco faltandonaorelha esquerda. Ainda assim, havia espaço para dúvidas. Em fevereiro, quando a Sensity soltou uma versão pública grátis de seu software, subi o vídeo no programa. Passados cinco minutos, fui notificado de que não havia evidências de que umrosto fora trocado. Mas esse resultado tampouco podia ser dado como certo e contradiziauma verdademaior: umestudo da própria firma revela a fartura de pornografiadeepfakeondemulheres aparecem sem seu consentimento; no site pornô de deepfakes há várias políticas. Quanto a Jassim, o estrago já estava feito: qualquer eleitor em potencial teria dificuldade em dissociá-la das cenas invasivas, fossem reais ou forjadas. Em 2019, Astarabadi desistiu da NotEvil.Hoje, ele temoutrastartup, a TheOasis, que usa a tecnologia deepfake para criar umavatar animado para as pessoas usarememchats de vídeo. O lema da empresa é “Seja quem você realmente é”. Somos todos de verdade? Em dezembro, o Sassy Justice soltou um segundo vídeo. Este trazia um “Donald Trump” estranhamente bonzinho como típico suéter de motivos natalinos, lendo em voz alta umlivro infantil sobre uma rena quemorredepoisdeperderumaeleição por fraude. Era bem feito, mas ainda assimnão conseguia afastar a Nesse reino subterrâneo, a distinção entre o deepfake e o real desaba sob o potencial da perseguição. É também o reino no qual, talvez, o primeiro deepfake político de fato foi usado contra alguém QUEM | QUANDO | COMO | ONDE | POR QUÊ E O QUE ESTÁ POR VIR. . .

RkJQdWJsaXNoZXIy NDQ1MTY1