[Esta palestra apresenta conteúdo adulto] Moritz Riesewieck: Em 23 de março de 2013, usuários do mundo todo viram em seu "feed" de notícias, um vídeo de uma garota jovem sendo estuprada por um homem mais velho. Antes de o vídeo ser removido do Facebook, ele foi compartilhado 16 mil vezes e ainda recebeu 4 mil curtidas. Esse vídeo "viralizou" e infectou a rede. Hans Block: E esse foi o momento em que nos perguntamos: como algo assim pôde aparecer no Facebook? E, ao mesmo tempo, por que não vemos esse tipo de conteúdo com mais frequência? Afinal, há muito material repugnante na internet, mas por que raramente vemos tais porcarias no Facebook, Twitter ou Google? MR: Embora o software de reconhecimento de imagem possa identificar traços de órgãos sexuais, sangue ou pele nua exposta em imagens e vídeos, ele tem uma dificuldade enorme em distinguir conteúdo pornográfico de fotos de viagem, estátuas de Adonis ou campanhas de prevenção do câncer de mama. Ele não consegue distinguir Romeu e Julieta morrendo no palco de um verdadeiro ataque com faca. Não consegue distinguir sátira de propaganda ou ironia de ódio, e por aí vai. Portanto, cabe aos seres humanos decidir qual dos conteúdos suspeitos deve ser excluído e qual deve ser mantido. Sabemos muito pouco sobre essas pessoas, porque elas trabalham em sigilo. Elas assinam acordos de confidencialidade, que as proíbem de falar e compartilhar o que veem na tela delas e o que este trabalho as faz sentir. São forçadas a usar palavras de código para esconder para quem trabalham. São monitoradas por firmas de segurança privada para garantir que elas não falarão com jornalistas. E são ameaçadas por multas, caso falem. Parece ser uma história estranha de crime, mas é verdadeira. Essas pessoas existem e são chamadas de moderadores de conteúdo. HB: Nós somos os diretores do documentário "The Cleaners" e gostaríamos de levá-los a um mundo que muitos de vocês ainda desconhecem. Eis um pequeno clipe do nosso filme. (Música) (Vídeo) Moderador: Precisamos manter anonimato porque assinamos um contrato. Não somos permitidos a anunciar para quem estamos trabalhando. Estou falando com vocês porque o mundo precisa saber que estamos aqui. Alguém está verificando as mídias sociais. Estamos fazendo o melhor para tornar essa plataforma segura para todos. Excluir. Ignorar. Excluir. Ignorar. Excluir. Ignorar. Ignorar. Excluir. HB: Os chamados moderadores de conteúdo não recebem seus salários diretamente do Facebook, Twitter ou Google, mas de empresas de terceirização ao redor do mundo a fim de manter os baixos salários. Dezenas de milhares de jovens examinando tudo o que nós não deveríamos ver. E estamos falando de decapitações, mutilações, execuções, necrofilia, tortura, abuso infantil. Milhares de imagens em um turno: ignorar, excluir, dia e noite. E muito disso é feito em Manila, para onde os resíduos tóxicos analógicos do Ocidente foram transportados por navios porta-contêineres durante anos, agora os resíduos digitais são jogados lá através de cabos de fibra ótica. E assim como os catadores vasculham montes gigantescos de lixo na periferia, os moderadores de conteúdo clicam em um oceano tóxico sem fim de imagens, vídeos e toda a forma de lixo intelectual, para que não precisemos olhar para isso. MR: Mas ao contrário dos catadores, as feridas dos moderadores de conteúdo permanecem invisíveis. Todo esse conteúdo chocante e perturbador de fotos e vídeos entram na memória deles e, a qualquer momento, podem causar efeitos imprevisíveis: distúrbio alimentar, perda de libido, transtornos de ansiedade, alcoolismo, depressão, que pode até levar ao suicídio. Essas fotos e vídeos os contaminam, e muitas vezes nunca mais os deixam. Se não tiverem sorte, podem desenvolver transtorno de estresse pós-traumático, como soldados após missões de guerra. Em nosso filme, contamos a história de um jovem que tinha de monitorar transmissões ao vivo de automutilações e tentativas de suicídio repetidas vezes, e que, por fim, acabou cometendo suicídio. Não é um caso isolado, como nos disseram. Esse é o preço que todos nós pagamos para termos mídias sociais consideradas limpas, seguras e "saudáveis". Nunca antes na história da humanidade foi tão fácil atingir milhões de pessoas do mundo todo em poucos segundos. O que é publicado nas redes sociais se espalha muito rapidamente, se torna viral e excita a mente das pessoas em todo o mundo. Antes de ter sido excluído, muitas vezes já é tarde demais. Milhões de pessoas já foram afetadas pelo ódio e pela raiva ou se tornam ativas na rede espalhando ou ampliando o ódio ou elas tomam as ruas à mão armada. HB: Por isso, há um exército de moderadores de conteúdo sentado em frente à tela para evitar novos danos colaterais. E eles decidem o mais rápido possível, se o conteúdo permanece na plataforma, ignorando-o, ou se ele deve desaparecer, excluindo-o. Mas nem toda decisão é tão clara como aquela sobre um vídeo de abuso infantil. O que dizer sobre conteúdos controversos ou ambivalentes enviados por ativistas de direitos humanos ou pelo jornalismo cidadão? Os moderadores de conteúdo muitas vezes decidem sobre esses casos na mesma velocidade que os casos mais claros. MR: Vamos mostrar um vídeo agora e pedimos que decidam: vocês o excluiriam ou não? (Vídeo) (Som de ataque aéreo) (Som de explosão) (Pessoas falando em árabe) MR: Desfocamos algumas imagens para mostrar a vocês. Possivelmente, uma criança ficaria muito perturbada e extremamente assustada com tal conteúdo. Então, vocês prefeririam excluí-lo? Mas e se esse vídeo pudesse ajudar a investigar crimes de guerra na Síria? E se ninguém ouvisse falar sobre esse ataque aéreo, porque o Facebook, Youtube, Twitter decidiram removê-lo? A Airwars, uma ONG sediada em Londres, tenta encontrar esses vídeos assim que são carregados nas mídias sociais, para arquivá-los. Porque eles sabem que, cedo ou tarde, o Facebook, Youtube, Twitter removeriam esses conteúdos. Pessoas armadas com seus celulares podem tornar visível aquilo que jornalistas muitas vezes não têm acesso. Grupos de direitos humanos geralmente não têm uma opção melhor para tornar seus registros rapidamente acessíveis a um grande público do que publicá-los nas redes sociais. Não era esse o potencial empoderador que a "World Wide Web" deveria ter? Não era esse o sonho que as pessoas inicialmente tinham quanto à internet? Será que imagens e vídeos como esses não podem convencer as pessoas que se tornaram insensíveis aos fatos a repensar? HB: Mas, em vez disso, tudo que pode ser perturbador é excluído. E há a mudança geral na sociedade. Por exemplo, a mídia usa cada vez mais alertas de gatilho no início dos artigos que algumas pessoas podem achar ofensivo ou problemático. Cada vez mais estudantes nas universidades dos EUA demandam o banimento do currículo de clássicos antigos que mostram violência ou assédio sexual. Mas até onde devemos ir com isso? A integridade física é um direito humano garantido por constituições no mundo todo. Na Carta dos Direitos Fundamentais da União Europeia, esse direito expressamente se aplica à integridade mental. Mas ainda que seja difícil prever o efeito potencialmente traumático das imagens, queremos mesmo nos tornar tão cautelosos que arriscamos perder o senso de injustiça social? Então o que fazer? Mark Zuckerberg declarou recentemente que, no futuro, nós, usuários deles, ou quase todo mundo decidiremos individualmente o que queremos ver na plataforma, através de filtros personalizados. Então, todos poderão facilmente optar por não serem perturbados por imagens de guerra ou outros conflitos violentos, como... MR: Eu sou o tipo de cara que não se importa em ver seios e tenho muito interesse em aquecimento global, mas eu não gosto tanto de guerra. HB: Sou o oposto, tenho zero interesse em seios ou sequer corpos nus. Mas por que não armas? Eu gosto de armas, sim. MR: Fala sério, se não compartilhamos uma consciência social similar, como vamos discutir problemas sociais? Como vamos chamar as pessoas para agir? Surgiriam ainda mais bolhas isoladas. Uma das perguntas centrais é: "Como, no futuro, a liberdade de expressão será pesada contra a necessidade de proteção das pessoas?" É uma questão de princípios. Queremos criar uma sociedade aberta ou fechada para o espaço digital? O cerne da questão é "liberdade versus segurança". O Facebook sempre quis ser uma plataforma "saudável". Acima de tudo, os usuários devem se sentir seguros e protegidos. São as mesmas palavras que moderadores de conteúdo nas Filipinas usaram em muitas de nossas entrevistas. (Vídeo) Homem: Acho que o mundo em que vivemos não é tão saudável. (Música) Nesse mundo, existe realmente um mal. (Música) Precisamos prestar atenção nisso. Precisamos controlar isso, bom ou mau. (Música) ["Olhe para cima, jovem!", Deus] MR: Para jovens moderadores nas Filipinas, um país estritamente católico, isso está ligado a uma missão cristã: combater os pecados do mundo que se espalham pela internet. "A pureza está ao lado da divindade" é um ditado popular nas Filipinas. HB: E outros se motivam comparando-se com seu presidente Rodrigo Duterte. Ele governa as Filipinas desde 2016, e ganhou as eleições com a promessa: "Farei a limpeza". Isso significa eliminar os problemas literalmente matando as pessoas nas ruas, que supostamente são criminosos, seja lá o que signifique isso. Desde que foi eleito, uma estimativa de 20 mil pessoas foram mortas. Em nosso filme, um dos moderadores diz: "O que Duterte faz nas ruas, eu faço para a Internet". E aqui estão eles, nossos autoproclamados super-heróis, que impõem lei e ordem em nosso mundo digital. Eles deixam tudo limpo e nos libertam de todo o mal. Tarefas que antes eram reservadas às autoridades do Estado, foram assumidas por recém-graduados com 20 e poucos anos, qualificados com 3 a 5 dias de treinamento, e que trabalham com nada menos que o resgate do mundo. MR: As soberanias nacionais foram terceirizadas a companhias privadas, que repassam a terceiros suas responsabilidades. Ocorre uma terceirização da terceirização. Com as redes sociais, estamos lidando com uma infraestrutura completamente nova, com mecanismos próprios, lógica de ação própria e, portanto, novos perigos também, que não existiam na esfera pública pré-digital. HB: Quando Mark Zuckerberg esteve no Congresso norte-americano ou no Parlamento Europeu, foi confrontado com todo tipo de crítica. E a reação dele foi sempre a mesma: "Nós vamos consertar isso e vou acompanhar com a minha equipe". Mas tal debate não deveria ocorrer nos bastidores do Facebook, Twitter ou Google. Ele deveria ser discutido publicamente em novos parlamentos cosmopolitas, em novas instituições que refletem a diversidade de pessoas, contribuindo para um projeto utópico de uma rede global. Mesmo que pareça impossível considerar os valores dos usuários do mundo todo, vale a pena acreditar que há mais daquilo que nos conecta do que nos separa. MR: Sim, num momento em que o populismo ganha força, torna-se "popular" justificar os sintomas, erradicá-los, e torná-los invisíveis. Essa ideologia está se espalhando em todo o mundo, analógico e digital, e é nosso dever impedir isso antes que seja tarde demais. A questão da liberdade e democracia não pode ter só estas duas opções. HB: Excluir... MR: Ou ignorar. HB: Muito obrigado. (Aplausos)