1 00:00:00,360 --> 00:00:03,581 [Esta palestra apresenta conteúdo adulto] 2 00:00:04,913 --> 00:00:08,785 Moritz Riesewieck: Em 23 de março de 2013, 3 00:00:09,389 --> 00:00:13,446 usuários do mundo todo viram em seu "feed" de notícias, 4 00:00:13,470 --> 00:00:18,637 um vídeo de uma garota jovem sendo estuprada por um homem mais velho. 5 00:00:19,478 --> 00:00:23,004 Antes de o vídeo ser removido do Facebook, 6 00:00:23,309 --> 00:00:27,029 ele foi compartilhado 16 mil vezes 7 00:00:28,034 --> 00:00:31,504 e ainda recebeu 4 mil curtidas. 8 00:00:33,268 --> 00:00:37,212 Esse vídeo "viralizou" e infectou a rede. 9 00:00:37,873 --> 00:00:40,968 Hans Block: E esse foi o momento em que nos perguntamos: 10 00:00:40,992 --> 00:00:43,770 como algo assim pôde aparecer no Facebook? 11 00:00:43,794 --> 00:00:48,196 E, ao mesmo tempo, por que não vemos esse tipo de conteúdo com mais frequência? 12 00:00:48,220 --> 00:00:51,903 Afinal, há muito material repugnante na internet, 13 00:00:51,927 --> 00:00:56,958 mas por que raramente vemos tais porcarias no Facebook, Twitter ou Google? 14 00:00:56,958 --> 00:00:59,492 MR: Embora o software de reconhecimento de imagem 15 00:00:59,492 --> 00:01:03,002 possa identificar traços de órgãos sexuais, 16 00:01:03,362 --> 00:01:08,482 sangue ou pele nua exposta em imagens e vídeos, 17 00:01:08,482 --> 00:01:14,022 ele tem uma dificuldade enorme em distinguir conteúdo pornográfico 18 00:01:14,046 --> 00:01:18,394 de fotos de viagem, estátuas de Adonis 19 00:01:18,418 --> 00:01:21,116 ou campanhas de prevenção do câncer de mama. 20 00:01:21,140 --> 00:01:25,395 Ele não consegue distinguir Romeu e Julieta morrendo no palco 21 00:01:25,419 --> 00:01:27,974 de um verdadeiro ataque com faca. 22 00:01:27,998 --> 00:01:32,750 Não consegue distinguir sátira de propaganda 23 00:01:33,244 --> 00:01:37,372 ou ironia de ódio, e por aí vai. 24 00:01:38,077 --> 00:01:42,155 Portanto, cabe aos seres humanos decidir 25 00:01:42,179 --> 00:01:47,810 qual dos conteúdos suspeitos deve ser excluído e qual deve ser mantido. 26 00:01:48,909 --> 00:01:53,764 Sabemos muito pouco sobre essas pessoas, porque elas trabalham em sigilo. 27 00:01:54,053 --> 00:01:56,300 Elas assinam acordos de confidencialidade, 28 00:01:56,300 --> 00:02:00,584 que as proíbem de falar e compartilhar o que veem na tela delas 29 00:02:00,584 --> 00:02:03,007 e o que este trabalho as faz sentir. 30 00:02:03,007 --> 00:02:07,487 São forçadas a usar palavras de código para esconder para quem trabalham. 31 00:02:07,585 --> 00:02:10,490 São monitoradas por firmas de segurança privada 32 00:02:10,514 --> 00:02:14,024 para garantir que elas não falarão com jornalistas. 33 00:02:14,048 --> 00:02:17,587 E são ameaçadas por multas, caso falem. 34 00:02:18,421 --> 00:02:22,101 Parece ser uma história estranha de crime, 35 00:02:22,101 --> 00:02:23,561 mas é verdadeira. 36 00:02:23,561 --> 00:02:29,413 Essas pessoas existem e são chamadas de moderadores de conteúdo. 37 00:02:30,942 --> 00:02:34,387 HB: Nós somos os diretores do documentário "The Cleaners" 38 00:02:34,411 --> 00:02:38,971 e gostaríamos de levá-los a um mundo que muitos de vocês ainda desconhecem. 39 00:02:39,006 --> 00:02:41,510 Eis um pequeno clipe do nosso filme. 40 00:02:46,639 --> 00:02:48,463 (Música) 41 00:02:52,400 --> 00:02:56,646 (Vídeo) Moderador: Precisamos manter anonimato porque assinamos um contrato. 42 00:02:57,784 --> 00:03:01,715 Não somos permitidos a anunciar para quem estamos trabalhando. 43 00:03:02,807 --> 00:03:04,673 Estou falando com vocês 44 00:03:04,673 --> 00:03:09,095 porque o mundo precisa saber que estamos aqui. 45 00:03:10,544 --> 00:03:13,577 Alguém está verificando as mídias sociais. 46 00:03:14,317 --> 00:03:19,847 Estamos fazendo o melhor para tornar essa plataforma segura para todos. 47 00:03:30,438 --> 00:03:31,588 Excluir. 48 00:03:32,278 --> 00:03:33,572 Ignorar. 49 00:03:33,596 --> 00:03:34,746 Excluir. 50 00:03:35,279 --> 00:03:36,576 Ignorar. 51 00:03:36,600 --> 00:03:37,751 Excluir. 52 00:03:38,680 --> 00:03:39,831 Ignorar. 53 00:03:39,855 --> 00:03:41,005 Ignorar. 54 00:03:41,625 --> 00:03:42,775 Excluir. 55 00:03:46,030 --> 00:03:48,031 HB: Os chamados moderadores de conteúdo 56 00:03:48,031 --> 00:03:52,031 não recebem seus salários diretamente do Facebook, Twitter ou Google, 57 00:03:52,055 --> 00:03:54,396 mas de empresas de terceirização ao redor do mundo 58 00:03:54,396 --> 00:03:56,813 a fim de manter os baixos salários. 59 00:03:56,833 --> 00:04:02,061 Dezenas de milhares de jovens examinando tudo o que nós não deveríamos ver. 60 00:04:02,061 --> 00:04:07,928 E estamos falando de decapitações, mutilações, execuções, necrofilia, 61 00:04:07,928 --> 00:04:09,705 tortura, abuso infantil. 62 00:04:09,743 --> 00:04:14,726 Milhares de imagens em um turno: ignorar, excluir, dia e noite. 63 00:04:15,393 --> 00:04:18,791 E muito disso é feito em Manila, 64 00:04:18,815 --> 00:04:22,691 para onde os resíduos tóxicos analógicos do Ocidente foram transportados 65 00:04:22,691 --> 00:04:24,749 por navios porta-contêineres durante anos, 66 00:04:24,773 --> 00:04:28,776 agora os resíduos digitais são jogados lá através de cabos de fibra ótica. 67 00:04:28,800 --> 00:04:35,371 E assim como os catadores vasculham montes gigantescos de lixo na periferia, 68 00:04:35,371 --> 00:04:40,204 os moderadores de conteúdo clicam em um oceano tóxico sem fim 69 00:04:40,228 --> 00:04:44,315 de imagens, vídeos e toda a forma de lixo intelectual, 70 00:04:44,339 --> 00:04:46,925 para que não precisemos olhar para isso. 71 00:04:46,925 --> 00:04:50,205 MR: Mas ao contrário dos catadores, 72 00:04:50,229 --> 00:04:53,947 as feridas dos moderadores de conteúdo permanecem invisíveis. 73 00:04:54,117 --> 00:04:57,278 Todo esse conteúdo chocante e perturbador 74 00:04:57,318 --> 00:05:00,508 de fotos e vídeos entram na memória deles 75 00:05:00,508 --> 00:05:03,953 e, a qualquer momento, podem causar efeitos imprevisíveis: 76 00:05:03,977 --> 00:05:07,301 distúrbio alimentar, perda de libido, 77 00:05:07,301 --> 00:05:10,641 transtornos de ansiedade, alcoolismo, 78 00:05:10,641 --> 00:05:13,823 depressão, que pode até levar ao suicídio. 79 00:05:14,100 --> 00:05:18,982 Essas fotos e vídeos os contaminam, e muitas vezes nunca mais os deixam. 80 00:05:18,982 --> 00:05:23,823 Se não tiverem sorte, podem desenvolver transtorno de estresse pós-traumático, 81 00:05:23,847 --> 00:05:26,647 como soldados após missões de guerra. 82 00:05:27,445 --> 00:05:31,088 Em nosso filme, contamos a história de um jovem 83 00:05:31,112 --> 00:05:35,318 que tinha de monitorar transmissões ao vivo de automutilações 84 00:05:35,318 --> 00:05:37,837 e tentativas de suicídio repetidas vezes, 85 00:05:37,977 --> 00:05:41,237 e que, por fim, acabou cometendo suicídio. 86 00:05:41,787 --> 00:05:44,887 Não é um caso isolado, como nos disseram. 87 00:05:45,184 --> 00:05:49,452 Esse é o preço que todos nós pagamos 88 00:05:49,452 --> 00:05:56,492 para termos mídias sociais consideradas limpas, seguras e "saudáveis". 89 00:05:58,482 --> 00:06:01,077 Nunca antes na história da humanidade 90 00:06:01,101 --> 00:06:05,903 foi tão fácil atingir milhões de pessoas do mundo todo em poucos segundos. 91 00:06:06,148 --> 00:06:10,093 O que é publicado nas redes sociais se espalha muito rapidamente, 92 00:06:10,117 --> 00:06:14,273 se torna viral e excita a mente das pessoas em todo o mundo. 93 00:06:14,450 --> 00:06:18,681 Antes de ter sido excluído, muitas vezes já é tarde demais. 94 00:06:18,966 --> 00:06:23,046 Milhões de pessoas já foram afetadas pelo ódio e pela raiva 95 00:06:23,101 --> 00:06:28,751 ou se tornam ativas na rede espalhando ou ampliando o ódio 96 00:06:29,022 --> 00:06:33,085 ou elas tomam as ruas à mão armada. 97 00:06:33,236 --> 00:06:35,940 HB: Por isso, há um exército de moderadores de conteúdo 98 00:06:35,940 --> 00:06:40,195 sentado em frente à tela para evitar novos danos colaterais. 99 00:06:40,434 --> 00:06:42,573 E eles decidem o mais rápido possível, 100 00:06:42,577 --> 00:06:46,683 se o conteúdo permanece na plataforma, ignorando-o, 101 00:06:46,683 --> 00:06:49,363 ou se ele deve desaparecer, excluindo-o. 102 00:06:49,958 --> 00:06:55,395 Mas nem toda decisão é tão clara como aquela sobre um vídeo de abuso infantil. 103 00:06:55,395 --> 00:06:58,172 O que dizer sobre conteúdos controversos ou ambivalentes 104 00:06:58,196 --> 00:07:02,048 enviados por ativistas de direitos humanos ou pelo jornalismo cidadão? 105 00:07:02,048 --> 00:07:05,270 Os moderadores de conteúdo muitas vezes decidem sobre esses casos 106 00:07:05,294 --> 00:07:08,574 na mesma velocidade que os casos mais claros. 107 00:07:09,515 --> 00:07:15,241 MR: Vamos mostrar um vídeo agora e pedimos que decidam: 108 00:07:15,531 --> 00:07:18,646 vocês o excluiriam ou não? 109 00:07:19,070 --> 00:07:21,077 (Vídeo) (Som de ataque aéreo) 110 00:07:21,100 --> 00:07:23,650 (Som de explosão) 111 00:07:28,076 --> 00:07:31,359 (Pessoas falando em árabe) 112 00:07:34,053 --> 00:07:37,143 MR: Desfocamos algumas imagens para mostrar a vocês. 113 00:07:37,196 --> 00:07:40,951 Possivelmente, uma criança ficaria muito perturbada 114 00:07:40,975 --> 00:07:43,784 e extremamente assustada com tal conteúdo. 115 00:07:43,808 --> 00:07:46,403 Então, vocês prefeririam excluí-lo? 116 00:07:47,610 --> 00:07:52,439 Mas e se esse vídeo pudesse ajudar a investigar crimes de guerra na Síria? 117 00:07:52,717 --> 00:07:55,884 E se ninguém ouvisse falar sobre esse ataque aéreo, 118 00:07:55,908 --> 00:08:00,226 porque o Facebook, Youtube, Twitter decidiram removê-lo? 119 00:08:00,895 --> 00:08:05,220 A Airwars, uma ONG sediada em Londres, 120 00:08:05,244 --> 00:08:10,749 tenta encontrar esses vídeos assim que são carregados nas mídias sociais, 121 00:08:10,749 --> 00:08:12,618 para arquivá-los. 122 00:08:12,693 --> 00:08:15,526 Porque eles sabem que, cedo ou tarde, 123 00:08:15,550 --> 00:08:19,290 o Facebook, Youtube, Twitter removeriam esses conteúdos. 124 00:08:19,345 --> 00:08:22,932 Pessoas armadas com seus celulares podem tornar visível 125 00:08:22,932 --> 00:08:25,776 aquilo que jornalistas muitas vezes não têm acesso. 126 00:08:25,800 --> 00:08:29,157 Grupos de direitos humanos geralmente não têm uma opção melhor 127 00:08:29,157 --> 00:08:32,688 para tornar seus registros rapidamente acessíveis a um grande público 128 00:08:32,712 --> 00:08:35,792 do que publicá-los nas redes sociais. 129 00:08:35,950 --> 00:08:40,640 Não era esse o potencial empoderador que a "World Wide Web" deveria ter? 130 00:08:40,966 --> 00:08:47,021 Não era esse o sonho que as pessoas inicialmente tinham quanto à internet? 131 00:08:47,608 --> 00:08:52,212 Será que imagens e vídeos como esses não podem convencer as pessoas 132 00:08:52,212 --> 00:08:57,221 que se tornaram insensíveis aos fatos a repensar? 133 00:08:57,917 --> 00:09:01,519 HB: Mas, em vez disso, tudo que pode ser perturbador é excluído. 134 00:09:01,543 --> 00:09:03,601 E há a mudança geral na sociedade. 135 00:09:03,625 --> 00:09:09,302 Por exemplo, a mídia usa cada vez mais alertas de gatilho no início dos artigos 136 00:09:09,363 --> 00:09:12,672 que algumas pessoas podem achar ofensivo ou problemático. 137 00:09:12,696 --> 00:09:18,156 Cada vez mais estudantes nas universidades dos EUA demandam o banimento do currículo 138 00:09:18,156 --> 00:09:22,891 de clássicos antigos que mostram violência ou assédio sexual. 139 00:09:22,991 --> 00:09:25,824 Mas até onde devemos ir com isso? 140 00:09:25,875 --> 00:09:31,279 A integridade física é um direito humano garantido por constituições no mundo todo. 141 00:09:31,422 --> 00:09:35,176 Na Carta dos Direitos Fundamentais da União Europeia, 142 00:09:35,200 --> 00:09:39,302 esse direito expressamente se aplica à integridade mental. 143 00:09:39,347 --> 00:09:44,805 Mas ainda que seja difícil prever o efeito potencialmente traumático das imagens, 144 00:09:44,879 --> 00:09:46,836 queremos mesmo nos tornar tão cautelosos 145 00:09:46,860 --> 00:09:50,652 que arriscamos perder o senso de injustiça social? 146 00:09:51,203 --> 00:09:52,763 Então o que fazer? 147 00:09:52,942 --> 00:09:56,094 Mark Zuckerberg declarou recentemente que, no futuro, 148 00:09:56,094 --> 00:09:59,806 nós, usuários deles, ou quase todo mundo 149 00:09:59,806 --> 00:10:03,901 decidiremos individualmente o que queremos ver na plataforma, 150 00:10:03,901 --> 00:10:06,172 através de filtros personalizados. 151 00:10:06,196 --> 00:10:09,268 Então, todos poderão facilmente optar por não serem perturbados 152 00:10:09,292 --> 00:10:13,031 por imagens de guerra ou outros conflitos violentos, como... 153 00:10:13,399 --> 00:10:18,295 MR: Eu sou o tipo de cara que não se importa em ver seios 154 00:10:18,319 --> 00:10:22,085 e tenho muito interesse em aquecimento global, 155 00:10:22,109 --> 00:10:25,063 mas eu não gosto tanto de guerra. 156 00:10:25,109 --> 00:10:30,901 HB: Sou o oposto, tenho zero interesse em seios ou sequer corpos nus. 157 00:10:31,209 --> 00:10:34,250 Mas por que não armas? Eu gosto de armas, sim. 158 00:10:34,901 --> 00:10:38,646 MR: Fala sério, se não compartilhamos uma consciência social similar, 159 00:10:38,670 --> 00:10:41,339 como vamos discutir problemas sociais? 160 00:10:41,363 --> 00:10:43,760 Como vamos chamar as pessoas para agir? 161 00:10:43,784 --> 00:10:47,665 Surgiriam ainda mais bolhas isoladas. 162 00:10:47,665 --> 00:10:52,518 Uma das perguntas centrais é: "Como, no futuro, a liberdade de expressão 163 00:10:52,518 --> 00:10:56,331 será pesada contra a necessidade de proteção das pessoas?" 164 00:10:56,441 --> 00:10:58,920 É uma questão de princípios. 165 00:10:58,602 --> 00:11:04,740 Queremos criar uma sociedade aberta ou fechada para o espaço digital? 166 00:11:05,054 --> 00:11:11,204 O cerne da questão é "liberdade versus segurança". 167 00:11:12,388 --> 00:11:16,872 O Facebook sempre quis ser uma plataforma "saudável". 168 00:11:16,896 --> 00:11:20,594 Acima de tudo, os usuários devem se sentir seguros e protegidos. 169 00:11:20,618 --> 00:11:22,694 São as mesmas palavras 170 00:11:22,694 --> 00:11:28,188 que moderadores de conteúdo nas Filipinas usaram em muitas de nossas entrevistas. 171 00:11:28,188 --> 00:11:32,719 (Vídeo) Homem: Acho que o mundo em que vivemos não é tão saudável. 172 00:11:32,783 --> 00:11:34,331 (Música) 173 00:11:34,355 --> 00:11:37,513 Nesse mundo, existe realmente um mal. 174 00:11:37,537 --> 00:11:39,215 (Música) 175 00:11:40,799 --> 00:11:43,380 Precisamos prestar atenção nisso. 176 00:11:44,768 --> 00:11:48,142 Precisamos controlar isso, bom ou mau. 177 00:11:48,646 --> 00:11:50,196 (Música) 178 00:11:58,193 --> 00:12:02,296 ["Olhe para cima, jovem!", Deus] 179 00:12:02,952 --> 00:12:07,230 MR: Para jovens moderadores nas Filipinas, um país estritamente católico, 180 00:12:07,254 --> 00:12:10,619 isso está ligado a uma missão cristã: 181 00:12:10,833 --> 00:12:16,279 combater os pecados do mundo que se espalham pela internet. 182 00:12:16,641 --> 00:12:23,493 "A pureza está ao lado da divindade" é um ditado popular nas Filipinas. 183 00:12:24,035 --> 00:12:29,454 HB: E outros se motivam comparando-se com seu presidente Rodrigo Duterte. 184 00:12:29,837 --> 00:12:35,709 Ele governa as Filipinas desde 2016, e ganhou as eleições com a promessa: 185 00:12:36,119 --> 00:12:37,825 "Farei a limpeza". 186 00:12:37,892 --> 00:12:43,487 Isso significa eliminar os problemas literalmente matando as pessoas nas ruas, 187 00:12:43,487 --> 00:12:46,601 que supostamente são criminosos, seja lá o que signifique isso. 188 00:12:46,601 --> 00:12:51,441 Desde que foi eleito, uma estimativa de 20 mil pessoas foram mortas. 189 00:12:51,545 --> 00:12:54,176 Em nosso filme, um dos moderadores diz: 190 00:12:54,180 --> 00:12:58,204 "O que Duterte faz nas ruas, eu faço para a Internet". 191 00:12:58,934 --> 00:13:02,498 E aqui estão eles, nossos autoproclamados super-heróis, 192 00:13:02,532 --> 00:13:05,508 que impõem lei e ordem em nosso mundo digital. 193 00:13:05,522 --> 00:13:10,253 Eles deixam tudo limpo e nos libertam de todo o mal. 194 00:13:10,284 --> 00:13:14,013 Tarefas que antes eram reservadas às autoridades do Estado, 195 00:13:14,037 --> 00:13:17,712 foram assumidas por recém-graduados com 20 e poucos anos, 196 00:13:17,736 --> 00:13:22,089 qualificados com 3 a 5 dias de treinamento, 197 00:13:22,583 --> 00:13:26,329 e que trabalham com nada menos que o resgate do mundo. 198 00:13:26,756 --> 00:13:30,975 MR: As soberanias nacionais foram terceirizadas a companhias privadas, 199 00:13:30,999 --> 00:13:35,007 que repassam a terceiros suas responsabilidades. 200 00:13:35,031 --> 00:13:39,404 Ocorre uma terceirização da terceirização. 201 00:13:39,618 --> 00:13:44,013 Com as redes sociais, estamos lidando com uma infraestrutura completamente nova, 202 00:13:44,013 --> 00:13:47,419 com mecanismos próprios, lógica de ação própria 203 00:13:47,419 --> 00:13:52,154 e, portanto, novos perigos também, 204 00:13:52,484 --> 00:13:56,224 que não existiam na esfera pública pré-digital. 205 00:13:56,224 --> 00:13:59,150 HB: Quando Mark Zuckerberg esteve no Congresso norte-americano 206 00:13:59,150 --> 00:14:00,541 ou no Parlamento Europeu, 207 00:14:00,565 --> 00:14:03,200 foi confrontado com todo tipo de crítica. 208 00:14:03,224 --> 00:14:06,074 E a reação dele foi sempre a mesma: 209 00:14:06,501 --> 00:14:10,809 "Nós vamos consertar isso e vou acompanhar com a minha equipe". 210 00:14:11,167 --> 00:14:14,945 Mas tal debate não deveria ocorrer nos bastidores do Facebook, 211 00:14:14,969 --> 00:14:16,254 Twitter ou Google. 212 00:14:16,278 --> 00:14:21,094 Ele deveria ser discutido publicamente em novos parlamentos cosmopolitas, 213 00:14:21,118 --> 00:14:25,978 em novas instituições que refletem a diversidade de pessoas, 214 00:14:26,002 --> 00:14:30,544 contribuindo para um projeto utópico de uma rede global. 215 00:14:30,568 --> 00:14:36,590 Mesmo que pareça impossível considerar os valores dos usuários do mundo todo, 216 00:14:36,135 --> 00:14:41,507 vale a pena acreditar que há mais daquilo que nos conecta do que nos separa. 217 00:14:41,624 --> 00:14:45,331 MR: Sim, num momento em que o populismo ganha força, 218 00:14:45,355 --> 00:14:51,813 torna-se "popular" justificar os sintomas, erradicá-los, e torná-los invisíveis. 219 00:14:52,919 --> 00:14:59,428 Essa ideologia está se espalhando em todo o mundo, analógico e digital, 220 00:14:59,903 --> 00:15:05,045 e é nosso dever impedir isso antes que seja tarde demais. 221 00:15:05,665 --> 00:15:12,749 A questão da liberdade e democracia não pode ter só estas duas opções. 222 00:15:13,053 --> 00:15:14,219 HB: Excluir... 223 00:15:14,243 --> 00:15:16,390 MR: Ou ignorar. 224 00:15:17,300 --> 00:15:18,897 HB: Muito obrigado. 225 00:15:18,921 --> 00:15:20,523 (Aplausos)