0:00:00.360,0:00:03.581 [Esta palestra apresenta conteúdo adulto] 0:00:04.913,0:00:08.785 Moritz Riesewieck: Em 23 de março de 2013, 0:00:09.389,0:00:13.446 usuários do mundo todo viram[br]em seu "feed" de notícias, 0:00:13.470,0:00:18.637 um vídeo de uma garota jovem sendo[br]estuprada por um homem mais velho. 0:00:19.478,0:00:23.004 Antes de o vídeo ser removido do Facebook, 0:00:23.309,0:00:27.029 ele foi compartilhado 16 mil vezes 0:00:28.034,0:00:31.504 e ainda recebeu 4 mil curtidas. 0:00:33.268,0:00:37.212 Esse vídeo "viralizou" e infectou a rede. 0:00:37.873,0:00:40.968 Hans Block: E esse foi o momento[br]em que nos perguntamos: 0:00:40.992,0:00:43.770 como algo assim pôde aparecer no Facebook? 0:00:43.794,0:00:48.196 E, ao mesmo tempo, por que não vemos[br]esse tipo de conteúdo com mais frequência? 0:00:48.220,0:00:51.903 Afinal, há muito material[br]repugnante na internet, 0:00:51.927,0:00:56.958 mas por que raramente vemos tais porcarias[br]no Facebook, Twitter ou Google? 0:00:56.958,0:00:59.492 MR: Embora o software[br]de reconhecimento de imagem 0:00:59.492,0:01:03.002 possa identificar[br]traços de órgãos sexuais, 0:01:03.362,0:01:08.482 sangue ou pele nua exposta[br]em imagens e vídeos, 0:01:08.482,0:01:14.022 ele tem uma dificuldade enorme[br]em distinguir conteúdo pornográfico 0:01:14.046,0:01:18.394 de fotos de viagem, estátuas de Adonis 0:01:18.418,0:01:21.116 ou campanhas de prevenção[br]do câncer de mama. 0:01:21.140,0:01:25.395 Ele não consegue distinguir[br]Romeu e Julieta morrendo no palco 0:01:25.419,0:01:27.974 de um verdadeiro ataque com faca. 0:01:27.998,0:01:32.750 Não consegue distinguir[br]sátira de propaganda 0:01:33.244,0:01:37.372 ou ironia de ódio, e por aí vai. 0:01:38.077,0:01:42.155 Portanto, cabe aos seres humanos decidir 0:01:42.179,0:01:47.810 qual dos conteúdos suspeitos deve[br]ser excluído e qual deve ser mantido. 0:01:48.909,0:01:53.764 Sabemos muito pouco sobre essas pessoas,[br]porque elas trabalham em sigilo. 0:01:54.053,0:01:56.300 Elas assinam acordos de confidencialidade, 0:01:56.300,0:02:00.584 que as proíbem de falar e compartilhar[br]o que veem na tela delas 0:02:00.584,0:02:03.007 e o que este trabalho as faz sentir. 0:02:03.007,0:02:07.487 São forçadas a usar palavras de código[br]para esconder para quem trabalham. 0:02:07.585,0:02:10.490 São monitoradas por firmas[br]de segurança privada 0:02:10.514,0:02:14.024 para garantir que elas[br]não falarão com jornalistas. 0:02:14.048,0:02:17.587 E são ameaçadas por multas, caso falem. 0:02:18.421,0:02:22.101 Parece ser uma história estranha de crime, 0:02:22.101,0:02:23.561 mas é verdadeira. 0:02:23.561,0:02:29.413 Essas pessoas existem e são chamadas[br]de moderadores de conteúdo. 0:02:30.942,0:02:34.387 HB: Nós somos os diretores[br]do documentário "The Cleaners" 0:02:34.411,0:02:38.971 e gostaríamos de levá-los a um mundo[br]que muitos de vocês ainda desconhecem. 0:02:39.006,0:02:41.510 Eis um pequeno clipe do nosso filme. 0:02:46.639,0:02:48.463 (Música) 0:02:52.400,0:02:56.646 (Vídeo) Moderador: Precisamos manter[br]anonimato porque assinamos um contrato. 0:02:57.784,0:03:01.715 Não somos permitidos a anunciar[br]para quem estamos trabalhando. 0:03:02.807,0:03:04.673 Estou falando com vocês 0:03:04.673,0:03:09.095 porque o mundo precisa saber[br]que estamos aqui. 0:03:10.544,0:03:13.577 Alguém está verificando as mídias sociais. 0:03:14.317,0:03:19.847 Estamos fazendo o melhor para tornar[br]essa plataforma segura para todos. 0:03:30.438,0:03:31.588 Excluir. 0:03:32.278,0:03:33.572 Ignorar. 0:03:33.596,0:03:34.746 Excluir. 0:03:35.279,0:03:36.576 Ignorar. 0:03:36.600,0:03:37.751 Excluir. 0:03:38.680,0:03:39.831 Ignorar. 0:03:39.855,0:03:41.005 Ignorar. 0:03:41.625,0:03:42.775 Excluir. 0:03:46.030,0:03:48.031 HB: Os chamados moderadores de conteúdo 0:03:48.031,0:03:52.031 não recebem seus salários diretamente[br]do Facebook, Twitter ou Google, 0:03:52.055,0:03:54.396 mas de empresas de terceirização[br]ao redor do mundo 0:03:54.396,0:03:56.813 a fim de manter os baixos salários. 0:03:56.833,0:04:02.061 Dezenas de milhares de jovens examinando[br]tudo o que nós não deveríamos ver. 0:04:02.061,0:04:07.928 E estamos falando de decapitações,[br]mutilações, execuções, necrofilia, 0:04:07.928,0:04:09.705 tortura, abuso infantil. 0:04:09.743,0:04:14.726 Milhares de imagens em um turno:[br]ignorar, excluir, dia e noite. 0:04:15.393,0:04:18.791 E muito disso é feito em Manila, 0:04:18.815,0:04:22.691 para onde os resíduos tóxicos analógicos[br]do Ocidente foram transportados 0:04:22.691,0:04:24.749 por navios porta-contêineres durante anos, 0:04:24.773,0:04:28.776 agora os resíduos digitais são jogados lá[br]através de cabos de fibra ótica. 0:04:28.800,0:04:35.371 E assim como os catadores vasculham[br]montes gigantescos de lixo na periferia, 0:04:35.371,0:04:40.204 os moderadores de conteúdo clicam[br]em um oceano tóxico sem fim 0:04:40.228,0:04:44.315 de imagens, vídeos e toda a forma[br]de lixo intelectual, 0:04:44.339,0:04:46.925 para que não precisemos olhar para isso. 0:04:46.925,0:04:50.205 MR: Mas ao contrário dos catadores, 0:04:50.229,0:04:53.947 as feridas dos moderadores de conteúdo[br]permanecem invisíveis. 0:04:54.117,0:04:57.278 Todo esse conteúdo chocante e perturbador 0:04:57.318,0:05:00.508 de fotos e vídeos entram na memória deles 0:05:00.508,0:05:03.953 e, a qualquer momento,[br]podem causar efeitos imprevisíveis: 0:05:03.977,0:05:07.301 distúrbio alimentar, perda de libido, 0:05:07.301,0:05:10.641 transtornos de ansiedade, alcoolismo, 0:05:10.641,0:05:13.823 depressão, que pode até levar ao suicídio. 0:05:14.100,0:05:18.982 Essas fotos e vídeos os contaminam,[br]e muitas vezes nunca mais os deixam. 0:05:18.982,0:05:23.823 Se não tiverem sorte, podem desenvolver[br]transtorno de estresse pós-traumático, 0:05:23.847,0:05:26.647 como soldados após missões de guerra. 0:05:27.445,0:05:31.088 Em nosso filme, contamos[br]a história de um jovem 0:05:31.112,0:05:35.318 que tinha de monitorar transmissões[br]ao vivo de automutilações 0:05:35.318,0:05:37.837 e tentativas de suicídio repetidas vezes, 0:05:37.977,0:05:41.237 e que, por fim, acabou cometendo suicídio. 0:05:41.787,0:05:44.887 Não é um caso isolado, como nos disseram. 0:05:45.184,0:05:49.452 Esse é o preço que todos nós pagamos 0:05:49.452,0:05:56.492 para termos mídias sociais consideradas[br]limpas, seguras e "saudáveis". 0:05:58.482,0:06:01.077 Nunca antes na história da humanidade 0:06:01.101,0:06:05.903 foi tão fácil atingir milhões de pessoas[br]do mundo todo em poucos segundos. 0:06:06.148,0:06:10.093 O que é publicado nas redes sociais[br]se espalha muito rapidamente, 0:06:10.117,0:06:14.273 se torna viral e excita a mente[br]das pessoas em todo o mundo. 0:06:14.450,0:06:18.681 Antes de ter sido excluído,[br]muitas vezes já é tarde demais. 0:06:18.966,0:06:23.046 Milhões de pessoas já foram[br]afetadas pelo ódio e pela raiva 0:06:23.101,0:06:28.751 ou se tornam ativas na rede[br]espalhando ou ampliando o ódio 0:06:29.022,0:06:33.085 ou elas tomam as ruas à mão armada. 0:06:33.236,0:06:35.940 HB: Por isso, há um exército[br]de moderadores de conteúdo 0:06:35.940,0:06:40.195 sentado em frente à tela[br]para evitar novos danos colaterais. 0:06:40.434,0:06:42.573 E eles decidem o mais rápido possível, 0:06:42.577,0:06:46.683 se o conteúdo permanece[br]na plataforma, ignorando-o, 0:06:46.683,0:06:49.363 ou se ele deve desaparecer, excluindo-o. 0:06:49.958,0:06:55.395 Mas nem toda decisão é tão clara como[br]aquela sobre um vídeo de abuso infantil. 0:06:55.395,0:06:58.172 O que dizer sobre conteúdos[br]controversos ou ambivalentes 0:06:58.196,0:07:02.048 enviados por ativistas de direitos humanos[br]ou pelo jornalismo cidadão? 0:07:02.048,0:07:05.270 Os moderadores de conteúdo[br]muitas vezes decidem sobre esses casos 0:07:05.294,0:07:08.574 na mesma velocidade[br]que os casos mais claros. 0:07:09.515,0:07:15.241 MR: Vamos mostrar um vídeo agora[br]e pedimos que decidam: 0:07:15.531,0:07:18.646 vocês o excluiriam ou não? 0:07:19.070,0:07:21.077 (Vídeo) (Som de ataque aéreo) 0:07:21.100,0:07:23.650 (Som de explosão) 0:07:28.076,0:07:31.359 (Pessoas falando em árabe) 0:07:34.053,0:07:37.143 MR: Desfocamos algumas[br]imagens para mostrar a vocês. 0:07:37.196,0:07:40.951 Possivelmente, uma criança[br]ficaria muito perturbada 0:07:40.975,0:07:43.784 e extremamente assustada com tal conteúdo. 0:07:43.808,0:07:46.403 Então, vocês prefeririam excluí-lo? 0:07:47.610,0:07:52.439 Mas e se esse vídeo pudesse ajudar[br]a investigar crimes de guerra na Síria? 0:07:52.717,0:07:55.884 E se ninguém ouvisse falar[br]sobre esse ataque aéreo, 0:07:55.908,0:08:00.226 porque o Facebook, Youtube,[br]Twitter decidiram removê-lo? 0:08:00.895,0:08:05.220 A Airwars, uma ONG sediada em Londres, 0:08:05.244,0:08:10.749 tenta encontrar esses vídeos assim[br]que são carregados nas mídias sociais, 0:08:10.749,0:08:12.618 para arquivá-los. 0:08:12.693,0:08:15.526 Porque eles sabem que, cedo ou tarde, 0:08:15.550,0:08:19.290 o Facebook, Youtube, Twitter[br]removeriam esses conteúdos. 0:08:19.345,0:08:22.932 Pessoas armadas com seus celulares[br]podem tornar visível 0:08:22.932,0:08:25.776 aquilo que jornalistas[br]muitas vezes não têm acesso. 0:08:25.800,0:08:29.157 Grupos de direitos humanos[br]geralmente não têm uma opção melhor 0:08:29.157,0:08:32.688 para tornar seus registros rapidamente[br]acessíveis a um grande público 0:08:32.712,0:08:35.792 do que publicá-los nas redes sociais. 0:08:35.950,0:08:40.640 Não era esse o potencial empoderador[br]que a "World Wide Web" deveria ter? 0:08:40.966,0:08:47.021 Não era esse o sonho que as pessoas[br]inicialmente tinham quanto à internet? 0:08:47.608,0:08:52.212 Será que imagens e vídeos como esses[br]não podem convencer as pessoas 0:08:52.212,0:08:57.221 que se tornaram insensíveis[br]aos fatos a repensar? 0:08:57.917,0:09:01.519 HB: Mas, em vez disso, tudo[br]que pode ser perturbador é excluído. 0:09:01.543,0:09:03.601 E há a mudança geral na sociedade. 0:09:03.625,0:09:09.302 Por exemplo, a mídia usa cada vez mais[br]alertas de gatilho no início dos artigos 0:09:09.363,0:09:12.672 que algumas pessoas podem achar[br]ofensivo ou problemático. 0:09:12.696,0:09:18.156 Cada vez mais estudantes nas universidades[br]dos EUA demandam o banimento do currículo 0:09:18.156,0:09:22.891 de clássicos antigos que mostram[br]violência ou assédio sexual. 0:09:22.991,0:09:25.824 Mas até onde devemos ir com isso? 0:09:25.875,0:09:31.279 A integridade física é um direito humano[br]garantido por constituições no mundo todo. 0:09:31.422,0:09:35.176 Na Carta dos Direitos[br]Fundamentais da União Europeia, 0:09:35.200,0:09:39.302 esse direito expressamente[br]se aplica à integridade mental. 0:09:39.347,0:09:44.805 Mas ainda que seja difícil prever o efeito[br]potencialmente traumático das imagens, 0:09:44.879,0:09:46.836 queremos mesmo nos tornar tão cautelosos 0:09:46.860,0:09:50.652 que arriscamos perder[br]o senso de injustiça social? 0:09:51.203,0:09:52.763 Então o que fazer? 0:09:52.942,0:09:56.094 Mark Zuckerberg declarou[br]recentemente que, no futuro, 0:09:56.094,0:09:59.806 nós, usuários deles, ou quase todo mundo 0:09:59.806,0:10:03.901 decidiremos individualmente[br]o que queremos ver na plataforma, 0:10:03.901,0:10:06.172 através de filtros personalizados. 0:10:06.196,0:10:09.268 Então, todos poderão facilmente[br]optar por não serem perturbados 0:10:09.292,0:10:13.031 por imagens de guerra[br]ou outros conflitos violentos, como... 0:10:13.399,0:10:18.295 MR: Eu sou o tipo de cara[br]que não se importa em ver seios 0:10:18.319,0:10:22.085 e tenho muito interesse[br]em aquecimento global, 0:10:22.109,0:10:25.063 mas eu não gosto tanto de guerra. 0:10:25.109,0:10:30.901 HB: Sou o oposto, tenho zero interesse[br]em seios ou sequer corpos nus. 0:10:31.209,0:10:34.250 Mas por que não armas?[br]Eu gosto de armas, sim. 0:10:34.901,0:10:38.646 MR: Fala sério, se não compartilhamos[br]uma consciência social similar, 0:10:38.670,0:10:41.339 como vamos discutir problemas sociais? 0:10:41.363,0:10:43.760 Como vamos chamar as pessoas para agir? 0:10:43.784,0:10:47.665 Surgiriam ainda mais bolhas isoladas. 0:10:47.665,0:10:52.518 Uma das perguntas centrais é:[br]"Como, no futuro, a liberdade de expressão 0:10:52.518,0:10:56.331 será pesada contra a necessidade[br]de proteção das pessoas?" 0:10:56.441,0:10:58.920 É uma questão de princípios. 0:10:58.602,0:11:04.740 Queremos criar uma sociedade aberta[br]ou fechada para o espaço digital? 0:11:05.054,0:11:11.204 O cerne da questão é[br]"liberdade versus segurança". 0:11:12.388,0:11:16.872 O Facebook sempre quis ser[br]uma plataforma "saudável". 0:11:16.896,0:11:20.594 Acima de tudo, os usuários devem[br]se sentir seguros e protegidos. 0:11:20.618,0:11:22.694 São as mesmas palavras 0:11:22.694,0:11:28.188 que moderadores de conteúdo nas Filipinas[br]usaram em muitas de nossas entrevistas. 0:11:28.188,0:11:32.719 (Vídeo) Homem: Acho que o mundo[br]em que vivemos não é tão saudável. 0:11:32.783,0:11:34.331 (Música) 0:11:34.355,0:11:37.513 Nesse mundo, existe realmente um mal. 0:11:37.537,0:11:39.215 (Música) 0:11:40.799,0:11:43.380 Precisamos prestar atenção nisso. 0:11:44.768,0:11:48.142 Precisamos controlar isso, bom ou mau. 0:11:48.646,0:11:50.196 (Música) 0:11:58.193,0:12:02.296 ["Olhe para cima, jovem!", Deus] 0:12:02.952,0:12:07.230 MR: Para jovens moderadores nas Filipinas,[br]um país estritamente católico, 0:12:07.254,0:12:10.619 isso está ligado a uma missão cristã: 0:12:10.833,0:12:16.279 combater os pecados do mundo[br]que se espalham pela internet. 0:12:16.641,0:12:23.493 "A pureza está ao lado da divindade"[br]é um ditado popular nas Filipinas. 0:12:24.035,0:12:29.454 HB: E outros se motivam comparando-se[br]com seu presidente Rodrigo Duterte. 0:12:29.837,0:12:35.709 Ele governa as Filipinas desde 2016,[br]e ganhou as eleições com a promessa: 0:12:36.119,0:12:37.825 "Farei a limpeza". 0:12:37.892,0:12:43.487 Isso significa eliminar os problemas[br]literalmente matando as pessoas nas ruas, 0:12:43.487,0:12:46.601 que supostamente são criminosos,[br]seja lá o que signifique isso. 0:12:46.601,0:12:51.441 Desde que foi eleito, uma estimativa[br]de 20 mil pessoas foram mortas. 0:12:51.545,0:12:54.176 Em nosso filme, um dos moderadores diz: 0:12:54.180,0:12:58.204 "O que Duterte faz nas ruas,[br]eu faço para a Internet". 0:12:58.934,0:13:02.498 E aqui estão eles, nossos[br]autoproclamados super-heróis, 0:13:02.532,0:13:05.508 que impõem lei e ordem[br]em nosso mundo digital. 0:13:05.522,0:13:10.253 Eles deixam tudo limpo[br]e nos libertam de todo o mal. 0:13:10.284,0:13:14.013 Tarefas que antes eram reservadas[br]às autoridades do Estado, 0:13:14.037,0:13:17.712 foram assumidas por recém-graduados[br]com 20 e poucos anos, 0:13:17.736,0:13:22.089 qualificados com 3 a 5 dias[br]de treinamento, 0:13:22.583,0:13:26.329 e que trabalham com nada menos[br]que o resgate do mundo. 0:13:26.756,0:13:30.975 MR: As soberanias nacionais foram[br]terceirizadas a companhias privadas, 0:13:30.999,0:13:35.007 que repassam a terceiros[br]suas responsabilidades. 0:13:35.031,0:13:39.404 Ocorre uma terceirização da terceirização. 0:13:39.618,0:13:44.013 Com as redes sociais, estamos lidando[br]com uma infraestrutura completamente nova, 0:13:44.013,0:13:47.419 com mecanismos próprios,[br]lógica de ação própria 0:13:47.419,0:13:52.154 e, portanto, novos perigos também, 0:13:52.484,0:13:56.224 que não existiam[br]na esfera pública pré-digital. 0:13:56.224,0:13:59.150 HB: Quando Mark Zuckerberg[br]esteve no Congresso norte-americano 0:13:59.150,0:14:00.541 ou no Parlamento Europeu, 0:14:00.565,0:14:03.200 foi confrontado com todo tipo de crítica. 0:14:03.224,0:14:06.074 E a reação dele foi sempre a mesma: 0:14:06.501,0:14:10.809 "Nós vamos consertar isso[br]e vou acompanhar com a minha equipe". 0:14:11.167,0:14:14.945 Mas tal debate não deveria ocorrer[br]nos bastidores do Facebook, 0:14:14.969,0:14:16.254 Twitter ou Google. 0:14:16.278,0:14:21.094 Ele deveria ser discutido publicamente[br]em novos parlamentos cosmopolitas, 0:14:21.118,0:14:25.978 em novas instituições que refletem[br]a diversidade de pessoas, 0:14:26.002,0:14:30.544 contribuindo para um projeto[br]utópico de uma rede global. 0:14:30.568,0:14:36.590 Mesmo que pareça impossível considerar[br]os valores dos usuários do mundo todo, 0:14:36.135,0:14:41.507 vale a pena acreditar que há mais[br]daquilo que nos conecta do que nos separa. 0:14:41.624,0:14:45.331 MR: Sim, num momento[br]em que o populismo ganha força, 0:14:45.355,0:14:51.813 torna-se "popular" justificar os sintomas,[br]erradicá-los, e torná-los invisíveis. 0:14:52.919,0:14:59.428 Essa ideologia está se espalhando[br]em todo o mundo, analógico e digital, 0:14:59.903,0:15:05.045 e é nosso dever impedir isso[br]antes que seja tarde demais. 0:15:05.665,0:15:12.749 A questão da liberdade e democracia[br]não pode ter só estas duas opções. 0:15:13.053,0:15:14.219 HB: Excluir... 0:15:14.243,0:15:16.390 MR: Ou ignorar. 0:15:17.300,0:15:18.897 HB: Muito obrigado. 0:15:18.921,0:15:20.523 (Aplausos)