WEBVTT 00:00:00.360 --> 00:00:03.581 [Esta palestra apresenta conteúdo adulto] NOTE Paragraph 00:00:04.913 --> 00:00:08.785 Moritz Riesewieck: Em 23 de março de 2013, 00:00:09.389 --> 00:00:13.446 usuários do mundo todo viram em seu "feed" de notícias, 00:00:13.470 --> 00:00:18.637 um vídeo de uma garota jovem sendo estuprada por um homem mais velho. 00:00:19.478 --> 00:00:23.004 Antes de o vídeo ser removido do Facebook, 00:00:23.309 --> 00:00:27.029 ele foi compartilhado 16 mil vezes 00:00:28.034 --> 00:00:31.504 e ainda recebeu 4 mil curtidas. 00:00:33.268 --> 00:00:37.212 Esse vídeo "viralizou" e infectou a rede. NOTE Paragraph 00:00:37.873 --> 00:00:40.968 Hans Block: E esse foi o momento em que nos perguntamos: 00:00:40.992 --> 00:00:43.770 como algo assim pôde aparecer no Facebook? 00:00:43.794 --> 00:00:48.196 E, ao mesmo tempo, por que não vemos esse tipo de conteúdo com mais frequência? 00:00:48.220 --> 00:00:51.903 Afinal, há muito material repugnante na internet, 00:00:51.927 --> 00:00:56.958 mas por que raramente vemos tais porcarias no Facebook, Twitter ou Google? NOTE Paragraph 00:00:56.958 --> 00:00:59.492 MR: Embora o software de reconhecimento de imagem 00:00:59.492 --> 00:01:03.002 possa identificar traços de órgãos sexuais, 00:01:03.362 --> 00:01:08.482 sangue ou pele nua exposta em imagens e vídeos, 00:01:08.482 --> 00:01:14.022 ele tem uma dificuldade enorme em distinguir conteúdo pornográfico 00:01:14.046 --> 00:01:18.394 de fotos de viagem, estátuas de Adonis 00:01:18.418 --> 00:01:21.116 ou campanhas de prevenção do câncer de mama. 00:01:21.140 --> 00:01:25.395 Ele não consegue distinguir Romeu e Julieta morrendo no palco 00:01:25.419 --> 00:01:27.974 de um verdadeiro ataque com faca. 00:01:27.998 --> 00:01:32.750 Não consegue distinguir sátira de propaganda 00:01:33.244 --> 00:01:37.372 ou ironia de ódio, e por aí vai. 00:01:38.077 --> 00:01:42.155 Portanto, cabe aos seres humanos decidir 00:01:42.179 --> 00:01:47.810 qual dos conteúdos suspeitos deve ser excluído e qual deve ser mantido. NOTE Paragraph 00:01:48.909 --> 00:01:53.764 Sabemos muito pouco sobre essas pessoas, porque elas trabalham em sigilo. 00:01:54.053 --> 00:01:56.300 Elas assinam acordos de confidencialidade, 00:01:56.300 --> 00:02:00.584 que as proíbem de falar e compartilhar o que veem na tela delas 00:02:00.584 --> 00:02:03.007 e o que este trabalho as faz sentir. 00:02:03.007 --> 00:02:07.487 São forçadas a usar palavras de código para esconder para quem trabalham. 00:02:07.585 --> 00:02:10.490 São monitoradas por firmas de segurança privada 00:02:10.514 --> 00:02:14.024 para garantir que elas não falarão com jornalistas. 00:02:14.048 --> 00:02:17.587 E são ameaçadas por multas, caso falem. 00:02:18.421 --> 00:02:22.101 Parece ser uma história estranha de crime, 00:02:22.101 --> 00:02:23.561 mas é verdadeira. 00:02:23.561 --> 00:02:29.413 Essas pessoas existem e são chamadas de moderadores de conteúdo. NOTE Paragraph 00:02:30.942 --> 00:02:34.387 HB: Nós somos os diretores do documentário "The Cleaners" 00:02:34.411 --> 00:02:38.971 e gostaríamos de levá-los a um mundo que muitos de vocês ainda desconhecem. 00:02:39.006 --> 00:02:41.510 Eis um pequeno clipe do nosso filme. NOTE Paragraph 00:02:46.639 --> 00:02:48.463 (Música) NOTE Paragraph 00:02:52.400 --> 00:02:56.646 (Vídeo) Moderador: Precisamos manter anonimato porque assinamos um contrato. 00:02:57.784 --> 00:03:01.715 Não somos permitidos a anunciar para quem estamos trabalhando. 00:03:02.807 --> 00:03:04.673 Estou falando com vocês 00:03:04.673 --> 00:03:09.095 porque o mundo precisa saber que estamos aqui. 00:03:10.544 --> 00:03:13.577 Alguém está verificando as mídias sociais. 00:03:14.317 --> 00:03:19.847 Estamos fazendo o melhor para tornar essa plataforma segura para todos. 00:03:30.438 --> 00:03:31.588 Excluir. 00:03:32.278 --> 00:03:33.572 Ignorar. 00:03:33.596 --> 00:03:34.746 Excluir. 00:03:35.279 --> 00:03:36.576 Ignorar. 00:03:36.600 --> 00:03:37.751 Excluir. 00:03:38.680 --> 00:03:39.831 Ignorar. 00:03:39.855 --> 00:03:41.005 Ignorar. 00:03:41.625 --> 00:03:42.775 Excluir. NOTE Paragraph 00:03:46.030 --> 00:03:48.031 HB: Os chamados moderadores de conteúdo 00:03:48.031 --> 00:03:52.031 não recebem seus salários diretamente do Facebook, Twitter ou Google, 00:03:52.055 --> 00:03:54.396 mas de empresas de terceirização ao redor do mundo 00:03:54.396 --> 00:03:56.813 a fim de manter os baixos salários. 00:03:56.833 --> 00:04:02.061 Dezenas de milhares de jovens examinando tudo o que nós não deveríamos ver. 00:04:02.061 --> 00:04:07.928 E estamos falando de decapitações, mutilações, execuções, necrofilia, 00:04:07.928 --> 00:04:09.705 tortura, abuso infantil. 00:04:09.743 --> 00:04:14.726 Milhares de imagens em um turno: ignorar, excluir, dia e noite. 00:04:15.393 --> 00:04:18.791 E muito disso é feito em Manila, 00:04:18.815 --> 00:04:22.691 para onde os resíduos tóxicos analógicos do Ocidente foram transportados 00:04:22.691 --> 00:04:24.749 por navios porta-contêineres durante anos, 00:04:24.773 --> 00:04:28.776 agora os resíduos digitais são jogados lá através de cabos de fibra ótica. 00:04:28.800 --> 00:04:35.371 E assim como os catadores vasculham montes gigantescos de lixo na periferia, 00:04:35.371 --> 00:04:40.204 os moderadores de conteúdo clicam em um oceano tóxico sem fim 00:04:40.228 --> 00:04:44.315 de imagens, vídeos e toda a forma de lixo intelectual, 00:04:44.339 --> 00:04:46.925 para que não precisemos olhar para isso. NOTE Paragraph 00:04:46.925 --> 00:04:50.205 MR: Mas ao contrário dos catadores, 00:04:50.229 --> 00:04:53.947 as feridas dos moderadores de conteúdo permanecem invisíveis. 00:04:54.117 --> 00:04:57.278 Todo esse conteúdo chocante e perturbador 00:04:57.318 --> 00:05:00.508 de fotos e vídeos entram na memória deles 00:05:00.508 --> 00:05:03.953 e, a qualquer momento, podem causar efeitos imprevisíveis: 00:05:03.977 --> 00:05:07.301 distúrbio alimentar, perda de libido, 00:05:07.301 --> 00:05:10.641 transtornos de ansiedade, alcoolismo, 00:05:10.641 --> 00:05:13.823 depressão, que pode até levar ao suicídio. 00:05:14.100 --> 00:05:18.982 Essas fotos e vídeos os contaminam, e muitas vezes nunca mais os deixam. 00:05:18.982 --> 00:05:23.823 Se não tiverem sorte, podem desenvolver transtorno de estresse pós-traumático, 00:05:23.847 --> 00:05:26.647 como soldados após missões de guerra. NOTE Paragraph 00:05:27.445 --> 00:05:31.088 Em nosso filme, contamos a história de um jovem 00:05:31.112 --> 00:05:35.318 que tinha de monitorar transmissões ao vivo de automutilações 00:05:35.318 --> 00:05:37.837 e tentativas de suicídio repetidas vezes, 00:05:37.977 --> 00:05:41.237 e que, por fim, acabou cometendo suicídio. 00:05:41.787 --> 00:05:44.887 Não é um caso isolado, como nos disseram. 00:05:45.184 --> 00:05:49.452 Esse é o preço que todos nós pagamos 00:05:49.452 --> 00:05:56.492 para termos mídias sociais consideradas limpas, seguras e "saudáveis". 00:05:58.482 --> 00:06:01.077 Nunca antes na história da humanidade 00:06:01.101 --> 00:06:05.903 foi tão fácil atingir milhões de pessoas do mundo todo em poucos segundos. 00:06:06.148 --> 00:06:10.093 O que é publicado nas redes sociais se espalha muito rapidamente, 00:06:10.117 --> 00:06:14.273 se torna viral e excita a mente das pessoas em todo o mundo. 00:06:14.450 --> 00:06:18.681 Antes de ter sido excluído, muitas vezes já é tarde demais. 00:06:18.966 --> 00:06:23.046 Milhões de pessoas já foram afetadas pelo ódio e pela raiva 00:06:23.101 --> 00:06:28.751 ou se tornam ativas na rede espalhando ou ampliando o ódio 00:06:29.022 --> 00:06:33.085 ou elas tomam as ruas à mão armada. NOTE Paragraph 00:06:33.236 --> 00:06:35.940 HB: Por isso, há um exército de moderadores de conteúdo 00:06:35.940 --> 00:06:40.195 sentado em frente à tela para evitar novos danos colaterais. 00:06:40.434 --> 00:06:42.573 E eles decidem o mais rápido possível, 00:06:42.577 --> 00:06:46.683 se o conteúdo permanece na plataforma, ignorando-o, 00:06:46.683 --> 00:06:49.363 ou se ele deve desaparecer, excluindo-o. 00:06:49.958 --> 00:06:55.395 Mas nem toda decisão é tão clara como aquela sobre um vídeo de abuso infantil. 00:06:55.395 --> 00:06:58.172 O que dizer sobre conteúdos controversos ou ambivalentes 00:06:58.196 --> 00:07:02.048 enviados por ativistas de direitos humanos ou pelo jornalismo cidadão? 00:07:02.048 --> 00:07:05.270 Os moderadores de conteúdo muitas vezes decidem sobre esses casos 00:07:05.294 --> 00:07:08.574 na mesma velocidade que os casos mais claros. NOTE Paragraph 00:07:09.515 --> 00:07:15.241 MR: Vamos mostrar um vídeo agora e pedimos que decidam: 00:07:15.531 --> 00:07:18.646 vocês o excluiriam ou não? NOTE Paragraph 00:07:19.070 --> 00:07:21.077 (Vídeo) (Som de ataque aéreo) NOTE Paragraph 00:07:21.100 --> 00:07:23.650 (Som de explosão) NOTE Paragraph 00:07:28.076 --> 00:07:31.359 (Pessoas falando em árabe) NOTE Paragraph 00:07:34.053 --> 00:07:37.143 MR: Desfocamos algumas imagens para mostrar a vocês. 00:07:37.196 --> 00:07:40.951 Possivelmente, uma criança ficaria muito perturbada 00:07:40.975 --> 00:07:43.784 e extremamente assustada com tal conteúdo. 00:07:43.808 --> 00:07:46.403 Então, vocês prefeririam excluí-lo? 00:07:47.610 --> 00:07:52.439 Mas e se esse vídeo pudesse ajudar a investigar crimes de guerra na Síria? 00:07:52.717 --> 00:07:55.884 E se ninguém ouvisse falar sobre esse ataque aéreo, 00:07:55.908 --> 00:08:00.226 porque o Facebook, Youtube, Twitter decidiram removê-lo? 00:08:00.895 --> 00:08:05.220 A Airwars, uma ONG sediada em Londres, 00:08:05.244 --> 00:08:10.749 tenta encontrar esses vídeos assim que são carregados nas mídias sociais, 00:08:10.749 --> 00:08:12.618 para arquivá-los. 00:08:12.693 --> 00:08:15.526 Porque eles sabem que, cedo ou tarde, 00:08:15.550 --> 00:08:19.290 o Facebook, Youtube, Twitter removeriam esses conteúdos. 00:08:19.345 --> 00:08:22.932 Pessoas armadas com seus celulares podem tornar visível 00:08:22.932 --> 00:08:25.776 aquilo que jornalistas muitas vezes não têm acesso. 00:08:25.800 --> 00:08:29.157 Grupos de direitos humanos geralmente não têm uma opção melhor 00:08:29.157 --> 00:08:32.688 para tornar seus registros rapidamente acessíveis a um grande público 00:08:32.712 --> 00:08:35.792 do que publicá-los nas redes sociais. 00:08:35.950 --> 00:08:40.640 Não era esse o potencial empoderador que a "World Wide Web" deveria ter? 00:08:40.966 --> 00:08:47.021 Não era esse o sonho que as pessoas inicialmente tinham quanto à internet? 00:08:47.608 --> 00:08:52.212 Será que imagens e vídeos como esses não podem convencer as pessoas 00:08:52.212 --> 00:08:57.221 que se tornaram insensíveis aos fatos a repensar? NOTE Paragraph 00:08:57.917 --> 00:09:01.519 HB: Mas, em vez disso, tudo que pode ser perturbador é excluído. 00:09:01.543 --> 00:09:03.601 E há a mudança geral na sociedade. 00:09:03.625 --> 00:09:09.302 Por exemplo, a mídia usa cada vez mais alertas de gatilho no início dos artigos 00:09:09.363 --> 00:09:12.672 que algumas pessoas podem achar ofensivo ou problemático. 00:09:12.696 --> 00:09:18.156 Cada vez mais estudantes nas universidades dos EUA demandam o banimento do currículo 00:09:18.156 --> 00:09:22.891 de clássicos antigos que mostram violência ou assédio sexual. 00:09:22.991 --> 00:09:25.824 Mas até onde devemos ir com isso? 00:09:25.875 --> 00:09:31.279 A integridade física é um direito humano garantido por constituições no mundo todo. 00:09:31.422 --> 00:09:35.176 Na Carta dos Direitos Fundamentais da União Europeia, 00:09:35.200 --> 00:09:39.302 esse direito expressamente se aplica à integridade mental. 00:09:39.347 --> 00:09:44.805 Mas ainda que seja difícil prever o efeito potencialmente traumático das imagens, 00:09:44.879 --> 00:09:46.836 queremos mesmo nos tornar tão cautelosos 00:09:46.860 --> 00:09:50.652 que arriscamos perder o senso de injustiça social? 00:09:51.203 --> 00:09:52.763 Então o que fazer? 00:09:52.942 --> 00:09:56.094 Mark Zuckerberg declarou recentemente que, no futuro, 00:09:56.094 --> 00:09:59.806 nós, usuários deles, ou quase todo mundo 00:09:59.806 --> 00:10:03.901 decidiremos individualmente o que queremos ver na plataforma, 00:10:03.901 --> 00:10:06.172 através de filtros personalizados. 00:10:06.196 --> 00:10:09.268 Então, todos poderão facilmente optar por não serem perturbados 00:10:09.292 --> 00:10:13.031 por imagens de guerra ou outros conflitos violentos, como... NOTE Paragraph 00:10:13.399 --> 00:10:18.295 MR: Eu sou o tipo de cara que não se importa em ver seios 00:10:18.319 --> 00:10:22.085 e tenho muito interesse em aquecimento global, 00:10:22.109 --> 00:10:25.063 mas eu não gosto tanto de guerra. NOTE Paragraph 00:10:25.109 --> 00:10:30.901 HB: Sou o oposto, tenho zero interesse em seios ou sequer corpos nus. 00:10:31.209 --> 00:10:34.250 Mas por que não armas? Eu gosto de armas, sim. NOTE Paragraph 00:10:34.901 --> 00:10:38.646 MR: Fala sério, se não compartilhamos uma consciência social similar, 00:10:38.670 --> 00:10:41.339 como vamos discutir problemas sociais? 00:10:41.363 --> 00:10:43.760 Como vamos chamar as pessoas para agir? 00:10:43.784 --> 00:10:47.665 Surgiriam ainda mais bolhas isoladas. 00:10:47.665 --> 00:10:52.518 Uma das perguntas centrais é: "Como, no futuro, a liberdade de expressão 00:10:52.518 --> 00:10:56.331 será pesada contra a necessidade de proteção das pessoas?" 00:10:56.441 --> 00:10:58.920 É uma questão de princípios. 00:10:58.602 --> 00:11:04.740 Queremos criar uma sociedade aberta ou fechada para o espaço digital? 00:11:05.054 --> 00:11:11.204 O cerne da questão é "liberdade versus segurança". 00:11:12.388 --> 00:11:16.872 O Facebook sempre quis ser uma plataforma "saudável". 00:11:16.896 --> 00:11:20.594 Acima de tudo, os usuários devem se sentir seguros e protegidos. 00:11:20.618 --> 00:11:22.694 São as mesmas palavras 00:11:22.694 --> 00:11:28.188 que moderadores de conteúdo nas Filipinas usaram em muitas de nossas entrevistas. NOTE Paragraph 00:11:28.188 --> 00:11:32.719 (Vídeo) Homem: Acho que o mundo em que vivemos não é tão saudável. NOTE Paragraph 00:11:32.783 --> 00:11:34.331 (Música) NOTE Paragraph 00:11:34.355 --> 00:11:37.513 Nesse mundo, existe realmente um mal. NOTE Paragraph 00:11:37.537 --> 00:11:39.215 (Música) NOTE Paragraph 00:11:40.799 --> 00:11:43.380 Precisamos prestar atenção nisso. NOTE Paragraph 00:11:44.768 --> 00:11:48.142 Precisamos controlar isso, bom ou mau. NOTE Paragraph 00:11:48.646 --> 00:11:50.196 (Música) NOTE Paragraph 00:11:58.193 --> 00:12:02.296 ["Olhe para cima, jovem!", Deus] NOTE Paragraph 00:12:02.952 --> 00:12:07.230 MR: Para jovens moderadores nas Filipinas, um país estritamente católico, 00:12:07.254 --> 00:12:10.619 isso está ligado a uma missão cristã: 00:12:10.833 --> 00:12:16.279 combater os pecados do mundo que se espalham pela internet. 00:12:16.641 --> 00:12:23.493 "A pureza está ao lado da divindade" é um ditado popular nas Filipinas. NOTE Paragraph 00:12:24.035 --> 00:12:29.454 HB: E outros se motivam comparando-se com seu presidente Rodrigo Duterte. 00:12:29.837 --> 00:12:35.709 Ele governa as Filipinas desde 2016, e ganhou as eleições com a promessa: 00:12:36.119 --> 00:12:37.825 "Farei a limpeza". 00:12:37.892 --> 00:12:43.487 Isso significa eliminar os problemas literalmente matando as pessoas nas ruas, 00:12:43.487 --> 00:12:46.601 que supostamente são criminosos, seja lá o que signifique isso. 00:12:46.601 --> 00:12:51.441 Desde que foi eleito, uma estimativa de 20 mil pessoas foram mortas. 00:12:51.545 --> 00:12:54.176 Em nosso filme, um dos moderadores diz: 00:12:54.180 --> 00:12:58.204 "O que Duterte faz nas ruas, eu faço para a Internet". 00:12:58.934 --> 00:13:02.498 E aqui estão eles, nossos autoproclamados super-heróis, 00:13:02.532 --> 00:13:05.508 que impõem lei e ordem em nosso mundo digital. 00:13:05.522 --> 00:13:10.253 Eles deixam tudo limpo e nos libertam de todo o mal. 00:13:10.284 --> 00:13:14.013 Tarefas que antes eram reservadas às autoridades do Estado, 00:13:14.037 --> 00:13:17.712 foram assumidas por recém-graduados com 20 e poucos anos, 00:13:17.736 --> 00:13:22.089 qualificados com 3 a 5 dias de treinamento, 00:13:22.583 --> 00:13:26.329 e que trabalham com nada menos que o resgate do mundo. NOTE Paragraph 00:13:26.756 --> 00:13:30.975 MR: As soberanias nacionais foram terceirizadas a companhias privadas, 00:13:30.999 --> 00:13:35.007 que repassam a terceiros suas responsabilidades. 00:13:35.031 --> 00:13:39.404 Ocorre uma terceirização da terceirização. 00:13:39.618 --> 00:13:44.013 Com as redes sociais, estamos lidando com uma infraestrutura completamente nova, 00:13:44.013 --> 00:13:47.419 com mecanismos próprios, lógica de ação própria 00:13:47.419 --> 00:13:52.154 e, portanto, novos perigos também, 00:13:52.484 --> 00:13:56.224 que não existiam na esfera pública pré-digital. NOTE Paragraph 00:13:56.224 --> 00:13:59.150 HB: Quando Mark Zuckerberg esteve no Congresso norte-americano 00:13:59.150 --> 00:14:00.541 ou no Parlamento Europeu, 00:14:00.565 --> 00:14:03.200 foi confrontado com todo tipo de crítica. 00:14:03.224 --> 00:14:06.074 E a reação dele foi sempre a mesma: 00:14:06.501 --> 00:14:10.809 "Nós vamos consertar isso e vou acompanhar com a minha equipe". 00:14:11.167 --> 00:14:14.945 Mas tal debate não deveria ocorrer nos bastidores do Facebook, 00:14:14.969 --> 00:14:16.254 Twitter ou Google. 00:14:16.278 --> 00:14:21.094 Ele deveria ser discutido publicamente em novos parlamentos cosmopolitas, 00:14:21.118 --> 00:14:25.978 em novas instituições que refletem a diversidade de pessoas, 00:14:26.002 --> 00:14:30.544 contribuindo para um projeto utópico de uma rede global. 00:14:30.568 --> 00:14:36.590 Mesmo que pareça impossível considerar os valores dos usuários do mundo todo, 00:14:36.135 --> 00:14:41.507 vale a pena acreditar que há mais daquilo que nos conecta do que nos separa. NOTE Paragraph 00:14:41.624 --> 00:14:45.331 MR: Sim, num momento em que o populismo ganha força, 00:14:45.355 --> 00:14:51.813 torna-se "popular" justificar os sintomas, erradicá-los, e torná-los invisíveis. 00:14:52.919 --> 00:14:59.428 Essa ideologia está se espalhando em todo o mundo, analógico e digital, 00:14:59.903 --> 00:15:05.045 e é nosso dever impedir isso antes que seja tarde demais. 00:15:05.665 --> 00:15:12.749 A questão da liberdade e democracia não pode ter só estas duas opções. NOTE Paragraph 00:15:13.053 --> 00:15:14.219 HB: Excluir... NOTE Paragraph 00:15:14.243 --> 00:15:16.390 MR: Ou ignorar. NOTE Paragraph 00:15:17.300 --> 00:15:18.897 HB: Muito obrigado. NOTE Paragraph 00:15:18.921 --> 00:15:20.523 (Aplausos)