O preço de uma internet "limpa"
-
0:00 - 0:04[Esta palestra apresenta conteúdo adulto]
-
0:05 - 0:09Moritz Riesewieck: Em 23 de março de 2013,
-
0:09 - 0:13usuários do mundo todo viram
em seu "feed" de notícias, -
0:13 - 0:19um vídeo de uma garota jovem sendo
estuprada por um homem mais velho. -
0:19 - 0:23Antes de o vídeo ser removido do Facebook,
-
0:23 - 0:27ele foi compartilhado 16 mil vezes
-
0:28 - 0:32e ainda recebeu 4 mil curtidas.
-
0:33 - 0:37Esse vídeo "viralizou" e infectou a rede.
-
0:38 - 0:41Hans Block: E esse foi o momento
em que nos perguntamos: -
0:41 - 0:44como algo assim pôde aparecer no Facebook?
-
0:44 - 0:48E, ao mesmo tempo, por que não vemos
esse tipo de conteúdo com mais frequência? -
0:48 - 0:52Afinal, há muito material
repugnante na internet, -
0:52 - 0:57mas por que raramente vemos tais porcarias
no Facebook, Twitter ou Google? -
0:57 - 0:59MR: Embora o software
de reconhecimento de imagem -
0:59 - 1:03possa identificar
traços de órgãos sexuais, -
1:03 - 1:08sangue ou pele nua exposta
em imagens e vídeos, -
1:08 - 1:14ele tem uma dificuldade enorme
em distinguir conteúdo pornográfico -
1:14 - 1:18de fotos de viagem, estátuas de Adonis
-
1:18 - 1:21ou campanhas de prevenção
do câncer de mama. -
1:21 - 1:25Ele não consegue distinguir
Romeu e Julieta morrendo no palco -
1:25 - 1:28de um verdadeiro ataque com faca.
-
1:28 - 1:33Não consegue distinguir
sátira de propaganda -
1:33 - 1:37ou ironia de ódio, e por aí vai.
-
1:38 - 1:42Portanto, cabe aos seres humanos decidir
-
1:42 - 1:48qual dos conteúdos suspeitos deve
ser excluído e qual deve ser mantido. -
1:49 - 1:54Sabemos muito pouco sobre essas pessoas,
porque elas trabalham em sigilo. -
1:54 - 1:56Elas assinam acordos de confidencialidade,
-
1:56 - 2:01que as proíbem de falar e compartilhar
o que veem na tela delas -
2:01 - 2:03e o que este trabalho as faz sentir.
-
2:03 - 2:07São forçadas a usar palavras de código
para esconder para quem trabalham. -
2:08 - 2:10São monitoradas por firmas
de segurança privada -
2:11 - 2:14para garantir que elas
não falarão com jornalistas. -
2:14 - 2:18E são ameaçadas por multas, caso falem.
-
2:18 - 2:22Parece ser uma história estranha de crime,
-
2:22 - 2:24mas é verdadeira.
-
2:24 - 2:29Essas pessoas existem e são chamadas
de moderadores de conteúdo. -
2:31 - 2:34HB: Nós somos os diretores
do documentário "The Cleaners" -
2:34 - 2:39e gostaríamos de levá-los a um mundo
que muitos de vocês ainda desconhecem. -
2:39 - 2:42Eis um pequeno clipe do nosso filme.
-
2:47 - 2:48(Música)
-
2:52 - 2:57(Vídeo) Moderador: Precisamos manter
anonimato porque assinamos um contrato. -
2:58 - 3:02Não somos permitidos a anunciar
para quem estamos trabalhando. -
3:03 - 3:05Estou falando com vocês
-
3:05 - 3:09porque o mundo precisa saber
que estamos aqui. -
3:11 - 3:14Alguém está verificando as mídias sociais.
-
3:14 - 3:20Estamos fazendo o melhor para tornar
essa plataforma segura para todos. -
3:30 - 3:32Excluir.
-
3:32 - 3:34Ignorar.
-
3:34 - 3:35Excluir.
-
3:35 - 3:37Ignorar.
-
3:37 - 3:38Excluir.
-
3:39 - 3:40Ignorar.
-
3:40 - 3:41Ignorar.
-
3:42 - 3:43Excluir.
-
3:46 - 3:48HB: Os chamados moderadores de conteúdo
-
3:48 - 3:52não recebem seus salários diretamente
do Facebook, Twitter ou Google, -
3:52 - 3:54mas de empresas de terceirização
ao redor do mundo -
3:54 - 3:57a fim de manter os baixos salários.
-
3:57 - 4:02Dezenas de milhares de jovens examinando
tudo o que nós não deveríamos ver. -
4:02 - 4:08E estamos falando de decapitações,
mutilações, execuções, necrofilia, -
4:08 - 4:10tortura, abuso infantil.
-
4:10 - 4:15Milhares de imagens em um turno:
ignorar, excluir, dia e noite. -
4:15 - 4:19E muito disso é feito em Manila,
-
4:19 - 4:23para onde os resíduos tóxicos analógicos
do Ocidente foram transportados -
4:23 - 4:25por navios porta-contêineres durante anos,
-
4:25 - 4:29agora os resíduos digitais são jogados lá
através de cabos de fibra ótica. -
4:29 - 4:35E assim como os catadores vasculham
montes gigantescos de lixo na periferia, -
4:35 - 4:40os moderadores de conteúdo clicam
em um oceano tóxico sem fim -
4:40 - 4:44de imagens, vídeos e toda a forma
de lixo intelectual, -
4:44 - 4:47para que não precisemos olhar para isso.
-
4:47 - 4:50MR: Mas ao contrário dos catadores,
-
4:50 - 4:54as feridas dos moderadores de conteúdo
permanecem invisíveis. -
4:54 - 4:57Todo esse conteúdo chocante e perturbador
-
4:57 - 5:01de fotos e vídeos entram na memória deles
-
5:01 - 5:04e, a qualquer momento,
podem causar efeitos imprevisíveis: -
5:04 - 5:07distúrbio alimentar, perda de libido,
-
5:07 - 5:11transtornos de ansiedade, alcoolismo,
-
5:11 - 5:14depressão, que pode até levar ao suicídio.
-
5:14 - 5:19Essas fotos e vídeos os contaminam,
e muitas vezes nunca mais os deixam. -
5:19 - 5:24Se não tiverem sorte, podem desenvolver
transtorno de estresse pós-traumático, -
5:24 - 5:27como soldados após missões de guerra.
-
5:27 - 5:31Em nosso filme, contamos
a história de um jovem -
5:31 - 5:35que tinha de monitorar transmissões
ao vivo de automutilações -
5:35 - 5:38e tentativas de suicídio repetidas vezes,
-
5:38 - 5:41e que, por fim, acabou cometendo suicídio.
-
5:42 - 5:45Não é um caso isolado, como nos disseram.
-
5:45 - 5:49Esse é o preço que todos nós pagamos
-
5:49 - 5:56para termos mídias sociais consideradas
limpas, seguras e "saudáveis". -
5:58 - 6:01Nunca antes na história da humanidade
-
6:01 - 6:06foi tão fácil atingir milhões de pessoas
do mundo todo em poucos segundos. -
6:06 - 6:10O que é publicado nas redes sociais
se espalha muito rapidamente, -
6:10 - 6:14se torna viral e excita a mente
das pessoas em todo o mundo. -
6:14 - 6:19Antes de ter sido excluído,
muitas vezes já é tarde demais. -
6:19 - 6:23Milhões de pessoas já foram
afetadas pelo ódio e pela raiva -
6:23 - 6:29ou se tornam ativas na rede
espalhando ou ampliando o ódio -
6:29 - 6:33ou elas tomam as ruas à mão armada.
-
6:33 - 6:36HB: Por isso, há um exército
de moderadores de conteúdo -
6:36 - 6:40sentado em frente à tela
para evitar novos danos colaterais. -
6:40 - 6:43E eles decidem o mais rápido possível,
-
6:43 - 6:47se o conteúdo permanece
na plataforma, ignorando-o, -
6:47 - 6:49ou se ele deve desaparecer, excluindo-o.
-
6:50 - 6:55Mas nem toda decisão é tão clara como
aquela sobre um vídeo de abuso infantil. -
6:55 - 6:58O que dizer sobre conteúdos
controversos ou ambivalentes -
6:58 - 7:02enviados por ativistas de direitos humanos
ou pelo jornalismo cidadão? -
7:02 - 7:05Os moderadores de conteúdo
muitas vezes decidem sobre esses casos -
7:05 - 7:09na mesma velocidade
que os casos mais claros. -
7:10 - 7:15MR: Vamos mostrar um vídeo agora
e pedimos que decidam: -
7:16 - 7:19vocês o excluiriam ou não?
-
7:19 - 7:21(Vídeo) (Som de ataque aéreo)
-
7:21 - 7:24(Som de explosão)
-
7:28 - 7:31(Pessoas falando em árabe)
-
7:34 - 7:37MR: Desfocamos algumas
imagens para mostrar a vocês. -
7:37 - 7:41Possivelmente, uma criança
ficaria muito perturbada -
7:41 - 7:44e extremamente assustada com tal conteúdo.
-
7:44 - 7:46Então, vocês prefeririam excluí-lo?
-
7:48 - 7:52Mas e se esse vídeo pudesse ajudar
a investigar crimes de guerra na Síria? -
7:53 - 7:56E se ninguém ouvisse falar
sobre esse ataque aéreo, -
7:56 - 8:00porque o Facebook, Youtube,
Twitter decidiram removê-lo? -
8:01 - 8:05A Airwars, uma ONG sediada em Londres,
-
8:05 - 8:11tenta encontrar esses vídeos assim
que são carregados nas mídias sociais, -
8:11 - 8:13para arquivá-los.
-
8:13 - 8:16Porque eles sabem que, cedo ou tarde,
-
8:16 - 8:19o Facebook, Youtube, Twitter
removeriam esses conteúdos. -
8:19 - 8:23Pessoas armadas com seus celulares
podem tornar visível -
8:23 - 8:26aquilo que jornalistas
muitas vezes não têm acesso. -
8:26 - 8:29Grupos de direitos humanos
geralmente não têm uma opção melhor -
8:29 - 8:33para tornar seus registros rapidamente
acessíveis a um grande público -
8:33 - 8:36do que publicá-los nas redes sociais.
-
8:36 - 8:41Não era esse o potencial empoderador
que a "World Wide Web" deveria ter? -
8:41 - 8:47Não era esse o sonho que as pessoas
inicialmente tinham quanto à internet? -
8:48 - 8:52Será que imagens e vídeos como esses
não podem convencer as pessoas -
8:52 - 8:57que se tornaram insensíveis
aos fatos a repensar? -
8:58 - 9:02HB: Mas, em vez disso, tudo
que pode ser perturbador é excluído. -
9:02 - 9:04E há a mudança geral na sociedade.
-
9:04 - 9:09Por exemplo, a mídia usa cada vez mais
alertas de gatilho no início dos artigos -
9:09 - 9:13que algumas pessoas podem achar
ofensivo ou problemático. -
9:13 - 9:18Cada vez mais estudantes nas universidades
dos EUA demandam o banimento do currículo -
9:18 - 9:23de clássicos antigos que mostram
violência ou assédio sexual. -
9:23 - 9:26Mas até onde devemos ir com isso?
-
9:26 - 9:31A integridade física é um direito humano
garantido por constituições no mundo todo. -
9:31 - 9:35Na Carta dos Direitos
Fundamentais da União Europeia, -
9:35 - 9:39esse direito expressamente
se aplica à integridade mental. -
9:39 - 9:45Mas ainda que seja difícil prever o efeito
potencialmente traumático das imagens, -
9:45 - 9:47queremos mesmo nos tornar tão cautelosos
-
9:47 - 9:51que arriscamos perder
o senso de injustiça social? -
9:51 - 9:53Então o que fazer?
-
9:53 - 9:56Mark Zuckerberg declarou
recentemente que, no futuro, -
9:56 - 10:00nós, usuários deles, ou quase todo mundo
-
10:00 - 10:04decidiremos individualmente
o que queremos ver na plataforma, -
10:04 - 10:06através de filtros personalizados.
-
10:06 - 10:09Então, todos poderão facilmente
optar por não serem perturbados -
10:09 - 10:13por imagens de guerra
ou outros conflitos violentos, como... -
10:13 - 10:18MR: Eu sou o tipo de cara
que não se importa em ver seios -
10:18 - 10:22e tenho muito interesse
em aquecimento global, -
10:22 - 10:25mas eu não gosto tanto de guerra.
-
10:25 - 10:31HB: Sou o oposto, tenho zero interesse
em seios ou sequer corpos nus. -
10:31 - 10:34Mas por que não armas?
Eu gosto de armas, sim. -
10:35 - 10:39MR: Fala sério, se não compartilhamos
uma consciência social similar, -
10:39 - 10:41como vamos discutir problemas sociais?
-
10:41 - 10:44Como vamos chamar as pessoas para agir?
-
10:44 - 10:48Surgiriam ainda mais bolhas isoladas.
-
10:48 - 10:53Uma das perguntas centrais é:
"Como, no futuro, a liberdade de expressão -
10:53 - 10:56será pesada contra a necessidade
de proteção das pessoas?" -
10:56 - 10:59É uma questão de princípios.
-
10:59 - 11:05Queremos criar uma sociedade aberta
ou fechada para o espaço digital? -
11:05 - 11:11O cerne da questão é
"liberdade versus segurança". -
11:12 - 11:17O Facebook sempre quis ser
uma plataforma "saudável". -
11:17 - 11:21Acima de tudo, os usuários devem
se sentir seguros e protegidos. -
11:21 - 11:23São as mesmas palavras
-
11:23 - 11:28que moderadores de conteúdo nas Filipinas
usaram em muitas de nossas entrevistas. -
11:28 - 11:33(Vídeo) Homem: Acho que o mundo
em que vivemos não é tão saudável. -
11:33 - 11:34(Música)
-
11:34 - 11:38Nesse mundo, existe realmente um mal.
-
11:38 - 11:39(Música)
-
11:41 - 11:43Precisamos prestar atenção nisso.
-
11:45 - 11:48Precisamos controlar isso, bom ou mau.
-
11:49 - 11:50(Música)
-
11:58 - 12:02["Olhe para cima, jovem!", Deus]
-
12:03 - 12:07MR: Para jovens moderadores nas Filipinas,
um país estritamente católico, -
12:07 - 12:11isso está ligado a uma missão cristã:
-
12:11 - 12:16combater os pecados do mundo
que se espalham pela internet. -
12:17 - 12:23"A pureza está ao lado da divindade"
é um ditado popular nas Filipinas. -
12:24 - 12:29HB: E outros se motivam comparando-se
com seu presidente Rodrigo Duterte. -
12:30 - 12:36Ele governa as Filipinas desde 2016,
e ganhou as eleições com a promessa: -
12:36 - 12:38"Farei a limpeza".
-
12:38 - 12:43Isso significa eliminar os problemas
literalmente matando as pessoas nas ruas, -
12:43 - 12:47que supostamente são criminosos,
seja lá o que signifique isso. -
12:47 - 12:51Desde que foi eleito, uma estimativa
de 20 mil pessoas foram mortas. -
12:52 - 12:54Em nosso filme, um dos moderadores diz:
-
12:54 - 12:58"O que Duterte faz nas ruas,
eu faço para a Internet". -
12:59 - 13:02E aqui estão eles, nossos
autoproclamados super-heróis, -
13:03 - 13:06que impõem lei e ordem
em nosso mundo digital. -
13:06 - 13:10Eles deixam tudo limpo
e nos libertam de todo o mal. -
13:10 - 13:14Tarefas que antes eram reservadas
às autoridades do Estado, -
13:14 - 13:18foram assumidas por recém-graduados
com 20 e poucos anos, -
13:18 - 13:22qualificados com 3 a 5 dias
de treinamento, -
13:23 - 13:26e que trabalham com nada menos
que o resgate do mundo. -
13:27 - 13:31MR: As soberanias nacionais foram
terceirizadas a companhias privadas, -
13:31 - 13:35que repassam a terceiros
suas responsabilidades. -
13:35 - 13:39Ocorre uma terceirização da terceirização.
-
13:40 - 13:44Com as redes sociais, estamos lidando
com uma infraestrutura completamente nova, -
13:44 - 13:47com mecanismos próprios,
lógica de ação própria -
13:47 - 13:52e, portanto, novos perigos também,
-
13:52 - 13:56que não existiam
na esfera pública pré-digital. -
13:56 - 13:59HB: Quando Mark Zuckerberg
esteve no Congresso norte-americano -
13:59 - 14:01ou no Parlamento Europeu,
-
14:01 - 14:03foi confrontado com todo tipo de crítica.
-
14:03 - 14:06E a reação dele foi sempre a mesma:
-
14:07 - 14:11"Nós vamos consertar isso
e vou acompanhar com a minha equipe". -
14:11 - 14:15Mas tal debate não deveria ocorrer
nos bastidores do Facebook, -
14:15 - 14:16Twitter ou Google.
-
14:16 - 14:21Ele deveria ser discutido publicamente
em novos parlamentos cosmopolitas, -
14:21 - 14:26em novas instituições que refletem
a diversidade de pessoas, -
14:26 - 14:31contribuindo para um projeto
utópico de uma rede global. -
14:31 - 14:37Mesmo que pareça impossível considerar
os valores dos usuários do mundo todo, -
14:36 - 14:42vale a pena acreditar que há mais
daquilo que nos conecta do que nos separa. -
14:42 - 14:45MR: Sim, num momento
em que o populismo ganha força, -
14:45 - 14:52torna-se "popular" justificar os sintomas,
erradicá-los, e torná-los invisíveis. -
14:53 - 14:59Essa ideologia está se espalhando
em todo o mundo, analógico e digital, -
15:00 - 15:05e é nosso dever impedir isso
antes que seja tarde demais. -
15:06 - 15:13A questão da liberdade e democracia
não pode ter só estas duas opções. -
15:13 - 15:14HB: Excluir...
-
15:14 - 15:16MR: Ou ignorar.
-
15:17 - 15:19HB: Muito obrigado.
-
15:19 - 15:21(Aplausos)
- Title:
- O preço de uma internet "limpa"
- Speaker:
- Hans Block e Moritz Riesewieck
- Description:
-
Milhões de imagens e vídeos são carregados na internet todos os dias, porém, raramente vemos conteúdo chocante ou perturbador no nosso "feed" de notícias das mídias sociais. Quem está mantendo a internet "limpa" para nós? Nesta palestra reveladora, os documentaristas Hans Block e Moritz Riesewieck nos levam ao mundo sombrio dos moderadores de conteúdo on-line, pessoas contratadas pelas principais plataformas, como Facebook, Twitter e Google para remover os materiais tóxicos da internet. Saiba mais sobre o impacto psicológico deste tipo de trabalho e como a "limpeza digital" influencia tudo o que vemos e pensamos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:37
Maricene Crus approved Portuguese, Brazilian subtitles for The price of a "clean" internet | ||
Maricene Crus edited Portuguese, Brazilian subtitles for The price of a "clean" internet | ||
Maricene Crus edited Portuguese, Brazilian subtitles for The price of a "clean" internet | ||
Maricene Crus accepted Portuguese, Brazilian subtitles for The price of a "clean" internet | ||
Maricene Crus edited Portuguese, Brazilian subtitles for The price of a "clean" internet | ||
Maricene Crus edited Portuguese, Brazilian subtitles for The price of a "clean" internet | ||
Maricene Crus edited Portuguese, Brazilian subtitles for The price of a "clean" internet | ||
Maricene Crus edited Portuguese, Brazilian subtitles for The price of a "clean" internet |