O preço de uma Internet "limpa"
-
0:00 - 0:04[Esta palestra contém
conteúdo para adultos] -
0:05 - 0:09Moritz Riesewick: Em 23 de março de 2013,
-
0:09 - 0:13utilizadores do mundo inteiro
descobriram no seu "feed" de notícias -
0:13 - 0:19um vídeo de uma menina a ser
violada por um homem mais velho. -
0:19 - 0:23Antes de esse vídeo
ser removido do Facebook, -
0:23 - 0:27já tinha sido partilhado 16 000 vezes
-
0:28 - 0:31e tinha recebido 4000 "likes".
-
0:33 - 0:37O vídeo tornou-se viral
e espalhou-se pela Internet. -
0:38 - 0:41Hans Block: Foi nesse momento
que nos perguntámos: -
0:41 - 0:44Como algo assim
pode aparecer no Facebook? -
0:44 - 0:48Ao mesmo tempo, porque não vemos esse
tipo de conteúdo com maior frequência? -
0:48 - 0:52Afinal, há muitos conteúdos
revoltantes na Internet, -
0:52 - 0:56mas porque é raro vermos essa porcaria
no Facebook, no Twitter ou no Google? -
0:57 - 0:59MR: Embora os "softwares"
de reconhecimento facial -
1:00 - 1:04possam identificar os contornos
de órgãos sexuais, -
1:04 - 1:08de sangue ou de pele nua
em imagens e vídeos, -
1:08 - 1:14eles têm grande dificuldade
em distinguir conteúdo pornográfico -
1:14 - 1:18de fotos de férias, de estátuas de Adónis
-
1:18 - 1:21ou de campanhas de combate
ao cancro da mama. -
1:21 - 1:25Não conseguem distinguir
Romeu e Julieta a morrer no palco -
1:25 - 1:28de um esfaqueamento real.
-
1:28 - 1:33Não conseguem diferenciar
entre sátira e propaganda -
1:33 - 1:37ou entre ironia e ódio,
e assim por diante. -
1:38 - 1:42Assim sendo, as pessoas
precisam de decidir -
1:42 - 1:46qual o conteúdo suspeito
que deve ser apagado, -
1:46 - 1:49e qual o que deve permanecer.
-
1:49 - 1:52Pessoas, a respeito das quais nada sabemos
-
1:52 - 1:54porque trabalham em segredo.
-
1:54 - 1:56Assinam contratos de confidencialidade,
-
1:56 - 1:59que lhes proíbem falar e partilhar
-
1:59 - 2:03o que eles veem nos ecrãs
e o que esse trabalho lhes faz. -
2:03 - 2:07São forçados a usar códigos
para esconder para quem trabalham. -
2:08 - 2:10São monitorados por empresas
privadas de segurança -
2:11 - 2:14para assegurarem
que não falem com jornalistas. -
2:14 - 2:18E são ameaçados com multas, caso falem.
-
2:18 - 2:22Isso parece uma esquisita
história criminal, -
2:22 - 2:24mas é verdade.
-
2:24 - 2:25Essas pessoas existem,
-
2:26 - 2:30e chamam-se
"moderadores de conteúdos". -
2:31 - 2:34HB: Nós somos os realizadores
do documentário "The Cleaners", -
2:34 - 2:36e gostaríamos de vos levar
-
2:36 - 2:39a um mundo que muitos
de vocês desconhecem. -
2:39 - 2:42Eis um pequeno excerto do nosso filme.
-
2:42 - 2:43(Vídeo)
-
2:52 - 2:56Tenho de ficar anónimo,
porque assinei um contrato. -
2:58 - 3:01Não podemos dizer para quem trabalhamos.
-
3:03 - 3:05Estou a falar com vocês
-
3:05 - 3:09porque o mundo precisa
de saber que existimos. -
3:11 - 3:14Há alguém que está a vigiar
as redes sociais. -
3:14 - 3:18Estamos a fazer o nosso melhor
para tornar esta plataforma, -
3:18 - 3:20segura para toda a gente.
-
3:30 - 3:32Apagar.
-
3:32 - 3:34Ignorar.
-
3:34 - 3:35Apagar.
-
3:35 - 3:37Ignorar.
-
3:37 - 3:38Apagar.
-
3:39 - 3:40Ignorar.
-
3:40 - 3:41Ignorar.
-
3:42 - 3:43Apagar.
-
3:46 - 3:48HB: Os chamados moderadores de conteúdo
-
3:48 - 3:52não são pagos pelo Facebook,
pelo Twitter ou pelo Google. -
3:52 - 3:54mas por empresas contratadas
no mundo inteiro, -
3:54 - 3:57para manter os salários baixos.
-
3:57 - 3:59Dezenas de milhares de jovens
-
3:59 - 4:02que olham para todas as coisas
que não devemos ver. -
4:02 - 4:06Estamos a falar de decapitações,
de mutilações, -
4:06 - 4:10de execuções, de necrofilia,
de tortura, de abuso infantil. -
4:10 - 4:12Milhares de imagens
num turno de trabalho -
4:12 - 4:15— ignorar, apagar, dia e noite.
-
4:15 - 4:19Muito deste trabalho é feito em Manila,
-
4:19 - 4:22para onde o lixo analógico do Ocidente
-
4:22 - 4:25foi embarcado em contentores
durante anos. -
4:25 - 4:29Agora o lixo digital é atirado para ali,
por cabo de fibra ótica. -
4:29 - 4:32Tal como os catadores de lixo
-
4:32 - 4:35vasculham pilhas gigantes
na periferia da cidade, -
4:35 - 4:40os moderadores de conteúdo clicam
através de um oceano tóxico infinito -
4:40 - 4:44de imagens e vídeos
e todo o tipo de lixo intelectual, -
4:44 - 4:47para não termos de olhar para isso.
-
4:47 - 4:50MR: Mas ao contrário
das feridas dos catadores, -
4:50 - 4:54as dos moderadores de conteúdo
permanecem invisíveis. -
4:54 - 4:57Repletos de conteúdos
chocantes e perturbadores, -
4:57 - 5:00essas fotos e vídeos ficam marcadas
na memória deles, -
5:01 - 5:04onde, em qualquer momento,
podem ter efeitos imprevisíveis: -
5:04 - 5:07distúrbios alimentares, perda de líbido,
-
5:07 - 5:11ansiedade, alcoolismo,
-
5:11 - 5:14depressão, que até podem
levar ao suicídio. -
5:14 - 5:17As imagens e vídeos infetam-nos,
-
5:17 - 5:19e frequentemente nunca os abandonam.
-
5:19 - 5:24Se não tiverem sorte, desenvolvem
"stress" pós-traumático, -
5:24 - 5:26como soldados após missões de guerra.
-
5:27 - 5:31No nosso filme, contamos
a história de um jovem -
5:31 - 5:36que tinha de monitorar vídeos
de automutilações e tentativas de suicídio, -
5:36 - 5:38repetidamente,
-
5:38 - 5:41e que acabou por se suicidar.
-
5:42 - 5:45Não é um caso isolado,
como viemos a saber. -
5:45 - 5:49Este é o preço que todos pagamos
-
5:49 - 5:54para os ambientes dos "media" sociais
-
5:54 - 5:58a que chamamos limpos,
seguros e "saudáveis". -
5:58 - 6:01Nunca na história da humanidade
-
6:01 - 6:04foi tão fácil alcançar milhares
de pessoas do globo inteiro, -
6:04 - 6:06em poucos segundos.
-
6:06 - 6:10O que é publicado nas redes sociais
propaga-se muito rapidamente, -
6:10 - 6:14torna-se viral e excita as mentes
das pessoas no mundo inteiro. -
6:14 - 6:17Antes de ser eliminado
-
6:17 - 6:19em geral, já é tarde demais.
-
6:19 - 6:21Milhões de pessoas já foram infetadas
-
6:21 - 6:23com ódio e raiva,
-
6:23 - 6:26e podem tornar-se ativas "online",
-
6:26 - 6:29espalhando e amplificando o ódio,
-
6:29 - 6:33ou invadir as ruas e pegar em armas.
-
6:33 - 6:36HB: Um exército
de moderadores de conteúdos -
6:36 - 6:40sentados em frente de um ecrã
para evitar novos danos colaterais. -
6:40 - 6:43Decidem, o mais depressa possível,
-
6:43 - 6:47se o conteúdo permanece
na plataforma — ignorar — -
6:47 - 6:49ou se o conteúdo desaparece — apagar.
-
6:50 - 6:53Mas nem todas as decisões são tão fáceis,
-
6:53 - 6:55como a decisão sobre
um vídeo de abuso infantil. -
6:55 - 6:58O que se passa quanto ao conteúdo
controverso e ambivalente, -
6:58 - 7:02publicado por ativistas
de direitos civis ou por cidadãos? -
7:02 - 7:05Os moderadores de conteúdos
decidem sobre esses casos -
7:05 - 7:08com a mesma velocidade dos casos "fáceis".
-
7:10 - 7:12MR: Vamos mostrar um vídeo
-
7:12 - 7:15e pedirmos que decidam:
-
7:15 - 7:17Vocês apagá-lo-iam?
-
7:17 - 7:19Ou não o apagavam?
-
7:19 - 7:20(Vídeo)
-
7:21 - 7:22(Explosão)
-
7:24 - 7:26(Pessoas a falar árabe)
-
7:34 - 7:37MR: Esfumámos a imagem
para vocês. -
7:37 - 7:41Uma criança podia ficar
muito perturbada -
7:41 - 7:44e muito assustada com este conteúdo.
-
7:44 - 7:46Então, vocês apagá-lo-iam?
-
7:48 - 7:52E se este vídeo ajudasse
a investigar crimes de guerra na Síria? -
7:53 - 7:56E se ninguém soubesse
deste ataque aéreo -
7:56 - 8:00porque o Facebook, o Youtube,
e o Twitter decidiram eliminá-lo? -
8:01 - 8:05A Airwars, uma ONG londrina
-
8:05 - 8:08tenta encontrar esses vídeos
o mais depressa possível -
8:08 - 8:11sempre que são publicados
nas redes sociais -
8:11 - 8:13para poder arquivá-los.
-
8:13 - 8:16Porque sabem que,
mais cedo ou mais tarde, -
8:16 - 8:19o Facebook, o YouTube, o Twitter
eliminam esse conteúdo. -
8:19 - 8:22Pessoas armadas com os seus telemóveis
-
8:22 - 8:26divulgam coisas a que os jornalistas
nem sempre têm acesso. -
8:26 - 8:29Grupos de ação civil em geral
não têm uma opção melhor -
8:29 - 8:33para tornarem as suas gravações
acessíveis ao grande público -
8:33 - 8:35do que publicá-las nas redes sociais.
-
8:36 - 8:40Isto não é um potencial fator de poder
que a rede devia ter? -
8:41 - 8:43Não eram esses os sonhos
-
8:43 - 8:47que as pessoas tinham
sobre a Internet? -
8:48 - 8:51Essas fotos e vídeos não deveriam
-
8:51 - 8:55persuadir as pessoas que se tornaram
insensíveis aos factos -
8:55 - 8:57a repensarem?
-
8:58 - 9:01HB: Mas o que pode ser incómodo é apagado.
-
9:01 - 9:04E a sociedade está a mudar.
-
9:04 - 9:07Os "media", por exemplo,
vêm usando alertas -
9:07 - 9:10colocados no topo de artigos
-
9:10 - 9:13que as pessoas podem achar ofensivos
ou perturbadores. -
9:13 - 9:16Ou cada vez mais universitários
norte-americanos -
9:16 - 9:20querem que sejam banidos
do programa de obras clássicas -
9:20 - 9:23que apresentam violência
ou assédio sexual. -
9:23 - 9:26Mas até onde devemos levar isso?
-
9:26 - 9:29A integridade física é um direito humano
-
9:29 - 9:32garantido nas Constituições
ao redor do mundo. -
9:32 - 9:35Entre os Direitos Fundamentais
da União Europeia, -
9:35 - 9:39esse direito aplica-se expressamente
à integridade mental. -
9:39 - 9:42Mas mesmo que o efeito
potencialmente traumático -
9:42 - 9:45de imagens e vídeos seja difícil de prever
-
9:45 - 9:47será que queremos ser tão cautelosos
-
9:47 - 9:51que percamos a consciência da injustiça?
-
9:51 - 9:53Então o que fazer?
-
9:53 - 9:55Mark Zuckerberg afirmou
-
9:55 - 9:59que, no futuro, nós,
utilizadores, ou todo mundo -
10:00 - 10:02decidiremos individualmente
-
10:02 - 10:04o que queremos ver nas plataformas
-
10:04 - 10:06por meio de filtros pessoais.
-
10:06 - 10:09Poderemos optar por não nos incomodarmos
-
10:09 - 10:13com imagens de guerra e violência, como...
-
10:13 - 10:18MR: Sou o tipo de pessoa
que não se importa de ver seios -
10:18 - 10:22e me interesso muito
pelo aquecimento global -
10:22 - 10:25mas não gosto muito de guerra...
-
10:25 - 10:27HB: Pois, mas eu sou o oposto,
-
10:27 - 10:31zero interesse em seios e corpos nus,
-
10:31 - 10:34mas porque não armas?
Eu gosto de armas. -
10:35 - 10:39MR: Espera aí. Se não partilharmos
uma mesma consciência social -
10:39 - 10:41como discutiremos problemas sociais?
-
10:41 - 10:44Como chamaremos as pessoas a agirem?
-
10:44 - 10:47Surgiriam bolhas ainda mais isoladas.
-
10:48 - 10:50Uma das questões centrais é:
-
10:50 - 10:56"Como é que, no futuro,
a liberdade de expressão será ponderada
com a proteção individual?" -
10:57 - 10:59É uma questão de princípios.
-
10:59 - 11:03Vamos projetar uma sociedade
aberta ou fechada -
11:03 - 11:05ao espaço digital?
-
11:05 - 11:11Em suma, "liberdade ou segurança?".
-
11:12 - 11:17O Facebook sempre quis ser uma
plataforma "saudável". -
11:17 - 11:21Acima de tudo, os utilizadores
deviam sentir-se seguros. -
11:21 - 11:23É a mesma escolha de palavras
-
11:23 - 11:26que os moderadores de conteúdo
filipinos usaram -
11:26 - 11:28em muitas das nossas entrevistas.
-
11:28 - 11:29[Vídeo]
-
11:29 - 11:33Acho que o mundo em que vivemos
não é muito saudável. -
11:34 - 11:37Neste mundo existe um mal.
-
11:41 - 11:43Precisamos de estar atentos.
-
11:45 - 11:48Precisamos de controlá-lo
— bom ou mau. -
11:58 - 12:00[Olhe para cima, rapaz!
— Deus] -
12:03 - 12:07MR: Para os jovens moderadores
nas Filipinas, um país católico, -
12:07 - 12:10isto está ligado a uma missão cristã:
-
12:11 - 12:14combater os pecados do mundo
-
12:14 - 12:16que se espalham pela Internet.
-
12:17 - 12:20" A pureza está perto da divindade"
-
12:20 - 12:24é um ditado que todos
os filipinos conhecem. -
12:24 - 12:26HB: E outros encontram motivação,
-
12:26 - 12:29comparando-se a Rodrigo Duterte.
-
12:30 - 12:33o Presidente das Filipinas desde 2016,
-
12:33 - 12:38que ganhou a eleição com o lema:
"Eu limparei". -
12:38 - 12:41Isso significa acabar
com todos os problemas -
12:41 - 12:44literalmente matando pessoas nas ruas,
-
12:44 - 12:46suspeitas de serem criminosas,
seja lá o que isso for. -
12:47 - 12:48E desde que foi eleito,
-
12:48 - 12:51já foram mortas cerca de 20 000 pessoas.
-
12:52 - 12:54Um moderador diz no nosso filme:
-
12:54 - 12:56"O que Duterte faz nas ruas,
-
12:56 - 12:58"eu faço na Internet".
-
12:59 - 13:02E eis que eles, os heróis autoproclamados
-
13:02 - 13:05garantem a lei e a ordem
no nosso mundo digital. -
13:06 - 13:08Eles limpam tudo com esmero,
-
13:08 - 13:10livram-nos de todo o mal.
-
13:10 - 13:14As tarefas antes reservadas
a autoridades do Estado -
13:14 - 13:18foram assumidas por universitários
com 20 anos -
13:18 - 13:21munidos de uma formação
de três a cinco dias -
13:21 - 13:23— é essa a qualificação —
-
13:23 - 13:26que trabalham em nada menos
do que salvar o mundo. -
13:27 - 13:31MR: A soberania nacional
foi entregue a empresas privadas -
13:31 - 13:35que entregam a terceiros
essa responsabilidade. -
13:35 - 13:38É uma sucessão de entregas
de responsabilidade -
13:38 - 13:40o que está a ocorrer.
-
13:40 - 13:41Com as redes sociais,
-
13:41 - 13:44há uma infraestrutura totalmente nova
-
13:44 - 13:46com os seus próprios mecanismos
-
13:46 - 13:48a sua própria lógica de ação
-
13:48 - 13:52e, assim, os seus próprios perigos,
-
13:52 - 13:56que não existiam
na esfera pública pré-digital. -
13:57 - 13:59HB: Quando Mark Zuckerberg
foi ao Congresso dos EUA -
13:59 - 14:01ou ao Parlamento Europeu
-
14:01 - 14:03foi confrontado com todo
o tipo de críticas. -
14:03 - 14:06A sua reação foi sempre a mesma:
-
14:07 - 14:08"Vamos consertar isso,
-
14:08 - 14:10"vou acompanhar isso com a minha equipa".
-
14:11 - 14:15Mas tal debate não deveria ocorrer
nos bastidores do Facebook, -
14:15 - 14:16do Twitter ou do Google,
-
14:17 - 14:21mas sim abertamente,
em novos parlamentos cosmopolitas, -
14:21 - 14:26em novas instituições que refletissem
a diversidade das pessoas, -
14:26 - 14:30contribuindo para um projeto utópico
de uma rede global. -
14:31 - 14:34Embora pareça impossível
levar em conta os valores -
14:34 - 14:36dos utilizadores do mundo inteiro,
-
14:36 - 14:38vale a pena acreditar
-
14:38 - 14:42que há mais coisas que nos unem
do que as que nos separam. -
14:42 - 14:45MR: Sim, numa época
em que o populismo ganha força, -
14:45 - 14:48tornou-se comum justificar os sintomas,
-
14:49 - 14:50para os erradicar,
-
14:50 - 14:52para os tornar invisíveis.
-
14:53 - 14:56Esta ideologia espalha-se pelo mundo,
-
14:56 - 15:00tanto analógico como digital,
-
15:00 - 15:03e é nosso dever impedi-la
-
15:03 - 15:06antes que seja tarde demais.
-
15:06 - 15:09A questão da liberdade e da democracia
-
15:10 - 15:13não pode ter somente essas duas opções.
-
15:13 - 15:14HB: Eliminar...
-
15:14 - 15:16MR: ... ou ignorar.
-
15:17 - 15:19HB: Muito obrigado.
-
15:19 - 15:22(Aplausos)
- Title:
- O preço de uma Internet "limpa"
- Speaker:
- Hans Block e Moritz Riesewieck
- Description:
-
Milhões de imagens e vídeos são diariamente enviados para a Internet, mas raramente vemos conteúdos chocantes e perturbadores nas redes sociais. Quem mantém a Internet "limpa" para nós? Nesta palestra alertadora, os documentaristas Hans Block e Moritz Riesewieck conduzem-nos ao mundo sombrio dos moderadores de conteúdos — as pessoas contratadas pelas grandes plataformas como o Facebook, o Twitter e a Google para eliminar da Internet os conteúdos tóxicos. Saibam mais sobre o impacto psicológico deste tipo de trabalho — e como a "limpeza digital" influencia tudo o que vemos e que pensamos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:37
Margarida Ferreira approved Portuguese subtitles for The price of a "clean" internet | ||
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet | ||
Margarida Ferreira accepted Portuguese subtitles for The price of a "clean" internet | ||
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet | ||
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet | ||
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet | ||
Maria Aparecida de Rodrigues Machado edited Portuguese subtitles for The price of a "clean" internet | ||
Maria Aparecida de Rodrigues Machado edited Portuguese subtitles for The price of a "clean" internet |