Return to Video

O preço de uma Internet "limpa"

  • 0:00 - 0:04
    [Esta palestra contém
    conteúdo para adultos]
  • 0:05 - 0:09
    Moritz Riesewick: Em 23 de março de 2013,
  • 0:09 - 0:13
    utilizadores do mundo inteiro
    descobriram no seu "feed" de notícias
  • 0:13 - 0:19
    um vídeo de uma menina a ser
    violada por um homem mais velho.
  • 0:19 - 0:23
    Antes de esse vídeo
    ser removido do Facebook,
  • 0:23 - 0:27
    já tinha sido partilhado 16 000 vezes
  • 0:28 - 0:31
    e tinha recebido 4000 "likes".
  • 0:33 - 0:37
    O vídeo tornou-se viral
    e espalhou-se pela Internet.
  • 0:38 - 0:41
    Hans Block: Foi nesse momento
    que nos perguntámos:
  • 0:41 - 0:44
    Como algo assim
    pode aparecer no Facebook?
  • 0:44 - 0:48
    Ao mesmo tempo, porque não vemos esse
    tipo de conteúdo com maior frequência?
  • 0:48 - 0:52
    Afinal, há muitos conteúdos
    revoltantes na Internet,
  • 0:52 - 0:56
    mas porque é raro vermos essa porcaria
    no Facebook, no Twitter ou no Google?
  • 0:57 - 0:59
    MR: Embora os "softwares"
    de reconhecimento facial
  • 1:00 - 1:04
    possam identificar os contornos
    de órgãos sexuais,
  • 1:04 - 1:08
    de sangue ou de pele nua
    em imagens e vídeos,
  • 1:08 - 1:14
    eles têm grande dificuldade
    em distinguir conteúdo pornográfico
  • 1:14 - 1:18
    de fotos de férias, de estátuas de Adónis
  • 1:18 - 1:21
    ou de campanhas de combate
    ao cancro da mama.
  • 1:21 - 1:25
    Não conseguem distinguir
    Romeu e Julieta a morrer no palco
  • 1:25 - 1:28
    de um esfaqueamento real.
  • 1:28 - 1:33
    Não conseguem diferenciar
    entre sátira e propaganda
  • 1:33 - 1:37
    ou entre ironia e ódio,
    e assim por diante.
  • 1:38 - 1:42
    Assim sendo, as pessoas
    precisam de decidir
  • 1:42 - 1:46
    qual o conteúdo suspeito
    que deve ser apagado,
  • 1:46 - 1:49
    e qual o que deve permanecer.
  • 1:49 - 1:52
    Pessoas, a respeito das quais nada sabemos
  • 1:52 - 1:54
    porque trabalham em segredo.
  • 1:54 - 1:56
    Assinam contratos de confidencialidade,
  • 1:56 - 1:59
    que lhes proíbem falar e partilhar
  • 1:59 - 2:03
    o que eles veem nos ecrãs
    e o que esse trabalho lhes faz.
  • 2:03 - 2:07
    São forçados a usar códigos
    para esconder para quem trabalham.
  • 2:08 - 2:10
    São monitorados por empresas
    privadas de segurança
  • 2:11 - 2:14
    para assegurarem
    que não falem com jornalistas.
  • 2:14 - 2:18
    E são ameaçados com multas, caso falem.
  • 2:18 - 2:22
    Isso parece uma esquisita
    história criminal,
  • 2:22 - 2:24
    mas é verdade.
  • 2:24 - 2:25
    Essas pessoas existem,
  • 2:26 - 2:30
    e chamam-se
    "moderadores de conteúdos".
  • 2:31 - 2:34
    HB: Nós somos os realizadores
    do documentário "The Cleaners",
  • 2:34 - 2:36
    e gostaríamos de vos levar
  • 2:36 - 2:39
    a um mundo que muitos
    de vocês desconhecem.
  • 2:39 - 2:42
    Eis um pequeno excerto do nosso filme.
  • 2:42 - 2:43
    (Vídeo)
  • 2:52 - 2:56
    Tenho de ficar anónimo,
    porque assinei um contrato.
  • 2:58 - 3:01
    Não podemos dizer para quem trabalhamos.
  • 3:03 - 3:05
    Estou a falar com vocês
  • 3:05 - 3:09
    porque o mundo precisa
    de saber que existimos.
  • 3:11 - 3:14
    Há alguém que está a vigiar
    as redes sociais.
  • 3:14 - 3:18
    Estamos a fazer o nosso melhor
    para tornar esta plataforma,
  • 3:18 - 3:20
    segura para toda a gente.
  • 3:30 - 3:32
    Apagar.
  • 3:32 - 3:34
    Ignorar.
  • 3:34 - 3:35
    Apagar.
  • 3:35 - 3:37
    Ignorar.
  • 3:37 - 3:38
    Apagar.
  • 3:39 - 3:40
    Ignorar.
  • 3:40 - 3:41
    Ignorar.
  • 3:42 - 3:43
    Apagar.
  • 3:46 - 3:48
    HB: Os chamados moderadores de conteúdo
  • 3:48 - 3:52
    não são pagos pelo Facebook,
    pelo Twitter ou pelo Google.
  • 3:52 - 3:54
    mas por empresas contratadas
    no mundo inteiro,
  • 3:54 - 3:57
    para manter os salários baixos.
  • 3:57 - 3:59
    Dezenas de milhares de jovens
  • 3:59 - 4:02
    que olham para todas as coisas
    que não devemos ver.
  • 4:02 - 4:06
    Estamos a falar de decapitações,
    de mutilações,
  • 4:06 - 4:10
    de execuções, de necrofilia,
    de tortura, de abuso infantil.
  • 4:10 - 4:12
    Milhares de imagens
    num turno de trabalho
  • 4:12 - 4:15
    — ignorar, apagar, dia e noite.
  • 4:15 - 4:19
    Muito deste trabalho é feito em Manila,
  • 4:19 - 4:22
    para onde o lixo analógico do Ocidente
  • 4:22 - 4:25
    foi embarcado em contentores
    durante anos.
  • 4:25 - 4:29
    Agora o lixo digital é atirado para ali,
    por cabo de fibra ótica.
  • 4:29 - 4:32
    Tal como os catadores de lixo
  • 4:32 - 4:35
    vasculham pilhas gigantes
    na periferia da cidade,
  • 4:35 - 4:40
    os moderadores de conteúdo clicam
    através de um oceano tóxico infinito
  • 4:40 - 4:44
    de imagens e vídeos
    e todo o tipo de lixo intelectual,
  • 4:44 - 4:47
    para não termos de olhar para isso.
  • 4:47 - 4:50
    MR: Mas ao contrário
    das feridas dos catadores,
  • 4:50 - 4:54
    as dos moderadores de conteúdo
    permanecem invisíveis.
  • 4:54 - 4:57
    Repletos de conteúdos
    chocantes e perturbadores,
  • 4:57 - 5:00
    essas fotos e vídeos ficam marcadas
    na memória deles,
  • 5:01 - 5:04
    onde, em qualquer momento,
    podem ter efeitos imprevisíveis:
  • 5:04 - 5:07
    distúrbios alimentares, perda de líbido,
  • 5:07 - 5:11
    ansiedade, alcoolismo,
  • 5:11 - 5:14
    depressão, que até podem
    levar ao suicídio.
  • 5:14 - 5:17
    As imagens e vídeos infetam-nos,
  • 5:17 - 5:19
    e frequentemente nunca os abandonam.
  • 5:19 - 5:24
    Se não tiverem sorte, desenvolvem
    "stress" pós-traumático,
  • 5:24 - 5:26
    como soldados após missões de guerra.
  • 5:27 - 5:31
    No nosso filme, contamos
    a história de um jovem
  • 5:31 - 5:36
    que tinha de monitorar vídeos
    de automutilações e tentativas de suicídio,
  • 5:36 - 5:38
    repetidamente,
  • 5:38 - 5:41
    e que acabou por se suicidar.
  • 5:42 - 5:45
    Não é um caso isolado,
    como viemos a saber.
  • 5:45 - 5:49
    Este é o preço que todos pagamos
  • 5:49 - 5:54
    para os ambientes dos "media" sociais
  • 5:54 - 5:58
    a que chamamos limpos,
    seguros e "saudáveis".
  • 5:58 - 6:01
    Nunca na história da humanidade
  • 6:01 - 6:04
    foi tão fácil alcançar milhares
    de pessoas do globo inteiro,
  • 6:04 - 6:06
    em poucos segundos.
  • 6:06 - 6:10
    O que é publicado nas redes sociais
    propaga-se muito rapidamente,
  • 6:10 - 6:14
    torna-se viral e excita as mentes
    das pessoas no mundo inteiro.
  • 6:14 - 6:17
    Antes de ser eliminado
  • 6:17 - 6:19
    em geral, já é tarde demais.
  • 6:19 - 6:21
    Milhões de pessoas já foram infetadas
  • 6:21 - 6:23
    com ódio e raiva,
  • 6:23 - 6:26
    e podem tornar-se ativas "online",
  • 6:26 - 6:29
    espalhando e amplificando o ódio,
  • 6:29 - 6:33
    ou invadir as ruas e pegar em armas.
  • 6:33 - 6:36
    HB: Um exército
    de moderadores de conteúdos
  • 6:36 - 6:40
    sentados em frente de um ecrã
    para evitar novos danos colaterais.
  • 6:40 - 6:43
    Decidem, o mais depressa possível,
  • 6:43 - 6:47
    se o conteúdo permanece
    na plataforma — ignorar —
  • 6:47 - 6:49
    ou se o conteúdo desaparece — apagar.
  • 6:50 - 6:53
    Mas nem todas as decisões são tão fáceis,
  • 6:53 - 6:55
    como a decisão sobre
    um vídeo de abuso infantil.
  • 6:55 - 6:58
    O que se passa quanto ao conteúdo
    controverso e ambivalente,
  • 6:58 - 7:02
    publicado por ativistas
    de direitos civis ou por cidadãos?
  • 7:02 - 7:05
    Os moderadores de conteúdos
    decidem sobre esses casos
  • 7:05 - 7:08
    com a mesma velocidade dos casos "fáceis".
  • 7:10 - 7:12
    MR: Vamos mostrar um vídeo
  • 7:12 - 7:15
    e pedirmos que decidam:
  • 7:15 - 7:17
    Vocês apagá-lo-iam?
  • 7:17 - 7:19
    Ou não o apagavam?
  • 7:19 - 7:20
    (Vídeo)
  • 7:21 - 7:22
    (Explosão)
  • 7:24 - 7:26
    (Pessoas a falar árabe)
  • 7:34 - 7:37
    MR: Esfumámos a imagem
    para vocês.
  • 7:37 - 7:41
    Uma criança podia ficar
    muito perturbada
  • 7:41 - 7:44
    e muito assustada com este conteúdo.
  • 7:44 - 7:46
    Então, vocês apagá-lo-iam?
  • 7:48 - 7:52
    E se este vídeo ajudasse
    a investigar crimes de guerra na Síria?
  • 7:53 - 7:56
    E se ninguém soubesse
    deste ataque aéreo
  • 7:56 - 8:00
    porque o Facebook, o Youtube,
    e o Twitter decidiram eliminá-lo?
  • 8:01 - 8:05
    A Airwars, uma ONG londrina
  • 8:05 - 8:08
    tenta encontrar esses vídeos
    o mais depressa possível
  • 8:08 - 8:11
    sempre que são publicados
    nas redes sociais
  • 8:11 - 8:13
    para poder arquivá-los.
  • 8:13 - 8:16
    Porque sabem que,
    mais cedo ou mais tarde,
  • 8:16 - 8:19
    o Facebook, o YouTube, o Twitter
    eliminam esse conteúdo.
  • 8:19 - 8:22
    Pessoas armadas com os seus telemóveis
  • 8:22 - 8:26
    divulgam coisas a que os jornalistas
    nem sempre têm acesso.
  • 8:26 - 8:29
    Grupos de ação civil em geral
    não têm uma opção melhor
  • 8:29 - 8:33
    para tornarem as suas gravações
    acessíveis ao grande público
  • 8:33 - 8:35
    do que publicá-las nas redes sociais.
  • 8:36 - 8:40
    Isto não é um potencial fator de poder
    que a rede devia ter?
  • 8:41 - 8:43
    Não eram esses os sonhos
  • 8:43 - 8:47
    que as pessoas tinham
    sobre a Internet?
  • 8:48 - 8:51
    Essas fotos e vídeos não deveriam
  • 8:51 - 8:55
    persuadir as pessoas que se tornaram
    insensíveis aos factos
  • 8:55 - 8:57
    a repensarem?
  • 8:58 - 9:01
    HB: Mas o que pode ser incómodo é apagado.
  • 9:01 - 9:04
    E a sociedade está a mudar.
  • 9:04 - 9:07
    Os "media", por exemplo,
    vêm usando alertas
  • 9:07 - 9:10
    colocados no topo de artigos
  • 9:10 - 9:13
    que as pessoas podem achar ofensivos
    ou perturbadores.
  • 9:13 - 9:16
    Ou cada vez mais universitários
    norte-americanos
  • 9:16 - 9:20
    querem que sejam banidos
    do programa de obras clássicas
  • 9:20 - 9:23
    que apresentam violência
    ou assédio sexual.
  • 9:23 - 9:26
    Mas até onde devemos levar isso?
  • 9:26 - 9:29
    A integridade física é um direito humano
  • 9:29 - 9:32
    garantido nas Constituições
    ao redor do mundo.
  • 9:32 - 9:35
    Entre os Direitos Fundamentais
    da União Europeia,
  • 9:35 - 9:39
    esse direito aplica-se expressamente
    à integridade mental.
  • 9:39 - 9:42
    Mas mesmo que o efeito
    potencialmente traumático
  • 9:42 - 9:45
    de imagens e vídeos seja difícil de prever
  • 9:45 - 9:47
    será que queremos ser tão cautelosos
  • 9:47 - 9:51
    que percamos a consciência da injustiça?
  • 9:51 - 9:53
    Então o que fazer?
  • 9:53 - 9:55
    Mark Zuckerberg afirmou
  • 9:55 - 9:59
    que, no futuro, nós,
    utilizadores, ou todo mundo
  • 10:00 - 10:02
    decidiremos individualmente
  • 10:02 - 10:04
    o que queremos ver nas plataformas
  • 10:04 - 10:06
    por meio de filtros pessoais.
  • 10:06 - 10:09
    Poderemos optar por não nos incomodarmos
  • 10:09 - 10:13
    com imagens de guerra e violência, como...
  • 10:13 - 10:18
    MR: Sou o tipo de pessoa
    que não se importa de ver seios
  • 10:18 - 10:22
    e me interesso muito
    pelo aquecimento global
  • 10:22 - 10:25
    mas não gosto muito de guerra...
  • 10:25 - 10:27
    HB: Pois, mas eu sou o oposto,
  • 10:27 - 10:31
    zero interesse em seios e corpos nus,
  • 10:31 - 10:34
    mas porque não armas?
    Eu gosto de armas.
  • 10:35 - 10:39
    MR: Espera aí. Se não partilharmos
    uma mesma consciência social
  • 10:39 - 10:41
    como discutiremos problemas sociais?
  • 10:41 - 10:44
    Como chamaremos as pessoas a agirem?
  • 10:44 - 10:47
    Surgiriam bolhas ainda mais isoladas.
  • 10:48 - 10:50
    Uma das questões centrais é:
  • 10:50 - 10:56
    "Como é que, no futuro,
    a liberdade de expressão será ponderada
    com a proteção individual?"
  • 10:57 - 10:59
    É uma questão de princípios.
  • 10:59 - 11:03
    Vamos projetar uma sociedade
    aberta ou fechada
  • 11:03 - 11:05
    ao espaço digital?
  • 11:05 - 11:11
    Em suma, "liberdade ou segurança?".
  • 11:12 - 11:17
    O Facebook sempre quis ser uma
    plataforma "saudável".
  • 11:17 - 11:21
    Acima de tudo, os utilizadores
    deviam sentir-se seguros.
  • 11:21 - 11:23
    É a mesma escolha de palavras
  • 11:23 - 11:26
    que os moderadores de conteúdo
    filipinos usaram
  • 11:26 - 11:28
    em muitas das nossas entrevistas.
  • 11:28 - 11:29
    [Vídeo]
  • 11:29 - 11:33
    Acho que o mundo em que vivemos
    não é muito saudável.
  • 11:34 - 11:37
    Neste mundo existe um mal.
  • 11:41 - 11:43
    Precisamos de estar atentos.
  • 11:45 - 11:48
    Precisamos de controlá-lo
    — bom ou mau.
  • 11:58 - 12:00
    [Olhe para cima, rapaz!
    — Deus]
  • 12:03 - 12:07
    MR: Para os jovens moderadores
    nas Filipinas, um país católico,
  • 12:07 - 12:10
    isto está ligado a uma missão cristã:
  • 12:11 - 12:14
    combater os pecados do mundo
  • 12:14 - 12:16
    que se espalham pela Internet.
  • 12:17 - 12:20
    " A pureza está perto da divindade"
  • 12:20 - 12:24
    é um ditado que todos
    os filipinos conhecem.
  • 12:24 - 12:26
    HB: E outros encontram motivação,
  • 12:26 - 12:29
    comparando-se a Rodrigo Duterte.
  • 12:30 - 12:33
    o Presidente das Filipinas desde 2016,
  • 12:33 - 12:38
    que ganhou a eleição com o lema:
    "Eu limparei".
  • 12:38 - 12:41
    Isso significa acabar
    com todos os problemas
  • 12:41 - 12:44
    literalmente matando pessoas nas ruas,
  • 12:44 - 12:46
    suspeitas de serem criminosas,
    seja lá o que isso for.
  • 12:47 - 12:48
    E desde que foi eleito,
  • 12:48 - 12:51
    já foram mortas cerca de 20 000 pessoas.
  • 12:52 - 12:54
    Um moderador diz no nosso filme:
  • 12:54 - 12:56
    "O que Duterte faz nas ruas,
  • 12:56 - 12:58
    "eu faço na Internet".
  • 12:59 - 13:02
    E eis que eles, os heróis autoproclamados
  • 13:02 - 13:05
    garantem a lei e a ordem
    no nosso mundo digital.
  • 13:06 - 13:08
    Eles limpam tudo com esmero,
  • 13:08 - 13:10
    livram-nos de todo o mal.
  • 13:10 - 13:14
    As tarefas antes reservadas
    a autoridades do Estado
  • 13:14 - 13:18
    foram assumidas por universitários
    com 20 anos
  • 13:18 - 13:21
    munidos de uma formação
    de três a cinco dias
  • 13:21 - 13:23
    — é essa a qualificação —
  • 13:23 - 13:26
    que trabalham em nada menos
    do que salvar o mundo.
  • 13:27 - 13:31
    MR: A soberania nacional
    foi entregue a empresas privadas
  • 13:31 - 13:35
    que entregam a terceiros
    essa responsabilidade.
  • 13:35 - 13:38
    É uma sucessão de entregas
    de responsabilidade
  • 13:38 - 13:40
    o que está a ocorrer.
  • 13:40 - 13:41
    Com as redes sociais,
  • 13:41 - 13:44
    há uma infraestrutura totalmente nova
  • 13:44 - 13:46
    com os seus próprios mecanismos
  • 13:46 - 13:48
    a sua própria lógica de ação
  • 13:48 - 13:52
    e, assim, os seus próprios perigos,
  • 13:52 - 13:56
    que não existiam
    na esfera pública pré-digital.
  • 13:57 - 13:59
    HB: Quando Mark Zuckerberg
    foi ao Congresso dos EUA
  • 13:59 - 14:01
    ou ao Parlamento Europeu
  • 14:01 - 14:03
    foi confrontado com todo
    o tipo de críticas.
  • 14:03 - 14:06
    A sua reação foi sempre a mesma:
  • 14:07 - 14:08
    "Vamos consertar isso,
  • 14:08 - 14:10
    "vou acompanhar isso com a minha equipa".
  • 14:11 - 14:15
    Mas tal debate não deveria ocorrer
    nos bastidores do Facebook,
  • 14:15 - 14:16
    do Twitter ou do Google,
  • 14:17 - 14:21
    mas sim abertamente,
    em novos parlamentos cosmopolitas,
  • 14:21 - 14:26
    em novas instituições que refletissem
    a diversidade das pessoas,
  • 14:26 - 14:30
    contribuindo para um projeto utópico
    de uma rede global.
  • 14:31 - 14:34
    Embora pareça impossível
    levar em conta os valores
  • 14:34 - 14:36
    dos utilizadores do mundo inteiro,
  • 14:36 - 14:38
    vale a pena acreditar
  • 14:38 - 14:42
    que há mais coisas que nos unem
    do que as que nos separam.
  • 14:42 - 14:45
    MR: Sim, numa época
    em que o populismo ganha força,
  • 14:45 - 14:48
    tornou-se comum justificar os sintomas,
  • 14:49 - 14:50
    para os erradicar,
  • 14:50 - 14:52
    para os tornar invisíveis.
  • 14:53 - 14:56
    Esta ideologia espalha-se pelo mundo,
  • 14:56 - 15:00
    tanto analógico como digital,
  • 15:00 - 15:03
    e é nosso dever impedi-la
  • 15:03 - 15:06
    antes que seja tarde demais.
  • 15:06 - 15:09
    A questão da liberdade e da democracia
  • 15:10 - 15:13
    não pode ter somente essas duas opções.
  • 15:13 - 15:14
    HB: Eliminar...
  • 15:14 - 15:16
    MR: ... ou ignorar.
  • 15:17 - 15:19
    HB: Muito obrigado.
  • 15:19 - 15:22
    (Aplausos)
Title:
O preço de uma Internet "limpa"
Speaker:
Hans Block e Moritz Riesewieck
Description:

Milhões de imagens e vídeos são diariamente enviados para a Internet, mas raramente vemos conteúdos chocantes e perturbadores nas redes sociais. Quem mantém a Internet "limpa" para nós? Nesta palestra alertadora, os documentaristas Hans Block e Moritz Riesewieck conduzem-nos ao mundo sombrio dos moderadores de conteúdos — as pessoas contratadas pelas grandes plataformas como o Facebook, o Twitter e a Google para eliminar da Internet os conteúdos tóxicos. Saibam mais sobre o impacto psicológico deste tipo de trabalho — e como a "limpeza digital" influencia tudo o que vemos e que pensamos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37
Margarida Ferreira approved Portuguese subtitles for The price of a "clean" internet
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet
Margarida Ferreira accepted Portuguese subtitles for The price of a "clean" internet
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet
Margarida Ferreira edited Portuguese subtitles for The price of a "clean" internet
Maria Aparecida de Rodrigues Machado edited Portuguese subtitles for The price of a "clean" internet
Maria Aparecida de Rodrigues Machado edited Portuguese subtitles for The price of a "clean" internet
Show all

Portuguese subtitles

Revisions