Return to Video

O preço de uma internet "limpa"

  • 0:00 - 0:04
    [Esta palestra apresenta conteúdo adulto]
  • 0:05 - 0:09
    Moritz Riesewieck: Em 23 de março de 2013,
  • 0:09 - 0:13
    usuários do mundo todo viram
    em seu "feed" de notícias,
  • 0:13 - 0:19
    um vídeo de uma garota jovem sendo
    estuprada por um homem mais velho.
  • 0:19 - 0:23
    Antes de o vídeo ser removido do Facebook,
  • 0:23 - 0:27
    ele foi compartilhado 16 mil vezes
  • 0:28 - 0:32
    e ainda recebeu 4 mil curtidas.
  • 0:33 - 0:37
    Esse vídeo "viralizou" e infectou a rede.
  • 0:38 - 0:41
    Hans Block: E esse foi o momento
    em que nos perguntamos:
  • 0:41 - 0:44
    como algo assim pôde aparecer no Facebook?
  • 0:44 - 0:48
    E, ao mesmo tempo, por que não vemos
    esse tipo de conteúdo com mais frequência?
  • 0:48 - 0:52
    Afinal, há muito material
    repugnante na internet,
  • 0:52 - 0:57
    mas por que raramente vemos tais porcarias
    no Facebook, Twitter ou Google?
  • 0:57 - 0:59
    MR: Embora o software
    de reconhecimento de imagem
  • 0:59 - 1:03
    possa identificar
    traços de órgãos sexuais,
  • 1:03 - 1:08
    sangue ou pele nua exposta
    em imagens e vídeos,
  • 1:08 - 1:14
    ele tem uma dificuldade enorme
    em distinguir conteúdo pornográfico
  • 1:14 - 1:18
    de fotos de viagem, estátuas de Adonis
  • 1:18 - 1:21
    ou campanhas de prevenção
    do câncer de mama.
  • 1:21 - 1:25
    Ele não consegue distinguir
    Romeu e Julieta morrendo no palco
  • 1:25 - 1:28
    de um verdadeiro ataque com faca.
  • 1:28 - 1:33
    Não consegue distinguir
    sátira de propaganda
  • 1:33 - 1:37
    ou ironia de ódio, e por aí vai.
  • 1:38 - 1:42
    Portanto, cabe aos seres humanos decidir
  • 1:42 - 1:48
    qual dos conteúdos suspeitos deve
    ser excluído e qual deve ser mantido.
  • 1:49 - 1:54
    Sabemos muito pouco sobre essas pessoas,
    porque elas trabalham em sigilo.
  • 1:54 - 1:56
    Elas assinam acordos de confidencialidade,
  • 1:56 - 2:01
    que as proíbem de falar e compartilhar
    o que veem na tela delas
  • 2:01 - 2:03
    e o que este trabalho as faz sentir.
  • 2:03 - 2:07
    São forçadas a usar palavras de código
    para esconder para quem trabalham.
  • 2:08 - 2:10
    São monitoradas por firmas
    de segurança privada
  • 2:11 - 2:14
    para garantir que elas
    não falarão com jornalistas.
  • 2:14 - 2:18
    E são ameaçadas por multas, caso falem.
  • 2:18 - 2:22
    Parece ser uma história estranha de crime,
  • 2:22 - 2:24
    mas é verdadeira.
  • 2:24 - 2:29
    Essas pessoas existem e são chamadas
    de moderadores de conteúdo.
  • 2:31 - 2:34
    HB: Nós somos os diretores
    do documentário "The Cleaners"
  • 2:34 - 2:39
    e gostaríamos de levá-los a um mundo
    que muitos de vocês ainda desconhecem.
  • 2:39 - 2:42
    Eis um pequeno clipe do nosso filme.
  • 2:47 - 2:48
    (Música)
  • 2:52 - 2:57
    (Vídeo) Moderador: Precisamos manter
    anonimato porque assinamos um contrato.
  • 2:58 - 3:02
    Não somos permitidos a anunciar
    para quem estamos trabalhando.
  • 3:03 - 3:05
    Estou falando com vocês
  • 3:05 - 3:09
    porque o mundo precisa saber
    que estamos aqui.
  • 3:11 - 3:14
    Alguém está verificando as mídias sociais.
  • 3:14 - 3:20
    Estamos fazendo o melhor para tornar
    essa plataforma segura para todos.
  • 3:30 - 3:32
    Excluir.
  • 3:32 - 3:34
    Ignorar.
  • 3:34 - 3:35
    Excluir.
  • 3:35 - 3:37
    Ignorar.
  • 3:37 - 3:38
    Excluir.
  • 3:39 - 3:40
    Ignorar.
  • 3:40 - 3:41
    Ignorar.
  • 3:42 - 3:43
    Excluir.
  • 3:46 - 3:48
    HB: Os chamados moderadores de conteúdo
  • 3:48 - 3:52
    não recebem seus salários diretamente
    do Facebook, Twitter ou Google,
  • 3:52 - 3:54
    mas de empresas de terceirização
    ao redor do mundo
  • 3:54 - 3:57
    a fim de manter os baixos salários.
  • 3:57 - 4:02
    Dezenas de milhares de jovens examinando
    tudo o que nós não deveríamos ver.
  • 4:02 - 4:08
    E estamos falando de decapitações,
    mutilações, execuções, necrofilia,
  • 4:08 - 4:10
    tortura, abuso infantil.
  • 4:10 - 4:15
    Milhares de imagens em um turno:
    ignorar, excluir, dia e noite.
  • 4:15 - 4:19
    E muito disso é feito em Manila,
  • 4:19 - 4:23
    para onde os resíduos tóxicos analógicos
    do Ocidente foram transportados
  • 4:23 - 4:25
    por navios porta-contêineres durante anos,
  • 4:25 - 4:29
    agora os resíduos digitais são jogados lá
    através de cabos de fibra ótica.
  • 4:29 - 4:35
    E assim como os catadores vasculham
    montes gigantescos de lixo na periferia,
  • 4:35 - 4:40
    os moderadores de conteúdo clicam
    em um oceano tóxico sem fim
  • 4:40 - 4:44
    de imagens, vídeos e toda a forma
    de lixo intelectual,
  • 4:44 - 4:47
    para que não precisemos olhar para isso.
  • 4:47 - 4:50
    MR: Mas ao contrário dos catadores,
  • 4:50 - 4:54
    as feridas dos moderadores de conteúdo
    permanecem invisíveis.
  • 4:54 - 4:57
    Todo esse conteúdo chocante e perturbador
  • 4:57 - 5:01
    de fotos e vídeos entram na memória deles
  • 5:01 - 5:04
    e, a qualquer momento,
    podem causar efeitos imprevisíveis:
  • 5:04 - 5:07
    distúrbio alimentar, perda de libido,
  • 5:07 - 5:11
    transtornos de ansiedade, alcoolismo,
  • 5:11 - 5:14
    depressão, que pode até levar ao suicídio.
  • 5:14 - 5:19
    Essas fotos e vídeos os contaminam,
    e muitas vezes nunca mais os deixam.
  • 5:19 - 5:24
    Se não tiverem sorte, podem desenvolver
    transtorno de estresse pós-traumático,
  • 5:24 - 5:27
    como soldados após missões de guerra.
  • 5:27 - 5:31
    Em nosso filme, contamos
    a história de um jovem
  • 5:31 - 5:35
    que tinha de monitorar transmissões
    ao vivo de automutilações
  • 5:35 - 5:38
    e tentativas de suicídio repetidas vezes,
  • 5:38 - 5:41
    e que, por fim, acabou cometendo suicídio.
  • 5:42 - 5:45
    Não é um caso isolado, como nos disseram.
  • 5:45 - 5:49
    Esse é o preço que todos nós pagamos
  • 5:49 - 5:56
    para termos mídias sociais consideradas
    limpas, seguras e "saudáveis".
  • 5:58 - 6:01
    Nunca antes na história da humanidade
  • 6:01 - 6:06
    foi tão fácil atingir milhões de pessoas
    do mundo todo em poucos segundos.
  • 6:06 - 6:10
    O que é publicado nas redes sociais
    se espalha muito rapidamente,
  • 6:10 - 6:14
    se torna viral e excita a mente
    das pessoas em todo o mundo.
  • 6:14 - 6:19
    Antes de ter sido excluído,
    muitas vezes já é tarde demais.
  • 6:19 - 6:23
    Milhões de pessoas já foram
    afetadas pelo ódio e pela raiva
  • 6:23 - 6:29
    ou se tornam ativas na rede
    espalhando ou ampliando o ódio
  • 6:29 - 6:33
    ou elas tomam as ruas à mão armada.
  • 6:33 - 6:36
    HB: Por isso, há um exército
    de moderadores de conteúdo
  • 6:36 - 6:40
    sentado em frente à tela
    para evitar novos danos colaterais.
  • 6:40 - 6:43
    E eles decidem o mais rápido possível,
  • 6:43 - 6:47
    se o conteúdo permanece
    na plataforma, ignorando-o,
  • 6:47 - 6:49
    ou se ele deve desaparecer, excluindo-o.
  • 6:50 - 6:55
    Mas nem toda decisão é tão clara como
    aquela sobre um vídeo de abuso infantil.
  • 6:55 - 6:58
    O que dizer sobre conteúdos
    controversos ou ambivalentes
  • 6:58 - 7:02
    enviados por ativistas de direitos humanos
    ou pelo jornalismo cidadão?
  • 7:02 - 7:05
    Os moderadores de conteúdo
    muitas vezes decidem sobre esses casos
  • 7:05 - 7:09
    na mesma velocidade
    que os casos mais claros.
  • 7:10 - 7:15
    MR: Vamos mostrar um vídeo agora
    e pedimos que decidam:
  • 7:16 - 7:19
    vocês o excluiriam ou não?
  • 7:19 - 7:21
    (Vídeo) (Som de ataque aéreo)
  • 7:21 - 7:24
    (Som de explosão)
  • 7:28 - 7:31
    (Pessoas falando em árabe)
  • 7:34 - 7:37
    MR: Desfocamos algumas
    imagens para mostrar a vocês.
  • 7:37 - 7:41
    Possivelmente, uma criança
    ficaria muito perturbada
  • 7:41 - 7:44
    e extremamente assustada com tal conteúdo.
  • 7:44 - 7:46
    Então, vocês prefeririam excluí-lo?
  • 7:48 - 7:52
    Mas e se esse vídeo pudesse ajudar
    a investigar crimes de guerra na Síria?
  • 7:53 - 7:56
    E se ninguém ouvisse falar
    sobre esse ataque aéreo,
  • 7:56 - 8:00
    porque o Facebook, Youtube,
    Twitter decidiram removê-lo?
  • 8:01 - 8:05
    A Airwars, uma ONG sediada em Londres,
  • 8:05 - 8:11
    tenta encontrar esses vídeos assim
    que são carregados nas mídias sociais,
  • 8:11 - 8:13
    para arquivá-los.
  • 8:13 - 8:16
    Porque eles sabem que, cedo ou tarde,
  • 8:16 - 8:19
    o Facebook, Youtube, Twitter
    removeriam esses conteúdos.
  • 8:19 - 8:23
    Pessoas armadas com seus celulares
    podem tornar visível
  • 8:23 - 8:26
    aquilo que jornalistas
    muitas vezes não têm acesso.
  • 8:26 - 8:29
    Grupos de direitos humanos
    geralmente não têm uma opção melhor
  • 8:29 - 8:33
    para tornar seus registros rapidamente
    acessíveis a um grande público
  • 8:33 - 8:36
    do que publicá-los nas redes sociais.
  • 8:36 - 8:41
    Não era esse o potencial empoderador
    que a "World Wide Web" deveria ter?
  • 8:41 - 8:47
    Não era esse o sonho que as pessoas
    inicialmente tinham quanto à internet?
  • 8:48 - 8:52
    Será que imagens e vídeos como esses
    não podem convencer as pessoas
  • 8:52 - 8:57
    que se tornaram insensíveis
    aos fatos a repensar?
  • 8:58 - 9:02
    HB: Mas, em vez disso, tudo
    que pode ser perturbador é excluído.
  • 9:02 - 9:04
    E há a mudança geral na sociedade.
  • 9:04 - 9:09
    Por exemplo, a mídia usa cada vez mais
    alertas de gatilho no início dos artigos
  • 9:09 - 9:13
    que algumas pessoas podem achar
    ofensivo ou problemático.
  • 9:13 - 9:18
    Cada vez mais estudantes nas universidades
    dos EUA demandam o banimento do currículo
  • 9:18 - 9:23
    de clássicos antigos que mostram
    violência ou assédio sexual.
  • 9:23 - 9:26
    Mas até onde devemos ir com isso?
  • 9:26 - 9:31
    A integridade física é um direito humano
    garantido por constituições no mundo todo.
  • 9:31 - 9:35
    Na Carta dos Direitos
    Fundamentais da União Europeia,
  • 9:35 - 9:39
    esse direito expressamente
    se aplica à integridade mental.
  • 9:39 - 9:45
    Mas ainda que seja difícil prever o efeito
    potencialmente traumático das imagens,
  • 9:45 - 9:47
    queremos mesmo nos tornar tão cautelosos
  • 9:47 - 9:51
    que arriscamos perder
    o senso de injustiça social?
  • 9:51 - 9:53
    Então o que fazer?
  • 9:53 - 9:56
    Mark Zuckerberg declarou
    recentemente que, no futuro,
  • 9:56 - 10:00
    nós, usuários deles, ou quase todo mundo
  • 10:00 - 10:04
    decidiremos individualmente
    o que queremos ver na plataforma,
  • 10:04 - 10:06
    através de filtros personalizados.
  • 10:06 - 10:09
    Então, todos poderão facilmente
    optar por não serem perturbados
  • 10:09 - 10:13
    por imagens de guerra
    ou outros conflitos violentos, como...
  • 10:13 - 10:18
    MR: Eu sou o tipo de cara
    que não se importa em ver seios
  • 10:18 - 10:22
    e tenho muito interesse
    em aquecimento global,
  • 10:22 - 10:25
    mas eu não gosto tanto de guerra.
  • 10:25 - 10:31
    HB: Sou o oposto, tenho zero interesse
    em seios ou sequer corpos nus.
  • 10:31 - 10:34
    Mas por que não armas?
    Eu gosto de armas, sim.
  • 10:35 - 10:39
    MR: Fala sério, se não compartilhamos
    uma consciência social similar,
  • 10:39 - 10:41
    como vamos discutir problemas sociais?
  • 10:41 - 10:44
    Como vamos chamar as pessoas para agir?
  • 10:44 - 10:48
    Surgiriam ainda mais bolhas isoladas.
  • 10:48 - 10:53
    Uma das perguntas centrais é:
    "Como, no futuro, a liberdade de expressão
  • 10:53 - 10:56
    será pesada contra a necessidade
    de proteção das pessoas?"
  • 10:56 - 10:59
    É uma questão de princípios.
  • 10:59 - 11:05
    Queremos criar uma sociedade aberta
    ou fechada para o espaço digital?
  • 11:05 - 11:11
    O cerne da questão é
    "liberdade versus segurança".
  • 11:12 - 11:17
    O Facebook sempre quis ser
    uma plataforma "saudável".
  • 11:17 - 11:21
    Acima de tudo, os usuários devem
    se sentir seguros e protegidos.
  • 11:21 - 11:23
    São as mesmas palavras
  • 11:23 - 11:28
    que moderadores de conteúdo nas Filipinas
    usaram em muitas de nossas entrevistas.
  • 11:28 - 11:33
    (Vídeo) Homem: Acho que o mundo
    em que vivemos não é tão saudável.
  • 11:33 - 11:34
    (Música)
  • 11:34 - 11:38
    Nesse mundo, existe realmente um mal.
  • 11:38 - 11:39
    (Música)
  • 11:41 - 11:43
    Precisamos prestar atenção nisso.
  • 11:45 - 11:48
    Precisamos controlar isso, bom ou mau.
  • 11:49 - 11:50
    (Música)
  • 11:58 - 12:02
    ["Olhe para cima, jovem!", Deus]
  • 12:03 - 12:07
    MR: Para jovens moderadores nas Filipinas,
    um país estritamente católico,
  • 12:07 - 12:11
    isso está ligado a uma missão cristã:
  • 12:11 - 12:16
    combater os pecados do mundo
    que se espalham pela internet.
  • 12:17 - 12:23
    "A pureza está ao lado da divindade"
    é um ditado popular nas Filipinas.
  • 12:24 - 12:29
    HB: E outros se motivam comparando-se
    com seu presidente Rodrigo Duterte.
  • 12:30 - 12:36
    Ele governa as Filipinas desde 2016,
    e ganhou as eleições com a promessa:
  • 12:36 - 12:38
    "Farei a limpeza".
  • 12:38 - 12:43
    Isso significa eliminar os problemas
    literalmente matando as pessoas nas ruas,
  • 12:43 - 12:47
    que supostamente são criminosos,
    seja lá o que signifique isso.
  • 12:47 - 12:51
    Desde que foi eleito, uma estimativa
    de 20 mil pessoas foram mortas.
  • 12:52 - 12:54
    Em nosso filme, um dos moderadores diz:
  • 12:54 - 12:58
    "O que Duterte faz nas ruas,
    eu faço para a Internet".
  • 12:59 - 13:02
    E aqui estão eles, nossos
    autoproclamados super-heróis,
  • 13:03 - 13:06
    que impõem lei e ordem
    em nosso mundo digital.
  • 13:06 - 13:10
    Eles deixam tudo limpo
    e nos libertam de todo o mal.
  • 13:10 - 13:14
    Tarefas que antes eram reservadas
    às autoridades do Estado,
  • 13:14 - 13:18
    foram assumidas por recém-graduados
    com 20 e poucos anos,
  • 13:18 - 13:22
    qualificados com 3 a 5 dias
    de treinamento,
  • 13:23 - 13:26
    e que trabalham com nada menos
    que o resgate do mundo.
  • 13:27 - 13:31
    MR: As soberanias nacionais foram
    terceirizadas a companhias privadas,
  • 13:31 - 13:35
    que repassam a terceiros
    suas responsabilidades.
  • 13:35 - 13:39
    Ocorre uma terceirização da terceirização.
  • 13:40 - 13:44
    Com as redes sociais, estamos lidando
    com uma infraestrutura completamente nova,
  • 13:44 - 13:47
    com mecanismos próprios,
    lógica de ação própria
  • 13:47 - 13:52
    e, portanto, novos perigos também,
  • 13:52 - 13:56
    que não existiam
    na esfera pública pré-digital.
  • 13:56 - 13:59
    HB: Quando Mark Zuckerberg
    esteve no Congresso norte-americano
  • 13:59 - 14:01
    ou no Parlamento Europeu,
  • 14:01 - 14:03
    foi confrontado com todo tipo de crítica.
  • 14:03 - 14:06
    E a reação dele foi sempre a mesma:
  • 14:07 - 14:11
    "Nós vamos consertar isso
    e vou acompanhar com a minha equipe".
  • 14:11 - 14:15
    Mas tal debate não deveria ocorrer
    nos bastidores do Facebook,
  • 14:15 - 14:16
    Twitter ou Google.
  • 14:16 - 14:21
    Ele deveria ser discutido publicamente
    em novos parlamentos cosmopolitas,
  • 14:21 - 14:26
    em novas instituições que refletem
    a diversidade de pessoas,
  • 14:26 - 14:31
    contribuindo para um projeto
    utópico de uma rede global.
  • 14:31 - 14:37
    Mesmo que pareça impossível considerar
    os valores dos usuários do mundo todo,
  • 14:36 - 14:42
    vale a pena acreditar que há mais
    daquilo que nos conecta do que nos separa.
  • 14:42 - 14:45
    MR: Sim, num momento
    em que o populismo ganha força,
  • 14:45 - 14:52
    torna-se "popular" justificar os sintomas,
    erradicá-los, e torná-los invisíveis.
  • 14:53 - 14:59
    Essa ideologia está se espalhando
    em todo o mundo, analógico e digital,
  • 15:00 - 15:05
    e é nosso dever impedir isso
    antes que seja tarde demais.
  • 15:06 - 15:13
    A questão da liberdade e democracia
    não pode ter só estas duas opções.
  • 15:13 - 15:14
    HB: Excluir...
  • 15:14 - 15:16
    MR: Ou ignorar.
  • 15:17 - 15:19
    HB: Muito obrigado.
  • 15:19 - 15:21
    (Aplausos)
Title:
O preço de uma internet "limpa"
Speaker:
Hans Block e Moritz Riesewieck
Description:

Milhões de imagens e vídeos são carregados na internet todos os dias, porém, raramente vemos conteúdo chocante ou perturbador no nosso "feed" de notícias das mídias sociais. Quem está mantendo a internet "limpa" para nós? Nesta palestra reveladora, os documentaristas Hans Block e Moritz Riesewieck nos levam ao mundo sombrio dos moderadores de conteúdo on-line, pessoas contratadas pelas principais plataformas, como Facebook, Twitter e Google para remover os materiais tóxicos da internet. Saiba mais sobre o impacto psicológico deste tipo de trabalho e como a "limpeza digital" influencia tudo o que vemos e pensamos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37

Portuguese, Brazilian subtitles

Revisions