Return to Video

Como podemos eliminar material contendo abuso sexual infantil da internet

  • 0:00 - 0:04
    [Esta palestra apresenta conteúdo adulto]
  • 0:05 - 0:07
    Há cinco anos,
  • 0:07 - 0:11
    recebi um telefonema
    que mudaria a minha vida.
  • 0:11 - 0:14
    Lembro-me muito bem daquele dia.
  • 0:15 - 0:17
    Foi por volta dessa época do ano,
  • 0:17 - 0:19
    e eu estava no meu escritório.
  • 0:19 - 0:23
    Lembro-me do sol entrando pela janela.
  • 0:23 - 0:25
    E meu telefone tocou.
  • 0:25 - 0:27
    Eu atendi,
  • 0:27 - 0:32
    e eram dois agentes federais
    pedindo a minha ajuda
  • 0:32 - 0:34
    para identificar uma garotinha
  • 0:34 - 0:38
    que aparecia em centenas de fotos
    de abuso sexual infantil
  • 0:38 - 0:40
    que eles haviam encontrado on-line.
  • 0:41 - 0:44
    Tinham apenas começado
    a trabalhar no caso,
  • 0:44 - 0:46
    mas o que eles sabiam
  • 0:47 - 0:51
    é que o abuso dela havia sido transmitido
    ao mundo todo por anos
  • 0:51 - 0:57
    em sites da "dark web" dedicados
    ao abuso sexual de crianças.
  • 0:57 - 1:02
    E o abusador dela tinha um conhecimento
    tecnológico incrivelmente sofisticado:
  • 1:02 - 1:07
    novas imagens e vídeos publicados
    a cada poucas semanas,
  • 1:07 - 1:11
    mas quase nenhuma pista de quem ela era
  • 1:11 - 1:13
    ou do paradeiro dela.
  • 1:13 - 1:14
    Eles nos ligaram,
  • 1:14 - 1:18
    pois ouviram dizer que éramos
    uma nova organização sem fins lucrativos
  • 1:18 - 1:21
    desenvolvendo tecnologia
    para combater o abuso sexual infantil.
  • 1:21 - 1:24
    Mas existíamos há apenas dois anos,
  • 1:24 - 1:28
    e tínhamos trabalho apenas
    com o tráfico de sexo infantil.
  • 1:28 - 1:30
    Eu tive que dizer a eles
  • 1:30 - 1:32
    que não tínhamos nada.
  • 1:32 - 1:37
    Nada que pudesse ajudá-los
    a impedir esse tipo de abuso.
  • 1:37 - 1:41
    Aqueles agentes levaram mais um ano
  • 1:41 - 1:44
    para finalmente encontrar aquela criança.
  • 1:45 - 1:47
    E quando ela foi resgatada,
  • 1:47 - 1:54
    centenas de imagens e vídeos documentando
    o estupro dela haviam viralizado,
  • 1:54 - 1:55
    vindos da dark web
  • 1:55 - 1:58
    para redes ponto-a-ponto,
    salas de bate-papo particulares
  • 1:58 - 2:02
    e para websites que todos nós usamos
  • 2:02 - 2:04
    todo santo dia.
  • 2:05 - 2:09
    E hoje, enquanto luta pra se recuperar,
  • 2:09 - 2:13
    ela vive com a certeza
    de que milhares de pessoas mundo afora
  • 2:13 - 2:16
    continuam a assistir ao abuso dela.
  • 2:18 - 2:20
    Acabei descobrindo nos últimos cinco anos
  • 2:20 - 2:23
    que esse caso está longe de ser o único.
  • 2:24 - 2:28
    Como chegamos a esse ponto como sociedade?
  • 2:29 - 2:33
    No final da década de 1980,
    a pornografia infantil
  • 2:33 - 2:39
    ou o que é, na verdade,
    material de abuso sexual de crianças,
  • 2:39 - 2:41
    tinha quase sido eliminado.
  • 2:41 - 2:46
    Novas leis e o aumento de processos
    judiciais tornaram muito arriscado
  • 2:46 - 2:48
    o comércio pelo correio convencional.
  • 2:48 - 2:53
    Até que surgiu a internet
    e esse mercado explodiu.
  • 2:53 - 2:57
    A quantidade de material
    em circulação atualmente
  • 2:57 - 3:00
    é enorme e vem crescendo.
  • 3:00 - 3:04
    É um problema verdadeiramente global,
  • 3:04 - 3:06
    mas se analisarmos apenas os EUA:
  • 3:06 - 3:08
    somente no último ano,
  • 3:08 - 3:14
    mais de 45 milhões de imagens e vídeos
    contendo abuso sexual de crianças
  • 3:14 - 3:17
    foram reportados ao Centro Nacional
    de Crianças Desaparecidas e Exploradas,
  • 3:17 - 3:22
    e isso é quase o dobro
    do número do ano anterior.
  • 3:22 - 3:28
    E é difícil considerar os detalhes
    por trás desses números,
  • 3:28 - 3:33
    com mais de 60% das imagens
    mostrando crianças menores de 12 anos,
  • 3:34 - 3:38
    e a maioria dessas imagens incluindo
    atos de extrema violência sexual.
  • 3:39 - 3:41
    Abusadores são aclamados
    em salas de bate-papo
  • 3:41 - 3:44
    dedicadas ao abuso de crianças,
  • 3:44 - 3:49
    e eles ganham posição e notoriedade
    com mais abuso e mais vítimas.
  • 3:50 - 3:52
    Nesse mercado,
  • 3:53 - 3:57
    a moeda tornou-se o próprio conteúdo.
  • 3:58 - 4:02
    Fica claro que os abusadores têm sido
    rápidos ao alavancar novas tecnologias,
  • 4:02 - 4:05
    mas nossa resposta como sociedade, não.
  • 4:06 - 4:10
    Esses abusadores não leem
    contratos de usuário dos sites,
  • 4:10 - 4:14
    e o conteúdo não respeita
    limites geográficos.
  • 4:14 - 4:21
    E eles vencem quando analisamos
    uma peça do quebra-cabeça de cada vez,
  • 4:21 - 4:25
    que é exatamente como nossa resposta
    está projetada atualmente.
  • 4:25 - 4:28
    A aplicação da lei funciona
    em uma jurisdição.
  • 4:28 - 4:32
    As empresas apenas observam
    sua própria plataforma.
  • 4:32 - 4:34
    E quaisquer dados descobertos
    ao longo do caminho
  • 4:35 - 4:37
    raramente são compartilhados.
  • 4:37 - 4:43
    Fica muito claro que essa abordagem
    desconectada não está funcionando.
  • 4:44 - 4:48
    Devemos redesenhar
    nossa resposta a essa epidemia
  • 4:48 - 4:49
    para a era digital.
  • 4:50 - 4:53
    E é exatamente isso que fazemos na Thorn.
  • 4:53 - 4:57
    Estamos construindo a tecnologia
    que irá conectar esses pontos
  • 4:57 - 4:59
    e irá munir todos na linha de frente,
  • 4:59 - 5:02
    autoridades policiais, ONGs e empresas,
  • 5:02 - 5:06
    com as ferramentas que precisam
    para finalmente eliminar da internet
  • 5:06 - 5:09
    todo o material de abuso sexual infantil.
  • 5:10 - 5:11
    Vou falar um pouco...
  • 5:11 - 5:12
    (Aplausos)
  • 5:12 - 5:14
    Obrigada.
  • 5:14 - 5:16
    (Aplausos)
  • 5:18 - 5:20
    Vou falar por um minuto
    sobre quais são esses pontos.
  • 5:21 - 5:25
    Como podem imaginar,
    esse conteúdo é horrível.
  • 5:25 - 5:28
    Se não "precisa" olhar para isso,
    você simplesmente não quer olhar.
  • 5:28 - 5:30
    Sendo assim,
  • 5:30 - 5:35
    a maioria das agências de autoridades
    detentoras desse conteúdo
  • 5:35 - 5:38
    pode traduzir todos os arquivos
    numa única sequência numérica.
  • 5:38 - 5:40
    Isso é chamado de "hash".
  • 5:40 - 5:42
    É basicamente uma impressão digital
  • 5:42 - 5:45
    para cada arquivo ou vídeo.
  • 5:45 - 5:49
    E isso permite que eles usem
    as informações nas investigações
  • 5:49 - 5:52
    ou que uma empresa remova
    o conteúdo da plataforma dela,
  • 5:52 - 5:58
    sem precisar analisar
    cada imagem e vídeo toda vez.
  • 5:58 - 6:00
    O problema hoje em dia, no entanto,
  • 6:00 - 6:04
    é que existem centenas
    de milhões desses hashes
  • 6:04 - 6:08
    em bancos de dados isolados
    em todo o mundo.
  • 6:08 - 6:13
    Num silo, podem funcionar para a agência
    que exerce controle sobre eles,
  • 6:13 - 6:17
    mas não conectar esses dados significa
    não sabermos quantos deles são únicos.
  • 6:17 - 6:20
    Não sabemos quais representam
    crianças que já foram resgatadas
  • 6:20 - 6:23
    ou que ainda precisam ser identificadas.
  • 6:23 - 6:27
    Nossa premissa mais urgente e básica
    é a de que todos esses dados
  • 6:27 - 6:30
    devem estar conectados.
  • 6:30 - 6:36
    Há duas maneiras nas quais esses dados,
    combinados com software em escala global,
  • 6:37 - 6:40
    podem causar um impacto
    transformador nesta área.
  • 6:40 - 6:43
    O primeiro é com as autoridades policiais:
  • 6:43 - 6:47
    ajudando-as a identificar
    novas vítimas mais rapidamente,
  • 6:47 - 6:48
    impedindo o abuso
  • 6:48 - 6:51
    bem como aqueles
    que produzem esse conteúdo.
  • 6:51 - 6:54
    O segundo é com as empresas:
  • 6:54 - 6:58
    usando-os como pistas para identificar
    as centenas de milhões de arquivos
  • 6:58 - 6:59
    em circulação hoje,
  • 6:59 - 7:01
    retirá-los do ar
  • 7:01 - 7:07
    e depois impedir o upload de novo material
    antes mesmo que ele viralize.
  • 7:10 - 7:11
    Há quatro anos,
  • 7:11 - 7:14
    quando aquele caso foi encerrado,
  • 7:14 - 7:18
    nossa equipe conversou e sentimos...
  • 7:20 - 7:23
    uma profunda sensação de fracasso,
    é como posso expressar isso,
  • 7:23 - 7:27
    porque acompanhamos o ano inteiro
  • 7:27 - 7:28
    enquanto eles a procuravam.
  • 7:28 - 7:32
    E vimos todos os lugares na investigação
  • 7:32 - 7:37
    onde, se tivéssemos a tecnologia na época,
    eles a teriam encontrado mais rapidamente.
  • 7:38 - 7:40
    E, então, nos afastamos do caso
  • 7:40 - 7:43
    e fizemos o que sabíamos fazer:
  • 7:43 - 7:45
    passamos a construir software.
  • 7:46 - 7:48
    Começamos com as autoridades policiais.
  • 7:48 - 7:52
    Nosso sonho era um alarme nas mesas
    de agentes por todo o mundo
  • 7:52 - 7:57
    para que, caso alguém se atrevesse
    a publicar uma nova vítima on-line,
  • 7:57 - 8:00
    alguém passaria a procurar
    pelo infrator imediatamente.
  • 8:01 - 8:04
    Obviamente não posso falar
    sobre os detalhes desse software,
  • 8:04 - 8:07
    mas hoje está em operação em 38 países,
  • 8:07 - 8:10
    tendo reduzido o tempo que se leva
    para chegar a uma criança
  • 8:10 - 8:12
    em mais de 65%.
  • 8:12 - 8:15
    (Aplausos)
  • 8:21 - 8:24
    E agora estamos embarcando
    neste segundo horizonte:
  • 8:24 - 8:30
    construindo o software pra ajudar empresas
    a identificar e remover este conteúdo.
  • 8:31 - 8:34
    Vou falar brevemente sobre essas empresas.
  • 8:34 - 8:40
    Como eu disse, foram 45 milhões de imagens
    e vídeos somente nos EUA no ano passado,
  • 8:40 - 8:44
    provenientes de apenas 12 empresas.
  • 8:46 - 8:52
    Doze empresas, 45 milhões de arquivos
    de material com abuso sexual infantil.
  • 8:52 - 8:55
    Eles vêm das empresas que têm dinheiro
  • 8:55 - 9:00
    para construir a infraestrutura necessária
    para retirar esse conteúdo.
  • 9:00 - 9:02
    Mas há centenas de outras empresas,
  • 9:02 - 9:07
    pequenas e médias, em todo o mundo,
    que precisam fazer esse trabalho,
  • 9:07 - 9:12
    mas ou elas não imaginam que a plataforma
    delas seria usada para o abuso,
  • 9:12 - 9:18
    ou não têm dinheiro para gastar
    em algo que não esteja gerando receita.
  • 9:19 - 9:22
    Então construímos o software para elas,
  • 9:22 - 9:27
    e esse sistema agora fica mais inteligente
    com a participação de mais empresas.
  • 9:28 - 9:30
    Vou dar um exemplo.
  • 9:30 - 9:33
    Nosso primeiro parceiro, Imgur:
  • 9:33 - 9:38
    se não ouviram falar dessa empresa,
    é um dos sites mais visitados nos EUA,
  • 9:38 - 9:43
    milhões de exemplos de conteúdo
    criados por usuários enviados diariamente,
  • 9:43 - 9:45
    com a missão de tornar
    a internet mais divertida.
  • 9:46 - 9:48
    Eles fizeram parceria conosco primeiro.
  • 9:48 - 9:51
    Após 20 minutos de operação
    do nosso sistema,
  • 9:51 - 9:54
    alguém tentou fazer o upload
    de material de abuso já conhecido.
  • 9:54 - 9:57
    Conseguiram impedir o upload,
    retirar o conteúdo,
  • 9:57 - 10:00
    e denunciá-lo ao Centro Nacional
    de Crianças Desaparecidas e Exploradas.
  • 10:00 - 10:02
    Mas o site deu um passo adiante,
  • 10:02 - 10:07
    e eles inspecionaram a conta
    da pessoa que fez o upload.
  • 10:07 - 10:12
    Havia centenas de outros exemplos
    de material de abuso sexual infantil
  • 10:12 - 10:14
    que nunca tínhamos visto.
  • 10:14 - 10:18
    E é aqui que começamos
    a ver um impacto exponencial.
  • 10:18 - 10:19
    Nós retiramos esse material,
  • 10:20 - 10:23
    ele é relatado ao Centro Nacional
    de Crianças Desaparecidas e Exploradas
  • 10:23 - 10:28
    e então esses hashes voltam para o sistema
    e beneficiam as outras empresas nele.
  • 10:28 - 10:33
    E quando os milhões de hashes que temos
    levarem a milhões a mais e, em tempo real,
  • 10:33 - 10:37
    empresas mundo afora identificarem
    e retirarem esse conteúdo,
  • 10:37 - 10:42
    teremos aumentado drasticamente
    a velocidade com a qual removemos
  • 10:42 - 10:46
    material de abuso sexual infantil
    da internet em todo o mundo.
  • 10:46 - 10:49
    (Aplausos)
  • 10:54 - 10:57
    Mas é por isso que não pode ter a ver
    apenas com software e dados,
  • 10:57 - 10:59
    e sim com larga escala.
  • 10:59 - 11:03
    Precisamos ativar milhares de agentes,
  • 11:03 - 11:05
    centenas de empresas em todo o mundo,
  • 11:05 - 11:09
    se a tecnologia nos permitir
    ultrapassar os infratores
  • 11:09 - 11:13
    e desmantelar as comunidades
    que normalizam o abuso sexual infantil
  • 11:13 - 11:15
    em todo o mundo hoje.
  • 11:15 - 11:18
    Agora é a hora de fazermos isso.
  • 11:18 - 11:24
    Não podemos mais ignorar o impacto
    que isso está causando em nossas crianças.
  • 11:25 - 11:29
    A primeira geração de crianças
    cujo abuso sexual tornou-se viral
  • 11:29 - 11:31
    agora é de jovens adultos.
  • 11:31 - 11:34
    O Centro Canadense de Proteção à Criança
  • 11:34 - 11:37
    acabou de fazer um estudo
    sobre esses jovens adultos
  • 11:37 - 11:41
    para entender o trauma singular
    do qual eles tentam se recuperar,
  • 11:41 - 11:45
    sabendo que o abuso deles continua vivo.
  • 11:45 - 11:50
    Desses jovens adultos,
    80% já contemplaram o suicídio.
  • 11:51 - 11:55
    Mais de 60% tentaram o suicídio.
  • 11:56 - 12:01
    E a maioria desses jovens
    vive constantemente com o medo
  • 12:01 - 12:05
    de ser reconhecido ao caminhar pela rua
    ou participar de uma entrevista de emprego
  • 12:05 - 12:08
    ou ao ir para a escola
  • 12:08 - 12:10
    ou mesmo ao conhecer uma pessoa on-line,
  • 12:10 - 12:14
    por alguém que tenha visto o abuso deles.
  • 12:15 - 12:19
    E isso tornou-se realidade
    para mais de 30% deles.
  • 12:20 - 12:25
    Eles foram reconhecidos pelo material
    do abuso deles disponível on-line.
  • 12:26 - 12:29
    Isso não será fácil,
  • 12:29 - 12:32
    mas não é impossível.
  • 12:32 - 12:37
    Agora precisaremos contar
    com a determinação da nossa sociedade
  • 12:37 - 12:40
    de olhar para algo
    realmente difícil de encarar;
  • 12:40 - 12:42
    tirar algo da escuridão
  • 12:42 - 12:45
    para que essas crianças tenham uma voz;
  • 12:46 - 12:51
    a determinação das empresas de agir
    e se certificar que suas plataformas
  • 12:51 - 12:54
    não são cúmplices do abuso de uma criança;
  • 12:55 - 12:59
    a determinação dos governos
    de investir em suas autoridades policiais
  • 12:59 - 13:04
    com as ferramentas que eles precisam
    para investigar um primeiro crime digital,
  • 13:04 - 13:08
    mesmo quando as vítimas
    não podem falar por si mesmas.
  • 13:10 - 13:14
    Este compromisso audacioso
    faz parte dessa determinação.
  • 13:14 - 13:20
    É uma declaração de guerra contra
    um dos males mais sombrios da humanidade.
  • 13:20 - 13:22
    Mas o que mais me motiva
  • 13:22 - 13:26
    é que isso é, na verdade,
    um investimento num futuro
  • 13:26 - 13:29
    no qual toda criança pode
    simplesmente ser criança.
  • 13:29 - 13:30
    Obrigada.
  • 13:30 - 13:33
    (Aplausos)
Title:
Como podemos eliminar material contendo abuso sexual infantil da internet
Speaker:
Julie Cordua
Description:

A empresária social Julie Cordua trabalha em um problema nada fácil de ser abordado: o abuso sexual de crianças em imagens e vídeos na internet. Na Thorn, ela está desenvolvendo tecnologia para conectar os pontos entre a indústria de tecnologia, as autoridades policiais e o governo para que possamos impedir rapidamente a distribuição viral de material contendo abuso e resgatar crianças mais prontamente. Saiba mais sobre como essa solução escalável pode ajudar a desmantelar as comunidades que hoje normalizam o abuso sexual infantil em todo o mundo. (Esse plano ambicioso faz parte do Audacious Project, a iniciativa do TED para inspirar e financiar mudanças globais.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Portuguese, Brazilian subtitles

Revisions Compare revisions