Return to Video

Como podemos eliminar os materiais de abuso sexual de menores na Internet

  • 0:01 - 0:03
    [Esta palestra contém
    conteúdo para adultos]
  • 0:06 - 0:07
    Há cinco anos,
  • 0:07 - 0:11
    recebi uma chamada
    que ia alterar a minha vida.
  • 0:12 - 0:15
    Lembro-me desse dia
    como se fosse hoje.
  • 0:15 - 0:17
    Foi mais ou menos
    nesta atura do ano.
  • 0:17 - 0:20
    Eu estava no meu escritório.
  • 0:20 - 0:23
    Recordo que o sol
    brilhava através da janela.
  • 0:24 - 0:25
    O telefone tocou.
  • 0:26 - 0:27
    Atendi
  • 0:28 - 0:32
    e eram dois agentes federais
    a pedir-me ajuda
  • 0:32 - 0:34
    para identificarem uma rapariguinha
  • 0:34 - 0:38
    encontrada em centenas de imagens
    de abuso sexual de menores
  • 0:38 - 0:40
    que tinham encontrado na Internet.
  • 0:41 - 0:44
    Tinham começado a trabalhar nesse caso
  • 0:44 - 0:46
    mas só sabiam
  • 0:47 - 0:51
    que o abuso tinha sido transmitido
    ao mundo, durante anos,
  • 0:52 - 0:57
    em sítios da "darknet" dedicados
    ao abuso sexual de menores.
  • 0:58 - 1:02
    O agressor era extremamente
    sofisticado tecnologicamente:
  • 1:02 - 1:06
    novas imagens e novos vídeos
    quase todas as semanas
  • 1:07 - 1:11
    mas muito poucas pistas
    para se saber quem ela era
  • 1:11 - 1:12
    ou onde se encontrava.
  • 1:13 - 1:15
    Por isso, contactaram-nos
  • 1:15 - 1:18
    porque sabiam que éramos
    uma organização sem fins lucrativos,
  • 1:18 - 1:21
    que criávamos tecnologia para combater
    o abuso sexual de menores.
  • 1:22 - 1:24
    Mas só existíamos há dois anos
  • 1:24 - 1:28
    e só tínhamos trabalhado
    com tráfico sexual de menores.
  • 1:28 - 1:31
    Tive de lhes dizer
    que não tínhamos nada.
  • 1:32 - 1:36
    Não tínhamos nada que pudesse
    ajudá-los a pôr fim àquele abuso.
  • 1:37 - 1:41
    Aqueles agentes demoraram mais um ano
  • 1:41 - 1:44
    até conseguirem encontrar
    aquela criança.
  • 1:45 - 1:47
    Na altura em que ela foi resgatada,
  • 1:47 - 1:50
    centenas de imagens e de vídeos
  • 1:50 - 1:53
    exibindo a violação dela
    tinham-se tornado virais,
  • 1:54 - 1:55
    passando da "dark web"
  • 1:55 - 1:58
    para redes de cúmplices,
    salas de conversa privadas
  • 1:58 - 2:02
    e para "websites" que todos usamos
  • 2:02 - 2:04
    todos os dias.
  • 2:05 - 2:09
    Hoje, enquanto se debate
    para recuperar,
  • 2:09 - 2:13
    ela vive sabendo que milhares
    de pessoas, no mundo inteiro,
  • 2:13 - 2:16
    continuam a assistir à sua violação.
  • 2:18 - 2:20
    Vim a saber, nos últimos cinco anos,
  • 2:20 - 2:23
    que este caso está longe de ser único.
  • 2:24 - 2:28
    Como é que a nossa sociedade
    chegou a este ponto?
  • 2:29 - 2:33
    No final dos anos 80,
    a pornografia infantil
  • 2:33 - 2:38
    — ou, o que é realmente
    material de abuso sexual de menores —
  • 2:39 - 2:41
    foi quase eliminada.
  • 2:41 - 2:46
    Novas leis e o aumento de processos
    tornaram-na demasiado arriscada
  • 2:46 - 2:48
    para ser divulgada por correio.
  • 2:48 - 2:52
    Depois, apareceu a Internet
    e o mercado explodiu.
  • 2:53 - 2:57
    A quantidade de conteúdos
    que circulam atualmente
  • 2:57 - 3:00
    é enorme e está a aumentar.
  • 3:00 - 3:04
    É, de facto, um problema mundial
  • 3:04 - 3:06
    mas se olharmos só para os EUA,
  • 3:06 - 3:08
    nos EUA, apenas no ano passado,
  • 3:08 - 3:14
    mais de 45 milhões de imagens e vídeos
    de materiais de abuso sexual de menores
  • 3:14 - 3:17
    foram denunciados ao Centro Nacional
    de Crianças Desaparecidas e Exploradas
  • 3:17 - 3:22
    e isso é quase o dobro
    do número do ano anterior.
  • 3:23 - 3:27
    Os pormenores por detrás destes números
    são difíceis de contemplar.
  • 3:28 - 3:33
    Mais de 60% das imagens apresentam
    crianças com menos de 12 anos,
  • 3:34 - 3:38
    a maioria das quais incluindo
    atos extremos de violência sexual.
  • 3:39 - 3:41
    Os agressores são encorajados
  • 3:41 - 3:44
    nas salas de conversa
    dedicados ao abuso das crianças,
  • 3:44 - 3:47
    onde ganham estatuto e notoriedade
  • 3:47 - 3:50
    com mais abusos e mais vítimas.
  • 3:50 - 3:53
    Neste mercado,
  • 3:53 - 3:57
    a moeda é o próprio conteúdo.
  • 3:58 - 4:02
    É óbvio que os agressores rapidamente
    tiraram partido das tecnologias.
  • 4:02 - 4:05
    mas a nossa reação,
    enquanto sociedade, não fez o mesmo.
  • 4:06 - 4:10
    Estes abusadores não leem
    os acordos dos utilizadores dos "websites"
  • 4:10 - 4:14
    e os conteúdos não respeitam
    as fronteiras geográficas.
  • 4:15 - 4:20
    Ficam a ganhar quando observamos
    uma peça do "puzzle" de cada vez.
  • 4:21 - 4:25
    É exatamente assim que
    a nossa resposta está hoje concebida.
  • 4:25 - 4:28
    As forças de aplicação da lei
    trabalham dentro de cada jurisdição.
  • 4:28 - 4:32
    As empresas só olham
    para a sua plataforma.
  • 4:32 - 4:34
    Quaisquer dados
    que encontrem pelo caminho
  • 4:35 - 4:37
    raramente são partilhados.
  • 4:37 - 4:43
    É nítido que esta abordagem
    desligada não funciona.
  • 4:44 - 4:48
    Temos de refazer a nossa resposta
    a esta epidemia
  • 4:48 - 4:49
    da era digital.
  • 4:50 - 4:53
    É isso que estamos a fazer em Thorn.
  • 4:53 - 4:57
    Estamos a criar a tecnologia
    para ligar estes pontos,
  • 4:57 - 4:59
    para dotar todos os da primeira linha
  • 4:59 - 5:02
    — forças da lei, ONG e empresas —
  • 5:02 - 5:06
    com as ferramentas de que precisam
    para conseguirmos eliminar da Internet
  • 5:06 - 5:09
    os materiais de abuso sexual de menores.
  • 5:10 - 5:11
    Vejamos por momentos...
  • 5:11 - 5:12
    (Aplausos)
  • 5:12 - 5:14
    Obrigada.
  • 5:14 - 5:16
    (Aplausos)
  • 5:18 - 5:21
    Falemos, por instantes,
    do que são esses pontos.
  • 5:21 - 5:25
    Como podem imaginar,
    estes conteúdos são terríveis.
  • 5:25 - 5:28
    Se não formos obrigados a vê-los,
    não queremos vê-los.
  • 5:29 - 5:33
    Assim, a maioria das empresas
    ou as agências de aplicação da lei
  • 5:33 - 5:35
    que têm acesso a estes conteúdos
  • 5:35 - 5:39
    podem traduzir todos os ficheiros
    numa única fiada de números.
  • 5:39 - 5:40
    Chama-se a isso um "hash".
  • 5:40 - 5:42
    É essencialmente, uma impressão digital
  • 5:42 - 5:45
    para cada ficheiro
    ou para cada vídeo.
  • 5:45 - 5:49
    Isso permite-lhes utilizar
    as informações nas investigações
  • 5:49 - 5:52
    ou, no caso duma empresa,
    retirar o conteúdo da sua plataforma,
  • 5:52 - 5:57
    sem ter de estar sempre a ver
    as imagens e os vídeos.
  • 5:58 - 6:00
    Mas o problema, atualmente,
  • 6:00 - 6:04
    é que há centenas de milhões
    desses "hashes"
  • 6:04 - 6:08
    armazenados em bases de dados
    pelo mundo inteiro.
  • 6:08 - 6:09
    Essas bases de dados
  • 6:09 - 6:12
    podem funcionar para uma agência
    que tenha controlo sobre elas
  • 6:12 - 6:17
    mas, sem se relacionarem esses dados,
    não sabemos quantos deles são únicos.
  • 6:17 - 6:20
    Não sabemos quais representam
    crianças que já foram resgatadas
  • 6:20 - 6:23
    ou quais as que ainda precisam
    de ser identificadas.
  • 6:23 - 6:26
    Portanto, a nossa premissa de base
  • 6:26 - 6:30
    é que todos esses dados
    têm de ser interligados.
  • 6:30 - 6:33
    Há duas formas em que estes dados,
  • 6:33 - 6:36
    combinados com um "software"
    à escala global,
  • 6:37 - 6:40
    podem ter um impacto
    transformador neste espaço,
  • 6:40 - 6:43
    A primeira é para a polícia,
  • 6:43 - 6:47
    ajudando-os a identificar
    novas vítimas mais rapidamente,
  • 6:47 - 6:48
    acabando com o abuso
  • 6:48 - 6:51
    e bloqueando os criadores
    desses conteúdos.
  • 6:51 - 6:54
    A segunda é para as empresas:
  • 6:54 - 6:58
    usando esses dados como pistas
    para identificar os milhões de ficheiros
  • 6:58 - 7:00
    que estão atualmente em circulação,
  • 7:00 - 7:01
    retirando-os
  • 7:01 - 7:07
    e impedindo o "upload" de novos materiais
    antes de eles se tornarem virais.
  • 7:10 - 7:11
    Há quatro anos,
  • 7:11 - 7:13
    quando aquele caso terminou,
  • 7:14 - 7:18
    a nossa equipa reuniu-se
    e sentimos...
  • 7:20 - 7:23
    uma profunda sensação de fracasso
    — é a única forma de o descrever —
  • 7:23 - 7:27
    porque andámos a ver
    aquilo durante um ano
  • 7:27 - 7:28
    enquanto andavam à procura dela.
  • 7:28 - 7:32
    Vimos todos os locais
    na investigação
  • 7:32 - 7:34
    em que, se existisse a tecnologia,
  • 7:34 - 7:37
    eles tê-la-iam encontrado
    mais depressa.
  • 7:38 - 7:40
    Assim, afastámo-nos daquilo
  • 7:40 - 7:43
    e fizemos a única coisa
    que sabíamos fazer:
  • 7:43 - 7:45
    começámos a criar um "software".
  • 7:46 - 7:48
    Começámos com as forças da lei
  • 7:48 - 7:51
    Sonhávamos com um alarme
    nas secretárias dos agentes policiais
  • 7:51 - 7:53
    do mundo inteiro
  • 7:53 - 7:57
    para que, se alguém ousasse
    publicar na Internet uma nova vítima,
  • 7:57 - 8:00
    alguém começasse imediatamente
    a procurá-la.
  • 8:01 - 8:04
    Obviamente, não posso falar
    dos pormenores desse "software"
  • 8:04 - 8:07
    mas já está a funcionar em 38 países
  • 8:07 - 8:10
    e já reduziu o tempo
    que demora a encontrar uma criança
  • 8:10 - 8:12
    em mais de 65%.
  • 8:12 - 8:15
    (Aplausos)
  • 8:21 - 8:24
    Agora estamos a entrar
    num segundo horizonte:
  • 8:24 - 8:27
    a criar um "software"
    para ajudar as empresas
  • 8:27 - 8:30
    a identificar e suprimir esses conteúdos.
  • 8:31 - 8:34
    Falemos por instantes
    destas empresas.
  • 8:34 - 8:40
    Eu já disse — 45 milhões de imagens
    e vídeos, só nos EUA, no ano passado.
  • 8:40 - 8:44
    Provêm apenas de 12 empresas.
  • 8:46 - 8:52
    Doze empresas, 45 milhões de ficheiros
    de materiais de abuso sexual de menores.
  • 8:52 - 8:55
    Provêm de empresas
    que têm dinheiro
  • 8:55 - 8:59
    para criar as infraestruturas necessárias
    para acabar com esses conteúdos.
  • 9:00 - 9:02
    Mas também há centenas
    de outras empresas
  • 9:02 - 9:05
    empresas pequenas e médias
    pelo mundo inteiro
  • 9:05 - 9:07
    que precisam de fazer esse trabalho,
  • 9:07 - 9:12
    mas ou 1) não imaginam que a sua
    plataforma é usada para abusos,
  • 9:12 - 9:18
    ou 2) não têm dinheiro para gastar
    numa coisa que não lhes traz lucros.
  • 9:19 - 9:22
    Assim, tomámos a iniciativa
    de criar um "software" para elas.
  • 9:22 - 9:27
    Este sistema agora está mais inteligente
    com mais empresas a participar.
  • 9:28 - 9:30
    Vou dar-vos um exemplo.
  • 9:30 - 9:34
    O nosso primeiro parceiro, Imgur
  • 9:34 - 9:37
    — um dos "websites"
    mais visitados nos EUA —
  • 9:38 - 9:43
    milhões de conteúdos criados
    pelos utilizadores, todos os dias,
  • 9:43 - 9:46
    com o intuito de tornar a Internet
    um sítio mais divertido.
  • 9:46 - 9:48
    Foram os primeiros
    a fazer parceria connosco.
  • 9:48 - 9:51
    Ao fim de 20 minutos
    de utilizarem o nosso sistema,
  • 9:51 - 9:55
    alguém tentou publicar
    uma conhecida peça de material abusivo.
  • 9:55 - 9:57
    Conseguiram detê-lo,
    suprimiram-no,
  • 9:57 - 10:01
    denunciaram-no ao Centro Nacional
    de Crianças Desaparecidas e Exploradas.
  • 10:01 - 10:02
    Mas foram mais longe.
  • 10:03 - 10:07
    Inspecionaram a conta da pessoa
    que o tinha publicado.
  • 10:07 - 10:12
    Centenas de outras peças
    de materiais de abuso sexual de crianças
  • 10:12 - 10:14
    que nunca tínhamos visto.
  • 10:14 - 10:18
    Foi aí que começámos a ver
    um impacto exponencial.
  • 10:18 - 10:20
    Retirámos esses materiais.
  • 10:20 - 10:23
    Denunciámos ao Centro Nacional
    de Crianças Desaparecidas e Exploradas.
  • 10:23 - 10:26
    e depois, esses "hashes" entram no sistema
  • 10:26 - 10:28
    e beneficiam todas as outras empresas.
  • 10:28 - 10:33
    Quando os milhões de "hashes" que temos
    levem a mais milhões e, em tempo real,
  • 10:33 - 10:37
    as empresas do mundo inteiro
    identifiquem e retirem esses conteúdos,
  • 10:37 - 10:42
    teremos aumentado drasticamente
    a rapidez com que estamos a remover
  • 10:42 - 10:46
    materiais de abuso sexual de menores
    da Internet de todo o mundo.
  • 10:47 - 10:50
    (Aplausos)
  • 10:54 - 10:57
    Mas é por isso que não podemos
    ficar apenas com "software" e dados,
  • 10:57 - 10:59
    tem de ser uma questão de escala.
  • 10:59 - 11:03
    Temos de ativar milhares
    de agentes policiais,
  • 11:03 - 11:05
    centenas de empresas por todo o mundo,
  • 11:05 - 11:09
    se a tecnologia nos permitir,
    para nos adiantarmos aos perpetradores
  • 11:09 - 11:13
    e desmantelarmos as redes
    que normalizam o abuso sexual de menores,
  • 11:13 - 11:15
    atualmente, no mundo inteiro.
  • 11:15 - 11:18
    A altura para fazer isso é agora.
  • 11:18 - 11:20
    Não podemos continuar a dizer
  • 11:20 - 11:24
    que não sabemos o impacto
    que isto tem nas crianças.
  • 11:25 - 11:29
    A primeira geração de crianças
    cujo abuso se tornou viral
  • 11:29 - 11:31
    já é hoje uma geração de jovens adultos.
  • 11:31 - 11:34
    O Centro Canadiano
    para Proteção de Crianças
  • 11:34 - 11:37
    fez recentemente um estudo
    desses jovens adultos
  • 11:37 - 11:41
    para perceber o trauma único
    de que tentam recuperar,
  • 11:41 - 11:45
    sabendo que o abuso deles
    continua vivo.
  • 11:45 - 11:50
    80% destes jovens adultos
    já pensaram em suicídio.
  • 11:51 - 11:55
    Mais de 60% tentaram suicidar-se.
  • 11:56 - 12:00
    E a maioria deles vive
    com o medo, todos os dias,
  • 12:01 - 12:05
    de que, quando vão pela rua,
    ou são entrevistados para um emprego
  • 12:05 - 12:08
    ou vão para a escola,
  • 12:08 - 12:10
    ou encontrem alguém na Internet,
  • 12:10 - 12:14
    encontrem uma pessoa que tenha
    visto esse abuso.
  • 12:15 - 12:19
    Na realidade, isso acontece
    a mais de 30% deles.
  • 12:20 - 12:25
    São reconhecidos a partir
    do material de abuso na Internet.
  • 12:26 - 12:29
    Isto não vai ser fácil
  • 12:29 - 12:32
    mas não é impossível.
  • 12:32 - 12:35
    É preciso ter vontade,
  • 12:35 - 12:36
    a vontade da nossa sociedade
  • 12:37 - 12:40
    para olhar para uma coisa
    que é difícil de ver,
  • 12:40 - 12:42
    para tirar uma coisa das trevas
  • 12:42 - 12:45
    para que estes miúdos tenham uma voz;
  • 12:46 - 12:51
    a vontade das empresas de agir
    e de assegurar que as suas plataformas
  • 12:51 - 12:55
    não são cúmplices no abuso duma criança;
  • 12:55 - 12:59
    a vontade dos governos de investir
    nas forças da aplicação da lei
  • 12:59 - 13:04
    para terem as ferramentas de que precisam
    para investigar o crime digital,
  • 13:04 - 13:08
    mesmo quando as vítimas
    não podem falar por si mesmas.
  • 13:10 - 13:13
    Este compromisso audacioso
    faz parte dessa vontade.
  • 13:14 - 13:20
    É uma declaração de guerra
    contra um dos piores males da humanidade.
  • 13:20 - 13:22
    Mas eu acredito plenamente
  • 13:22 - 13:26
    que é um investimento num futuro
  • 13:26 - 13:29
    em que todas as crianças
    possam ser apenas uma criança.
  • 13:29 - 13:31
    Obrigada.
  • 13:31 - 13:35
    (Aplausos)
Title:
Como podemos eliminar os materiais de abuso sexual de menores na Internet
Speaker:
Julie Cordua
Description:

Julie Cordua, empresária social, trabalha num problema de que não é fácil falar: o abuso sexual de menores em imagens e vídeos, na Internet. Em Thorn, está a criar tecnologia para interligar os pontos entre a indústria tecnológica, as forças de aplicação da lei e o governo — para poderem acabar rapidamente com a propagação viral desses materiais e resgatar crianças mais rapidamente. Saibam mais sobre como esta solução pode ajudar a desmantelar as comunidades que vulgarizam o abuso sexual de menores no mundo inteiro.
Este plano ambicioso faz parte do Audacious Project, uma iniciativa TED para inspirar e financiar uma mudança global.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Portuguese subtitles

Revisions