Como podemos eliminar os materiais de abuso sexual de menores na Internet
-
0:01 - 0:03[Esta palestra contém
conteúdo para adultos] -
0:06 - 0:07Há cinco anos,
-
0:07 - 0:11recebi uma chamada
que ia alterar a minha vida. -
0:12 - 0:15Lembro-me desse dia
como se fosse hoje. -
0:15 - 0:17Foi mais ou menos
nesta atura do ano. -
0:17 - 0:20Eu estava no meu escritório.
-
0:20 - 0:23Recordo que o sol
brilhava através da janela. -
0:24 - 0:25O telefone tocou.
-
0:26 - 0:27Atendi
-
0:28 - 0:32e eram dois agentes federais
a pedir-me ajuda -
0:32 - 0:34para identificarem uma rapariguinha
-
0:34 - 0:38encontrada em centenas de imagens
de abuso sexual de menores -
0:38 - 0:40que tinham encontrado na Internet.
-
0:41 - 0:44Tinham começado a trabalhar nesse caso
-
0:44 - 0:46mas só sabiam
-
0:47 - 0:51que o abuso tinha sido transmitido
ao mundo, durante anos, -
0:52 - 0:57em sítios da "darknet" dedicados
ao abuso sexual de menores. -
0:58 - 1:02O agressor era extremamente
sofisticado tecnologicamente: -
1:02 - 1:06novas imagens e novos vídeos
quase todas as semanas -
1:07 - 1:11mas muito poucas pistas
para se saber quem ela era -
1:11 - 1:12ou onde se encontrava.
-
1:13 - 1:15Por isso, contactaram-nos
-
1:15 - 1:18porque sabiam que éramos
uma organização sem fins lucrativos, -
1:18 - 1:21que criávamos tecnologia para combater
o abuso sexual de menores. -
1:22 - 1:24Mas só existíamos há dois anos
-
1:24 - 1:28e só tínhamos trabalhado
com tráfico sexual de menores. -
1:28 - 1:31Tive de lhes dizer
que não tínhamos nada. -
1:32 - 1:36Não tínhamos nada que pudesse
ajudá-los a pôr fim àquele abuso. -
1:37 - 1:41Aqueles agentes demoraram mais um ano
-
1:41 - 1:44até conseguirem encontrar
aquela criança. -
1:45 - 1:47Na altura em que ela foi resgatada,
-
1:47 - 1:50centenas de imagens e de vídeos
-
1:50 - 1:53exibindo a violação dela
tinham-se tornado virais, -
1:54 - 1:55passando da "dark web"
-
1:55 - 1:58para redes de cúmplices,
salas de conversa privadas -
1:58 - 2:02e para "websites" que todos usamos
-
2:02 - 2:04todos os dias.
-
2:05 - 2:09Hoje, enquanto se debate
para recuperar, -
2:09 - 2:13ela vive sabendo que milhares
de pessoas, no mundo inteiro, -
2:13 - 2:16continuam a assistir à sua violação.
-
2:18 - 2:20Vim a saber, nos últimos cinco anos,
-
2:20 - 2:23que este caso está longe de ser único.
-
2:24 - 2:28Como é que a nossa sociedade
chegou a este ponto? -
2:29 - 2:33No final dos anos 80,
a pornografia infantil -
2:33 - 2:38— ou, o que é realmente
material de abuso sexual de menores — -
2:39 - 2:41foi quase eliminada.
-
2:41 - 2:46Novas leis e o aumento de processos
tornaram-na demasiado arriscada -
2:46 - 2:48para ser divulgada por correio.
-
2:48 - 2:52Depois, apareceu a Internet
e o mercado explodiu. -
2:53 - 2:57A quantidade de conteúdos
que circulam atualmente -
2:57 - 3:00é enorme e está a aumentar.
-
3:00 - 3:04É, de facto, um problema mundial
-
3:04 - 3:06mas se olharmos só para os EUA,
-
3:06 - 3:08nos EUA, apenas no ano passado,
-
3:08 - 3:14mais de 45 milhões de imagens e vídeos
de materiais de abuso sexual de menores -
3:14 - 3:17foram denunciados ao Centro Nacional
de Crianças Desaparecidas e Exploradas -
3:17 - 3:22e isso é quase o dobro
do número do ano anterior. -
3:23 - 3:27Os pormenores por detrás destes números
são difíceis de contemplar. -
3:28 - 3:33Mais de 60% das imagens apresentam
crianças com menos de 12 anos, -
3:34 - 3:38a maioria das quais incluindo
atos extremos de violência sexual. -
3:39 - 3:41Os agressores são encorajados
-
3:41 - 3:44nas salas de conversa
dedicados ao abuso das crianças, -
3:44 - 3:47onde ganham estatuto e notoriedade
-
3:47 - 3:50com mais abusos e mais vítimas.
-
3:50 - 3:53Neste mercado,
-
3:53 - 3:57a moeda é o próprio conteúdo.
-
3:58 - 4:02É óbvio que os agressores rapidamente
tiraram partido das tecnologias. -
4:02 - 4:05mas a nossa reação,
enquanto sociedade, não fez o mesmo. -
4:06 - 4:10Estes abusadores não leem
os acordos dos utilizadores dos "websites" -
4:10 - 4:14e os conteúdos não respeitam
as fronteiras geográficas. -
4:15 - 4:20Ficam a ganhar quando observamos
uma peça do "puzzle" de cada vez. -
4:21 - 4:25É exatamente assim que
a nossa resposta está hoje concebida. -
4:25 - 4:28As forças de aplicação da lei
trabalham dentro de cada jurisdição. -
4:28 - 4:32As empresas só olham
para a sua plataforma. -
4:32 - 4:34Quaisquer dados
que encontrem pelo caminho -
4:35 - 4:37raramente são partilhados.
-
4:37 - 4:43É nítido que esta abordagem
desligada não funciona. -
4:44 - 4:48Temos de refazer a nossa resposta
a esta epidemia -
4:48 - 4:49da era digital.
-
4:50 - 4:53É isso que estamos a fazer em Thorn.
-
4:53 - 4:57Estamos a criar a tecnologia
para ligar estes pontos, -
4:57 - 4:59para dotar todos os da primeira linha
-
4:59 - 5:02— forças da lei, ONG e empresas —
-
5:02 - 5:06com as ferramentas de que precisam
para conseguirmos eliminar da Internet -
5:06 - 5:09os materiais de abuso sexual de menores.
-
5:10 - 5:11Vejamos por momentos...
-
5:11 - 5:12(Aplausos)
-
5:12 - 5:14Obrigada.
-
5:14 - 5:16(Aplausos)
-
5:18 - 5:21Falemos, por instantes,
do que são esses pontos. -
5:21 - 5:25Como podem imaginar,
estes conteúdos são terríveis. -
5:25 - 5:28Se não formos obrigados a vê-los,
não queremos vê-los. -
5:29 - 5:33Assim, a maioria das empresas
ou as agências de aplicação da lei -
5:33 - 5:35que têm acesso a estes conteúdos
-
5:35 - 5:39podem traduzir todos os ficheiros
numa única fiada de números. -
5:39 - 5:40Chama-se a isso um "hash".
-
5:40 - 5:42É essencialmente, uma impressão digital
-
5:42 - 5:45para cada ficheiro
ou para cada vídeo. -
5:45 - 5:49Isso permite-lhes utilizar
as informações nas investigações -
5:49 - 5:52ou, no caso duma empresa,
retirar o conteúdo da sua plataforma, -
5:52 - 5:57sem ter de estar sempre a ver
as imagens e os vídeos. -
5:58 - 6:00Mas o problema, atualmente,
-
6:00 - 6:04é que há centenas de milhões
desses "hashes" -
6:04 - 6:08armazenados em bases de dados
pelo mundo inteiro. -
6:08 - 6:09Essas bases de dados
-
6:09 - 6:12podem funcionar para uma agência
que tenha controlo sobre elas -
6:12 - 6:17mas, sem se relacionarem esses dados,
não sabemos quantos deles são únicos. -
6:17 - 6:20Não sabemos quais representam
crianças que já foram resgatadas -
6:20 - 6:23ou quais as que ainda precisam
de ser identificadas. -
6:23 - 6:26Portanto, a nossa premissa de base
-
6:26 - 6:30é que todos esses dados
têm de ser interligados. -
6:30 - 6:33Há duas formas em que estes dados,
-
6:33 - 6:36combinados com um "software"
à escala global, -
6:37 - 6:40podem ter um impacto
transformador neste espaço, -
6:40 - 6:43A primeira é para a polícia,
-
6:43 - 6:47ajudando-os a identificar
novas vítimas mais rapidamente, -
6:47 - 6:48acabando com o abuso
-
6:48 - 6:51e bloqueando os criadores
desses conteúdos. -
6:51 - 6:54A segunda é para as empresas:
-
6:54 - 6:58usando esses dados como pistas
para identificar os milhões de ficheiros -
6:58 - 7:00que estão atualmente em circulação,
-
7:00 - 7:01retirando-os
-
7:01 - 7:07e impedindo o "upload" de novos materiais
antes de eles se tornarem virais. -
7:10 - 7:11Há quatro anos,
-
7:11 - 7:13quando aquele caso terminou,
-
7:14 - 7:18a nossa equipa reuniu-se
e sentimos... -
7:20 - 7:23uma profunda sensação de fracasso
— é a única forma de o descrever — -
7:23 - 7:27porque andámos a ver
aquilo durante um ano -
7:27 - 7:28enquanto andavam à procura dela.
-
7:28 - 7:32Vimos todos os locais
na investigação -
7:32 - 7:34em que, se existisse a tecnologia,
-
7:34 - 7:37eles tê-la-iam encontrado
mais depressa. -
7:38 - 7:40Assim, afastámo-nos daquilo
-
7:40 - 7:43e fizemos a única coisa
que sabíamos fazer: -
7:43 - 7:45começámos a criar um "software".
-
7:46 - 7:48Começámos com as forças da lei
-
7:48 - 7:51Sonhávamos com um alarme
nas secretárias dos agentes policiais -
7:51 - 7:53do mundo inteiro
-
7:53 - 7:57para que, se alguém ousasse
publicar na Internet uma nova vítima, -
7:57 - 8:00alguém começasse imediatamente
a procurá-la. -
8:01 - 8:04Obviamente, não posso falar
dos pormenores desse "software" -
8:04 - 8:07mas já está a funcionar em 38 países
-
8:07 - 8:10e já reduziu o tempo
que demora a encontrar uma criança -
8:10 - 8:12em mais de 65%.
-
8:12 - 8:15(Aplausos)
-
8:21 - 8:24Agora estamos a entrar
num segundo horizonte: -
8:24 - 8:27a criar um "software"
para ajudar as empresas -
8:27 - 8:30a identificar e suprimir esses conteúdos.
-
8:31 - 8:34Falemos por instantes
destas empresas. -
8:34 - 8:40Eu já disse — 45 milhões de imagens
e vídeos, só nos EUA, no ano passado. -
8:40 - 8:44Provêm apenas de 12 empresas.
-
8:46 - 8:52Doze empresas, 45 milhões de ficheiros
de materiais de abuso sexual de menores. -
8:52 - 8:55Provêm de empresas
que têm dinheiro -
8:55 - 8:59para criar as infraestruturas necessárias
para acabar com esses conteúdos. -
9:00 - 9:02Mas também há centenas
de outras empresas -
9:02 - 9:05empresas pequenas e médias
pelo mundo inteiro -
9:05 - 9:07que precisam de fazer esse trabalho,
-
9:07 - 9:12mas ou 1) não imaginam que a sua
plataforma é usada para abusos, -
9:12 - 9:18ou 2) não têm dinheiro para gastar
numa coisa que não lhes traz lucros. -
9:19 - 9:22Assim, tomámos a iniciativa
de criar um "software" para elas. -
9:22 - 9:27Este sistema agora está mais inteligente
com mais empresas a participar. -
9:28 - 9:30Vou dar-vos um exemplo.
-
9:30 - 9:34O nosso primeiro parceiro, Imgur
-
9:34 - 9:37— um dos "websites"
mais visitados nos EUA — -
9:38 - 9:43milhões de conteúdos criados
pelos utilizadores, todos os dias, -
9:43 - 9:46com o intuito de tornar a Internet
um sítio mais divertido. -
9:46 - 9:48Foram os primeiros
a fazer parceria connosco. -
9:48 - 9:51Ao fim de 20 minutos
de utilizarem o nosso sistema, -
9:51 - 9:55alguém tentou publicar
uma conhecida peça de material abusivo. -
9:55 - 9:57Conseguiram detê-lo,
suprimiram-no, -
9:57 - 10:01denunciaram-no ao Centro Nacional
de Crianças Desaparecidas e Exploradas. -
10:01 - 10:02Mas foram mais longe.
-
10:03 - 10:07Inspecionaram a conta da pessoa
que o tinha publicado. -
10:07 - 10:12Centenas de outras peças
de materiais de abuso sexual de crianças -
10:12 - 10:14que nunca tínhamos visto.
-
10:14 - 10:18Foi aí que começámos a ver
um impacto exponencial. -
10:18 - 10:20Retirámos esses materiais.
-
10:20 - 10:23Denunciámos ao Centro Nacional
de Crianças Desaparecidas e Exploradas. -
10:23 - 10:26e depois, esses "hashes" entram no sistema
-
10:26 - 10:28e beneficiam todas as outras empresas.
-
10:28 - 10:33Quando os milhões de "hashes" que temos
levem a mais milhões e, em tempo real, -
10:33 - 10:37as empresas do mundo inteiro
identifiquem e retirem esses conteúdos, -
10:37 - 10:42teremos aumentado drasticamente
a rapidez com que estamos a remover -
10:42 - 10:46materiais de abuso sexual de menores
da Internet de todo o mundo. -
10:47 - 10:50(Aplausos)
-
10:54 - 10:57Mas é por isso que não podemos
ficar apenas com "software" e dados, -
10:57 - 10:59tem de ser uma questão de escala.
-
10:59 - 11:03Temos de ativar milhares
de agentes policiais, -
11:03 - 11:05centenas de empresas por todo o mundo,
-
11:05 - 11:09se a tecnologia nos permitir,
para nos adiantarmos aos perpetradores -
11:09 - 11:13e desmantelarmos as redes
que normalizam o abuso sexual de menores, -
11:13 - 11:15atualmente, no mundo inteiro.
-
11:15 - 11:18A altura para fazer isso é agora.
-
11:18 - 11:20Não podemos continuar a dizer
-
11:20 - 11:24que não sabemos o impacto
que isto tem nas crianças. -
11:25 - 11:29A primeira geração de crianças
cujo abuso se tornou viral -
11:29 - 11:31já é hoje uma geração de jovens adultos.
-
11:31 - 11:34O Centro Canadiano
para Proteção de Crianças -
11:34 - 11:37fez recentemente um estudo
desses jovens adultos -
11:37 - 11:41para perceber o trauma único
de que tentam recuperar, -
11:41 - 11:45sabendo que o abuso deles
continua vivo. -
11:45 - 11:5080% destes jovens adultos
já pensaram em suicídio. -
11:51 - 11:55Mais de 60% tentaram suicidar-se.
-
11:56 - 12:00E a maioria deles vive
com o medo, todos os dias, -
12:01 - 12:05de que, quando vão pela rua,
ou são entrevistados para um emprego -
12:05 - 12:08ou vão para a escola,
-
12:08 - 12:10ou encontrem alguém na Internet,
-
12:10 - 12:14encontrem uma pessoa que tenha
visto esse abuso. -
12:15 - 12:19Na realidade, isso acontece
a mais de 30% deles. -
12:20 - 12:25São reconhecidos a partir
do material de abuso na Internet. -
12:26 - 12:29Isto não vai ser fácil
-
12:29 - 12:32mas não é impossível.
-
12:32 - 12:35É preciso ter vontade,
-
12:35 - 12:36a vontade da nossa sociedade
-
12:37 - 12:40para olhar para uma coisa
que é difícil de ver, -
12:40 - 12:42para tirar uma coisa das trevas
-
12:42 - 12:45para que estes miúdos tenham uma voz;
-
12:46 - 12:51a vontade das empresas de agir
e de assegurar que as suas plataformas -
12:51 - 12:55não são cúmplices no abuso duma criança;
-
12:55 - 12:59a vontade dos governos de investir
nas forças da aplicação da lei -
12:59 - 13:04para terem as ferramentas de que precisam
para investigar o crime digital, -
13:04 - 13:08mesmo quando as vítimas
não podem falar por si mesmas. -
13:10 - 13:13Este compromisso audacioso
faz parte dessa vontade. -
13:14 - 13:20É uma declaração de guerra
contra um dos piores males da humanidade. -
13:20 - 13:22Mas eu acredito plenamente
-
13:22 - 13:26que é um investimento num futuro
-
13:26 - 13:29em que todas as crianças
possam ser apenas uma criança. -
13:29 - 13:31Obrigada.
-
13:31 - 13:35(Aplausos)
- Title:
- Como podemos eliminar os materiais de abuso sexual de menores na Internet
- Speaker:
- Julie Cordua
- Description:
-
Julie Cordua, empresária social, trabalha num problema de que não é fácil falar: o abuso sexual de menores em imagens e vídeos, na Internet. Em Thorn, está a criar tecnologia para interligar os pontos entre a indústria tecnológica, as forças de aplicação da lei e o governo — para poderem acabar rapidamente com a propagação viral desses materiais e resgatar crianças mais rapidamente. Saibam mais sobre como esta solução pode ajudar a desmantelar as comunidades que vulgarizam o abuso sexual de menores no mundo inteiro.
Este plano ambicioso faz parte do Audacious Project, uma iniciativa TED para inspirar e financiar uma mudança global. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Margarida Ferreira approved Portuguese subtitles for How we can eliminate child sexual abuse material from the internet | ||
Margarida Ferreira edited Portuguese subtitles for How we can eliminate child sexual abuse material from the internet | ||
Joana Rodrigues accepted Portuguese subtitles for How we can eliminate child sexual abuse material from the internet | ||
Joana Rodrigues edited Portuguese subtitles for How we can eliminate child sexual abuse material from the internet | ||
Margarida Ferreira edited Portuguese subtitles for How we can eliminate child sexual abuse material from the internet | ||
Margarida Ferreira edited Portuguese subtitles for How we can eliminate child sexual abuse material from the internet |