1 00:00:00,591 --> 00:00:03,139 [Esta palestra contém conteúdo para adultos] 2 00:00:05,741 --> 00:00:07,361 Há cinco anos, 3 00:00:07,385 --> 00:00:10,715 recebi uma chamada que ia alterar a minha vida. 4 00:00:11,795 --> 00:00:14,865 Lembro-me desse dia como se fosse hoje. 5 00:00:15,245 --> 00:00:17,146 Foi mais ou menos nesta atura do ano. 6 00:00:17,170 --> 00:00:19,571 Eu estava no meu escritório. 7 00:00:19,692 --> 00:00:23,029 Recordo que o sol brilhava através da janela. 8 00:00:23,592 --> 00:00:25,279 O telefone tocou. 9 00:00:25,565 --> 00:00:27,052 Atendi 10 00:00:27,594 --> 00:00:31,572 e eram dois agentes federais a pedir-me ajuda 11 00:00:31,596 --> 00:00:33,992 para identificarem uma rapariguinha 12 00:00:34,326 --> 00:00:38,050 encontrada em centenas de imagens de abuso sexual de menores 13 00:00:38,050 --> 00:00:40,369 que tinham encontrado na Internet. 14 00:00:41,145 --> 00:00:43,721 Tinham começado a trabalhar nesse caso 15 00:00:43,745 --> 00:00:46,285 mas só sabiam 16 00:00:46,639 --> 00:00:51,462 que o abuso tinha sido transmitido ao mundo, durante anos, 17 00:00:51,506 --> 00:00:56,635 em sítios da "darknet" dedicados ao abuso sexual de menores. 18 00:00:57,605 --> 00:01:01,990 O agressor era extremamente sofisticado tecnologicamente: 19 00:01:02,014 --> 00:01:06,252 novas imagens e novos vídeos quase todas as semanas 20 00:01:06,626 --> 00:01:10,675 mas muito poucas pistas para se saber quem ela era 21 00:01:10,699 --> 00:01:12,467 ou onde se encontrava. 22 00:01:13,324 --> 00:01:14,710 Por isso, contactaram-nos 23 00:01:14,734 --> 00:01:17,804 porque sabiam que éramos uma organização sem fins lucrativos, 24 00:01:17,828 --> 00:01:21,090 que criávamos tecnologia para combater o abuso sexual de menores. 25 00:01:21,596 --> 00:01:23,883 Mas só existíamos há dois anos 26 00:01:23,907 --> 00:01:27,511 e só tínhamos trabalhado com tráfico sexual de menores. 27 00:01:28,121 --> 00:01:31,407 Tive de lhes dizer que não tínhamos nada. 28 00:01:32,280 --> 00:01:36,235 Não tínhamos nada que pudesse ajudá-los a pôr fim àquele abuso. 29 00:01:37,383 --> 00:01:40,837 Aqueles agentes demoraram mais um ano 30 00:01:40,861 --> 00:01:43,963 até conseguirem encontrar aquela criança. 31 00:01:44,853 --> 00:01:47,128 Na altura em que ela foi resgatada, 32 00:01:47,152 --> 00:01:49,678 centenas de imagens e de vídeos 33 00:01:49,741 --> 00:01:53,464 exibindo a violação dela tinham-se tornado virais, 34 00:01:53,644 --> 00:01:55,425 passando da "dark web" 35 00:01:55,449 --> 00:01:58,396 para redes de cúmplices, salas de conversa privadas 36 00:01:58,420 --> 00:02:01,640 e para "websites" que todos usamos 37 00:02:01,664 --> 00:02:03,856 todos os dias. 38 00:02:05,276 --> 00:02:09,031 Hoje, enquanto se debate para recuperar, 39 00:02:09,055 --> 00:02:13,194 ela vive sabendo que milhares de pessoas, no mundo inteiro, 40 00:02:13,218 --> 00:02:16,306 continuam a assistir à sua violação. 41 00:02:17,994 --> 00:02:20,422 Vim a saber, nos últimos cinco anos, 42 00:02:20,446 --> 00:02:23,223 que este caso está longe de ser único. 43 00:02:24,119 --> 00:02:28,134 Como é que a nossa sociedade chegou a este ponto? 44 00:02:29,490 --> 00:02:33,249 No final dos anos 80, a pornografia infantil 45 00:02:33,273 --> 00:02:38,266 — ou, o que é realmente material de abuso sexual de menores — 46 00:02:38,550 --> 00:02:40,633 foi quase eliminada. 47 00:02:41,209 --> 00:02:45,713 Novas leis e o aumento de processos tornaram-na demasiado arriscada 48 00:02:45,737 --> 00:02:48,044 para ser divulgada por correio. 49 00:02:48,233 --> 00:02:52,378 Depois, apareceu a Internet e o mercado explodiu. 50 00:02:53,310 --> 00:02:56,666 A quantidade de conteúdos que circulam atualmente 51 00:02:56,690 --> 00:02:59,756 é enorme e está a aumentar. 52 00:03:00,421 --> 00:03:03,665 É, de facto, um problema mundial 53 00:03:03,689 --> 00:03:05,522 mas se olharmos só para os EUA, 54 00:03:05,546 --> 00:03:08,257 nos EUA, apenas no ano passado, 55 00:03:08,281 --> 00:03:13,555 mais de 45 milhões de imagens e vídeos de materiais de abuso sexual de menores 56 00:03:13,579 --> 00:03:17,257 foram denunciados ao Centro Nacional de Crianças Desaparecidas e Exploradas 57 00:03:17,281 --> 00:03:21,662 e isso é quase o dobro do número do ano anterior. 58 00:03:22,797 --> 00:03:27,363 Os pormenores por detrás destes números são difíceis de contemplar. 59 00:03:27,937 --> 00:03:33,177 Mais de 60% das imagens apresentam crianças com menos de 12 anos, 60 00:03:33,681 --> 00:03:38,183 a maioria das quais incluindo atos extremos de violência sexual. 61 00:03:38,940 --> 00:03:40,834 Os agressores são encorajados 62 00:03:40,854 --> 00:03:44,174 nas salas de conversa dedicados ao abuso das crianças, 63 00:03:44,261 --> 00:03:46,657 onde ganham estatuto e notoriedade 64 00:03:46,681 --> 00:03:49,721 com mais abusos e mais vítimas. 65 00:03:50,243 --> 00:03:52,758 Neste mercado, 66 00:03:52,862 --> 00:03:56,820 a moeda é o próprio conteúdo. 67 00:03:58,023 --> 00:04:01,829 É óbvio que os agressores rapidamente tiraram partido das tecnologias. 68 00:04:01,853 --> 00:04:05,228 mas a nossa reação, enquanto sociedade, não fez o mesmo. 69 00:04:05,671 --> 00:04:09,842 Estes abusadores não leem os acordos dos utilizadores dos "websites" 70 00:04:09,866 --> 00:04:13,668 e os conteúdos não respeitam as fronteiras geográficas. 71 00:04:15,216 --> 00:04:20,249 Ficam a ganhar quando observamos uma peça do "puzzle" de cada vez. 72 00:04:20,793 --> 00:04:24,540 É exatamente assim que a nossa resposta está hoje concebida. 73 00:04:24,834 --> 00:04:28,321 As forças de aplicação da lei trabalham dentro de cada jurisdição. 74 00:04:28,345 --> 00:04:31,759 As empresas só olham para a sua plataforma. 75 00:04:31,783 --> 00:04:34,487 Quaisquer dados que encontrem pelo caminho 76 00:04:34,511 --> 00:04:36,831 raramente são partilhados. 77 00:04:37,402 --> 00:04:43,003 É nítido que esta abordagem desligada não funciona. 78 00:04:43,643 --> 00:04:47,753 Temos de refazer a nossa resposta a esta epidemia 79 00:04:47,777 --> 00:04:49,431 da era digital. 80 00:04:49,702 --> 00:04:52,962 É isso que estamos a fazer em Thorn. 81 00:04:53,311 --> 00:04:56,928 Estamos a criar a tecnologia para ligar estes pontos, 82 00:04:56,952 --> 00:04:59,274 para dotar todos os da primeira linha 83 00:04:59,298 --> 00:05:02,122 — forças da lei, ONG e empresas — 84 00:05:02,146 --> 00:05:05,875 com as ferramentas de que precisam para conseguirmos eliminar da Internet 85 00:05:05,889 --> 00:05:08,597 os materiais de abuso sexual de menores. 86 00:05:09,571 --> 00:05:10,842 Vejamos por momentos... 87 00:05:10,866 --> 00:05:12,385 (Aplausos) 88 00:05:12,409 --> 00:05:13,713 Obrigada. 89 00:05:13,737 --> 00:05:16,077 (Aplausos) 90 00:05:17,800 --> 00:05:20,513 Falemos, por instantes, do que são esses pontos. 91 00:05:21,323 --> 00:05:24,534 Como podem imaginar, estes conteúdos são terríveis. 92 00:05:24,618 --> 00:05:28,266 Se não formos obrigados a vê-los, não queremos vê-los. 93 00:05:28,530 --> 00:05:33,399 Assim, a maioria das empresas ou as agências de aplicação da lei 94 00:05:33,423 --> 00:05:35,146 que têm acesso a estes conteúdos 95 00:05:35,210 --> 00:05:38,562 podem traduzir todos os ficheiros numa única fiada de números. 96 00:05:38,586 --> 00:05:40,160 Chama-se a isso um "hash". 97 00:05:40,204 --> 00:05:42,317 É essencialmente, uma impressão digital 98 00:05:42,365 --> 00:05:44,673 para cada ficheiro ou para cada vídeo. 99 00:05:44,733 --> 00:05:49,286 Isso permite-lhes utilizar as informações nas investigações 100 00:05:49,310 --> 00:05:52,337 ou, no caso duma empresa, retirar o conteúdo da sua plataforma, 101 00:05:52,361 --> 00:05:57,395 sem ter de estar sempre a ver as imagens e os vídeos. 102 00:05:58,196 --> 00:06:00,347 Mas o problema, atualmente, 103 00:06:00,371 --> 00:06:04,122 é que há centenas de milhões desses "hashes" 104 00:06:04,146 --> 00:06:07,756 armazenados em bases de dados pelo mundo inteiro. 105 00:06:08,214 --> 00:06:09,385 Essas bases de dados 106 00:06:09,419 --> 00:06:12,465 podem funcionar para uma agência que tenha controlo sobre elas 107 00:06:12,489 --> 00:06:16,619 mas, sem se relacionarem esses dados, não sabemos quantos deles são únicos. 108 00:06:16,643 --> 00:06:20,101 Não sabemos quais representam crianças que já foram resgatadas 109 00:06:20,101 --> 00:06:22,876 ou quais as que ainda precisam de ser identificadas. 110 00:06:23,096 --> 00:06:25,586 Portanto, a nossa premissa de base 111 00:06:25,586 --> 00:06:29,545 é que todos esses dados têm de ser interligados. 112 00:06:30,318 --> 00:06:33,426 Há duas formas em que estes dados, 113 00:06:33,481 --> 00:06:36,441 combinados com um "software" à escala global, 114 00:06:36,551 --> 00:06:39,919 podem ter um impacto transformador neste espaço, 115 00:06:40,464 --> 00:06:43,186 A primeira é para a polícia, 116 00:06:43,210 --> 00:06:46,741 ajudando-os a identificar novas vítimas mais rapidamente, 117 00:06:46,765 --> 00:06:48,181 acabando com o abuso 118 00:06:48,205 --> 00:06:51,264 e bloqueando os criadores desses conteúdos. 119 00:06:51,441 --> 00:06:54,107 A segunda é para as empresas: 120 00:06:54,131 --> 00:06:57,672 usando esses dados como pistas para identificar os milhões de ficheiros 121 00:06:57,716 --> 00:06:59,510 que estão atualmente em circulação, 122 00:06:59,524 --> 00:07:00,881 retirando-os 123 00:07:00,905 --> 00:07:07,124 e impedindo o "upload" de novos materiais antes de eles se tornarem virais. 124 00:07:09,694 --> 00:07:11,340 Há quatro anos, 125 00:07:11,374 --> 00:07:13,303 quando aquele caso terminou, 126 00:07:14,300 --> 00:07:18,039 a nossa equipa reuniu-se e sentimos... 127 00:07:19,635 --> 00:07:23,153 uma profunda sensação de fracasso — é a única forma de o descrever — 128 00:07:23,187 --> 00:07:26,648 porque andámos a ver aquilo durante um ano 129 00:07:26,672 --> 00:07:28,302 enquanto andavam à procura dela. 130 00:07:28,336 --> 00:07:31,983 Vimos todos os locais na investigação 131 00:07:32,007 --> 00:07:34,395 em que, se existisse a tecnologia, 132 00:07:34,419 --> 00:07:37,043 eles tê-la-iam encontrado mais depressa. 133 00:07:37,684 --> 00:07:39,620 Assim, afastámo-nos daquilo 134 00:07:39,644 --> 00:07:42,599 e fizemos a única coisa que sabíamos fazer: 135 00:07:42,623 --> 00:07:45,427 começámos a criar um "software". 136 00:07:45,689 --> 00:07:47,941 Começámos com as forças da lei 137 00:07:47,965 --> 00:07:51,390 Sonhávamos com um alarme nas secretárias dos agentes policiais 138 00:07:51,430 --> 00:07:52,620 do mundo inteiro 139 00:07:52,620 --> 00:07:56,954 para que, se alguém ousasse publicar na Internet uma nova vítima, 140 00:07:56,978 --> 00:08:00,327 alguém começasse imediatamente a procurá-la. 141 00:08:01,324 --> 00:08:04,281 Obviamente, não posso falar dos pormenores desse "software" 142 00:08:04,305 --> 00:08:06,914 mas já está a funcionar em 38 países 143 00:08:06,938 --> 00:08:09,912 e já reduziu o tempo que demora a encontrar uma criança 144 00:08:09,936 --> 00:08:12,176 em mais de 65%. 145 00:08:12,290 --> 00:08:15,410 (Aplausos) 146 00:08:21,442 --> 00:08:24,137 Agora estamos a entrar num segundo horizonte: 147 00:08:24,481 --> 00:08:27,067 a criar um "software" para ajudar as empresas 148 00:08:27,129 --> 00:08:30,499 a identificar e suprimir esses conteúdos. 149 00:08:31,193 --> 00:08:33,858 Falemos por instantes destas empresas. 150 00:08:34,270 --> 00:08:39,502 Eu já disse — 45 milhões de imagens e vídeos, só nos EUA, no ano passado. 151 00:08:40,280 --> 00:08:44,007 Provêm apenas de 12 empresas. 152 00:08:45,883 --> 00:08:52,111 Doze empresas, 45 milhões de ficheiros de materiais de abuso sexual de menores. 153 00:08:52,335 --> 00:08:55,135 Provêm de empresas que têm dinheiro 154 00:08:55,159 --> 00:08:59,216 para criar as infraestruturas necessárias para acabar com esses conteúdos. 155 00:08:59,740 --> 00:09:02,151 Mas também há centenas de outras empresas 156 00:09:02,175 --> 00:09:04,841 empresas pequenas e médias pelo mundo inteiro 157 00:09:04,865 --> 00:09:06,919 que precisam de fazer esse trabalho, 158 00:09:06,943 --> 00:09:12,368 mas ou 1) não imaginam que a sua plataforma é usada para abusos, 159 00:09:12,392 --> 00:09:18,409 ou 2) não têm dinheiro para gastar numa coisa que não lhes traz lucros. 160 00:09:18,932 --> 00:09:22,141 Assim, tomámos a iniciativa de criar um "software" para elas. 161 00:09:22,245 --> 00:09:27,214 Este sistema agora está mais inteligente com mais empresas a participar. 162 00:09:27,965 --> 00:09:29,868 Vou dar-vos um exemplo. 163 00:09:30,459 --> 00:09:33,762 O nosso primeiro parceiro, Imgur 164 00:09:33,821 --> 00:09:37,093 — um dos "websites" mais visitados nos EUA — 165 00:09:37,527 --> 00:09:42,535 milhões de conteúdos criados pelos utilizadores, todos os dias, 166 00:09:42,559 --> 00:09:45,755 com o intuito de tornar a Internet um sítio mais divertido. 167 00:09:45,882 --> 00:09:48,084 Foram os primeiros a fazer parceria connosco. 168 00:09:48,138 --> 00:09:51,231 Ao fim de 20 minutos de utilizarem o nosso sistema, 169 00:09:51,255 --> 00:09:54,827 alguém tentou publicar uma conhecida peça de material abusivo. 170 00:09:54,851 --> 00:09:57,099 Conseguiram detê-lo, suprimiram-no, 171 00:09:57,143 --> 00:10:00,579 denunciaram-no ao Centro Nacional de Crianças Desaparecidas e Exploradas. 172 00:10:00,603 --> 00:10:02,491 Mas foram mais longe. 173 00:10:02,535 --> 00:10:06,636 Inspecionaram a conta da pessoa que o tinha publicado. 174 00:10:07,086 --> 00:10:11,797 Centenas de outras peças de materiais de abuso sexual de crianças 175 00:10:11,821 --> 00:10:13,978 que nunca tínhamos visto. 176 00:10:14,272 --> 00:10:17,684 Foi aí que começámos a ver um impacto exponencial. 177 00:10:17,708 --> 00:10:19,586 Retirámos esses materiais. 178 00:10:19,620 --> 00:10:23,050 Denunciámos ao Centro Nacional de Crianças Desaparecidas e Exploradas. 179 00:10:23,074 --> 00:10:25,585 e depois, esses "hashes" entram no sistema 180 00:10:25,609 --> 00:10:28,057 e beneficiam todas as outras empresas. 181 00:10:28,097 --> 00:10:32,881 Quando os milhões de "hashes" que temos levem a mais milhões e, em tempo real, 182 00:10:32,905 --> 00:10:37,443 as empresas do mundo inteiro identifiquem e retirem esses conteúdos, 183 00:10:37,467 --> 00:10:42,028 teremos aumentado drasticamente a rapidez com que estamos a remover 184 00:10:42,052 --> 00:10:46,156 materiais de abuso sexual de menores da Internet de todo o mundo. 185 00:10:46,600 --> 00:10:49,732 (Aplausos) 186 00:10:54,208 --> 00:10:57,428 Mas é por isso que não podemos ficar apenas com "software" e dados, 187 00:10:57,452 --> 00:10:59,224 tem de ser uma questão de escala. 188 00:10:59,248 --> 00:11:02,761 Temos de ativar milhares de agentes policiais, 189 00:11:02,785 --> 00:11:05,162 centenas de empresas por todo o mundo, 190 00:11:05,186 --> 00:11:08,794 se a tecnologia nos permitir, para nos adiantarmos aos perpetradores 191 00:11:08,818 --> 00:11:12,943 e desmantelarmos as redes que normalizam o abuso sexual de menores, 192 00:11:13,117 --> 00:11:14,801 atualmente, no mundo inteiro. 193 00:11:15,064 --> 00:11:17,914 A altura para fazer isso é agora. 194 00:11:18,428 --> 00:11:20,408 Não podemos continuar a dizer 195 00:11:20,472 --> 00:11:23,988 que não sabemos o impacto que isto tem nas crianças. 196 00:11:24,688 --> 00:11:28,896 A primeira geração de crianças cujo abuso se tornou viral 197 00:11:29,060 --> 00:11:31,388 já é hoje uma geração de jovens adultos. 198 00:11:31,451 --> 00:11:34,036 O Centro Canadiano para Proteção de Crianças 199 00:11:34,060 --> 00:11:36,756 fez recentemente um estudo desses jovens adultos 200 00:11:36,780 --> 00:11:41,416 para perceber o trauma único de que tentam recuperar, 201 00:11:41,440 --> 00:11:44,593 sabendo que o abuso deles continua vivo. 202 00:11:45,213 --> 00:11:49,989 80% destes jovens adultos já pensaram em suicídio. 203 00:11:50,566 --> 00:11:54,628 Mais de 60% tentaram suicidar-se. 204 00:11:55,572 --> 00:12:00,079 E a maioria deles vive com o medo, todos os dias, 205 00:12:00,813 --> 00:12:05,226 de que, quando vão pela rua, ou são entrevistados para um emprego 206 00:12:05,300 --> 00:12:07,590 ou vão para a escola, 207 00:12:07,614 --> 00:12:10,039 ou encontrem alguém na Internet, 208 00:12:10,063 --> 00:12:13,775 encontrem uma pessoa que tenha visto esse abuso. 209 00:12:14,547 --> 00:12:19,272 Na realidade, isso acontece a mais de 30% deles. 210 00:12:20,256 --> 00:12:24,842 São reconhecidos a partir do material de abuso na Internet. 211 00:12:26,022 --> 00:12:29,018 Isto não vai ser fácil 212 00:12:29,322 --> 00:12:31,935 mas não é impossível. 213 00:12:32,189 --> 00:12:34,865 É preciso ter vontade, 214 00:12:34,889 --> 00:12:36,478 a vontade da nossa sociedade 215 00:12:36,502 --> 00:12:40,056 para olhar para uma coisa que é difícil de ver, 216 00:12:40,080 --> 00:12:42,423 para tirar uma coisa das trevas 217 00:12:42,447 --> 00:12:44,773 para que estes miúdos tenham uma voz; 218 00:12:46,110 --> 00:12:51,056 a vontade das empresas de agir e de assegurar que as suas plataformas 219 00:12:51,080 --> 00:12:54,572 não são cúmplices no abuso duma criança; 220 00:12:55,205 --> 00:12:59,156 a vontade dos governos de investir nas forças da aplicação da lei 221 00:12:59,180 --> 00:13:03,574 para terem as ferramentas de que precisam para investigar o crime digital, 222 00:13:04,298 --> 00:13:08,381 mesmo quando as vítimas não podem falar por si mesmas. 223 00:13:09,746 --> 00:13:13,444 Este compromisso audacioso faz parte dessa vontade. 224 00:13:14,269 --> 00:13:19,676 É uma declaração de guerra contra um dos piores males da humanidade. 225 00:13:20,263 --> 00:13:22,203 Mas eu acredito plenamente 226 00:13:22,227 --> 00:13:25,676 que é um investimento num futuro 227 00:13:25,700 --> 00:13:28,923 em que todas as crianças possam ser apenas uma criança. 228 00:13:29,357 --> 00:13:30,551 Obrigada. 229 00:13:30,896 --> 00:13:34,690 (Aplausos)