0:00:00.836,0:00:03.384 [Argomento adatto solo[br]a un pubblico adulto] 0:00:05.741,0:00:07.361 Cinque anni fa 0:00:07.385,0:00:10.639 ho ricevuto una telefonata[br]che mi avrebbe cambiato la vita. 0:00:11.795,0:00:14.461 Ricordo benissimo quel giorno. 0:00:15.245,0:00:17.146 Era circa questo periodo dell'anno, 0:00:17.146,0:00:19.128 ero seduta nel mio ufficio. 0:00:19.692,0:00:22.758 Ricordo il sole [br]che entrava dalla finestra, 0:00:23.592,0:00:25.192 quando mi suonò il telefono. 0:00:25.565,0:00:26.752 Risposi, 0:00:27.594,0:00:31.572 erano due agenti federali[br]che chiedevano il mio aiuto 0:00:31.596,0:00:34.302 per identificare una bambina 0:00:34.326,0:00:39.693 presente in centinaia di immagini[br]di abusi sessuali trovate online. 0:00:41.145,0:00:43.721 Avevano appena iniziato[br]a lavorare sul caso, 0:00:43.745,0:00:46.615 ma erano certi 0:00:46.639,0:00:51.462 che gli abusi su di lei erano[br]circolati per anni in tutto il mondo 0:00:51.486,0:00:56.635 suii siti del dark web dedicati[br]agli abusi sessuali sui bambini. 0:00:57.605,0:01:01.990 Il suo molestatore era incredibilmente[br]abile a livello tecnologico: 0:01:02.014,0:01:06.602 nuove immagini e video[br]quasi tutte le settimane, 0:01:06.626,0:01:10.675 ma pochissimi indizi su chi fosse lei 0:01:10.699,0:01:12.375 o dove si trovasse. 0:01:13.324,0:01:14.710 Ci chiamarono, 0:01:14.734,0:01:17.424 perché eravamo una nuova no-profit 0:01:17.448,0:01:20.906 che creava tecnologie per combattere[br]gli abusi sessuali sui minori. 0:01:21.596,0:01:23.883 Ma operavamo solo da due anni, 0:01:23.907,0:01:27.039 e solo sul traffico sessuale minorile. 0:01:27.944,0:01:30.067 Dovetti dir loro 0:01:30.091,0:01:31.288 che non avevamo niente. 0:01:32.280,0:01:36.235 Non avevamo nulla per aiutarli[br]a fermare quell'abuso. 0:01:37.263,0:01:40.837 Impiegarono un altro anno 0:01:40.861,0:01:43.862 per trovare finalmente quella bambina. 0:01:44.853,0:01:47.128 E fino al momento in cui fu salvata, 0:01:47.152,0:01:53.640 il suo stupro era diventato virale[br]in centinaia di immagini e di video, 0:01:53.664,0:01:55.355 dal dark web 0:01:55.379,0:01:58.396 a reti peer-to-peer, chat room private 0:01:58.420,0:02:01.640 e siti web che tutti noi usiamo 0:02:01.664,0:02:04.266 ogni giorno. 0:02:05.216,0:02:09.031 E oggi, mentre lei lotta per riprendersi, 0:02:09.055,0:02:13.194 convive con il fatto che migliaia[br]di persone nel mondo 0:02:13.218,0:02:16.306 continuano a guardare ciò che ha subito. 0:02:17.994,0:02:20.422 Negli ultimi cinque anni[br]ho scoperto che questo caso 0:02:20.446,0:02:22.963 è tutt'altro che unico nel suo genere. 0:02:24.119,0:02:27.962 Ma come ha fatto la nostra società[br]ad arrivare a questo? 0:02:29.490,0:02:33.249 Alla fine degli anni '80,[br]la pedopornografia, 0:02:33.273,0:02:38.526 ovvero il materiale contenente[br]abusi sessuali su minori, 0:02:38.550,0:02:40.401 era stata quasi eliminata. 0:02:41.209,0:02:45.713 Nuove leggi, aumento di procedimenti[br]giudiziari, resero troppo rischioso 0:02:45.737,0:02:47.309 lo smercio per corrispondenza. 0:02:48.233,0:02:52.378 Ma poi è arrivato internet,[br]e il mercato è esploso. 0:02:53.310,0:02:56.666 Oggi, la quantità di contenuti in circolo 0:02:56.690,0:02:59.534 è enorme e in crescita. 0:03:00.421,0:03:03.665 Il problema è veramente globale, 0:03:03.689,0:03:05.522 ma se guardiamo solo agli Stati Uniti: 0:03:05.546,0:03:08.257 l'anno scorso, solo negli Stati Uniti 0:03:08.281,0:03:13.555 più di 45 milioni di immagini[br]e di video pedopornografici 0:03:13.579,0:03:17.257 sono stati denunciati al Centro Nazionale[br]per bambini scomparsi e abusati, 0:03:17.281,0:03:21.662 ed è quasi il doppio dell'anno precedente. 0:03:22.627,0:03:27.913 I dettagli dietro questi numeri[br]sono duri da immaginare: 0:03:27.937,0:03:33.657 in più del 60% delle immagini[br]vi sono bambini al di sotto di 12 anni, 0:03:33.681,0:03:38.183 e la maggior parte include[br]atti di estrema violenza sessuale. 0:03:38.850,0:03:44.150 Gli autori di abusi sui bambini[br]sono acclamati nelle chat dedicate, 0:03:44.174,0:03:46.657 dove guadagnano prestigio e notorietà 0:03:46.681,0:03:49.587 con più abusi e più vittime. 0:03:50.243,0:03:52.838 In questo mercato 0:03:52.862,0:03:56.820 la moneta è diventata il contenuto stesso. 0:03:58.023,0:04:01.829 I molestatori sono stati rapidi[br]a sfruttare le nuove tecnologie, 0:04:01.853,0:04:04.868 ma non lo è stata la risposta[br]della nostra società. 0:04:05.671,0:04:09.842 Questi criminali non leggono[br]i termini di utilizzo dei siti web 0:04:09.866,0:04:13.668 e il contenuto non rispetta[br]nessun confine geografico. 0:04:14.656,0:04:20.769 Vincono quando guardiamo[br]un pezzo del puzzle alla volta, 0:04:20.793,0:04:24.810 che è esattamente[br]il nostro modo di operare oggi. 0:04:24.834,0:04:28.321 Le forze dell'ordine lavorano[br]in una sola giurisdizione. 0:04:28.345,0:04:31.759 Le aziende guardano [br]solo alla propria piattaforma. 0:04:31.783,0:04:34.487 E tutti i dati acquisiti lungo il percorso 0:04:34.511,0:04:36.513 raramente vengono condivisi. 0:04:37.402,0:04:43.003 È chiaro che questo approccio[br]dissociato non funziona. 0:04:43.643,0:04:46.293 Dobbiamo riprogrammare la nostra risposta 0:04:46.293,0:04:49.299 a questa epidemia nell'era digitale. 0:04:49.702,0:04:52.644 Ed è esattamente [br]ciò che stiamo facendo alla Thorn. 0:04:53.311,0:04:56.928 Stiamo creando la tecnologia[br]per collegare questi punti, 0:04:56.952,0:04:59.274 per armare tutti in prima linea, 0:04:59.298,0:05:02.122 forze dell'ordine, ONG e aziende, 0:05:02.146,0:05:05.655 degli strumenti necessari[br]a eliminare definitivamente 0:05:05.679,0:05:08.172 il materiale pedopornografico da internet. 0:05:09.571,0:05:10.842 Parliamo per un momento. 0:05:10.866,0:05:12.385 (Applausi) 0:05:12.409,0:05:13.713 Grazie. 0:05:13.737,0:05:16.077 (Applausi) 0:05:17.800,0:05:20.317 Parliamo un po' di questi punti. 0:05:21.323,0:05:24.534 Come potete immaginare[br]si tratta di contenuti orribili. 0:05:24.558,0:05:28.406 Se non si è obbligati,[br]non si desidera guardarli. 0:05:28.430,0:05:33.399 La maggior parte delle aziende,[br]o le forze dell'ordine, 0:05:33.423,0:05:35.086 in possesso di questi contenuti, 0:05:35.110,0:05:38.562 possono tradurre ogni file[br]in un'unica stringa di numeri. 0:05:38.586,0:05:40.060 Questo si chiama "hash". 0:05:40.084,0:05:42.227 Sostanzialmente è l'impronta digitale 0:05:42.251,0:05:44.649 di ogni file e di ogni video. 0:05:44.673,0:05:49.286 Consente di usare[br]l'informazione nelle indagini, 0:05:49.310,0:05:52.337 o a un'azienda di rimuovere[br]contenuti dalla propria piattaforma 0:05:52.361,0:05:57.535 senza dover riguardare ogni volta[br]ogni immagine e ogni video. 0:05:58.196,0:06:00.347 Tuttavia il problema, oggi, 0:06:00.371,0:06:04.122 è che esistono centinaia[br]di milioni di questi hashes 0:06:04.146,0:06:07.756 depositati in silos-database[br]per tutto il mondo. 0:06:08.214,0:06:09.365 In un silo 0:06:09.389,0:06:12.465 potrebbe funzionare per l'agenzia[br]che ne ha il controllo, 0:06:12.489,0:06:16.619 ma non collegare quei dati significa[br]non sapere quanti sono unici. 0:06:16.643,0:06:20.159 Cioè non sapere quali si riferiscono[br]a bambini che sono già stati salvati 0:06:20.183,0:06:23.072 o che devono ancora essere identificati. 0:06:23.072,0:06:25.802 Quindi il nostro obiettivo principale 0:06:25.802,0:06:29.693 è collegare tutti questi dati. 0:06:30.318,0:06:36.487 Ci sono due modi in cui questi dati,[br]combinati a un software su scala globale, 0:06:36.511,0:06:39.919 possono avere un impatto trasformativo. 0:06:40.464,0:06:43.086 Il primo è aiutare le forze dell'ordine 0:06:43.110,0:06:46.741 a identificare nuove vittime[br]più velocemente, 0:06:46.765,0:06:47.981 fermare gli abusi 0:06:48.005,0:06:50.909 e fermare chi produce questi contenuti. 0:06:51.441,0:06:54.107 Il secondo è per le aziende: 0:06:54.131,0:06:57.752 usandolo come indizio per identificare[br]i centinaia di milioni di file 0:06:57.776,0:06:59.370 in circolazione oggi, 0:06:59.394,0:07:00.581 rimuovendolo 0:07:00.605,0:07:07.423 e poi fermando l'upload di nuovo materiale[br]ancor prima che diventi virale. 0:07:09.694,0:07:11.340 Quattro anni fa, 0:07:11.364,0:07:12.903 quando quel caso fu risolto, 0:07:14.300,0:07:18.039 il nostro team stava lì, seduto,[br]sentendo... 0:07:19.635,0:07:22.973 un profondo senso di sconfitta,[br]se così si può definire, 0:07:22.997,0:07:26.648 perché eravamo rimasti a guardare[br]per tutto quell'anno 0:07:26.672,0:07:27.992 mentre la stavano cercando. 0:07:28.016,0:07:31.983 Avevamo seguito ogni fase dell'indagine 0:07:32.007,0:07:34.395 e se fosse esistita la tecnologia, 0:07:34.419,0:07:36.723 avrebbero trovato la bambina[br]più velocemente. 0:07:37.684,0:07:39.620 E così ce ne andammo via 0:07:39.644,0:07:42.599 per andare a fare l'unica cosa[br]che sapevamo fare: 0:07:42.623,0:07:45.257 iniziare a sviluppare un software. 0:07:45.689,0:07:47.941 Abbiamo iniziato con le forze dell'ordine. 0:07:47.965,0:07:52.386 Sognavamo un campanello d'allarme[br]sulle scrivanie di tutti i poliziotti 0:07:52.410,0:07:56.954 cosicché non appena qualcuno[br]avesse postato una nuova vittima online, 0:07:56.978,0:08:00.467 qualcun altro avrebbe subito[br]fatto partire le ricerche. 0:08:01.324,0:08:04.281 Ovviamente non posso parlare[br]dei dettagli di quel software, 0:08:04.305,0:08:06.914 ma oggi è utilizzato in 38 paesi, 0:08:06.938,0:08:09.912 riducendo la tempistica[br]per ritrovare un bambino 0:08:09.936,0:08:12.266 di più del 65%. 0:08:12.290,0:08:16.660 (Applausi) 0:08:21.442,0:08:24.457 E ora ci stiamo impegnando[br]su un secondo fronte: 0:08:24.481,0:08:30.146 creare il software che aiuta le aziende[br]a identificare e rimuovere tali contenuti. 0:08:31.193,0:08:33.725 Parliamo un istante di queste aziende. 0:08:34.270,0:08:39.502 45 milioni di immagini e di video,[br]solo negli Stati Uniti, l'anno scorso. 0:08:40.280,0:08:44.167 Provenienti soltanto da 12 aziende. 0:08:45.883,0:08:52.311 12 aziende, 45 milioni di file[br]di materiale pedopornografico 0:08:52.335,0:08:55.135 proveniente da aziende che hanno denaro 0:08:55.159,0:08:59.716 per creare infrastrutture utili[br]a eliminare questi contenuti. 0:08:59.740,0:09:02.151 Ma ci sono centinaia di altre aziende, 0:09:02.175,0:09:04.841 di piccole e medie dimensioni,[br]in tutto il mondo, 0:09:04.865,0:09:06.919 che dovrebbero fare questo lavoro, ma che:[br] 0:09:06.943,0:09:12.368 1) non immaginano che la loro piattaforma[br]venga utilizzata per attuare abusi, 0:09:12.392,0:09:18.237 2) non hanno denaro da spendere[br]su qualcosa che non produca entrate. 0:09:18.932,0:09:22.221 Ci siamo impegnati[br]e l'abbiamo fatto per loro, 0:09:22.245,0:09:27.214 e con l'aumento di aziende che aderiscono[br]il sistema è sempre più intelligente. 0:09:27.965,0:09:29.690 Vi faccio un esempio. 0:09:30.459,0:09:34.337 Il nostro primo partner, Imgur --[br]se non conoscete questa azienda, 0:09:34.361,0:09:37.503 è uno dei siti web più visitato [br]negli Stati Uniti, 0:09:37.527,0:09:42.535 milioni di contenuti generati[br]e caricati ogni giorno dagli utenti 0:09:42.559,0:09:45.417 con lo scopo di rendere internet[br]un luogo più divertente -- 0:09:46.012,0:09:47.864 si sono associati a noi. 0:09:47.888,0:09:51.231 Entro 20 minuti di utilizzo[br]del nostro sistema, 0:09:51.255,0:09:54.827 qualcuno aveva cercato di caricare[br]materiale pedopornografico. 0:09:54.851,0:09:56.959 Hanno potuto fermarlo, rimuoverlo 0:09:56.983,0:10:00.449 e denunciarlo al Centro Nazionale[br]per bambini scomparsi e abusati. 0:10:00.473,0:10:02.381 Ma sono andati oltre, 0:10:02.405,0:10:06.538 hanno anche controllato l'account[br]della persona che lo aveva caricato. 0:10:07.086,0:10:11.797 Altre centinaia di contenuti[br]pedopornografici 0:10:11.821,0:10:13.639 che non avevamo mai visto. 0:10:14.152,0:10:17.684 Ed è qui che cominciamo a vedere[br]l'impatto esponenziale. 0:10:17.708,0:10:19.476 Rimuoviamo quel materiale, 0:10:19.500,0:10:23.050 lo denunciamo al Centro Nazionale[br]per i bambini scomparsi e abusati, 0:10:23.074,0:10:25.585 poi quegli hashes rientrano nel sistema 0:10:25.609,0:10:28.073 a beneficio di tutte le altre aziende. 0:10:28.097,0:10:32.881 Se raggiungeremo ancora più milioni[br]di hashes e, in tempo reale, 0:10:32.905,0:10:37.443 le compagnie identificano[br]e rimuovono quei contenuti, 0:10:37.467,0:10:42.028 aumenteremo drasticamente[br]la velocità di eliminazione 0:10:42.052,0:10:46.346 di materiale pedopornografico[br]da internet, in tutto il mondo. 0:10:46.370,0:10:51.842 (Applausi) 0:10:54.208,0:10:57.428 Per questo motivo non si tratta[br]solo di software e dati, 0:10:57.452,0:10:59.224 ma deve essere fatto su larga scala. 0:10:59.248,0:11:02.761 Dobbiamo attivare migliaia di agenti, 0:11:02.785,0:11:05.162 centinaia di aziende in tutto il mondo, 0:11:05.186,0:11:08.794 se la tecnologia ci permetterà[br]di essere più veloci dei colpevoli, 0:11:08.818,0:11:12.943 e di smantellare le comunità[br]che perpetrano abusi sui minori 0:11:12.967,0:11:14.519 in tutto il mondo. 0:11:15.064,0:11:17.714 E il momento per farlo è ora. 0:11:18.288,0:11:24.085 Non possiamo più dire di non sapere[br]qual è l'impatto sui nostri bambini. 0:11:24.688,0:11:29.146 La prima generazione di bambini[br]il cui abuso è diventato virale 0:11:29.170,0:11:30.880 sono oggi dei giovani adulti. 0:11:31.451,0:11:34.036 Il Centro canadese [br]per la protezione dei bambini 0:11:34.060,0:11:36.756 ha recentemente condotto[br]uno studio su questi giovani 0:11:36.780,0:11:41.416 per comprendere il trauma[br]dal quale cercano di riprendersi, 0:11:41.440,0:11:44.263 sapendo che il loro abuso[br]continua a vivere. 0:11:45.213,0:11:50.059 L'80% di questi giovani adulti[br]ha pensato al suicidio. 0:11:50.566,0:11:54.628 Più del 60% ha tentato il suicidio. 0:11:55.572,0:12:00.789 E la maggior parte di loro vive[br]ogni giorno con la paura 0:12:00.813,0:12:05.276 che mentre cammina per strada[br]o fa un colloquio di lavoro 0:12:05.300,0:12:07.590 o va a scuola 0:12:07.614,0:12:10.039 o conosce qualcuno online, 0:12:10.063,0:12:13.721 quella persona possa[br]aver visto il suo abuso. 0:12:14.547,0:12:19.452 E ciò si verifica in più del 30% di loro. 0:12:20.256,0:12:24.842 Riconosciuti a causa del materiale[br]sul loro abuso che circola online. 0:12:26.022,0:12:29.298 Non sarà facile, 0:12:29.322,0:12:32.165 ma nemmeno impossibile. 0:12:32.189,0:12:34.865 Ora serve la volontà, 0:12:34.889,0:12:36.478 la volontà della nostra società 0:12:36.502,0:12:40.056 di guardare a qualcosa veramente[br]difficile da guardare, 0:12:40.080,0:12:42.423 di tirar fuori dall'oscurità qualcosa 0:12:42.447,0:12:44.542 che dia voce a questi bambini; 0:12:46.110,0:12:51.056 la volontà delle aziende di agire[br]e assicurarsi che le loro piattaforme 0:12:51.080,0:12:54.393 non siano complici di abusi su minori; 0:12:55.205,0:12:59.156 la volontà dei governi di investire[br]sulle forze dell'ordine, 0:12:59.180,0:13:04.274 fornendo gli strumenti necessari[br]per indagare su un primo reato digitale, 0:13:04.298,0:13:08.381 anche quando le vittime[br]non possono parlare per sé. 0:13:09.746,0:13:13.444 Questo impegno audace[br]fa parte di quella volontà. 0:13:14.269,0:13:19.676 È una dichiarazione di guerra contro[br]uno dei mali più oscuri dell'umanità. 0:13:20.263,0:13:22.203 Ma quello a cui tengo di più 0:13:22.227,0:13:25.676 è che sia davvero[br]un investimento, in un futuro 0:13:25.700,0:13:29.334 in cui ogni bambino possa[br]semplicemente essere un bambino. 0:13:29.357,0:13:30.551 Grazie. 0:13:30.896,0:13:37.040 (Applausi)