Come possiamo eliminare da internet il materiale pedopornografico
-
0:01 - 0:03[Argomento adatto solo
a un pubblico adulto] -
0:06 - 0:07Cinque anni fa
-
0:07 - 0:11ho ricevuto una telefonata
che mi avrebbe cambiato la vita. -
0:12 - 0:14Ricordo benissimo quel giorno.
-
0:15 - 0:17Era circa questo periodo dell'anno,
-
0:17 - 0:19ero seduta nel mio ufficio.
-
0:20 - 0:23Ricordo il sole
che entrava dalla finestra, -
0:24 - 0:25quando mi suonò il telefono.
-
0:26 - 0:27Risposi,
-
0:28 - 0:32erano due agenti federali
che chiedevano il mio aiuto -
0:32 - 0:34per identificare una bambina
-
0:34 - 0:40presente in centinaia di immagini
di abusi sessuali trovate online. -
0:41 - 0:44Avevano appena iniziato
a lavorare sul caso, -
0:44 - 0:47ma erano certi
-
0:47 - 0:51che gli abusi su di lei erano
circolati per anni in tutto il mondo -
0:51 - 0:57suii siti del dark web dedicati
agli abusi sessuali sui bambini. -
0:58 - 1:02Il suo molestatore era incredibilmente
abile a livello tecnologico: -
1:02 - 1:07nuove immagini e video
quasi tutte le settimane, -
1:07 - 1:11ma pochissimi indizi su chi fosse lei
-
1:11 - 1:12o dove si trovasse.
-
1:13 - 1:15Ci chiamarono,
-
1:15 - 1:17perché eravamo una nuova no-profit
-
1:17 - 1:21che creava tecnologie per combattere
gli abusi sessuali sui minori. -
1:22 - 1:24Ma operavamo solo da due anni,
-
1:24 - 1:27e solo sul traffico sessuale minorile.
-
1:28 - 1:30Dovetti dir loro
-
1:30 - 1:31che non avevamo niente.
-
1:32 - 1:36Non avevamo nulla per aiutarli
a fermare quell'abuso. -
1:37 - 1:41Impiegarono un altro anno
-
1:41 - 1:44per trovare finalmente quella bambina.
-
1:45 - 1:47E fino al momento in cui fu salvata,
-
1:47 - 1:54il suo stupro era diventato virale
in centinaia di immagini e di video, -
1:54 - 1:55dal dark web
-
1:55 - 1:58a reti peer-to-peer, chat room private
-
1:58 - 2:02e siti web che tutti noi usiamo
-
2:02 - 2:04ogni giorno.
-
2:05 - 2:09E oggi, mentre lei lotta per riprendersi,
-
2:09 - 2:13convive con il fatto che migliaia
di persone nel mondo -
2:13 - 2:16continuano a guardare ciò che ha subito.
-
2:18 - 2:20Negli ultimi cinque anni
ho scoperto che questo caso -
2:20 - 2:23è tutt'altro che unico nel suo genere.
-
2:24 - 2:28Ma come ha fatto la nostra società
ad arrivare a questo? -
2:29 - 2:33Alla fine degli anni '80,
la pedopornografia, -
2:33 - 2:39ovvero il materiale contenente
abusi sessuali su minori, -
2:39 - 2:40era stata quasi eliminata.
-
2:41 - 2:46Nuove leggi, aumento di procedimenti
giudiziari, resero troppo rischioso -
2:46 - 2:47lo smercio per corrispondenza.
-
2:48 - 2:52Ma poi è arrivato internet,
e il mercato è esploso. -
2:53 - 2:57Oggi, la quantità di contenuti in circolo
-
2:57 - 3:00è enorme e in crescita.
-
3:00 - 3:04Il problema è veramente globale,
-
3:04 - 3:06ma se guardiamo solo agli Stati Uniti:
-
3:06 - 3:08l'anno scorso, solo negli Stati Uniti
-
3:08 - 3:14più di 45 milioni di immagini
e di video pedopornografici -
3:14 - 3:17sono stati denunciati al Centro Nazionale
per bambini scomparsi e abusati, -
3:17 - 3:22ed è quasi il doppio dell'anno precedente.
-
3:23 - 3:28I dettagli dietro questi numeri
sono duri da immaginare: -
3:28 - 3:34in più del 60% delle immagini
vi sono bambini al di sotto di 12 anni, -
3:34 - 3:38e la maggior parte include
atti di estrema violenza sessuale. -
3:39 - 3:44Gli autori di abusi sui bambini
sono acclamati nelle chat dedicate, -
3:44 - 3:47dove guadagnano prestigio e notorietà
-
3:47 - 3:50con più abusi e più vittime.
-
3:50 - 3:53In questo mercato
-
3:53 - 3:57la moneta è diventata il contenuto stesso.
-
3:58 - 4:02I molestatori sono stati rapidi
a sfruttare le nuove tecnologie, -
4:02 - 4:05ma non lo è stata la risposta
della nostra società. -
4:06 - 4:10Questi criminali non leggono
i termini di utilizzo dei siti web -
4:10 - 4:14e il contenuto non rispetta
nessun confine geografico. -
4:15 - 4:21Vincono quando guardiamo
un pezzo del puzzle alla volta, -
4:21 - 4:25che è esattamente
il nostro modo di operare oggi. -
4:25 - 4:28Le forze dell'ordine lavorano
in una sola giurisdizione. -
4:28 - 4:32Le aziende guardano
solo alla propria piattaforma. -
4:32 - 4:34E tutti i dati acquisiti lungo il percorso
-
4:35 - 4:37raramente vengono condivisi.
-
4:37 - 4:43È chiaro che questo approccio
dissociato non funziona. -
4:44 - 4:46Dobbiamo riprogrammare la nostra risposta
-
4:46 - 4:49a questa epidemia nell'era digitale.
-
4:50 - 4:53Ed è esattamente
ciò che stiamo facendo alla Thorn. -
4:53 - 4:57Stiamo creando la tecnologia
per collegare questi punti, -
4:57 - 4:59per armare tutti in prima linea,
-
4:59 - 5:02forze dell'ordine, ONG e aziende,
-
5:02 - 5:06degli strumenti necessari
a eliminare definitivamente -
5:06 - 5:08il materiale pedopornografico da internet.
-
5:10 - 5:11Parliamo per un momento.
-
5:11 - 5:12(Applausi)
-
5:12 - 5:14Grazie.
-
5:14 - 5:16(Applausi)
-
5:18 - 5:20Parliamo un po' di questi punti.
-
5:21 - 5:25Come potete immaginare
si tratta di contenuti orribili. -
5:25 - 5:28Se non si è obbligati,
non si desidera guardarli. -
5:28 - 5:33La maggior parte delle aziende,
o le forze dell'ordine, -
5:33 - 5:35in possesso di questi contenuti,
-
5:35 - 5:39possono tradurre ogni file
in un'unica stringa di numeri. -
5:39 - 5:40Questo si chiama "hash".
-
5:40 - 5:42Sostanzialmente è l'impronta digitale
-
5:42 - 5:45di ogni file e di ogni video.
-
5:45 - 5:49Consente di usare
l'informazione nelle indagini, -
5:49 - 5:52o a un'azienda di rimuovere
contenuti dalla propria piattaforma -
5:52 - 5:58senza dover riguardare ogni volta
ogni immagine e ogni video. -
5:58 - 6:00Tuttavia il problema, oggi,
-
6:00 - 6:04è che esistono centinaia
di milioni di questi hashes -
6:04 - 6:08depositati in silos-database
per tutto il mondo. -
6:08 - 6:09In un silo
-
6:09 - 6:12potrebbe funzionare per l'agenzia
che ne ha il controllo, -
6:12 - 6:17ma non collegare quei dati significa
non sapere quanti sono unici. -
6:17 - 6:20Cioè non sapere quali si riferiscono
a bambini che sono già stati salvati -
6:20 - 6:23o che devono ancora essere identificati.
-
6:23 - 6:26Quindi il nostro obiettivo principale
-
6:26 - 6:30è collegare tutti questi dati.
-
6:30 - 6:36Ci sono due modi in cui questi dati,
combinati a un software su scala globale, -
6:37 - 6:40possono avere un impatto trasformativo.
-
6:40 - 6:43Il primo è aiutare le forze dell'ordine
-
6:43 - 6:47a identificare nuove vittime
più velocemente, -
6:47 - 6:48fermare gli abusi
-
6:48 - 6:51e fermare chi produce questi contenuti.
-
6:51 - 6:54Il secondo è per le aziende:
-
6:54 - 6:58usandolo come indizio per identificare
i centinaia di milioni di file -
6:58 - 6:59in circolazione oggi,
-
6:59 - 7:01rimuovendolo
-
7:01 - 7:07e poi fermando l'upload di nuovo materiale
ancor prima che diventi virale. -
7:10 - 7:11Quattro anni fa,
-
7:11 - 7:13quando quel caso fu risolto,
-
7:14 - 7:18il nostro team stava lì, seduto,
sentendo... -
7:20 - 7:23un profondo senso di sconfitta,
se così si può definire, -
7:23 - 7:27perché eravamo rimasti a guardare
per tutto quell'anno -
7:27 - 7:28mentre la stavano cercando.
-
7:28 - 7:32Avevamo seguito ogni fase dell'indagine
-
7:32 - 7:34e se fosse esistita la tecnologia,
-
7:34 - 7:37avrebbero trovato la bambina
più velocemente. -
7:38 - 7:40E così ce ne andammo via
-
7:40 - 7:43per andare a fare l'unica cosa
che sapevamo fare: -
7:43 - 7:45iniziare a sviluppare un software.
-
7:46 - 7:48Abbiamo iniziato con le forze dell'ordine.
-
7:48 - 7:52Sognavamo un campanello d'allarme
sulle scrivanie di tutti i poliziotti -
7:52 - 7:57cosicché non appena qualcuno
avesse postato una nuova vittima online, -
7:57 - 8:00qualcun altro avrebbe subito
fatto partire le ricerche. -
8:01 - 8:04Ovviamente non posso parlare
dei dettagli di quel software, -
8:04 - 8:07ma oggi è utilizzato in 38 paesi,
-
8:07 - 8:10riducendo la tempistica
per ritrovare un bambino -
8:10 - 8:12di più del 65%.
-
8:12 - 8:17(Applausi)
-
8:21 - 8:24E ora ci stiamo impegnando
su un secondo fronte: -
8:24 - 8:30creare il software che aiuta le aziende
a identificare e rimuovere tali contenuti. -
8:31 - 8:34Parliamo un istante di queste aziende.
-
8:34 - 8:4045 milioni di immagini e di video,
solo negli Stati Uniti, l'anno scorso. -
8:40 - 8:44Provenienti soltanto da 12 aziende.
-
8:46 - 8:5212 aziende, 45 milioni di file
di materiale pedopornografico -
8:52 - 8:55proveniente da aziende che hanno denaro
-
8:55 - 9:00per creare infrastrutture utili
a eliminare questi contenuti. -
9:00 - 9:02Ma ci sono centinaia di altre aziende,
-
9:02 - 9:05di piccole e medie dimensioni,
in tutto il mondo, -
9:05 - 9:07che dovrebbero fare questo lavoro, ma che:
-
9:07 - 9:121) non immaginano che la loro piattaforma
venga utilizzata per attuare abusi, -
9:12 - 9:182) non hanno denaro da spendere
su qualcosa che non produca entrate. -
9:19 - 9:22Ci siamo impegnati
e l'abbiamo fatto per loro, -
9:22 - 9:27e con l'aumento di aziende che aderiscono
il sistema è sempre più intelligente. -
9:28 - 9:30Vi faccio un esempio.
-
9:30 - 9:34Il nostro primo partner, Imgur --
se non conoscete questa azienda, -
9:34 - 9:38è uno dei siti web più visitato
negli Stati Uniti, -
9:38 - 9:43milioni di contenuti generati
e caricati ogni giorno dagli utenti -
9:43 - 9:45con lo scopo di rendere internet
un luogo più divertente -- -
9:46 - 9:48si sono associati a noi.
-
9:48 - 9:51Entro 20 minuti di utilizzo
del nostro sistema, -
9:51 - 9:55qualcuno aveva cercato di caricare
materiale pedopornografico. -
9:55 - 9:57Hanno potuto fermarlo, rimuoverlo
-
9:57 - 10:00e denunciarlo al Centro Nazionale
per bambini scomparsi e abusati. -
10:00 - 10:02Ma sono andati oltre,
-
10:02 - 10:07hanno anche controllato l'account
della persona che lo aveva caricato. -
10:07 - 10:12Altre centinaia di contenuti
pedopornografici -
10:12 - 10:14che non avevamo mai visto.
-
10:14 - 10:18Ed è qui che cominciamo a vedere
l'impatto esponenziale. -
10:18 - 10:19Rimuoviamo quel materiale,
-
10:20 - 10:23lo denunciamo al Centro Nazionale
per i bambini scomparsi e abusati, -
10:23 - 10:26poi quegli hashes rientrano nel sistema
-
10:26 - 10:28a beneficio di tutte le altre aziende.
-
10:28 - 10:33Se raggiungeremo ancora più milioni
di hashes e, in tempo reale, -
10:33 - 10:37le compagnie identificano
e rimuovono quei contenuti, -
10:37 - 10:42aumenteremo drasticamente
la velocità di eliminazione -
10:42 - 10:46di materiale pedopornografico
da internet, in tutto il mondo. -
10:46 - 10:52(Applausi)
-
10:54 - 10:57Per questo motivo non si tratta
solo di software e dati, -
10:57 - 10:59ma deve essere fatto su larga scala.
-
10:59 - 11:03Dobbiamo attivare migliaia di agenti,
-
11:03 - 11:05centinaia di aziende in tutto il mondo,
-
11:05 - 11:09se la tecnologia ci permetterà
di essere più veloci dei colpevoli, -
11:09 - 11:13e di smantellare le comunità
che perpetrano abusi sui minori -
11:13 - 11:15in tutto il mondo.
-
11:15 - 11:18E il momento per farlo è ora.
-
11:18 - 11:24Non possiamo più dire di non sapere
qual è l'impatto sui nostri bambini. -
11:25 - 11:29La prima generazione di bambini
il cui abuso è diventato virale -
11:29 - 11:31sono oggi dei giovani adulti.
-
11:31 - 11:34Il Centro canadese
per la protezione dei bambini -
11:34 - 11:37ha recentemente condotto
uno studio su questi giovani -
11:37 - 11:41per comprendere il trauma
dal quale cercano di riprendersi, -
11:41 - 11:44sapendo che il loro abuso
continua a vivere. -
11:45 - 11:50L'80% di questi giovani adulti
ha pensato al suicidio. -
11:51 - 11:55Più del 60% ha tentato il suicidio.
-
11:56 - 12:01E la maggior parte di loro vive
ogni giorno con la paura -
12:01 - 12:05che mentre cammina per strada
o fa un colloquio di lavoro -
12:05 - 12:08o va a scuola
-
12:08 - 12:10o conosce qualcuno online,
-
12:10 - 12:14quella persona possa
aver visto il suo abuso. -
12:15 - 12:19E ciò si verifica in più del 30% di loro.
-
12:20 - 12:25Riconosciuti a causa del materiale
sul loro abuso che circola online. -
12:26 - 12:29Non sarà facile,
-
12:29 - 12:32ma nemmeno impossibile.
-
12:32 - 12:35Ora serve la volontà,
-
12:35 - 12:36la volontà della nostra società
-
12:37 - 12:40di guardare a qualcosa veramente
difficile da guardare, -
12:40 - 12:42di tirar fuori dall'oscurità qualcosa
-
12:42 - 12:45che dia voce a questi bambini;
-
12:46 - 12:51la volontà delle aziende di agire
e assicurarsi che le loro piattaforme -
12:51 - 12:54non siano complici di abusi su minori;
-
12:55 - 12:59la volontà dei governi di investire
sulle forze dell'ordine, -
12:59 - 13:04fornendo gli strumenti necessari
per indagare su un primo reato digitale, -
13:04 - 13:08anche quando le vittime
non possono parlare per sé. -
13:10 - 13:13Questo impegno audace
fa parte di quella volontà. -
13:14 - 13:20È una dichiarazione di guerra contro
uno dei mali più oscuri dell'umanità. -
13:20 - 13:22Ma quello a cui tengo di più
-
13:22 - 13:26è che sia davvero
un investimento, in un futuro -
13:26 - 13:29in cui ogni bambino possa
semplicemente essere un bambino. -
13:29 - 13:31Grazie.
-
13:31 - 13:37(Applausi)
- Title:
- Come possiamo eliminare da internet il materiale pedopornografico
- Speaker:
- Julie Cordua
- Description:
-
L'Imprenditrice Sociale Julie Cordua lavora su un problema di cui non è facile parlare: l'abuso sessuale minorile in immagini e video su internet. All'associazione Thorn, Cordua sta creando una tecnologia che colleghi industria tecnologica, forze dell'ordine e governo, per poter porre rapidamente fine alla distribuzione virale di materiale contenente abusi su bambini e poterli salvare più velocemente. Approfondite come questa soluzione modulare potrebbe aiutare a smantellare le comunità che per il mondo, oggi, diffondono gli abusi sessuali sui minori. Questo ambizioso progetto è parte di Audacious Project, un'iniziativa di TED per ispirare e finanziare cambiamenti a livello globale.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Elena Montrasio approved Italian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Elena Montrasio edited Italian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Sofia Ramundo accepted Italian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Sofia Ramundo edited Italian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Sofia Ramundo edited Italian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Sofia Ramundo edited Italian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Rosamaria Di Dedda edited Italian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Rosamaria Di Dedda edited Italian subtitles for How we can eliminate child sexual abuse material from the internet |