Return to Video

Come possiamo eliminare da internet il materiale pedopornografico

  • 0:01 - 0:03
    [Argomento adatto solo
    a un pubblico adulto]
  • 0:06 - 0:07
    Cinque anni fa
  • 0:07 - 0:11
    ho ricevuto una telefonata
    che mi avrebbe cambiato la vita.
  • 0:12 - 0:14
    Ricordo benissimo quel giorno.
  • 0:15 - 0:17
    Era circa questo periodo dell'anno,
  • 0:17 - 0:19
    ero seduta nel mio ufficio.
  • 0:20 - 0:23
    Ricordo il sole
    che entrava dalla finestra,
  • 0:24 - 0:25
    quando mi suonò il telefono.
  • 0:26 - 0:27
    Risposi,
  • 0:28 - 0:32
    erano due agenti federali
    che chiedevano il mio aiuto
  • 0:32 - 0:34
    per identificare una bambina
  • 0:34 - 0:40
    presente in centinaia di immagini
    di abusi sessuali trovate online.
  • 0:41 - 0:44
    Avevano appena iniziato
    a lavorare sul caso,
  • 0:44 - 0:47
    ma erano certi
  • 0:47 - 0:51
    che gli abusi su di lei erano
    circolati per anni in tutto il mondo
  • 0:51 - 0:57
    suii siti del dark web dedicati
    agli abusi sessuali sui bambini.
  • 0:58 - 1:02
    Il suo molestatore era incredibilmente
    abile a livello tecnologico:
  • 1:02 - 1:07
    nuove immagini e video
    quasi tutte le settimane,
  • 1:07 - 1:11
    ma pochissimi indizi su chi fosse lei
  • 1:11 - 1:12
    o dove si trovasse.
  • 1:13 - 1:15
    Ci chiamarono,
  • 1:15 - 1:17
    perché eravamo una nuova no-profit
  • 1:17 - 1:21
    che creava tecnologie per combattere
    gli abusi sessuali sui minori.
  • 1:22 - 1:24
    Ma operavamo solo da due anni,
  • 1:24 - 1:27
    e solo sul traffico sessuale minorile.
  • 1:28 - 1:30
    Dovetti dir loro
  • 1:30 - 1:31
    che non avevamo niente.
  • 1:32 - 1:36
    Non avevamo nulla per aiutarli
    a fermare quell'abuso.
  • 1:37 - 1:41
    Impiegarono un altro anno
  • 1:41 - 1:44
    per trovare finalmente quella bambina.
  • 1:45 - 1:47
    E fino al momento in cui fu salvata,
  • 1:47 - 1:54
    il suo stupro era diventato virale
    in centinaia di immagini e di video,
  • 1:54 - 1:55
    dal dark web
  • 1:55 - 1:58
    a reti peer-to-peer, chat room private
  • 1:58 - 2:02
    e siti web che tutti noi usiamo
  • 2:02 - 2:04
    ogni giorno.
  • 2:05 - 2:09
    E oggi, mentre lei lotta per riprendersi,
  • 2:09 - 2:13
    convive con il fatto che migliaia
    di persone nel mondo
  • 2:13 - 2:16
    continuano a guardare ciò che ha subito.
  • 2:18 - 2:20
    Negli ultimi cinque anni
    ho scoperto che questo caso
  • 2:20 - 2:23
    è tutt'altro che unico nel suo genere.
  • 2:24 - 2:28
    Ma come ha fatto la nostra società
    ad arrivare a questo?
  • 2:29 - 2:33
    Alla fine degli anni '80,
    la pedopornografia,
  • 2:33 - 2:39
    ovvero il materiale contenente
    abusi sessuali su minori,
  • 2:39 - 2:40
    era stata quasi eliminata.
  • 2:41 - 2:46
    Nuove leggi, aumento di procedimenti
    giudiziari, resero troppo rischioso
  • 2:46 - 2:47
    lo smercio per corrispondenza.
  • 2:48 - 2:52
    Ma poi è arrivato internet,
    e il mercato è esploso.
  • 2:53 - 2:57
    Oggi, la quantità di contenuti in circolo
  • 2:57 - 3:00
    è enorme e in crescita.
  • 3:00 - 3:04
    Il problema è veramente globale,
  • 3:04 - 3:06
    ma se guardiamo solo agli Stati Uniti:
  • 3:06 - 3:08
    l'anno scorso, solo negli Stati Uniti
  • 3:08 - 3:14
    più di 45 milioni di immagini
    e di video pedopornografici
  • 3:14 - 3:17
    sono stati denunciati al Centro Nazionale
    per bambini scomparsi e abusati,
  • 3:17 - 3:22
    ed è quasi il doppio dell'anno precedente.
  • 3:23 - 3:28
    I dettagli dietro questi numeri
    sono duri da immaginare:
  • 3:28 - 3:34
    in più del 60% delle immagini
    vi sono bambini al di sotto di 12 anni,
  • 3:34 - 3:38
    e la maggior parte include
    atti di estrema violenza sessuale.
  • 3:39 - 3:44
    Gli autori di abusi sui bambini
    sono acclamati nelle chat dedicate,
  • 3:44 - 3:47
    dove guadagnano prestigio e notorietà
  • 3:47 - 3:50
    con più abusi e più vittime.
  • 3:50 - 3:53
    In questo mercato
  • 3:53 - 3:57
    la moneta è diventata il contenuto stesso.
  • 3:58 - 4:02
    I molestatori sono stati rapidi
    a sfruttare le nuove tecnologie,
  • 4:02 - 4:05
    ma non lo è stata la risposta
    della nostra società.
  • 4:06 - 4:10
    Questi criminali non leggono
    i termini di utilizzo dei siti web
  • 4:10 - 4:14
    e il contenuto non rispetta
    nessun confine geografico.
  • 4:15 - 4:21
    Vincono quando guardiamo
    un pezzo del puzzle alla volta,
  • 4:21 - 4:25
    che è esattamente
    il nostro modo di operare oggi.
  • 4:25 - 4:28
    Le forze dell'ordine lavorano
    in una sola giurisdizione.
  • 4:28 - 4:32
    Le aziende guardano
    solo alla propria piattaforma.
  • 4:32 - 4:34
    E tutti i dati acquisiti lungo il percorso
  • 4:35 - 4:37
    raramente vengono condivisi.
  • 4:37 - 4:43
    È chiaro che questo approccio
    dissociato non funziona.
  • 4:44 - 4:46
    Dobbiamo riprogrammare la nostra risposta
  • 4:46 - 4:49
    a questa epidemia nell'era digitale.
  • 4:50 - 4:53
    Ed è esattamente
    ciò che stiamo facendo alla Thorn.
  • 4:53 - 4:57
    Stiamo creando la tecnologia
    per collegare questi punti,
  • 4:57 - 4:59
    per armare tutti in prima linea,
  • 4:59 - 5:02
    forze dell'ordine, ONG e aziende,
  • 5:02 - 5:06
    degli strumenti necessari
    a eliminare definitivamente
  • 5:06 - 5:08
    il materiale pedopornografico da internet.
  • 5:10 - 5:11
    Parliamo per un momento.
  • 5:11 - 5:12
    (Applausi)
  • 5:12 - 5:14
    Grazie.
  • 5:14 - 5:16
    (Applausi)
  • 5:18 - 5:20
    Parliamo un po' di questi punti.
  • 5:21 - 5:25
    Come potete immaginare
    si tratta di contenuti orribili.
  • 5:25 - 5:28
    Se non si è obbligati,
    non si desidera guardarli.
  • 5:28 - 5:33
    La maggior parte delle aziende,
    o le forze dell'ordine,
  • 5:33 - 5:35
    in possesso di questi contenuti,
  • 5:35 - 5:39
    possono tradurre ogni file
    in un'unica stringa di numeri.
  • 5:39 - 5:40
    Questo si chiama "hash".
  • 5:40 - 5:42
    Sostanzialmente è l'impronta digitale
  • 5:42 - 5:45
    di ogni file e di ogni video.
  • 5:45 - 5:49
    Consente di usare
    l'informazione nelle indagini,
  • 5:49 - 5:52
    o a un'azienda di rimuovere
    contenuti dalla propria piattaforma
  • 5:52 - 5:58
    senza dover riguardare ogni volta
    ogni immagine e ogni video.
  • 5:58 - 6:00
    Tuttavia il problema, oggi,
  • 6:00 - 6:04
    è che esistono centinaia
    di milioni di questi hashes
  • 6:04 - 6:08
    depositati in silos-database
    per tutto il mondo.
  • 6:08 - 6:09
    In un silo
  • 6:09 - 6:12
    potrebbe funzionare per l'agenzia
    che ne ha il controllo,
  • 6:12 - 6:17
    ma non collegare quei dati significa
    non sapere quanti sono unici.
  • 6:17 - 6:20
    Cioè non sapere quali si riferiscono
    a bambini che sono già stati salvati
  • 6:20 - 6:23
    o che devono ancora essere identificati.
  • 6:23 - 6:26
    Quindi il nostro obiettivo principale
  • 6:26 - 6:30
    è collegare tutti questi dati.
  • 6:30 - 6:36
    Ci sono due modi in cui questi dati,
    combinati a un software su scala globale,
  • 6:37 - 6:40
    possono avere un impatto trasformativo.
  • 6:40 - 6:43
    Il primo è aiutare le forze dell'ordine
  • 6:43 - 6:47
    a identificare nuove vittime
    più velocemente,
  • 6:47 - 6:48
    fermare gli abusi
  • 6:48 - 6:51
    e fermare chi produce questi contenuti.
  • 6:51 - 6:54
    Il secondo è per le aziende:
  • 6:54 - 6:58
    usandolo come indizio per identificare
    i centinaia di milioni di file
  • 6:58 - 6:59
    in circolazione oggi,
  • 6:59 - 7:01
    rimuovendolo
  • 7:01 - 7:07
    e poi fermando l'upload di nuovo materiale
    ancor prima che diventi virale.
  • 7:10 - 7:11
    Quattro anni fa,
  • 7:11 - 7:13
    quando quel caso fu risolto,
  • 7:14 - 7:18
    il nostro team stava lì, seduto,
    sentendo...
  • 7:20 - 7:23
    un profondo senso di sconfitta,
    se così si può definire,
  • 7:23 - 7:27
    perché eravamo rimasti a guardare
    per tutto quell'anno
  • 7:27 - 7:28
    mentre la stavano cercando.
  • 7:28 - 7:32
    Avevamo seguito ogni fase dell'indagine
  • 7:32 - 7:34
    e se fosse esistita la tecnologia,
  • 7:34 - 7:37
    avrebbero trovato la bambina
    più velocemente.
  • 7:38 - 7:40
    E così ce ne andammo via
  • 7:40 - 7:43
    per andare a fare l'unica cosa
    che sapevamo fare:
  • 7:43 - 7:45
    iniziare a sviluppare un software.
  • 7:46 - 7:48
    Abbiamo iniziato con le forze dell'ordine.
  • 7:48 - 7:52
    Sognavamo un campanello d'allarme
    sulle scrivanie di tutti i poliziotti
  • 7:52 - 7:57
    cosicché non appena qualcuno
    avesse postato una nuova vittima online,
  • 7:57 - 8:00
    qualcun altro avrebbe subito
    fatto partire le ricerche.
  • 8:01 - 8:04
    Ovviamente non posso parlare
    dei dettagli di quel software,
  • 8:04 - 8:07
    ma oggi è utilizzato in 38 paesi,
  • 8:07 - 8:10
    riducendo la tempistica
    per ritrovare un bambino
  • 8:10 - 8:12
    di più del 65%.
  • 8:12 - 8:17
    (Applausi)
  • 8:21 - 8:24
    E ora ci stiamo impegnando
    su un secondo fronte:
  • 8:24 - 8:30
    creare il software che aiuta le aziende
    a identificare e rimuovere tali contenuti.
  • 8:31 - 8:34
    Parliamo un istante di queste aziende.
  • 8:34 - 8:40
    45 milioni di immagini e di video,
    solo negli Stati Uniti, l'anno scorso.
  • 8:40 - 8:44
    Provenienti soltanto da 12 aziende.
  • 8:46 - 8:52
    12 aziende, 45 milioni di file
    di materiale pedopornografico
  • 8:52 - 8:55
    proveniente da aziende che hanno denaro
  • 8:55 - 9:00
    per creare infrastrutture utili
    a eliminare questi contenuti.
  • 9:00 - 9:02
    Ma ci sono centinaia di altre aziende,
  • 9:02 - 9:05
    di piccole e medie dimensioni,
    in tutto il mondo,
  • 9:05 - 9:07
    che dovrebbero fare questo lavoro, ma che:
  • 9:07 - 9:12
    1) non immaginano che la loro piattaforma
    venga utilizzata per attuare abusi,
  • 9:12 - 9:18
    2) non hanno denaro da spendere
    su qualcosa che non produca entrate.
  • 9:19 - 9:22
    Ci siamo impegnati
    e l'abbiamo fatto per loro,
  • 9:22 - 9:27
    e con l'aumento di aziende che aderiscono
    il sistema è sempre più intelligente.
  • 9:28 - 9:30
    Vi faccio un esempio.
  • 9:30 - 9:34
    Il nostro primo partner, Imgur --
    se non conoscete questa azienda,
  • 9:34 - 9:38
    è uno dei siti web più visitato
    negli Stati Uniti,
  • 9:38 - 9:43
    milioni di contenuti generati
    e caricati ogni giorno dagli utenti
  • 9:43 - 9:45
    con lo scopo di rendere internet
    un luogo più divertente --
  • 9:46 - 9:48
    si sono associati a noi.
  • 9:48 - 9:51
    Entro 20 minuti di utilizzo
    del nostro sistema,
  • 9:51 - 9:55
    qualcuno aveva cercato di caricare
    materiale pedopornografico.
  • 9:55 - 9:57
    Hanno potuto fermarlo, rimuoverlo
  • 9:57 - 10:00
    e denunciarlo al Centro Nazionale
    per bambini scomparsi e abusati.
  • 10:00 - 10:02
    Ma sono andati oltre,
  • 10:02 - 10:07
    hanno anche controllato l'account
    della persona che lo aveva caricato.
  • 10:07 - 10:12
    Altre centinaia di contenuti
    pedopornografici
  • 10:12 - 10:14
    che non avevamo mai visto.
  • 10:14 - 10:18
    Ed è qui che cominciamo a vedere
    l'impatto esponenziale.
  • 10:18 - 10:19
    Rimuoviamo quel materiale,
  • 10:20 - 10:23
    lo denunciamo al Centro Nazionale
    per i bambini scomparsi e abusati,
  • 10:23 - 10:26
    poi quegli hashes rientrano nel sistema
  • 10:26 - 10:28
    a beneficio di tutte le altre aziende.
  • 10:28 - 10:33
    Se raggiungeremo ancora più milioni
    di hashes e, in tempo reale,
  • 10:33 - 10:37
    le compagnie identificano
    e rimuovono quei contenuti,
  • 10:37 - 10:42
    aumenteremo drasticamente
    la velocità di eliminazione
  • 10:42 - 10:46
    di materiale pedopornografico
    da internet, in tutto il mondo.
  • 10:46 - 10:52
    (Applausi)
  • 10:54 - 10:57
    Per questo motivo non si tratta
    solo di software e dati,
  • 10:57 - 10:59
    ma deve essere fatto su larga scala.
  • 10:59 - 11:03
    Dobbiamo attivare migliaia di agenti,
  • 11:03 - 11:05
    centinaia di aziende in tutto il mondo,
  • 11:05 - 11:09
    se la tecnologia ci permetterà
    di essere più veloci dei colpevoli,
  • 11:09 - 11:13
    e di smantellare le comunità
    che perpetrano abusi sui minori
  • 11:13 - 11:15
    in tutto il mondo.
  • 11:15 - 11:18
    E il momento per farlo è ora.
  • 11:18 - 11:24
    Non possiamo più dire di non sapere
    qual è l'impatto sui nostri bambini.
  • 11:25 - 11:29
    La prima generazione di bambini
    il cui abuso è diventato virale
  • 11:29 - 11:31
    sono oggi dei giovani adulti.
  • 11:31 - 11:34
    Il Centro canadese
    per la protezione dei bambini
  • 11:34 - 11:37
    ha recentemente condotto
    uno studio su questi giovani
  • 11:37 - 11:41
    per comprendere il trauma
    dal quale cercano di riprendersi,
  • 11:41 - 11:44
    sapendo che il loro abuso
    continua a vivere.
  • 11:45 - 11:50
    L'80% di questi giovani adulti
    ha pensato al suicidio.
  • 11:51 - 11:55
    Più del 60% ha tentato il suicidio.
  • 11:56 - 12:01
    E la maggior parte di loro vive
    ogni giorno con la paura
  • 12:01 - 12:05
    che mentre cammina per strada
    o fa un colloquio di lavoro
  • 12:05 - 12:08
    o va a scuola
  • 12:08 - 12:10
    o conosce qualcuno online,
  • 12:10 - 12:14
    quella persona possa
    aver visto il suo abuso.
  • 12:15 - 12:19
    E ciò si verifica in più del 30% di loro.
  • 12:20 - 12:25
    Riconosciuti a causa del materiale
    sul loro abuso che circola online.
  • 12:26 - 12:29
    Non sarà facile,
  • 12:29 - 12:32
    ma nemmeno impossibile.
  • 12:32 - 12:35
    Ora serve la volontà,
  • 12:35 - 12:36
    la volontà della nostra società
  • 12:37 - 12:40
    di guardare a qualcosa veramente
    difficile da guardare,
  • 12:40 - 12:42
    di tirar fuori dall'oscurità qualcosa
  • 12:42 - 12:45
    che dia voce a questi bambini;
  • 12:46 - 12:51
    la volontà delle aziende di agire
    e assicurarsi che le loro piattaforme
  • 12:51 - 12:54
    non siano complici di abusi su minori;
  • 12:55 - 12:59
    la volontà dei governi di investire
    sulle forze dell'ordine,
  • 12:59 - 13:04
    fornendo gli strumenti necessari
    per indagare su un primo reato digitale,
  • 13:04 - 13:08
    anche quando le vittime
    non possono parlare per sé.
  • 13:10 - 13:13
    Questo impegno audace
    fa parte di quella volontà.
  • 13:14 - 13:20
    È una dichiarazione di guerra contro
    uno dei mali più oscuri dell'umanità.
  • 13:20 - 13:22
    Ma quello a cui tengo di più
  • 13:22 - 13:26
    è che sia davvero
    un investimento, in un futuro
  • 13:26 - 13:29
    in cui ogni bambino possa
    semplicemente essere un bambino.
  • 13:29 - 13:31
    Grazie.
  • 13:31 - 13:37
    (Applausi)
Title:
Come possiamo eliminare da internet il materiale pedopornografico
Speaker:
Julie Cordua
Description:

L'Imprenditrice Sociale Julie Cordua lavora su un problema di cui non è facile parlare: l'abuso sessuale minorile in immagini e video su internet. All'associazione Thorn, Cordua sta creando una tecnologia che colleghi industria tecnologica, forze dell'ordine e governo, per poter porre rapidamente fine alla distribuzione virale di materiale contenente abusi su bambini e poterli salvare più velocemente. Approfondite come questa soluzione modulare potrebbe aiutare a smantellare le comunità che per il mondo, oggi, diffondono gli abusi sessuali sui minori. Questo ambizioso progetto è parte di Audacious Project, un'iniziativa di TED per ispirare e finanziare cambiamenti a livello globale.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Italian subtitles

Revisions