0:00:00.105,0:00:02.872 [Questo discorso contiene[br]materiale per adulti] 0:00:05.762,0:00:08.754 Rana Ayyub è un giornalista indiana 0:00:08.778,0:00:12.260 che, grazie alle sue inchieste, [br]ha svelato la corruzione del governo 0:00:12.411,0:00:14.568 e le violazioni dei diritti umani. 0:00:14.910,0:00:16.157 Con il tempo, 0:00:16.181,0:00:19.484 si è abituata alle aspre critiche [br]e alle polemiche sul suo lavoro. 0:00:20.149,0:00:25.228 Ma niente di tutto ciò poteva prepararla[br]a ciò che successe nell'aprile del 2018. 0:00:26.125,0:00:29.776 Era seduta al bar con un'amica,[br]quando lo vide per la prima volta: 0:00:29.800,0:00:34.743 un video di due minuti e 20 secondi [br]dove era protagonista di un atto sessuale. 0:00:35.088,0:00:37.537 Non poteva credere ai suoi occhi. 0:00:37.561,0:00:39.834 Non aveva mai fatto un video [br]a sfondo sessuale. 0:00:40.506,0:00:43.971 Sfortunatamente, però, [br]migliaia e migliaia di persone 0:00:43.975,0:00:45.661 credevano che fosse lei. 0:00:46.473,0:00:49.617 Ho intervistato Ayyub circa tre mesi fa, 0:00:49.641,0:00:52.145 in tema con il mio libro[br]sulla privacy sessuale. 0:00:52.681,0:00:56.119 Sono una docente di legge, avvocato[br]e sostenitrice dei diritti civili. 0:00:56.204,0:01:00.815 È incredibilmente frustante[br]sapere che al momento 0:01:00.839,0:01:03.327 la legge può fare ben poco per aiutarla. 0:01:03.458,0:01:05.005 Mentre parlavamo, 0:01:05.029,0:01:09.541 mi spiegò che si sarebbe dovuta aspettare[br]un finto video a sfondo sessuale. 0:01:10.038,0:01:15.634 Mi disse: "Si sa, il sesso è spesso usato[br]per umiliare e infamare le donne, 0:01:15.658,0:01:18.086 specialmente donne della minoranza, 0:01:18.110,0:01:22.422 e soprattutto donne della minoranza [br]che osano sfidare uomini di potere”, 0:01:22.446,0:01:24.302 come aveva fatto lei nel suo lavoro. 0:01:25.191,0:01:29.167 Il finto video sessuale [br]è diventato virale in 48 ore. 0:01:30.064,0:01:35.371 Tutti i suoi account online [br]erano invasi da screenshot del video, 0:01:35.395,0:01:38.022 da minacce di stupro e di morte[br]descritte nel dettaglio 0:01:38.046,0:01:40.579 e da offese circa la sua fede islamica. 0:01:41.426,0:01:45.990 I post online suggerivano [br]che fosse "disponibile" al sesso. 0:01:46.014,0:01:47.624 Fu vittima di "doxing", 0:01:47.648,0:01:50.426 ovvero il suo indirizzo di casa[br]e il suo numero di telefono 0:01:50.426,0:01:52.172 furono diffusi sul web. 0:01:52.879,0:01:56.963 Il video fu condiviso più di 40.000 volte. 0:01:57.760,0:02:01.696 Quando qualcuno è preso di mira [br]da questo tipo di attacco virtuale, 0:02:01.720,0:02:03.783 il danno è profondo. 0:02:04.482,0:02:07.521 La vita di Rana Ayyub è stata stravolta. 0:02:08.211,0:02:11.545 Per settimane, riuscì a malapena [br]a mangiare o a parlare. 0:02:11.919,0:02:15.608 Smise di scrivere e chiuse[br]tutti i suoi account social, 0:02:15.632,0:02:18.950 cosa molto difficile per una giornalista. 0:02:19.188,0:02:22.672 Aveva paura di uscire di casa. 0:02:22.696,0:02:25.718 E se gli utenti fossero seri[br]nelle loro minacce? 0:02:26.395,0:02:30.760 Il Consiglio dei diritti umani ONU[br]confermò che non era pazza. 0:02:30.784,0:02:35.421 Si dichiararono pubblicamente[br]preoccupati per la sua incolumità. 0:02:36.776,0:02:41.005 Rana Ayyub ha subito un deepfake: 0:02:41.029,0:02:43.569 un sistema di intelligenza artificiale 0:02:43.593,0:02:47.704 che manipola o fabbrica[br]registrazioni audio e video 0:02:47.704,0:02:50.555 per mostrare persone[br]che fanno o dicono cose 0:02:50.555,0:02:52.421 che non hanno mai fatto o detto. 0:02:52.807,0:02:56.168 I deepfake sembrano autentici[br]e realistici, ma non lo sono: 0:02:56.192,0:02:57.964 sono dei clamorosi falsi. 0:02:59.228,0:03:03.022 Anche se questa tecnologia[br]è ancora in fase di perfezionamento, 0:03:03.046,0:03:04.830 è largamente disponibile. 0:03:05.371,0:03:08.443 La più recente attenzione [br]ai deepfake è scaturita, 0:03:08.467,0:03:10.628 così come fanno molte cose online, 0:03:10.652,0:03:11.907 dalla pornografia. 0:03:12.498,0:03:14.609 All'inizio del 2018 0:03:14.633,0:03:17.125 qualcuno rese disponibile [br]su Reddit uno strumento 0:03:17.125,0:03:21.537 che permetteva agli utenti di inserire [br]volti all'interno di video porno. 0:03:21.561,0:03:25.001 Ne seguì una valanga di finti video porno 0:03:25.025,0:03:28.092 con le celebrità femminili[br]più amate dal pubblico. 0:03:28.712,0:03:32.189 Oggi su YouTube si possono trovare[br]tantissimi tutorial 0:03:32.213,0:03:34.499 con precise istruzioni 0:03:34.523,0:03:37.686 su come creare un deepfake [br]dalla propria applicazione desktop. 0:03:38.260,0:03:41.966 Presto sarà forse possibile farli[br]anche dai nostri telefoni. 0:03:43.072,0:03:48.454 È l'interazione tra alcune [br]delle nostre più intime fragilità umane 0:03:48.478,0:03:50.160 e gli strumenti della rete 0:03:50.184,0:03:52.850 che può trasformare i deepfake in armi. 0:03:52.874,0:03:54.074 Lasciatemi spiegare. 0:03:54.875,0:03:59.441 In quanto essere umani, si scatena in noi[br]una reazione viscerale ad audio e video. 0:03:59.860,0:04:01.348 Crediamo siano veri, 0:04:01.372,0:04:03.474 partendo dal presupposto che puoi fidarti 0:04:03.474,0:04:06.292 di ciò che i tuoi occhi e le tue orecchie[br]ti stanno dicendo. 0:04:06.476,0:04:08.175 Questo è il meccanismo 0:04:08.199,0:04:11.897 che potrebbe minare [br]il nostro comune senso della realtà. 0:04:11.921,0:04:15.068 Nonostante giudichiamo i deepfake[br]come reali, non lo sono. 0:04:15.604,0:04:19.761 Siamo attratti dal volgare[br]e dal provocante. 0:04:20.365,0:04:23.412 Tendiamo a credere [br]e a condividere informazioni 0:04:23.436,0:04:25.459 che sono negative e romanzate. 0:04:25.809,0:04:29.281 Alcuni ricercatori hanno scoperto [br]che le bufale online si diffondono 0:04:29.281,0:04:31.938 10 volte più velocemente[br]delle storie vere. 0:04:34.015,0:04:38.395 Inoltre, siamo attirati verso informazioni 0:04:38.419,0:04:40.441 che si allineano ai nostri punti di vista. 0:04:40.950,0:04:44.511 Gli psicologi chiamano questa propensione[br]il "bias di conferma". 0:04:45.300,0:04:49.687 Le piattaforme social[br]amplificano questa tendenza, 0:04:49.711,0:04:53.592 consentendoci di condividere notizie[br]in modo istantaneo e su scala globale, 0:04:53.616,0:04:55.408 che sono fedeli alle nostre opinioni. 0:04:56.735,0:05:02.303 I deepfake hanno il potenziale di causare[br]gravi danni individuali e comunitari. 0:05:03.204,0:05:05.228 Immaginatevi un deepfake 0:05:05.252,0:05:09.434 che mostri dei soldati Americani,[br]in Afghanistan, bruciare il Corano. 0:05:10.807,0:05:13.831 Viene immediato pensare che quel video[br]possa provocare violenza 0:05:13.855,0:05:15.388 contro quei soldati. 0:05:15.847,0:05:18.720 E cosa succederebbe se,[br]il giorno immediatamente successivo, 0:05:18.744,0:05:20.998 arrivasse un nuovo deepfake 0:05:21.022,0:05:24.339 che mostrasse un famoso imam di Londra 0:05:24.363,0:05:26.830 elogiare l'attacco a quei soldati? 0:05:27.617,0:05:30.780 Il risultato potrebbe sfociare[br]in violenza e malcontento civile, 0:05:30.804,0:05:34.053 non solo in Afghanistan[br]o nel Regno Unito, 0:05:34.077,0:05:35.592 ma in tutto il mondo. 0:05:36.251,0:05:37.259 E voi potreste dirmi: 0:05:37.259,0:05:39.606 "Dai, Danielle, è impossibile". 0:05:39.704,0:05:40.854 Ma non lo è. 0:05:41.293,0:05:43.484 Abbiamo visto che il diffondersi di bufale 0:05:43.508,0:05:46.230 su WhatsApp e su altri servizi[br]di messaggistica online 0:05:46.254,0:05:49.015 ha portato all'accanimento[br]contro le minoranze etniche. 0:05:49.039,0:05:50.926 E si trattava solo di messaggi. 0:05:50.950,0:05:52.974 Pensate se fossero stati video. 0:05:54.593,0:05:59.950 I deepfake hanno il potenziale [br]di distruggere la fiducia che riponiamo 0:05:59.974,0:06:01.966 nelle istituzioni democratiche. 0:06:03.006,0:06:05.673 Immaginatevi la sera prima di un'elezione. 0:06:05.996,0:06:09.234 C'è un deepfake che mostra[br]uno dei principali candidati 0:06:09.258,0:06:10.408 gravemente malato. 0:06:11.202,0:06:13.535 Il deepfake[br]potrebbe rovesciare le elezioni 0:06:13.559,0:06:16.934 e scuotere la nostra convinzione [br]per cui le elezioni siano legittime. 0:06:18.515,0:06:21.841 Immaginate che la sera prima[br]di un'offerta pubblica iniziale 0:06:21.865,0:06:24.198 di un'importante banca internazionale 0:06:24.222,0:06:27.371 ci fosse un deepfake che rappresenta[br]l'amministratore delegato 0:06:27.395,0:06:30.092 che declama teorie complottistiche[br]mentre è ubriaco. 0:06:30.887,0:06:33.934 Quel deepfake [br]potrebbe far perdere l'offerta 0:06:33.958,0:06:38.073 e, ancora peggio, far vacillare la nostra[br]percezione sulla stabilità dei mercati. 0:06:39.385,0:06:46.374 I deepfake sono in grado di sfruttare[br]e amplificare la sfiducia che già proviamo 0:06:46.398,0:06:50.612 nei confronti dei politici, dei leader[br]economici e di altri leader influenti. 0:06:50.945,0:06:54.229 Trovano un pubblico propenso a crederci. 0:06:55.287,0:06:58.052 La ricerca della verità è messa a rischio. 0:06:59.077,0:07:02.641 Gli esperti prevedono che con i progressi [br]nell'intelligenza artificiale 0:07:02.665,0:07:06.347 presto sarà difficile, se non impossibile, 0:07:06.371,0:07:10.140 distinguere un video autentico [br]da uno falso. 0:07:11.022,0:07:16.363 Come può, quindi, emergere la verità[br]in un mondo oppresso dai deepfake? 0:07:16.752,0:07:20.172 Continueremo a procedere lungo[br]la strada della minima resistenza 0:07:20.196,0:07:22.633 e a credere quello che vogliamo, 0:07:22.657,0:07:23.807 a sfavore della verità? 0:07:24.831,0:07:28.006 E non solo potremmo credere al falso, 0:07:28.030,0:07:31.356 ma potremmo iniziare[br]a dubitare della realtà. 0:07:31.887,0:07:35.966 Abbiamo già visto persone [br]appellarsi al fenomeno dei deepfake 0:07:35.990,0:07:39.910 per gettare dubbi sulle evidenti prove[br]delle loro colpe. 0:07:39.934,0:07:45.903 Abbiamo sentito i politici negare [br]gli audio dei propri spiacevoli commenti: 0:07:45.927,0:07:47.673 "Dai, sono fake news. 0:07:47.697,0:07:51.617 Non potete credere a ciò che[br]i vostri occhi ed orecchie vi dicono". 0:07:52.402,0:07:54.133 Questa è la minaccia 0:07:54.157,0:07:59.593 che io e il professor Robert Chasney[br]chiamiamo "il dividendo del bugiardo": 0:07:59.617,0:08:02.974 è il rischio che i bugiardi [br]si appellino ai deepfake 0:08:02.998,0:08:05.903 per non assumersi la responsabilità[br]delle proprie azioni. 0:08:06.963,0:08:10.034 È indubbio il fatto [br]che ci sia moltissimo lavoro da fare. 0:08:10.606,0:08:13.931 Abbiamo bisogno di una soluzione proattiva 0:08:13.955,0:08:17.466 da aziende tecnologiche, da legislatori, 0:08:17.490,0:08:19.474 dagli organi di polizia e dai media. 0:08:20.093,0:08:24.109 Abbiamo anche bisogno [br]di una sana dose di resilienza sociale. 0:08:25.506,0:08:29.402 Oggi, proprio adesso, siamo coinvolti[br]in un dibattito molto aperto 0:08:29.426,0:08:32.339 sulle responsabilità[br]dell'industria tecnologica. 0:08:32.926,0:08:35.958 Il mio consiglio per le piattaforme social[br] 0:08:35.982,0:08:39.855 è stato di modificare i termini d'uso[br]e le linee guida comunitarie, 0:08:39.879,0:08:42.215 al fine di bandire i deepfake pericolosi. 0:08:42.712,0:08:46.672 Questa soluzione[br]richiederà il giudizio umano 0:08:46.696,0:08:48.267 ed è costosa. 0:08:48.673,0:08:50.958 Ma abbiamo bisogno di esseri umani 0:08:50.982,0:08:54.855 che guardino il contenuto[br]e il contesto di un deepfake 0:08:54.879,0:08:58.561 per capire se si tratti[br]di un'imitazione dannosa 0:08:58.585,0:09:02.967 o se, al contrario, si tratti di satira,[br]arte o informazioni valide. 0:09:04.118,0:09:05.613 Ma cosa ci dice la legge? 0:09:06.666,0:09:09.015 La legge è maestra. 0:09:09.515,0:09:13.553 Ci insegna cos'è dannoso[br]e cos'è sbagliato. 0:09:13.577,0:09:18.132 Determina il comportamento,[br]scoraggia i responsabili punendoli 0:09:18.156,0:09:20.423 e garantendo tutele alle vittime. 0:09:21.148,0:09:25.428 Ad oggi, la legge non è pronta [br]a fronteggiare la sfida dei deepfake. 0:09:26.116,0:09:27.506 In tutto il mondo 0:09:27.530,0:09:29.974 mancano leggi studiate su misura 0:09:29.998,0:09:33.568 che sarebbero deputate a combattere[br]le imitazioni digitali 0:09:33.592,0:09:35.823 che invadono la privacy sessuale, 0:09:35.847,0:09:37.234 danneggiano la reputazione 0:09:37.258,0:09:39.209 e provocano squilibri emotivi. 0:09:39.725,0:09:43.598 Quello che è capitato a Rana Ayyub[br]sta diventando sempre più comune. 0:09:44.074,0:09:46.372 Ma quando lei è andata [br]dalla polizia a Delhi, 0:09:46.382,0:09:48.447 le hanno detto [br]che non si poteva fare nulla. 0:09:49.101,0:09:52.284 La triste verità è che ciò potrebbe valere 0:09:52.308,0:09:54.574 anche negli Stati Uniti e in Europa. 0:09:55.300,0:09:59.656 Abbiamo un vuoto legale [br]che dobbiamo colmare. 0:10:00.292,0:10:04.384 Io e la dottoressa Mary Anne Franks[br]lavoriamo con legislatori americani 0:10:04.408,0:10:09.212 allo scopo di concepire una legislazione[br]che vieti imitazioni digitali dannose, 0:10:09.236,0:10:11.769 equivalenti al furto d'identità. 0:10:12.252,0:10:14.378 Abbiamo riscontrato azioni simili 0:10:14.402,0:10:17.703 in Islanda, Regno Unito e Australia. 0:10:18.157,0:10:21.416 Ma questo è solo un piccolo pezzo[br]nel puzzle normativo. 0:10:22.911,0:10:26.080 Sono consapevole che la legge[br]non sia una panacea, giusto? 0:10:26.104,0:10:27.704 È uno strumento poco affilato. 0:10:28.346,0:10:29.885 Dobbiamo usarlo saggiamente. 0:10:30.411,0:10:33.223 Ha anche alcuni impedimenti pratici. 0:10:33.657,0:10:38.701 Non è possibile usare la legge contro chi [br]non si può identificare e trovare. 0:10:39.463,0:10:42.749 E se il colpevole vive fuori dallo Stato 0:10:42.773,0:10:44.527 in cui vive la vittima, 0:10:44.527,0:10:46.304 potrebbe non essere possibile esigere 0:10:46.304,0:10:48.707 che il responsabile si presenti[br]ai tribunali locali 0:10:48.707,0:10:49.857 per l'udienza. 0:10:50.236,0:10:54.299 Ci servirà una reazione condivisa[br]a livello internazionale. 0:10:55.819,0:10:59.152 L'informazione deve essere [br]parte integrante di questo processo. 0:10:59.803,0:11:03.534 Gli organi di polizia [br]non possono far rispettare le leggi 0:11:03.558,0:11:05.016 se non le conoscono 0:11:05.040,0:11:07.636 e non possono gestire problemi[br]che non comprendono. 0:11:08.376,0:11:10.567 Durante le mie ricerche sul cyberstalking 0:11:10.591,0:11:14.090 ho appreso che agli organi di polizia[br]mancava la formazione adeguata 0:11:14.114,0:11:16.696 per capire le leggi di quel settore 0:11:16.720,0:11:19.069 e i pericoli dell'abuso di internet. 0:11:19.093,0:11:21.775 Per questo spesso dicevano alle vittime: 0:11:21.799,0:11:25.770 "Spegnete il computer. Ignorateli. [br]Spariranno". 0:11:26.261,0:11:28.727 Nel caso di Rana Ayyub è successo così. 0:11:29.102,0:11:32.570 Le fu detto: [br]"Forza, ne stai facendo una tragedia. 0:11:32.594,0:11:35.227 Sono semplicemente maschi[br]che si comportano da maschi". 0:11:35.268,0:11:40.520 Alla legislazione dobbiamo abbinare[br]l'impegno nella formazione. 0:11:42.053,0:11:45.482 La conoscenza deve essere[br]un obiettivo anche per i media. 0:11:46.180,0:11:50.440 I giornalisti necessitano di istruzione[br]sul fenomeno dei deepfake 0:11:50.464,0:11:53.503 affinché non lo intensifichino[br]o lo diffondano. 0:11:54.583,0:11:56.751 Qui è dove entriamo in gioco tutti quanti. 0:11:56.775,0:12:00.630 Ciascuno di noi ha bisogno di istruzione. 0:12:01.375,0:12:05.050 Clicchiamo, condividiamo, mettiamo[br]"mi piace" senza nemmeno pensarci. 0:12:05.551,0:12:07.098 Dobbiamo fare di meglio. 0:12:07.726,0:12:10.535 Ci serve un radar più sofisticato[br]per rilevare le bufale. 0:12:13.744,0:12:17.585 Mentre ci occupiamo [br]delle possibili soluzioni, 0:12:17.609,0:12:20.172 dovremo superare innumerevoli difficoltà. 0:12:21.093,0:12:24.109 Rana Ayyub sta tutt'ora lottando [br]contro i risvolti del fatto. 0:12:24.669,0:12:28.858 Non si sente ancora libera[br]di esprimersi online e offline. 0:12:29.566,0:12:30.931 Mi ha detto che 0:12:30.955,0:12:36.029 avverte ancora la sensazione di avere[br]mille occhi puntati sul suo corpo nudo, 0:12:36.053,0:12:39.714 anche se, razionalmente, [br]sa che non era il suo vero corpo. 0:12:40.371,0:12:42.720 Ha frequenti attacchi di panico 0:12:42.744,0:12:46.844 specialmente quando uno sconosciuto[br]tenta di fotografarla. 0:12:46.868,0:12:50.379 "E se faranno un altro deepfake?"[br]pensa fra sé e sé. 0:12:51.082,0:12:55.003 Per il bene di persone come Rana Ayyub 0:12:55.027,0:12:57.333 e per il bene della nostra democrazia, 0:12:57.357,0:12:59.459 dobbiamo agire immediatamente. 0:12:59.459,0:13:00.530 Grazie. 0:13:00.530,0:13:03.198 (Applausi)