WEBVTT 00:00:00.105 --> 00:00:02.872 [Questo discorso contiene materiale per adulti] NOTE Paragraph 00:00:05.762 --> 00:00:08.754 Rana Ayyub è un giornalista indiana 00:00:08.778 --> 00:00:12.260 che, grazie alle sue inchieste, ha svelato la corruzione del governo 00:00:12.411 --> 00:00:14.568 e le violazioni dei diritti umani. 00:00:14.910 --> 00:00:16.157 Con il tempo, 00:00:16.181 --> 00:00:19.484 si è abituata alle aspre critiche e alle polemiche sul suo lavoro. 00:00:20.149 --> 00:00:25.228 Ma niente di tutto ciò poteva prepararla a ciò che successe nell'aprile del 2018. NOTE Paragraph 00:00:26.125 --> 00:00:29.776 Era seduta al bar con un'amica, quando lo vide per la prima volta: 00:00:29.800 --> 00:00:34.743 un video di due minuti e 20 secondi dove era protagonista di un atto sessuale. 00:00:35.088 --> 00:00:37.537 Non poteva credere ai suoi occhi. 00:00:37.561 --> 00:00:39.834 Non aveva mai fatto un video a sfondo sessuale. 00:00:40.506 --> 00:00:43.971 Sfortunatamente, però, migliaia e migliaia di persone 00:00:43.975 --> 00:00:45.661 credevano che fosse lei. NOTE Paragraph 00:00:46.473 --> 00:00:49.617 Ho intervistato Ayyub circa tre mesi fa, 00:00:49.641 --> 00:00:52.145 in tema con il mio libro sulla privacy sessuale. 00:00:52.681 --> 00:00:56.119 Sono una docente di legge, avvocato e sostenitrice dei diritti civili. 00:00:56.204 --> 00:01:00.815 È incredibilmente frustante sapere che al momento 00:01:00.839 --> 00:01:03.327 la legge può fare ben poco per aiutarla. 00:01:03.458 --> 00:01:05.005 Mentre parlavamo, 00:01:05.029 --> 00:01:09.541 mi spiegò che si sarebbe dovuta aspettare un finto video a sfondo sessuale. 00:01:10.038 --> 00:01:15.634 Mi disse: "Si sa, il sesso è spesso usato per umiliare e infamare le donne, 00:01:15.658 --> 00:01:18.086 specialmente donne della minoranza, 00:01:18.110 --> 00:01:22.422 e soprattutto donne della minoranza che osano sfidare uomini di potere”, 00:01:22.446 --> 00:01:24.302 come aveva fatto lei nel suo lavoro. 00:01:25.191 --> 00:01:29.167 Il finto video sessuale è diventato virale in 48 ore. 00:01:30.064 --> 00:01:35.371 Tutti i suoi account online erano invasi da screenshot del video, 00:01:35.395 --> 00:01:38.022 da minacce di stupro e di morte descritte nel dettaglio 00:01:38.046 --> 00:01:40.579 e da offese circa la sua fede islamica. 00:01:41.426 --> 00:01:45.990 I post online suggerivano che fosse "disponibile" al sesso. 00:01:46.014 --> 00:01:47.624 Fu vittima di "doxing", 00:01:47.648 --> 00:01:50.426 ovvero il suo indirizzo di casa e il suo numero di telefono 00:01:50.426 --> 00:01:52.172 furono diffusi sul web. 00:01:52.879 --> 00:01:56.963 Il video fu condiviso più di 40.000 volte. NOTE Paragraph 00:01:57.760 --> 00:02:01.696 Quando qualcuno è preso di mira da questo tipo di attacco virtuale, 00:02:01.720 --> 00:02:03.783 il danno è profondo. 00:02:04.482 --> 00:02:07.521 La vita di Rana Ayyub è stata stravolta. 00:02:08.211 --> 00:02:11.545 Per settimane, riuscì a malapena a mangiare o a parlare. 00:02:11.919 --> 00:02:15.608 Smise di scrivere e chiuse tutti i suoi account social, 00:02:15.632 --> 00:02:18.950 cosa molto difficile per una giornalista. 00:02:19.188 --> 00:02:22.672 Aveva paura di uscire di casa. 00:02:22.696 --> 00:02:25.718 E se gli utenti fossero seri nelle loro minacce? 00:02:26.395 --> 00:02:30.760 Il Consiglio dei diritti umani ONU confermò che non era pazza. 00:02:30.784 --> 00:02:35.421 Si dichiararono pubblicamente preoccupati per la sua incolumità. NOTE Paragraph 00:02:36.776 --> 00:02:41.005 Rana Ayyub ha subito un deepfake: 00:02:41.029 --> 00:02:43.569 un sistema di intelligenza artificiale 00:02:43.593 --> 00:02:47.704 che manipola o fabbrica registrazioni audio e video 00:02:47.704 --> 00:02:50.555 per mostrare persone che fanno o dicono cose 00:02:50.555 --> 00:02:52.421 che non hanno mai fatto o detto. 00:02:52.807 --> 00:02:56.168 I deepfake sembrano autentici e realistici, ma non lo sono: 00:02:56.192 --> 00:02:57.964 sono dei clamorosi falsi. 00:02:59.228 --> 00:03:03.022 Anche se questa tecnologia è ancora in fase di perfezionamento, 00:03:03.046 --> 00:03:04.830 è largamente disponibile. NOTE Paragraph 00:03:05.371 --> 00:03:08.443 La più recente attenzione ai deepfake è scaturita, 00:03:08.467 --> 00:03:10.628 così come fanno molte cose online, 00:03:10.652 --> 00:03:11.907 dalla pornografia. NOTE Paragraph 00:03:12.498 --> 00:03:14.609 All'inizio del 2018 00:03:14.633 --> 00:03:17.125 qualcuno rese disponibile su Reddit uno strumento 00:03:17.125 --> 00:03:21.537 che permetteva agli utenti di inserire volti all'interno di video porno. 00:03:21.561 --> 00:03:25.001 Ne seguì una valanga di finti video porno 00:03:25.025 --> 00:03:28.092 con le celebrità femminili più amate dal pubblico. 00:03:28.712 --> 00:03:32.189 Oggi su YouTube si possono trovare tantissimi tutorial 00:03:32.213 --> 00:03:34.499 con precise istruzioni 00:03:34.523 --> 00:03:37.686 su come creare un deepfake dalla propria applicazione desktop. 00:03:38.260 --> 00:03:41.966 Presto sarà forse possibile farli anche dai nostri telefoni. 00:03:43.072 --> 00:03:48.454 È l'interazione tra alcune delle nostre più intime fragilità umane 00:03:48.478 --> 00:03:50.160 e gli strumenti della rete 00:03:50.184 --> 00:03:52.850 che può trasformare i deepfake in armi. 00:03:52.874 --> 00:03:54.074 Lasciatemi spiegare. NOTE Paragraph 00:03:54.875 --> 00:03:59.441 In quanto essere umani, si scatena in noi una reazione viscerale ad audio e video. 00:03:59.860 --> 00:04:01.348 Crediamo siano veri, 00:04:01.372 --> 00:04:03.474 partendo dal presupposto che puoi fidarti 00:04:03.474 --> 00:04:06.292 di ciò che i tuoi occhi e le tue orecchie ti stanno dicendo. 00:04:06.476 --> 00:04:08.175 Questo è il meccanismo 00:04:08.199 --> 00:04:11.897 che potrebbe minare il nostro comune senso della realtà. 00:04:11.921 --> 00:04:15.068 Nonostante giudichiamo i deepfake come reali, non lo sono. 00:04:15.604 --> 00:04:19.761 Siamo attratti dal volgare e dal provocante. 00:04:20.365 --> 00:04:23.412 Tendiamo a credere e a condividere informazioni 00:04:23.436 --> 00:04:25.459 che sono negative e romanzate. 00:04:25.809 --> 00:04:29.281 Alcuni ricercatori hanno scoperto che le bufale online si diffondono 00:04:29.281 --> 00:04:31.938 10 volte più velocemente delle storie vere. 00:04:34.015 --> 00:04:38.395 Inoltre, siamo attirati verso informazioni 00:04:38.419 --> 00:04:40.441 che si allineano ai nostri punti di vista. 00:04:40.950 --> 00:04:44.511 Gli psicologi chiamano questa propensione il "bias di conferma". 00:04:45.300 --> 00:04:49.687 Le piattaforme social amplificano questa tendenza, 00:04:49.711 --> 00:04:53.592 consentendoci di condividere notizie in modo istantaneo e su scala globale, 00:04:53.616 --> 00:04:55.408 che sono fedeli alle nostre opinioni. NOTE Paragraph 00:04:56.735 --> 00:05:02.303 I deepfake hanno il potenziale di causare gravi danni individuali e comunitari. 00:05:03.204 --> 00:05:05.228 Immaginatevi un deepfake 00:05:05.252 --> 00:05:09.434 che mostri dei soldati Americani, in Afghanistan, bruciare il Corano. 00:05:10.807 --> 00:05:13.831 Viene immediato pensare che quel video possa provocare violenza 00:05:13.855 --> 00:05:15.388 contro quei soldati. 00:05:15.847 --> 00:05:18.720 E cosa succederebbe se, il giorno immediatamente successivo, 00:05:18.744 --> 00:05:20.998 arrivasse un nuovo deepfake 00:05:21.022 --> 00:05:24.339 che mostrasse un famoso imam di Londra 00:05:24.363 --> 00:05:26.830 elogiare l'attacco a quei soldati? 00:05:27.617 --> 00:05:30.780 Il risultato potrebbe sfociare in violenza e malcontento civile, 00:05:30.804 --> 00:05:34.053 non solo in Afghanistan o nel Regno Unito, 00:05:34.077 --> 00:05:35.592 ma in tutto il mondo. NOTE Paragraph 00:05:36.251 --> 00:05:37.259 E voi potreste dirmi: 00:05:37.259 --> 00:05:39.606 "Dai, Danielle, è impossibile". 00:05:39.704 --> 00:05:40.854 Ma non lo è. 00:05:41.293 --> 00:05:43.484 Abbiamo visto che il diffondersi di bufale 00:05:43.508 --> 00:05:46.230 su WhatsApp e su altri servizi di messaggistica online 00:05:46.254 --> 00:05:49.015 ha portato all'accanimento contro le minoranze etniche. 00:05:49.039 --> 00:05:50.926 E si trattava solo di messaggi. 00:05:50.950 --> 00:05:52.974 Pensate se fossero stati video. NOTE Paragraph 00:05:54.593 --> 00:05:59.950 I deepfake hanno il potenziale di distruggere la fiducia che riponiamo 00:05:59.974 --> 00:06:01.966 nelle istituzioni democratiche. 00:06:03.006 --> 00:06:05.673 Immaginatevi la sera prima di un'elezione. 00:06:05.996 --> 00:06:09.234 C'è un deepfake che mostra uno dei principali candidati 00:06:09.258 --> 00:06:10.408 gravemente malato. 00:06:11.202 --> 00:06:13.535 Il deepfake potrebbe rovesciare le elezioni 00:06:13.559 --> 00:06:16.934 e scuotere la nostra convinzione per cui le elezioni siano legittime. 00:06:18.515 --> 00:06:21.841 Immaginate che la sera prima di un'offerta pubblica iniziale 00:06:21.865 --> 00:06:24.198 di un'importante banca internazionale 00:06:24.222 --> 00:06:27.371 ci fosse un deepfake che rappresenta l'amministratore delegato 00:06:27.395 --> 00:06:30.092 che declama teorie complottistiche mentre è ubriaco. 00:06:30.887 --> 00:06:33.934 Quel deepfake potrebbe far perdere l'offerta 00:06:33.958 --> 00:06:38.073 e, ancora peggio, far vacillare la nostra percezione sulla stabilità dei mercati. NOTE Paragraph 00:06:39.385 --> 00:06:46.374 I deepfake sono in grado di sfruttare e amplificare la sfiducia che già proviamo 00:06:46.398 --> 00:06:50.612 nei confronti dei politici, dei leader economici e di altri leader influenti. 00:06:50.945 --> 00:06:54.229 Trovano un pubblico propenso a crederci. 00:06:55.287 --> 00:06:58.052 La ricerca della verità è messa a rischio. 00:06:59.077 --> 00:07:02.641 Gli esperti prevedono che con i progressi nell'intelligenza artificiale 00:07:02.665 --> 00:07:06.347 presto sarà difficile, se non impossibile, 00:07:06.371 --> 00:07:10.140 distinguere un video autentico da uno falso. NOTE Paragraph 00:07:11.022 --> 00:07:16.363 Come può, quindi, emergere la verità in un mondo oppresso dai deepfake? 00:07:16.752 --> 00:07:20.172 Continueremo a procedere lungo la strada della minima resistenza 00:07:20.196 --> 00:07:22.633 e a credere quello che vogliamo, 00:07:22.657 --> 00:07:23.807 a sfavore della verità? 00:07:24.831 --> 00:07:28.006 E non solo potremmo credere al falso, 00:07:28.030 --> 00:07:31.356 ma potremmo iniziare a dubitare della realtà. 00:07:31.887 --> 00:07:35.966 Abbiamo già visto persone appellarsi al fenomeno dei deepfake 00:07:35.990 --> 00:07:39.910 per gettare dubbi sulle evidenti prove delle loro colpe. 00:07:39.934 --> 00:07:45.903 Abbiamo sentito i politici negare gli audio dei propri spiacevoli commenti: 00:07:45.927 --> 00:07:47.673 "Dai, sono fake news. 00:07:47.697 --> 00:07:51.617 Non potete credere a ciò che i vostri occhi ed orecchie vi dicono". 00:07:52.402 --> 00:07:54.133 Questa è la minaccia 00:07:54.157 --> 00:07:59.593 che io e il professor Robert Chasney chiamiamo "il dividendo del bugiardo": 00:07:59.617 --> 00:08:02.974 è il rischio che i bugiardi si appellino ai deepfake 00:08:02.998 --> 00:08:05.903 per non assumersi la responsabilità delle proprie azioni. NOTE Paragraph 00:08:06.963 --> 00:08:10.034 È indubbio il fatto che ci sia moltissimo lavoro da fare. 00:08:10.606 --> 00:08:13.931 Abbiamo bisogno di una soluzione proattiva 00:08:13.955 --> 00:08:17.466 da aziende tecnologiche, da legislatori, 00:08:17.490 --> 00:08:19.474 dagli organi di polizia e dai media. 00:08:20.093 --> 00:08:24.109 Abbiamo anche bisogno di una sana dose di resilienza sociale. 00:08:25.506 --> 00:08:29.402 Oggi, proprio adesso, siamo coinvolti in un dibattito molto aperto 00:08:29.426 --> 00:08:32.339 sulle responsabilità dell'industria tecnologica. 00:08:32.926 --> 00:08:35.958 Il mio consiglio per le piattaforme social 00:08:35.982 --> 00:08:39.855 è stato di modificare i termini d'uso e le linee guida comunitarie, 00:08:39.879 --> 00:08:42.215 al fine di bandire i deepfake pericolosi. 00:08:42.712 --> 00:08:46.672 Questa soluzione richiederà il giudizio umano 00:08:46.696 --> 00:08:48.267 ed è costosa. 00:08:48.673 --> 00:08:50.958 Ma abbiamo bisogno di esseri umani 00:08:50.982 --> 00:08:54.855 che guardino il contenuto e il contesto di un deepfake 00:08:54.879 --> 00:08:58.561 per capire se si tratti di un'imitazione dannosa 00:08:58.585 --> 00:09:02.967 o se, al contrario, si tratti di satira, arte o informazioni valide. NOTE Paragraph 00:09:04.118 --> 00:09:05.613 Ma cosa ci dice la legge? 00:09:06.666 --> 00:09:09.015 La legge è maestra. 00:09:09.515 --> 00:09:13.553 Ci insegna cos'è dannoso e cos'è sbagliato. 00:09:13.577 --> 00:09:18.132 Determina il comportamento, scoraggia i responsabili punendoli 00:09:18.156 --> 00:09:20.423 e garantendo tutele alle vittime. 00:09:21.148 --> 00:09:25.428 Ad oggi, la legge non è pronta a fronteggiare la sfida dei deepfake. 00:09:26.116 --> 00:09:27.506 In tutto il mondo 00:09:27.530 --> 00:09:29.974 mancano leggi studiate su misura 00:09:29.998 --> 00:09:33.568 che sarebbero deputate a combattere le imitazioni digitali 00:09:33.592 --> 00:09:35.823 che invadono la privacy sessuale, 00:09:35.847 --> 00:09:37.234 danneggiano la reputazione 00:09:37.258 --> 00:09:39.209 e provocano squilibri emotivi. 00:09:39.725 --> 00:09:43.598 Quello che è capitato a Rana Ayyub sta diventando sempre più comune. 00:09:44.074 --> 00:09:46.372 Ma quando lei è andata dalla polizia a Delhi, 00:09:46.382 --> 00:09:48.447 le hanno detto che non si poteva fare nulla. 00:09:49.101 --> 00:09:52.284 La triste verità è che ciò potrebbe valere 00:09:52.308 --> 00:09:54.574 anche negli Stati Uniti e in Europa. NOTE Paragraph 00:09:55.300 --> 00:09:59.656 Abbiamo un vuoto legale che dobbiamo colmare. 00:10:00.292 --> 00:10:04.384 Io e la dottoressa Mary Anne Franks lavoriamo con legislatori americani 00:10:04.408 --> 00:10:09.212 allo scopo di concepire una legislazione che vieti imitazioni digitali dannose, 00:10:09.236 --> 00:10:11.769 equivalenti al furto d'identità. 00:10:12.252 --> 00:10:14.378 Abbiamo riscontrato azioni simili 00:10:14.402 --> 00:10:17.703 in Islanda, Regno Unito e Australia. 00:10:18.157 --> 00:10:21.416 Ma questo è solo un piccolo pezzo nel puzzle normativo. NOTE Paragraph 00:10:22.911 --> 00:10:26.080 Sono consapevole che la legge non sia una panacea, giusto? 00:10:26.104 --> 00:10:27.704 È uno strumento poco affilato. 00:10:28.346 --> 00:10:29.885 Dobbiamo usarlo saggiamente. 00:10:30.411 --> 00:10:33.223 Ha anche alcuni impedimenti pratici. 00:10:33.657 --> 00:10:38.701 Non è possibile usare la legge contro chi non si può identificare e trovare. 00:10:39.463 --> 00:10:42.749 E se il colpevole vive fuori dallo Stato 00:10:42.773 --> 00:10:44.527 in cui vive la vittima, 00:10:44.527 --> 00:10:46.304 potrebbe non essere possibile esigere 00:10:46.304 --> 00:10:48.707 che il responsabile si presenti ai tribunali locali 00:10:48.707 --> 00:10:49.857 per l'udienza. 00:10:50.236 --> 00:10:54.299 Ci servirà una reazione condivisa a livello internazionale. 00:10:55.819 --> 00:10:59.152 L'informazione deve essere parte integrante di questo processo. 00:10:59.803 --> 00:11:03.534 Gli organi di polizia non possono far rispettare le leggi 00:11:03.558 --> 00:11:05.016 se non le conoscono 00:11:05.040 --> 00:11:07.636 e non possono gestire problemi che non comprendono. 00:11:08.376 --> 00:11:10.567 Durante le mie ricerche sul cyberstalking 00:11:10.591 --> 00:11:14.090 ho appreso che agli organi di polizia mancava la formazione adeguata 00:11:14.114 --> 00:11:16.696 per capire le leggi di quel settore 00:11:16.720 --> 00:11:19.069 e i pericoli dell'abuso di internet. 00:11:19.093 --> 00:11:21.775 Per questo spesso dicevano alle vittime: 00:11:21.799 --> 00:11:25.770 "Spegnete il computer. Ignorateli. Spariranno". 00:11:26.261 --> 00:11:28.727 Nel caso di Rana Ayyub è successo così. 00:11:29.102 --> 00:11:32.570 Le fu detto: "Forza, ne stai facendo una tragedia. 00:11:32.594 --> 00:11:35.227 Sono semplicemente maschi che si comportano da maschi". 00:11:35.268 --> 00:11:40.520 Alla legislazione dobbiamo abbinare l'impegno nella formazione. NOTE Paragraph 00:11:42.053 --> 00:11:45.482 La conoscenza deve essere un obiettivo anche per i media. 00:11:46.180 --> 00:11:50.440 I giornalisti necessitano di istruzione sul fenomeno dei deepfake 00:11:50.464 --> 00:11:53.503 affinché non lo intensifichino o lo diffondano. 00:11:54.583 --> 00:11:56.751 Qui è dove entriamo in gioco tutti quanti. 00:11:56.775 --> 00:12:00.630 Ciascuno di noi ha bisogno di istruzione. 00:12:01.375 --> 00:12:05.050 Clicchiamo, condividiamo, mettiamo "mi piace" senza nemmeno pensarci. 00:12:05.551 --> 00:12:07.098 Dobbiamo fare di meglio. 00:12:07.726 --> 00:12:10.535 Ci serve un radar più sofisticato per rilevare le bufale. NOTE Paragraph 00:12:13.744 --> 00:12:17.585 Mentre ci occupiamo delle possibili soluzioni, 00:12:17.609 --> 00:12:20.172 dovremo superare innumerevoli difficoltà. 00:12:21.093 --> 00:12:24.109 Rana Ayyub sta tutt'ora lottando contro i risvolti del fatto. 00:12:24.669 --> 00:12:28.858 Non si sente ancora libera di esprimersi online e offline. 00:12:29.566 --> 00:12:30.931 Mi ha detto che 00:12:30.955 --> 00:12:36.029 avverte ancora la sensazione di avere mille occhi puntati sul suo corpo nudo, 00:12:36.053 --> 00:12:39.714 anche se, razionalmente, sa che non era il suo vero corpo. 00:12:40.371 --> 00:12:42.720 Ha frequenti attacchi di panico 00:12:42.744 --> 00:12:46.844 specialmente quando uno sconosciuto tenta di fotografarla. 00:12:46.868 --> 00:12:50.379 "E se faranno un altro deepfake?" pensa fra sé e sé. 00:12:51.082 --> 00:12:55.003 Per il bene di persone come Rana Ayyub 00:12:55.027 --> 00:12:57.333 e per il bene della nostra democrazia, 00:12:57.357 --> 00:12:59.459 dobbiamo agire immediatamente. NOTE Paragraph 00:12:59.459 --> 00:13:00.530 Grazie. NOTE Paragraph 00:13:00.530 --> 00:13:03.198 (Applausi)