[Questo discorso contiene materiale per adulti] Rana Ayyub è un giornalista indiana che, grazie alle sue inchieste, ha svelato la corruzione del governo e le violazioni dei diritti umani. Con il tempo, si è abituata alle aspre critiche e alle polemiche sul suo lavoro. Ma niente di tutto ciò poteva prepararla a ciò che successe nell'aprile del 2018. Era seduta al bar con un'amica, quando lo vide per la prima volta: un video di due minuti e 20 secondi dove era protagonista di un atto sessuale. Non poteva credere ai suoi occhi. Non aveva mai fatto un video a sfondo sessuale. Sfortunatamente, però, migliaia e migliaia di persone credevano che fosse lei. Ho intervistato Ayyub circa tre mesi fa, in tema con il mio libro sulla privacy sessuale. Sono una docente di legge, avvocato e sostenitrice dei diritti civili. È incredibilmente frustante sapere che al momento la legge può fare ben poco per aiutarla. Mentre parlavamo, mi spiegò che si sarebbe dovuta aspettare un finto video a sfondo sessuale. Mi disse: "Si sa, il sesso è spesso usato per umiliare e infamare le donne, specialmente donne della minoranza, e soprattutto donne della minoranza che osano sfidare uomini di potere”, come aveva fatto lei nel suo lavoro. Il finto video sessuale è diventato virale in 48 ore. Tutti i suoi account online erano invasi da screenshot del video, da minacce di stupro e di morte descritte nel dettaglio e da offese circa la sua fede islamica. I post online suggerivano che fosse "disponibile" al sesso. Fu vittima di "doxing", ovvero il suo indirizzo di casa e il suo numero di telefono furono diffusi sul web. Il video fu condiviso più di 40.000 volte. Quando qualcuno è preso di mira da questo tipo di attacco virtuale, il danno è profondo. La vita di Rana Ayyub è stata stravolta. Per settimane, riuscì a malapena a mangiare o a parlare. Smise di scrivere e chiuse tutti i suoi account social, cosa molto difficile per una giornalista. Aveva paura di uscire di casa. E se gli utenti fossero seri nelle loro minacce? Il Consiglio dei diritti umani ONU confermò che non era pazza. Si dichiararono pubblicamente preoccupati per la sua incolumità. Rana Ayyub ha subito un deepfake: un sistema di intelligenza artificiale che manipola o fabbrica registrazioni audio e video per mostrare persone che fanno o dicono cose che non hanno mai fatto o detto. I deepfake sembrano autentici e realistici, ma non lo sono: sono dei clamorosi falsi. Anche se questa tecnologia è ancora in fase di perfezionamento, è largamente disponibile. La più recente attenzione ai deepfake è scaturita, così come fanno molte cose online, dalla pornografia. All'inizio del 2018 qualcuno rese disponibile su Reddit uno strumento che permetteva agli utenti di inserire volti all'interno di video porno. Ne seguì una valanga di finti video porno con le celebrità femminili più amate dal pubblico. Oggi su YouTube si possono trovare tantissimi tutorial con precise istruzioni su come creare un deepfake dalla propria applicazione desktop. Presto sarà forse possibile farli anche dai nostri telefoni. È l'interazione tra alcune delle nostre più intime fragilità umane e gli strumenti della rete che può trasformare i deepfake in armi. Lasciatemi spiegare. In quanto essere umani, si scatena in noi una reazione viscerale ad audio e video. Crediamo siano veri, partendo dal presupposto che puoi fidarti di ciò che i tuoi occhi e le tue orecchie ti stanno dicendo. Questo è il meccanismo che potrebbe minare il nostro comune senso della realtà. Nonostante giudichiamo i deepfake come reali, non lo sono. Siamo attratti dal volgare e dal provocante. Tendiamo a credere e a condividere informazioni che sono negative e romanzate. Alcuni ricercatori hanno scoperto che le bufale online si diffondono 10 volte più velocemente delle storie vere. Inoltre, siamo attirati verso informazioni che si allineano ai nostri punti di vista. Gli psicologi chiamano questa propensione il "bias di conferma". Le piattaforme social amplificano questa tendenza, consentendoci di condividere notizie in modo istantaneo e su scala globale, che sono fedeli alle nostre opinioni. I deepfake hanno il potenziale di causare gravi danni individuali e comunitari. Immaginatevi un deepfake che mostri dei soldati Americani, in Afghanistan, bruciare il Corano. Viene immediato pensare che quel video possa provocare violenza contro quei soldati. E cosa succederebbe se, il giorno immediatamente successivo, arrivasse un nuovo deepfake che mostrasse un famoso imam di Londra elogiare l'attacco a quei soldati? Il risultato potrebbe sfociare in violenza e malcontento civile, non solo in Afghanistan o nel Regno Unito, ma in tutto il mondo. E voi potreste dirmi: "Dai, Danielle, è impossibile". Ma non lo è. Abbiamo visto che il diffondersi di bufale su WhatsApp e su altri servizi di messaggistica online ha portato all'accanimento contro le minoranze etniche. E si trattava solo di messaggi. Pensate se fossero stati video. I deepfake hanno il potenziale di distruggere la fiducia che riponiamo nelle istituzioni democratiche. Immaginatevi la sera prima di un'elezione. C'è un deepfake che mostra uno dei principali candidati gravemente malato. Il deepfake potrebbe rovesciare le elezioni e scuotere la nostra convinzione per cui le elezioni siano legittime. Immaginate che la sera prima di un'offerta pubblica iniziale di un'importante banca internazionale ci fosse un deepfake che rappresenta l'amministratore delegato che declama teorie complottistiche mentre è ubriaco. Quel deepfake potrebbe far perdere l'offerta e, ancora peggio, far vacillare la nostra percezione sulla stabilità dei mercati. I deepfake sono in grado di sfruttare e amplificare la sfiducia che già proviamo nei confronti dei politici, dei leader economici e di altri leader influenti. Trovano un pubblico propenso a crederci. La ricerca della verità è messa a rischio. Gli esperti prevedono che con i progressi nell'intelligenza artificiale presto sarà difficile, se non impossibile, distinguere un video autentico da uno falso. Come può, quindi, emergere la verità in un mondo oppresso dai deepfake? Continueremo a procedere lungo la strada della minima resistenza e a credere quello che vogliamo, a sfavore della verità? E non solo potremmo credere al falso, ma potremmo iniziare a dubitare della realtà. Abbiamo già visto persone appellarsi al fenomeno dei deepfake per gettare dubbi sulle evidenti prove delle loro colpe. Abbiamo sentito i politici negare gli audio dei propri spiacevoli commenti: "Dai, sono fake news. Non potete credere a ciò che i vostri occhi ed orecchie vi dicono". Questa è la minaccia che io e il professor Robert Chasney chiamiamo "il dividendo del bugiardo": è il rischio che i bugiardi si appellino ai deepfake per non assumersi la responsabilità delle proprie azioni. È indubbio il fatto che ci sia moltissimo lavoro da fare. Abbiamo bisogno di una soluzione proattiva da aziende tecnologiche, da legislatori, dagli organi di polizia e dai media. Abbiamo anche bisogno di una sana dose di resilienza sociale. Oggi, proprio adesso, siamo coinvolti in un dibattito molto aperto sulle responsabilità dell'industria tecnologica. Il mio consiglio per le piattaforme social è stato di modificare i termini d'uso e le linee guida comunitarie, al fine di bandire i deepfake pericolosi. Questa soluzione richiederà il giudizio umano ed è costosa. Ma abbiamo bisogno di esseri umani che guardino il contenuto e il contesto di un deepfake per capire se si tratti di un'imitazione dannosa o se, al contrario, si tratti di satira, arte o informazioni valide. Ma cosa ci dice la legge? La legge è maestra. Ci insegna cos'è dannoso e cos'è sbagliato. Determina il comportamento, scoraggia i responsabili punendoli e garantendo tutele alle vittime. Ad oggi, la legge non è pronta a fronteggiare la sfida dei deepfake. In tutto il mondo mancano leggi studiate su misura che sarebbero deputate a combattere le imitazioni digitali che invadono la privacy sessuale, danneggiano la reputazione e provocano squilibri emotivi. Quello che è capitato a Rana Ayyub sta diventando sempre più comune. Ma quando lei è andata dalla polizia a Delhi, le hanno detto che non si poteva fare nulla. La triste verità è che ciò potrebbe valere anche negli Stati Uniti e in Europa. Abbiamo un vuoto legale che dobbiamo colmare. Io e la dottoressa Mary Anne Franks lavoriamo con legislatori americani allo scopo di concepire una legislazione che vieti imitazioni digitali dannose, equivalenti al furto d'identità. Abbiamo riscontrato azioni simili in Islanda, Regno Unito e Australia. Ma questo è solo un piccolo pezzo nel puzzle normativo. Sono consapevole che la legge non sia una panacea, giusto? È uno strumento poco affilato. Dobbiamo usarlo saggiamente. Ha anche alcuni impedimenti pratici. Non è possibile usare la legge contro chi non si può identificare e trovare. E se il colpevole vive fuori dallo Stato in cui vive la vittima, potrebbe non essere possibile esigere che il responsabile si presenti ai tribunali locali per l'udienza. Ci servirà una reazione condivisa a livello internazionale. L'informazione deve essere parte integrante di questo processo. Gli organi di polizia non possono far rispettare le leggi se non le conoscono e non possono gestire problemi che non comprendono. Durante le mie ricerche sul cyberstalking ho appreso che agli organi di polizia mancava la formazione adeguata per capire le leggi di quel settore e i pericoli dell'abuso di internet. Per questo spesso dicevano alle vittime: "Spegnete il computer. Ignorateli. Spariranno". Nel caso di Rana Ayyub è successo così. Le fu detto: "Forza, ne stai facendo una tragedia. Sono semplicemente maschi che si comportano da maschi". Alla legislazione dobbiamo abbinare l'impegno nella formazione. La conoscenza deve essere un obiettivo anche per i media. I giornalisti necessitano di istruzione sul fenomeno dei deepfake affinché non lo intensifichino o lo diffondano. Qui è dove entriamo in gioco tutti quanti. Ciascuno di noi ha bisogno di istruzione. Clicchiamo, condividiamo, mettiamo "mi piace" senza nemmeno pensarci. Dobbiamo fare di meglio. Ci serve un radar più sofisticato per rilevare le bufale. Mentre ci occupiamo delle possibili soluzioni, dovremo superare innumerevoli difficoltà. Rana Ayyub sta tutt'ora lottando contro i risvolti del fatto. Non si sente ancora libera di esprimersi online e offline. Mi ha detto che avverte ancora la sensazione di avere mille occhi puntati sul suo corpo nudo, anche se, razionalmente, sa che non era il suo vero corpo. Ha frequenti attacchi di panico specialmente quando uno sconosciuto tenta di fotografarla. "E se faranno un altro deepfake?" pensa fra sé e sé. Per il bene di persone come Rana Ayyub e per il bene della nostra democrazia, dobbiamo agire immediatamente. Grazie. (Applausi)