Italian subtitles

← Ecco come i deepfake minano la verità e compromettono la democrazia

Get Embed Code
21 Languages

Showing Revision 126 created 11/26/2019 by Elena Montrasio.

  1. [Questo discorso contiene
    materiale per adulti]
  2. Rana Ayyub è un giornalista indiana

  3. che, grazie alle sue inchieste,
    ha svelato la corruzione del governo
  4. e le violazioni dei diritti umani.
  5. Con il tempo,
  6. si è abituata alle aspre critiche
    e alle polemiche sul suo lavoro.
  7. Ma niente di tutto ciò poteva prepararla
    a ciò che successe nell'aprile del 2018.
  8. Era seduta al bar con un'amica,
    quando lo vide per la prima volta:

  9. un video di due minuti e 20 secondi
    dove era protagonista di un atto sessuale.
  10. Non poteva credere ai suoi occhi.
  11. Non aveva mai fatto un video
    a sfondo sessuale.
  12. Sfortunatamente, però,
    migliaia e migliaia di persone
  13. credevano che fosse lei.
  14. Ho intervistato Ayyub circa tre mesi fa,

  15. in tema con il mio libro
    sulla privacy sessuale.
  16. Sono una docente di legge, avvocato
    e sostenitrice dei diritti civili.
  17. È incredibilmente frustante
    sapere che al momento
  18. la legge può fare ben poco per aiutarla.
  19. Mentre parlavamo,
  20. mi spiegò che si sarebbe dovuta aspettare
    un finto video a sfondo sessuale.
  21. Mi disse: "Si sa, il sesso è spesso usato
    per umiliare e infamare le donne,
  22. specialmente donne della minoranza,
  23. e soprattutto donne della minoranza
    che osano sfidare uomini di potere”,
  24. come aveva fatto lei nel suo lavoro.
  25. Il finto video sessuale
    è diventato virale in 48 ore.
  26. Tutti i suoi account online
    erano invasi da screenshot del video,
  27. da minacce di stupro e di morte
    descritte nel dettaglio
  28. e da offese circa la sua fede islamica.
  29. I post online suggerivano
    che fosse "disponibile" al sesso.
  30. Fu vittima di "doxing",
  31. ovvero il suo indirizzo di casa
    e il suo numero di telefono
  32. furono diffusi sul web.
  33. Il video fu condiviso più di 40.000 volte.
  34. Quando qualcuno è preso di mira
    da questo tipo di attacco virtuale,

  35. il danno è profondo.
  36. La vita di Rana Ayyub è stata stravolta.
  37. Per settimane, riuscì a malapena
    a mangiare o a parlare.
  38. Smise di scrivere e chiuse
    tutti i suoi account social,
  39. cosa molto difficile per una giornalista.
  40. Aveva paura di uscire di casa.
  41. E se gli utenti fossero seri
    nelle loro minacce?
  42. Il Consiglio dei diritti umani ONU
    confermò che non era pazza.
  43. Si dichiararono pubblicamente
    preoccupati per la sua incolumità.
  44. Rana Ayyub ha subito un deepfake:

  45. un sistema di intelligenza artificiale
  46. che manipola o fabbrica
    registrazioni audio e video
  47. per mostrare persone
    che fanno o dicono cose
  48. che non hanno mai fatto o detto.
  49. I deepfake sembrano autentici
    e realistici, ma non lo sono:
  50. sono dei clamorosi falsi.
  51. Anche se questa tecnologia
    è ancora in fase di perfezionamento,
  52. è largamente disponibile.
  53. La più recente attenzione
    ai deepfake è scaturita,

  54. così come fanno molte cose online,
  55. dalla pornografia.
  56. All'inizio del 2018

  57. qualcuno rese disponibile
    su Reddit uno strumento
  58. che permetteva agli utenti di inserire
    volti all'interno di video porno.
  59. Ne seguì una valanga di finti video porno
  60. con le celebrità femminili
    più amate dal pubblico.
  61. Oggi su YouTube si possono trovare
    tantissimi tutorial
  62. con precise istruzioni
  63. su come creare un deepfake
    dalla propria applicazione desktop.
  64. Presto sarà forse possibile farli
    anche dai nostri telefoni.
  65. È l'interazione tra alcune
    delle nostre più intime fragilità umane
  66. e gli strumenti della rete
  67. che può trasformare i deepfake in armi.
  68. Lasciatemi spiegare.
  69. In quanto essere umani, si scatena in noi
    una reazione viscerale ad audio e video.

  70. Crediamo siano veri,
  71. partendo dal presupposto che puoi fidarti
  72. di ciò che i tuoi occhi e le tue orecchie
    ti stanno dicendo.
  73. Questo è il meccanismo
  74. che potrebbe minare
    il nostro comune senso della realtà.
  75. Nonostante giudichiamo i deepfake
    come reali, non lo sono.
  76. Siamo attratti dal volgare
    e dal provocante.
  77. Tendiamo a credere
    e a condividere informazioni
  78. che sono negative e romanzate.
  79. Alcuni ricercatori hanno scoperto
    che le bufale online si diffondono
  80. 10 volte più velocemente
    delle storie vere.
  81. Inoltre, siamo attirati verso informazioni
  82. che si allineano ai nostri punti di vista.
  83. Gli psicologi chiamano questa propensione
    il "bias di conferma".
  84. Le piattaforme social
    amplificano questa tendenza,
  85. consentendoci di condividere notizie
    in modo istantaneo e su scala globale,
  86. che sono fedeli alle nostre opinioni.
  87. I deepfake hanno il potenziale di causare
    gravi danni individuali e comunitari.

  88. Immaginatevi un deepfake
  89. che mostri dei soldati Americani,
    in Afghanistan, bruciare il Corano.
  90. Viene immediato pensare che quel video
    possa provocare violenza
  91. contro quei soldati.
  92. E cosa succederebbe se,
    il giorno immediatamente successivo,
  93. arrivasse un nuovo deepfake
  94. che mostrasse un famoso imam di Londra
  95. elogiare l'attacco a quei soldati?
  96. Il risultato potrebbe sfociare
    in violenza e malcontento civile,
  97. non solo in Afghanistan
    o nel Regno Unito,
  98. ma in tutto il mondo.
  99. E voi potreste dirmi:

  100. "Dai, Danielle, è impossibile".
  101. Ma non lo è.
  102. Abbiamo visto che il diffondersi di bufale
  103. su WhatsApp e su altri servizi
    di messaggistica online
  104. ha portato all'accanimento
    contro le minoranze etniche.
  105. E si trattava solo di messaggi.
  106. Pensate se fossero stati video.
  107. I deepfake hanno il potenziale
    di distruggere la fiducia che riponiamo

  108. nelle istituzioni democratiche.
  109. Immaginatevi la sera prima di un'elezione.
  110. C'è un deepfake che mostra
    uno dei principali candidati
  111. gravemente malato.
  112. Il deepfake
    potrebbe rovesciare le elezioni
  113. e scuotere la nostra convinzione
    per cui le elezioni siano legittime.
  114. Immaginate che la sera prima
    di un'offerta pubblica iniziale
  115. di un'importante banca internazionale
  116. ci fosse un deepfake che rappresenta
    l'amministratore delegato
  117. che declama teorie complottistiche
    mentre è ubriaco.
  118. Quel deepfake
    potrebbe far perdere l'offerta
  119. e, ancora peggio, far vacillare la nostra
    percezione sulla stabilità dei mercati.
  120. I deepfake sono in grado di sfruttare
    e amplificare la sfiducia che già proviamo

  121. nei confronti dei politici, dei leader
    economici e di altri leader influenti.
  122. Trovano un pubblico propenso a crederci.
  123. La ricerca della verità è messa a rischio.
  124. Gli esperti prevedono che con i progressi
    nell'intelligenza artificiale
  125. presto sarà difficile, se non impossibile,
  126. distinguere un video autentico
    da uno falso.
  127. Come può, quindi, emergere la verità
    in un mondo oppresso dai deepfake?

  128. Continueremo a procedere lungo
    la strada della minima resistenza
  129. e a credere quello che vogliamo,
  130. a sfavore della verità?
  131. E non solo potremmo credere al falso,
  132. ma potremmo iniziare
    a dubitare della realtà.
  133. Abbiamo già visto persone
    appellarsi al fenomeno dei deepfake
  134. per gettare dubbi sulle evidenti prove
    delle loro colpe.
  135. Abbiamo sentito i politici negare
    gli audio dei propri spiacevoli commenti:
  136. "Dai, sono fake news.
  137. Non potete credere a ciò che
    i vostri occhi ed orecchie vi dicono".
  138. Questa è la minaccia
  139. che io e il professor Robert Chasney
    chiamiamo "il dividendo del bugiardo":
  140. è il rischio che i bugiardi
    si appellino ai deepfake
  141. per non assumersi la responsabilità
    delle proprie azioni.
  142. È indubbio il fatto
    che ci sia moltissimo lavoro da fare.

  143. Abbiamo bisogno di una soluzione proattiva
  144. da aziende tecnologiche, da legislatori,
  145. dagli organi di polizia e dai media.
  146. Abbiamo anche bisogno
    di una sana dose di resilienza sociale.
  147. Oggi, proprio adesso, siamo coinvolti
    in un dibattito molto aperto
  148. sulle responsabilità
    dell'industria tecnologica.
  149. Il mio consiglio per le piattaforme social
  150. è stato di modificare i termini d'uso
    e le linee guida comunitarie,
  151. al fine di bandire i deepfake pericolosi.
  152. Questa soluzione
    richiederà il giudizio umano
  153. ed è costosa.
  154. Ma abbiamo bisogno di esseri umani
  155. che guardino il contenuto
    e il contesto di un deepfake
  156. per capire se si tratti
    di un'imitazione dannosa
  157. o se, al contrario, si tratti di satira,
    arte o informazioni valide.
  158. Ma cosa ci dice la legge?

  159. La legge è maestra.
  160. Ci insegna cos'è dannoso
    e cos'è sbagliato.
  161. Determina il comportamento,
    scoraggia i responsabili punendoli
  162. e garantendo tutele alle vittime.
  163. Ad oggi, la legge non è pronta
    a fronteggiare la sfida dei deepfake.
  164. In tutto il mondo
  165. mancano leggi studiate su misura
  166. che sarebbero deputate a combattere
    le imitazioni digitali
  167. che invadono la privacy sessuale,
  168. danneggiano la reputazione
  169. e provocano squilibri emotivi.
  170. Quello che è capitato a Rana Ayyub
    sta diventando sempre più comune.
  171. Ma quando lei è andata
    dalla polizia a Delhi,
  172. le hanno detto
    che non si poteva fare nulla.
  173. La triste verità è che ciò potrebbe valere
  174. anche negli Stati Uniti e in Europa.
  175. Abbiamo un vuoto legale
    che dobbiamo colmare.

  176. Io e la dottoressa Mary Anne Franks
    lavoriamo con legislatori americani
  177. allo scopo di concepire una legislazione
    che vieti imitazioni digitali dannose,
  178. equivalenti al furto d'identità.
  179. Abbiamo riscontrato azioni simili
  180. in Islanda, Regno Unito e Australia.
  181. Ma questo è solo un piccolo pezzo
    nel puzzle normativo.
  182. Sono consapevole che la legge
    non sia una panacea, giusto?

  183. È uno strumento poco affilato.
  184. Dobbiamo usarlo saggiamente.
  185. Ha anche alcuni impedimenti pratici.
  186. Non è possibile usare la legge contro chi
    non si può identificare e trovare.
  187. E se il colpevole vive fuori dallo Stato
  188. in cui vive la vittima,
  189. potrebbe non essere possibile esigere
  190. che il responsabile si presenti
    ai tribunali locali
  191. per l'udienza.
  192. Ci servirà una reazione condivisa
    a livello internazionale.
  193. L'informazione deve essere
    parte integrante di questo processo.
  194. Gli organi di polizia
    non possono far rispettare le leggi
  195. se non le conoscono
  196. e non possono gestire problemi
    che non comprendono.
  197. Durante le mie ricerche sul cyberstalking
  198. ho appreso che agli organi di polizia
    mancava la formazione adeguata
  199. per capire le leggi di quel settore
  200. e i pericoli dell'abuso di internet.
  201. Per questo spesso dicevano alle vittime:
  202. "Spegnete il computer. Ignorateli.
    Spariranno".
  203. Nel caso di Rana Ayyub è successo così.
  204. Le fu detto:
    "Forza, ne stai facendo una tragedia.
  205. Sono semplicemente maschi
    che si comportano da maschi".
  206. Alla legislazione dobbiamo abbinare
    l'impegno nella formazione.
  207. La conoscenza deve essere
    un obiettivo anche per i media.

  208. I giornalisti necessitano di istruzione
    sul fenomeno dei deepfake
  209. affinché non lo intensifichino
    o lo diffondano.
  210. Qui è dove entriamo in gioco tutti quanti.
  211. Ciascuno di noi ha bisogno di istruzione.
  212. Clicchiamo, condividiamo, mettiamo
    "mi piace" senza nemmeno pensarci.
  213. Dobbiamo fare di meglio.
  214. Ci serve un radar più sofisticato
    per rilevare le bufale.
  215. Mentre ci occupiamo
    delle possibili soluzioni,

  216. dovremo superare innumerevoli difficoltà.
  217. Rana Ayyub sta tutt'ora lottando
    contro i risvolti del fatto.
  218. Non si sente ancora libera
    di esprimersi online e offline.
  219. Mi ha detto che
  220. avverte ancora la sensazione di avere
    mille occhi puntati sul suo corpo nudo,
  221. anche se, razionalmente,
    sa che non era il suo vero corpo.
  222. Ha frequenti attacchi di panico
  223. specialmente quando uno sconosciuto
    tenta di fotografarla.
  224. "E se faranno un altro deepfake?"
    pensa fra sé e sé.
  225. Per il bene di persone come Rana Ayyub
  226. e per il bene della nostra democrazia,
  227. dobbiamo agire immediatamente.
  228. Grazie.

  229. (Applausi)