Return to Video

Ecco come i deepfake minano la verità e compromettono la democrazia

  • 0:00 - 0:03
    [Questo discorso contiene
    materiale per adulti]
  • 0:06 - 0:09
    Rana Ayyub è un giornalista indiana
  • 0:09 - 0:12
    che, grazie alle sue inchieste,
    ha svelato la corruzione del governo
  • 0:12 - 0:15
    e le violazioni dei diritti umani.
  • 0:15 - 0:16
    Con il tempo,
  • 0:16 - 0:19
    si è abituata alle aspre critiche
    e alle polemiche sul suo lavoro.
  • 0:20 - 0:25
    Ma niente di tutto ciò poteva prepararla
    a ciò che successe nell'aprile del 2018.
  • 0:26 - 0:30
    Era seduta al bar con un'amica,
    quando lo vide per la prima volta:
  • 0:30 - 0:35
    un video di due minuti e 20 secondi
    dove era protagonista di un atto sessuale.
  • 0:35 - 0:38
    Non poteva credere ai suoi occhi.
  • 0:38 - 0:40
    Non aveva mai fatto un video
    a sfondo sessuale.
  • 0:41 - 0:44
    Sfortunatamente, però,
    migliaia e migliaia di persone
  • 0:44 - 0:46
    credevano che fosse lei.
  • 0:46 - 0:50
    Ho intervistato Ayyub circa tre mesi fa,
  • 0:50 - 0:52
    in tema con il mio libro
    sulla privacy sessuale.
  • 0:53 - 0:56
    Sono una docente di legge, avvocato
    e sostenitrice dei diritti civili.
  • 0:56 - 1:01
    È incredibilmente frustante
    sapere che al momento
  • 1:01 - 1:03
    la legge può fare ben poco per aiutarla.
  • 1:03 - 1:05
    Mentre parlavamo,
  • 1:05 - 1:10
    mi spiegò che si sarebbe dovuta aspettare
    un finto video a sfondo sessuale.
  • 1:10 - 1:16
    Mi disse: "Si sa, il sesso è spesso usato
    per umiliare e infamare le donne,
  • 1:16 - 1:18
    specialmente donne della minoranza,
  • 1:18 - 1:22
    e soprattutto donne della minoranza
    che osano sfidare uomini di potere”,
  • 1:22 - 1:24
    come aveva fatto lei nel suo lavoro.
  • 1:25 - 1:29
    Il finto video sessuale
    è diventato virale in 48 ore.
  • 1:30 - 1:35
    Tutti i suoi account online
    erano invasi da screenshot del video,
  • 1:35 - 1:38
    da minacce di stupro e di morte
    descritte nel dettaglio
  • 1:38 - 1:41
    e da offese circa la sua fede islamica.
  • 1:41 - 1:46
    I post online suggerivano
    che fosse "disponibile" al sesso.
  • 1:46 - 1:48
    Fu vittima di "doxing",
  • 1:48 - 1:50
    ovvero il suo indirizzo di casa
    e il suo numero di telefono
  • 1:50 - 1:52
    furono diffusi sul web.
  • 1:53 - 1:57
    Il video fu condiviso più di 40.000 volte.
  • 1:58 - 2:02
    Quando qualcuno è preso di mira
    da questo tipo di attacco virtuale,
  • 2:02 - 2:04
    il danno è profondo.
  • 2:04 - 2:08
    La vita di Rana Ayyub è stata stravolta.
  • 2:08 - 2:12
    Per settimane, riuscì a malapena
    a mangiare o a parlare.
  • 2:12 - 2:16
    Smise di scrivere e chiuse
    tutti i suoi account social,
  • 2:16 - 2:19
    cosa molto difficile per una giornalista.
  • 2:19 - 2:23
    Aveva paura di uscire di casa.
  • 2:23 - 2:26
    E se gli utenti fossero seri
    nelle loro minacce?
  • 2:26 - 2:31
    Il Consiglio dei diritti umani ONU
    confermò che non era pazza.
  • 2:31 - 2:35
    Si dichiararono pubblicamente
    preoccupati per la sua incolumità.
  • 2:37 - 2:41
    Rana Ayyub ha subito un deepfake:
  • 2:41 - 2:44
    un sistema di intelligenza artificiale
  • 2:44 - 2:48
    che manipola o fabbrica
    registrazioni audio e video
  • 2:48 - 2:51
    per mostrare persone
    che fanno o dicono cose
  • 2:51 - 2:52
    che non hanno mai fatto o detto.
  • 2:53 - 2:56
    I deepfake sembrano autentici
    e realistici, ma non lo sono:
  • 2:56 - 2:58
    sono dei clamorosi falsi.
  • 2:59 - 3:03
    Anche se questa tecnologia
    è ancora in fase di perfezionamento,
  • 3:03 - 3:05
    è largamente disponibile.
  • 3:05 - 3:08
    La più recente attenzione
    ai deepfake è scaturita,
  • 3:08 - 3:11
    così come fanno molte cose online,
  • 3:11 - 3:12
    dalla pornografia.
  • 3:12 - 3:15
    All'inizio del 2018
  • 3:15 - 3:17
    qualcuno rese disponibile
    su Reddit uno strumento
  • 3:17 - 3:22
    che permetteva agli utenti di inserire
    volti all'interno di video porno.
  • 3:22 - 3:25
    Ne seguì una valanga di finti video porno
  • 3:25 - 3:28
    con le celebrità femminili
    più amate dal pubblico.
  • 3:29 - 3:32
    Oggi su YouTube si possono trovare
    tantissimi tutorial
  • 3:32 - 3:34
    con precise istruzioni
  • 3:35 - 3:38
    su come creare un deepfake
    dalla propria applicazione desktop.
  • 3:38 - 3:42
    Presto sarà forse possibile farli
    anche dai nostri telefoni.
  • 3:43 - 3:48
    È l'interazione tra alcune
    delle nostre più intime fragilità umane
  • 3:48 - 3:50
    e gli strumenti della rete
  • 3:50 - 3:53
    che può trasformare i deepfake in armi.
  • 3:53 - 3:54
    Lasciatemi spiegare.
  • 3:55 - 3:59
    In quanto essere umani, si scatena in noi
    una reazione viscerale ad audio e video.
  • 4:00 - 4:01
    Crediamo siano veri,
  • 4:01 - 4:03
    partendo dal presupposto che puoi fidarti
  • 4:03 - 4:06
    di ciò che i tuoi occhi e le tue orecchie
    ti stanno dicendo.
  • 4:06 - 4:08
    Questo è il meccanismo
  • 4:08 - 4:12
    che potrebbe minare
    il nostro comune senso della realtà.
  • 4:12 - 4:15
    Nonostante giudichiamo i deepfake
    come reali, non lo sono.
  • 4:16 - 4:20
    Siamo attratti dal volgare
    e dal provocante.
  • 4:20 - 4:23
    Tendiamo a credere
    e a condividere informazioni
  • 4:23 - 4:25
    che sono negative e romanzate.
  • 4:26 - 4:29
    Alcuni ricercatori hanno scoperto
    che le bufale online si diffondono
  • 4:29 - 4:32
    10 volte più velocemente
    delle storie vere.
  • 4:34 - 4:38
    Inoltre, siamo attirati verso informazioni
  • 4:38 - 4:40
    che si allineano ai nostri punti di vista.
  • 4:41 - 4:45
    Gli psicologi chiamano questa propensione
    il "bias di conferma".
  • 4:45 - 4:50
    Le piattaforme social
    amplificano questa tendenza,
  • 4:50 - 4:54
    consentendoci di condividere notizie
    in modo istantaneo e su scala globale,
  • 4:54 - 4:55
    che sono fedeli alle nostre opinioni.
  • 4:57 - 5:02
    I deepfake hanno il potenziale di causare
    gravi danni individuali e comunitari.
  • 5:03 - 5:05
    Immaginatevi un deepfake
  • 5:05 - 5:09
    che mostri dei soldati Americani,
    in Afghanistan, bruciare il Corano.
  • 5:11 - 5:14
    Viene immediato pensare che quel video
    possa provocare violenza
  • 5:14 - 5:15
    contro quei soldati.
  • 5:16 - 5:19
    E cosa succederebbe se,
    il giorno immediatamente successivo,
  • 5:19 - 5:21
    arrivasse un nuovo deepfake
  • 5:21 - 5:24
    che mostrasse un famoso imam di Londra
  • 5:24 - 5:27
    elogiare l'attacco a quei soldati?
  • 5:28 - 5:31
    Il risultato potrebbe sfociare
    in violenza e malcontento civile,
  • 5:31 - 5:34
    non solo in Afghanistan
    o nel Regno Unito,
  • 5:34 - 5:36
    ma in tutto il mondo.
  • 5:36 - 5:37
    E voi potreste dirmi:
  • 5:37 - 5:40
    "Dai, Danielle, è impossibile".
  • 5:40 - 5:41
    Ma non lo è.
  • 5:41 - 5:43
    Abbiamo visto che il diffondersi di bufale
  • 5:44 - 5:46
    su WhatsApp e su altri servizi
    di messaggistica online
  • 5:46 - 5:49
    ha portato all'accanimento
    contro le minoranze etniche.
  • 5:49 - 5:51
    E si trattava solo di messaggi.
  • 5:51 - 5:53
    Pensate se fossero stati video.
  • 5:55 - 6:00
    I deepfake hanno il potenziale
    di distruggere la fiducia che riponiamo
  • 6:00 - 6:02
    nelle istituzioni democratiche.
  • 6:03 - 6:06
    Immaginatevi la sera prima di un'elezione.
  • 6:06 - 6:09
    C'è un deepfake che mostra
    uno dei principali candidati
  • 6:09 - 6:10
    gravemente malato.
  • 6:11 - 6:14
    Il deepfake
    potrebbe rovesciare le elezioni
  • 6:14 - 6:17
    e scuotere la nostra convinzione
    per cui le elezioni siano legittime.
  • 6:19 - 6:22
    Immaginate che la sera prima
    di un'offerta pubblica iniziale
  • 6:22 - 6:24
    di un'importante banca internazionale
  • 6:24 - 6:27
    ci fosse un deepfake che rappresenta
    l'amministratore delegato
  • 6:27 - 6:30
    che declama teorie complottistiche
    mentre è ubriaco.
  • 6:31 - 6:34
    Quel deepfake
    potrebbe far perdere l'offerta
  • 6:34 - 6:38
    e, ancora peggio, far vacillare la nostra
    percezione sulla stabilità dei mercati.
  • 6:39 - 6:46
    I deepfake sono in grado di sfruttare
    e amplificare la sfiducia che già proviamo
  • 6:46 - 6:51
    nei confronti dei politici, dei leader
    economici e di altri leader influenti.
  • 6:51 - 6:54
    Trovano un pubblico propenso a crederci.
  • 6:55 - 6:58
    La ricerca della verità è messa a rischio.
  • 6:59 - 7:03
    Gli esperti prevedono che con i progressi
    nell'intelligenza artificiale
  • 7:03 - 7:06
    presto sarà difficile, se non impossibile,
  • 7:06 - 7:10
    distinguere un video autentico
    da uno falso.
  • 7:11 - 7:16
    Come può, quindi, emergere la verità
    in un mondo oppresso dai deepfake?
  • 7:17 - 7:20
    Continueremo a procedere lungo
    la strada della minima resistenza
  • 7:20 - 7:23
    e a credere quello che vogliamo,
  • 7:23 - 7:24
    a sfavore della verità?
  • 7:25 - 7:28
    E non solo potremmo credere al falso,
  • 7:28 - 7:31
    ma potremmo iniziare
    a dubitare della realtà.
  • 7:32 - 7:36
    Abbiamo già visto persone
    appellarsi al fenomeno dei deepfake
  • 7:36 - 7:40
    per gettare dubbi sulle evidenti prove
    delle loro colpe.
  • 7:40 - 7:46
    Abbiamo sentito i politici negare
    gli audio dei propri spiacevoli commenti:
  • 7:46 - 7:48
    "Dai, sono fake news.
  • 7:48 - 7:52
    Non potete credere a ciò che
    i vostri occhi ed orecchie vi dicono".
  • 7:52 - 7:54
    Questa è la minaccia
  • 7:54 - 8:00
    che io e il professor Robert Chasney
    chiamiamo "il dividendo del bugiardo":
  • 8:00 - 8:03
    è il rischio che i bugiardi
    si appellino ai deepfake
  • 8:03 - 8:06
    per non assumersi la responsabilità
    delle proprie azioni.
  • 8:07 - 8:10
    È indubbio il fatto
    che ci sia moltissimo lavoro da fare.
  • 8:11 - 8:14
    Abbiamo bisogno di una soluzione proattiva
  • 8:14 - 8:17
    da aziende tecnologiche, da legislatori,
  • 8:17 - 8:19
    dagli organi di polizia e dai media.
  • 8:20 - 8:24
    Abbiamo anche bisogno
    di una sana dose di resilienza sociale.
  • 8:26 - 8:29
    Oggi, proprio adesso, siamo coinvolti
    in un dibattito molto aperto
  • 8:29 - 8:32
    sulle responsabilità
    dell'industria tecnologica.
  • 8:33 - 8:36
    Il mio consiglio per le piattaforme social
  • 8:36 - 8:40
    è stato di modificare i termini d'uso
    e le linee guida comunitarie,
  • 8:40 - 8:42
    al fine di bandire i deepfake pericolosi.
  • 8:43 - 8:47
    Questa soluzione
    richiederà il giudizio umano
  • 8:47 - 8:48
    ed è costosa.
  • 8:49 - 8:51
    Ma abbiamo bisogno di esseri umani
  • 8:51 - 8:55
    che guardino il contenuto
    e il contesto di un deepfake
  • 8:55 - 8:59
    per capire se si tratti
    di un'imitazione dannosa
  • 8:59 - 9:03
    o se, al contrario, si tratti di satira,
    arte o informazioni valide.
  • 9:04 - 9:06
    Ma cosa ci dice la legge?
  • 9:07 - 9:09
    La legge è maestra.
  • 9:10 - 9:14
    Ci insegna cos'è dannoso
    e cos'è sbagliato.
  • 9:14 - 9:18
    Determina il comportamento,
    scoraggia i responsabili punendoli
  • 9:18 - 9:20
    e garantendo tutele alle vittime.
  • 9:21 - 9:25
    Ad oggi, la legge non è pronta
    a fronteggiare la sfida dei deepfake.
  • 9:26 - 9:28
    In tutto il mondo
  • 9:28 - 9:30
    mancano leggi studiate su misura
  • 9:30 - 9:34
    che sarebbero deputate a combattere
    le imitazioni digitali
  • 9:34 - 9:36
    che invadono la privacy sessuale,
  • 9:36 - 9:37
    danneggiano la reputazione
  • 9:37 - 9:39
    e provocano squilibri emotivi.
  • 9:40 - 9:44
    Quello che è capitato a Rana Ayyub
    sta diventando sempre più comune.
  • 9:44 - 9:46
    Ma quando lei è andata
    dalla polizia a Delhi,
  • 9:46 - 9:48
    le hanno detto
    che non si poteva fare nulla.
  • 9:49 - 9:52
    La triste verità è che ciò potrebbe valere
  • 9:52 - 9:55
    anche negli Stati Uniti e in Europa.
  • 9:55 - 10:00
    Abbiamo un vuoto legale
    che dobbiamo colmare.
  • 10:00 - 10:04
    Io e la dottoressa Mary Anne Franks
    lavoriamo con legislatori americani
  • 10:04 - 10:09
    allo scopo di concepire una legislazione
    che vieti imitazioni digitali dannose,
  • 10:09 - 10:12
    equivalenti al furto d'identità.
  • 10:12 - 10:14
    Abbiamo riscontrato azioni simili
  • 10:14 - 10:18
    in Islanda, Regno Unito e Australia.
  • 10:18 - 10:21
    Ma questo è solo un piccolo pezzo
    nel puzzle normativo.
  • 10:23 - 10:26
    Sono consapevole che la legge
    non sia una panacea, giusto?
  • 10:26 - 10:28
    È uno strumento poco affilato.
  • 10:28 - 10:30
    Dobbiamo usarlo saggiamente.
  • 10:30 - 10:33
    Ha anche alcuni impedimenti pratici.
  • 10:34 - 10:39
    Non è possibile usare la legge contro chi
    non si può identificare e trovare.
  • 10:39 - 10:43
    E se il colpevole vive fuori dallo Stato
  • 10:43 - 10:45
    in cui vive la vittima,
  • 10:45 - 10:46
    potrebbe non essere possibile esigere
  • 10:46 - 10:49
    che il responsabile si presenti
    ai tribunali locali
  • 10:49 - 10:50
    per l'udienza.
  • 10:50 - 10:54
    Ci servirà una reazione condivisa
    a livello internazionale.
  • 10:56 - 10:59
    L'informazione deve essere
    parte integrante di questo processo.
  • 11:00 - 11:04
    Gli organi di polizia
    non possono far rispettare le leggi
  • 11:04 - 11:05
    se non le conoscono
  • 11:05 - 11:08
    e non possono gestire problemi
    che non comprendono.
  • 11:08 - 11:11
    Durante le mie ricerche sul cyberstalking
  • 11:11 - 11:14
    ho appreso che agli organi di polizia
    mancava la formazione adeguata
  • 11:14 - 11:17
    per capire le leggi di quel settore
  • 11:17 - 11:19
    e i pericoli dell'abuso di internet.
  • 11:19 - 11:22
    Per questo spesso dicevano alle vittime:
  • 11:22 - 11:26
    "Spegnete il computer. Ignorateli.
    Spariranno".
  • 11:26 - 11:29
    Nel caso di Rana Ayyub è successo così.
  • 11:29 - 11:33
    Le fu detto:
    "Forza, ne stai facendo una tragedia.
  • 11:33 - 11:35
    Sono semplicemente maschi
    che si comportano da maschi".
  • 11:35 - 11:41
    Alla legislazione dobbiamo abbinare
    l'impegno nella formazione.
  • 11:42 - 11:45
    La conoscenza deve essere
    un obiettivo anche per i media.
  • 11:46 - 11:50
    I giornalisti necessitano di istruzione
    sul fenomeno dei deepfake
  • 11:50 - 11:54
    affinché non lo intensifichino
    o lo diffondano.
  • 11:55 - 11:57
    Qui è dove entriamo in gioco tutti quanti.
  • 11:57 - 12:01
    Ciascuno di noi ha bisogno di istruzione.
  • 12:01 - 12:05
    Clicchiamo, condividiamo, mettiamo
    "mi piace" senza nemmeno pensarci.
  • 12:06 - 12:07
    Dobbiamo fare di meglio.
  • 12:08 - 12:11
    Ci serve un radar più sofisticato
    per rilevare le bufale.
  • 12:14 - 12:18
    Mentre ci occupiamo
    delle possibili soluzioni,
  • 12:18 - 12:20
    dovremo superare innumerevoli difficoltà.
  • 12:21 - 12:24
    Rana Ayyub sta tutt'ora lottando
    contro i risvolti del fatto.
  • 12:25 - 12:29
    Non si sente ancora libera
    di esprimersi online e offline.
  • 12:30 - 12:31
    Mi ha detto che
  • 12:31 - 12:36
    avverte ancora la sensazione di avere
    mille occhi puntati sul suo corpo nudo,
  • 12:36 - 12:40
    anche se, razionalmente,
    sa che non era il suo vero corpo.
  • 12:40 - 12:43
    Ha frequenti attacchi di panico
  • 12:43 - 12:47
    specialmente quando uno sconosciuto
    tenta di fotografarla.
  • 12:47 - 12:50
    "E se faranno un altro deepfake?"
    pensa fra sé e sé.
  • 12:51 - 12:55
    Per il bene di persone come Rana Ayyub
  • 12:55 - 12:57
    e per il bene della nostra democrazia,
  • 12:57 - 12:59
    dobbiamo agire immediatamente.
  • 12:59 - 13:01
    Grazie.
  • 13:01 - 13:03
    (Applausi)
Title:
Ecco come i deepfake minano la verità e compromettono la democrazia
Speaker:
Danielle Citron
Description:

La strategia dei deepfake usata per manipolare video e audio con intenti dolosi, indipendentemente dal fatto che sia per alimentare violenza o diffamare politici e giornalisti, si sta rivelando una vera e propria minaccia. Data la crescente accessibilità di questi strumenti e la verosimiglianza di ciò che ne deriva, in che modo verranno influenzate le nostre convinzioni sul mondo? In questo discorso premonitore, la professoressa di diritto Danielle Citron rivela come i deepfake enfatizzino la nostra sfiducia e suggerisce alcuni metodi per salvaguardare la verità.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Italian subtitles

Revisions