Ecco come i deepfake minano la verità e compromettono la democrazia
-
0:00 - 0:03[Questo discorso contiene
materiale per adulti] -
0:06 - 0:09Rana Ayyub è un giornalista indiana
-
0:09 - 0:12che, grazie alle sue inchieste,
ha svelato la corruzione del governo -
0:12 - 0:15e le violazioni dei diritti umani.
-
0:15 - 0:16Con il tempo,
-
0:16 - 0:19si è abituata alle aspre critiche
e alle polemiche sul suo lavoro. -
0:20 - 0:25Ma niente di tutto ciò poteva prepararla
a ciò che successe nell'aprile del 2018. -
0:26 - 0:30Era seduta al bar con un'amica,
quando lo vide per la prima volta: -
0:30 - 0:35un video di due minuti e 20 secondi
dove era protagonista di un atto sessuale. -
0:35 - 0:38Non poteva credere ai suoi occhi.
-
0:38 - 0:40Non aveva mai fatto un video
a sfondo sessuale. -
0:41 - 0:44Sfortunatamente, però,
migliaia e migliaia di persone -
0:44 - 0:46credevano che fosse lei.
-
0:46 - 0:50Ho intervistato Ayyub circa tre mesi fa,
-
0:50 - 0:52in tema con il mio libro
sulla privacy sessuale. -
0:53 - 0:56Sono una docente di legge, avvocato
e sostenitrice dei diritti civili. -
0:56 - 1:01È incredibilmente frustante
sapere che al momento -
1:01 - 1:03la legge può fare ben poco per aiutarla.
-
1:03 - 1:05Mentre parlavamo,
-
1:05 - 1:10mi spiegò che si sarebbe dovuta aspettare
un finto video a sfondo sessuale. -
1:10 - 1:16Mi disse: "Si sa, il sesso è spesso usato
per umiliare e infamare le donne, -
1:16 - 1:18specialmente donne della minoranza,
-
1:18 - 1:22e soprattutto donne della minoranza
che osano sfidare uomini di potere”, -
1:22 - 1:24come aveva fatto lei nel suo lavoro.
-
1:25 - 1:29Il finto video sessuale
è diventato virale in 48 ore. -
1:30 - 1:35Tutti i suoi account online
erano invasi da screenshot del video, -
1:35 - 1:38da minacce di stupro e di morte
descritte nel dettaglio -
1:38 - 1:41e da offese circa la sua fede islamica.
-
1:41 - 1:46I post online suggerivano
che fosse "disponibile" al sesso. -
1:46 - 1:48Fu vittima di "doxing",
-
1:48 - 1:50ovvero il suo indirizzo di casa
e il suo numero di telefono -
1:50 - 1:52furono diffusi sul web.
-
1:53 - 1:57Il video fu condiviso più di 40.000 volte.
-
1:58 - 2:02Quando qualcuno è preso di mira
da questo tipo di attacco virtuale, -
2:02 - 2:04il danno è profondo.
-
2:04 - 2:08La vita di Rana Ayyub è stata stravolta.
-
2:08 - 2:12Per settimane, riuscì a malapena
a mangiare o a parlare. -
2:12 - 2:16Smise di scrivere e chiuse
tutti i suoi account social, -
2:16 - 2:19cosa molto difficile per una giornalista.
-
2:19 - 2:23Aveva paura di uscire di casa.
-
2:23 - 2:26E se gli utenti fossero seri
nelle loro minacce? -
2:26 - 2:31Il Consiglio dei diritti umani ONU
confermò che non era pazza. -
2:31 - 2:35Si dichiararono pubblicamente
preoccupati per la sua incolumità. -
2:37 - 2:41Rana Ayyub ha subito un deepfake:
-
2:41 - 2:44un sistema di intelligenza artificiale
-
2:44 - 2:48che manipola o fabbrica
registrazioni audio e video -
2:48 - 2:51per mostrare persone
che fanno o dicono cose -
2:51 - 2:52che non hanno mai fatto o detto.
-
2:53 - 2:56I deepfake sembrano autentici
e realistici, ma non lo sono: -
2:56 - 2:58sono dei clamorosi falsi.
-
2:59 - 3:03Anche se questa tecnologia
è ancora in fase di perfezionamento, -
3:03 - 3:05è largamente disponibile.
-
3:05 - 3:08La più recente attenzione
ai deepfake è scaturita, -
3:08 - 3:11così come fanno molte cose online,
-
3:11 - 3:12dalla pornografia.
-
3:12 - 3:15All'inizio del 2018
-
3:15 - 3:17qualcuno rese disponibile
su Reddit uno strumento -
3:17 - 3:22che permetteva agli utenti di inserire
volti all'interno di video porno. -
3:22 - 3:25Ne seguì una valanga di finti video porno
-
3:25 - 3:28con le celebrità femminili
più amate dal pubblico. -
3:29 - 3:32Oggi su YouTube si possono trovare
tantissimi tutorial -
3:32 - 3:34con precise istruzioni
-
3:35 - 3:38su come creare un deepfake
dalla propria applicazione desktop. -
3:38 - 3:42Presto sarà forse possibile farli
anche dai nostri telefoni. -
3:43 - 3:48È l'interazione tra alcune
delle nostre più intime fragilità umane -
3:48 - 3:50e gli strumenti della rete
-
3:50 - 3:53che può trasformare i deepfake in armi.
-
3:53 - 3:54Lasciatemi spiegare.
-
3:55 - 3:59In quanto essere umani, si scatena in noi
una reazione viscerale ad audio e video. -
4:00 - 4:01Crediamo siano veri,
-
4:01 - 4:03partendo dal presupposto che puoi fidarti
-
4:03 - 4:06di ciò che i tuoi occhi e le tue orecchie
ti stanno dicendo. -
4:06 - 4:08Questo è il meccanismo
-
4:08 - 4:12che potrebbe minare
il nostro comune senso della realtà. -
4:12 - 4:15Nonostante giudichiamo i deepfake
come reali, non lo sono. -
4:16 - 4:20Siamo attratti dal volgare
e dal provocante. -
4:20 - 4:23Tendiamo a credere
e a condividere informazioni -
4:23 - 4:25che sono negative e romanzate.
-
4:26 - 4:29Alcuni ricercatori hanno scoperto
che le bufale online si diffondono -
4:29 - 4:3210 volte più velocemente
delle storie vere. -
4:34 - 4:38Inoltre, siamo attirati verso informazioni
-
4:38 - 4:40che si allineano ai nostri punti di vista.
-
4:41 - 4:45Gli psicologi chiamano questa propensione
il "bias di conferma". -
4:45 - 4:50Le piattaforme social
amplificano questa tendenza, -
4:50 - 4:54consentendoci di condividere notizie
in modo istantaneo e su scala globale, -
4:54 - 4:55che sono fedeli alle nostre opinioni.
-
4:57 - 5:02I deepfake hanno il potenziale di causare
gravi danni individuali e comunitari. -
5:03 - 5:05Immaginatevi un deepfake
-
5:05 - 5:09che mostri dei soldati Americani,
in Afghanistan, bruciare il Corano. -
5:11 - 5:14Viene immediato pensare che quel video
possa provocare violenza -
5:14 - 5:15contro quei soldati.
-
5:16 - 5:19E cosa succederebbe se,
il giorno immediatamente successivo, -
5:19 - 5:21arrivasse un nuovo deepfake
-
5:21 - 5:24che mostrasse un famoso imam di Londra
-
5:24 - 5:27elogiare l'attacco a quei soldati?
-
5:28 - 5:31Il risultato potrebbe sfociare
in violenza e malcontento civile, -
5:31 - 5:34non solo in Afghanistan
o nel Regno Unito, -
5:34 - 5:36ma in tutto il mondo.
-
5:36 - 5:37E voi potreste dirmi:
-
5:37 - 5:40"Dai, Danielle, è impossibile".
-
5:40 - 5:41Ma non lo è.
-
5:41 - 5:43Abbiamo visto che il diffondersi di bufale
-
5:44 - 5:46su WhatsApp e su altri servizi
di messaggistica online -
5:46 - 5:49ha portato all'accanimento
contro le minoranze etniche. -
5:49 - 5:51E si trattava solo di messaggi.
-
5:51 - 5:53Pensate se fossero stati video.
-
5:55 - 6:00I deepfake hanno il potenziale
di distruggere la fiducia che riponiamo -
6:00 - 6:02nelle istituzioni democratiche.
-
6:03 - 6:06Immaginatevi la sera prima di un'elezione.
-
6:06 - 6:09C'è un deepfake che mostra
uno dei principali candidati -
6:09 - 6:10gravemente malato.
-
6:11 - 6:14Il deepfake
potrebbe rovesciare le elezioni -
6:14 - 6:17e scuotere la nostra convinzione
per cui le elezioni siano legittime. -
6:19 - 6:22Immaginate che la sera prima
di un'offerta pubblica iniziale -
6:22 - 6:24di un'importante banca internazionale
-
6:24 - 6:27ci fosse un deepfake che rappresenta
l'amministratore delegato -
6:27 - 6:30che declama teorie complottistiche
mentre è ubriaco. -
6:31 - 6:34Quel deepfake
potrebbe far perdere l'offerta -
6:34 - 6:38e, ancora peggio, far vacillare la nostra
percezione sulla stabilità dei mercati. -
6:39 - 6:46I deepfake sono in grado di sfruttare
e amplificare la sfiducia che già proviamo -
6:46 - 6:51nei confronti dei politici, dei leader
economici e di altri leader influenti. -
6:51 - 6:54Trovano un pubblico propenso a crederci.
-
6:55 - 6:58La ricerca della verità è messa a rischio.
-
6:59 - 7:03Gli esperti prevedono che con i progressi
nell'intelligenza artificiale -
7:03 - 7:06presto sarà difficile, se non impossibile,
-
7:06 - 7:10distinguere un video autentico
da uno falso. -
7:11 - 7:16Come può, quindi, emergere la verità
in un mondo oppresso dai deepfake? -
7:17 - 7:20Continueremo a procedere lungo
la strada della minima resistenza -
7:20 - 7:23e a credere quello che vogliamo,
-
7:23 - 7:24a sfavore della verità?
-
7:25 - 7:28E non solo potremmo credere al falso,
-
7:28 - 7:31ma potremmo iniziare
a dubitare della realtà. -
7:32 - 7:36Abbiamo già visto persone
appellarsi al fenomeno dei deepfake -
7:36 - 7:40per gettare dubbi sulle evidenti prove
delle loro colpe. -
7:40 - 7:46Abbiamo sentito i politici negare
gli audio dei propri spiacevoli commenti: -
7:46 - 7:48"Dai, sono fake news.
-
7:48 - 7:52Non potete credere a ciò che
i vostri occhi ed orecchie vi dicono". -
7:52 - 7:54Questa è la minaccia
-
7:54 - 8:00che io e il professor Robert Chasney
chiamiamo "il dividendo del bugiardo": -
8:00 - 8:03è il rischio che i bugiardi
si appellino ai deepfake -
8:03 - 8:06per non assumersi la responsabilità
delle proprie azioni. -
8:07 - 8:10È indubbio il fatto
che ci sia moltissimo lavoro da fare. -
8:11 - 8:14Abbiamo bisogno di una soluzione proattiva
-
8:14 - 8:17da aziende tecnologiche, da legislatori,
-
8:17 - 8:19dagli organi di polizia e dai media.
-
8:20 - 8:24Abbiamo anche bisogno
di una sana dose di resilienza sociale. -
8:26 - 8:29Oggi, proprio adesso, siamo coinvolti
in un dibattito molto aperto -
8:29 - 8:32sulle responsabilità
dell'industria tecnologica. -
8:33 - 8:36Il mio consiglio per le piattaforme social
-
8:36 - 8:40è stato di modificare i termini d'uso
e le linee guida comunitarie, -
8:40 - 8:42al fine di bandire i deepfake pericolosi.
-
8:43 - 8:47Questa soluzione
richiederà il giudizio umano -
8:47 - 8:48ed è costosa.
-
8:49 - 8:51Ma abbiamo bisogno di esseri umani
-
8:51 - 8:55che guardino il contenuto
e il contesto di un deepfake -
8:55 - 8:59per capire se si tratti
di un'imitazione dannosa -
8:59 - 9:03o se, al contrario, si tratti di satira,
arte o informazioni valide. -
9:04 - 9:06Ma cosa ci dice la legge?
-
9:07 - 9:09La legge è maestra.
-
9:10 - 9:14Ci insegna cos'è dannoso
e cos'è sbagliato. -
9:14 - 9:18Determina il comportamento,
scoraggia i responsabili punendoli -
9:18 - 9:20e garantendo tutele alle vittime.
-
9:21 - 9:25Ad oggi, la legge non è pronta
a fronteggiare la sfida dei deepfake. -
9:26 - 9:28In tutto il mondo
-
9:28 - 9:30mancano leggi studiate su misura
-
9:30 - 9:34che sarebbero deputate a combattere
le imitazioni digitali -
9:34 - 9:36che invadono la privacy sessuale,
-
9:36 - 9:37danneggiano la reputazione
-
9:37 - 9:39e provocano squilibri emotivi.
-
9:40 - 9:44Quello che è capitato a Rana Ayyub
sta diventando sempre più comune. -
9:44 - 9:46Ma quando lei è andata
dalla polizia a Delhi, -
9:46 - 9:48le hanno detto
che non si poteva fare nulla. -
9:49 - 9:52La triste verità è che ciò potrebbe valere
-
9:52 - 9:55anche negli Stati Uniti e in Europa.
-
9:55 - 10:00Abbiamo un vuoto legale
che dobbiamo colmare. -
10:00 - 10:04Io e la dottoressa Mary Anne Franks
lavoriamo con legislatori americani -
10:04 - 10:09allo scopo di concepire una legislazione
che vieti imitazioni digitali dannose, -
10:09 - 10:12equivalenti al furto d'identità.
-
10:12 - 10:14Abbiamo riscontrato azioni simili
-
10:14 - 10:18in Islanda, Regno Unito e Australia.
-
10:18 - 10:21Ma questo è solo un piccolo pezzo
nel puzzle normativo. -
10:23 - 10:26Sono consapevole che la legge
non sia una panacea, giusto? -
10:26 - 10:28È uno strumento poco affilato.
-
10:28 - 10:30Dobbiamo usarlo saggiamente.
-
10:30 - 10:33Ha anche alcuni impedimenti pratici.
-
10:34 - 10:39Non è possibile usare la legge contro chi
non si può identificare e trovare. -
10:39 - 10:43E se il colpevole vive fuori dallo Stato
-
10:43 - 10:45in cui vive la vittima,
-
10:45 - 10:46potrebbe non essere possibile esigere
-
10:46 - 10:49che il responsabile si presenti
ai tribunali locali -
10:49 - 10:50per l'udienza.
-
10:50 - 10:54Ci servirà una reazione condivisa
a livello internazionale. -
10:56 - 10:59L'informazione deve essere
parte integrante di questo processo. -
11:00 - 11:04Gli organi di polizia
non possono far rispettare le leggi -
11:04 - 11:05se non le conoscono
-
11:05 - 11:08e non possono gestire problemi
che non comprendono. -
11:08 - 11:11Durante le mie ricerche sul cyberstalking
-
11:11 - 11:14ho appreso che agli organi di polizia
mancava la formazione adeguata -
11:14 - 11:17per capire le leggi di quel settore
-
11:17 - 11:19e i pericoli dell'abuso di internet.
-
11:19 - 11:22Per questo spesso dicevano alle vittime:
-
11:22 - 11:26"Spegnete il computer. Ignorateli.
Spariranno". -
11:26 - 11:29Nel caso di Rana Ayyub è successo così.
-
11:29 - 11:33Le fu detto:
"Forza, ne stai facendo una tragedia. -
11:33 - 11:35Sono semplicemente maschi
che si comportano da maschi". -
11:35 - 11:41Alla legislazione dobbiamo abbinare
l'impegno nella formazione. -
11:42 - 11:45La conoscenza deve essere
un obiettivo anche per i media. -
11:46 - 11:50I giornalisti necessitano di istruzione
sul fenomeno dei deepfake -
11:50 - 11:54affinché non lo intensifichino
o lo diffondano. -
11:55 - 11:57Qui è dove entriamo in gioco tutti quanti.
-
11:57 - 12:01Ciascuno di noi ha bisogno di istruzione.
-
12:01 - 12:05Clicchiamo, condividiamo, mettiamo
"mi piace" senza nemmeno pensarci. -
12:06 - 12:07Dobbiamo fare di meglio.
-
12:08 - 12:11Ci serve un radar più sofisticato
per rilevare le bufale. -
12:14 - 12:18Mentre ci occupiamo
delle possibili soluzioni, -
12:18 - 12:20dovremo superare innumerevoli difficoltà.
-
12:21 - 12:24Rana Ayyub sta tutt'ora lottando
contro i risvolti del fatto. -
12:25 - 12:29Non si sente ancora libera
di esprimersi online e offline. -
12:30 - 12:31Mi ha detto che
-
12:31 - 12:36avverte ancora la sensazione di avere
mille occhi puntati sul suo corpo nudo, -
12:36 - 12:40anche se, razionalmente,
sa che non era il suo vero corpo. -
12:40 - 12:43Ha frequenti attacchi di panico
-
12:43 - 12:47specialmente quando uno sconosciuto
tenta di fotografarla. -
12:47 - 12:50"E se faranno un altro deepfake?"
pensa fra sé e sé. -
12:51 - 12:55Per il bene di persone come Rana Ayyub
-
12:55 - 12:57e per il bene della nostra democrazia,
-
12:57 - 12:59dobbiamo agire immediatamente.
-
12:59 - 13:01Grazie.
-
13:01 - 13:03(Applausi)
- Title:
- Ecco come i deepfake minano la verità e compromettono la democrazia
- Speaker:
- Danielle Citron
- Description:
-
La strategia dei deepfake usata per manipolare video e audio con intenti dolosi, indipendentemente dal fatto che sia per alimentare violenza o diffamare politici e giornalisti, si sta rivelando una vera e propria minaccia. Data la crescente accessibilità di questi strumenti e la verosimiglianza di ciò che ne deriva, in che modo verranno influenzate le nostre convinzioni sul mondo? In questo discorso premonitore, la professoressa di diritto Danielle Citron rivela come i deepfake enfatizzino la nostra sfiducia e suggerisce alcuni metodi per salvaguardare la verità.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Elena Montrasio approved Italian subtitles for How deepfakes undermine truth and threaten democracy | ||
Elena Montrasio edited Italian subtitles for How deepfakes undermine truth and threaten democracy | ||
Stefania Betti accepted Italian subtitles for How deepfakes undermine truth and threaten democracy | ||
Stefania Betti edited Italian subtitles for How deepfakes undermine truth and threaten democracy | ||
Stefania Betti edited Italian subtitles for How deepfakes undermine truth and threaten democracy | ||
Stefania Betti edited Italian subtitles for How deepfakes undermine truth and threaten democracy | ||
Stefania Betti edited Italian subtitles for How deepfakes undermine truth and threaten democracy | ||
Stefania Betti edited Italian subtitles for How deepfakes undermine truth and threaten democracy |