Hoe deepfakes de waarheid ondermijnen en de democratie bedreigen
-
0:01 - 0:03[Deze talk bevat inhoud voor volwassenen]
-
0:06 - 0:09Rana Ayyub is een journaliste in India.
-
0:09 - 0:11Ze onthulde corruptie bij de overheid
-
0:12 - 0:15en schendingen van de mensenrechten.
-
0:15 - 0:16Door de jaren heen
-
0:16 - 0:19is ze aan gifspuiterij en controverse
rond haar werk gewend geraakt. -
0:20 - 0:25Maar niets kon haar voorbereiden
op wat ze in april 2018 tegenkwam. -
0:26 - 0:30Ze zat in een café met een vriend
toen ze het voor het eerst zag: -
0:30 - 0:32een video van 2 minuten en 20 seconden
-
0:32 - 0:35waarop zij bezig was met seks.
-
0:35 - 0:38Ze kon haar ogen niet geloven.
-
0:38 - 0:40Ze had nooit een seksvideo gemaakt.
-
0:41 - 0:45Maar helaas geloofden duizenden
en duizenden mensen dat zij het was. -
0:47 - 0:50Ik interviewde mevrouw Ayyub
ongeveer drie maanden geleden -
0:50 - 0:52in verband met mijn boek
over seksuele privacy. -
0:53 - 0:56Ik ben professor in de rechten,
advocaat en ik kom op voor burgerrechten. -
0:56 - 1:00Daarom is het zo ongelooflijk frustrerend
om weten dat op dit moment -
1:00 - 1:03de wet erg weinig doet om haar te helpen.
-
1:03 - 1:05In ons gesprek
-
1:05 - 1:10legde ze uit dat ze de nep-seksvideo
had moeten zien aankomen. -
1:10 - 1:13Ze zei: "Seks wordt immers
zo vaak gebruikt -
1:13 - 1:16om vrouwen te vernederen
en te schande te maken, -
1:16 - 1:18vooral dan allochtone vrouwen,
-
1:18 - 1:22en vooral allochtone vrouwen
die machtige mannen durven uit te dagen," -
1:22 - 1:24zoals zij door haar werk had gedaan.
-
1:25 - 1:29De nep-seksvideo ging in 48 uur viraal.
-
1:30 - 1:35Al haar online accounts werden overspoeld
met screenshots van de video, -
1:35 - 1:38met grove dreigingen
van verkrachting en moord -
1:38 - 1:41en met laster
over haar islamitische geloof. -
1:41 - 1:46Online berichten suggereerden
dat ze ‘beschikbaar’ was voor seks. -
1:46 - 1:48Ze werd ‘gedoxt’,
-
1:48 - 1:50wat betekent dat haar adres
en haar gsm-nummer -
1:50 - 1:52werden verspreid over het internet.
-
1:53 - 1:57De video werd meer
dan 40.000 keer gedeeld. -
1:58 - 2:02Als iemand zo’n aanval
van een cyberbende moet ondergaan, -
2:02 - 2:04is de schade diepgaand.
-
2:04 - 2:08Rana Ayyub's leven stond op zijn kop.
-
2:08 - 2:12Wekenlang kon ze
nauwelijks eten of spreken. -
2:12 - 2:16Ze stopte met schrijven en sloot
al haar ‘social media’-accounts. -
2:16 - 2:19Erg moeilijk wanneer je journalist bent.
-
2:19 - 2:23Ze was bang om buiten te komen.
-
2:23 - 2:26Wat als de posters
hun dreigementen zouden uitvoeren? -
2:26 - 2:31De VN-Raad voor de mensenrechten
bevestigde dat ze niet gek was. -
2:31 - 2:33Ze legden een openbare verklaring af
-
2:33 - 2:36waarin ze zich zorgen maakten
over haar veiligheid. -
2:37 - 2:41Wat Rana Ayyub tegenkwam was een deepfake:
-
2:41 - 2:44zelflerende technologie
-
2:44 - 2:48die audio- en video-opnamen
manipuleert of fabriceert -
2:48 - 2:50waarin mensen dingen doen en zeggen
-
2:50 - 2:52die ze nooit gedaan of gezegd hebben.
-
2:53 - 2:56Deepfakes lijken authentiek
en realistisch, maar zijn het niet: -
2:56 - 2:58ze zijn helemaal onwaar.
-
2:59 - 3:03Hoewel de technologie
nog steeds verder wordt verfijnd, -
3:03 - 3:05is ze al op grote schaal beschikbaar.
-
3:05 - 3:08De meest recente aandacht
voor deepfakes ontstond, -
3:08 - 3:11zoals met zo veel dingen online,
-
3:11 - 3:12met pornografie.
-
3:12 - 3:15In het begin van 2018
-
3:15 - 3:17rapporteerde iemand een tool op Reddit
-
3:17 - 3:22om gebruikers gezichten
te laten toevoegen in pornovideo's. -
3:22 - 3:25Daarop volgde een hoop fake pornovideo's
-
3:25 - 3:28met favoriete vrouwelijke beroemdheden.
-
3:29 - 3:32Vandaag vind je op YouTube
talloze handleidingen -
3:32 - 3:34met stap-voor-stap instructies
-
3:35 - 3:38om een deepfake te maken op je pc.
-
3:38 - 3:42Binnenkort kan het zelfs
op onze mobiele telefoons. -
3:43 - 3:48De combinatie van onze meest
fundamentele menselijke zwakheden -
3:48 - 3:50met netwerktools
-
3:50 - 3:53kan deepfakes veranderen in wapens.
-
3:53 - 3:54Ik leg het uit.
-
3:55 - 3:59Als mens hebben we
een viscerale reactie op audio en video. -
4:00 - 4:01We geloven dat ze waar zijn
-
4:01 - 4:03door het idee dat je
uiteraard kunt geloven -
4:03 - 4:06wat je ogen en oren je vertellen.
-
4:06 - 4:08Het is dat mechanisme
-
4:08 - 4:12dat onze gezamenlijke realiteitszin
zou kunnen ondermijnen. -
4:12 - 4:15Hoewel we van deepfakes geloven
dat ze waar zijn, zijn ze het niet. -
4:16 - 4:20Het schunnige, het provocerende
trekt ons aan. -
4:20 - 4:22We hebben de neiging
-
4:22 - 4:26om negatieve en nieuwe informatie
te geloven en te delen. -
4:26 - 4:28En onderzoekers hebben ontdekt
-
4:28 - 4:32dat online hoaxes 10 keer sneller
verspreid worden dan accurate verhalen. -
4:34 - 4:38We zijn ook aangetrokken tot informatie
-
4:38 - 4:40die aansluit bij onze standpunten.
-
4:41 - 4:45Psychologen noemen deze tendens
‘voorkeur voor bevestiging’. -
4:45 - 4:50Sociale media platformen
versterken die tendens, -
4:50 - 4:54door ons informatie direct
en op grote schaal te laten delen -
4:54 - 4:56als het overeenstemt met onze standpunten.
-
4:57 - 5:02Deepfakes kunnen dus ernstige individuele
en maatschappelijke schade veroorzaken. -
5:03 - 5:05Stel je een deepfake voor
-
5:05 - 5:09waarin Amerikaanse soldaten
in Afghanistan een Koran verbranden. -
5:11 - 5:13Je kunt je voorstellen dat die deepfake
-
5:13 - 5:15geweld kan uitlokken tegen die soldaten.
-
5:16 - 5:19En wat als de volgende dag
-
5:19 - 5:21er nog een deepfake verspreid wordt
-
5:21 - 5:24die een bekende imam in Londen toont
-
5:24 - 5:27die de aanval op die soldaten prijst?
-
5:28 - 5:31Het zou kunnen leiden
tot geweld en burgerlijke onrust, -
5:31 - 5:34niet alleen in Afghanistan
en het Verenigd Koninkrijk, -
5:34 - 5:36maar over de hele wereld.
-
5:36 - 5:38En je zou me kunnen zeggen:
-
5:38 - 5:40"Kom nou, Danielle, dat is vergezocht."
-
5:40 - 5:41Maar dat is het niet.
-
5:41 - 5:43We hebben onwaarheden zien verspreiden
-
5:44 - 5:46op WhatsApp en andere
online boodschappendiensten -
5:46 - 5:49die leidden tot geweld
tegen etnische minderheden. -
5:49 - 5:51En dat was gewoon tekst --
-
5:51 - 5:53stel je voor dat het video was.
-
5:55 - 5:59Deepfakes kunnen het vertrouwen aantasten
-
5:59 - 6:02dat we hebben
in democratische instellingen. -
6:03 - 6:06Stel je de avond voor een verkiezing voor.
-
6:06 - 6:08Een deepfake toont
-
6:08 - 6:10een belangrijke partijkandidaat
als ernstig ziek. -
6:11 - 6:14De deepfake kan de uitslag bepalen
-
6:14 - 6:17en ons vertrouwen in de legitimiteit
van verkiezingen doen wankelen. -
6:19 - 6:22Stel je voor dat
op de avond voor een beursgang -
6:22 - 6:24van een grote internationale bank,
-
6:24 - 6:27een deepfake een CEO van de bank toont
-
6:27 - 6:30terwijl hij dronken
samenzweringstheorieën spuit. -
6:31 - 6:34De deepfake kon
de beursgang doen kelderen, -
6:34 - 6:38en erger, ons het gevoel geven
dat de financiële markten onstabiel zijn. -
6:39 - 6:45Deepfakes kunnen dat benutten en
het diepe wantrouwen vergroten -
6:45 - 6:46dat we al hebben
-
6:46 - 6:51in politici, bedrijfsleiders
en andere invloedrijke leiders. -
6:51 - 6:54Ze vinden een goedgelovig publiek.
-
6:55 - 6:58Het streven naar waarheid
staat ook op het spel. -
6:59 - 7:03Technologen verwachten
dat met de vooruitgang in AI -
7:03 - 7:06het binnenkort moeilijk,
zo niet onmogelijk, wordt -
7:06 - 7:10om het verschil te zien
tussen een echte video en een nepvideo. -
7:11 - 7:13Hoe kunnen we dan nog waarheid vinden
-
7:13 - 7:17in een door deepfake
geteisterde ideeënwereld? -
7:17 - 7:20Kiezen we de weg van de minste weerstand
-
7:20 - 7:23en geloven we wat we willen geloven?
-
7:23 - 7:24De waarheid kan de pot op?
-
7:25 - 7:28We zouden niet alleen
gaan geloven in het bedrog, -
7:28 - 7:31maar ook aan de waarheid
kunnen gaan twijfelen. -
7:32 - 7:36We zagen al dat mensen beroep deden
op het fenomeen van de deepfakes -
7:36 - 7:40om echt bewijs over hun wangedrag
in twijfel te trekken. -
7:40 - 7:46We hoorden politici over de opnames
van hun uitschuivers al zeggen: -
7:46 - 7:48"Kom nou, dat is nepnieuws.
-
7:48 - 7:52Je kan niet geloven wat je ogen
en oren je vertellen." -
7:52 - 7:54Het is dat risico
-
7:54 - 8:00dat professor Robert Chesney en ik
het ‘leugenaarsdividend’ noemen: -
8:00 - 8:03het risico dat leugenaars
deepfakes zullen inroepen -
8:03 - 8:06om aan de verantwoording
voor hun wangedrag te ontsnappen. -
8:07 - 8:10We hebben werk voor de boeg,
daar is geen twijfel over mogelijk. -
8:11 - 8:14We hebben een proactieve oplossing nodig
-
8:14 - 8:17van tech-bedrijven, van wetgevers,
-
8:17 - 8:19wetshandhavers en de media.
-
8:20 - 8:24En we zullen een gezonde dosis
sociale veerkracht nodig hebben. -
8:26 - 8:29Op dit moment is er
een zeer publiek discussie gaande -
8:29 - 8:32over de verantwoordelijkheid
van de tech-bedrijven. -
8:33 - 8:36Het was mijn advies
aan de sociale media platformen -
8:36 - 8:40om hun dienstvoorwaarden
en gemeenschapsrichtlijnen te veranderen -
8:40 - 8:42om schadelijke deepfakes te bannen.
-
8:43 - 8:47Dat vereist menselijk oordeel
-
8:47 - 8:48en dat is duur.
-
8:49 - 8:51Maar we hebben mensen nodig
-
8:51 - 8:55om naar de inhoud en context
van een deepfake te kijken -
8:55 - 8:59om erachter te komen of het
een schadelijke imitatie is -
8:59 - 9:03ofwel waardevolle satire,
kunst of onderwijs. -
9:04 - 9:06Maar hoe zit het nu met de wet?
-
9:07 - 9:09De wet is onze opvoeder.
-
9:10 - 9:14Ze leert ons
wat schadelijk en wat fout is. -
9:14 - 9:18Ze modelleert gedrag
door het bestraffen van daders -
9:18 - 9:20en het beschermen van slachtoffers.
-
9:21 - 9:25De wet kan de uitdaging
van deepfakes nog niet aan. -
9:26 - 9:28Over heel de wereld
-
9:28 - 9:30mankeren we op maat gesneden wetten
-
9:30 - 9:34voor het aanpakken van digitale imitaties
-
9:34 - 9:36die de seksuele privacy schenden,
-
9:36 - 9:37reputaties beschadigen
-
9:37 - 9:39en emotionele nood veroorzaken.
-
9:40 - 9:44Wat Rana Ayyub overkwam,
komt steeds meer voor. -
9:44 - 9:46Toen ze in Delhi
om rechtshandhaving vroeg, -
9:46 - 9:49vertelden ze haar
dat ze er niets aan konden doen. -
9:49 - 9:52En de trieste waarheid is
dat hetzelfde waar zou zijn -
9:52 - 9:55in de Verenigde Staten en in Europa.
-
9:55 - 10:00Dus hebben we een juridisch vacuüm
dat moet worden ingevuld. -
10:00 - 10:04Mijn collega dr. Mary Anne Franks en ik
werken samen met de Amerikaanse wetgevers -
10:04 - 10:09aan wetgeving die schadelijke
digitale nabootsingen zou verbieden, -
10:09 - 10:12die gelijkstaan aan
diefstal van identiteit. -
10:12 - 10:14We zagen vergelijkbare maatregelen
-
10:14 - 10:18in IJsland, het Verenigd Koninkrijk
en Australië. -
10:18 - 10:22Maar natuurlijk is dat nog maar
een klein stuk van de regelgevingspuzzel. -
10:23 - 10:26Ik weet wel dat de wet
geen wondermiddel is. -
10:26 - 10:28Ze is een bot instrument.
-
10:28 - 10:30We zullen het verstandig moeten gebruiken.
-
10:30 - 10:33Ze heeft ook een aantal
praktische belemmeringen. -
10:34 - 10:39Je kunt de wet niet aanwenden tegen wie
je niet kan identificeren of opsporen. -
10:39 - 10:43Als een dader in een ander land woont
-
10:43 - 10:45dan het slachtoffer,
-
10:45 - 10:47kan je misschien niet eisen dat de dader
-
10:47 - 10:49voor de lokale rechtbanken verschijnt
-
10:49 - 10:50voor gerechtigheid.
-
10:50 - 10:54Dus gaan we een gecoördineerde
internationale respons nodig hebben. -
10:56 - 10:59Ook onderwijs moet onderdeel zijn
van ons antwoord hierop. -
11:00 - 11:04Wetshandhavers gaan geen wetten toepassen
-
11:04 - 11:05waarover ze niets weten
-
11:05 - 11:08en problemen behandelen
die ze niet begrijpen. -
11:08 - 11:11Bij mijn onderzoek naar cyberstalking
-
11:11 - 11:14merkte ik dat rechters de training misten
-
11:14 - 11:17om de beschikbare wetten te begrijpen
-
11:17 - 11:19alsook het probleem van online misbruik.
-
11:19 - 11:22Vaak vertelden ze het slachtoffer:
-
11:22 - 11:26"Zet gewoon je computer uit.
Negeer het. Het zal ophouden." -
11:26 - 11:29En we zagen dat ook
in het geval van Rana Ayyub. -
11:29 - 11:33Ze kreeg te horen: "Kom op,
je maakt je er zo druk over. -
11:33 - 11:34Het zijn jongensstreken."
-
11:35 - 11:41Dus moeten we de nieuwe wetgeving
koppelen aan nieuwe training. -
11:42 - 11:45De media dient ook
heropgevoed te worden. -
11:46 - 11:50Journalisten moeten
het deepfakefenomeen leren kennen -
11:50 - 11:54zodat ze het niet
versterken en verspreiden. -
11:55 - 11:57Bij dat deel zijn we allemaal betrokken.
-
11:57 - 12:01Ieder van ons
moet ermee vertrouwd geraken. -
12:01 - 12:05We klikken, we delen, we vinden leuk
zonder er eens over na te denken. -
12:06 - 12:07Dat moet beter.
-
12:08 - 12:11We hebben een veel betere radar
voor bedrog nodig. -
12:14 - 12:18Terwijl we werken aan deze oplossingen,
-
12:18 - 12:20gaat er nog een heleboel leed
veroorzaakt worden. -
12:21 - 12:24Rana Ayyub worstelt
nog steeds met de gevolgen. -
12:25 - 12:29Ze voelt zich nog steeds geremd
om zich on- en offline te uiten. -
12:30 - 12:33Zoals ze me vertelde,
voelt het nog steeds -
12:33 - 12:36alsof er duizenden ogen
op haar naakte lichaam zijn gericht, -
12:36 - 12:40hoewel ze verstandelijk weet
dat het niet haar lichaam was. -
12:40 - 12:43Ze heeft regelmatig paniekaanvallen,
-
12:43 - 12:47vooral wanneer iemand die ze niet kent
probeert een foto van haar te nemen. -
12:47 - 12:49"Wat als het weer voor een deepfake is?"
-
12:49 - 12:50denkt ze dan.
-
12:51 - 12:55Voor het belang van mensen
zoals Rana Ayyub -
12:55 - 12:57en voor het belang van onze democratie
-
12:57 - 12:59moeten we nu echt iets doen.
-
13:00 - 13:00Dank je.
-
13:00 - 13:03(Applaus)
- Title:
- Hoe deepfakes de waarheid ondermijnen en de democratie bedreigen
- Speaker:
- Danielle Citron
- Description:
-
Het gebruik van deepfake-technologie om video en audio te manipuleren voor kwaadaardige doeleinden -- of het nu is om geweld te stoken of politici en journalisten te belasteren -- wordt een reële bedreiging. Hoe zal het vorm geven aan wat wij over de wereld geloven als deze tools toegankelijker worden en hun producten realistischer? In een onheilspellende lezing onthult professor professor Danielle Citron hoe deepfakes ons wantrouwen vergroten -- en suggereert benaderingen om de waarheid te beschermen.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Axel Saffran approved Dutch subtitles for How deepfakes undermine truth and threaten democracy | ||
Axel Saffran edited Dutch subtitles for How deepfakes undermine truth and threaten democracy | ||
Axel Saffran edited Dutch subtitles for How deepfakes undermine truth and threaten democracy | ||
Inge Widdershoven accepted Dutch subtitles for How deepfakes undermine truth and threaten democracy | ||
Inge Widdershoven edited Dutch subtitles for How deepfakes undermine truth and threaten democracy | ||
Rik Delaet edited Dutch subtitles for How deepfakes undermine truth and threaten democracy | ||
Rik Delaet edited Dutch subtitles for How deepfakes undermine truth and threaten democracy | ||
Rik Delaet edited Dutch subtitles for How deepfakes undermine truth and threaten democracy |