Return to Video

Hoe deepfakes de waarheid ondermijnen en de democratie bedreigen

  • 0:01 - 0:03
    [Deze talk bevat inhoud voor volwassenen]
  • 0:06 - 0:09
    Rana Ayyub is een journaliste in India.
  • 0:09 - 0:11
    Ze onthulde corruptie bij de overheid
  • 0:12 - 0:15
    en schendingen van de mensenrechten.
  • 0:15 - 0:16
    Door de jaren heen
  • 0:16 - 0:19
    is ze aan gifspuiterij en controverse
    rond haar werk gewend geraakt.
  • 0:20 - 0:25
    Maar niets kon haar voorbereiden
    op wat ze in april 2018 tegenkwam.
  • 0:26 - 0:30
    Ze zat in een café met een vriend
    toen ze het voor het eerst zag:
  • 0:30 - 0:32
    een video van 2 minuten en 20 seconden
  • 0:32 - 0:35
    waarop zij bezig was met seks.
  • 0:35 - 0:38
    Ze kon haar ogen niet geloven.
  • 0:38 - 0:40
    Ze had nooit een seksvideo gemaakt.
  • 0:41 - 0:45
    Maar helaas geloofden duizenden
    en duizenden mensen dat zij het was.
  • 0:47 - 0:50
    Ik interviewde mevrouw Ayyub
    ongeveer drie maanden geleden
  • 0:50 - 0:52
    in verband met mijn boek
    over seksuele privacy.
  • 0:53 - 0:56
    Ik ben professor in de rechten,
    advocaat en ik kom op voor burgerrechten.
  • 0:56 - 1:00
    Daarom is het zo ongelooflijk frustrerend
    om weten dat op dit moment
  • 1:00 - 1:03
    de wet erg weinig doet om haar te helpen.
  • 1:03 - 1:05
    In ons gesprek
  • 1:05 - 1:10
    legde ze uit dat ze de nep-seksvideo
    had moeten zien aankomen.
  • 1:10 - 1:13
    Ze zei: "Seks wordt immers
    zo vaak gebruikt
  • 1:13 - 1:16
    om vrouwen te vernederen
    en te schande te maken,
  • 1:16 - 1:18
    vooral dan allochtone vrouwen,
  • 1:18 - 1:22
    en vooral allochtone vrouwen
    die machtige mannen durven uit te dagen,"
  • 1:22 - 1:24
    zoals zij door haar werk had gedaan.
  • 1:25 - 1:29
    De nep-seksvideo ging in 48 uur viraal.
  • 1:30 - 1:35
    Al haar online accounts werden overspoeld
    met screenshots van de video,
  • 1:35 - 1:38
    met grove dreigingen
    van verkrachting en moord
  • 1:38 - 1:41
    en met laster
    over haar islamitische geloof.
  • 1:41 - 1:46
    Online berichten suggereerden
    dat ze ‘beschikbaar’ was voor seks.
  • 1:46 - 1:48
    Ze werd ‘gedoxt’,
  • 1:48 - 1:50
    wat betekent dat haar adres
    en haar gsm-nummer
  • 1:50 - 1:52
    werden verspreid over het internet.
  • 1:53 - 1:57
    De video werd meer
    dan 40.000 keer gedeeld.
  • 1:58 - 2:02
    Als iemand zo’n aanval
    van een cyberbende moet ondergaan,
  • 2:02 - 2:04
    is de schade diepgaand.
  • 2:04 - 2:08
    Rana Ayyub's leven stond op zijn kop.
  • 2:08 - 2:12
    Wekenlang kon ze
    nauwelijks eten of spreken.
  • 2:12 - 2:16
    Ze stopte met schrijven en sloot
    al haar ‘social media’-accounts.
  • 2:16 - 2:19
    Erg moeilijk wanneer je journalist bent.
  • 2:19 - 2:23
    Ze was bang om buiten te komen.
  • 2:23 - 2:26
    Wat als de posters
    hun dreigementen zouden uitvoeren?
  • 2:26 - 2:31
    De VN-Raad voor de mensenrechten
    bevestigde dat ze niet gek was.
  • 2:31 - 2:33
    Ze legden een openbare verklaring af
  • 2:33 - 2:36
    waarin ze zich zorgen maakten
    over haar veiligheid.
  • 2:37 - 2:41
    Wat Rana Ayyub tegenkwam was een deepfake:
  • 2:41 - 2:44
    zelflerende technologie
  • 2:44 - 2:48
    die audio- en video-opnamen
    manipuleert of fabriceert
  • 2:48 - 2:50
    waarin mensen dingen doen en zeggen
  • 2:50 - 2:52
    die ze nooit gedaan of gezegd hebben.
  • 2:53 - 2:56
    Deepfakes lijken authentiek
    en realistisch, maar zijn het niet:
  • 2:56 - 2:58
    ze zijn helemaal onwaar.
  • 2:59 - 3:03
    Hoewel de technologie
    nog steeds verder wordt verfijnd,
  • 3:03 - 3:05
    is ze al op grote schaal beschikbaar.
  • 3:05 - 3:08
    De meest recente aandacht
    voor deepfakes ontstond,
  • 3:08 - 3:11
    zoals met zo veel dingen online,
  • 3:11 - 3:12
    met pornografie.
  • 3:12 - 3:15
    In het begin van 2018
  • 3:15 - 3:17
    rapporteerde iemand een tool op Reddit
  • 3:17 - 3:22
    om gebruikers gezichten
    te laten toevoegen in pornovideo's.
  • 3:22 - 3:25
    Daarop volgde een hoop fake pornovideo's
  • 3:25 - 3:28
    met favoriete vrouwelijke beroemdheden.
  • 3:29 - 3:32
    Vandaag vind je op YouTube
    talloze handleidingen
  • 3:32 - 3:34
    met stap-voor-stap instructies
  • 3:35 - 3:38
    om een deepfake te maken op je pc.
  • 3:38 - 3:42
    Binnenkort kan het zelfs
    op onze mobiele telefoons.
  • 3:43 - 3:48
    De combinatie van onze meest
    fundamentele menselijke zwakheden
  • 3:48 - 3:50
    met netwerktools
  • 3:50 - 3:53
    kan deepfakes veranderen in wapens.
  • 3:53 - 3:54
    Ik leg het uit.
  • 3:55 - 3:59
    Als mens hebben we
    een viscerale reactie op audio en video.
  • 4:00 - 4:01
    We geloven dat ze waar zijn
  • 4:01 - 4:03
    door het idee dat je
    uiteraard kunt geloven
  • 4:03 - 4:06
    wat je ogen en oren je vertellen.
  • 4:06 - 4:08
    Het is dat mechanisme
  • 4:08 - 4:12
    dat onze gezamenlijke realiteitszin
    zou kunnen ondermijnen.
  • 4:12 - 4:15
    Hoewel we van deepfakes geloven
    dat ze waar zijn, zijn ze het niet.
  • 4:16 - 4:20
    Het schunnige, het provocerende
    trekt ons aan.
  • 4:20 - 4:22
    We hebben de neiging
  • 4:22 - 4:26
    om negatieve en nieuwe informatie
    te geloven en te delen.
  • 4:26 - 4:28
    En onderzoekers hebben ontdekt
  • 4:28 - 4:32
    dat online hoaxes 10 keer sneller
    verspreid worden dan accurate verhalen.
  • 4:34 - 4:38
    We zijn ook aangetrokken tot informatie
  • 4:38 - 4:40
    die aansluit bij onze standpunten.
  • 4:41 - 4:45
    Psychologen noemen deze tendens
    ‘voorkeur voor bevestiging’.
  • 4:45 - 4:50
    Sociale media platformen
    versterken die tendens,
  • 4:50 - 4:54
    door ons informatie direct
    en op grote schaal te laten delen
  • 4:54 - 4:56
    als het overeenstemt met onze standpunten.
  • 4:57 - 5:02
    Deepfakes kunnen dus ernstige individuele
    en maatschappelijke schade veroorzaken.
  • 5:03 - 5:05
    Stel je een deepfake voor
  • 5:05 - 5:09
    waarin Amerikaanse soldaten
    in Afghanistan een Koran verbranden.
  • 5:11 - 5:13
    Je kunt je voorstellen dat die deepfake
  • 5:13 - 5:15
    geweld kan uitlokken tegen die soldaten.
  • 5:16 - 5:19
    En wat als de volgende dag
  • 5:19 - 5:21
    er nog een deepfake verspreid wordt
  • 5:21 - 5:24
    die een bekende imam in Londen toont
  • 5:24 - 5:27
    die de aanval op die soldaten prijst?
  • 5:28 - 5:31
    Het zou kunnen leiden
    tot geweld en burgerlijke onrust,
  • 5:31 - 5:34
    niet alleen in Afghanistan
    en het Verenigd Koninkrijk,
  • 5:34 - 5:36
    maar over de hele wereld.
  • 5:36 - 5:38
    En je zou me kunnen zeggen:
  • 5:38 - 5:40
    "Kom nou, Danielle, dat is vergezocht."
  • 5:40 - 5:41
    Maar dat is het niet.
  • 5:41 - 5:43
    We hebben onwaarheden zien verspreiden
  • 5:44 - 5:46
    op WhatsApp en andere
    online boodschappendiensten
  • 5:46 - 5:49
    die leidden tot geweld
    tegen etnische minderheden.
  • 5:49 - 5:51
    En dat was gewoon tekst --
  • 5:51 - 5:53
    stel je voor dat het video was.
  • 5:55 - 5:59
    Deepfakes kunnen het vertrouwen aantasten
  • 5:59 - 6:02
    dat we hebben
    in democratische instellingen.
  • 6:03 - 6:06
    Stel je de avond voor een verkiezing voor.
  • 6:06 - 6:08
    Een deepfake toont
  • 6:08 - 6:10
    een belangrijke partijkandidaat
    als ernstig ziek.
  • 6:11 - 6:14
    De deepfake kan de uitslag bepalen
  • 6:14 - 6:17
    en ons vertrouwen in de legitimiteit
    van verkiezingen doen wankelen.
  • 6:19 - 6:22
    Stel je voor dat
    op de avond voor een beursgang
  • 6:22 - 6:24
    van een grote internationale bank,
  • 6:24 - 6:27
    een deepfake een CEO van de bank toont
  • 6:27 - 6:30
    terwijl hij dronken
    samenzweringstheorieën spuit.
  • 6:31 - 6:34
    De deepfake kon
    de beursgang doen kelderen,
  • 6:34 - 6:38
    en erger, ons het gevoel geven
    dat de financiële markten onstabiel zijn.
  • 6:39 - 6:45
    Deepfakes kunnen dat benutten en
    het diepe wantrouwen vergroten
  • 6:45 - 6:46
    dat we al hebben
  • 6:46 - 6:51
    in politici, bedrijfsleiders
    en andere invloedrijke leiders.
  • 6:51 - 6:54
    Ze vinden een goedgelovig publiek.
  • 6:55 - 6:58
    Het streven naar waarheid
    staat ook op het spel.
  • 6:59 - 7:03
    Technologen verwachten
    dat met de vooruitgang in AI
  • 7:03 - 7:06
    het binnenkort moeilijk,
    zo niet onmogelijk, wordt
  • 7:06 - 7:10
    om het verschil te zien
    tussen een echte video en een nepvideo.
  • 7:11 - 7:13
    Hoe kunnen we dan nog waarheid vinden
  • 7:13 - 7:17
    in een door deepfake
    geteisterde ideeënwereld?
  • 7:17 - 7:20
    Kiezen we de weg van de minste weerstand
  • 7:20 - 7:23
    en geloven we wat we willen geloven?
  • 7:23 - 7:24
    De waarheid kan de pot op?
  • 7:25 - 7:28
    We zouden niet alleen
    gaan geloven in het bedrog,
  • 7:28 - 7:31
    maar ook aan de waarheid
    kunnen gaan twijfelen.
  • 7:32 - 7:36
    We zagen al dat mensen beroep deden
    op het fenomeen van de deepfakes
  • 7:36 - 7:40
    om echt bewijs over hun wangedrag
    in twijfel te trekken.
  • 7:40 - 7:46
    We hoorden politici over de opnames
    van hun uitschuivers al zeggen:
  • 7:46 - 7:48
    "Kom nou, dat is nepnieuws.
  • 7:48 - 7:52
    Je kan niet geloven wat je ogen
    en oren je vertellen."
  • 7:52 - 7:54
    Het is dat risico
  • 7:54 - 8:00
    dat professor Robert Chesney en ik
    het ‘leugenaarsdividend’ noemen:
  • 8:00 - 8:03
    het risico dat leugenaars
    deepfakes zullen inroepen
  • 8:03 - 8:06
    om aan de verantwoording
    voor hun wangedrag te ontsnappen.
  • 8:07 - 8:10
    We hebben werk voor de boeg,
    daar is geen twijfel over mogelijk.
  • 8:11 - 8:14
    We hebben een proactieve oplossing nodig
  • 8:14 - 8:17
    van tech-bedrijven, van wetgevers,
  • 8:17 - 8:19
    wetshandhavers en de media.
  • 8:20 - 8:24
    En we zullen een gezonde dosis
    sociale veerkracht nodig hebben.
  • 8:26 - 8:29
    Op dit moment is er
    een zeer publiek discussie gaande
  • 8:29 - 8:32
    over de verantwoordelijkheid
    van de tech-bedrijven.
  • 8:33 - 8:36
    Het was mijn advies
    aan de sociale media platformen
  • 8:36 - 8:40
    om hun dienstvoorwaarden
    en gemeenschapsrichtlijnen te veranderen
  • 8:40 - 8:42
    om schadelijke deepfakes te bannen.
  • 8:43 - 8:47
    Dat vereist menselijk oordeel
  • 8:47 - 8:48
    en dat is duur.
  • 8:49 - 8:51
    Maar we hebben mensen nodig
  • 8:51 - 8:55
    om naar de inhoud en context
    van een deepfake te kijken
  • 8:55 - 8:59
    om erachter te komen of het
    een schadelijke imitatie is
  • 8:59 - 9:03
    ofwel waardevolle satire,
    kunst of onderwijs.
  • 9:04 - 9:06
    Maar hoe zit het nu met de wet?
  • 9:07 - 9:09
    De wet is onze opvoeder.
  • 9:10 - 9:14
    Ze leert ons
    wat schadelijk en wat fout is.
  • 9:14 - 9:18
    Ze modelleert gedrag
    door het bestraffen van daders
  • 9:18 - 9:20
    en het beschermen van slachtoffers.
  • 9:21 - 9:25
    De wet kan de uitdaging
    van deepfakes nog niet aan.
  • 9:26 - 9:28
    Over heel de wereld
  • 9:28 - 9:30
    mankeren we op maat gesneden wetten
  • 9:30 - 9:34
    voor het aanpakken van digitale imitaties
  • 9:34 - 9:36
    die de seksuele privacy schenden,
  • 9:36 - 9:37
    reputaties beschadigen
  • 9:37 - 9:39
    en emotionele nood veroorzaken.
  • 9:40 - 9:44
    Wat Rana Ayyub overkwam,
    komt steeds meer voor.
  • 9:44 - 9:46
    Toen ze in Delhi
    om rechtshandhaving vroeg,
  • 9:46 - 9:49
    vertelden ze haar
    dat ze er niets aan konden doen.
  • 9:49 - 9:52
    En de trieste waarheid is
    dat hetzelfde waar zou zijn
  • 9:52 - 9:55
    in de Verenigde Staten en in Europa.
  • 9:55 - 10:00
    Dus hebben we een juridisch vacuüm
    dat moet worden ingevuld.
  • 10:00 - 10:04
    Mijn collega dr. Mary Anne Franks en ik
    werken samen met de Amerikaanse wetgevers
  • 10:04 - 10:09
    aan wetgeving die schadelijke
    digitale nabootsingen zou verbieden,
  • 10:09 - 10:12
    die gelijkstaan aan
    diefstal van identiteit.
  • 10:12 - 10:14
    We zagen vergelijkbare maatregelen
  • 10:14 - 10:18
    in IJsland, het Verenigd Koninkrijk
    en Australië.
  • 10:18 - 10:22
    Maar natuurlijk is dat nog maar
    een klein stuk van de regelgevingspuzzel.
  • 10:23 - 10:26
    Ik weet wel dat de wet
    geen wondermiddel is.
  • 10:26 - 10:28
    Ze is een bot instrument.
  • 10:28 - 10:30
    We zullen het verstandig moeten gebruiken.
  • 10:30 - 10:33
    Ze heeft ook een aantal
    praktische belemmeringen.
  • 10:34 - 10:39
    Je kunt de wet niet aanwenden tegen wie
    je niet kan identificeren of opsporen.
  • 10:39 - 10:43
    Als een dader in een ander land woont
  • 10:43 - 10:45
    dan het slachtoffer,
  • 10:45 - 10:47
    kan je misschien niet eisen dat de dader
  • 10:47 - 10:49
    voor de lokale rechtbanken verschijnt
  • 10:49 - 10:50
    voor gerechtigheid.
  • 10:50 - 10:54
    Dus gaan we een gecoördineerde
    internationale respons nodig hebben.
  • 10:56 - 10:59
    Ook onderwijs moet onderdeel zijn
    van ons antwoord hierop.
  • 11:00 - 11:04
    Wetshandhavers gaan geen wetten toepassen
  • 11:04 - 11:05
    waarover ze niets weten
  • 11:05 - 11:08
    en problemen behandelen
    die ze niet begrijpen.
  • 11:08 - 11:11
    Bij mijn onderzoek naar cyberstalking
  • 11:11 - 11:14
    merkte ik dat rechters de training misten
  • 11:14 - 11:17
    om de beschikbare wetten te begrijpen
  • 11:17 - 11:19
    alsook het probleem van online misbruik.
  • 11:19 - 11:22
    Vaak vertelden ze het slachtoffer:
  • 11:22 - 11:26
    "Zet gewoon je computer uit.
    Negeer het. Het zal ophouden."
  • 11:26 - 11:29
    En we zagen dat ook
    in het geval van Rana Ayyub.
  • 11:29 - 11:33
    Ze kreeg te horen: "Kom op,
    je maakt je er zo druk over.
  • 11:33 - 11:34
    Het zijn jongensstreken."
  • 11:35 - 11:41
    Dus moeten we de nieuwe wetgeving
    koppelen aan nieuwe training.
  • 11:42 - 11:45
    De media dient ook
    heropgevoed te worden.
  • 11:46 - 11:50
    Journalisten moeten
    het deepfakefenomeen leren kennen
  • 11:50 - 11:54
    zodat ze het niet
    versterken en verspreiden.
  • 11:55 - 11:57
    Bij dat deel zijn we allemaal betrokken.
  • 11:57 - 12:01
    Ieder van ons
    moet ermee vertrouwd geraken.
  • 12:01 - 12:05
    We klikken, we delen, we vinden leuk
    zonder er eens over na te denken.
  • 12:06 - 12:07
    Dat moet beter.
  • 12:08 - 12:11
    We hebben een veel betere radar
    voor bedrog nodig.
  • 12:14 - 12:18
    Terwijl we werken aan deze oplossingen,
  • 12:18 - 12:20
    gaat er nog een heleboel leed
    veroorzaakt worden.
  • 12:21 - 12:24
    Rana Ayyub worstelt
    nog steeds met de gevolgen.
  • 12:25 - 12:29
    Ze voelt zich nog steeds geremd
    om zich on- en offline te uiten.
  • 12:30 - 12:33
    Zoals ze me vertelde,
    voelt het nog steeds
  • 12:33 - 12:36
    alsof er duizenden ogen
    op haar naakte lichaam zijn gericht,
  • 12:36 - 12:40
    hoewel ze verstandelijk weet
    dat het niet haar lichaam was.
  • 12:40 - 12:43
    Ze heeft regelmatig paniekaanvallen,
  • 12:43 - 12:47
    vooral wanneer iemand die ze niet kent
    probeert een foto van haar te nemen.
  • 12:47 - 12:49
    "Wat als het weer voor een deepfake is?"
  • 12:49 - 12:50
    denkt ze dan.
  • 12:51 - 12:55
    Voor het belang van mensen
    zoals Rana Ayyub
  • 12:55 - 12:57
    en voor het belang van onze democratie
  • 12:57 - 12:59
    moeten we nu echt iets doen.
  • 13:00 - 13:00
    Dank je.
  • 13:00 - 13:03
    (Applaus)
Title:
Hoe deepfakes de waarheid ondermijnen en de democratie bedreigen
Speaker:
Danielle Citron
Description:

Het gebruik van deepfake-technologie om video en audio te manipuleren voor kwaadaardige doeleinden -- of het nu is om geweld te stoken of politici en journalisten te belasteren -- wordt een reële bedreiging. Hoe zal het vorm geven aan wat wij over de wereld geloven als deze tools toegankelijker worden en hun producten realistischer? In een onheilspellende lezing onthult professor professor Danielle Citron hoe deepfakes ons wantrouwen vergroten -- en suggereert benaderingen om de waarheid te beschermen.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Dutch subtitles

Revisions