YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Dutch subtitles

← Hoe deepfakes de waarheid ondermijnen en de democratie bedreigen

Get Embed Code
16 Languages

Showing Revision 11 created 10/15/2019 by Axel Saffran.

  1. [Deze talk bevat inhoud voor volwassenen]
  2. Rana Ayyub is een journaliste in India.

  3. Ze onthulde corruptie bij de overheid
  4. en schendingen van de mensenrechten.
  5. Door de jaren heen
  6. is ze aan gifspuiterij en controverse
    rond haar werk gewend geraakt.
  7. Maar niets kon haar voorbereiden
    op wat ze in april 2018 tegenkwam.
  8. Ze zat in een café met een vriend
    toen ze het voor het eerst zag:

  9. een video van 2 minuten en 20 seconden
  10. waarop zij bezig was met seks.
  11. Ze kon haar ogen niet geloven.
  12. Ze had nooit een seksvideo gemaakt.
  13. Maar helaas geloofden duizenden
    en duizenden mensen dat zij het was.
  14. Ik interviewde mevrouw Ayyub
    ongeveer drie maanden geleden

  15. in verband met mijn boek
    over seksuele privacy.
  16. Ik ben professor in de rechten,
    advocaat en ik kom op voor burgerrechten.
  17. Daarom is het zo ongelooflijk frustrerend
    om weten dat op dit moment
  18. de wet erg weinig doet om haar te helpen.
  19. In ons gesprek
  20. legde ze uit dat ze de nep-seksvideo
    had moeten zien aankomen.
  21. Ze zei: "Seks wordt immers
    zo vaak gebruikt
  22. om vrouwen te vernederen
    en te schande te maken,
  23. vooral dan allochtone vrouwen,
  24. en vooral allochtone vrouwen
    die machtige mannen durven uit te dagen,"
  25. zoals zij door haar werk had gedaan.
  26. De nep-seksvideo ging in 48 uur viraal.
  27. Al haar online accounts werden overspoeld
    met screenshots van de video,
  28. met grove dreigingen
    van verkrachting en moord
  29. en met laster
    over haar islamitische geloof.
  30. Online berichten suggereerden
    dat ze ‘beschikbaar’ was voor seks.
  31. Ze werd ‘gedoxt’,
  32. wat betekent dat haar adres
    en haar gsm-nummer
  33. werden verspreid over het internet.
  34. De video werd meer
    dan 40.000 keer gedeeld.
  35. Als iemand zo’n aanval
    van een cyberbende moet ondergaan,

  36. is de schade diepgaand.
  37. Rana Ayyub's leven stond op zijn kop.
  38. Wekenlang kon ze
    nauwelijks eten of spreken.
  39. Ze stopte met schrijven en sloot
    al haar ‘social media’-accounts.
  40. Erg moeilijk wanneer je journalist bent.
  41. Ze was bang om buiten te komen.
  42. Wat als de posters
    hun dreigementen zouden uitvoeren?
  43. De VN-Raad voor de mensenrechten
    bevestigde dat ze niet gek was.
  44. Ze legden een openbare verklaring af
  45. waarin ze zich zorgen maakten
    over haar veiligheid.
  46. Wat Rana Ayyub tegenkwam was een deepfake:

  47. zelflerende technologie
  48. die audio- en video-opnamen
    manipuleert of fabriceert
  49. waarin mensen dingen doen en zeggen
  50. die ze nooit gedaan of gezegd hebben.
  51. Deepfakes lijken authentiek
    en realistisch, maar zijn het niet:
  52. ze zijn helemaal onwaar.
  53. Hoewel de technologie
    nog steeds verder wordt verfijnd,
  54. is ze al op grote schaal beschikbaar.
  55. De meest recente aandacht
    voor deepfakes ontstond,

  56. zoals met zo veel dingen online,
  57. met pornografie.
  58. In het begin van 2018

  59. rapporteerde iemand een tool op Reddit
  60. om gebruikers gezichten
    te laten toevoegen in pornovideo's.
  61. Daarop volgde een hoop fake pornovideo's
  62. met favoriete vrouwelijke beroemdheden.
  63. Vandaag vind je op YouTube
    talloze handleidingen
  64. met stap-voor-stap instructies
  65. om een deepfake te maken op je pc.
  66. Binnenkort kan het zelfs
    op onze mobiele telefoons.
  67. De combinatie van onze meest
    fundamentele menselijke zwakheden
  68. met netwerktools
  69. kan deepfakes veranderen in wapens.
  70. Ik leg het uit.
  71. Als mens hebben we
    een viscerale reactie op audio en video.

  72. We geloven dat ze waar zijn
  73. door het idee dat je
    uiteraard kunt geloven
  74. wat je ogen en oren je vertellen.
  75. Het is dat mechanisme
  76. dat onze gezamenlijke realiteitszin
    zou kunnen ondermijnen.
  77. Hoewel we van deepfakes geloven
    dat ze waar zijn, zijn ze het niet.
  78. Het schunnige, het provocerende
    trekt ons aan.
  79. We hebben de neiging
  80. om negatieve en nieuwe informatie
    te geloven en te delen.
  81. En onderzoekers hebben ontdekt
  82. dat online hoaxes 10 keer sneller
    verspreid worden dan accurate verhalen.
  83. We zijn ook aangetrokken tot informatie
  84. die aansluit bij onze standpunten.
  85. Psychologen noemen deze tendens
    ‘voorkeur voor bevestiging’.
  86. Sociale media platformen
    versterken die tendens,
  87. door ons informatie direct
    en op grote schaal te laten delen
  88. als het overeenstemt met onze standpunten.
  89. Deepfakes kunnen dus ernstige individuele
    en maatschappelijke schade veroorzaken.

  90. Stel je een deepfake voor
  91. waarin Amerikaanse soldaten
    in Afghanistan een Koran verbranden.
  92. Je kunt je voorstellen dat die deepfake
  93. geweld kan uitlokken tegen die soldaten.
  94. En wat als de volgende dag
  95. er nog een deepfake verspreid wordt
  96. die een bekende imam in Londen toont
  97. die de aanval op die soldaten prijst?
  98. Het zou kunnen leiden
    tot geweld en burgerlijke onrust,
  99. niet alleen in Afghanistan
    en het Verenigd Koninkrijk,
  100. maar over de hele wereld.
  101. En je zou me kunnen zeggen:

  102. "Kom nou, Danielle, dat is vergezocht."
  103. Maar dat is het niet.
  104. We hebben onwaarheden zien verspreiden
  105. op WhatsApp en andere
    online boodschappendiensten
  106. die leidden tot geweld
    tegen etnische minderheden.
  107. En dat was gewoon tekst --
  108. stel je voor dat het video was.
  109. Deepfakes kunnen het vertrouwen aantasten

  110. dat we hebben
    in democratische instellingen.
  111. Stel je de avond voor een verkiezing voor.
  112. Een deepfake toont
  113. een belangrijke partijkandidaat
    als ernstig ziek.
  114. De deepfake kan de uitslag bepalen
  115. en ons vertrouwen in de legitimiteit
    van verkiezingen doen wankelen.
  116. Stel je voor dat
    op de avond voor een beursgang
  117. van een grote internationale bank,
  118. een deepfake een CEO van de bank toont
  119. terwijl hij dronken
    samenzweringstheorieën spuit.
  120. De deepfake kon
    de beursgang doen kelderen,
  121. en erger, ons het gevoel geven
    dat de financiële markten onstabiel zijn.
  122. Deepfakes kunnen dat benutten en
    het diepe wantrouwen vergroten

  123. dat we al hebben
  124. in politici, bedrijfsleiders
    en andere invloedrijke leiders.
  125. Ze vinden een goedgelovig publiek.
  126. Het streven naar waarheid
    staat ook op het spel.
  127. Technologen verwachten
    dat met de vooruitgang in AI
  128. het binnenkort moeilijk,
    zo niet onmogelijk, wordt
  129. om het verschil te zien
    tussen een echte video en een nepvideo.
  130. Hoe kunnen we dan nog waarheid vinden

  131. in een door deepfake
    geteisterde ideeënwereld?
  132. Kiezen we de weg van de minste weerstand
  133. en geloven we wat we willen geloven?
  134. De waarheid kan de pot op?
  135. We zouden niet alleen
    gaan geloven in het bedrog,
  136. maar ook aan de waarheid
    kunnen gaan twijfelen.
  137. We zagen al dat mensen beroep deden
    op het fenomeen van de deepfakes
  138. om echt bewijs over hun wangedrag
    in twijfel te trekken.
  139. We hoorden politici over de opnames
    van hun uitschuivers al zeggen:
  140. "Kom nou, dat is nepnieuws.
  141. Je kan niet geloven wat je ogen
    en oren je vertellen."
  142. Het is dat risico
  143. dat professor Robert Chesney en ik
    het ‘leugenaarsdividend’ noemen:
  144. het risico dat leugenaars
    deepfakes zullen inroepen
  145. om aan de verantwoording
    voor hun wangedrag te ontsnappen.
  146. We hebben werk voor de boeg,
    daar is geen twijfel over mogelijk.

  147. We hebben een proactieve oplossing nodig
  148. van tech-bedrijven, van wetgevers,
  149. wetshandhavers en de media.
  150. En we zullen een gezonde dosis
    sociale veerkracht nodig hebben.
  151. Op dit moment is er
    een zeer publiek discussie gaande
  152. over de verantwoordelijkheid
    van de tech-bedrijven.
  153. Het was mijn advies
    aan de sociale media platformen
  154. om hun dienstvoorwaarden
    en gemeenschapsrichtlijnen te veranderen
  155. om schadelijke deepfakes te bannen.
  156. Dat vereist menselijk oordeel
  157. en dat is duur.
  158. Maar we hebben mensen nodig
  159. om naar de inhoud en context
    van een deepfake te kijken
  160. om erachter te komen of het
    een schadelijke imitatie is
  161. ofwel waardevolle satire,
    kunst of onderwijs.
  162. Maar hoe zit het nu met de wet?

  163. De wet is onze opvoeder.
  164. Ze leert ons
    wat schadelijk en wat fout is.
  165. Ze modelleert gedrag
    door het bestraffen van daders
  166. en het beschermen van slachtoffers.
  167. De wet kan de uitdaging
    van deepfakes nog niet aan.
  168. Over heel de wereld
  169. mankeren we op maat gesneden wetten
  170. voor het aanpakken van digitale imitaties
  171. die de seksuele privacy schenden,
  172. reputaties beschadigen
  173. en emotionele nood veroorzaken.
  174. Wat Rana Ayyub overkwam,
    komt steeds meer voor.
  175. Toen ze in Delhi
    om rechtshandhaving vroeg,
  176. vertelden ze haar
    dat ze er niets aan konden doen.
  177. En de trieste waarheid is
    dat hetzelfde waar zou zijn
  178. in de Verenigde Staten en in Europa.
  179. Dus hebben we een juridisch vacuüm
    dat moet worden ingevuld.

  180. Mijn collega dr. Mary Anne Franks en ik
    werken samen met de Amerikaanse wetgevers
  181. aan wetgeving die schadelijke
    digitale nabootsingen zou verbieden,
  182. die gelijkstaan aan
    diefstal van identiteit.
  183. We zagen vergelijkbare maatregelen
  184. in IJsland, het Verenigd Koninkrijk
    en Australië.
  185. Maar natuurlijk is dat nog maar
    een klein stuk van de regelgevingspuzzel.
  186. Ik weet wel dat de wet
    geen wondermiddel is.

  187. Ze is een bot instrument.
  188. We zullen het verstandig moeten gebruiken.
  189. Ze heeft ook een aantal
    praktische belemmeringen.
  190. Je kunt de wet niet aanwenden tegen wie
    je niet kan identificeren of opsporen.
  191. Als een dader in een ander land woont
  192. dan het slachtoffer,
  193. kan je misschien niet eisen dat de dader
  194. voor de lokale rechtbanken verschijnt
  195. voor gerechtigheid.
  196. Dus gaan we een gecoördineerde
    internationale respons nodig hebben.
  197. Ook onderwijs moet onderdeel zijn
    van ons antwoord hierop.
  198. Wetshandhavers gaan geen wetten toepassen
  199. waarover ze niets weten
  200. en problemen behandelen
    die ze niet begrijpen.
  201. Bij mijn onderzoek naar cyberstalking
  202. merkte ik dat rechters de training misten
  203. om de beschikbare wetten te begrijpen
  204. alsook het probleem van online misbruik.
  205. Vaak vertelden ze het slachtoffer:
  206. "Zet gewoon je computer uit.
    Negeer het. Het zal ophouden."
  207. En we zagen dat ook
    in het geval van Rana Ayyub.
  208. Ze kreeg te horen: "Kom op,
    je maakt je er zo druk over.
  209. Het zijn jongensstreken."
  210. Dus moeten we de nieuwe wetgeving
    koppelen aan nieuwe training.
  211. De media dient ook
    heropgevoed te worden.

  212. Journalisten moeten
    het deepfakefenomeen leren kennen
  213. zodat ze het niet
    versterken en verspreiden.
  214. Bij dat deel zijn we allemaal betrokken.
  215. Ieder van ons
    moet ermee vertrouwd geraken.
  216. We klikken, we delen, we vinden leuk
    zonder er eens over na te denken.
  217. Dat moet beter.
  218. We hebben een veel betere radar
    voor bedrog nodig.
  219. Terwijl we werken aan deze oplossingen,

  220. gaat er nog een heleboel leed
    veroorzaakt worden.
  221. Rana Ayyub worstelt
    nog steeds met de gevolgen.
  222. Ze voelt zich nog steeds geremd
    om zich on- en offline te uiten.
  223. Zoals ze me vertelde,
    voelt het nog steeds
  224. alsof er duizenden ogen
    op haar naakte lichaam zijn gericht,
  225. hoewel ze verstandelijk weet
    dat het niet haar lichaam was.
  226. Ze heeft regelmatig paniekaanvallen,
  227. vooral wanneer iemand die ze niet kent
    probeert een foto van haar te nemen.
  228. "Wat als het weer voor een deepfake is?"
  229. denkt ze dan.
  230. Voor het belang van mensen
    zoals Rana Ayyub
  231. en voor het belang van onze democratie
  232. moeten we nu echt iets doen.
  233. Dank je.

  234. (Applaus)