0:00:00.535,0:00:03.302 [Deze talk bevat inhoud voor volwassenen] 0:00:05.762,0:00:08.754 Rana Ayyub is een journaliste in India. 0:00:08.778,0:00:11.380 Ze onthulde corruptie bij de overheid 0:00:12.411,0:00:14.568 en schendingen van de mensenrechten. 0:00:14.990,0:00:16.157 Door de jaren heen 0:00:16.181,0:00:19.484 is ze aan gifspuiterij en controverse [br]rond haar werk gewend geraakt. 0:00:20.149,0:00:25.258 Maar niets kon haar voorbereiden [br]op wat ze in april 2018 tegenkwam. 0:00:26.125,0:00:29.776 Ze zat in een café met een vriend [br]toen ze het voor het eerst zag: 0:00:29.800,0:00:32.468 een video van 2 minuten en 20 seconden 0:00:32.468,0:00:34.738 waarop zij bezig was met seks. 0:00:35.188,0:00:37.537 Ze kon haar ogen niet geloven. 0:00:37.561,0:00:39.834 Ze had nooit een seksvideo gemaakt. 0:00:40.506,0:00:45.441 Maar helaas geloofden duizenden [br]en duizenden mensen dat zij het was. 0:00:46.673,0:00:49.617 Ik interviewde mevrouw Ayyub [br]ongeveer drie maanden geleden 0:00:49.641,0:00:52.145 in verband met mijn boek [br]over seksuele privacy. 0:00:52.601,0:00:56.179 Ik ben professor in de rechten, [br]advocaat en ik kom op voor burgerrechten. 0:00:56.204,0:01:00.395 Daarom is het zo ongelooflijk frustrerend [br]om weten dat op dit moment 0:01:00.419,0:01:03.077 de wet erg weinig doet om haar te helpen. 0:01:03.458,0:01:05.005 In ons gesprek 0:01:05.029,0:01:09.541 legde ze uit dat ze de nep-seksvideo [br]had moeten zien aankomen. 0:01:10.038,0:01:13.298 Ze zei: "Seks wordt immers [br]zo vaak gebruikt 0:01:13.298,0:01:15.658 om vrouwen te vernederen [br]en te schande te maken, 0:01:15.658,0:01:18.086 vooral dan allochtone vrouwen, 0:01:18.110,0:01:22.422 en vooral allochtone vrouwen [br]die machtige mannen durven uit te dagen," 0:01:22.446,0:01:24.469 zoals zij door haar werk had gedaan. 0:01:25.191,0:01:29.167 De nep-seksvideo ging in 48 uur viraal. 0:01:30.064,0:01:35.241 Al haar online accounts werden overspoeld [br]met screenshots van de video, 0:01:35.275,0:01:38.022 met grove dreigingen[br]van verkrachting en moord 0:01:38.046,0:01:40.579 en met laster [br]over haar islamitische geloof. 0:01:41.426,0:01:45.990 Online berichten suggereerden [br]dat ze ‘beschikbaar’ was voor seks. 0:01:46.014,0:01:47.624 Ze werd ‘gedoxt’, 0:01:47.648,0:01:50.426 wat betekent dat haar adres [br]en haar gsm-nummer 0:01:50.450,0:01:52.196 werden verspreid over het internet. 0:01:52.879,0:01:56.963 De video werd meer [br]dan 40.000 keer gedeeld. 0:01:57.760,0:02:01.696 Als iemand zo’n aanval [br]van een cyberbende moet ondergaan, 0:02:01.720,0:02:03.783 is de schade diepgaand. 0:02:04.482,0:02:07.521 Rana Ayyub's leven stond op zijn kop. 0:02:08.211,0:02:11.545 Wekenlang kon ze [br]nauwelijks eten of spreken. 0:02:11.919,0:02:15.608 Ze stopte met schrijven en sloot [br]al haar ‘social media’-accounts. 0:02:15.632,0:02:18.790 Erg moeilijk wanneer je journalist bent. 0:02:19.188,0:02:22.672 Ze was bang om buiten te komen. 0:02:22.696,0:02:25.718 Wat als de posters [br]hun dreigementen zouden uitvoeren? 0:02:26.395,0:02:30.760 De VN-Raad voor de mensenrechten [br]bevestigde dat ze niet gek was. 0:02:30.784,0:02:32.668 Ze legden een openbare verklaring af 0:02:32.668,0:02:35.708 waarin ze zich zorgen maakten [br]over haar veiligheid. 0:02:36.776,0:02:41.005 Wat Rana Ayyub tegenkwam was een deepfake: 0:02:41.029,0:02:43.569 zelflerende technologie 0:02:43.593,0:02:47.704 die audio- en video-opnamen [br]manipuleert of fabriceert 0:02:47.728,0:02:50.361 waarin mensen dingen doen en zeggen 0:02:50.395,0:02:52.341 die ze nooit gedaan of gezegd hebben. 0:02:52.807,0:02:56.168 Deepfakes lijken authentiek [br]en realistisch, maar zijn het niet: 0:02:56.192,0:02:57.964 ze zijn helemaal onwaar. 0:02:59.228,0:03:03.022 Hoewel de technologie [br]nog steeds verder wordt verfijnd, 0:03:03.046,0:03:04.920 is ze al op grote schaal beschikbaar. 0:03:05.371,0:03:08.443 De meest recente aandacht [br]voor deepfakes ontstond, 0:03:08.467,0:03:10.628 zoals met zo veel dingen online, 0:03:10.652,0:03:11.907 met pornografie. 0:03:12.498,0:03:14.609 In het begin van 2018 0:03:14.633,0:03:17.101 rapporteerde iemand een tool op Reddit 0:03:17.125,0:03:21.537 om gebruikers gezichten [br]te laten toevoegen in pornovideo's. 0:03:21.561,0:03:25.001 Daarop volgde een hoop fake pornovideo's 0:03:25.025,0:03:27.822 met favoriete vrouwelijke beroemdheden. 0:03:28.712,0:03:32.189 Vandaag vind je op YouTube [br]talloze handleidingen 0:03:32.213,0:03:34.499 met stap-voor-stap instructies 0:03:34.523,0:03:37.686 om een deepfake te maken op je pc. 0:03:38.260,0:03:41.966 Binnenkort kan het zelfs [br]op onze mobiele telefoons. 0:03:43.072,0:03:48.454 De combinatie van onze meest [br]fundamentele menselijke zwakheden 0:03:48.478,0:03:50.160 met netwerktools 0:03:50.184,0:03:52.850 kan deepfakes veranderen in wapens. 0:03:52.874,0:03:54.074 Ik leg het uit. 0:03:54.875,0:03:59.441 Als mens hebben we [br]een viscerale reactie op audio en video. 0:03:59.860,0:04:01.348 We geloven dat ze waar zijn 0:04:01.372,0:04:03.450 door het idee dat je [br]uiteraard kunt geloven 0:04:03.474,0:04:05.952 wat je ogen en oren je vertellen. 0:04:06.476,0:04:08.175 Het is dat mechanisme 0:04:08.199,0:04:11.897 dat onze gezamenlijke realiteitszin [br]zou kunnen ondermijnen. 0:04:11.921,0:04:15.288 Hoewel we van deepfakes geloven [br]dat ze waar zijn, zijn ze het niet. 0:04:15.604,0:04:19.761 Het schunnige, het provocerende [br]trekt ons aan. 0:04:20.365,0:04:22.479 We hebben de neiging 0:04:22.479,0:04:25.809 om negatieve en nieuwe informatie [br]te geloven en te delen. 0:04:25.809,0:04:27.802 En onderzoekers hebben ontdekt 0:04:27.822,0:04:32.479 dat online hoaxes 10 keer sneller[br]verspreid worden dan accurate verhalen. 0:04:34.015,0:04:38.395 We zijn ook aangetrokken tot informatie 0:04:38.419,0:04:40.311 die aansluit bij onze standpunten. 0:04:40.950,0:04:44.511 Psychologen noemen deze tendens [br]‘voorkeur voor bevestiging’. 0:04:45.300,0:04:49.687 Sociale media platformen [br]versterken die tendens, 0:04:49.711,0:04:53.592 door ons informatie direct [br]en op grote schaal te laten delen 0:04:53.616,0:04:55.888 als het overeenstemt met onze standpunten. 0:04:56.735,0:05:02.303 Deepfakes kunnen dus ernstige individuele [br]en maatschappelijke schade veroorzaken. 0:05:03.204,0:05:05.228 Stel je een deepfake voor 0:05:05.252,0:05:09.434 waarin Amerikaanse soldaten [br]in Afghanistan een Koran verbranden. 0:05:10.807,0:05:13.075 Je kunt je voorstellen dat die deepfake 0:05:13.085,0:05:15.388 geweld kan uitlokken tegen die soldaten. 0:05:15.847,0:05:18.720 En wat als de volgende dag 0:05:18.744,0:05:20.998 er nog een deepfake verspreid wordt 0:05:21.022,0:05:24.339 die een bekende imam in Londen toont 0:05:24.363,0:05:26.830 die de aanval op die soldaten prijst? 0:05:27.617,0:05:30.780 Het zou kunnen leiden [br]tot geweld en burgerlijke onrust, 0:05:30.804,0:05:34.053 niet alleen in Afghanistan [br]en het Verenigd Koninkrijk, 0:05:34.077,0:05:35.742 maar over de hele wereld. 0:05:36.251,0:05:37.599 En je zou me kunnen zeggen: 0:05:37.599,0:05:39.680 "Kom nou, Danielle, dat is vergezocht." 0:05:39.704,0:05:40.854 Maar dat is het niet. 0:05:41.293,0:05:43.484 We hebben onwaarheden zien verspreiden 0:05:43.508,0:05:46.230 op WhatsApp en andere [br]online boodschappendiensten 0:05:46.254,0:05:49.015 die leidden tot geweld [br]tegen etnische minderheden. 0:05:49.039,0:05:50.926 En dat was gewoon tekst -- 0:05:50.950,0:05:52.974 stel je voor dat het video was. 0:05:54.593,0:05:58.634 Deepfakes kunnen het vertrouwen aantasten 0:05:58.634,0:06:02.186 dat we hebben [br]in democratische instellingen. 0:06:03.006,0:06:05.673 Stel je de avond voor een verkiezing voor. 0:06:05.996,0:06:07.938 Een deepfake toont [br] 0:06:07.938,0:06:10.408 een belangrijke partijkandidaat [br]als ernstig ziek. 0:06:11.202,0:06:13.535 De deepfake kan de uitslag bepalen 0:06:13.559,0:06:16.934 en ons vertrouwen in de legitimiteit [br]van verkiezingen doen wankelen. 0:06:18.515,0:06:21.841 Stel je voor dat [br]op de avond voor een beursgang 0:06:21.865,0:06:24.198 van een grote internationale bank, 0:06:24.222,0:06:27.371 een deepfake een CEO van de bank toont 0:06:27.395,0:06:30.092 terwijl hij dronken [br]samenzweringstheorieën spuit. 0:06:30.887,0:06:33.934 De deepfake kon [br]de beursgang doen kelderen, 0:06:33.958,0:06:38.073 en erger, ons het gevoel geven[br]dat de financiële markten onstabiel zijn. 0:06:39.385,0:06:44.998 Deepfakes kunnen dat benutten en [br]het diepe wantrouwen vergroten 0:06:44.998,0:06:46.395 dat we al hebben 0:06:46.395,0:06:50.515 in politici, bedrijfsleiders [br]en andere invloedrijke leiders. 0:06:50.945,0:06:54.229 Ze vinden een goedgelovig publiek. 0:06:55.287,0:06:58.052 Het streven naar waarheid [br]staat ook op het spel. 0:06:59.077,0:07:02.641 Technologen verwachten [br]dat met de vooruitgang in AI 0:07:02.665,0:07:06.347 het binnenkort moeilijk, [br]zo niet onmogelijk, wordt 0:07:06.371,0:07:10.140 om het verschil te zien [br]tussen een echte video en een nepvideo. 0:07:11.022,0:07:13.282 Hoe kunnen we dan nog waarheid vinden 0:07:13.282,0:07:16.752 in een door deepfake [br]geteisterde ideeënwereld? 0:07:16.752,0:07:20.172 Kiezen we de weg van de minste weerstand 0:07:20.196,0:07:22.633 en geloven we wat we willen geloven? 0:07:22.657,0:07:24.237 De waarheid kan de pot op? 0:07:24.831,0:07:28.006 We zouden niet alleen [br]gaan geloven in het bedrog, 0:07:28.030,0:07:31.356 maar ook aan de waarheid[br]kunnen gaan twijfelen. 0:07:31.887,0:07:35.966 We zagen al dat mensen beroep deden [br]op het fenomeen van de deepfakes 0:07:35.990,0:07:39.910 om echt bewijs over hun wangedrag [br]in twijfel te trekken. 0:07:39.934,0:07:45.887 We hoorden politici over de opnames [br]van hun uitschuivers al zeggen: 0:07:45.927,0:07:47.673 "Kom nou, dat is nepnieuws. 0:07:47.697,0:07:51.617 Je kan niet geloven wat je ogen [br]en oren je vertellen." 0:07:52.402,0:07:54.133 Het is dat risico 0:07:54.157,0:07:59.593 dat professor Robert Chesney en ik [br]het ‘leugenaarsdividend’ noemen: 0:07:59.617,0:08:02.974 het risico dat leugenaars [br]deepfakes zullen inroepen 0:08:02.998,0:08:06.213 om aan de verantwoording [br]voor hun wangedrag te ontsnappen. 0:08:06.963,0:08:10.034 We hebben werk voor de boeg, [br]daar is geen twijfel over mogelijk. 0:08:10.606,0:08:13.931 We hebben een proactieve oplossing nodig 0:08:13.955,0:08:17.466 van tech-bedrijven, van wetgevers, 0:08:17.490,0:08:19.474 wetshandhavers en de media. 0:08:20.093,0:08:24.109 En we zullen een gezonde dosis [br]sociale veerkracht nodig hebben. 0:08:25.506,0:08:29.402 Op dit moment is er [br]een zeer publiek discussie gaande 0:08:29.426,0:08:32.339 over de verantwoordelijkheid [br]van de tech-bedrijven. 0:08:32.926,0:08:35.958 Het was mijn advies [br]aan de sociale media platformen 0:08:35.982,0:08:39.855 om hun dienstvoorwaarden [br]en gemeenschapsrichtlijnen te veranderen 0:08:39.879,0:08:42.215 om schadelijke deepfakes te bannen. 0:08:42.712,0:08:46.672 Dat vereist menselijk oordeel 0:08:46.696,0:08:48.267 en dat is duur. 0:08:48.673,0:08:50.958 Maar we hebben mensen nodig 0:08:50.982,0:08:54.855 om naar de inhoud en context [br]van een deepfake te kijken 0:08:54.879,0:08:58.561 om erachter te komen of het [br]een schadelijke imitatie is 0:08:58.585,0:09:02.967 ofwel waardevolle satire, [br]kunst of onderwijs. 0:09:04.118,0:09:05.753 Maar hoe zit het nu met de wet? 0:09:06.666,0:09:09.015 De wet is onze opvoeder. 0:09:09.515,0:09:13.553 Ze leert ons [br]wat schadelijk en wat fout is. 0:09:13.577,0:09:18.132 Ze modelleert gedrag [br]door het bestraffen van daders 0:09:18.156,0:09:20.423 en het beschermen van slachtoffers. 0:09:21.148,0:09:25.428 De wet kan de uitdaging [br]van deepfakes nog niet aan. 0:09:26.116,0:09:27.506 Over heel de wereld 0:09:27.530,0:09:29.974 mankeren we op maat gesneden wetten 0:09:29.998,0:09:33.568 voor het aanpakken van digitale imitaties 0:09:33.592,0:09:35.823 die de seksuele privacy schenden, 0:09:35.847,0:09:37.234 reputaties beschadigen 0:09:37.258,0:09:39.209 en emotionele nood veroorzaken. 0:09:39.725,0:09:43.598 Wat Rana Ayyub overkwam, [br]komt steeds meer voor. 0:09:44.074,0:09:46.288 Toen ze in Delhi [br]om rechtshandhaving vroeg, 0:09:46.312,0:09:49.057 vertelden ze haar [br]dat ze er niets aan konden doen. 0:09:49.101,0:09:52.284 En de trieste waarheid is [br]dat hetzelfde waar zou zijn 0:09:52.308,0:09:54.574 in de Verenigde Staten en in Europa. 0:09:55.300,0:09:59.656 Dus hebben we een juridisch vacuüm [br]dat moet worden ingevuld. 0:10:00.292,0:10:04.384 Mijn collega dr. Mary Anne Franks en ik [br]werken samen met de Amerikaanse wetgevers 0:10:04.408,0:10:09.212 aan wetgeving die schadelijke [br]digitale nabootsingen zou verbieden, 0:10:09.236,0:10:11.769 die gelijkstaan aan[br]diefstal van identiteit. 0:10:12.252,0:10:14.378 We zagen vergelijkbare maatregelen 0:10:14.402,0:10:17.703 in IJsland, het Verenigd Koninkrijk [br]en Australië. 0:10:18.157,0:10:21.906 Maar natuurlijk is dat nog maar [br]een klein stuk van de regelgevingspuzzel. 0:10:22.911,0:10:26.080 Ik weet wel dat de wet [br]geen wondermiddel is. 0:10:26.104,0:10:27.704 Ze is een bot instrument. 0:10:28.346,0:10:30.365 We zullen het verstandig moeten gebruiken. 0:10:30.411,0:10:33.223 Ze heeft ook een aantal [br]praktische belemmeringen. 0:10:33.657,0:10:38.701 Je kunt de wet niet aanwenden tegen wie [br]je niet kan identificeren of opsporen. 0:10:39.463,0:10:42.749 Als een dader in een ander land woont 0:10:42.773,0:10:44.527 dan het slachtoffer, 0:10:44.551,0:10:46.750 kan je misschien niet eisen dat de dader 0:10:46.750,0:10:48.553 voor de lokale rechtbanken verschijnt 0:10:48.577,0:10:49.727 voor gerechtigheid. 0:10:50.236,0:10:54.299 Dus gaan we een gecoördineerde [br]internationale respons nodig hebben. 0:10:55.819,0:10:59.152 Ook onderwijs moet onderdeel zijn [br]van ons antwoord hierop. 0:10:59.803,0:11:03.534 Wetshandhavers gaan geen wetten toepassen 0:11:03.558,0:11:05.016 waarover ze niets weten 0:11:05.040,0:11:07.636 en problemen behandelen [br]die ze niet begrijpen. 0:11:08.376,0:11:10.567 Bij mijn onderzoek naar cyberstalking 0:11:10.591,0:11:14.090 merkte ik dat rechters de training misten 0:11:14.114,0:11:16.696 om de beschikbare wetten te begrijpen 0:11:16.720,0:11:19.069 alsook het probleem van online misbruik. 0:11:19.093,0:11:21.775 Vaak vertelden ze het slachtoffer: 0:11:21.799,0:11:25.770 "Zet gewoon je computer uit. [br]Negeer het. Het zal ophouden." 0:11:26.261,0:11:28.727 En we zagen dat ook [br]in het geval van Rana Ayyub. 0:11:29.102,0:11:32.570 Ze kreeg te horen: "Kom op, [br]je maakt je er zo druk over. 0:11:32.594,0:11:34.337 Het zijn jongensstreken." 0:11:35.268,0:11:40.520 Dus moeten we de nieuwe wetgeving [br]koppelen aan nieuwe training. 0:11:42.053,0:11:45.482 De media dient ook[br]heropgevoed te worden. 0:11:46.180,0:11:50.440 Journalisten moeten [br]het deepfakefenomeen leren kennen 0:11:50.464,0:11:53.503 zodat ze het niet [br]versterken en verspreiden. 0:11:54.583,0:11:56.751 Bij dat deel zijn we allemaal betrokken. 0:11:56.775,0:12:00.630 Ieder van ons [br]moet ermee vertrouwd geraken. 0:12:01.375,0:12:05.050 We klikken, we delen, we vinden leuk [br]zonder er eens over na te denken. 0:12:05.551,0:12:07.098 Dat moet beter. 0:12:07.726,0:12:10.535 We hebben een veel betere radar [br]voor bedrog nodig. 0:12:13.744,0:12:17.585 Terwijl we werken aan deze oplossingen, 0:12:17.609,0:12:20.172 gaat er nog een heleboel leed [br]veroorzaakt worden. 0:12:21.093,0:12:23.839 Rana Ayyub worstelt [br]nog steeds met de gevolgen. 0:12:24.669,0:12:28.858 Ze voelt zich nog steeds geremd [br]om zich on- en offline te uiten. 0:12:29.566,0:12:32.523 Zoals ze me vertelde, [br]voelt het nog steeds 0:12:32.523,0:12:36.053 alsof er duizenden ogen [br]op haar naakte lichaam zijn gericht, 0:12:36.053,0:12:39.714 hoewel ze verstandelijk weet [br]dat het niet haar lichaam was. 0:12:40.371,0:12:42.720 Ze heeft regelmatig paniekaanvallen, 0:12:42.744,0:12:46.844 vooral wanneer iemand die ze niet kent [br]probeert een foto van haar te nemen. 0:12:46.868,0:12:49.182 "Wat als het weer voor een deepfake is?" 0:12:49.182,0:12:50.332 denkt ze dan. 0:12:51.082,0:12:55.003 Voor het belang van mensen [br]zoals Rana Ayyub 0:12:55.027,0:12:57.333 en voor het belang van onze democratie 0:12:57.357,0:12:59.219 moeten we nu echt iets doen. 0:12:59.563,0:13:00.414 Dank je. 0:13:00.448,0:13:02.636 (Applaus)