1 00:00:00,535 --> 00:00:03,302 [Dieser Vortrag besteht aus Inhalten für Erwachsene] 2 00:00:05,762 --> 00:00:08,794 Rana Ayyub ist Journalistin in Indien, 3 00:00:08,794 --> 00:00:14,530 die Korruption der Regierung und Menschenrechtsverletzungen aufdeckte. 4 00:00:14,990 --> 00:00:16,187 Im Verlauf der Jahre 5 00:00:16,187 --> 00:00:19,734 gewöhnte sie sich an die Giftigkeit und den Streit um ihre Arbeit. 6 00:00:20,149 --> 00:00:25,258 Aber nichts konnte sie darauf vorbereiten, womit man sie im April 2018 konfrontierte. 7 00:00:26,125 --> 00:00:29,816 Sie saß mit einem Freund in einem Café, als sie es zum ersten Mal sah: 8 00:00:29,816 --> 00:00:34,743 ein zwei Minuten und 20 Sekunden langes Video mit ihr beim Sex. 9 00:00:35,188 --> 00:00:37,587 Sie konnte ihren Augen nicht trauen. 10 00:00:37,587 --> 00:00:40,074 Sie hatte niemals ein Sex-Video gemacht. 11 00:00:40,506 --> 00:00:45,391 Aber leider würden Tausende und Abertausende glauben, sie wäre es. 12 00:00:46,653 --> 00:00:49,647 Vor etwa drei Monaten interviewte ich Frau Ayyub, 13 00:00:49,647 --> 00:00:52,145 wegen meines Buches über sexuelle Privatsphäre. 14 00:00:52,681 --> 00:00:55,879 Ich bin Jura-Professorin, Anwältin und Bürgerrechtlerin. 15 00:00:56,204 --> 00:00:59,709 Es ist unglaublich frustrierend zu wissen, 16 00:00:59,709 --> 00:01:03,077 dass das Recht im Moment sehr wenig tun kann, um ihr zu helfen. 17 00:01:03,458 --> 00:01:06,405 Als wir miteinander sprachen, erklärte sie mir, 18 00:01:06,405 --> 00:01:10,038 dass sie das gefälschte Sex-Video hätte kommen sehen sollen. 19 00:01:10,138 --> 00:01:15,658 Sie sagte: "Sex wird so oft benutzt, um Frauen zu erniedrigen und zu beschämen. 20 00:01:15,658 --> 00:01:18,070 Besonders Frauen, die einer Minderheit zugehören 21 00:01:18,070 --> 00:01:22,202 und solchen, die es wagen, mächtige Männer herauszufordern." 22 00:01:22,206 --> 00:01:24,409 So wie sie es durch ihre Arbeit tat. 23 00:01:25,191 --> 00:01:29,167 Das gefälschte Sex-Video verbreitete sich viral in 48 Stunden. 24 00:01:30,064 --> 00:01:35,111 All ihre Online-Kontos wurden mit Screen-Shots des Videos geflutet, 25 00:01:35,111 --> 00:01:38,272 mit Todesdrohungen, von grausamer Vergewaltigung 26 00:01:38,272 --> 00:01:40,649 und Herabsetzung ihres muslimischen Glaubens. 27 00:01:41,426 --> 00:01:46,030 Online-Kommentare deuteten an, sie sei für Sex "verfügbar". 28 00:01:46,030 --> 00:01:47,674 Sie wurde "gedoxed", 29 00:01:47,674 --> 00:01:50,446 was bedeutet, dass ihre Privatadresse und ihre Handynummer 30 00:01:50,450 --> 00:01:52,196 im Internet verbreitet wurden. 31 00:01:52,879 --> 00:01:56,963 Das Video wurde mehr als 40.000 Mal geteilt. 32 00:01:57,760 --> 00:02:01,736 Wenn jemand zum Ziel dieser Art von Cybermobbing-Angriff wird, 33 00:02:01,736 --> 00:02:03,783 ist der Schaden tiefgreifend. 34 00:02:04,482 --> 00:02:07,521 Das Leben von Rana Ayyub wurde auf den Kopf gestellt. 35 00:02:08,211 --> 00:02:11,545 Wochenlang konnte sie kaum essen oder sprechen. 36 00:02:11,919 --> 00:02:15,648 Sie hörte auf zu schreiben und schloss alle ihre Konten auf Sozialen Medien, 37 00:02:15,648 --> 00:02:18,790 was heikel ist, wenn man Journalistin ist. 38 00:02:19,188 --> 00:02:22,702 Sie fürchtete sich davor, das Haus ihrer Familie zu verlassen. 39 00:02:22,702 --> 00:02:25,718 Was wenn die Postenden ihre Drohungen wahr machen? 40 00:02:26,395 --> 00:02:30,540 Der UN-Menschenrechtsrat bestätigte, dass sie nicht verrückt war. 41 00:02:30,784 --> 00:02:33,768 Er gab eine öffentliche Stellungnahme mit der Aussage, 42 00:02:33,768 --> 00:02:35,988 dass sie um ihre Sicherheit besorgt seien. 43 00:02:36,776 --> 00:02:40,735 Rana Ayyub sah sich mit einem Deepfake konfrontiert: 44 00:02:41,029 --> 00:02:43,599 Lernfähige Technologie, 45 00:02:43,599 --> 00:02:47,764 die Ton- und Videoaufnahmen manipuliert oder erstellt, 46 00:02:47,764 --> 00:02:50,491 um Leute zu zeigen, wie sie etwas tun oder sagen, 47 00:02:50,491 --> 00:02:52,341 dass sie niemals taten oder sagten. 48 00:02:52,807 --> 00:02:55,532 Deepfakes erscheinen glaubwürdig und lebensecht zu sein, 49 00:02:55,532 --> 00:02:56,702 das sind sie aber nicht. 50 00:02:56,702 --> 00:02:58,014 Sie sind totale Lügen. 51 00:02:59,228 --> 00:03:02,846 Obwohl die Technologie weiter verfeinert wird, 52 00:03:02,846 --> 00:03:04,660 ist sie weit verbreitet. 53 00:03:05,371 --> 00:03:08,473 Deepfakes erregten zuletzt Aufmerksamkeit, 54 00:03:08,473 --> 00:03:10,658 wie so viele Dinge online, 55 00:03:10,658 --> 00:03:11,907 durch Pornographie. 56 00:03:12,498 --> 00:03:16,599 Anfang 2018 postete jemand ein Tool auf Reddit, 57 00:03:16,609 --> 00:03:21,371 um Nutzern zu ermöglichen, Gesichter in Porno-Videos einzufügen. 58 00:03:21,561 --> 00:03:25,011 Es folgte eine Kaskade von gefälschten Porno-Videos 59 00:03:25,025 --> 00:03:27,822 mit den weiblichen Lieblingsprominenten. 60 00:03:28,712 --> 00:03:30,893 Heutzutage kann man auf YouTube gehen 61 00:03:30,893 --> 00:03:34,539 und auf zahllose Anleitungen mit schrittweisen Anweisungen zugreifen, 62 00:03:34,539 --> 00:03:37,686 wie man ein Deepfake mit der Desktop-Anwendung erstellt. 63 00:03:38,260 --> 00:03:41,966 Bald werden wir das vielleicht sogar auf dem Smartphone können. 64 00:03:43,072 --> 00:03:45,038 Es ist die Wechselwirkung 65 00:03:45,048 --> 00:03:49,528 zwischen einigen unserer grundlegendsten menschlichen Schwächen und Netzwerk-Tools, 66 00:03:49,528 --> 00:03:52,350 die Deepfakes in Waffen verwandeln können. 67 00:03:52,874 --> 00:03:54,184 Um es deutlicher zu machen: 68 00:03:54,875 --> 00:03:59,441 Als menschliche Wesen zeigen wir tiefsitzende Reaktionen auf Ton und Video. 69 00:03:59,860 --> 00:04:01,418 Wir glauben sie sind wahr. 70 00:04:01,418 --> 00:04:04,350 auf dem Gedanken basierend, dass man glauben kann, 71 00:04:04,350 --> 00:04:06,202 was die Augen und Ohren wahrnehmen. 72 00:04:06,476 --> 00:04:11,851 Dieser Mechanismus untergräbt vielleicht unseren gemeinsamen Sinn für Realität. 73 00:04:11,851 --> 00:04:14,394 Obwohl wir glauben, Deepfakes seien wahr, 74 00:04:14,394 --> 00:04:15,494 sind sie es nicht. 75 00:04:15,494 --> 00:04:19,761 Wir werden vom Obszönen, dem Provokativen angezogen. 76 00:04:20,365 --> 00:04:23,462 Wir neigen dazu Informationen zu glauben und zu teilen, 77 00:04:23,462 --> 00:04:25,459 die negativ und originell sind. 78 00:04:25,809 --> 00:04:27,662 Forscher fanden heraus, 79 00:04:27,662 --> 00:04:30,952 dass sich Online-Falschmeldungen zehnmal schneller verbreiten 80 00:04:30,952 --> 00:04:32,599 als zutreffende Geschichten. 81 00:04:34,015 --> 00:04:40,405 Es zieht uns auch zu Informationen, die sich mit unseren Ansichten decken. 82 00:04:40,950 --> 00:04:44,511 Psychologen nennen diese Neigung "Bestätigungstendenz". 83 00:04:45,300 --> 00:04:49,727 Social-Media-Plattformen übersteigern diese Neigung, 84 00:04:49,727 --> 00:04:51,356 indem sie uns ermöglichen, 85 00:04:51,356 --> 00:04:53,746 Informationen im Einklang mit unseren Ansichten 86 00:04:53,746 --> 00:04:55,598 sofort und weitläufig zu teilen. 87 00:04:56,735 --> 00:04:58,844 Deepfakes haben das Potential, 88 00:04:58,844 --> 00:05:02,374 ernsten Schaden persönlicher und gesellschaftlicher Art anzurichten. 89 00:05:03,204 --> 00:05:05,278 Stellen Sie sich einen Deepfake vor, 90 00:05:05,278 --> 00:05:09,434 der US-Soldaten in Afghanistan zeigt, wie sie einen Koran verbrennen. 91 00:05:10,807 --> 00:05:12,115 Man kann sich denken, 92 00:05:12,115 --> 00:05:15,388 dass dieser Deepfake zu Gewalt gegen die Soldaten führen würde. 93 00:05:15,847 --> 00:05:18,770 Und was, wenn direkt am nächsten Tag 94 00:05:18,770 --> 00:05:21,038 ein weiterer Deepfake geschickt wird, 95 00:05:21,038 --> 00:05:24,359 der einen bekannten Imam aus London zeigt 96 00:05:24,363 --> 00:05:26,830 und den Angriff auf diese Soldaten lobt? 97 00:05:27,617 --> 00:05:30,800 Wie erleben vielleicht Gewalt und Unruhen, 98 00:05:30,804 --> 00:05:34,073 nicht nur in Afghanistan und im Vereinigten Königreich, 99 00:05:34,077 --> 00:05:35,592 sondern überall auf der Welt. 100 00:05:36,131 --> 00:05:37,533 Sie sagen vielleicht zu mir: 101 00:05:37,533 --> 00:05:39,830 "Kommen Sie, Danielle, das ist weit hergeholt." 102 00:05:39,830 --> 00:05:40,984 Aber das ist es nicht. 103 00:05:41,293 --> 00:05:43,604 Wir erlebten, wie Lügen, die sich auf WhatsApp 104 00:05:43,604 --> 00:05:46,270 und weiteren Online-Nachrichten- Diensten verbreiteten, 105 00:05:46,270 --> 00:05:49,135 Gewalt gegen ethnische Minderheiten zur Folge gehabt haben. 106 00:05:49,135 --> 00:05:50,956 Und das war nur Text. 107 00:05:50,956 --> 00:05:53,124 Stellen Sie sich vor, es wäre ein Video. 108 00:05:54,593 --> 00:05:57,344 Deepfakes haben das Potential, 109 00:05:57,354 --> 00:06:01,966 das in demokratische Institutionen gesetzte Vertrauen, zu zersetzen. 110 00:06:03,006 --> 00:06:05,673 Denken Sie an die Nacht vor einer Wahl. 111 00:06:05,996 --> 00:06:10,264 Es gäbe ein Deepfake, das einen Kandidaten einer Volkspartei schwer krank zeigt. 112 00:06:11,122 --> 00:06:13,795 Der Deepfake könnte bei der Wahl den Ausschlag geben 113 00:06:13,795 --> 00:06:16,934 und unser Gefühl erschüttern, dass Wahlen rechtmäßig sind. 114 00:06:18,515 --> 00:06:21,881 Stellen Sie sich vor, in der Nacht vor einem Börsengang 115 00:06:21,881 --> 00:06:24,228 einer globalen Großbank, 116 00:06:24,228 --> 00:06:27,401 gäbe es einen Deepfake, der den Bankvorstand zeigt, 117 00:06:27,401 --> 00:06:30,092 wie er Verschwörungstheorien betrunken vom Stapel lässt. 118 00:06:30,887 --> 00:06:34,084 Das Deepfake könnte den Börsengang in sich zusammenbrechen lassen, 119 00:06:34,084 --> 00:06:35,629 und schlimmer noch, 120 00:06:35,629 --> 00:06:38,829 unser Gefühl erschüttern, dass die Finanzmärkte stabil sind. 121 00:06:39,235 --> 00:06:44,878 Deepfakes können das tiefe Misstrauen ausbeuten und verstärken, 122 00:06:44,878 --> 00:06:48,745 das wir schon gegenüber Politikern, Wirtschaftsführern 123 00:06:48,745 --> 00:06:50,945 und einflussreichen Personen hegen. 124 00:06:50,945 --> 00:06:54,229 Sie finden ein instruiertes gläubiges Publikum. 125 00:06:55,287 --> 00:06:58,052 Das Streben nach Wahrheit steht auch auf dem Spiel. 126 00:06:59,077 --> 00:07:02,691 Technologen erwarten, dass es mit dem Fortschritt in der KI 127 00:07:02,691 --> 00:07:06,367 bald schwierig, wenn nicht sogar unmöglich sein wird, 128 00:07:06,371 --> 00:07:10,140 zwischen einem echten Video und einem gefälschten zu unterscheiden. 129 00:07:11,022 --> 00:07:13,672 Wie kann auf einem Marktplatz der Ideen, 130 00:07:13,672 --> 00:07:16,752 der von Deepfakes beherrscht wird, die Wahrheit heraustreten? 131 00:07:16,752 --> 00:07:20,202 Gehen wir einfach weiter den Weg des geringsten Widerstandes 132 00:07:20,202 --> 00:07:22,663 und glauben, was wir glauben wollen? 133 00:07:22,663 --> 00:07:23,967 Die Wahrheit sei verflucht. 134 00:07:24,831 --> 00:07:28,036 Nicht nur, dass wir vielleicht der Fälschung glauben, 135 00:07:28,036 --> 00:07:31,356 wir beginnen vielleicht der Wahrheit zu misstrauen. 136 00:07:31,887 --> 00:07:36,016 Wir erlebten bereits Leute, die das Phänomen der Deepfakes anführen, 137 00:07:36,016 --> 00:07:39,940 um Zweifel an echten Beweisen zu ihrem Fehlverhalten zu sähen. 138 00:07:39,940 --> 00:07:45,923 Wir hörten Politiker, die über Aufnahmen ihrer verstörenden Kommentare sagten: 139 00:07:45,927 --> 00:07:47,693 "Kommen Sie, das sind 'Fake news'. 140 00:07:47,697 --> 00:07:51,617 Man kann nicht glauben, was die Augen und Ohren wahrnehmen." 141 00:07:52,402 --> 00:07:54,163 Das ist die Gefahr, 142 00:07:54,163 --> 00:07:59,623 die Professor Robert Chesney und ich, die "Dividende des Lügners" nennen: 143 00:07:59,623 --> 00:08:03,024 Die Gefahr, dass Lügner Deepfakes anführen, 144 00:08:03,024 --> 00:08:05,903 um der Rechenschaft für ihr Fehlverhalten zu entkommen. 145 00:08:06,963 --> 00:08:10,274 Wir müssen etwas Schwieriges schaffen, darüber besteht kein Zweifel. 146 00:08:10,606 --> 00:08:13,961 Wir werden eine vorausschauende Lösung 147 00:08:13,961 --> 00:08:17,250 von Technologie-Unternehmen, vom Gesetzgeber, 148 00:08:17,250 --> 00:08:19,534 von Gesetzeshütern und den Medien brauchen. 149 00:08:20,093 --> 00:08:24,109 Wir benötigen eine gesunde Dosis gesellschaftlicher Widerstandsfähigkeit. 150 00:08:25,506 --> 00:08:29,156 Wir sind gerade mit überaus öffentlichen Gesprächen 151 00:08:29,156 --> 00:08:32,339 über die Verantwortung von Technologie-Unternehmen beschäftigt. 152 00:08:32,826 --> 00:08:36,228 Mein Rat an Social-Media-Plattformen war, 153 00:08:36,228 --> 00:08:39,925 ihre Nutzungsbedingungen und die Gemeinschaftsleitlinien zu ändern, 154 00:08:39,925 --> 00:08:42,215 um Deepfakes zu sperren, die Schaden verursachen. 155 00:08:42,712 --> 00:08:46,692 Diese Feststellung wird menschliche Beurteilung erfordern 156 00:08:46,696 --> 00:08:48,267 und ist kostspielig. 157 00:08:48,673 --> 00:08:50,988 Aber wir brauchen menschliche Wesen, 158 00:08:50,988 --> 00:08:54,895 um den Inhalt und den Kontext von Deepfakes zu betrachten 159 00:08:54,895 --> 00:08:58,591 und herauszufinden, ob es eine schädliche Verkörperung 160 00:08:58,591 --> 00:09:02,967 oder stattdessen eine wertvolle Satire, Kunst oder Bildung ist. 161 00:09:04,118 --> 00:09:05,613 Was ist mit dem Recht? 162 00:09:06,666 --> 00:09:09,015 Das Recht ist unser Lehrer. 163 00:09:09,515 --> 00:09:13,593 Es lehrt uns, was gefährlich und falsch ist. 164 00:09:13,593 --> 00:09:18,172 Es formt Verhalten, es schreckt Täter ab, indem es bestraft, 165 00:09:18,172 --> 00:09:20,423 und garantiert Rechtsmittel für die Opfer. 166 00:09:21,148 --> 00:09:25,428 Zur Zeit ist das Recht nicht auf der Höhe der Herausforderung durch Deepfakes. 167 00:09:26,116 --> 00:09:27,536 Überall auf der Welt 168 00:09:27,536 --> 00:09:30,034 mangelt es an maßgeschneidertem Recht, 169 00:09:30,034 --> 00:09:33,598 das entworfen wäre, digitalen Identitätswechsel anzugehen, 170 00:09:33,598 --> 00:09:35,853 die in sexuelle Privatsphäre eindringt, 171 00:09:35,853 --> 00:09:37,264 die gute Namen beschädigt 172 00:09:37,264 --> 00:09:39,209 und emotionalen Schmerz verursacht. 173 00:09:39,725 --> 00:09:43,598 Was Rana Ayyub passierte, wird zunehmend zur Alltäglichkeit. 174 00:09:44,024 --> 00:09:47,378 Doch als sie sich an die Gesetzeshüter in Delhi wandte, sagte man ihr, 175 00:09:47,378 --> 00:09:49,167 es könnte nichts unternommen werden. 176 00:09:49,167 --> 00:09:51,338 Und die traurige Wahrheit ist: 177 00:09:51,338 --> 00:09:54,884 Das Gleiche gilt für Europa und die Vereinigten Staaten. 178 00:09:55,300 --> 00:09:59,656 Wir haben einen rechtsfreien Raum, der gefüllt werden muss. 179 00:10:00,292 --> 00:10:04,414 Meine Kollegin, Dr. Mary Anne Franks, und ich erarbeiten gemeinsam 180 00:10:04,414 --> 00:10:09,252 mit US-Gesetzgebern Gesetzestexte, die Identitätswechsel verbieten, 181 00:10:09,252 --> 00:10:11,769 der gleichbedeutend mit Identitätsdiebstahl ist. 182 00:10:12,252 --> 00:10:14,438 Wir haben ähnliche Schritte 183 00:10:14,438 --> 00:10:17,703 in Island, dem Vereinigten Königreich und Australien erlebt. 184 00:10:18,157 --> 00:10:21,866 Aber selbstverständlich ist das nur ein kleiner Teil des Regelungspuzzles. 185 00:10:22,911 --> 00:10:26,130 Ich weiß, dass Recht kein Allheilmittel ist, oder? 186 00:10:26,130 --> 00:10:27,704 Es ist ein stumpfes Instrument. 187 00:10:28,346 --> 00:10:30,085 Und wir müssen es weise einsetzen. 188 00:10:30,415 --> 00:10:33,223 Es hat auch einige praktische Hemmschuhe. 189 00:10:33,657 --> 00:10:36,903 Man kann Recht nicht gegen Leute nutzen, 190 00:10:36,903 --> 00:10:39,463 die man nicht identifizieren und auffinden kann. 191 00:10:39,463 --> 00:10:44,251 Wenn ein Täter nicht im Land des Opfers lebt, 192 00:10:44,251 --> 00:10:46,440 kann man vielleicht nicht darauf bestehen, 193 00:10:46,440 --> 00:10:50,043 dass der Täter zum Amtsgericht kommt, um sich der Gerechtigkeit zu stellen. 194 00:10:50,243 --> 00:10:54,299 Wir benötigen eine koordinierte internationale Antwort. 195 00:10:55,819 --> 00:10:59,152 Schulung muss auch ein Teil unserer Antwort sein. 196 00:10:59,803 --> 00:11:03,604 Gesetzeshüter setzen keine Gesetze durch, 197 00:11:03,604 --> 00:11:05,046 von denen sie nichts wissen 198 00:11:05,046 --> 00:11:07,636 und Probleme ansprechen, die sie nicht verstehen. 199 00:11:08,376 --> 00:11:10,987 Bei meiner Forschung zu Cyberstalking fand ich heraus, 200 00:11:10,987 --> 00:11:14,120 dass den Gesetzeshütern die Schulung fehlt, 201 00:11:14,120 --> 00:11:18,726 um die gültigen Gesetze und das Problem des Online-Missbrauchs zu verstehen. 202 00:11:19,093 --> 00:11:21,795 So oft wird den Opfern gesagt: 203 00:11:21,799 --> 00:11:25,770 "Schalten Sie einfach den Computer aus. Ignorieren Sie es. Es geht vorbei." 204 00:11:26,261 --> 00:11:28,727 Wir erlebten das im Fall von Rana Ayyub. 205 00:11:29,102 --> 00:11:32,620 Man sagte ihr: "Komm schon, Du machst so eine große Sache daraus. 206 00:11:32,620 --> 00:11:34,337 Jungs sind nun mal Jungs." 207 00:11:35,268 --> 00:11:40,520 Wir müssen also neue Gesetzgebung mit Schulungsmaßnahmen koppeln. 208 00:11:42,053 --> 00:11:45,482 Und Schulungen müssen auch auf die Medien gerichtet werden. 209 00:11:46,180 --> 00:11:50,460 Journalisten brauchen Schulungen zum Phänomen der Deepfakes, 210 00:11:50,464 --> 00:11:53,503 damit sie sie nicht verstärken und sie verbreiten. 211 00:11:54,583 --> 00:11:56,801 Das ist der Teil, wo wir alle beteiligt sind. 212 00:11:56,801 --> 00:12:00,630 Alle von uns brauchen Schulungen. 213 00:12:01,375 --> 00:12:05,050 Wir klicken, wir teilen, wir liken und denken noch nicht mal darüber nach. 214 00:12:05,551 --> 00:12:07,098 Wir müssen es besser machen. 215 00:12:07,726 --> 00:12:10,535 Wir brauchen für Fälschungen einen viel besseren Radar. 216 00:12:13,744 --> 00:12:17,625 Während wir uns durch die Lösungen arbeiten, 217 00:12:17,625 --> 00:12:20,172 liegt noch viel Leid vor uns. 218 00:12:21,093 --> 00:12:23,839 Rana Ayyub kämpft immer noch mit den negativen Folgen. 219 00:12:24,669 --> 00:12:28,858 Sie kann sich noch immer nicht ohne Zögern online und offline ausdrücken. 220 00:12:29,566 --> 00:12:30,951 Und wie sie mir sagte, 221 00:12:30,955 --> 00:12:36,069 fühlt sie immer noch, als starrten tausende Augen auf ihren nackten Körper, 222 00:12:36,069 --> 00:12:39,714 obwohl sie verstandesmäßig weiß, dass es nicht ihr Körper war. 223 00:12:40,371 --> 00:12:42,620 Sie hat häufige Panikattacken 224 00:12:42,620 --> 00:12:45,768 und besonders dann, wenn jemand, den sie nicht kennt, versucht, 225 00:12:45,768 --> 00:12:47,348 ein Foto von ihr zu machen. 226 00:12:47,348 --> 00:12:50,649 Sie denkt sich: "Was, wenn man ein anderes Deepfake machen wird?" 227 00:12:51,082 --> 00:12:55,063 Um Personen wie Rana Ayyub willen 228 00:12:55,063 --> 00:12:57,383 und um unserer Demokratie willen, 229 00:12:57,383 --> 00:12:59,579 müssen wir jetzt etwas unternehmen. 230 00:12:59,579 --> 00:13:00,754 Danke. 231 00:13:00,754 --> 00:13:03,246 (Applaus)