WEBVTT 00:00:00.535 --> 00:00:03.302 [Dieser Vortrag besteht aus Inhalten für Erwachsene] NOTE Paragraph 00:00:05.762 --> 00:00:08.794 Rana Ayyub ist Journalistin in Indien, 00:00:08.794 --> 00:00:14.530 die Korruption der Regierung und Menschenrechtsverletzungen aufdeckte. 00:00:14.990 --> 00:00:16.187 Im Verlauf der Jahre 00:00:16.187 --> 00:00:19.734 gewöhnte sie sich an die Giftigkeit und den Streit um ihre Arbeit. 00:00:20.149 --> 00:00:25.258 Aber nichts konnte sie darauf vorbereiten, womit man sie im April 2018 konfrontierte. NOTE Paragraph 00:00:26.125 --> 00:00:29.816 Sie saß mit einem Freund in einem Café, als sie es zum ersten Mal sah: 00:00:29.816 --> 00:00:34.743 ein zwei Minuten und 20 Sekunden langes Video mit ihr beim Sex. 00:00:35.188 --> 00:00:37.587 Sie konnte ihren Augen nicht trauen. 00:00:37.587 --> 00:00:40.074 Sie hatte niemals ein Sex-Video gemacht. 00:00:40.506 --> 00:00:45.391 Aber leider würden Tausende und Abertausende glauben, sie wäre es. NOTE Paragraph 00:00:46.653 --> 00:00:49.647 Vor etwa drei Monaten interviewte ich Frau Ayyub, 00:00:49.647 --> 00:00:52.145 wegen meines Buches über sexuelle Privatsphäre. 00:00:52.681 --> 00:00:55.879 Ich bin Jura-Professorin, Anwältin und Bürgerrechtlerin. 00:00:56.204 --> 00:00:59.709 Es ist unglaublich frustrierend zu wissen, 00:00:59.709 --> 00:01:03.077 dass das Recht im Moment sehr wenig tun kann, um ihr zu helfen. 00:01:03.458 --> 00:01:06.405 Als wir miteinander sprachen, erklärte sie mir, 00:01:06.405 --> 00:01:10.038 dass sie das gefälschte Sex-Video hätte kommen sehen sollen. 00:01:10.138 --> 00:01:15.658 Sie sagte: "Sex wird so oft benutzt, um Frauen zu erniedrigen und zu beschämen. 00:01:15.658 --> 00:01:18.070 Besonders Frauen, die einer Minderheit zugehören 00:01:18.070 --> 00:01:22.202 und solchen, die es wagen, mächtige Männer herauszufordern." 00:01:22.206 --> 00:01:24.409 So wie sie es durch ihre Arbeit tat. 00:01:25.191 --> 00:01:29.167 Das gefälschte Sex-Video verbreitete sich viral in 48 Stunden. 00:01:30.064 --> 00:01:35.111 All ihre Online-Kontos wurden mit Screen-Shots des Videos geflutet, 00:01:35.111 --> 00:01:38.272 mit Todesdrohungen, von grausamer Vergewaltigung 00:01:38.272 --> 00:01:40.649 und Herabsetzung ihres muslimischen Glaubens. 00:01:41.426 --> 00:01:46.030 Online-Kommentare deuteten an, sie sei für Sex "verfügbar". 00:01:46.030 --> 00:01:47.674 Sie wurde "gedoxed", 00:01:47.674 --> 00:01:50.446 was bedeutet, dass ihre Privatadresse und ihre Handynummer 00:01:50.450 --> 00:01:52.196 im Internet verbreitet wurden. 00:01:52.879 --> 00:01:56.963 Das Video wurde mehr als 40.000 Mal geteilt. NOTE Paragraph 00:01:57.760 --> 00:02:01.736 Wenn jemand zum Ziel dieser Art von Cybermobbing-Angriff wird, 00:02:01.736 --> 00:02:03.783 ist der Schaden tiefgreifend. 00:02:04.482 --> 00:02:07.521 Das Leben von Rana Ayyub wurde auf den Kopf gestellt. 00:02:08.211 --> 00:02:11.545 Wochenlang konnte sie kaum essen oder sprechen. 00:02:11.919 --> 00:02:15.648 Sie hörte auf zu schreiben und schloss alle ihre Konten auf Sozialen Medien, 00:02:15.648 --> 00:02:18.790 was heikel ist, wenn man Journalistin ist. 00:02:19.188 --> 00:02:22.702 Sie fürchtete sich davor, das Haus ihrer Familie zu verlassen. 00:02:22.702 --> 00:02:25.718 Was wenn die Postenden ihre Drohungen wahr machen? 00:02:26.395 --> 00:02:30.540 Der UN-Menschenrechtsrat bestätigte, dass sie nicht verrückt war. 00:02:30.784 --> 00:02:33.768 Er gab eine öffentliche Stellungnahme mit der Aussage, 00:02:33.768 --> 00:02:35.988 dass sie um ihre Sicherheit besorgt seien. NOTE Paragraph 00:02:36.776 --> 00:02:40.735 Rana Ayyub sah sich mit einem Deepfake konfrontiert: 00:02:41.029 --> 00:02:43.599 Lernfähige Technologie, 00:02:43.599 --> 00:02:47.764 die Ton- und Videoaufnahmen manipuliert oder erstellt, 00:02:47.764 --> 00:02:50.491 um Leute zu zeigen, wie sie etwas tun oder sagen, 00:02:50.491 --> 00:02:52.341 dass sie niemals taten oder sagten. 00:02:52.807 --> 00:02:55.532 Deepfakes erscheinen glaubwürdig und lebensecht zu sein, 00:02:55.532 --> 00:02:56.702 das sind sie aber nicht. 00:02:56.702 --> 00:02:58.014 Sie sind totale Lügen. 00:02:59.228 --> 00:03:02.846 Obwohl die Technologie weiter verfeinert wird, 00:03:02.846 --> 00:03:04.660 ist sie weit verbreitet. NOTE Paragraph 00:03:05.371 --> 00:03:08.473 Deepfakes erregten zuletzt Aufmerksamkeit, 00:03:08.473 --> 00:03:10.658 wie so viele Dinge online, 00:03:10.658 --> 00:03:11.907 durch Pornographie. NOTE Paragraph 00:03:12.498 --> 00:03:16.599 Anfang 2018 postete jemand ein Tool auf Reddit, 00:03:16.609 --> 00:03:21.371 um Nutzern zu ermöglichen, Gesichter in Porno-Videos einzufügen. 00:03:21.561 --> 00:03:25.011 Es folgte eine Kaskade von gefälschten Porno-Videos 00:03:25.025 --> 00:03:27.822 mit den weiblichen Lieblingsprominenten. 00:03:28.712 --> 00:03:30.893 Heutzutage kann man auf YouTube gehen 00:03:30.893 --> 00:03:34.539 und auf zahllose Anleitungen mit schrittweisen Anweisungen zugreifen, 00:03:34.539 --> 00:03:37.686 wie man ein Deepfake mit der Desktop-Anwendung erstellt. 00:03:38.260 --> 00:03:41.966 Bald werden wir das vielleicht sogar auf dem Smartphone können. 00:03:43.072 --> 00:03:45.038 Es ist die Wechselwirkung 00:03:45.048 --> 00:03:49.528 zwischen einigen unserer grundlegendsten menschlichen Schwächen und Netzwerk-Tools, 00:03:49.528 --> 00:03:52.350 die Deepfakes in Waffen verwandeln können. 00:03:52.874 --> 00:03:54.184 Um es deutlicher zu machen: NOTE Paragraph 00:03:54.875 --> 00:03:59.441 Als menschliche Wesen zeigen wir tiefsitzende Reaktionen auf Ton und Video. 00:03:59.860 --> 00:04:01.418 Wir glauben sie sind wahr. 00:04:01.418 --> 00:04:04.350 auf dem Gedanken basierend, dass man glauben kann, 00:04:04.350 --> 00:04:06.202 was die Augen und Ohren wahrnehmen. 00:04:06.476 --> 00:04:11.851 Dieser Mechanismus untergräbt vielleicht unseren gemeinsamen Sinn für Realität. 00:04:11.851 --> 00:04:14.394 Obwohl wir glauben, Deepfakes seien wahr, 00:04:14.394 --> 00:04:15.494 sind sie es nicht. 00:04:15.494 --> 00:04:19.761 Wir werden vom Obszönen, dem Provokativen angezogen. 00:04:20.365 --> 00:04:23.462 Wir neigen dazu Informationen zu glauben und zu teilen, 00:04:23.462 --> 00:04:25.459 die negativ und originell sind. 00:04:25.809 --> 00:04:27.662 Forscher fanden heraus, 00:04:27.662 --> 00:04:30.952 dass sich Online-Falschmeldungen zehnmal schneller verbreiten 00:04:30.952 --> 00:04:32.599 als zutreffende Geschichten. 00:04:34.015 --> 00:04:40.405 Es zieht uns auch zu Informationen, die sich mit unseren Ansichten decken. 00:04:40.950 --> 00:04:44.511 Psychologen nennen diese Neigung "Bestätigungstendenz". 00:04:45.300 --> 00:04:49.727 Social-Media-Plattformen übersteigern diese Neigung, 00:04:49.727 --> 00:04:51.356 indem sie uns ermöglichen, 00:04:51.356 --> 00:04:53.746 Informationen im Einklang mit unseren Ansichten 00:04:53.746 --> 00:04:55.598 sofort und weitläufig zu teilen. NOTE Paragraph 00:04:56.735 --> 00:04:58.844 Deepfakes haben das Potential, 00:04:58.844 --> 00:05:02.374 ernsten Schaden persönlicher und gesellschaftlicher Art anzurichten. 00:05:03.204 --> 00:05:05.278 Stellen Sie sich einen Deepfake vor, 00:05:05.278 --> 00:05:09.434 der US-Soldaten in Afghanistan zeigt, wie sie einen Koran verbrennen. 00:05:10.807 --> 00:05:12.115 Man kann sich denken, 00:05:12.115 --> 00:05:15.388 dass dieser Deepfake zu Gewalt gegen die Soldaten führen würde. 00:05:15.847 --> 00:05:18.770 Und was, wenn direkt am nächsten Tag 00:05:18.770 --> 00:05:21.038 ein weiterer Deepfake geschickt wird, 00:05:21.038 --> 00:05:24.359 der einen bekannten Imam aus London zeigt 00:05:24.363 --> 00:05:26.830 und den Angriff auf diese Soldaten lobt? 00:05:27.617 --> 00:05:30.800 Wie erleben vielleicht Gewalt und Unruhen, 00:05:30.804 --> 00:05:34.073 nicht nur in Afghanistan und im Vereinigten Königreich, 00:05:34.077 --> 00:05:35.592 sondern überall auf der Welt. NOTE Paragraph 00:05:36.131 --> 00:05:37.533 Sie sagen vielleicht zu mir: 00:05:37.533 --> 00:05:39.830 "Kommen Sie, Danielle, das ist weit hergeholt." 00:05:39.830 --> 00:05:40.984 Aber das ist es nicht. 00:05:41.293 --> 00:05:43.604 Wir erlebten, wie Lügen, die sich auf WhatsApp 00:05:43.604 --> 00:05:46.270 und weiteren Online-Nachrichten- Diensten verbreiteten, 00:05:46.270 --> 00:05:49.135 Gewalt gegen ethnische Minderheiten zur Folge gehabt haben. 00:05:49.135 --> 00:05:50.956 Und das war nur Text. 00:05:50.956 --> 00:05:53.124 Stellen Sie sich vor, es wäre ein Video. NOTE Paragraph 00:05:54.593 --> 00:05:57.344 Deepfakes haben das Potential, 00:05:57.354 --> 00:06:01.966 das in demokratische Institutionen gesetzte Vertrauen, zu zersetzen. 00:06:03.006 --> 00:06:05.673 Denken Sie an die Nacht vor einer Wahl. 00:06:05.996 --> 00:06:10.264 Es gäbe ein Deepfake, das einen Kandidaten einer Volkspartei schwer krank zeigt. 00:06:11.122 --> 00:06:13.795 Der Deepfake könnte bei der Wahl den Ausschlag geben 00:06:13.795 --> 00:06:16.934 und unser Gefühl erschüttern, dass Wahlen rechtmäßig sind. 00:06:18.515 --> 00:06:21.881 Stellen Sie sich vor, in der Nacht vor einem Börsengang 00:06:21.881 --> 00:06:24.228 einer globalen Großbank, 00:06:24.228 --> 00:06:27.401 gäbe es einen Deepfake, der den Bankvorstand zeigt, 00:06:27.401 --> 00:06:30.092 wie er Verschwörungstheorien betrunken vom Stapel lässt. 00:06:30.887 --> 00:06:34.084 Das Deepfake könnte den Börsengang in sich zusammenbrechen lassen, 00:06:34.084 --> 00:06:35.629 und schlimmer noch, 00:06:35.629 --> 00:06:38.829 unser Gefühl erschüttern, dass die Finanzmärkte stabil sind. NOTE Paragraph 00:06:39.235 --> 00:06:44.878 Deepfakes können das tiefe Misstrauen ausbeuten und verstärken, 00:06:44.878 --> 00:06:48.745 das wir schon gegenüber Politikern, Wirtschaftsführern 00:06:48.745 --> 00:06:50.945 und einflussreichen Personen hegen. 00:06:50.945 --> 00:06:54.229 Sie finden ein instruiertes gläubiges Publikum. 00:06:55.287 --> 00:06:58.052 Das Streben nach Wahrheit steht auch auf dem Spiel. 00:06:59.077 --> 00:07:02.691 Technologen erwarten, dass es mit dem Fortschritt in der KI 00:07:02.691 --> 00:07:06.367 bald schwierig, wenn nicht sogar unmöglich sein wird, 00:07:06.371 --> 00:07:10.140 zwischen einem echten Video und einem gefälschten zu unterscheiden. NOTE Paragraph 00:07:11.022 --> 00:07:13.672 Wie kann auf einem Marktplatz der Ideen, 00:07:13.672 --> 00:07:16.752 der von Deepfakes beherrscht wird, die Wahrheit heraustreten? 00:07:16.752 --> 00:07:20.202 Gehen wir einfach weiter den Weg des geringsten Widerstandes 00:07:20.202 --> 00:07:22.663 und glauben, was wir glauben wollen? 00:07:22.663 --> 00:07:23.967 Die Wahrheit sei verflucht. 00:07:24.831 --> 00:07:28.036 Nicht nur, dass wir vielleicht der Fälschung glauben, 00:07:28.036 --> 00:07:31.356 wir beginnen vielleicht der Wahrheit zu misstrauen. 00:07:31.887 --> 00:07:36.016 Wir erlebten bereits Leute, die das Phänomen der Deepfakes anführen, 00:07:36.016 --> 00:07:39.940 um Zweifel an echten Beweisen zu ihrem Fehlverhalten zu sähen. 00:07:39.940 --> 00:07:45.923 Wir hörten Politiker, die über Aufnahmen ihrer verstörenden Kommentare sagten: 00:07:45.927 --> 00:07:47.693 "Kommen Sie, das sind 'Fake news'. 00:07:47.697 --> 00:07:51.617 Man kann nicht glauben, was die Augen und Ohren wahrnehmen." 00:07:52.402 --> 00:07:54.163 Das ist die Gefahr, 00:07:54.163 --> 00:07:59.623 die Professor Robert Chesney und ich, die "Dividende des Lügners" nennen: 00:07:59.623 --> 00:08:03.024 Die Gefahr, dass Lügner Deepfakes anführen, 00:08:03.024 --> 00:08:05.903 um der Rechenschaft für ihr Fehlverhalten zu entkommen. NOTE Paragraph 00:08:06.963 --> 00:08:10.274 Wir müssen etwas Schwieriges schaffen, darüber besteht kein Zweifel. 00:08:10.606 --> 00:08:13.961 Wir werden eine vorausschauende Lösung 00:08:13.961 --> 00:08:17.250 von Technologie-Unternehmen, vom Gesetzgeber, 00:08:17.250 --> 00:08:19.534 von Gesetzeshütern und den Medien brauchen. 00:08:20.093 --> 00:08:24.109 Wir benötigen eine gesunde Dosis gesellschaftlicher Widerstandsfähigkeit. 00:08:25.506 --> 00:08:29.156 Wir sind gerade mit überaus öffentlichen Gesprächen 00:08:29.156 --> 00:08:32.339 über die Verantwortung von Technologie-Unternehmen beschäftigt. 00:08:32.826 --> 00:08:36.228 Mein Rat an Social-Media-Plattformen war, 00:08:36.228 --> 00:08:39.925 ihre Nutzungsbedingungen und die Gemeinschaftsleitlinien zu ändern, 00:08:39.925 --> 00:08:42.215 um Deepfakes zu sperren, die Schaden verursachen. 00:08:42.712 --> 00:08:46.692 Diese Feststellung wird menschliche Beurteilung erfordern 00:08:46.696 --> 00:08:48.267 und ist kostspielig. 00:08:48.673 --> 00:08:50.988 Aber wir brauchen menschliche Wesen, 00:08:50.988 --> 00:08:54.895 um den Inhalt und den Kontext von Deepfakes zu betrachten 00:08:54.895 --> 00:08:58.591 und herauszufinden, ob es eine schädliche Verkörperung 00:08:58.591 --> 00:09:02.967 oder stattdessen eine wertvolle Satire, Kunst oder Bildung ist. NOTE Paragraph 00:09:04.118 --> 00:09:05.613 Was ist mit dem Recht? 00:09:06.666 --> 00:09:09.015 Das Recht ist unser Lehrer. 00:09:09.515 --> 00:09:13.593 Es lehrt uns, was gefährlich und falsch ist. 00:09:13.593 --> 00:09:18.172 Es formt Verhalten, es schreckt Täter ab, indem es bestraft, 00:09:18.172 --> 00:09:20.423 und garantiert Rechtsmittel für die Opfer. 00:09:21.148 --> 00:09:25.428 Zur Zeit ist das Recht nicht auf der Höhe der Herausforderung durch Deepfakes. 00:09:26.116 --> 00:09:27.536 Überall auf der Welt 00:09:27.536 --> 00:09:30.034 mangelt es an maßgeschneidertem Recht, 00:09:30.034 --> 00:09:33.598 das entworfen wäre, digitalen Identitätswechsel anzugehen, 00:09:33.598 --> 00:09:35.853 die in sexuelle Privatsphäre eindringt, 00:09:35.853 --> 00:09:37.264 die gute Namen beschädigt 00:09:37.264 --> 00:09:39.209 und emotionalen Schmerz verursacht. 00:09:39.725 --> 00:09:43.598 Was Rana Ayyub passierte, wird zunehmend zur Alltäglichkeit. 00:09:44.024 --> 00:09:47.378 Doch als sie sich an die Gesetzeshüter in Delhi wandte, sagte man ihr, 00:09:47.378 --> 00:09:49.167 es könnte nichts unternommen werden. 00:09:49.167 --> 00:09:51.338 Und die traurige Wahrheit ist: 00:09:51.338 --> 00:09:54.884 Das Gleiche gilt für Europa und die Vereinigten Staaten. NOTE Paragraph 00:09:55.300 --> 00:09:59.656 Wir haben einen rechtsfreien Raum, der gefüllt werden muss. 00:10:00.292 --> 00:10:04.414 Meine Kollegin, Dr. Mary Anne Franks, und ich erarbeiten gemeinsam 00:10:04.414 --> 00:10:09.252 mit US-Gesetzgebern Gesetzestexte, die Identitätswechsel verbieten, 00:10:09.252 --> 00:10:11.769 der gleichbedeutend mit Identitätsdiebstahl ist. 00:10:12.252 --> 00:10:14.438 Wir haben ähnliche Schritte 00:10:14.438 --> 00:10:17.703 in Island, dem Vereinigten Königreich und Australien erlebt. 00:10:18.157 --> 00:10:21.866 Aber selbstverständlich ist das nur ein kleiner Teil des Regelungspuzzles. NOTE Paragraph 00:10:22.911 --> 00:10:26.130 Ich weiß, dass Recht kein Allheilmittel ist, oder? 00:10:26.130 --> 00:10:27.704 Es ist ein stumpfes Instrument. 00:10:28.346 --> 00:10:30.085 Und wir müssen es weise einsetzen. 00:10:30.415 --> 00:10:33.223 Es hat auch einige praktische Hemmschuhe. 00:10:33.657 --> 00:10:36.903 Man kann Recht nicht gegen Leute nutzen, 00:10:36.903 --> 00:10:39.463 die man nicht identifizieren und auffinden kann. 00:10:39.463 --> 00:10:44.251 Wenn ein Täter nicht im Land des Opfers lebt, 00:10:44.251 --> 00:10:46.440 kann man vielleicht nicht darauf bestehen, 00:10:46.440 --> 00:10:50.043 dass der Täter zum Amtsgericht kommt, um sich der Gerechtigkeit zu stellen. 00:10:50.243 --> 00:10:54.299 Wir benötigen eine koordinierte internationale Antwort. 00:10:55.819 --> 00:10:59.152 Schulung muss auch ein Teil unserer Antwort sein. 00:10:59.803 --> 00:11:03.604 Gesetzeshüter setzen keine Gesetze durch, 00:11:03.604 --> 00:11:05.046 von denen sie nichts wissen 00:11:05.046 --> 00:11:07.636 und Probleme ansprechen, die sie nicht verstehen. 00:11:08.376 --> 00:11:10.987 Bei meiner Forschung zu Cyberstalking fand ich heraus, 00:11:10.987 --> 00:11:14.120 dass den Gesetzeshütern die Schulung fehlt, 00:11:14.120 --> 00:11:18.726 um die gültigen Gesetze und das Problem des Online-Missbrauchs zu verstehen. 00:11:19.093 --> 00:11:21.795 So oft wird den Opfern gesagt: 00:11:21.799 --> 00:11:25.770 "Schalten Sie einfach den Computer aus. Ignorieren Sie es. Es geht vorbei." 00:11:26.261 --> 00:11:28.727 Wir erlebten das im Fall von Rana Ayyub. 00:11:29.102 --> 00:11:32.620 Man sagte ihr: "Komm schon, Du machst so eine große Sache daraus. 00:11:32.620 --> 00:11:34.337 Jungs sind nun mal Jungs." 00:11:35.268 --> 00:11:40.520 Wir müssen also neue Gesetzgebung mit Schulungsmaßnahmen koppeln. NOTE Paragraph 00:11:42.053 --> 00:11:45.482 Und Schulungen müssen auch auf die Medien gerichtet werden. 00:11:46.180 --> 00:11:50.460 Journalisten brauchen Schulungen zum Phänomen der Deepfakes, 00:11:50.464 --> 00:11:53.503 damit sie sie nicht verstärken und sie verbreiten. 00:11:54.583 --> 00:11:56.801 Das ist der Teil, wo wir alle beteiligt sind. 00:11:56.801 --> 00:12:00.630 Alle von uns brauchen Schulungen. 00:12:01.375 --> 00:12:05.050 Wir klicken, wir teilen, wir liken und denken noch nicht mal darüber nach. 00:12:05.551 --> 00:12:07.098 Wir müssen es besser machen. 00:12:07.726 --> 00:12:10.535 Wir brauchen für Fälschungen einen viel besseren Radar. NOTE Paragraph 00:12:13.744 --> 00:12:17.625 Während wir uns durch die Lösungen arbeiten, 00:12:17.625 --> 00:12:20.172 liegt noch viel Leid vor uns. 00:12:21.093 --> 00:12:23.839 Rana Ayyub kämpft immer noch mit den negativen Folgen. 00:12:24.669 --> 00:12:28.858 Sie kann sich noch immer nicht ohne Zögern online und offline ausdrücken. 00:12:29.566 --> 00:12:30.951 Und wie sie mir sagte, 00:12:30.955 --> 00:12:36.069 fühlt sie immer noch, als starrten tausende Augen auf ihren nackten Körper, 00:12:36.069 --> 00:12:39.714 obwohl sie verstandesmäßig weiß, dass es nicht ihr Körper war. 00:12:40.371 --> 00:12:42.620 Sie hat häufige Panikattacken 00:12:42.620 --> 00:12:45.768 und besonders dann, wenn jemand, den sie nicht kennt, versucht, 00:12:45.768 --> 00:12:47.348 ein Foto von ihr zu machen. 00:12:47.348 --> 00:12:50.649 Sie denkt sich: "Was, wenn man ein anderes Deepfake machen wird?" 00:12:51.082 --> 00:12:55.063 Um Personen wie Rana Ayyub willen 00:12:55.063 --> 00:12:57.383 und um unserer Demokratie willen, 00:12:57.383 --> 00:12:59.579 müssen wir jetzt etwas unternehmen. NOTE Paragraph 00:12:59.579 --> 00:13:00.754 Danke. NOTE Paragraph 00:13:00.754 --> 00:13:03.246 (Applaus)