[Dieser Vortrag besteht aus Inhalten für Erwachsene] Rana Ayyub ist Journalistin in Indien, die Korruption der Regierung und Menschenrechtsverletzungen aufdeckte. Im Verlauf der Jahre gewöhnte sie sich an die Giftigkeit und den Streit um ihre Arbeit. Aber nichts konnte sie darauf vorbereiten, womit man sie im April 2018 konfrontierte. Sie saß mit einem Freund in einem Café, als sie es zum ersten Mal sah: ein zwei Minuten und 20 Sekunden langes Video mit ihr beim Sex. Sie konnte ihren Augen nicht trauen. Sie hatte niemals ein Sex-Video gemacht. Aber leider würden Tausende und Abertausende glauben, sie wäre es. Vor etwa drei Monaten interviewte ich Frau Ayyub, wegen meines Buches über sexuelle Privatsphäre. Ich bin Jura-Professorin, Anwältin und Bürgerrechtlerin. Es ist unglaublich frustrierend zu wissen, dass das Recht im Moment sehr wenig tun kann, um ihr zu helfen. Als wir miteinander sprachen, erklärte sie mir, dass sie das gefälschte Sex-Video hätte kommen sehen sollen. Sie sagte: "Sex wird so oft benutzt, um Frauen zu erniedrigen und zu beschämen. Besonders Frauen, die einer Minderheit zugehören und solchen, die es wagen, mächtige Männer herauszufordern." So wie sie es durch ihre Arbeit tat. Das gefälschte Sex-Video verbreitete sich viral in 48 Stunden. All ihre Online-Kontos wurden mit Screen-Shots des Videos geflutet, mit Todesdrohungen, von grausamer Vergewaltigung und Herabsetzung ihres muslimischen Glaubens. Online-Kommentare deuteten an, sie sei für Sex "verfügbar". Sie wurde "gedoxed", was bedeutet, dass ihre Privatadresse und ihre Handynummer im Internet verbreitet wurden. Das Video wurde mehr als 40.000 Mal geteilt. Wenn jemand zum Ziel dieser Art von Cybermobbing-Angriff wird, ist der Schaden tiefgreifend. Das Leben von Rana Ayyub wurde auf den Kopf gestellt. Wochenlang konnte sie kaum essen oder sprechen. Sie hörte auf zu schreiben und schloss alle ihre Konten auf Sozialen Medien, was heikel ist, wenn man Journalistin ist. Sie fürchtete sich davor, das Haus ihrer Familie zu verlassen. Was wenn die Postenden ihre Drohungen wahr machen? Der UN-Menschenrechtsrat bestätigte, dass sie nicht verrückt war. Er gab eine öffentliche Stellungnahme mit der Aussage, dass sie um ihre Sicherheit besorgt seien. Rana Ayyub sah sich mit einem Deepfake konfrontiert: Lernfähige Technologie, die Ton- und Videoaufnahmen manipuliert oder erstellt, um Leute zu zeigen, wie sie etwas tun oder sagen, dass sie niemals taten oder sagten. Deepfakes erscheinen glaubwürdig und lebensecht zu sein, das sind sie aber nicht. Sie sind totale Lügen. Obwohl die Technologie weiter verfeinert wird, ist sie weit verbreitet. Deepfakes erregten zuletzt Aufmerksamkeit, wie so viele Dinge online, durch Pornographie. Anfang 2018 postete jemand ein Tool auf Reddit, um Nutzern zu ermöglichen, Gesichter in Porno-Videos einzufügen. Es folgte eine Kaskade von gefälschten Porno-Videos mit den weiblichen Lieblingsprominenten. Heutzutage kann man auf YouTube gehen und auf zahllose Anleitungen mit schrittweisen Anweisungen zugreifen, wie man ein Deepfake mit der Desktop-Anwendung erstellt. Bald werden wir das vielleicht sogar auf dem Smartphone können. Es ist die Wechselwirkung zwischen einigen unserer grundlegendsten menschlichen Schwächen und Netzwerk-Tools, die Deepfakes in Waffen verwandeln können. Um es deutlicher zu machen: Als menschliche Wesen zeigen wir tiefsitzende Reaktionen auf Ton und Video. Wir glauben sie sind wahr. auf dem Gedanken basierend, dass man glauben kann, was die Augen und Ohren wahrnehmen. Dieser Mechanismus untergräbt vielleicht unseren gemeinsamen Sinn für Realität. Obwohl wir glauben, Deepfakes seien wahr, sind sie es nicht. Wir werden vom Obszönen, dem Provokativen angezogen. Wir neigen dazu Informationen zu glauben und zu teilen, die negativ und originell sind. Forscher fanden heraus, dass sich Online-Falschmeldungen zehnmal schneller verbreiten als zutreffende Geschichten. Es zieht uns auch zu Informationen, die sich mit unseren Ansichten decken. Psychologen nennen diese Neigung "Bestätigungstendenz". Social-Media-Plattformen übersteigern diese Neigung, indem sie uns ermöglichen, Informationen im Einklang mit unseren Ansichten sofort und weitläufig zu teilen. Deepfakes haben das Potential, ernsten Schaden persönlicher und gesellschaftlicher Art anzurichten. Stellen Sie sich einen Deepfake vor, der US-Soldaten in Afghanistan zeigt, wie sie einen Koran verbrennen. Man kann sich denken, dass dieser Deepfake zu Gewalt gegen die Soldaten führen würde. Und was, wenn direkt am nächsten Tag ein weiterer Deepfake geschickt wird, der einen bekannten Imam aus London zeigt und den Angriff auf diese Soldaten lobt? Wie erleben vielleicht Gewalt und Unruhen, nicht nur in Afghanistan und im Vereinigten Königreich, sondern überall auf der Welt. Sie sagen vielleicht zu mir: "Kommen Sie, Danielle, das ist weit hergeholt." Aber das ist es nicht. Wir erlebten, wie Lügen, die sich auf WhatsApp und weiteren Online-Nachrichten- Diensten verbreiteten, Gewalt gegen ethnische Minderheiten zur Folge gehabt haben. Und das war nur Text. Stellen Sie sich vor, es wäre ein Video. Deepfakes haben das Potential, das in demokratische Institutionen gesetzte Vertrauen, zu zersetzen. Denken Sie an die Nacht vor einer Wahl. Es gäbe ein Deepfake, das einen Kandidaten einer Volkspartei schwer krank zeigt. Der Deepfake könnte bei der Wahl den Ausschlag geben und unser Gefühl erschüttern, dass Wahlen rechtmäßig sind. Stellen Sie sich vor, in der Nacht vor einem Börsengang einer globalen Großbank, gäbe es einen Deepfake, der den Bankvorstand zeigt, wie er Verschwörungstheorien betrunken vom Stapel lässt. Das Deepfake könnte den Börsengang in sich zusammenbrechen lassen, und schlimmer noch, unser Gefühl erschüttern, dass die Finanzmärkte stabil sind. Deepfakes können das tiefe Misstrauen ausbeuten und verstärken, das wir schon gegenüber Politikern, Wirtschaftsführern und einflussreichen Personen hegen. Sie finden ein instruiertes gläubiges Publikum. Das Streben nach Wahrheit steht auch auf dem Spiel. Technologen erwarten, dass es mit dem Fortschritt in der KI bald schwierig, wenn nicht sogar unmöglich sein wird, zwischen einem echten Video und einem gefälschten zu unterscheiden. Wie kann auf einem Marktplatz der Ideen, der von Deepfakes beherrscht wird, die Wahrheit heraustreten? Gehen wir einfach weiter den Weg des geringsten Widerstandes und glauben, was wir glauben wollen? Die Wahrheit sei verflucht. Nicht nur, dass wir vielleicht der Fälschung glauben, wir beginnen vielleicht der Wahrheit zu misstrauen. Wir erlebten bereits Leute, die das Phänomen der Deepfakes anführen, um Zweifel an echten Beweisen zu ihrem Fehlverhalten zu sähen. Wir hörten Politiker, die über Aufnahmen ihrer verstörenden Kommentare sagten: "Kommen Sie, das sind 'Fake news'. Man kann nicht glauben, was die Augen und Ohren wahrnehmen." Das ist die Gefahr, die Professor Robert Chesney und ich, die "Dividende des Lügners" nennen: Die Gefahr, dass Lügner Deepfakes anführen, um der Rechenschaft für ihr Fehlverhalten zu entkommen. Wir müssen etwas Schwieriges schaffen, darüber besteht kein Zweifel. Wir werden eine vorausschauende Lösung von Technologie-Unternehmen, vom Gesetzgeber, von Gesetzeshütern und den Medien brauchen. Wir benötigen eine gesunde Dosis gesellschaftlicher Widerstandsfähigkeit. Wir sind gerade mit überaus öffentlichen Gesprächen über die Verantwortung von Technologie-Unternehmen beschäftigt. Mein Rat an Social-Media-Plattformen war, ihre Nutzungsbedingungen und die Gemeinschaftsleitlinien zu ändern, um Deepfakes zu sperren, die Schaden verursachen. Diese Feststellung wird menschliche Beurteilung erfordern und ist kostspielig. Aber wir brauchen menschliche Wesen, um den Inhalt und den Kontext von Deepfakes zu betrachten und herauszufinden, ob es eine schädliche Verkörperung oder stattdessen eine wertvolle Satire, Kunst oder Bildung ist. Was ist mit dem Recht? Das Recht ist unser Lehrer. Es lehrt uns, was gefährlich und falsch ist. Es formt Verhalten, es schreckt Täter ab, indem es bestraft, und garantiert Rechtsmittel für die Opfer. Zur Zeit ist das Recht nicht auf der Höhe der Herausforderung durch Deepfakes. Überall auf der Welt mangelt es an maßgeschneidertem Recht, das entworfen wäre, digitalen Identitätswechsel anzugehen, die in sexuelle Privatsphäre eindringt, die gute Namen beschädigt und emotionalen Schmerz verursacht. Was Rana Ayyub passierte, wird zunehmend zur Alltäglichkeit. Doch als sie sich an die Gesetzeshüter in Delhi wandte, sagte man ihr, es könnte nichts unternommen werden. Und die traurige Wahrheit ist: Das Gleiche gilt für Europa und die Vereinigten Staaten. Wir haben einen rechtsfreien Raum, der gefüllt werden muss. Meine Kollegin, Dr. Mary Anne Franks, und ich erarbeiten gemeinsam mit US-Gesetzgebern Gesetzestexte, die Identitätswechsel verbieten, der gleichbedeutend mit Identitätsdiebstahl ist. Wir haben ähnliche Schritte in Island, dem Vereinigten Königreich und Australien erlebt. Aber selbstverständlich ist das nur ein kleiner Teil des Regelungspuzzles. Ich weiß, dass Recht kein Allheilmittel ist, oder? Es ist ein stumpfes Instrument. Und wir müssen es weise einsetzen. Es hat auch einige praktische Hemmschuhe. Man kann Recht nicht gegen Leute nutzen, die man nicht identifizieren und auffinden kann. Wenn ein Täter nicht im Land des Opfers lebt, kann man vielleicht nicht darauf bestehen, dass der Täter zum Amtsgericht kommt, um sich der Gerechtigkeit zu stellen. Wir benötigen eine koordinierte internationale Antwort. Schulung muss auch ein Teil unserer Antwort sein. Gesetzeshüter setzen keine Gesetze durch, von denen sie nichts wissen und Probleme ansprechen, die sie nicht verstehen. Bei meiner Forschung zu Cyberstalking fand ich heraus, dass den Gesetzeshütern die Schulung fehlt, um die gültigen Gesetze und das Problem des Online-Missbrauchs zu verstehen. So oft wird den Opfern gesagt: "Schalten Sie einfach den Computer aus. Ignorieren Sie es. Es geht vorbei." Wir erlebten das im Fall von Rana Ayyub. Man sagte ihr: "Komm schon, Du machst so eine große Sache daraus. Jungs sind nun mal Jungs." Wir müssen also neue Gesetzgebung mit Schulungsmaßnahmen koppeln. Und Schulungen müssen auch auf die Medien gerichtet werden. Journalisten brauchen Schulungen zum Phänomen der Deepfakes, damit sie sie nicht verstärken und sie verbreiten. Das ist der Teil, wo wir alle beteiligt sind. Alle von uns brauchen Schulungen. Wir klicken, wir teilen, wir liken und denken noch nicht mal darüber nach. Wir müssen es besser machen. Wir brauchen für Fälschungen einen viel besseren Radar. Während wir uns durch die Lösungen arbeiten, liegt noch viel Leid vor uns. Rana Ayyub kämpft immer noch mit den negativen Folgen. Sie kann sich noch immer nicht ohne Zögern online und offline ausdrücken. Und wie sie mir sagte, fühlt sie immer noch, als starrten tausende Augen auf ihren nackten Körper, obwohl sie verstandesmäßig weiß, dass es nicht ihr Körper war. Sie hat häufige Panikattacken und besonders dann, wenn jemand, den sie nicht kennt, versucht, ein Foto von ihr zu machen. Sie denkt sich: "Was, wenn man ein anderes Deepfake machen wird?" Um Personen wie Rana Ayyub willen und um unserer Demokratie willen, müssen wir jetzt etwas unternehmen. Danke. (Applaus)