[Dieser Vortrag besteht
aus Inhalten für Erwachsene]
Rana Ayyub ist Journalistin in Indien,
die Korruption der Regierung
und Menschenrechtsverletzungen aufdeckte.
Im Verlauf der Jahre
gewöhnte sie sich an die Giftigkeit
und den Streit um ihre Arbeit.
Aber nichts konnte sie darauf vorbereiten,
womit man sie im April 2018 konfrontierte.
Sie saß mit einem Freund in einem Café,
als sie es zum ersten Mal sah:
ein zwei Minuten und 20 Sekunden
langes Video mit ihr beim Sex.
Sie konnte ihren Augen nicht trauen.
Sie hatte niemals ein Sex-Video gemacht.
Aber leider würden Tausende
und Abertausende glauben, sie wäre es.
Vor etwa drei Monaten
interviewte ich Frau Ayyub,
wegen meines Buches
über sexuelle Privatsphäre.
Ich bin Jura-Professorin,
Anwältin und Bürgerrechtlerin.
Es ist unglaublich frustrierend zu wissen,
dass das Recht im Moment
sehr wenig tun kann, um ihr zu helfen.
Als wir miteinander sprachen,
erklärte sie mir,
dass sie das gefälschte Sex-Video
hätte kommen sehen sollen.
Sie sagte: "Sex wird so oft benutzt,
um Frauen zu erniedrigen und zu beschämen.
Besonders Frauen, die
einer Minderheit zugehören
und solchen, die es wagen,
mächtige Männer herauszufordern."
So wie sie es durch ihre Arbeit tat.
Das gefälschte Sex-Video
verbreitete sich viral in 48 Stunden.
All ihre Online-Kontos wurden
mit Screen-Shots des Videos geflutet,
mit Todesdrohungen,
von grausamer Vergewaltigung
und Herabsetzung
ihres muslimischen Glaubens.
Online-Kommentare deuteten an,
sie sei für Sex "verfügbar".
Sie wurde "gedoxed",
was bedeutet, dass ihre Privatadresse
und ihre Handynummer
im Internet verbreitet wurden.
Das Video wurde
mehr als 40.000 Mal geteilt.
Wenn jemand zum Ziel dieser Art
von Cybermobbing-Angriff wird,
ist der Schaden tiefgreifend.
Das Leben von Rana Ayyub
wurde auf den Kopf gestellt.
Wochenlang konnte sie kaum
essen oder sprechen.
Sie hörte auf zu schreiben und schloss
alle ihre Konten auf Sozialen Medien,
was heikel ist, wenn man Journalistin ist.
Sie fürchtete sich davor,
das Haus ihrer Familie zu verlassen.
Was wenn die Postenden
ihre Drohungen wahr machen?
Der UN-Menschenrechtsrat bestätigte,
dass sie nicht verrückt war.
Er gab eine öffentliche Stellungnahme
mit der Aussage,
dass sie um ihre Sicherheit besorgt seien.
Rana Ayyub sah sich
mit einem Deepfake konfrontiert:
Lernfähige Technologie,
die Ton- und Videoaufnahmen
manipuliert oder erstellt,
um Leute zu zeigen,
wie sie etwas tun oder sagen,
dass sie niemals taten oder sagten.
Deepfakes erscheinen glaubwürdig
und lebensecht zu sein,
das sind sie aber nicht.
Sie sind totale Lügen.
Obwohl die Technologie
weiter verfeinert wird,
ist sie weit verbreitet.
Deepfakes erregten zuletzt Aufmerksamkeit,
wie so viele Dinge online,
durch Pornographie.
Anfang 2018 postete jemand
ein Tool auf Reddit,
um Nutzern zu ermöglichen,
Gesichter in Porno-Videos einzufügen.
Es folgte eine Kaskade
von gefälschten Porno-Videos
mit den weiblichen Lieblingsprominenten.
Heutzutage kann man auf YouTube gehen
und auf zahllose Anleitungen
mit schrittweisen Anweisungen zugreifen,
wie man ein Deepfake
mit der Desktop-Anwendung erstellt.
Bald werden wir das vielleicht sogar
auf dem Smartphone können.
Es ist die Wechselwirkung
zwischen einigen unserer grundlegendsten
menschlichen Schwächen und Netzwerk-Tools,
die Deepfakes in Waffen verwandeln können.
Um es deutlicher zu machen:
Als menschliche Wesen zeigen wir
tiefsitzende Reaktionen auf Ton und Video.
Wir glauben sie sind wahr.
auf dem Gedanken basierend,
dass man glauben kann,
was die Augen und Ohren wahrnehmen.
Dieser Mechanismus untergräbt vielleicht
unseren gemeinsamen Sinn für Realität.
Obwohl wir glauben, Deepfakes seien wahr,
sind sie es nicht.
Wir werden vom Obszönen,
dem Provokativen angezogen.
Wir neigen dazu Informationen
zu glauben und zu teilen,
die negativ und originell sind.
Forscher fanden heraus,
dass sich Online-Falschmeldungen
zehnmal schneller verbreiten
als zutreffende Geschichten.
Es zieht uns auch zu Informationen,
die sich mit unseren Ansichten decken.
Psychologen nennen diese Neigung
"Bestätigungstendenz".
Social-Media-Plattformen
übersteigern diese Neigung,
indem sie uns ermöglichen,
Informationen im Einklang
mit unseren Ansichten
sofort und weitläufig zu teilen.
Deepfakes haben das Potential,
ernsten Schaden persönlicher
und gesellschaftlicher Art anzurichten.
Stellen Sie sich einen Deepfake vor,
der US-Soldaten in Afghanistan zeigt,
wie sie einen Koran verbrennen.
Man kann sich denken,
dass dieser Deepfake zu Gewalt
gegen die Soldaten führen würde.
Und was, wenn direkt am nächsten Tag
ein weiterer Deepfake geschickt wird,
der einen bekannten Imam aus London zeigt
und den Angriff auf diese Soldaten lobt?
Wie erleben vielleicht Gewalt und Unruhen,
nicht nur in Afghanistan
und im Vereinigten Königreich,
sondern überall auf der Welt.
Sie sagen vielleicht zu mir:
"Kommen Sie, Danielle,
das ist weit hergeholt."
Aber das ist es nicht.
Wir erlebten, wie Lügen,
die sich auf WhatsApp
und weiteren Online-Nachrichten-
Diensten verbreiteten,
Gewalt gegen ethnische Minderheiten
zur Folge gehabt haben.
Und das war nur Text.
Stellen Sie sich vor, es wäre ein Video.
Deepfakes haben das Potential,
das in demokratische Institutionen
gesetzte Vertrauen, zu zersetzen.
Denken Sie an die Nacht vor einer Wahl.
Es gäbe ein Deepfake, das einen Kandidaten
einer Volkspartei schwer krank zeigt.
Der Deepfake könnte bei der Wahl
den Ausschlag geben
und unser Gefühl erschüttern,
dass Wahlen rechtmäßig sind.
Stellen Sie sich vor, in der Nacht
vor einem Börsengang
einer globalen Großbank,
gäbe es einen Deepfake,
der den Bankvorstand zeigt,
wie er Verschwörungstheorien
betrunken vom Stapel lässt.
Das Deepfake könnte den Börsengang
in sich zusammenbrechen lassen,
und schlimmer noch,
unser Gefühl erschüttern,
dass die Finanzmärkte stabil sind.
Deepfakes können das tiefe Misstrauen
ausbeuten und verstärken,
das wir schon gegenüber Politikern,
Wirtschaftsführern
und einflussreichen Personen hegen.
Sie finden ein instruiertes
gläubiges Publikum.
Das Streben nach Wahrheit
steht auch auf dem Spiel.
Technologen erwarten, dass es
mit dem Fortschritt in der KI
bald schwierig, wenn nicht sogar
unmöglich sein wird,
zwischen einem echten Video
und einem gefälschten zu unterscheiden.
Wie kann auf einem Marktplatz der Ideen,
der von Deepfakes beherrscht wird,
die Wahrheit heraustreten?
Gehen wir einfach weiter
den Weg des geringsten Widerstandes
und glauben, was wir glauben wollen?
Die Wahrheit sei verflucht.
Nicht nur, dass wir vielleicht
der Fälschung glauben,
wir beginnen vielleicht
der Wahrheit zu misstrauen.
Wir erlebten bereits Leute,
die das Phänomen der Deepfakes anführen,
um Zweifel an echten Beweisen
zu ihrem Fehlverhalten zu sähen.
Wir hörten Politiker, die über Aufnahmen
ihrer verstörenden Kommentare sagten:
"Kommen Sie, das sind 'Fake news'.
Man kann nicht glauben, was die Augen
und Ohren wahrnehmen."
Das ist die Gefahr,
die Professor Robert Chesney und ich,
die "Dividende des Lügners" nennen:
Die Gefahr, dass Lügner
Deepfakes anführen,
um der Rechenschaft
für ihr Fehlverhalten zu entkommen.
Wir müssen etwas Schwieriges schaffen,
darüber besteht kein Zweifel.
Wir werden eine vorausschauende Lösung
von Technologie-Unternehmen,
vom Gesetzgeber,
von Gesetzeshütern
und den Medien brauchen.
Wir benötigen eine gesunde Dosis
gesellschaftlicher Widerstandsfähigkeit.
Wir sind gerade mit überaus
öffentlichen Gesprächen
über die Verantwortung
von Technologie-Unternehmen beschäftigt.
Mein Rat an Social-Media-Plattformen war,
ihre Nutzungsbedingungen
und die Gemeinschaftsleitlinien zu ändern,
um Deepfakes zu sperren,
die Schaden verursachen.
Diese Feststellung wird
menschliche Beurteilung erfordern
und ist kostspielig.
Aber wir brauchen menschliche Wesen,
um den Inhalt und den Kontext
von Deepfakes zu betrachten
und herauszufinden, ob es
eine schädliche Verkörperung
oder stattdessen eine wertvolle Satire,
Kunst oder Bildung ist.
Was ist mit dem Recht?
Das Recht ist unser Lehrer.
Es lehrt uns, was gefährlich
und falsch ist.
Es formt Verhalten, es schreckt
Täter ab, indem es bestraft,
und garantiert Rechtsmittel für die Opfer.
Zur Zeit ist das Recht nicht auf der Höhe
der Herausforderung durch Deepfakes.
Überall auf der Welt
mangelt es an maßgeschneidertem Recht,
das entworfen wäre,
digitalen Identitätswechsel anzugehen,
die in sexuelle Privatsphäre eindringt,
die gute Namen beschädigt
und emotionalen Schmerz verursacht.
Was Rana Ayyub passierte,
wird zunehmend zur Alltäglichkeit.
Doch als sie sich an die Gesetzeshüter
in Delhi wandte, sagte man ihr,
es könnte nichts unternommen werden.
Und die traurige Wahrheit ist:
Das Gleiche gilt für Europa
und die Vereinigten Staaten.
Wir haben einen rechtsfreien Raum,
der gefüllt werden muss.
Meine Kollegin, Dr. Mary Anne Franks,
und ich erarbeiten gemeinsam
mit US-Gesetzgebern Gesetzestexte,
die Identitätswechsel verbieten,
der gleichbedeutend
mit Identitätsdiebstahl ist.
Wir haben ähnliche Schritte
in Island, dem Vereinigten Königreich
und Australien erlebt.
Aber selbstverständlich ist das nur
ein kleiner Teil des Regelungspuzzles.
Ich weiß, dass Recht
kein Allheilmittel ist, oder?
Es ist ein stumpfes Instrument.
Und wir müssen es weise einsetzen.
Es hat auch einige praktische Hemmschuhe.
Man kann Recht nicht gegen Leute nutzen,
die man nicht identifizieren
und auffinden kann.
Wenn ein Täter nicht
im Land des Opfers lebt,
kann man vielleicht nicht darauf bestehen,
dass der Täter zum Amtsgericht kommt,
um sich der Gerechtigkeit zu stellen.
Wir benötigen eine koordinierte
internationale Antwort.
Schulung muss auch ein Teil
unserer Antwort sein.
Gesetzeshüter setzen keine Gesetze durch,
von denen sie nichts wissen
und Probleme ansprechen,
die sie nicht verstehen.
Bei meiner Forschung
zu Cyberstalking fand ich heraus,
dass den Gesetzeshütern
die Schulung fehlt,
um die gültigen Gesetze und das Problem
des Online-Missbrauchs zu verstehen.
So oft wird den Opfern gesagt:
"Schalten Sie einfach den Computer aus.
Ignorieren Sie es. Es geht vorbei."
Wir erlebten das im Fall von Rana Ayyub.
Man sagte ihr: "Komm schon, Du machst
so eine große Sache daraus.
Jungs sind nun mal Jungs."
Wir müssen also neue Gesetzgebung
mit Schulungsmaßnahmen koppeln.
Und Schulungen müssen auch
auf die Medien gerichtet werden.
Journalisten brauchen Schulungen
zum Phänomen der Deepfakes,
damit sie sie nicht verstärken
und sie verbreiten.
Das ist der Teil,
wo wir alle beteiligt sind.
Alle von uns brauchen Schulungen.
Wir klicken, wir teilen, wir liken
und denken noch nicht mal darüber nach.
Wir müssen es besser machen.
Wir brauchen für Fälschungen
einen viel besseren Radar.
Während wir uns
durch die Lösungen arbeiten,
liegt noch viel Leid vor uns.
Rana Ayyub kämpft immer noch
mit den negativen Folgen.
Sie kann sich noch immer nicht ohne Zögern
online und offline ausdrücken.
Und wie sie mir sagte,
fühlt sie immer noch, als starrten
tausende Augen auf ihren nackten Körper,
obwohl sie verstandesmäßig weiß,
dass es nicht ihr Körper war.
Sie hat häufige Panikattacken
und besonders dann, wenn jemand,
den sie nicht kennt, versucht,
ein Foto von ihr zu machen.
Sie denkt sich: "Was, wenn man
ein anderes Deepfake machen wird?"
Um Personen wie Rana Ayyub willen
und um unserer Demokratie willen,
müssen wir jetzt etwas unternehmen.
Danke.
(Applaus)