Wie Deepfakes die Wahrheit untergraben und die Demokratie bedrohen
-
0:01 - 0:03[Dieser Vortrag besteht
aus Inhalten für Erwachsene] -
0:06 - 0:09Rana Ayyub ist Journalistin in Indien,
-
0:09 - 0:15die Korruption der Regierung
und Menschenrechtsverletzungen aufdeckte. -
0:15 - 0:16Im Verlauf der Jahre
-
0:16 - 0:20gewöhnte sie sich an die Giftigkeit
und den Streit um ihre Arbeit. -
0:20 - 0:25Aber nichts konnte sie darauf vorbereiten,
womit man sie im April 2018 konfrontierte. -
0:26 - 0:30Sie saß mit einem Freund in einem Café,
als sie es zum ersten Mal sah: -
0:30 - 0:35ein zwei Minuten und 20 Sekunden
langes Video mit ihr beim Sex. -
0:35 - 0:38Sie konnte ihren Augen nicht trauen.
-
0:38 - 0:40Sie hatte niemals ein Sex-Video gemacht.
-
0:41 - 0:45Aber leider würden Tausende
und Abertausende glauben, sie wäre es. -
0:47 - 0:50Vor etwa drei Monaten
interviewte ich Frau Ayyub, -
0:50 - 0:52wegen meines Buches
über sexuelle Privatsphäre. -
0:53 - 0:56Ich bin Jura-Professorin,
Anwältin und Bürgerrechtlerin. -
0:56 - 1:00Es ist unglaublich frustrierend zu wissen,
-
1:00 - 1:03dass das Recht im Moment
sehr wenig tun kann, um ihr zu helfen. -
1:03 - 1:06Als wir miteinander sprachen,
erklärte sie mir, -
1:06 - 1:10dass sie das gefälschte Sex-Video
hätte kommen sehen sollen. -
1:10 - 1:16Sie sagte: "Sex wird so oft benutzt,
um Frauen zu erniedrigen und zu beschämen. -
1:16 - 1:18Besonders Frauen, die
einer Minderheit zugehören -
1:18 - 1:22und solchen, die es wagen,
mächtige Männer herauszufordern." -
1:22 - 1:24So wie sie es durch ihre Arbeit tat.
-
1:25 - 1:29Das gefälschte Sex-Video
verbreitete sich viral in 48 Stunden. -
1:30 - 1:35All ihre Online-Kontos wurden
mit Screen-Shots des Videos geflutet, -
1:35 - 1:38mit Todesdrohungen,
von grausamer Vergewaltigung -
1:38 - 1:41und Herabsetzung
ihres muslimischen Glaubens. -
1:41 - 1:46Online-Kommentare deuteten an,
sie sei für Sex "verfügbar". -
1:46 - 1:48Sie wurde "gedoxed",
-
1:48 - 1:50was bedeutet, dass ihre Privatadresse
und ihre Handynummer -
1:50 - 1:52im Internet verbreitet wurden.
-
1:53 - 1:57Das Video wurde
mehr als 40.000 Mal geteilt. -
1:58 - 2:02Wenn jemand zum Ziel dieser Art
von Cybermobbing-Angriff wird, -
2:02 - 2:04ist der Schaden tiefgreifend.
-
2:04 - 2:08Das Leben von Rana Ayyub
wurde auf den Kopf gestellt. -
2:08 - 2:12Wochenlang konnte sie kaum
essen oder sprechen. -
2:12 - 2:16Sie hörte auf zu schreiben und schloss
alle ihre Konten auf Sozialen Medien, -
2:16 - 2:19was heikel ist, wenn man Journalistin ist.
-
2:19 - 2:23Sie fürchtete sich davor,
das Haus ihrer Familie zu verlassen. -
2:23 - 2:26Was wenn die Postenden
ihre Drohungen wahr machen? -
2:26 - 2:31Der UN-Menschenrechtsrat bestätigte,
dass sie nicht verrückt war. -
2:31 - 2:34Er gab eine öffentliche Stellungnahme
mit der Aussage, -
2:34 - 2:36dass sie um ihre Sicherheit besorgt seien.
-
2:37 - 2:41Rana Ayyub sah sich
mit einem Deepfake konfrontiert: -
2:41 - 2:44Lernfähige Technologie,
-
2:44 - 2:48die Ton- und Videoaufnahmen
manipuliert oder erstellt, -
2:48 - 2:50um Leute zu zeigen,
wie sie etwas tun oder sagen, -
2:50 - 2:52dass sie niemals taten oder sagten.
-
2:53 - 2:56Deepfakes erscheinen glaubwürdig
und lebensecht zu sein, -
2:56 - 2:57das sind sie aber nicht.
-
2:57 - 2:58Sie sind totale Lügen.
-
2:59 - 3:03Obwohl die Technologie
weiter verfeinert wird, -
3:03 - 3:05ist sie weit verbreitet.
-
3:05 - 3:08Deepfakes erregten zuletzt Aufmerksamkeit,
-
3:08 - 3:11wie so viele Dinge online,
-
3:11 - 3:12durch Pornographie.
-
3:12 - 3:17Anfang 2018 postete jemand
ein Tool auf Reddit, -
3:17 - 3:21um Nutzern zu ermöglichen,
Gesichter in Porno-Videos einzufügen. -
3:22 - 3:25Es folgte eine Kaskade
von gefälschten Porno-Videos -
3:25 - 3:28mit den weiblichen Lieblingsprominenten.
-
3:29 - 3:31Heutzutage kann man auf YouTube gehen
-
3:31 - 3:35und auf zahllose Anleitungen
mit schrittweisen Anweisungen zugreifen, -
3:35 - 3:38wie man ein Deepfake
mit der Desktop-Anwendung erstellt. -
3:38 - 3:42Bald werden wir das vielleicht sogar
auf dem Smartphone können. -
3:43 - 3:45Es ist die Wechselwirkung
-
3:45 - 3:50zwischen einigen unserer grundlegendsten
menschlichen Schwächen und Netzwerk-Tools, -
3:50 - 3:52die Deepfakes in Waffen verwandeln können.
-
3:53 - 3:54Um es deutlicher zu machen:
-
3:55 - 3:59Als menschliche Wesen zeigen wir
tiefsitzende Reaktionen auf Ton und Video. -
4:00 - 4:01Wir glauben sie sind wahr.
-
4:01 - 4:04auf dem Gedanken basierend,
dass man glauben kann, -
4:04 - 4:06was die Augen und Ohren wahrnehmen.
-
4:06 - 4:12Dieser Mechanismus untergräbt vielleicht
unseren gemeinsamen Sinn für Realität. -
4:12 - 4:14Obwohl wir glauben, Deepfakes seien wahr,
-
4:14 - 4:15sind sie es nicht.
-
4:15 - 4:20Wir werden vom Obszönen,
dem Provokativen angezogen. -
4:20 - 4:23Wir neigen dazu Informationen
zu glauben und zu teilen, -
4:23 - 4:25die negativ und originell sind.
-
4:26 - 4:28Forscher fanden heraus,
-
4:28 - 4:31dass sich Online-Falschmeldungen
zehnmal schneller verbreiten -
4:31 - 4:33als zutreffende Geschichten.
-
4:34 - 4:40Es zieht uns auch zu Informationen,
die sich mit unseren Ansichten decken. -
4:41 - 4:45Psychologen nennen diese Neigung
"Bestätigungstendenz". -
4:45 - 4:50Social-Media-Plattformen
übersteigern diese Neigung, -
4:50 - 4:51indem sie uns ermöglichen,
-
4:51 - 4:54Informationen im Einklang
mit unseren Ansichten -
4:54 - 4:56sofort und weitläufig zu teilen.
-
4:57 - 4:59Deepfakes haben das Potential,
-
4:59 - 5:02ernsten Schaden persönlicher
und gesellschaftlicher Art anzurichten. -
5:03 - 5:05Stellen Sie sich einen Deepfake vor,
-
5:05 - 5:09der US-Soldaten in Afghanistan zeigt,
wie sie einen Koran verbrennen. -
5:11 - 5:12Man kann sich denken,
-
5:12 - 5:15dass dieser Deepfake zu Gewalt
gegen die Soldaten führen würde. -
5:16 - 5:19Und was, wenn direkt am nächsten Tag
-
5:19 - 5:21ein weiterer Deepfake geschickt wird,
-
5:21 - 5:24der einen bekannten Imam aus London zeigt
-
5:24 - 5:27und den Angriff auf diese Soldaten lobt?
-
5:28 - 5:31Wie erleben vielleicht Gewalt und Unruhen,
-
5:31 - 5:34nicht nur in Afghanistan
und im Vereinigten Königreich, -
5:34 - 5:36sondern überall auf der Welt.
-
5:36 - 5:38Sie sagen vielleicht zu mir:
-
5:38 - 5:40"Kommen Sie, Danielle,
das ist weit hergeholt." -
5:40 - 5:41Aber das ist es nicht.
-
5:41 - 5:44Wir erlebten, wie Lügen,
die sich auf WhatsApp -
5:44 - 5:46und weiteren Online-Nachrichten-
Diensten verbreiteten, -
5:46 - 5:49Gewalt gegen ethnische Minderheiten
zur Folge gehabt haben. -
5:49 - 5:51Und das war nur Text.
-
5:51 - 5:53Stellen Sie sich vor, es wäre ein Video.
-
5:55 - 5:57Deepfakes haben das Potential,
-
5:57 - 6:02das in demokratische Institutionen
gesetzte Vertrauen, zu zersetzen. -
6:03 - 6:06Denken Sie an die Nacht vor einer Wahl.
-
6:06 - 6:10Es gäbe ein Deepfake, das einen Kandidaten
einer Volkspartei schwer krank zeigt. -
6:11 - 6:14Der Deepfake könnte bei der Wahl
den Ausschlag geben -
6:14 - 6:17und unser Gefühl erschüttern,
dass Wahlen rechtmäßig sind. -
6:19 - 6:22Stellen Sie sich vor, in der Nacht
vor einem Börsengang -
6:22 - 6:24einer globalen Großbank,
-
6:24 - 6:27gäbe es einen Deepfake,
der den Bankvorstand zeigt, -
6:27 - 6:30wie er Verschwörungstheorien
betrunken vom Stapel lässt. -
6:31 - 6:34Das Deepfake könnte den Börsengang
in sich zusammenbrechen lassen, -
6:34 - 6:36und schlimmer noch,
-
6:36 - 6:39unser Gefühl erschüttern,
dass die Finanzmärkte stabil sind. -
6:39 - 6:45Deepfakes können das tiefe Misstrauen
ausbeuten und verstärken, -
6:45 - 6:49das wir schon gegenüber Politikern,
Wirtschaftsführern -
6:49 - 6:51und einflussreichen Personen hegen.
-
6:51 - 6:54Sie finden ein instruiertes
gläubiges Publikum. -
6:55 - 6:58Das Streben nach Wahrheit
steht auch auf dem Spiel. -
6:59 - 7:03Technologen erwarten, dass es
mit dem Fortschritt in der KI -
7:03 - 7:06bald schwierig, wenn nicht sogar
unmöglich sein wird, -
7:06 - 7:10zwischen einem echten Video
und einem gefälschten zu unterscheiden. -
7:11 - 7:14Wie kann auf einem Marktplatz der Ideen,
-
7:14 - 7:17der von Deepfakes beherrscht wird,
die Wahrheit heraustreten? -
7:17 - 7:20Gehen wir einfach weiter
den Weg des geringsten Widerstandes -
7:20 - 7:23und glauben, was wir glauben wollen?
-
7:23 - 7:24Die Wahrheit sei verflucht.
-
7:25 - 7:28Nicht nur, dass wir vielleicht
der Fälschung glauben, -
7:28 - 7:31wir beginnen vielleicht
der Wahrheit zu misstrauen. -
7:32 - 7:36Wir erlebten bereits Leute,
die das Phänomen der Deepfakes anführen, -
7:36 - 7:40um Zweifel an echten Beweisen
zu ihrem Fehlverhalten zu sähen. -
7:40 - 7:46Wir hörten Politiker, die über Aufnahmen
ihrer verstörenden Kommentare sagten: -
7:46 - 7:48"Kommen Sie, das sind 'Fake news'.
-
7:48 - 7:52Man kann nicht glauben, was die Augen
und Ohren wahrnehmen." -
7:52 - 7:54Das ist die Gefahr,
-
7:54 - 8:00die Professor Robert Chesney und ich,
die "Dividende des Lügners" nennen: -
8:00 - 8:03Die Gefahr, dass Lügner
Deepfakes anführen, -
8:03 - 8:06um der Rechenschaft
für ihr Fehlverhalten zu entkommen. -
8:07 - 8:10Wir müssen etwas Schwieriges schaffen,
darüber besteht kein Zweifel. -
8:11 - 8:14Wir werden eine vorausschauende Lösung
-
8:14 - 8:17von Technologie-Unternehmen,
vom Gesetzgeber, -
8:17 - 8:20von Gesetzeshütern
und den Medien brauchen. -
8:20 - 8:24Wir benötigen eine gesunde Dosis
gesellschaftlicher Widerstandsfähigkeit. -
8:26 - 8:29Wir sind gerade mit überaus
öffentlichen Gesprächen -
8:29 - 8:32über die Verantwortung
von Technologie-Unternehmen beschäftigt. -
8:33 - 8:36Mein Rat an Social-Media-Plattformen war,
-
8:36 - 8:40ihre Nutzungsbedingungen
und die Gemeinschaftsleitlinien zu ändern, -
8:40 - 8:42um Deepfakes zu sperren,
die Schaden verursachen. -
8:43 - 8:47Diese Feststellung wird
menschliche Beurteilung erfordern -
8:47 - 8:48und ist kostspielig.
-
8:49 - 8:51Aber wir brauchen menschliche Wesen,
-
8:51 - 8:55um den Inhalt und den Kontext
von Deepfakes zu betrachten -
8:55 - 8:59und herauszufinden, ob es
eine schädliche Verkörperung -
8:59 - 9:03oder stattdessen eine wertvolle Satire,
Kunst oder Bildung ist. -
9:04 - 9:06Was ist mit dem Recht?
-
9:07 - 9:09Das Recht ist unser Lehrer.
-
9:10 - 9:14Es lehrt uns, was gefährlich
und falsch ist. -
9:14 - 9:18Es formt Verhalten, es schreckt
Täter ab, indem es bestraft, -
9:18 - 9:20und garantiert Rechtsmittel für die Opfer.
-
9:21 - 9:25Zur Zeit ist das Recht nicht auf der Höhe
der Herausforderung durch Deepfakes. -
9:26 - 9:28Überall auf der Welt
-
9:28 - 9:30mangelt es an maßgeschneidertem Recht,
-
9:30 - 9:34das entworfen wäre,
digitalen Identitätswechsel anzugehen, -
9:34 - 9:36die in sexuelle Privatsphäre eindringt,
-
9:36 - 9:37die gute Namen beschädigt
-
9:37 - 9:39und emotionalen Schmerz verursacht.
-
9:40 - 9:44Was Rana Ayyub passierte,
wird zunehmend zur Alltäglichkeit. -
9:44 - 9:47Doch als sie sich an die Gesetzeshüter
in Delhi wandte, sagte man ihr, -
9:47 - 9:49es könnte nichts unternommen werden.
-
9:49 - 9:51Und die traurige Wahrheit ist:
-
9:51 - 9:55Das Gleiche gilt für Europa
und die Vereinigten Staaten. -
9:55 - 10:00Wir haben einen rechtsfreien Raum,
der gefüllt werden muss. -
10:00 - 10:04Meine Kollegin, Dr. Mary Anne Franks,
und ich erarbeiten gemeinsam -
10:04 - 10:09mit US-Gesetzgebern Gesetzestexte,
die Identitätswechsel verbieten, -
10:09 - 10:12der gleichbedeutend
mit Identitätsdiebstahl ist. -
10:12 - 10:14Wir haben ähnliche Schritte
-
10:14 - 10:18in Island, dem Vereinigten Königreich
und Australien erlebt. -
10:18 - 10:22Aber selbstverständlich ist das nur
ein kleiner Teil des Regelungspuzzles. -
10:23 - 10:26Ich weiß, dass Recht
kein Allheilmittel ist, oder? -
10:26 - 10:28Es ist ein stumpfes Instrument.
-
10:28 - 10:30Und wir müssen es weise einsetzen.
-
10:30 - 10:33Es hat auch einige praktische Hemmschuhe.
-
10:34 - 10:37Man kann Recht nicht gegen Leute nutzen,
-
10:37 - 10:39die man nicht identifizieren
und auffinden kann. -
10:39 - 10:44Wenn ein Täter nicht
im Land des Opfers lebt, -
10:44 - 10:46kann man vielleicht nicht darauf bestehen,
-
10:46 - 10:50dass der Täter zum Amtsgericht kommt,
um sich der Gerechtigkeit zu stellen. -
10:50 - 10:54Wir benötigen eine koordinierte
internationale Antwort. -
10:56 - 10:59Schulung muss auch ein Teil
unserer Antwort sein. -
11:00 - 11:04Gesetzeshüter setzen keine Gesetze durch,
-
11:04 - 11:05von denen sie nichts wissen
-
11:05 - 11:08und Probleme ansprechen,
die sie nicht verstehen. -
11:08 - 11:11Bei meiner Forschung
zu Cyberstalking fand ich heraus, -
11:11 - 11:14dass den Gesetzeshütern
die Schulung fehlt, -
11:14 - 11:19um die gültigen Gesetze und das Problem
des Online-Missbrauchs zu verstehen. -
11:19 - 11:22So oft wird den Opfern gesagt:
-
11:22 - 11:26"Schalten Sie einfach den Computer aus.
Ignorieren Sie es. Es geht vorbei." -
11:26 - 11:29Wir erlebten das im Fall von Rana Ayyub.
-
11:29 - 11:33Man sagte ihr: "Komm schon, Du machst
so eine große Sache daraus. -
11:33 - 11:34Jungs sind nun mal Jungs."
-
11:35 - 11:41Wir müssen also neue Gesetzgebung
mit Schulungsmaßnahmen koppeln. -
11:42 - 11:45Und Schulungen müssen auch
auf die Medien gerichtet werden. -
11:46 - 11:50Journalisten brauchen Schulungen
zum Phänomen der Deepfakes, -
11:50 - 11:54damit sie sie nicht verstärken
und sie verbreiten. -
11:55 - 11:57Das ist der Teil,
wo wir alle beteiligt sind. -
11:57 - 12:01Alle von uns brauchen Schulungen.
-
12:01 - 12:05Wir klicken, wir teilen, wir liken
und denken noch nicht mal darüber nach. -
12:06 - 12:07Wir müssen es besser machen.
-
12:08 - 12:11Wir brauchen für Fälschungen
einen viel besseren Radar. -
12:14 - 12:18Während wir uns
durch die Lösungen arbeiten, -
12:18 - 12:20liegt noch viel Leid vor uns.
-
12:21 - 12:24Rana Ayyub kämpft immer noch
mit den negativen Folgen. -
12:25 - 12:29Sie kann sich noch immer nicht ohne Zögern
online und offline ausdrücken. -
12:30 - 12:31Und wie sie mir sagte,
-
12:31 - 12:36fühlt sie immer noch, als starrten
tausende Augen auf ihren nackten Körper, -
12:36 - 12:40obwohl sie verstandesmäßig weiß,
dass es nicht ihr Körper war. -
12:40 - 12:43Sie hat häufige Panikattacken
-
12:43 - 12:46und besonders dann, wenn jemand,
den sie nicht kennt, versucht, -
12:46 - 12:47ein Foto von ihr zu machen.
-
12:47 - 12:51Sie denkt sich: "Was, wenn man
ein anderes Deepfake machen wird?" -
12:51 - 12:55Um Personen wie Rana Ayyub willen
-
12:55 - 12:57und um unserer Demokratie willen,
-
12:57 - 13:00müssen wir jetzt etwas unternehmen.
-
13:00 - 13:01Danke.
-
13:01 - 13:03(Applaus)
- Title:
- Wie Deepfakes die Wahrheit untergraben und die Demokratie bedrohen
- Speaker:
- Danielle Citron
- Description:
-
Der Einsatz von Deepfake-Technologie zur Manipulation von Videos und Tonaufnahmen für böswillige Zwecke -- ob es nun das Schüren von Gewalt oder die Diffamierung von Politikern und Journalisten ist -- wird zu einer echten Bedrohung. Während diese Werkzeuge immer zugänglicher werden und ihre Produkte wirlichkeitsnäher, wie werden sie prägen, was wir über diese Welt denken? In einem unheilverkündenden Vortrag deckt die Juraprofessorin Danielle Citron auf, wie Deepfakes unser Misstrauen verstärken -- und schlägt Ansätze zum Schutz der Wahrheit vor.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Sonja Maria Neef approved German subtitles for How deepfakes undermine truth and threaten democracy | ||
Sonja Maria Neef edited German subtitles for How deepfakes undermine truth and threaten democracy | ||
Sonja Maria Neef edited German subtitles for How deepfakes undermine truth and threaten democracy | ||
Sonja Maria Neef accepted German subtitles for How deepfakes undermine truth and threaten democracy | ||
Sonja Maria Neef edited German subtitles for How deepfakes undermine truth and threaten democracy | ||
Sonja Maria Neef edited German subtitles for How deepfakes undermine truth and threaten democracy | ||
Sonja Maria Neef edited German subtitles for How deepfakes undermine truth and threaten democracy | ||
Johannes Duschner edited German subtitles for How deepfakes undermine truth and threaten democracy |