Return to Video

Wie Deepfakes die Wahrheit untergraben und die Demokratie bedrohen

  • 0:01 - 0:03
    [Dieser Vortrag besteht
    aus Inhalten für Erwachsene]
  • 0:06 - 0:09
    Rana Ayyub ist Journalistin in Indien,
  • 0:09 - 0:15
    die Korruption der Regierung
    und Menschenrechtsverletzungen aufdeckte.
  • 0:15 - 0:16
    Im Verlauf der Jahre
  • 0:16 - 0:20
    gewöhnte sie sich an die Giftigkeit
    und den Streit um ihre Arbeit.
  • 0:20 - 0:25
    Aber nichts konnte sie darauf vorbereiten,
    womit man sie im April 2018 konfrontierte.
  • 0:26 - 0:30
    Sie saß mit einem Freund in einem Café,
    als sie es zum ersten Mal sah:
  • 0:30 - 0:35
    ein zwei Minuten und 20 Sekunden
    langes Video mit ihr beim Sex.
  • 0:35 - 0:38
    Sie konnte ihren Augen nicht trauen.
  • 0:38 - 0:40
    Sie hatte niemals ein Sex-Video gemacht.
  • 0:41 - 0:45
    Aber leider würden Tausende
    und Abertausende glauben, sie wäre es.
  • 0:47 - 0:50
    Vor etwa drei Monaten
    interviewte ich Frau Ayyub,
  • 0:50 - 0:52
    wegen meines Buches
    über sexuelle Privatsphäre.
  • 0:53 - 0:56
    Ich bin Jura-Professorin,
    Anwältin und Bürgerrechtlerin.
  • 0:56 - 1:00
    Es ist unglaublich frustrierend zu wissen,
  • 1:00 - 1:03
    dass das Recht im Moment
    sehr wenig tun kann, um ihr zu helfen.
  • 1:03 - 1:06
    Als wir miteinander sprachen,
    erklärte sie mir,
  • 1:06 - 1:10
    dass sie das gefälschte Sex-Video
    hätte kommen sehen sollen.
  • 1:10 - 1:16
    Sie sagte: "Sex wird so oft benutzt,
    um Frauen zu erniedrigen und zu beschämen.
  • 1:16 - 1:18
    Besonders Frauen, die
    einer Minderheit zugehören
  • 1:18 - 1:22
    und solchen, die es wagen,
    mächtige Männer herauszufordern."
  • 1:22 - 1:24
    So wie sie es durch ihre Arbeit tat.
  • 1:25 - 1:29
    Das gefälschte Sex-Video
    verbreitete sich viral in 48 Stunden.
  • 1:30 - 1:35
    All ihre Online-Kontos wurden
    mit Screen-Shots des Videos geflutet,
  • 1:35 - 1:38
    mit Todesdrohungen,
    von grausamer Vergewaltigung
  • 1:38 - 1:41
    und Herabsetzung
    ihres muslimischen Glaubens.
  • 1:41 - 1:46
    Online-Kommentare deuteten an,
    sie sei für Sex "verfügbar".
  • 1:46 - 1:48
    Sie wurde "gedoxed",
  • 1:48 - 1:50
    was bedeutet, dass ihre Privatadresse
    und ihre Handynummer
  • 1:50 - 1:52
    im Internet verbreitet wurden.
  • 1:53 - 1:57
    Das Video wurde
    mehr als 40.000 Mal geteilt.
  • 1:58 - 2:02
    Wenn jemand zum Ziel dieser Art
    von Cybermobbing-Angriff wird,
  • 2:02 - 2:04
    ist der Schaden tiefgreifend.
  • 2:04 - 2:08
    Das Leben von Rana Ayyub
    wurde auf den Kopf gestellt.
  • 2:08 - 2:12
    Wochenlang konnte sie kaum
    essen oder sprechen.
  • 2:12 - 2:16
    Sie hörte auf zu schreiben und schloss
    alle ihre Konten auf Sozialen Medien,
  • 2:16 - 2:19
    was heikel ist, wenn man Journalistin ist.
  • 2:19 - 2:23
    Sie fürchtete sich davor,
    das Haus ihrer Familie zu verlassen.
  • 2:23 - 2:26
    Was wenn die Postenden
    ihre Drohungen wahr machen?
  • 2:26 - 2:31
    Der UN-Menschenrechtsrat bestätigte,
    dass sie nicht verrückt war.
  • 2:31 - 2:34
    Er gab eine öffentliche Stellungnahme
    mit der Aussage,
  • 2:34 - 2:36
    dass sie um ihre Sicherheit besorgt seien.
  • 2:37 - 2:41
    Rana Ayyub sah sich
    mit einem Deepfake konfrontiert:
  • 2:41 - 2:44
    Lernfähige Technologie,
  • 2:44 - 2:48
    die Ton- und Videoaufnahmen
    manipuliert oder erstellt,
  • 2:48 - 2:50
    um Leute zu zeigen,
    wie sie etwas tun oder sagen,
  • 2:50 - 2:52
    dass sie niemals taten oder sagten.
  • 2:53 - 2:56
    Deepfakes erscheinen glaubwürdig
    und lebensecht zu sein,
  • 2:56 - 2:57
    das sind sie aber nicht.
  • 2:57 - 2:58
    Sie sind totale Lügen.
  • 2:59 - 3:03
    Obwohl die Technologie
    weiter verfeinert wird,
  • 3:03 - 3:05
    ist sie weit verbreitet.
  • 3:05 - 3:08
    Deepfakes erregten zuletzt Aufmerksamkeit,
  • 3:08 - 3:11
    wie so viele Dinge online,
  • 3:11 - 3:12
    durch Pornographie.
  • 3:12 - 3:17
    Anfang 2018 postete jemand
    ein Tool auf Reddit,
  • 3:17 - 3:21
    um Nutzern zu ermöglichen,
    Gesichter in Porno-Videos einzufügen.
  • 3:22 - 3:25
    Es folgte eine Kaskade
    von gefälschten Porno-Videos
  • 3:25 - 3:28
    mit den weiblichen Lieblingsprominenten.
  • 3:29 - 3:31
    Heutzutage kann man auf YouTube gehen
  • 3:31 - 3:35
    und auf zahllose Anleitungen
    mit schrittweisen Anweisungen zugreifen,
  • 3:35 - 3:38
    wie man ein Deepfake
    mit der Desktop-Anwendung erstellt.
  • 3:38 - 3:42
    Bald werden wir das vielleicht sogar
    auf dem Smartphone können.
  • 3:43 - 3:45
    Es ist die Wechselwirkung
  • 3:45 - 3:50
    zwischen einigen unserer grundlegendsten
    menschlichen Schwächen und Netzwerk-Tools,
  • 3:50 - 3:52
    die Deepfakes in Waffen verwandeln können.
  • 3:53 - 3:54
    Um es deutlicher zu machen:
  • 3:55 - 3:59
    Als menschliche Wesen zeigen wir
    tiefsitzende Reaktionen auf Ton und Video.
  • 4:00 - 4:01
    Wir glauben sie sind wahr.
  • 4:01 - 4:04
    auf dem Gedanken basierend,
    dass man glauben kann,
  • 4:04 - 4:06
    was die Augen und Ohren wahrnehmen.
  • 4:06 - 4:12
    Dieser Mechanismus untergräbt vielleicht
    unseren gemeinsamen Sinn für Realität.
  • 4:12 - 4:14
    Obwohl wir glauben, Deepfakes seien wahr,
  • 4:14 - 4:15
    sind sie es nicht.
  • 4:15 - 4:20
    Wir werden vom Obszönen,
    dem Provokativen angezogen.
  • 4:20 - 4:23
    Wir neigen dazu Informationen
    zu glauben und zu teilen,
  • 4:23 - 4:25
    die negativ und originell sind.
  • 4:26 - 4:28
    Forscher fanden heraus,
  • 4:28 - 4:31
    dass sich Online-Falschmeldungen
    zehnmal schneller verbreiten
  • 4:31 - 4:33
    als zutreffende Geschichten.
  • 4:34 - 4:40
    Es zieht uns auch zu Informationen,
    die sich mit unseren Ansichten decken.
  • 4:41 - 4:45
    Psychologen nennen diese Neigung
    "Bestätigungstendenz".
  • 4:45 - 4:50
    Social-Media-Plattformen
    übersteigern diese Neigung,
  • 4:50 - 4:51
    indem sie uns ermöglichen,
  • 4:51 - 4:54
    Informationen im Einklang
    mit unseren Ansichten
  • 4:54 - 4:56
    sofort und weitläufig zu teilen.
  • 4:57 - 4:59
    Deepfakes haben das Potential,
  • 4:59 - 5:02
    ernsten Schaden persönlicher
    und gesellschaftlicher Art anzurichten.
  • 5:03 - 5:05
    Stellen Sie sich einen Deepfake vor,
  • 5:05 - 5:09
    der US-Soldaten in Afghanistan zeigt,
    wie sie einen Koran verbrennen.
  • 5:11 - 5:12
    Man kann sich denken,
  • 5:12 - 5:15
    dass dieser Deepfake zu Gewalt
    gegen die Soldaten führen würde.
  • 5:16 - 5:19
    Und was, wenn direkt am nächsten Tag
  • 5:19 - 5:21
    ein weiterer Deepfake geschickt wird,
  • 5:21 - 5:24
    der einen bekannten Imam aus London zeigt
  • 5:24 - 5:27
    und den Angriff auf diese Soldaten lobt?
  • 5:28 - 5:31
    Wie erleben vielleicht Gewalt und Unruhen,
  • 5:31 - 5:34
    nicht nur in Afghanistan
    und im Vereinigten Königreich,
  • 5:34 - 5:36
    sondern überall auf der Welt.
  • 5:36 - 5:38
    Sie sagen vielleicht zu mir:
  • 5:38 - 5:40
    "Kommen Sie, Danielle,
    das ist weit hergeholt."
  • 5:40 - 5:41
    Aber das ist es nicht.
  • 5:41 - 5:44
    Wir erlebten, wie Lügen,
    die sich auf WhatsApp
  • 5:44 - 5:46
    und weiteren Online-Nachrichten-
    Diensten verbreiteten,
  • 5:46 - 5:49
    Gewalt gegen ethnische Minderheiten
    zur Folge gehabt haben.
  • 5:49 - 5:51
    Und das war nur Text.
  • 5:51 - 5:53
    Stellen Sie sich vor, es wäre ein Video.
  • 5:55 - 5:57
    Deepfakes haben das Potential,
  • 5:57 - 6:02
    das in demokratische Institutionen
    gesetzte Vertrauen, zu zersetzen.
  • 6:03 - 6:06
    Denken Sie an die Nacht vor einer Wahl.
  • 6:06 - 6:10
    Es gäbe ein Deepfake, das einen Kandidaten
    einer Volkspartei schwer krank zeigt.
  • 6:11 - 6:14
    Der Deepfake könnte bei der Wahl
    den Ausschlag geben
  • 6:14 - 6:17
    und unser Gefühl erschüttern,
    dass Wahlen rechtmäßig sind.
  • 6:19 - 6:22
    Stellen Sie sich vor, in der Nacht
    vor einem Börsengang
  • 6:22 - 6:24
    einer globalen Großbank,
  • 6:24 - 6:27
    gäbe es einen Deepfake,
    der den Bankvorstand zeigt,
  • 6:27 - 6:30
    wie er Verschwörungstheorien
    betrunken vom Stapel lässt.
  • 6:31 - 6:34
    Das Deepfake könnte den Börsengang
    in sich zusammenbrechen lassen,
  • 6:34 - 6:36
    und schlimmer noch,
  • 6:36 - 6:39
    unser Gefühl erschüttern,
    dass die Finanzmärkte stabil sind.
  • 6:39 - 6:45
    Deepfakes können das tiefe Misstrauen
    ausbeuten und verstärken,
  • 6:45 - 6:49
    das wir schon gegenüber Politikern,
    Wirtschaftsführern
  • 6:49 - 6:51
    und einflussreichen Personen hegen.
  • 6:51 - 6:54
    Sie finden ein instruiertes
    gläubiges Publikum.
  • 6:55 - 6:58
    Das Streben nach Wahrheit
    steht auch auf dem Spiel.
  • 6:59 - 7:03
    Technologen erwarten, dass es
    mit dem Fortschritt in der KI
  • 7:03 - 7:06
    bald schwierig, wenn nicht sogar
    unmöglich sein wird,
  • 7:06 - 7:10
    zwischen einem echten Video
    und einem gefälschten zu unterscheiden.
  • 7:11 - 7:14
    Wie kann auf einem Marktplatz der Ideen,
  • 7:14 - 7:17
    der von Deepfakes beherrscht wird,
    die Wahrheit heraustreten?
  • 7:17 - 7:20
    Gehen wir einfach weiter
    den Weg des geringsten Widerstandes
  • 7:20 - 7:23
    und glauben, was wir glauben wollen?
  • 7:23 - 7:24
    Die Wahrheit sei verflucht.
  • 7:25 - 7:28
    Nicht nur, dass wir vielleicht
    der Fälschung glauben,
  • 7:28 - 7:31
    wir beginnen vielleicht
    der Wahrheit zu misstrauen.
  • 7:32 - 7:36
    Wir erlebten bereits Leute,
    die das Phänomen der Deepfakes anführen,
  • 7:36 - 7:40
    um Zweifel an echten Beweisen
    zu ihrem Fehlverhalten zu sähen.
  • 7:40 - 7:46
    Wir hörten Politiker, die über Aufnahmen
    ihrer verstörenden Kommentare sagten:
  • 7:46 - 7:48
    "Kommen Sie, das sind 'Fake news'.
  • 7:48 - 7:52
    Man kann nicht glauben, was die Augen
    und Ohren wahrnehmen."
  • 7:52 - 7:54
    Das ist die Gefahr,
  • 7:54 - 8:00
    die Professor Robert Chesney und ich,
    die "Dividende des Lügners" nennen:
  • 8:00 - 8:03
    Die Gefahr, dass Lügner
    Deepfakes anführen,
  • 8:03 - 8:06
    um der Rechenschaft
    für ihr Fehlverhalten zu entkommen.
  • 8:07 - 8:10
    Wir müssen etwas Schwieriges schaffen,
    darüber besteht kein Zweifel.
  • 8:11 - 8:14
    Wir werden eine vorausschauende Lösung
  • 8:14 - 8:17
    von Technologie-Unternehmen,
    vom Gesetzgeber,
  • 8:17 - 8:20
    von Gesetzeshütern
    und den Medien brauchen.
  • 8:20 - 8:24
    Wir benötigen eine gesunde Dosis
    gesellschaftlicher Widerstandsfähigkeit.
  • 8:26 - 8:29
    Wir sind gerade mit überaus
    öffentlichen Gesprächen
  • 8:29 - 8:32
    über die Verantwortung
    von Technologie-Unternehmen beschäftigt.
  • 8:33 - 8:36
    Mein Rat an Social-Media-Plattformen war,
  • 8:36 - 8:40
    ihre Nutzungsbedingungen
    und die Gemeinschaftsleitlinien zu ändern,
  • 8:40 - 8:42
    um Deepfakes zu sperren,
    die Schaden verursachen.
  • 8:43 - 8:47
    Diese Feststellung wird
    menschliche Beurteilung erfordern
  • 8:47 - 8:48
    und ist kostspielig.
  • 8:49 - 8:51
    Aber wir brauchen menschliche Wesen,
  • 8:51 - 8:55
    um den Inhalt und den Kontext
    von Deepfakes zu betrachten
  • 8:55 - 8:59
    und herauszufinden, ob es
    eine schädliche Verkörperung
  • 8:59 - 9:03
    oder stattdessen eine wertvolle Satire,
    Kunst oder Bildung ist.
  • 9:04 - 9:06
    Was ist mit dem Recht?
  • 9:07 - 9:09
    Das Recht ist unser Lehrer.
  • 9:10 - 9:14
    Es lehrt uns, was gefährlich
    und falsch ist.
  • 9:14 - 9:18
    Es formt Verhalten, es schreckt
    Täter ab, indem es bestraft,
  • 9:18 - 9:20
    und garantiert Rechtsmittel für die Opfer.
  • 9:21 - 9:25
    Zur Zeit ist das Recht nicht auf der Höhe
    der Herausforderung durch Deepfakes.
  • 9:26 - 9:28
    Überall auf der Welt
  • 9:28 - 9:30
    mangelt es an maßgeschneidertem Recht,
  • 9:30 - 9:34
    das entworfen wäre,
    digitalen Identitätswechsel anzugehen,
  • 9:34 - 9:36
    die in sexuelle Privatsphäre eindringt,
  • 9:36 - 9:37
    die gute Namen beschädigt
  • 9:37 - 9:39
    und emotionalen Schmerz verursacht.
  • 9:40 - 9:44
    Was Rana Ayyub passierte,
    wird zunehmend zur Alltäglichkeit.
  • 9:44 - 9:47
    Doch als sie sich an die Gesetzeshüter
    in Delhi wandte, sagte man ihr,
  • 9:47 - 9:49
    es könnte nichts unternommen werden.
  • 9:49 - 9:51
    Und die traurige Wahrheit ist:
  • 9:51 - 9:55
    Das Gleiche gilt für Europa
    und die Vereinigten Staaten.
  • 9:55 - 10:00
    Wir haben einen rechtsfreien Raum,
    der gefüllt werden muss.
  • 10:00 - 10:04
    Meine Kollegin, Dr. Mary Anne Franks,
    und ich erarbeiten gemeinsam
  • 10:04 - 10:09
    mit US-Gesetzgebern Gesetzestexte,
    die Identitätswechsel verbieten,
  • 10:09 - 10:12
    der gleichbedeutend
    mit Identitätsdiebstahl ist.
  • 10:12 - 10:14
    Wir haben ähnliche Schritte
  • 10:14 - 10:18
    in Island, dem Vereinigten Königreich
    und Australien erlebt.
  • 10:18 - 10:22
    Aber selbstverständlich ist das nur
    ein kleiner Teil des Regelungspuzzles.
  • 10:23 - 10:26
    Ich weiß, dass Recht
    kein Allheilmittel ist, oder?
  • 10:26 - 10:28
    Es ist ein stumpfes Instrument.
  • 10:28 - 10:30
    Und wir müssen es weise einsetzen.
  • 10:30 - 10:33
    Es hat auch einige praktische Hemmschuhe.
  • 10:34 - 10:37
    Man kann Recht nicht gegen Leute nutzen,
  • 10:37 - 10:39
    die man nicht identifizieren
    und auffinden kann.
  • 10:39 - 10:44
    Wenn ein Täter nicht
    im Land des Opfers lebt,
  • 10:44 - 10:46
    kann man vielleicht nicht darauf bestehen,
  • 10:46 - 10:50
    dass der Täter zum Amtsgericht kommt,
    um sich der Gerechtigkeit zu stellen.
  • 10:50 - 10:54
    Wir benötigen eine koordinierte
    internationale Antwort.
  • 10:56 - 10:59
    Schulung muss auch ein Teil
    unserer Antwort sein.
  • 11:00 - 11:04
    Gesetzeshüter setzen keine Gesetze durch,
  • 11:04 - 11:05
    von denen sie nichts wissen
  • 11:05 - 11:08
    und Probleme ansprechen,
    die sie nicht verstehen.
  • 11:08 - 11:11
    Bei meiner Forschung
    zu Cyberstalking fand ich heraus,
  • 11:11 - 11:14
    dass den Gesetzeshütern
    die Schulung fehlt,
  • 11:14 - 11:19
    um die gültigen Gesetze und das Problem
    des Online-Missbrauchs zu verstehen.
  • 11:19 - 11:22
    So oft wird den Opfern gesagt:
  • 11:22 - 11:26
    "Schalten Sie einfach den Computer aus.
    Ignorieren Sie es. Es geht vorbei."
  • 11:26 - 11:29
    Wir erlebten das im Fall von Rana Ayyub.
  • 11:29 - 11:33
    Man sagte ihr: "Komm schon, Du machst
    so eine große Sache daraus.
  • 11:33 - 11:34
    Jungs sind nun mal Jungs."
  • 11:35 - 11:41
    Wir müssen also neue Gesetzgebung
    mit Schulungsmaßnahmen koppeln.
  • 11:42 - 11:45
    Und Schulungen müssen auch
    auf die Medien gerichtet werden.
  • 11:46 - 11:50
    Journalisten brauchen Schulungen
    zum Phänomen der Deepfakes,
  • 11:50 - 11:54
    damit sie sie nicht verstärken
    und sie verbreiten.
  • 11:55 - 11:57
    Das ist der Teil,
    wo wir alle beteiligt sind.
  • 11:57 - 12:01
    Alle von uns brauchen Schulungen.
  • 12:01 - 12:05
    Wir klicken, wir teilen, wir liken
    und denken noch nicht mal darüber nach.
  • 12:06 - 12:07
    Wir müssen es besser machen.
  • 12:08 - 12:11
    Wir brauchen für Fälschungen
    einen viel besseren Radar.
  • 12:14 - 12:18
    Während wir uns
    durch die Lösungen arbeiten,
  • 12:18 - 12:20
    liegt noch viel Leid vor uns.
  • 12:21 - 12:24
    Rana Ayyub kämpft immer noch
    mit den negativen Folgen.
  • 12:25 - 12:29
    Sie kann sich noch immer nicht ohne Zögern
    online und offline ausdrücken.
  • 12:30 - 12:31
    Und wie sie mir sagte,
  • 12:31 - 12:36
    fühlt sie immer noch, als starrten
    tausende Augen auf ihren nackten Körper,
  • 12:36 - 12:40
    obwohl sie verstandesmäßig weiß,
    dass es nicht ihr Körper war.
  • 12:40 - 12:43
    Sie hat häufige Panikattacken
  • 12:43 - 12:46
    und besonders dann, wenn jemand,
    den sie nicht kennt, versucht,
  • 12:46 - 12:47
    ein Foto von ihr zu machen.
  • 12:47 - 12:51
    Sie denkt sich: "Was, wenn man
    ein anderes Deepfake machen wird?"
  • 12:51 - 12:55
    Um Personen wie Rana Ayyub willen
  • 12:55 - 12:57
    und um unserer Demokratie willen,
  • 12:57 - 13:00
    müssen wir jetzt etwas unternehmen.
  • 13:00 - 13:01
    Danke.
  • 13:01 - 13:03
    (Applaus)
Title:
Wie Deepfakes die Wahrheit untergraben und die Demokratie bedrohen
Speaker:
Danielle Citron
Description:

Der Einsatz von Deepfake-Technologie zur Manipulation von Videos und Tonaufnahmen für böswillige Zwecke -- ob es nun das Schüren von Gewalt oder die Diffamierung von Politikern und Journalisten ist -- wird zu einer echten Bedrohung. Während diese Werkzeuge immer zugänglicher werden und ihre Produkte wirlichkeitsnäher, wie werden sie prägen, was wir über diese Welt denken? In einem unheilverkündenden Vortrag deckt die Juraprofessorin Danielle Citron auf, wie Deepfakes unser Misstrauen verstärken -- und schlägt Ansätze zum Schutz der Wahrheit vor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

German subtitles

Revisions