Return to Video

Wie wir die Wahrheit im Zeitalter der Fehlinformation schützen können

  • 0:01 - 0:07
    [Sinan Aral] Am 23. April 2013,
  • 0:07 - 0:12
    veröffentlichte die "Associated Press"
    den folgenden Tweet auf Twitter:
  • 0:12 - 0:19
    "Eilmeldung: 2 Explosionen im Weißen Haus,
    Barack Obama wurde verletzt."
  • 0:20 - 0:26
    Dieser Tweet wurde in weniger als
    5 Minuten 4.000 Mal retweetet
  • 0:26 - 0:28
    und verbreitete sich anschließend viral.
  • 0:29 - 0:33
    Dieser Tweet war keine echte Neuigkeit,
    von der Associated Press herausgegeben,
  • 0:33 - 0:39
    sondern eine Falschnachricht, Fake News,
    von syrischen Hackern verbreitet,
  • 0:39 - 0:44
    die den Twitter-Account
    der Associated Press übernommen hatten.
  • 0:44 - 0:48
    Ihr Ziel war, die Gesellschaft zu stören,
    aber sie störten viel mehr.
  • 0:48 - 0:51
    Weil automatisierte Handelsalgorithmen
  • 0:51 - 0:54
    sofort die Stimmungslage
    dieses Tweets erfassten,
  • 0:54 - 0:57
    und Börsengeschäfte ausführten,
    die auf der Annahme beruhten,
  • 0:57 - 1:03
    dass der Präsident der USA in der
    Explosion verletzt oder getötet wurde.
  • 1:02 - 1:06
    Als sie anfingen zu tweeten,
    stürzte sofort die Börse ein,
  • 1:06 - 1:13
    und 140 Milliarden Dollar Aktienkapital
    wurden an einem einzigen Tag ausgelöscht.
  • 1:13 - 1:18
    Robert Mueller, US Sonderstaatsanwalt,
  • 1:18 - 1:23
    erhob Anklage gegen drei russische
    Firmen und 13 russische Personen,
  • 1:23 - 1:27
    wegen einem Zusammenschluss
    zum Betrug der Vereinigten Staaten,
  • 1:27 - 1:31
    durch Einmischung
    in die Präsidentschaftswahl 2016.
  • 1:32 - 1:35
    Was uns diese Anklage erzählt,
  • 1:35 - 1:39
    ist die Geschichte
    der Internet Research Agency,
  • 1:39 - 1:43
    eine undurchsichtige Abteilung des Kremls,
    die auf sozialen Netzwerken tätig ist.
  • 1:43 - 1:47
    Allein bei der Präsidentschaftswahl,
    erreichte die Internet Research Agency
  • 1:48 - 1:53
    in den Vereinigten Staaten
    auf Facebook 126 Milionen Menschen,
  • 1:53 - 2:00
    veröffentlichte 3 Millionen Einzel-Tweets
    und 43 Stunden YouTube-Inhalte.
  • 2:00 - 2:02
    Alles war gefälscht --
  • 2:02 - 2:08
    Falschinformationen, deren Ziel es war,
    Uneinigkeit in die Wahl zu bringen.
  • 2:09 - 2:12
    Laut einer aktuellen Studie
    der Universität Oxford,
  • 2:12 - 2:18
    war bei den letzten Wahlen in Schweden,
    ein Drittel aller Informationen zur Wahl,
  • 2:18 - 2:23
    die auf Social Media verteilt wurden,
    falsch oder Fehlinformationen.
  • 2:23 - 2:28
    Solche Fehlinformationskampagnen
    auf sozialen Kanälen,
  • 2:28 - 2:32
    können zur Verbreitung sogenannter
    "Völkermord-Propaganda" beitragen,
  • 2:32 - 2:38
    wie die gegen die Rohingya in Birma,
    welche Mob-Morde in Indien auslöste.
  • 2:38 - 2:43
    Wir erforschten Fake-News,
    lange bevor es ein bekannter Begriff war.
  • 2:43 - 2:46
    In der diesjährigen März-Ausgabe
    des "Science" Magazins,
  • 2:46 - 2:49
    veröffentlichten wir
    die größte Lanzeitstudie
  • 2:49 - 2:52
    zur Verbreitung
    von Fehlinformationen online.
  • 2:52 - 2:59
    Wir untersuchten alle überprüften,
    wahren und falschen Nachrichten,
  • 2:59 - 3:05
    die seit der Gründung 2006 bis 2017
    auf Twitter verbreitet wurden.
  • 3:05 - 3:09
    Als wir diese Daten erforschten,
    untersuchten wir überprüfte Nachrichten,
  • 3:09 - 3:14
    die von 6 unhabhängigen Organisationen
    im Faktencheck verifiziert wurden.
  • 3:14 - 3:19
    Wir wussten also, welche Geschichten
    wahr waren und welche falsch.
  • 3:19 - 3:24
    Wir können ihre Ausbreitung messen,
    ihre Geschwindigkeit, Tiefe und Breite.
  • 3:24 - 3:29
    Wieviele Leute sich in dieser Kaskade
    von Informationen verwickeln usw.
  • 3:29 - 3:31
    Wir vergleichten in dieser Studie
  • 3:31 - 3:34
    die Ausbreitung der wahren Nachrichten
    mit der Ausbreitung der falschen.
  • 3:34 - 3:36
    Hier ist unser Ergebnis:
  • 3:36 - 3:40
    Wir fanden heraus, dass falsche News sich
    weiter, schneller, tiefer und breiter
  • 3:40 - 3:42
    verbreiten als die Wahrheit,
  • 3:42 - 3:45
    in allen Kategorien, die wir untersuchten,
  • 3:45 - 3:47
    manchmal mit großen Unterschieden.
  • 3:48 - 3:51
    Falsche politische Nachrichten
    waren besonders viral.
  • 3:51 - 3:55
    Sie verbreiteten sich weiter,
    schneller, tiefer und breiter
  • 3:55 - 3:57
    als alle Arten von Falschnachrichten.
  • 3:57 - 4:02
    Als wir das sahen, waren wir sofort
    beunruhigt, aber auch neugierig.
  • 4:02 - 4:03
    Warum?
  • 4:03 - 4:06
    Warum verbreiten sich
    falsche Nachrichten weiter, schneller,
  • 4:06 - 4:08
    tiefer und breiter als die Wahrheit?
  • 4:08 - 4:11
    Unsere erste Hypothese war:
  • 4:11 - 4:15
    Vielleicht haben Leute, die falsche
    Nachrichten verbreiten, mehr Anhänger,
  • 4:15 - 4:17
    folgen mehr Leuten, tweeten öfter,
  • 4:17 - 4:22
    vielleicht sind sie öfter "verifizierte"
    Twitter-Nutzer, mit mehr Glaubwürdigkeit,
  • 4:22 - 4:24
    oder vielleicht waren sie bereits
    länger auf Twitter?
  • 4:24 - 4:27
    Also überprüften wir jede dieser Theorien.
  • 4:27 - 4:30
    Was wir herausfanden, war das Gegenteil:
  • 4:30 - 4:32
    Fake-News-Verbreiter hatten
    weniger Abonnenten,
  • 4:32 - 4:34
    folgten weniger Leuten,
    waren weniger aktiv,
  • 4:34 - 4:39
    seltener "verifiziert" und alle waren
    seit kürzerer Zeit auf Twitter.
  • 4:39 - 4:44
    Und dennoch war es 70% wahrscheinlicher,
    dass Falschmeldungen retweetet werden,
  • 4:44 - 4:48
    als die Wahrheit, trotz dieser
    und vieler weiterer Faktoren.
  • 4:48 - 4:51
    Also mussten wir andere
    Erklärungen finden.
  • 4:51 - 4:55
    Wir haben uns etwas überlegt,
    das wir "Neuheit-Hypothese" nennen.
  • 4:55 - 4:57
    In der Forschung ist bekannt,
  • 4:57 - 5:01
    dass die menschliche Aufmerksamkeit
    von Neuem angezogen wird,
  • 5:01 - 5:03
    von Dingen, die in der Umwelt neu sind.
  • 5:03 - 5:06
    Wenn Sie Soziologieforschung lesen,
  • 5:06 - 5:10
    wissen Sie, dass wir diese neuen
    Informationen gerne teilen.
  • 5:10 - 5:14
    Wir sehen so aus, als hätten wir
    Zugang zu Insider-Informationen
  • 5:14 - 5:17
    und unser Status wächst,
    weil wir solche Informationen teilen.
  • 5:18 - 5:20
    Wir haben dann gemessen,
  • 5:20 - 5:24
    welchen Neuheitswert ein neuer,
    wahrer oder falscher Tweet hatte,
  • 5:24 - 5:28
    auf der Basis von anderen Inhalten,
  • 5:28 - 5:31
    die der User, 60 Tage vorher
    auf Twitter gesehen hatte.
  • 5:31 - 5:34
    Aber das war nicht genug,
    weil wir uns dachten:
  • 5:34 - 5:38
    Vielleicht sind falsche Nachrichten
    neuer im informationstheoretischen Sinne,
  • 5:38 - 5:41
    aber vielleicht empfinden es
    die Leute nicht als neuer.
  • 5:42 - 5:46
    Um die Wahrnehmung der Leute
    von Falschnachrichten zu verstehen,
  • 5:46 - 5:49
    sahen wir uns die Informationen
    und die Stimmungen an,
  • 5:50 - 5:54
    die in den Antworten auf wahre
    und falsche Tweets vorherrschten.
  • 5:54 - 5:59
    Unter verschiedenen Stimmungskategorien --
  • 5:59 - 6:02
    Überraschung, Abscheu, Angst, Trauer,
  • 6:02 - 6:05
    Vorfreude, Freude und Vertrauen --
  • 6:05 - 6:11
    fanden wir bei Falschnachrichten
    deutlich häufiger Überraschung und Abscheu
  • 6:11 - 6:14
    in den Kommentaren zu falschen Tweets .
  • 6:14 - 6:18
    Wahre Nachrichten zeigen deutlich mehr
  • 6:18 - 6:20
    Vorfreude, Freude und Vertrauen
  • 6:20 - 6:22
    in den Antworten zu wahren Tweets.
  • 6:22 - 6:26
    Die 'Überraschung' bestätigt
    unsere Neuheit-Hypothese.
  • 6:26 - 6:31
    Das ist neu und überraschend,
    also teilen wir es eher.
  • 6:31 - 6:34
    Zur gleichen Zeit gab es
    Anhörungen im US Kongress,
  • 6:34 - 6:38
    vor beiden Häusern des Kongress,
    welche sich mit der Rolle von Bots
  • 6:38 - 6:41
    bei der Verbreitung von
    Falschinformationen beschäftigt haben.
  • 6:41 - 6:43
    Also haben wir uns auch das angeschaut:
  • 6:43 - 6:46
    Wir haben mehrere ausgefeilte
    Bot-Erkennungsalgorithmen verwendet,
  • 6:46 - 6:49
    um die Bots in unseren Daten zu finden
    und herauszufiltern.
  • 6:49 - 6:53
    Wir haben sie enfernt und wieder eingefügt
    und haben dann verglichen,
  • 6:53 - 6:55
    was mit unseren Ergebnissen passiert.
  • 6:55 - 7:00
    Wir fanden heraus, dass Bots tatsächlich
    die Verbreitung von Falschnachrichten
  • 7:00 - 7:01
    im Internet beschleunigt haben,
  • 7:01 - 7:06
    die Verbreitung wahrer Nachrichten aber
    ungefähr genauso viel.
  • 7:06 - 7:10
    Was bedeutet, dass Bots
    nicht dafür verantwortlich sind,
  • 7:10 - 7:14
    dass sich Wahres und Falsches
    online verschieden verbreiten.
  • 7:14 - 7:18
    Wir können die Verantwortung
    dafür nicht abgeben,
  • 7:18 - 7:22
    weil wir Menschen für diese
    Verbreitung verantwortlich sind.
  • 7:22 - 7:27
    Alles was ich Ihnen bisher erzählt habe --
    ist für uns alle, leider,
  • 7:27 - 7:29
    die gute Nachricht.
  • 7:31 - 7:35
    Der Grund dafür ist, dass es noch
    viel schlimmer wird.
  • 7:36 - 7:40
    Zwei bestimmte Technologien
    werden es noch schlimmer machen.
  • 7:40 - 7:45
    Wir werden den Anstieg einer enormen Welle
    an synthetischen Medien sehen.
  • 7:45 - 7:51
    Manipulierte Video- und Audiodateien,
    die auf Menschen sehr überzeugend wirken.
  • 7:51 - 7:54
    Und dies wird von zwei
    Technologien vorangetrieben.
  • 7:54 - 7:58
    Die erste davon ist bekannt als
    'Generative Adversarial Networks'.
  • 7:58 - 8:02
    Das ist ein Modell für machinelles Lernen
    mit zwei Netzwerken:
  • 8:02 - 8:03
    einem Diskriminator,
  • 8:03 - 8:06
    dessen Aufgabe es ist, zu bestimmen,
    ob etwas wahr oder falsch ist,
  • 8:06 - 8:08
    und einem Generator,
  • 8:08 - 8:11
    dessen Aufgabe es ist,
    synthetische Medien zu produzieren.
  • 8:11 - 8:16
    Der synthetische Generator produziert
    also synthetische Videos oder Audio,
  • 8:16 - 8:21
    und der Diskriminator versucht
    zu erkennen, ob es echt oder fake ist.
  • 8:21 - 8:25
    Es ist sogar die Aufgabe des Generators,
    die Wahrscheinlichkeit zu erhöhen,
  • 8:26 - 8:29
    dass es den Diskriminator täuscht,
  • 8:29 - 8:33
    sodass er glaubt, dass das produzierte
    synthetische Video oder Audio wahr ist.
  • 8:33 - 8:37
    Stellen Sie sich eine Maschine vor,
    die in einer Endlosschleife versucht,
  • 8:37 - 8:39
    besser und besser darin
    zu werden, uns zu täuschen.
  • 8:39 - 8:42
    Dies, in Verbindung mit
    der zweiten Technologie,
  • 8:42 - 8:47
    die im Wesentlichen die Demokratisierung
    von künstlicher Intelligenz für alle ist.
  • 8:47 - 8:49
    Die Möglichkeit für jeden,
  • 8:49 - 8:53
    ohne Kenntnisse in künstlicher
    Intelligenz oder maschinellem Lernen
  • 8:54 - 8:58
    diese Algorithmen zu verwenden,
    um synthetische Medien zu generieren,
  • 8:58 - 9:02
    macht es so viel einfacher
    Videos zu produzieren.
  • 9:02 - 9:07
    Das Weisse Haus veröffentlichte
    ein falsches, bearbeitetes Video
  • 9:07 - 9:11
    eines Journalisten und einer Praktikantin,
    die ihm das Mikrofon wegnehmen wollte.
  • 9:11 - 9:14
    Sie haben Einzelbilder aus dem Video
    herausgeschnitten,
  • 9:14 - 9:17
    damit sein Verhalten dramatischer wirkt.
  • 9:17 - 9:23
    Als Videofilmer, Stunt-Männer und -Frauen
    zu diese Technik befragt wurden,
  • 9:23 - 9:28
    sagten sie: "Ja, wir benutzen das
    in unseren Filmen ständig,
  • 9:28 - 9:32
    um unsere Schläge und Tritte schneller
    und agressiver aussehen zu lassen."
  • 9:32 - 9:34
    Sie haben dieses Video veröffentlicht
  • 9:34 - 9:38
    und es als Rechtfertigung benutzt,
    um dem Jornalisten Jim Acosta
  • 9:38 - 9:42
    den Presseausweis des Weissen
    Hauses zu entziehen.
  • 9:42 - 9:47
    CNN musste klagen,
    um den Presseausweis zurückzuerhalten.
  • 9:49 - 9:54
    Meiner Meinung nach, gibt es fünf
    verschiedene Wege, die wir gehen können,
  • 9:54 - 9:58
    um zu versuchen, einige dieser
    schwierigen Probleme anzugehen.
  • 9:58 - 10:03
    Sie haben alle Potenzial, aber jeder davon
    hat auch eigene Herausforderungen.
  • 10:03 - 10:07
    Der erste Weg ist Kennzeichnung.
    Stellen Sie sich das so vor:
  • 10:07 - 10:10
    Wenn Sie im Supermarkt
    Lebensmittel kaufen,
  • 10:10 - 10:12
    ist es umfangreich beschriftet.
  • 10:12 - 10:16
    Sie wissen wieviele Kalorien es hat,
    wieviel Fett es enthält,
  • 10:16 - 10:20
    aber wenn wir Informationen aufnehmen,
    haben wir keinerlei Kennzeichnung.
  • 10:20 - 10:22
    Was enthält diese Information?
  • 10:22 - 10:24
    Ist die Quelle glaubwürdig?
  • 10:24 - 10:26
    Woher kommt diese Information?
  • 10:26 - 10:30
    Wir haben keine dieser Antworten,
    wenn wir Informationen konsumieren.
  • 10:30 - 10:33
    Das ist ein möglicher Weg,
    aber er hat auch Herausforderungen.
  • 10:33 - 10:40
    Zum Beispiel, wer in der Gesellschaft
    entscheidet, was wahr oder falsch ist?
  • 10:40 - 10:44
    Sind es die Regierungen? Ist es Facebook?
  • 10:44 - 10:47
    Ist es ein unabhängiger Verbund
    von Faktenprüfern?
  • 10:47 - 10:50
    Und wer überprüft die Faktenprüfer?
  • 10:50 - 10:54
    Ein weiterer möglicher Weg sind Anreize.
  • 10:54 - 10:56
    Wir wissen, dass es während
    der US-Präsidentschaftswahl
  • 10:56 - 11:00
    eine Welle von Falsch-Informationen
    aus Mazedonien gab,
  • 11:00 - 11:05
    welche kein politisches Motiv verfolgten,
    sondern ein wirtschafliches.
  • 11:05 - 11:09
    Dieses wirtschaftliche Motiv existierte,
    weil sich falsche Nachrichten
  • 11:09 - 11:12
    viel weiter, schneller, und tiefer
    verbreiten als die Wahrheit.
  • 11:13 - 11:15
    Und man kann Werbeeinnahmen erzielen,
  • 11:15 - 11:19
    durch die Aufmerksamkeit, die
    diese Art von Information generieren kann.
  • 11:19 - 11:23
    Aber wenn wir die Verteilung
    dieser Informationen unterdrücken könnten,
  • 11:23 - 11:26
    würde es vielleicht
    den wirtschaflichen Anreiz reduzieren,
  • 11:26 - 11:29
    diese überhaupt erst zu produzieren.
  • 11:29 - 11:31
    Drittens können wir über
    Regulierungen nachdenken.
  • 11:31 - 11:34
    Und wir sollten definitiv über
    diese Option nachdenken.
  • 11:34 - 11:37
    In den USA wird aktuell erforscht,
    was passieren könnte,
  • 11:37 - 11:40
    wenn Facebook und andere
    kontrolliert würden.
  • 11:40 - 11:44
    Während wir uns überlegen sollten,
    politische Rede zu regulieren,
  • 11:44 - 11:47
    sie als politische Rede zu kennzeichnen,
    und sicherzustellen,
  • 11:47 - 11:51
    dass ausländische Akteure politische Rede
    nicht finanzieren können,
  • 11:51 - 11:53
    so birgt diese Regulierung auch Gefahren.
  • 11:53 - 11:58
    Zum Beispiel hat Malaysia kürzlich eine
    Gefängnisstrafe von 6 Jahren eingeführt,
  • 11:58 - 12:02
    für jeden, der überführt wird,
    falsche Informationen verbreitet zu haben.
  • 12:02 - 12:05
    In autoritären Regimes können
    solche Vorschriften genutzt werden,
  • 12:05 - 12:08
    um Meinungen von Minderheiten
    zu unterdrücken
  • 12:08 - 12:12
    und Unterdrückung weiter auszuweiten.
  • 12:13 - 12:16
    Die vierte Option ist Transparenz.
  • 12:17 - 12:21
    Wir möchten wissen, wie die Algorithmen
    von Facebook funktionieren.
  • 12:21 - 12:23
    Wie arbeiten Daten
    mit den Algorithmen zusammen,
  • 12:23 - 12:26
    um die Ergebnisse
    zu produzieren, die wir sehen?
  • 12:26 - 12:31
    Wir möchten, dass sie ihren Mantel öffnen,
    und uns das Innenleben von Facebook zeigen
  • 12:31 - 12:33
    und wie es genau funktioniert.
  • 12:33 - 12:37
    Wenn wir wissen wollen, wie sich soziale
    Medien auf die Gesellschaft auswirken,
  • 12:37 - 12:39
    müssen Wissenschaftler,
    Forscher und andere
  • 12:39 - 12:41
    Zugriff auf solche Informationen erhalten.
  • 12:41 - 12:43
    Aber gleichzeitig möchten wir,
  • 12:43 - 12:49
    dass Facebook alles abriegelt,
    um diese Daten zu sichern.
  • 12:49 - 12:52
    Das heißt, Facebook und die anderen
    Social Media Plattformen
  • 12:52 - 12:55
    unterliegen einem, wie ich es nenne,
    "Transparenz-Paradox",
  • 12:55 - 13:02
    Wir bitten sie, offen und transparent
    und gleichzeitig sicher zu sein.
  • 13:03 - 13:07
    Das ist eine sehr knifflige Aufgabe,
    welche aber gelöst werden muss,
  • 13:07 - 13:11
    wenn wir das Potenzial von sozialen
    Technologien ausschöpfen wollen,
  • 13:11 - 13:13
    aber gleichzeitig die Risiken
    abwenden wollen.
  • 13:13 - 13:18
    Das letzte worüber wir nachdenken könnten,
    sind Algorithmen und maschinelles Lernen.
  • 13:18 - 13:21
    Technologien, die Fake News entlarven,
  • 13:21 - 13:26
    die verstehen, wie sie sich verbreiten,
    und dann versuchen, sie einzudämmen.
  • 13:26 - 13:29
    Menschen müssen über diese Technologien
    auf dem Laufenden sein,
  • 13:29 - 13:31
    weil wir der Tatsache nicht entkommen,
  • 13:31 - 13:35
    dass hinter jeder technischen Lösung
    oder Herangehensweise
  • 13:35 - 13:39
    eine fundamentale ethische
    und philosophische Frage steht:
  • 13:39 - 13:42
    Wie definieren wir Wahrheit
    und Unwahrheit?
  • 13:42 - 13:46
    Wem geben wir die Macht,
    Wahrheit und Unwahrheit zu definieren?
  • 13:46 - 13:48
    Welche Meinungen sind gerechtfertigt?
  • 13:48 - 13:52
    Welche Arten von Aussagen sind erlaubt?
  • 13:52 - 13:54
    Technologie ist hierfür keine Lösung.
  • 13:54 - 13:58
    Ethik und Philosophie
    haben Lösungen dafür.
  • 13:59 - 14:02
    Fast alle Theorien menschlicher
    Entscheidungsfindung,
  • 14:02 - 14:06
    menschlicher Zusammenarbeit
    und menschlicher Koordinierung,
  • 14:06 - 14:09
    haben in ihrem Kern eine
    Vorstellung von Wahrheit.
  • 14:09 - 14:11
    Aber mit dem Anstieg von Fake News,
  • 14:11 - 14:13
    dem Anstieg gefälschter Videos
  • 14:13 - 14:15
    und dem Anstieg gefälschter Audiodateien,
  • 14:15 - 14:19
    stehen wir am Abgrund
    vom Ende der Realität,
  • 14:19 - 14:23
    wo wir nicht mehr unterscheiden können,
    was wahr und was falsch ist.
  • 14:23 - 14:26
    Und das kann sehr gefährlich sein.
  • 14:27 - 14:32
    Wir müssen sicherstellen, die Wahrheit
    gegenüber Fehlinformation zu verteidigen.
  • 14:33 - 14:36
    Mit unseren Technologien,
    mit unseren Richtlinien
  • 14:36 - 14:38
    und vielleicht am wichtigsten,
  • 14:38 - 14:42
    mit unserer eigenen, persönlichen,
    Verantwortung, unserem Verhalten,
  • 14:42 - 14:45
    unseren Entscheidungen und Handlungen.
  • 14:46 - 14:47
    Vielen Dank.
  • 14:47 - 14:51
    (Applaus)
Title:
Wie wir die Wahrheit im Zeitalter der Fehlinformation schützen können
Speaker:
Sinan Aral
Description:

Gefälschte Nachrichten können Wahlen beeinflussen, die Wirtschaft schwächen und Zwietracht im Alltag säen.
Der Datenwissenschaftler Sinan Aral entmystifiziert, wie und warum sie sich so schnell verbreitet - und zitiert eine der größten Studien über Fehlinformationen - und identifiziert fünf Strategien, die uns helfen, das Geflecht zwischen wahr und falsch zu entwirren.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

German subtitles

Revisions