Wie wir die Wahrheit im Zeitalter der Fehlinformation schützen können
-
0:01 - 0:07[Sinan Aral] Am 23. April 2013,
-
0:07 - 0:12veröffentlichte die "Associated Press"
den folgenden Tweet auf Twitter: -
0:12 - 0:19"Eilmeldung: 2 Explosionen im Weißen Haus,
Barack Obama wurde verletzt." -
0:20 - 0:26Dieser Tweet wurde in weniger als
5 Minuten 4.000 Mal retweetet -
0:26 - 0:28und verbreitete sich anschließend viral.
-
0:29 - 0:33Dieser Tweet war keine echte Neuigkeit,
von der Associated Press herausgegeben, -
0:33 - 0:39sondern eine Falschnachricht, Fake News,
von syrischen Hackern verbreitet, -
0:39 - 0:44die den Twitter-Account
der Associated Press übernommen hatten. -
0:44 - 0:48Ihr Ziel war, die Gesellschaft zu stören,
aber sie störten viel mehr. -
0:48 - 0:51Weil automatisierte Handelsalgorithmen
-
0:51 - 0:54sofort die Stimmungslage
dieses Tweets erfassten, -
0:54 - 0:57und Börsengeschäfte ausführten,
die auf der Annahme beruhten, -
0:57 - 1:03dass der Präsident der USA in der
Explosion verletzt oder getötet wurde. -
1:02 - 1:06Als sie anfingen zu tweeten,
stürzte sofort die Börse ein, -
1:06 - 1:13und 140 Milliarden Dollar Aktienkapital
wurden an einem einzigen Tag ausgelöscht. -
1:13 - 1:18Robert Mueller, US Sonderstaatsanwalt,
-
1:18 - 1:23erhob Anklage gegen drei russische
Firmen und 13 russische Personen, -
1:23 - 1:27wegen einem Zusammenschluss
zum Betrug der Vereinigten Staaten, -
1:27 - 1:31durch Einmischung
in die Präsidentschaftswahl 2016. -
1:32 - 1:35Was uns diese Anklage erzählt,
-
1:35 - 1:39ist die Geschichte
der Internet Research Agency, -
1:39 - 1:43eine undurchsichtige Abteilung des Kremls,
die auf sozialen Netzwerken tätig ist. -
1:43 - 1:47Allein bei der Präsidentschaftswahl,
erreichte die Internet Research Agency -
1:48 - 1:53in den Vereinigten Staaten
auf Facebook 126 Milionen Menschen, -
1:53 - 2:00veröffentlichte 3 Millionen Einzel-Tweets
und 43 Stunden YouTube-Inhalte. -
2:00 - 2:02Alles war gefälscht --
-
2:02 - 2:08Falschinformationen, deren Ziel es war,
Uneinigkeit in die Wahl zu bringen. -
2:09 - 2:12Laut einer aktuellen Studie
der Universität Oxford, -
2:12 - 2:18war bei den letzten Wahlen in Schweden,
ein Drittel aller Informationen zur Wahl, -
2:18 - 2:23die auf Social Media verteilt wurden,
falsch oder Fehlinformationen. -
2:23 - 2:28Solche Fehlinformationskampagnen
auf sozialen Kanälen, -
2:28 - 2:32können zur Verbreitung sogenannter
"Völkermord-Propaganda" beitragen, -
2:32 - 2:38wie die gegen die Rohingya in Birma,
welche Mob-Morde in Indien auslöste. -
2:38 - 2:43Wir erforschten Fake-News,
lange bevor es ein bekannter Begriff war. -
2:43 - 2:46In der diesjährigen März-Ausgabe
des "Science" Magazins, -
2:46 - 2:49veröffentlichten wir
die größte Lanzeitstudie -
2:49 - 2:52zur Verbreitung
von Fehlinformationen online. -
2:52 - 2:59Wir untersuchten alle überprüften,
wahren und falschen Nachrichten, -
2:59 - 3:05die seit der Gründung 2006 bis 2017
auf Twitter verbreitet wurden. -
3:05 - 3:09Als wir diese Daten erforschten,
untersuchten wir überprüfte Nachrichten, -
3:09 - 3:14die von 6 unhabhängigen Organisationen
im Faktencheck verifiziert wurden. -
3:14 - 3:19Wir wussten also, welche Geschichten
wahr waren und welche falsch. -
3:19 - 3:24Wir können ihre Ausbreitung messen,
ihre Geschwindigkeit, Tiefe und Breite. -
3:24 - 3:29Wieviele Leute sich in dieser Kaskade
von Informationen verwickeln usw. -
3:29 - 3:31Wir vergleichten in dieser Studie
-
3:31 - 3:34die Ausbreitung der wahren Nachrichten
mit der Ausbreitung der falschen. -
3:34 - 3:36Hier ist unser Ergebnis:
-
3:36 - 3:40Wir fanden heraus, dass falsche News sich
weiter, schneller, tiefer und breiter -
3:40 - 3:42verbreiten als die Wahrheit,
-
3:42 - 3:45in allen Kategorien, die wir untersuchten,
-
3:45 - 3:47manchmal mit großen Unterschieden.
-
3:48 - 3:51Falsche politische Nachrichten
waren besonders viral. -
3:51 - 3:55Sie verbreiteten sich weiter,
schneller, tiefer und breiter -
3:55 - 3:57als alle Arten von Falschnachrichten.
-
3:57 - 4:02Als wir das sahen, waren wir sofort
beunruhigt, aber auch neugierig. -
4:02 - 4:03Warum?
-
4:03 - 4:06Warum verbreiten sich
falsche Nachrichten weiter, schneller, -
4:06 - 4:08tiefer und breiter als die Wahrheit?
-
4:08 - 4:11Unsere erste Hypothese war:
-
4:11 - 4:15Vielleicht haben Leute, die falsche
Nachrichten verbreiten, mehr Anhänger, -
4:15 - 4:17folgen mehr Leuten, tweeten öfter,
-
4:17 - 4:22vielleicht sind sie öfter "verifizierte"
Twitter-Nutzer, mit mehr Glaubwürdigkeit, -
4:22 - 4:24oder vielleicht waren sie bereits
länger auf Twitter? -
4:24 - 4:27Also überprüften wir jede dieser Theorien.
-
4:27 - 4:30Was wir herausfanden, war das Gegenteil:
-
4:30 - 4:32Fake-News-Verbreiter hatten
weniger Abonnenten, -
4:32 - 4:34folgten weniger Leuten,
waren weniger aktiv, -
4:34 - 4:39seltener "verifiziert" und alle waren
seit kürzerer Zeit auf Twitter. -
4:39 - 4:44Und dennoch war es 70% wahrscheinlicher,
dass Falschmeldungen retweetet werden, -
4:44 - 4:48als die Wahrheit, trotz dieser
und vieler weiterer Faktoren. -
4:48 - 4:51Also mussten wir andere
Erklärungen finden. -
4:51 - 4:55Wir haben uns etwas überlegt,
das wir "Neuheit-Hypothese" nennen. -
4:55 - 4:57In der Forschung ist bekannt,
-
4:57 - 5:01dass die menschliche Aufmerksamkeit
von Neuem angezogen wird, -
5:01 - 5:03von Dingen, die in der Umwelt neu sind.
-
5:03 - 5:06Wenn Sie Soziologieforschung lesen,
-
5:06 - 5:10wissen Sie, dass wir diese neuen
Informationen gerne teilen. -
5:10 - 5:14Wir sehen so aus, als hätten wir
Zugang zu Insider-Informationen -
5:14 - 5:17und unser Status wächst,
weil wir solche Informationen teilen. -
5:18 - 5:20Wir haben dann gemessen,
-
5:20 - 5:24welchen Neuheitswert ein neuer,
wahrer oder falscher Tweet hatte, -
5:24 - 5:28auf der Basis von anderen Inhalten,
-
5:28 - 5:31die der User, 60 Tage vorher
auf Twitter gesehen hatte. -
5:31 - 5:34Aber das war nicht genug,
weil wir uns dachten: -
5:34 - 5:38Vielleicht sind falsche Nachrichten
neuer im informationstheoretischen Sinne, -
5:38 - 5:41aber vielleicht empfinden es
die Leute nicht als neuer. -
5:42 - 5:46Um die Wahrnehmung der Leute
von Falschnachrichten zu verstehen, -
5:46 - 5:49sahen wir uns die Informationen
und die Stimmungen an, -
5:50 - 5:54die in den Antworten auf wahre
und falsche Tweets vorherrschten. -
5:54 - 5:59Unter verschiedenen Stimmungskategorien --
-
5:59 - 6:02Überraschung, Abscheu, Angst, Trauer,
-
6:02 - 6:05Vorfreude, Freude und Vertrauen --
-
6:05 - 6:11fanden wir bei Falschnachrichten
deutlich häufiger Überraschung und Abscheu -
6:11 - 6:14in den Kommentaren zu falschen Tweets .
-
6:14 - 6:18Wahre Nachrichten zeigen deutlich mehr
-
6:18 - 6:20Vorfreude, Freude und Vertrauen
-
6:20 - 6:22in den Antworten zu wahren Tweets.
-
6:22 - 6:26Die 'Überraschung' bestätigt
unsere Neuheit-Hypothese. -
6:26 - 6:31Das ist neu und überraschend,
also teilen wir es eher. -
6:31 - 6:34Zur gleichen Zeit gab es
Anhörungen im US Kongress, -
6:34 - 6:38vor beiden Häusern des Kongress,
welche sich mit der Rolle von Bots -
6:38 - 6:41bei der Verbreitung von
Falschinformationen beschäftigt haben. -
6:41 - 6:43Also haben wir uns auch das angeschaut:
-
6:43 - 6:46Wir haben mehrere ausgefeilte
Bot-Erkennungsalgorithmen verwendet, -
6:46 - 6:49um die Bots in unseren Daten zu finden
und herauszufiltern. -
6:49 - 6:53Wir haben sie enfernt und wieder eingefügt
und haben dann verglichen, -
6:53 - 6:55was mit unseren Ergebnissen passiert.
-
6:55 - 7:00Wir fanden heraus, dass Bots tatsächlich
die Verbreitung von Falschnachrichten -
7:00 - 7:01im Internet beschleunigt haben,
-
7:01 - 7:06die Verbreitung wahrer Nachrichten aber
ungefähr genauso viel. -
7:06 - 7:10Was bedeutet, dass Bots
nicht dafür verantwortlich sind, -
7:10 - 7:14dass sich Wahres und Falsches
online verschieden verbreiten. -
7:14 - 7:18Wir können die Verantwortung
dafür nicht abgeben, -
7:18 - 7:22weil wir Menschen für diese
Verbreitung verantwortlich sind. -
7:22 - 7:27Alles was ich Ihnen bisher erzählt habe --
ist für uns alle, leider, -
7:27 - 7:29die gute Nachricht.
-
7:31 - 7:35Der Grund dafür ist, dass es noch
viel schlimmer wird. -
7:36 - 7:40Zwei bestimmte Technologien
werden es noch schlimmer machen. -
7:40 - 7:45Wir werden den Anstieg einer enormen Welle
an synthetischen Medien sehen. -
7:45 - 7:51Manipulierte Video- und Audiodateien,
die auf Menschen sehr überzeugend wirken. -
7:51 - 7:54Und dies wird von zwei
Technologien vorangetrieben. -
7:54 - 7:58Die erste davon ist bekannt als
'Generative Adversarial Networks'. -
7:58 - 8:02Das ist ein Modell für machinelles Lernen
mit zwei Netzwerken: -
8:02 - 8:03einem Diskriminator,
-
8:03 - 8:06dessen Aufgabe es ist, zu bestimmen,
ob etwas wahr oder falsch ist, -
8:06 - 8:08und einem Generator,
-
8:08 - 8:11dessen Aufgabe es ist,
synthetische Medien zu produzieren. -
8:11 - 8:16Der synthetische Generator produziert
also synthetische Videos oder Audio, -
8:16 - 8:21und der Diskriminator versucht
zu erkennen, ob es echt oder fake ist. -
8:21 - 8:25Es ist sogar die Aufgabe des Generators,
die Wahrscheinlichkeit zu erhöhen, -
8:26 - 8:29dass es den Diskriminator täuscht,
-
8:29 - 8:33sodass er glaubt, dass das produzierte
synthetische Video oder Audio wahr ist. -
8:33 - 8:37Stellen Sie sich eine Maschine vor,
die in einer Endlosschleife versucht, -
8:37 - 8:39besser und besser darin
zu werden, uns zu täuschen. -
8:39 - 8:42Dies, in Verbindung mit
der zweiten Technologie, -
8:42 - 8:47die im Wesentlichen die Demokratisierung
von künstlicher Intelligenz für alle ist. -
8:47 - 8:49Die Möglichkeit für jeden,
-
8:49 - 8:53ohne Kenntnisse in künstlicher
Intelligenz oder maschinellem Lernen -
8:54 - 8:58diese Algorithmen zu verwenden,
um synthetische Medien zu generieren, -
8:58 - 9:02macht es so viel einfacher
Videos zu produzieren. -
9:02 - 9:07Das Weisse Haus veröffentlichte
ein falsches, bearbeitetes Video -
9:07 - 9:11eines Journalisten und einer Praktikantin,
die ihm das Mikrofon wegnehmen wollte. -
9:11 - 9:14Sie haben Einzelbilder aus dem Video
herausgeschnitten, -
9:14 - 9:17damit sein Verhalten dramatischer wirkt.
-
9:17 - 9:23Als Videofilmer, Stunt-Männer und -Frauen
zu diese Technik befragt wurden, -
9:23 - 9:28sagten sie: "Ja, wir benutzen das
in unseren Filmen ständig, -
9:28 - 9:32um unsere Schläge und Tritte schneller
und agressiver aussehen zu lassen." -
9:32 - 9:34Sie haben dieses Video veröffentlicht
-
9:34 - 9:38und es als Rechtfertigung benutzt,
um dem Jornalisten Jim Acosta -
9:38 - 9:42den Presseausweis des Weissen
Hauses zu entziehen. -
9:42 - 9:47CNN musste klagen,
um den Presseausweis zurückzuerhalten. -
9:49 - 9:54Meiner Meinung nach, gibt es fünf
verschiedene Wege, die wir gehen können, -
9:54 - 9:58um zu versuchen, einige dieser
schwierigen Probleme anzugehen. -
9:58 - 10:03Sie haben alle Potenzial, aber jeder davon
hat auch eigene Herausforderungen. -
10:03 - 10:07Der erste Weg ist Kennzeichnung.
Stellen Sie sich das so vor: -
10:07 - 10:10Wenn Sie im Supermarkt
Lebensmittel kaufen, -
10:10 - 10:12ist es umfangreich beschriftet.
-
10:12 - 10:16Sie wissen wieviele Kalorien es hat,
wieviel Fett es enthält, -
10:16 - 10:20aber wenn wir Informationen aufnehmen,
haben wir keinerlei Kennzeichnung. -
10:20 - 10:22Was enthält diese Information?
-
10:22 - 10:24Ist die Quelle glaubwürdig?
-
10:24 - 10:26Woher kommt diese Information?
-
10:26 - 10:30Wir haben keine dieser Antworten,
wenn wir Informationen konsumieren. -
10:30 - 10:33Das ist ein möglicher Weg,
aber er hat auch Herausforderungen. -
10:33 - 10:40Zum Beispiel, wer in der Gesellschaft
entscheidet, was wahr oder falsch ist? -
10:40 - 10:44Sind es die Regierungen? Ist es Facebook?
-
10:44 - 10:47Ist es ein unabhängiger Verbund
von Faktenprüfern? -
10:47 - 10:50Und wer überprüft die Faktenprüfer?
-
10:50 - 10:54Ein weiterer möglicher Weg sind Anreize.
-
10:54 - 10:56Wir wissen, dass es während
der US-Präsidentschaftswahl -
10:56 - 11:00eine Welle von Falsch-Informationen
aus Mazedonien gab, -
11:00 - 11:05welche kein politisches Motiv verfolgten,
sondern ein wirtschafliches. -
11:05 - 11:09Dieses wirtschaftliche Motiv existierte,
weil sich falsche Nachrichten -
11:09 - 11:12viel weiter, schneller, und tiefer
verbreiten als die Wahrheit. -
11:13 - 11:15Und man kann Werbeeinnahmen erzielen,
-
11:15 - 11:19durch die Aufmerksamkeit, die
diese Art von Information generieren kann. -
11:19 - 11:23Aber wenn wir die Verteilung
dieser Informationen unterdrücken könnten, -
11:23 - 11:26würde es vielleicht
den wirtschaflichen Anreiz reduzieren, -
11:26 - 11:29diese überhaupt erst zu produzieren.
-
11:29 - 11:31Drittens können wir über
Regulierungen nachdenken. -
11:31 - 11:34Und wir sollten definitiv über
diese Option nachdenken. -
11:34 - 11:37In den USA wird aktuell erforscht,
was passieren könnte, -
11:37 - 11:40wenn Facebook und andere
kontrolliert würden. -
11:40 - 11:44Während wir uns überlegen sollten,
politische Rede zu regulieren, -
11:44 - 11:47sie als politische Rede zu kennzeichnen,
und sicherzustellen, -
11:47 - 11:51dass ausländische Akteure politische Rede
nicht finanzieren können, -
11:51 - 11:53so birgt diese Regulierung auch Gefahren.
-
11:53 - 11:58Zum Beispiel hat Malaysia kürzlich eine
Gefängnisstrafe von 6 Jahren eingeführt, -
11:58 - 12:02für jeden, der überführt wird,
falsche Informationen verbreitet zu haben. -
12:02 - 12:05In autoritären Regimes können
solche Vorschriften genutzt werden, -
12:05 - 12:08um Meinungen von Minderheiten
zu unterdrücken -
12:08 - 12:12und Unterdrückung weiter auszuweiten.
-
12:13 - 12:16Die vierte Option ist Transparenz.
-
12:17 - 12:21Wir möchten wissen, wie die Algorithmen
von Facebook funktionieren. -
12:21 - 12:23Wie arbeiten Daten
mit den Algorithmen zusammen, -
12:23 - 12:26um die Ergebnisse
zu produzieren, die wir sehen? -
12:26 - 12:31Wir möchten, dass sie ihren Mantel öffnen,
und uns das Innenleben von Facebook zeigen -
12:31 - 12:33und wie es genau funktioniert.
-
12:33 - 12:37Wenn wir wissen wollen, wie sich soziale
Medien auf die Gesellschaft auswirken, -
12:37 - 12:39müssen Wissenschaftler,
Forscher und andere -
12:39 - 12:41Zugriff auf solche Informationen erhalten.
-
12:41 - 12:43Aber gleichzeitig möchten wir,
-
12:43 - 12:49dass Facebook alles abriegelt,
um diese Daten zu sichern. -
12:49 - 12:52Das heißt, Facebook und die anderen
Social Media Plattformen -
12:52 - 12:55unterliegen einem, wie ich es nenne,
"Transparenz-Paradox", -
12:55 - 13:02Wir bitten sie, offen und transparent
und gleichzeitig sicher zu sein. -
13:03 - 13:07Das ist eine sehr knifflige Aufgabe,
welche aber gelöst werden muss, -
13:07 - 13:11wenn wir das Potenzial von sozialen
Technologien ausschöpfen wollen, -
13:11 - 13:13aber gleichzeitig die Risiken
abwenden wollen. -
13:13 - 13:18Das letzte worüber wir nachdenken könnten,
sind Algorithmen und maschinelles Lernen. -
13:18 - 13:21Technologien, die Fake News entlarven,
-
13:21 - 13:26die verstehen, wie sie sich verbreiten,
und dann versuchen, sie einzudämmen. -
13:26 - 13:29Menschen müssen über diese Technologien
auf dem Laufenden sein, -
13:29 - 13:31weil wir der Tatsache nicht entkommen,
-
13:31 - 13:35dass hinter jeder technischen Lösung
oder Herangehensweise -
13:35 - 13:39eine fundamentale ethische
und philosophische Frage steht: -
13:39 - 13:42Wie definieren wir Wahrheit
und Unwahrheit? -
13:42 - 13:46Wem geben wir die Macht,
Wahrheit und Unwahrheit zu definieren? -
13:46 - 13:48Welche Meinungen sind gerechtfertigt?
-
13:48 - 13:52Welche Arten von Aussagen sind erlaubt?
-
13:52 - 13:54Technologie ist hierfür keine Lösung.
-
13:54 - 13:58Ethik und Philosophie
haben Lösungen dafür. -
13:59 - 14:02Fast alle Theorien menschlicher
Entscheidungsfindung, -
14:02 - 14:06menschlicher Zusammenarbeit
und menschlicher Koordinierung, -
14:06 - 14:09haben in ihrem Kern eine
Vorstellung von Wahrheit. -
14:09 - 14:11Aber mit dem Anstieg von Fake News,
-
14:11 - 14:13dem Anstieg gefälschter Videos
-
14:13 - 14:15und dem Anstieg gefälschter Audiodateien,
-
14:15 - 14:19stehen wir am Abgrund
vom Ende der Realität, -
14:19 - 14:23wo wir nicht mehr unterscheiden können,
was wahr und was falsch ist. -
14:23 - 14:26Und das kann sehr gefährlich sein.
-
14:27 - 14:32Wir müssen sicherstellen, die Wahrheit
gegenüber Fehlinformation zu verteidigen. -
14:33 - 14:36Mit unseren Technologien,
mit unseren Richtlinien -
14:36 - 14:38und vielleicht am wichtigsten,
-
14:38 - 14:42mit unserer eigenen, persönlichen,
Verantwortung, unserem Verhalten, -
14:42 - 14:45unseren Entscheidungen und Handlungen.
-
14:46 - 14:47Vielen Dank.
-
14:47 - 14:51(Applaus)
- Title:
- Wie wir die Wahrheit im Zeitalter der Fehlinformation schützen können
- Speaker:
- Sinan Aral
- Description:
-
Gefälschte Nachrichten können Wahlen beeinflussen, die Wirtschaft schwächen und Zwietracht im Alltag säen.
Der Datenwissenschaftler Sinan Aral entmystifiziert, wie und warum sie sich so schnell verbreitet - und zitiert eine der größten Studien über Fehlinformationen - und identifiziert fünf Strategien, die uns helfen, das Geflecht zwischen wahr und falsch zu entwirren. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Sonja Maria Neef approved German subtitles for How we can protect truth in the age of misinformation | ||
Sonja Maria Neef accepted German subtitles for How we can protect truth in the age of misinformation | ||
Sonja Maria Neef edited German subtitles for How we can protect truth in the age of misinformation | ||
Sonja Maria Neef edited German subtitles for How we can protect truth in the age of misinformation | ||
Sonja Maria Neef edited German subtitles for How we can protect truth in the age of misinformation | ||
Sonja Maria Neef edited German subtitles for How we can protect truth in the age of misinformation | ||
Siri Hölperl edited German subtitles for How we can protect truth in the age of misinformation | ||
Siri Hölperl edited German subtitles for How we can protect truth in the age of misinformation |