[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:01.47,0:00:06.69,Default,,0000,0000,0000,,[Sinan Aral] Am 23. April 2013, Dialogue: 0,0:00:06.71,0:00:12.23,Default,,0000,0000,0000,,veröffentlichte die "Associated Press"\Nden folgenden Tweet auf Twitter: Dialogue: 0,0:00:12.25,0:00:19.25,Default,,0000,0000,0000,,"Eilmeldung: 2 Explosionen im Weißen Haus,\NBarack Obama wurde verletzt." Dialogue: 0,0:00:20.21,0:00:25.64,Default,,0000,0000,0000,,Dieser Tweet wurde in weniger als \N5 Minuten 4.000 Mal retweetet Dialogue: 0,0:00:25.66,0:00:28.38,Default,,0000,0000,0000,,und verbreitete sich anschließend viral. Dialogue: 0,0:00:28.76,0:00:33.11,Default,,0000,0000,0000,,Dieser Tweet war keine echte Neuigkeit, \Nvon der Associated Press herausgegeben, Dialogue: 0,0:00:33.13,0:00:39.33,Default,,0000,0000,0000,,sondern eine Falschnachricht, Fake News, \Nvon syrischen Hackern verbreitet, Dialogue: 0,0:00:39.34,0:00:44.03,Default,,0000,0000,0000,,die den Twitter-Account \Nder Associated Press übernommen hatten. Dialogue: 0,0:00:44.41,0:00:48.30,Default,,0000,0000,0000,,Ihr Ziel war, die Gesellschaft zu stören,\Naber sie störten viel mehr. Dialogue: 0,0:00:48.32,0:00:50.80,Default,,0000,0000,0000,,Weil automatisierte Handelsalgorithmen Dialogue: 0,0:00:50.82,0:00:54.18,Default,,0000,0000,0000,,sofort die Stimmungslage \Ndieses Tweets erfassten, Dialogue: 0,0:00:54.20,0:00:57.17,Default,,0000,0000,0000,,und Börsengeschäfte ausführten,\Ndie auf der Annahme beruhten, Dialogue: 0,0:00:57.20,0:01:02.89,Default,,0000,0000,0000,,dass der Präsident der USA in der \NExplosion verletzt oder getötet wurde. Dialogue: 0,0:01:02.19,0:01:05.82,Default,,0000,0000,0000,,Als sie anfingen zu tweeten,\Nstürzte sofort die Börse ein, Dialogue: 0,0:01:05.86,0:01:12.52,Default,,0000,0000,0000,,und 140 Milliarden Dollar Aktienkapital\Nwurden an einem einzigen Tag ausgelöscht. Dialogue: 0,0:01:13.06,0:01:17.54,Default,,0000,0000,0000,,Robert Mueller, US Sonderstaatsanwalt, Dialogue: 0,0:01:17.55,0:01:23.21,Default,,0000,0000,0000,,erhob Anklage gegen drei russische \NFirmen und 13 russische Personen, Dialogue: 0,0:01:23.26,0:01:26.78,Default,,0000,0000,0000,,wegen einem Zusammenschluss \Nzum Betrug der Vereinigten Staaten, Dialogue: 0,0:01:26.78,0:01:30.87,Default,,0000,0000,0000,,durch Einmischung\Nin die Präsidentschaftswahl 2016. Dialogue: 0,0:01:31.86,0:01:35.42,Default,,0000,0000,0000,,Was uns diese Anklage erzählt, Dialogue: 0,0:01:35.44,0:01:38.58,Default,,0000,0000,0000,,ist die Geschichte\Nder Internet Research Agency, Dialogue: 0,0:01:38.61,0:01:42.75,Default,,0000,0000,0000,,eine undurchsichtige Abteilung des Kremls,\Ndie auf sozialen Netzwerken tätig ist. Dialogue: 0,0:01:42.82,0:01:47.49,Default,,0000,0000,0000,,Allein bei der Präsidentschaftswahl,\Nerreichte die Internet Research Agency Dialogue: 0,0:01:47.53,0:01:52.70,Default,,0000,0000,0000,,in den Vereinigten Staaten\Nauf Facebook 126 Milionen Menschen, Dialogue: 0,0:01:52.72,0:01:59.51,Default,,0000,0000,0000,,veröffentlichte 3 Millionen Einzel-Tweets\Nund 43 Stunden YouTube-Inhalte. Dialogue: 0,0:01:59.89,0:02:01.54,Default,,0000,0000,0000,,Alles war gefälscht -- Dialogue: 0,0:02:01.56,0:02:07.89,Default,,0000,0000,0000,,Falschinformationen, deren Ziel es war,\NUneinigkeit in die Wahl zu bringen. Dialogue: 0,0:02:08.100,0:02:11.65,Default,,0000,0000,0000,,Laut einer aktuellen Studie\Nder Universität Oxford, Dialogue: 0,0:02:11.67,0:02:17.77,Default,,0000,0000,0000,,war bei den letzten Wahlen in Schweden, \Nein Drittel aller Informationen zur Wahl, Dialogue: 0,0:02:17.79,0:02:23.01,Default,,0000,0000,0000,,die auf Social Media verteilt wurden, \Nfalsch oder Fehlinformationen. Dialogue: 0,0:02:23.04,0:02:28.12,Default,,0000,0000,0000,,Solche Fehlinformationskampagnen \Nauf sozialen Kanälen, Dialogue: 0,0:02:28.14,0:02:32.29,Default,,0000,0000,0000,,können zur Verbreitung sogenannter\N"Völkermord-Propaganda" beitragen, Dialogue: 0,0:02:32.31,0:02:37.68,Default,,0000,0000,0000,,wie die gegen die Rohingya in Birma,\Nwelche Mob-Morde in Indien auslöste. Dialogue: 0,0:02:37.78,0:02:42.50,Default,,0000,0000,0000,,Wir erforschten Fake-News,\Nlange bevor es ein bekannter Begriff war. Dialogue: 0,0:02:43.03,0:02:45.79,Default,,0000,0000,0000,,In der diesjährigen März-Ausgabe\Ndes "Science" Magazins, Dialogue: 0,0:02:45.79,0:02:49.02,Default,,0000,0000,0000,,veröffentlichten wir\Ndie größte Lanzeitstudie Dialogue: 0,0:02:49.02,0:02:51.72,Default,,0000,0000,0000,,zur Verbreitung \Nvon Fehlinformationen online. Dialogue: 0,0:02:51.72,0:02:58.68,Default,,0000,0000,0000,,Wir untersuchten alle überprüften, \Nwahren und falschen Nachrichten, Dialogue: 0,0:02:58.71,0:03:04.58,Default,,0000,0000,0000,,die seit der Gründung 2006 bis 2017\Nauf Twitter verbreitet wurden. Dialogue: 0,0:03:04.61,0:03:09.48,Default,,0000,0000,0000,,Als wir diese Daten erforschten,\Nuntersuchten wir überprüfte Nachrichten, Dialogue: 0,0:03:09.48,0:03:13.76,Default,,0000,0000,0000,,die von 6 unhabhängigen Organisationen\Nim Faktencheck verifiziert wurden. Dialogue: 0,0:03:13.79,0:03:18.69,Default,,0000,0000,0000,,Wir wussten also, welche Geschichten\Nwahr waren und welche falsch. Dialogue: 0,0:03:18.73,0:03:24.37,Default,,0000,0000,0000,,Wir können ihre Ausbreitung messen,\Nihre Geschwindigkeit, Tiefe und Breite. Dialogue: 0,0:03:24.45,0:03:28.92,Default,,0000,0000,0000,,Wieviele Leute sich in dieser Kaskade \Nvon Informationen verwickeln usw. Dialogue: 0,0:03:28.94,0:03:30.72,Default,,0000,0000,0000,,Wir vergleichten in dieser Studie Dialogue: 0,0:03:30.73,0:03:34.32,Default,,0000,0000,0000,,die Ausbreitung der wahren Nachrichten\Nmit der Ausbreitung der falschen. Dialogue: 0,0:03:34.34,0:03:36.02,Default,,0000,0000,0000,,Hier ist unser Ergebnis: Dialogue: 0,0:03:36.05,0:03:40.02,Default,,0000,0000,0000,,Wir fanden heraus, dass falsche News sich\Nweiter, schneller, tiefer und breiter Dialogue: 0,0:03:40.05,0:03:41.86,Default,,0000,0000,0000,,verbreiten als die Wahrheit, Dialogue: 0,0:03:41.88,0:03:44.88,Default,,0000,0000,0000,,in allen Kategorien, die wir untersuchten, Dialogue: 0,0:03:44.91,0:03:47.40,Default,,0000,0000,0000,,manchmal mit großen Unterschieden. Dialogue: 0,0:03:47.84,0:03:51.37,Default,,0000,0000,0000,,Falsche politische Nachrichten \Nwaren besonders viral. Dialogue: 0,0:03:51.39,0:03:54.54,Default,,0000,0000,0000,,Sie verbreiteten sich weiter,\Nschneller, tiefer und breiter Dialogue: 0,0:03:54.56,0:03:57.36,Default,,0000,0000,0000,,als alle Arten von Falschnachrichten. Dialogue: 0,0:03:57.39,0:04:01.54,Default,,0000,0000,0000,,Als wir das sahen, waren wir sofort\Nbeunruhigt, aber auch neugierig. Dialogue: 0,0:04:01.57,0:04:02.72,Default,,0000,0000,0000,,Warum? Dialogue: 0,0:04:02.74,0:04:06.12,Default,,0000,0000,0000,,Warum verbreiten sich \Nfalsche Nachrichten weiter, schneller, Dialogue: 0,0:04:06.14,0:04:08.10,Default,,0000,0000,0000,,tiefer und breiter als die Wahrheit? Dialogue: 0,0:04:08.34,0:04:10.59,Default,,0000,0000,0000,,Unsere erste Hypothese war: Dialogue: 0,0:04:10.60,0:04:14.71,Default,,0000,0000,0000,,Vielleicht haben Leute, die falsche \NNachrichten verbreiten, mehr Anhänger, Dialogue: 0,0:04:14.71,0:04:17.07,Default,,0000,0000,0000,,folgen mehr Leuten, tweeten öfter, Dialogue: 0,0:04:17.07,0:04:21.53,Default,,0000,0000,0000,,vielleicht sind sie öfter "verifizierte"\NTwitter-Nutzer, mit mehr Glaubwürdigkeit, Dialogue: 0,0:04:21.54,0:04:24.34,Default,,0000,0000,0000,,oder vielleicht waren sie bereits\Nlänger auf Twitter? Dialogue: 0,0:04:24.36,0:04:26.66,Default,,0000,0000,0000,,Also überprüften wir jede dieser Theorien. Dialogue: 0,0:04:26.69,0:04:29.61,Default,,0000,0000,0000,,Was wir herausfanden, war das Gegenteil: Dialogue: 0,0:04:29.64,0:04:32.07,Default,,0000,0000,0000,,Fake-News-Verbreiter hatten\Nweniger Abonnenten, Dialogue: 0,0:04:32.10,0:04:34.35,Default,,0000,0000,0000,,folgten weniger Leuten, \Nwaren weniger aktiv, Dialogue: 0,0:04:34.37,0:04:38.86,Default,,0000,0000,0000,,seltener "verifiziert" und alle waren\Nseit kürzerer Zeit auf Twitter. Dialogue: 0,0:04:38.86,0:04:44.16,Default,,0000,0000,0000,,Und dennoch war es 70% wahrscheinlicher, \Ndass Falschmeldungen retweetet werden, Dialogue: 0,0:04:44.17,0:04:48.47,Default,,0000,0000,0000,,als die Wahrheit, trotz dieser\Nund vieler weiterer Faktoren. Dialogue: 0,0:04:48.50,0:04:51.19,Default,,0000,0000,0000,,Also mussten wir andere \NErklärungen finden. Dialogue: 0,0:04:51.21,0:04:54.86,Default,,0000,0000,0000,,Wir haben uns etwas überlegt,\Ndas wir "Neuheit-Hypothese" nennen. Dialogue: 0,0:04:55.04,0:04:56.100,Default,,0000,0000,0000,,In der Forschung ist bekannt, Dialogue: 0,0:04:57.02,0:05:00.78,Default,,0000,0000,0000,,dass die menschliche Aufmerksamkeit \Nvon Neuem angezogen wird, Dialogue: 0,0:05:00.80,0:05:03.32,Default,,0000,0000,0000,,von Dingen, die in der Umwelt neu sind. Dialogue: 0,0:05:03.36,0:05:05.85,Default,,0000,0000,0000,,Wenn Sie Soziologieforschung lesen, Dialogue: 0,0:05:05.87,0:05:09.65,Default,,0000,0000,0000,,wissen Sie, dass wir diese neuen\NInformationen gerne teilen. Dialogue: 0,0:05:09.68,0:05:13.51,Default,,0000,0000,0000,,Wir sehen so aus, als hätten wir \NZugang zu Insider-Informationen Dialogue: 0,0:05:13.54,0:05:17.32,Default,,0000,0000,0000,,und unser Status wächst, \Nweil wir solche Informationen teilen. Dialogue: 0,0:05:17.79,0:05:20.30,Default,,0000,0000,0000,,Wir haben dann gemessen, Dialogue: 0,0:05:20.32,0:05:24.24,Default,,0000,0000,0000,,welchen Neuheitswert ein neuer, \Nwahrer oder falscher Tweet hatte, Dialogue: 0,0:05:24.27,0:05:27.67,Default,,0000,0000,0000,,auf der Basis von anderen Inhalten, Dialogue: 0,0:05:27.70,0:05:31.30,Default,,0000,0000,0000,,die der User, 60 Tage vorher\Nauf Twitter gesehen hatte. Dialogue: 0,0:05:31.32,0:05:33.98,Default,,0000,0000,0000,,Aber das war nicht genug,\Nweil wir uns dachten: Dialogue: 0,0:05:34.01,0:05:38.20,Default,,0000,0000,0000,,Vielleicht sind falsche Nachrichten \Nneuer im informationstheoretischen Sinne, Dialogue: 0,0:05:38.24,0:05:41.50,Default,,0000,0000,0000,,aber vielleicht empfinden es \Ndie Leute nicht als neuer. Dialogue: 0,0:05:41.85,0:05:45.78,Default,,0000,0000,0000,,Um die Wahrnehmung der Leute\Nvon Falschnachrichten zu verstehen, Dialogue: 0,0:05:45.80,0:05:49.49,Default,,0000,0000,0000,,sahen wir uns die Informationen\Nund die Stimmungen an, Dialogue: 0,0:05:49.51,0:05:53.72,Default,,0000,0000,0000,,die in den Antworten auf wahre\Nund falsche Tweets vorherrschten. Dialogue: 0,0:05:54.02,0:05:59.13,Default,,0000,0000,0000,,Unter verschiedenen Stimmungskategorien -- Dialogue: 0,0:05:59.13,0:06:02.03,Default,,0000,0000,0000,,Überraschung, Abscheu, Angst, Trauer, Dialogue: 0,0:06:02.03,0:06:05.29,Default,,0000,0000,0000,,Vorfreude, Freude und Vertrauen -- Dialogue: 0,0:06:05.32,0:06:11.18,Default,,0000,0000,0000,,fanden wir bei Falschnachrichten\Ndeutlich häufiger Überraschung und Abscheu Dialogue: 0,0:06:11.20,0:06:14.32,Default,,0000,0000,0000,,in den Kommentaren zu falschen Tweets . Dialogue: 0,0:06:14.35,0:06:17.78,Default,,0000,0000,0000,,Wahre Nachrichten zeigen deutlich mehr Dialogue: 0,0:06:17.78,0:06:19.85,Default,,0000,0000,0000,,Vorfreude, Freude und Vertrauen Dialogue: 0,0:06:19.85,0:06:22.32,Default,,0000,0000,0000,,in den Antworten zu wahren Tweets. Dialogue: 0,0:06:22.35,0:06:26.13,Default,,0000,0000,0000,,Die 'Überraschung' bestätigt\Nunsere Neuheit-Hypothese. Dialogue: 0,0:06:26.16,0:06:30.77,Default,,0000,0000,0000,,Das ist neu und überraschend,\Nalso teilen wir es eher. Dialogue: 0,0:06:31.09,0:06:34.02,Default,,0000,0000,0000,,Zur gleichen Zeit gab es \NAnhörungen im US Kongress, Dialogue: 0,0:06:34.04,0:06:37.62,Default,,0000,0000,0000,,vor beiden Häusern des Kongress,\Nwelche sich mit der Rolle von Bots Dialogue: 0,0:06:37.62,0:06:40.72,Default,,0000,0000,0000,,bei der Verbreitung von \NFalschinformationen beschäftigt haben. Dialogue: 0,0:06:40.75,0:06:42.72,Default,,0000,0000,0000,,Also haben wir uns auch das angeschaut: Dialogue: 0,0:06:42.73,0:06:45.84,Default,,0000,0000,0000,,Wir haben mehrere ausgefeilte\NBot-Erkennungsalgorithmen verwendet, Dialogue: 0,0:06:45.86,0:06:48.94,Default,,0000,0000,0000,,um die Bots in unseren Daten zu finden\Nund herauszufiltern. Dialogue: 0,0:06:49.35,0:06:52.98,Default,,0000,0000,0000,,Wir haben sie enfernt und wieder eingefügt\Nund haben dann verglichen, Dialogue: 0,0:06:52.98,0:06:55.15,Default,,0000,0000,0000,,was mit unseren Ergebnissen passiert. Dialogue: 0,0:06:55.17,0:06:59.58,Default,,0000,0000,0000,,Wir fanden heraus, dass Bots tatsächlich\Ndie Verbreitung von Falschnachrichten Dialogue: 0,0:06:59.60,0:07:01.46,Default,,0000,0000,0000,,im Internet beschleunigt haben, Dialogue: 0,0:07:01.49,0:07:05.95,Default,,0000,0000,0000,,die Verbreitung wahrer Nachrichten aber \Nungefähr genauso viel. Dialogue: 0,0:07:06.04,0:07:09.88,Default,,0000,0000,0000,,Was bedeutet, dass Bots\Nnicht dafür verantwortlich sind, Dialogue: 0,0:07:09.88,0:07:13.90,Default,,0000,0000,0000,,dass sich Wahres und Falsches\Nonline verschieden verbreiten. Dialogue: 0,0:07:13.92,0:07:17.77,Default,,0000,0000,0000,,Wir können die Verantwortung \Ndafür nicht abgeben, Dialogue: 0,0:07:17.77,0:07:21.58,Default,,0000,0000,0000,,weil wir Menschen für diese \NVerbreitung verantwortlich sind. Dialogue: 0,0:07:22.47,0:07:27.40,Default,,0000,0000,0000,,Alles was ich Ihnen bisher erzählt habe --\Nist für uns alle, leider, Dialogue: 0,0:07:27.40,0:07:29.16,Default,,0000,0000,0000,,die gute Nachricht. Dialogue: 0,0:07:30.67,0:07:35.12,Default,,0000,0000,0000,,Der Grund dafür ist, dass es noch\Nviel schlimmer wird. Dialogue: 0,0:07:35.85,0:07:39.83,Default,,0000,0000,0000,,Zwei bestimmte Technologien\Nwerden es noch schlimmer machen. Dialogue: 0,0:07:40.21,0:07:45.38,Default,,0000,0000,0000,,Wir werden den Anstieg einer enormen Welle\Nan synthetischen Medien sehen. Dialogue: 0,0:07:45.40,0:07:51.43,Default,,0000,0000,0000,,Manipulierte Video- und Audiodateien, \Ndie auf Menschen sehr überzeugend wirken. Dialogue: 0,0:07:51.46,0:07:54.21,Default,,0000,0000,0000,,Und dies wird von zwei \NTechnologien vorangetrieben. Dialogue: 0,0:07:54.24,0:07:58.07,Default,,0000,0000,0000,,Die erste davon ist bekannt als\N'Generative Adversarial Networks'. Dialogue: 0,0:07:58.09,0:08:01.64,Default,,0000,0000,0000,,Das ist ein Modell für machinelles Lernen\Nmit zwei Netzwerken: Dialogue: 0,0:08:01.64,0:08:03.19,Default,,0000,0000,0000,,einem Diskriminator, Dialogue: 0,0:08:03.22,0:08:06.45,Default,,0000,0000,0000,,dessen Aufgabe es ist, zu bestimmen,\Nob etwas wahr oder falsch ist, Dialogue: 0,0:08:06.48,0:08:07.64,Default,,0000,0000,0000,,und einem Generator, Dialogue: 0,0:08:07.67,0:08:10.82,Default,,0000,0000,0000,,dessen Aufgabe es ist, \Nsynthetische Medien zu produzieren. Dialogue: 0,0:08:10.84,0:08:16.01,Default,,0000,0000,0000,,Der synthetische Generator produziert\Nalso synthetische Videos oder Audio, Dialogue: 0,0:08:16.01,0:08:20.66,Default,,0000,0000,0000,,und der Diskriminator versucht \Nzu erkennen, ob es echt oder fake ist. Dialogue: 0,0:08:20.66,0:08:25.50,Default,,0000,0000,0000,,Es ist sogar die Aufgabe des Generators,\Ndie Wahrscheinlichkeit zu erhöhen, Dialogue: 0,0:08:25.51,0:08:28.57,Default,,0000,0000,0000,,dass es den Diskriminator täuscht, Dialogue: 0,0:08:28.60,0:08:33.29,Default,,0000,0000,0000,,sodass er glaubt, dass das produzierte\Nsynthetische Video oder Audio wahr ist. Dialogue: 0,0:08:33.29,0:08:36.79,Default,,0000,0000,0000,,Stellen Sie sich eine Maschine vor, \Ndie in einer Endlosschleife versucht, Dialogue: 0,0:08:36.79,0:08:39.18,Default,,0000,0000,0000,,besser und besser darin\Nzu werden, uns zu täuschen. Dialogue: 0,0:08:39.18,0:08:41.61,Default,,0000,0000,0000,,Dies, in Verbindung mit \Nder zweiten Technologie, Dialogue: 0,0:08:41.64,0:08:47.36,Default,,0000,0000,0000,,die im Wesentlichen die Demokratisierung\Nvon künstlicher Intelligenz für alle ist. Dialogue: 0,0:08:47.38,0:08:49.40,Default,,0000,0000,0000,,Die Möglichkeit für jeden, Dialogue: 0,0:08:49.43,0:08:53.48,Default,,0000,0000,0000,,ohne Kenntnisse in künstlicher \NIntelligenz oder maschinellem Lernen Dialogue: 0,0:08:53.50,0:08:57.76,Default,,0000,0000,0000,,diese Algorithmen zu verwenden,\Num synthetische Medien zu generieren, Dialogue: 0,0:08:57.78,0:09:02.33,Default,,0000,0000,0000,,macht es so viel einfacher \NVideos zu produzieren. Dialogue: 0,0:09:02.36,0:09:06.78,Default,,0000,0000,0000,,Das Weisse Haus veröffentlichte\Nein falsches, bearbeitetes Video Dialogue: 0,0:09:06.80,0:09:11.09,Default,,0000,0000,0000,,eines Journalisten und einer Praktikantin,\Ndie ihm das Mikrofon wegnehmen wollte. Dialogue: 0,0:09:11.10,0:09:13.86,Default,,0000,0000,0000,,Sie haben Einzelbilder aus dem Video\Nherausgeschnitten, Dialogue: 0,0:09:13.87,0:09:17.16,Default,,0000,0000,0000,,damit sein Verhalten dramatischer wirkt. Dialogue: 0,0:09:17.16,0:09:22.87,Default,,0000,0000,0000,,Als Videofilmer, Stunt-Männer und -Frauen\Nzu diese Technik befragt wurden, Dialogue: 0,0:09:22.89,0:09:27.51,Default,,0000,0000,0000,,sagten sie: "Ja, wir benutzen das \Nin unseren Filmen ständig, Dialogue: 0,0:09:27.52,0:09:32.20,Default,,0000,0000,0000,,um unsere Schläge und Tritte schneller\Nund agressiver aussehen zu lassen." Dialogue: 0,0:09:32.27,0:09:34.14,Default,,0000,0000,0000,,Sie haben dieses Video veröffentlicht Dialogue: 0,0:09:34.16,0:09:38.04,Default,,0000,0000,0000,,und es als Rechtfertigung benutzt,\Num dem Jornalisten Jim Acosta Dialogue: 0,0:09:38.05,0:09:42.05,Default,,0000,0000,0000,,den Presseausweis des Weissen\NHauses zu entziehen. Dialogue: 0,0:09:42.07,0:09:46.88,Default,,0000,0000,0000,,CNN musste klagen, \Num den Presseausweis zurückzuerhalten. Dialogue: 0,0:09:48.54,0:09:54.14,Default,,0000,0000,0000,,Meiner Meinung nach, gibt es fünf \Nverschiedene Wege, die wir gehen können, Dialogue: 0,0:09:54.16,0:09:57.90,Default,,0000,0000,0000,,um zu versuchen, einige dieser \Nschwierigen Probleme anzugehen. Dialogue: 0,0:09:58.38,0:10:03.21,Default,,0000,0000,0000,,Sie haben alle Potenzial, aber jeder davon\Nhat auch eigene Herausforderungen. Dialogue: 0,0:10:03.24,0:10:06.64,Default,,0000,0000,0000,,Der erste Weg ist Kennzeichnung.\NStellen Sie sich das so vor: Dialogue: 0,0:10:06.65,0:10:10.38,Default,,0000,0000,0000,,Wenn Sie im Supermarkt\NLebensmittel kaufen, Dialogue: 0,0:10:10.38,0:10:12.38,Default,,0000,0000,0000,,ist es umfangreich beschriftet. Dialogue: 0,0:10:12.38,0:10:16.04,Default,,0000,0000,0000,,Sie wissen wieviele Kalorien es hat,\Nwieviel Fett es enthält, Dialogue: 0,0:10:16.05,0:10:20.33,Default,,0000,0000,0000,,aber wenn wir Informationen aufnehmen,\Nhaben wir keinerlei Kennzeichnung. Dialogue: 0,0:10:20.36,0:10:22.28,Default,,0000,0000,0000,,Was enthält diese Information? Dialogue: 0,0:10:22.31,0:10:23.76,Default,,0000,0000,0000,,Ist die Quelle glaubwürdig? Dialogue: 0,0:10:23.78,0:10:26.10,Default,,0000,0000,0000,,Woher kommt diese Information? Dialogue: 0,0:10:26.12,0:10:30.08,Default,,0000,0000,0000,,Wir haben keine dieser Antworten,\Nwenn wir Informationen konsumieren. Dialogue: 0,0:10:30.10,0:10:33.34,Default,,0000,0000,0000,,Das ist ein möglicher Weg,\Naber er hat auch Herausforderungen. Dialogue: 0,0:10:33.36,0:10:39.81,Default,,0000,0000,0000,,Zum Beispiel, wer in der Gesellschaft \Nentscheidet, was wahr oder falsch ist? Dialogue: 0,0:10:40.39,0:10:43.59,Default,,0000,0000,0000,,Sind es die Regierungen? Ist es Facebook? Dialogue: 0,0:10:43.60,0:10:47.36,Default,,0000,0000,0000,,Ist es ein unabhängiger Verbund\Nvon Faktenprüfern? Dialogue: 0,0:10:47.39,0:10:49.85,Default,,0000,0000,0000,,Und wer überprüft die Faktenprüfer? Dialogue: 0,0:10:50.43,0:10:53.51,Default,,0000,0000,0000,,Ein weiterer möglicher Weg sind Anreize. Dialogue: 0,0:10:53.54,0:10:56.17,Default,,0000,0000,0000,,Wir wissen, dass es während\Nder US-Präsidentschaftswahl Dialogue: 0,0:10:56.19,0:10:59.88,Default,,0000,0000,0000,,eine Welle von Falsch-Informationen\Naus Mazedonien gab, Dialogue: 0,0:10:59.91,0:11:04.53,Default,,0000,0000,0000,,welche kein politisches Motiv verfolgten,\Nsondern ein wirtschafliches. Dialogue: 0,0:11:04.75,0:11:08.85,Default,,0000,0000,0000,,Dieses wirtschaftliche Motiv existierte,\Nweil sich falsche Nachrichten Dialogue: 0,0:11:08.86,0:11:12.39,Default,,0000,0000,0000,,viel weiter, schneller, und tiefer\Nverbreiten als die Wahrheit. Dialogue: 0,0:11:12.51,0:11:15.02,Default,,0000,0000,0000,,Und man kann Werbeeinnahmen erzielen, Dialogue: 0,0:11:15.04,0:11:19.45,Default,,0000,0000,0000,,durch die Aufmerksamkeit, die \Ndiese Art von Information generieren kann. Dialogue: 0,0:11:19.47,0:11:23.31,Default,,0000,0000,0000,,Aber wenn wir die Verteilung\Ndieser Informationen unterdrücken könnten, Dialogue: 0,0:11:23.33,0:11:26.23,Default,,0000,0000,0000,,würde es vielleicht\Nden wirtschaflichen Anreiz reduzieren, Dialogue: 0,0:11:26.25,0:11:28.94,Default,,0000,0000,0000,,diese überhaupt erst zu produzieren. Dialogue: 0,0:11:28.94,0:11:31.34,Default,,0000,0000,0000,,Drittens können wir über \NRegulierungen nachdenken. Dialogue: 0,0:11:31.34,0:11:34.04,Default,,0000,0000,0000,,Und wir sollten definitiv über \Ndiese Option nachdenken. Dialogue: 0,0:11:34.05,0:11:37.15,Default,,0000,0000,0000,,In den USA wird aktuell erforscht, \Nwas passieren könnte, Dialogue: 0,0:11:37.15,0:11:40.23,Default,,0000,0000,0000,,wenn Facebook und andere \Nkontrolliert würden. Dialogue: 0,0:11:40.35,0:11:44.15,Default,,0000,0000,0000,,Während wir uns überlegen sollten,\Npolitische Rede zu regulieren, Dialogue: 0,0:11:44.15,0:11:47.06,Default,,0000,0000,0000,,sie als politische Rede zu kennzeichnen,\Nund sicherzustellen, Dialogue: 0,0:11:47.06,0:11:50.52,Default,,0000,0000,0000,,dass ausländische Akteure politische Rede\Nnicht finanzieren können, Dialogue: 0,0:11:50.55,0:11:53.09,Default,,0000,0000,0000,,so birgt diese Regulierung auch Gefahren. Dialogue: 0,0:11:53.19,0:11:57.85,Default,,0000,0000,0000,,Zum Beispiel hat Malaysia kürzlich eine\NGefängnisstrafe von 6 Jahren eingeführt, Dialogue: 0,0:11:57.85,0:12:01.70,Default,,0000,0000,0000,,für jeden, der überführt wird,\Nfalsche Informationen verbreitet zu haben. Dialogue: 0,0:12:01.70,0:12:05.46,Default,,0000,0000,0000,,In autoritären Regimes können \Nsolche Vorschriften genutzt werden, Dialogue: 0,0:12:05.47,0:12:08.46,Default,,0000,0000,0000,,um Meinungen von Minderheiten \Nzu unterdrücken Dialogue: 0,0:12:08.49,0:12:11.100,Default,,0000,0000,0000,,und Unterdrückung weiter auszuweiten. Dialogue: 0,0:12:12.68,0:12:16.22,Default,,0000,0000,0000,,Die vierte Option ist Transparenz. Dialogue: 0,0:12:16.84,0:12:20.56,Default,,0000,0000,0000,,Wir möchten wissen, wie die Algorithmen\Nvon Facebook funktionieren. Dialogue: 0,0:12:20.58,0:12:23.46,Default,,0000,0000,0000,,Wie arbeiten Daten\Nmit den Algorithmen zusammen, Dialogue: 0,0:12:23.48,0:12:26.32,Default,,0000,0000,0000,,um die Ergebnisse\Nzu produzieren, die wir sehen? Dialogue: 0,0:12:26.35,0:12:31.09,Default,,0000,0000,0000,,Wir möchten, dass sie ihren Mantel öffnen,\Nund uns das Innenleben von Facebook zeigen Dialogue: 0,0:12:31.10,0:12:32.93,Default,,0000,0000,0000,,und wie es genau funktioniert. Dialogue: 0,0:12:32.96,0:12:36.68,Default,,0000,0000,0000,,Wenn wir wissen wollen, wie sich soziale\NMedien auf die Gesellschaft auswirken, Dialogue: 0,0:12:36.68,0:12:38.94,Default,,0000,0000,0000,,müssen Wissenschaftler,\NForscher und andere Dialogue: 0,0:12:38.94,0:12:41.04,Default,,0000,0000,0000,,Zugriff auf solche Informationen erhalten. Dialogue: 0,0:12:41.04,0:12:43.16,Default,,0000,0000,0000,,Aber gleichzeitig möchten wir, Dialogue: 0,0:12:43.16,0:12:48.61,Default,,0000,0000,0000,,dass Facebook alles abriegelt, \Num diese Daten zu sichern. Dialogue: 0,0:12:48.63,0:12:51.77,Default,,0000,0000,0000,,Das heißt, Facebook und die anderen\NSocial Media Plattformen Dialogue: 0,0:12:51.77,0:12:55.27,Default,,0000,0000,0000,,unterliegen einem, wie ich es nenne,\N"Transparenz-Paradox", Dialogue: 0,0:12:55.27,0:13:02.25,Default,,0000,0000,0000,,Wir bitten sie, offen und transparent\Nund gleichzeitig sicher zu sein. Dialogue: 0,0:13:02.80,0:13:06.97,Default,,0000,0000,0000,,Das ist eine sehr knifflige Aufgabe,\Nwelche aber gelöst werden muss, Dialogue: 0,0:13:06.97,0:13:10.65,Default,,0000,0000,0000,,wenn wir das Potenzial von sozialen\NTechnologien ausschöpfen wollen, Dialogue: 0,0:13:10.65,0:13:12.86,Default,,0000,0000,0000,,aber gleichzeitig die Risiken\Nabwenden wollen. Dialogue: 0,0:13:12.86,0:13:17.62,Default,,0000,0000,0000,,Das letzte worüber wir nachdenken könnten,\Nsind Algorithmen und maschinelles Lernen. Dialogue: 0,0:13:17.64,0:13:20.75,Default,,0000,0000,0000,,Technologien, die Fake News entlarven, Dialogue: 0,0:13:20.77,0:13:25.76,Default,,0000,0000,0000,,die verstehen, wie sie sich verbreiten, \Nund dann versuchen, sie einzudämmen. Dialogue: 0,0:13:25.82,0:13:28.99,Default,,0000,0000,0000,,Menschen müssen über diese Technologien \Nauf dem Laufenden sein, Dialogue: 0,0:13:29.00,0:13:31.02,Default,,0000,0000,0000,,weil wir der Tatsache nicht entkommen, Dialogue: 0,0:13:31.05,0:13:35.08,Default,,0000,0000,0000,,dass hinter jeder technischen Lösung\Noder Herangehensweise Dialogue: 0,0:13:35.11,0:13:38.78,Default,,0000,0000,0000,,eine fundamentale ethische \Nund philosophische Frage steht: Dialogue: 0,0:13:38.78,0:13:42.45,Default,,0000,0000,0000,,Wie definieren wir Wahrheit\Nund Unwahrheit? Dialogue: 0,0:13:42.47,0:13:45.65,Default,,0000,0000,0000,,Wem geben wir die Macht, \NWahrheit und Unwahrheit zu definieren? Dialogue: 0,0:13:45.68,0:13:48.14,Default,,0000,0000,0000,,Welche Meinungen sind gerechtfertigt? Dialogue: 0,0:13:48.16,0:13:51.87,Default,,0000,0000,0000,,Welche Arten von Aussagen sind erlaubt? Dialogue: 0,0:13:51.89,0:13:54.22,Default,,0000,0000,0000,,Technologie ist hierfür keine Lösung. Dialogue: 0,0:13:54.24,0:13:58.25,Default,,0000,0000,0000,,Ethik und Philosophie\Nhaben Lösungen dafür. Dialogue: 0,0:13:58.95,0:14:02.27,Default,,0000,0000,0000,,Fast alle Theorien menschlicher\NEntscheidungsfindung, Dialogue: 0,0:14:02.29,0:14:05.56,Default,,0000,0000,0000,,menschlicher Zusammenarbeit\Nund menschlicher Koordinierung, Dialogue: 0,0:14:05.60,0:14:09.27,Default,,0000,0000,0000,,haben in ihrem Kern eine \NVorstellung von Wahrheit. Dialogue: 0,0:14:09.35,0:14:11.40,Default,,0000,0000,0000,,Aber mit dem Anstieg von Fake News, Dialogue: 0,0:14:11.43,0:14:12.87,Default,,0000,0000,0000,,dem Anstieg gefälschter Videos Dialogue: 0,0:14:12.89,0:14:14.99,Default,,0000,0000,0000,,und dem Anstieg gefälschter Audiodateien, Dialogue: 0,0:14:14.99,0:14:18.72,Default,,0000,0000,0000,,stehen wir am Abgrund\Nvom Ende der Realität, Dialogue: 0,0:14:18.75,0:14:22.64,Default,,0000,0000,0000,,wo wir nicht mehr unterscheiden können,\Nwas wahr und was falsch ist. Dialogue: 0,0:14:22.66,0:14:25.70,Default,,0000,0000,0000,,Und das kann sehr gefährlich sein. Dialogue: 0,0:14:26.93,0:14:32.25,Default,,0000,0000,0000,,Wir müssen sicherstellen, die Wahrheit\Ngegenüber Fehlinformation zu verteidigen. Dialogue: 0,0:14:32.92,0:14:36.36,Default,,0000,0000,0000,,Mit unseren Technologien,\Nmit unseren Richtlinien Dialogue: 0,0:14:36.38,0:14:38.30,Default,,0000,0000,0000,,und vielleicht am wichtigsten, Dialogue: 0,0:14:38.32,0:14:42.35,Default,,0000,0000,0000,,mit unserer eigenen, persönlichen, \NVerantwortung, unserem Verhalten, Dialogue: 0,0:14:42.36,0:14:45.12,Default,,0000,0000,0000,,unseren Entscheidungen und Handlungen. Dialogue: 0,0:14:45.55,0:14:46.99,Default,,0000,0000,0000,,Vielen Dank. Dialogue: 0,0:14:47.01,0:14:50.53,Default,,0000,0000,0000,,(Applaus)