WEBVTT 00:00:01.468 --> 00:00:06.690 [Sinan Aral] Am 23. April 2013, 00:00:06.714 --> 00:00:12.228 veröffentlichte die "Associated Press" den folgenden Tweet auf Twitter: 00:00:12.252 --> 00:00:19.249 "Eilmeldung: 2 Explosionen im Weißen Haus, Barack Obama wurde verletzt." 00:00:20.212 --> 00:00:25.637 Dieser Tweet wurde in weniger als 5 Minuten 4.000 Mal retweetet 00:00:25.661 --> 00:00:28.382 und verbreitete sich anschließend viral. NOTE Paragraph 00:00:28.760 --> 00:00:33.110 Dieser Tweet war keine echte Neuigkeit, von der Associated Press herausgegeben, 00:00:33.134 --> 00:00:39.327 sondern eine Falschnachricht, Fake News, von syrischen Hackern verbreitet, 00:00:39.340 --> 00:00:44.034 die den Twitter-Account der Associated Press übernommen hatten. 00:00:44.407 --> 00:00:48.296 Ihr Ziel war, die Gesellschaft zu stören, aber sie störten viel mehr. 00:00:48.320 --> 00:00:50.796 Weil automatisierte Handelsalgorithmen 00:00:50.820 --> 00:00:54.180 sofort die Stimmungslage dieses Tweets erfassten, 00:00:54.204 --> 00:00:57.172 und Börsengeschäfte ausführten, die auf der Annahme beruhten, 00:00:57.196 --> 00:01:02.890 dass der Präsident der USA in der Explosion verletzt oder getötet wurde. 00:01:02.188 --> 00:01:05.820 Als sie anfingen zu tweeten, stürzte sofort die Börse ein, 00:01:05.864 --> 00:01:12.520 und 140 Milliarden Dollar Aktienkapital wurden an einem einzigen Tag ausgelöscht. NOTE Paragraph 00:01:13.062 --> 00:01:17.538 Robert Mueller, US Sonderstaatsanwalt, 00:01:17.546 --> 00:01:23.208 erhob Anklage gegen drei russische Firmen und 13 russische Personen, 00:01:23.258 --> 00:01:26.777 wegen einem Zusammenschluss zum Betrug der Vereinigten Staaten, 00:01:26.781 --> 00:01:30.872 durch Einmischung in die Präsidentschaftswahl 2016. 00:01:31.855 --> 00:01:35.419 Was uns diese Anklage erzählt, 00:01:35.443 --> 00:01:38.585 ist die Geschichte der Internet Research Agency, 00:01:38.609 --> 00:01:42.753 eine undurchsichtige Abteilung des Kremls, die auf sozialen Netzwerken tätig ist. 00:01:42.815 --> 00:01:47.493 Allein bei der Präsidentschaftswahl, erreichte die Internet Research Agency 00:01:47.529 --> 00:01:52.696 in den Vereinigten Staaten auf Facebook 126 Milionen Menschen, 00:01:52.720 --> 00:01:59.507 veröffentlichte 3 Millionen Einzel-Tweets und 43 Stunden YouTube-Inhalte. 00:01:59.887 --> 00:02:01.539 Alles war gefälscht -- 00:02:01.563 --> 00:02:07.892 Falschinformationen, deren Ziel es war, Uneinigkeit in die Wahl zu bringen. NOTE Paragraph 00:02:08.996 --> 00:02:11.646 Laut einer aktuellen Studie der Universität Oxford, 00:02:11.670 --> 00:02:17.770 war bei den letzten Wahlen in Schweden, ein Drittel aller Informationen zur Wahl, 00:02:17.794 --> 00:02:23.009 die auf Social Media verteilt wurden, falsch oder Fehlinformationen. NOTE Paragraph 00:02:23.037 --> 00:02:28.115 Solche Fehlinformationskampagnen auf sozialen Kanälen, 00:02:28.139 --> 00:02:32.290 können zur Verbreitung sogenannter "Völkermord-Propaganda" beitragen, 00:02:32.314 --> 00:02:37.685 wie die gegen die Rohingya in Birma, welche Mob-Morde in Indien auslöste. NOTE Paragraph 00:02:37.776 --> 00:02:42.503 Wir erforschten Fake-News, lange bevor es ein bekannter Begriff war. 00:02:43.030 --> 00:02:45.794 In der diesjährigen März-Ausgabe des "Science" Magazins, 00:02:45.794 --> 00:02:49.023 veröffentlichten wir die größte Lanzeitstudie 00:02:49.023 --> 00:02:51.723 zur Verbreitung von Fehlinformationen online. 00:02:51.723 --> 00:02:58.684 Wir untersuchten alle überprüften, wahren und falschen Nachrichten, 00:02:58.708 --> 00:03:04.581 die seit der Gründung 2006 bis 2017 auf Twitter verbreitet wurden. 00:03:04.612 --> 00:03:09.476 Als wir diese Daten erforschten, untersuchten wir überprüfte Nachrichten, 00:03:09.480 --> 00:03:13.763 die von 6 unhabhängigen Organisationen im Faktencheck verifiziert wurden. 00:03:13.792 --> 00:03:18.694 Wir wussten also, welche Geschichten wahr waren und welche falsch. 00:03:18.728 --> 00:03:24.371 Wir können ihre Ausbreitung messen, ihre Geschwindigkeit, Tiefe und Breite. 00:03:24.449 --> 00:03:28.921 Wieviele Leute sich in dieser Kaskade von Informationen verwickeln usw. 00:03:28.942 --> 00:03:30.716 Wir vergleichten in dieser Studie 00:03:30.730 --> 00:03:34.315 die Ausbreitung der wahren Nachrichten mit der Ausbreitung der falschen. 00:03:34.339 --> 00:03:36.022 Hier ist unser Ergebnis: NOTE Paragraph 00:03:36.046 --> 00:03:40.025 Wir fanden heraus, dass falsche News sich weiter, schneller, tiefer und breiter 00:03:40.049 --> 00:03:41.855 verbreiten als die Wahrheit, 00:03:41.879 --> 00:03:44.882 in allen Kategorien, die wir untersuchten, 00:03:44.906 --> 00:03:47.405 manchmal mit großen Unterschieden. 00:03:47.842 --> 00:03:51.366 Falsche politische Nachrichten waren besonders viral. 00:03:51.390 --> 00:03:54.537 Sie verbreiteten sich weiter, schneller, tiefer und breiter 00:03:54.561 --> 00:03:57.363 als alle Arten von Falschnachrichten. 00:03:57.387 --> 00:04:01.540 Als wir das sahen, waren wir sofort beunruhigt, aber auch neugierig. 00:04:01.569 --> 00:04:02.720 Warum? 00:04:02.744 --> 00:04:06.117 Warum verbreiten sich falsche Nachrichten weiter, schneller, 00:04:06.141 --> 00:04:08.105 tiefer und breiter als die Wahrheit? NOTE Paragraph 00:04:08.339 --> 00:04:10.590 Unsere erste Hypothese war: 00:04:10.604 --> 00:04:14.710 Vielleicht haben Leute, die falsche Nachrichten verbreiten, mehr Anhänger, 00:04:14.710 --> 00:04:17.070 folgen mehr Leuten, tweeten öfter, 00:04:17.070 --> 00:04:21.527 vielleicht sind sie öfter "verifizierte" Twitter-Nutzer, mit mehr Glaubwürdigkeit, 00:04:21.541 --> 00:04:24.343 oder vielleicht waren sie bereits länger auf Twitter? 00:04:24.357 --> 00:04:26.655 Also überprüften wir jede dieser Theorien. 00:04:26.691 --> 00:04:29.611 Was wir herausfanden, war das Gegenteil: 00:04:29.635 --> 00:04:32.071 Fake-News-Verbreiter hatten weniger Abonnenten, 00:04:32.095 --> 00:04:34.349 folgten weniger Leuten, waren weniger aktiv, 00:04:34.373 --> 00:04:38.863 seltener "verifiziert" und alle waren seit kürzerer Zeit auf Twitter. 00:04:38.863 --> 00:04:44.160 Und dennoch war es 70% wahrscheinlicher, dass Falschmeldungen retweetet werden, 00:04:44.174 --> 00:04:48.470 als die Wahrheit, trotz dieser und vieler weiterer Faktoren. NOTE Paragraph 00:04:48.498 --> 00:04:51.188 Also mussten wir andere Erklärungen finden. 00:04:51.212 --> 00:04:54.859 Wir haben uns etwas überlegt, das wir "Neuheit-Hypothese" nennen. 00:04:55.038 --> 00:04:56.998 In der Forschung ist bekannt, 00:04:57.022 --> 00:05:00.776 dass die menschliche Aufmerksamkeit von Neuem angezogen wird, 00:05:00.800 --> 00:05:03.319 von Dingen, die in der Umwelt neu sind. 00:05:03.357 --> 00:05:05.852 Wenn Sie Soziologieforschung lesen, 00:05:05.872 --> 00:05:09.652 wissen Sie, dass wir diese neuen Informationen gerne teilen. 00:05:09.676 --> 00:05:13.514 Wir sehen so aus, als hätten wir Zugang zu Insider-Informationen 00:05:13.538 --> 00:05:17.323 und unser Status wächst, weil wir solche Informationen teilen. NOTE Paragraph 00:05:17.792 --> 00:05:20.298 Wir haben dann gemessen, 00:05:20.318 --> 00:05:24.244 welchen Neuheitswert ein neuer, wahrer oder falscher Tweet hatte, 00:05:24.268 --> 00:05:27.673 auf der Basis von anderen Inhalten, 00:05:27.697 --> 00:05:31.299 die der User, 60 Tage vorher auf Twitter gesehen hatte. 00:05:31.323 --> 00:05:33.982 Aber das war nicht genug, weil wir uns dachten: 00:05:34.006 --> 00:05:38.200 Vielleicht sind falsche Nachrichten neuer im informationstheoretischen Sinne, 00:05:38.238 --> 00:05:41.496 aber vielleicht empfinden es die Leute nicht als neuer. NOTE Paragraph 00:05:41.849 --> 00:05:45.776 Um die Wahrnehmung der Leute von Falschnachrichten zu verstehen, 00:05:45.800 --> 00:05:49.490 sahen wir uns die Informationen und die Stimmungen an, 00:05:49.514 --> 00:05:53.720 die in den Antworten auf wahre und falsche Tweets vorherrschten. 00:05:54.022 --> 00:05:59.132 Unter verschiedenen Stimmungskategorien -- 00:05:59.132 --> 00:06:02.026 Überraschung, Abscheu, Angst, Trauer, 00:06:02.026 --> 00:06:05.291 Vorfreude, Freude und Vertrauen -- 00:06:05.323 --> 00:06:11.180 fanden wir bei Falschnachrichten deutlich häufiger Überraschung und Abscheu 00:06:11.204 --> 00:06:14.320 in den Kommentaren zu falschen Tweets . 00:06:14.352 --> 00:06:17.775 Wahre Nachrichten zeigen deutlich mehr 00:06:17.775 --> 00:06:19.852 Vorfreude, Freude und Vertrauen 00:06:19.852 --> 00:06:22.323 in den Antworten zu wahren Tweets. 00:06:22.347 --> 00:06:26.133 Die 'Überraschung' bestätigt unsere Neuheit-Hypothese. 00:06:26.157 --> 00:06:30.766 Das ist neu und überraschend, also teilen wir es eher. NOTE Paragraph 00:06:31.092 --> 00:06:34.017 Zur gleichen Zeit gab es Anhörungen im US Kongress, 00:06:34.041 --> 00:06:37.617 vor beiden Häusern des Kongress, welche sich mit der Rolle von Bots 00:06:37.617 --> 00:06:40.721 bei der Verbreitung von Falschinformationen beschäftigt haben. 00:06:40.753 --> 00:06:42.721 Also haben wir uns auch das angeschaut: 00:06:42.731 --> 00:06:45.839 Wir haben mehrere ausgefeilte Bot-Erkennungsalgorithmen verwendet, 00:06:45.863 --> 00:06:48.937 um die Bots in unseren Daten zu finden und herauszufiltern. 00:06:49.347 --> 00:06:52.980 Wir haben sie enfernt und wieder eingefügt und haben dann verglichen, 00:06:52.980 --> 00:06:55.149 was mit unseren Ergebnissen passiert. 00:06:55.173 --> 00:06:59.576 Wir fanden heraus, dass Bots tatsächlich die Verbreitung von Falschnachrichten 00:06:59.600 --> 00:07:01.462 im Internet beschleunigt haben, 00:07:01.488 --> 00:07:05.951 die Verbreitung wahrer Nachrichten aber ungefähr genauso viel. 00:07:06.041 --> 00:07:09.879 Was bedeutet, dass Bots nicht dafür verantwortlich sind, 00:07:09.879 --> 00:07:13.898 dass sich Wahres und Falsches online verschieden verbreiten. 00:07:13.919 --> 00:07:17.768 Wir können die Verantwortung dafür nicht abgeben, 00:07:17.768 --> 00:07:21.581 weil wir Menschen für diese Verbreitung verantwortlich sind. NOTE Paragraph 00:07:22.472 --> 00:07:27.401 Alles was ich Ihnen bisher erzählt habe -- ist für uns alle, leider, 00:07:27.401 --> 00:07:29.155 die gute Nachricht. NOTE Paragraph 00:07:30.670 --> 00:07:35.120 Der Grund dafür ist, dass es noch viel schlimmer wird. 00:07:35.850 --> 00:07:39.832 Zwei bestimmte Technologien werden es noch schlimmer machen. 00:07:40.207 --> 00:07:45.379 Wir werden den Anstieg einer enormen Welle an synthetischen Medien sehen. 00:07:45.403 --> 00:07:51.434 Manipulierte Video- und Audiodateien, die auf Menschen sehr überzeugend wirken. 00:07:51.458 --> 00:07:54.212 Und dies wird von zwei Technologien vorangetrieben. NOTE Paragraph 00:07:54.236 --> 00:07:58.069 Die erste davon ist bekannt als 'Generative Adversarial Networks'. 00:07:58.093 --> 00:08:01.636 Das ist ein Modell für machinelles Lernen mit zwei Netzwerken: 00:08:01.640 --> 00:08:03.187 einem Diskriminator, 00:08:03.221 --> 00:08:06.451 dessen Aufgabe es ist, zu bestimmen, ob etwas wahr oder falsch ist, 00:08:06.475 --> 00:08:07.642 und einem Generator, 00:08:07.666 --> 00:08:10.816 dessen Aufgabe es ist, synthetische Medien zu produzieren. 00:08:10.840 --> 00:08:16.012 Der synthetische Generator produziert also synthetische Videos oder Audio, 00:08:16.012 --> 00:08:20.665 und der Diskriminator versucht zu erkennen, ob es echt oder fake ist. 00:08:20.665 --> 00:08:25.499 Es ist sogar die Aufgabe des Generators, die Wahrscheinlichkeit zu erhöhen, 00:08:25.507 --> 00:08:28.572 dass es den Diskriminator täuscht, 00:08:28.602 --> 00:08:33.289 sodass er glaubt, dass das produzierte synthetische Video oder Audio wahr ist. 00:08:33.289 --> 00:08:36.793 Stellen Sie sich eine Maschine vor, die in einer Endlosschleife versucht, 00:08:36.793 --> 00:08:39.184 besser und besser darin zu werden, uns zu täuschen. NOTE Paragraph 00:08:39.184 --> 00:08:41.614 Dies, in Verbindung mit der zweiten Technologie, 00:08:41.638 --> 00:08:47.360 die im Wesentlichen die Demokratisierung von künstlicher Intelligenz für alle ist. 00:08:47.384 --> 00:08:49.403 Die Möglichkeit für jeden, 00:08:49.427 --> 00:08:53.477 ohne Kenntnisse in künstlicher Intelligenz oder maschinellem Lernen 00:08:53.504 --> 00:08:57.756 diese Algorithmen zu verwenden, um synthetische Medien zu generieren, 00:08:57.784 --> 00:09:02.331 macht es so viel einfacher Videos zu produzieren. NOTE Paragraph 00:09:02.355 --> 00:09:06.776 Das Weisse Haus veröffentlichte ein falsches, bearbeitetes Video 00:09:06.800 --> 00:09:11.088 eines Journalisten und einer Praktikantin, die ihm das Mikrofon wegnehmen wollte. 00:09:11.097 --> 00:09:13.856 Sie haben Einzelbilder aus dem Video herausgeschnitten, 00:09:13.870 --> 00:09:17.157 damit sein Verhalten dramatischer wirkt. 00:09:17.157 --> 00:09:22.872 Als Videofilmer, Stunt-Männer und -Frauen zu diese Technik befragt wurden, 00:09:22.886 --> 00:09:27.513 sagten sie: "Ja, wir benutzen das in unseren Filmen ständig, 00:09:27.517 --> 00:09:32.205 um unsere Schläge und Tritte schneller und agressiver aussehen zu lassen." 00:09:32.268 --> 00:09:34.135 Sie haben dieses Video veröffentlicht 00:09:34.159 --> 00:09:38.039 und es als Rechtfertigung benutzt, um dem Jornalisten Jim Acosta 00:09:38.053 --> 00:09:42.052 den Presseausweis des Weissen Hauses zu entziehen. 00:09:42.069 --> 00:09:46.878 CNN musste klagen, um den Presseausweis zurückzuerhalten. NOTE Paragraph 00:09:48.538 --> 00:09:54.141 Meiner Meinung nach, gibt es fünf verschiedene Wege, die wir gehen können, 00:09:54.165 --> 00:09:57.904 um zu versuchen, einige dieser schwierigen Probleme anzugehen. 00:09:58.379 --> 00:10:03.209 Sie haben alle Potenzial, aber jeder davon hat auch eigene Herausforderungen. 00:10:03.236 --> 00:10:06.644 Der erste Weg ist Kennzeichnung. Stellen Sie sich das so vor: 00:10:06.649 --> 00:10:10.380 Wenn Sie im Supermarkt Lebensmittel kaufen, 00:10:10.380 --> 00:10:12.384 ist es umfangreich beschriftet. 00:10:12.384 --> 00:10:16.036 Sie wissen wieviele Kalorien es hat, wieviel Fett es enthält, 00:10:16.053 --> 00:10:20.331 aber wenn wir Informationen aufnehmen, haben wir keinerlei Kennzeichnung. 00:10:20.355 --> 00:10:22.283 Was enthält diese Information? 00:10:22.307 --> 00:10:23.760 Ist die Quelle glaubwürdig? 00:10:23.784 --> 00:10:26.101 Woher kommt diese Information? 00:10:26.125 --> 00:10:30.080 Wir haben keine dieser Antworten, wenn wir Informationen konsumieren. 00:10:30.101 --> 00:10:33.339 Das ist ein möglicher Weg, aber er hat auch Herausforderungen. 00:10:33.363 --> 00:10:39.814 Zum Beispiel, wer in der Gesellschaft entscheidet, was wahr oder falsch ist? 00:10:40.387 --> 00:10:43.589 Sind es die Regierungen? Ist es Facebook? 00:10:43.601 --> 00:10:47.363 Ist es ein unabhängiger Verbund von Faktenprüfern? 00:10:47.387 --> 00:10:49.853 Und wer überprüft die Faktenprüfer? NOTE Paragraph 00:10:50.427 --> 00:10:53.511 Ein weiterer möglicher Weg sind Anreize. 00:10:53.535 --> 00:10:56.169 Wir wissen, dass es während der US-Präsidentschaftswahl 00:10:56.193 --> 00:10:59.883 eine Welle von Falsch-Informationen aus Mazedonien gab, 00:10:59.907 --> 00:11:04.529 welche kein politisches Motiv verfolgten, sondern ein wirtschafliches. 00:11:04.752 --> 00:11:08.850 Dieses wirtschaftliche Motiv existierte, weil sich falsche Nachrichten 00:11:08.864 --> 00:11:12.388 viel weiter, schneller, und tiefer verbreiten als die Wahrheit. 00:11:12.506 --> 00:11:15.016 Und man kann Werbeeinnahmen erzielen, 00:11:15.040 --> 00:11:19.450 durch die Aufmerksamkeit, die diese Art von Information generieren kann. 00:11:19.474 --> 00:11:23.307 Aber wenn wir die Verteilung dieser Informationen unterdrücken könnten, 00:11:23.331 --> 00:11:26.228 würde es vielleicht den wirtschaflichen Anreiz reduzieren, 00:11:26.252 --> 00:11:28.942 diese überhaupt erst zu produzieren. NOTE Paragraph 00:11:28.942 --> 00:11:31.342 Drittens können wir über Regulierungen nachdenken. 00:11:31.342 --> 00:11:34.039 Und wir sollten definitiv über diese Option nachdenken. 00:11:34.049 --> 00:11:37.150 In den USA wird aktuell erforscht, was passieren könnte, 00:11:37.150 --> 00:11:40.228 wenn Facebook und andere kontrolliert würden. 00:11:40.346 --> 00:11:44.147 Während wir uns überlegen sollten, politische Rede zu regulieren, 00:11:44.147 --> 00:11:47.063 sie als politische Rede zu kennzeichnen, und sicherzustellen, 00:11:47.063 --> 00:11:50.522 dass ausländische Akteure politische Rede nicht finanzieren können, 00:11:50.546 --> 00:11:53.093 so birgt diese Regulierung auch Gefahren. 00:11:53.192 --> 00:11:57.850 Zum Beispiel hat Malaysia kürzlich eine Gefängnisstrafe von 6 Jahren eingeführt, 00:11:57.850 --> 00:12:01.696 für jeden, der überführt wird, falsche Informationen verbreitet zu haben. 00:12:01.696 --> 00:12:05.455 In autoritären Regimes können solche Vorschriften genutzt werden, 00:12:05.469 --> 00:12:08.465 um Meinungen von Minderheiten zu unterdrücken 00:12:08.489 --> 00:12:11.997 und Unterdrückung weiter auszuweiten. NOTE Paragraph 00:12:12.680 --> 00:12:16.223 Die vierte Option ist Transparenz. 00:12:16.843 --> 00:12:20.557 Wir möchten wissen, wie die Algorithmen von Facebook funktionieren. 00:12:20.581 --> 00:12:23.461 Wie arbeiten Daten mit den Algorithmen zusammen, 00:12:23.485 --> 00:12:26.323 um die Ergebnisse zu produzieren, die wir sehen? 00:12:26.347 --> 00:12:31.086 Wir möchten, dass sie ihren Mantel öffnen, und uns das Innenleben von Facebook zeigen 00:12:31.100 --> 00:12:32.934 und wie es genau funktioniert. 00:12:32.958 --> 00:12:36.677 Wenn wir wissen wollen, wie sich soziale Medien auf die Gesellschaft auswirken, 00:12:36.677 --> 00:12:38.938 müssen Wissenschaftler, Forscher und andere 00:12:38.938 --> 00:12:41.038 Zugriff auf solche Informationen erhalten. 00:12:41.038 --> 00:12:43.165 Aber gleichzeitig möchten wir, 00:12:43.165 --> 00:12:48.607 dass Facebook alles abriegelt, um diese Daten zu sichern. NOTE Paragraph 00:12:48.631 --> 00:12:51.772 Das heißt, Facebook und die anderen Social Media Plattformen 00:12:51.772 --> 00:12:55.266 unterliegen einem, wie ich es nenne, "Transparenz-Paradox", 00:12:55.266 --> 00:13:02.250 Wir bitten sie, offen und transparent und gleichzeitig sicher zu sein. 00:13:02.797 --> 00:13:06.968 Das ist eine sehr knifflige Aufgabe, welche aber gelöst werden muss, 00:13:06.968 --> 00:13:10.646 wenn wir das Potenzial von sozialen Technologien ausschöpfen wollen, 00:13:10.646 --> 00:13:12.857 aber gleichzeitig die Risiken abwenden wollen. NOTE Paragraph 00:13:12.857 --> 00:13:17.617 Das letzte worüber wir nachdenken könnten, sind Algorithmen und maschinelles Lernen. 00:13:17.641 --> 00:13:20.748 Technologien, die Fake News entlarven, 00:13:20.772 --> 00:13:25.762 die verstehen, wie sie sich verbreiten, und dann versuchen, sie einzudämmen. 00:13:25.824 --> 00:13:28.991 Menschen müssen über diese Technologien auf dem Laufenden sein, 00:13:29.005 --> 00:13:31.023 weil wir der Tatsache nicht entkommen, 00:13:31.047 --> 00:13:35.085 dass hinter jeder technischen Lösung oder Herangehensweise 00:13:35.109 --> 00:13:38.780 eine fundamentale ethische und philosophische Frage steht: 00:13:38.780 --> 00:13:42.450 Wie definieren wir Wahrheit und Unwahrheit? 00:13:42.474 --> 00:13:45.654 Wem geben wir die Macht, Wahrheit und Unwahrheit zu definieren? 00:13:45.678 --> 00:13:48.138 Welche Meinungen sind gerechtfertigt? 00:13:48.162 --> 00:13:51.868 Welche Arten von Aussagen sind erlaubt? 00:13:51.892 --> 00:13:54.220 Technologie ist hierfür keine Lösung. 00:13:54.244 --> 00:13:58.252 Ethik und Philosophie haben Lösungen dafür. NOTE Paragraph 00:13:58.950 --> 00:14:02.268 Fast alle Theorien menschlicher Entscheidungsfindung, 00:14:02.292 --> 00:14:05.563 menschlicher Zusammenarbeit und menschlicher Koordinierung, 00:14:05.597 --> 00:14:09.271 haben in ihrem Kern eine Vorstellung von Wahrheit. 00:14:09.347 --> 00:14:11.403 Aber mit dem Anstieg von Fake News, 00:14:11.427 --> 00:14:12.870 dem Anstieg gefälschter Videos 00:14:12.894 --> 00:14:14.990 und dem Anstieg gefälschter Audiodateien, 00:14:14.990 --> 00:14:18.724 stehen wir am Abgrund vom Ende der Realität, 00:14:18.748 --> 00:14:22.637 wo wir nicht mehr unterscheiden können, was wahr und was falsch ist. 00:14:22.661 --> 00:14:25.700 Und das kann sehr gefährlich sein. NOTE Paragraph 00:14:26.931 --> 00:14:32.249 Wir müssen sicherstellen, die Wahrheit gegenüber Fehlinformation zu verteidigen. 00:14:32.919 --> 00:14:36.355 Mit unseren Technologien, mit unseren Richtlinien 00:14:36.379 --> 00:14:38.299 und vielleicht am wichtigsten, 00:14:38.323 --> 00:14:42.347 mit unserer eigenen, persönlichen, Verantwortung, unserem Verhalten, 00:14:42.361 --> 00:14:45.116 unseren Entscheidungen und Handlungen. NOTE Paragraph 00:14:45.553 --> 00:14:46.990 Vielen Dank. NOTE Paragraph 00:14:47.014 --> 00:14:50.531 (Applaus)