1 00:00:15,719 --> 00:00:21,530 Herald-Angel: Der nächste Vortrag ist „Beeinflussung durch Künstliche 2 00:00:21,530 --> 00:00:27,170 Intelligenz". Es ist ein Einführungsvortrag, also einer der 3 00:00:27,170 --> 00:00:31,580 explizit dazu gedacht ist, dass ihr das ohne Vorkenntnisse versteht. Und es geht 4 00:00:31,580 --> 00:00:41,159 ums Maschinelle Lernen. Unsere Sprecher sind die Karen – sie forscht in Amsterdam 5 00:00:41,159 --> 00:00:47,729 an Maschinellem Lernen, kommt ursprünglich aus Leipzig – und der Hendrik Heuer, der 6 00:00:47,729 --> 00:00:55,440 in Bremen an Mensch-Computer-Interaktion forscht. Großes Willkommen für die beiden! 7 00:00:55,440 --> 00:01:03,190 Applaus 8 00:01:03,190 --> 00:01:06,930 Hendrik Heuer: Vielen Dank! Moin erstmal! Willkommen zu unserem Vortrag 9 00:01:06,930 --> 00:01:10,909 „Beeinflussung durch Künstliche Intelligenz" über die Banalität der 10 00:01:10,909 --> 00:01:14,920 Beeinflussung und das Leben mit Algorithmen. Wir würden gern mit einem 11 00:01:14,920 --> 00:01:19,979 Zitat von Kate Crawford beginnen. Kate Crawford ist die Gründerin des AI Now 12 00:01:19,979 --> 00:01:23,841 Institut das die sozialen Auswirkungen von künstlicher Intelligenz untersucht. Sie 13 00:01:23,841 --> 00:01:28,090 ist außerdem ein Principal Researcher bei Microsoft Research und Professorin an der 14 00:01:28,090 --> 00:01:33,840 New York University. Und die hat beim AI Now Symposium in diesem Jahr gesagt: „Die 15 00:01:33,840 --> 00:01:37,170 Menschen befürchten, dass Computer zu intelligent werden und die Welt erobern. 16 00:01:37,170 --> 00:01:42,549 Aber Computer sind zu dumm und haben die Welt bereits erobert." Wir teilen diese 17 00:01:42,549 --> 00:01:47,420 Ansicht. Es gibt keine digitale Welt. Die Welt ist digital, das heißt durch digitale 18 00:01:47,420 --> 00:01:51,799 Medien konstruiert. Und uns war es ein Anliegen, einige englischsprachige 19 00:01:51,799 --> 00:01:55,659 Diskussion jetzt nochmal auf Deutsch zusammenzuführen. Es können also Beispiele 20 00:01:55,659 --> 00:02:00,700 kommen die der eine oder andere vielleicht schon kennt. Aber wir führen sie hier 21 00:02:00,700 --> 00:02:05,390 nochmal zusammen und versuchen sie zu kontextualisieren. Warum Banalität der 22 00:02:05,390 --> 00:02:09,880 Überwachung? Banalität, weil die Systeme des maschinellen Lernens im Kern sehr 23 00:02:09,880 --> 00:02:14,520 simpel sind, weil aber auch die Beeinflussung sehr subtil sein kann und 24 00:02:14,520 --> 00:02:17,080 das Ganze ist auch eine Reminiszenz an Hannah Arendt. 25 00:02:17,080 --> 00:02:21,330 Noch mal kurz zu uns. Wie gesagt: Ich werde die ersten 20 Minuten sprechen über 26 00:02:21,330 --> 00:02:25,280 die Mensch-Computer-Interaktions- Perspektive, Karen Ullrich wird die zweite 27 00:02:25,280 --> 00:02:29,170 Hälfte bestreiten. Karen ist wissenschaftliche Mitarbeiterin in 28 00:02:29,170 --> 00:02:33,920 Amsterdam, im Amsterdam Machine Learning Lab, und sie forscht direkt zu den 29 00:02:33,920 --> 00:02:37,660 Algorithmen des maschinellen Lernens, insbesondere Bayesian methods, also ein 30 00:02:37,660 --> 00:02:41,950 Hintergrund im Deep Learning und der Informationstheorie. Ich bin 31 00:02:41,950 --> 00:02:46,470 wissenschaftlicher Mitarbeiter im Institut für Informationsmanagement Bremen und mir 32 00:02:46,470 --> 00:02:50,000 geht es um die Nutzererfahrung von Maschine Learning, insbesondere das 33 00:02:50,000 --> 00:02:56,380 Vertrauen. Wir würden jetzt gerne anfangen mit einem Beispiel, das jeder kennt: Spam- 34 00:02:56,380 --> 00:02:59,990 Erkennung. Benutzt wahrscheinlich jeder hier. Funktioniert auch nicht immer. Aber 35 00:02:59,990 --> 00:03:03,090 man muss sich wirklich vor Augen führen, dass es eine beeindruckende technische 36 00:03:03,090 --> 00:03:07,100 Leistung ist, auch wenn es manchmal nicht funktioniert. Und wir nehmen es hier, um 37 00:03:07,100 --> 00:03:11,620 den Unterschied zwischen imperativer Programmierung und maschinellem Lernen zu 38 00:03:11,620 --> 00:03:16,540 verdeutlichen. Imperative Programmierung ist das, woran wahrscheinlich jeder denkt, 39 00:03:16,540 --> 00:03:18,480 wenn er an Informatik und Programmierung denkt. 40 00:03:18,480 --> 00:03:21,940 Es geht um Regeln und Anweisungen: Wenn X 41 00:03:21,940 --> 00:03:26,430 dann Y. Das Wort Imperativ für Befehl steckt ja auch schon im Namen. Und wenn 42 00:03:26,430 --> 00:03:30,210 wir jetzt Spam imperativ erkennen wollen würden, dann würde man zum Beispiel 43 00:03:30,210 --> 00:03:34,140 gucken, Okay das Wort Viagra wird so geschrieben in der Nachricht vorkommen, 44 00:03:34,140 --> 00:03:39,210 dann ist es eine Spam-Nachricht. Andererseits ist es eine gutartige 45 00:03:39,210 --> 00:03:43,710 Nachricht. Maschinelles Lernen ist jetzt ein komplett anderer Ansatz. Da hat man 46 00:03:43,710 --> 00:03:49,040 eine Vorhersage die man iterativ, also immer und immer wieder, verbessert. Für 47 00:03:49,040 --> 00:03:53,000 die Spam-Klassifikation versucht man zum Beispiel Kombinationen von Wörtern zu 48 00:03:53,000 --> 00:03:56,900 finden, durch die es wahrscheinlich wird, dass es sich um Spam handelt. 49 00:03:56,900 --> 00:04:02,160 Der Kernbegriff ist hier also wahrscheinlich. Und das sieht dann so aus, dass man für viele 50 00:04:02,160 --> 00:04:07,400 verschiedene Beispiele prognostiziert, ob eine Nachricht Spam ist oder nicht. Dann 51 00:04:07,400 --> 00:04:12,010 berechnet man Fehler mit einer geeigneten Fehlerfunktion und dann ändert man seine 52 00:04:12,010 --> 00:04:16,721 Parameter, um den Fehler zu verringern und geht wieder zum ersten Schritt und macht 53 00:04:16,721 --> 00:04:21,589 das immer und immer wieder. Natürlich ist es nicht ganz so einfach, diesen Fehler zu 54 00:04:21,589 --> 00:04:24,630 berechnen, und auch die Parameter zu verändern, ist ein eigenes 55 00:04:24,630 --> 00:04:28,030 Forschungsgebiet. Aber im Kern ist es wirklich so simpel wie wir es hier 56 00:04:28,030 --> 00:04:33,081 darstellen. Und deswegen ist es spannend im Hinterkopf zu behalten. Dabei ist es 57 00:04:33,081 --> 00:04:36,720 aber spannend im Hinterkopf zu behalten, dass Spam-Erkennen nicht mit 58 00:04:36,720 --> 00:04:40,790 Textverständnis gleichzusetzen ist. Das heißt der Algorithmus muss nicht erst 59 00:04:40,790 --> 00:04:45,030 Kafka verstehen können, um zu erkennen, ob etwas Spam ist oder nicht. Und dieses 60 00:04:45,030 --> 00:04:48,960 Problem, dass etwas wirkungsvoller aussieht als es vermeintlich ist, wird uns 61 00:04:48,960 --> 00:04:54,840 im Laufe des Vortrags noch begegnen. Wir haben jetzt ein weiteres, immer noch 62 00:04:54,840 --> 00:04:58,700 vereinfachtes Beispiel für eine Entscheidungshilfe, hier aus der Medizin. 63 00:04:58,700 --> 00:05:03,960 Das Ziel ist hier die Erkennung von Brustkrebs. Statt Wörtern wie beim Spam 64 00:05:03,960 --> 00:05:09,660 haben wir verschiedene Features, das heißt Charakteristika, an denen man zum Beispiel 65 00:05:09,660 --> 00:05:14,760 gutartigen von bösartigem Brustkrebs unterscheiden kann. Dazu gehören hier der 66 00:05:14,760 --> 00:05:20,850 Radius, die Textur, Umfang, Fläche, Glätte aber auch so Sachen wie die Symmetrie und 67 00:05:20,850 --> 00:05:25,780 die Zahl konkaver Punkte, also nach innen gewölbter Punkte, das seht ihr hier oben. 68 00:05:25,780 --> 00:05:30,610 Insgesamt gibt es in diesem vereinfachten Datensatz 32 verschiedene Charakteristika. 69 00:05:30,610 --> 00:05:36,260 Und wenn wir jetzt zwei Charakteristika wie z.B. die durchschnittliche Zahl der 70 00:05:36,260 --> 00:05:41,190 konkaven Punkte und die durchschnittliche Fläche in Pixeln anschauen und abtragen, 71 00:05:41,190 --> 00:05:45,450 dann erkennt man eine deutliche Tendenz: Ab einem bestimmten Punkt – ab einer 72 00:05:45,450 --> 00:05:48,520 bestimmten Zahl Punkte und ab einer bestimmten Fläche – sehen wir nur noch 73 00:05:48,520 --> 00:05:54,000 bösartigen Brustkrebs. Das heißt mathematisch können wir im Beispiel 74 00:05:54,000 --> 00:05:58,091 einfach eine Linie durch diesen Datensatz ziehen und das ist eine sogenannte 75 00:05:58,091 --> 00:06:02,169 Entscheidungsgrenze, die Decision- Boundary. Die Entscheidungsgrenze muss 76 00:06:02,169 --> 00:06:05,000 nicht linear sein, es muss nicht eine einfache Linie sein. 77 00:06:05,000 --> 00:06:10,140 Die kann durchaus komplexer sein und in der Regel ist sie das. Und dieser Ansatz 78 00:06:10,140 --> 00:06:14,650 ist durchaus analog zu dem, was eine erfahrene Ärztin oder ein erfahrener Arzt 79 00:06:14,650 --> 00:06:18,531 mehr oder weniger bewusst machen würde. Die haben auch aus Erfahrung gelernt: ab 80 00:06:18,531 --> 00:06:23,800 der Größe, und ab der Fläche und der Zahl ist es wahrscheinlich bösartig oder 81 00:06:23,800 --> 00:06:27,480 gutartig. Der Clou am Maschinellen Lernen ist jetzt, dass wir das für viele 82 00:06:27,480 --> 00:06:31,620 verschiedene Charakteristika gleichzeitig machen können. Und darüber hinaus 83 00:06:31,620 --> 00:06:36,060 profitieren wir sehr stark davon, wenn wir mehr Daten haben, weil wir dadurch bessere 84 00:06:36,060 --> 00:06:38,560 Entscheidungen treffen können. Weil wir eine bessere Entscheidungsgrenze finden. 85 00:06:38,560 --> 00:06:45,340 Ihr seht aber auch, dass eine gute Zahl an roten und blauen Punkten im Beispiel auf 86 00:06:45,340 --> 00:06:49,871 der falschen Seite der Grenze liegen. Das heißt dort machen wir Fehler und da 87 00:06:49,871 --> 00:06:53,300 muss man im Hinterkopf behalten, dass es verschiedene Arten von Fehlern gibt und 88 00:06:53,300 --> 00:06:57,010 die auch verschiedene Auswirkungen haben. Falls ich zum Beispiel jemandem mit 89 00:06:57,010 --> 00:07:02,669 gutartigen Brustkrebs fälschlicherweise sage, dass ihr Brustkrebs bösartig ist, 90 00:07:02,669 --> 00:07:07,870 löst das sicherlich Stress aus und ist keine angenehme Situation. Falls ich aber 91 00:07:07,870 --> 00:07:11,560 jemanden mit bösartigem Brustkrebs fälschlicherweise sage, dass ihr 92 00:07:11,560 --> 00:07:15,130 Brustkrebs gutartig ist und sie auch entsprechend behandle, kann das deutlich 93 00:07:15,130 --> 00:07:19,900 schlimmere Konsequenzen haben. Das ist jetzt natürlich ein vereinfachtes 94 00:07:19,900 --> 00:07:24,900 Beispiel. Aber gleichzeitig werden wir zeigen, dass ähnliche Entscheidungshilfen 95 00:07:24,900 --> 00:07:29,210 durchaus in sehr kritischen Bereichen genutzt werden. Vorher wollen wir noch 96 00:07:29,210 --> 00:07:33,750 einmal die Wirkungsmacht von Big Data zeigen und da geht es darum, 97 00:07:33,750 --> 00:07:39,800 Persönlichkeitsmerkmale zu erkennen. Das heißt hier nimmt man digitale Spuren wie 98 00:07:39,800 --> 00:07:43,960 Facebook-Likes, die relativ einfach zugänglich sind, es aber ermöglichen, 99 00:07:43,960 --> 00:07:47,460 hochgradig sensible Persönlichkeitsmerkmale vorherzusagen. 100 00:07:47,460 --> 00:07:54,380 Das ist ein Paper von 2013 und für die Studie haben sie 58.000 Freiwillige in den 101 00:07:54,380 --> 00:07:58,060 USA gefunden, die eine Facebook-App benutzt haben. Und die haben dieser 102 00:07:58,060 --> 00:08:02,120 Facebook-App ihr komplettes Profil zur Verfügung gestellt mit allen Likes aber 103 00:08:02,120 --> 00:08:06,060 auch mit allen Informationen wie zum Beispiel der sexuellen Orientierung oder 104 00:08:06,060 --> 00:08:10,540 der religiösen Zugehörigkeit. Was jetzt gemacht wurde ist mit einem sehr einfachen 105 00:08:10,540 --> 00:08:16,700 Modell, mit einem einfachen Regressions- Modell, vorhergesagt, von welchen Likes, 106 00:08:16,700 --> 00:08:21,270 ob man anhand der Likes bestimmte Persönlichkeitsmerkmale erkennen kann. Und 107 00:08:21,270 --> 00:08:26,570 es zeigt sich, dass man zum Beispiel mit 95-prozentiger Genauigkeit erkennen kann, 108 00:08:26,570 --> 00:08:32,620 ob jemand weiß oder afroamerikanisch ist. Sexuelle Orientierung kann man auch mit 109 00:08:32,620 --> 00:08:38,999 sehr hoher Genauigkeit nur anhand der Likes erkennen, das Geschlecht, die 110 00:08:38,999 --> 00:08:44,350 politische Orientierung, die religiöse Zugehörigkeit, aber auch so Sachen wie die 111 00:08:44,350 --> 00:08:49,100 Drogenerfahrung und der Familienstand der Eltern in der Kindheit. 112 00:08:49,100 --> 00:08:53,970 Und ihr seht schon bei der religiösen Zugehörigkeit sind wir bei 82 Prozent 113 00:08:53,970 --> 00:08:58,589 Genauigkeit, bei so etwas wie Drogenerfahrung und der Ehe ist es relativ 114 00:08:58,589 --> 00:09:03,579 wenig mit der Genauigkeit: Es ist eine 50/50 Chance, wenn wir raten würden. 115 00:09:03,579 --> 00:09:09,389 Aber es ist trotzdem eine Indikation. Und wir zeigen das auch nur, weil das 116 00:09:09,389 --> 00:09:12,992 wahnsinnige Möglichkeiten der Diskriminierung bildet. Und das passiert 117 00:09:12,992 --> 00:09:17,661 auch auf dem Wohnungsmarkt oder auf dem Arbeitsmarkt. Das heißt was wir hier 118 00:09:17,661 --> 00:09:21,089 zeigen wollen, ist, dass wir unsere Vorstellungen von Datenschutz überdenken 119 00:09:21,089 --> 00:09:26,019 und ausweiten müssen, weil man halt auch Persönlichkeitsmerkmale inferieren können 120 00:09:26,019 --> 00:09:31,630 kann. Denn man kann mit solchen Modellen auch die Likes finden, die am 121 00:09:31,630 --> 00:09:36,050 aussagekräftigsten für ein bestimmtes Charakteristikum sind. Das heißt wir haben 122 00:09:36,050 --> 00:09:41,170 hier drei Likes: einmal die Marke Harley- Davidson, Kringel-Pommes/curly fries und 123 00:09:41,170 --> 00:09:45,019 das Musical Wicked. Und ich überlasse es euch mal, herauszufinden, welches Bild mit 124 00:09:45,019 --> 00:09:49,790 niedriger Intelligenz, hoher Intelligenz und Homosexualität bei Männern verbunden 125 00:09:49,790 --> 00:09:56,439 ist. Diese durchaus fragwürdige Forschungsrichtung nennt sich Psychometrik 126 00:09:56,439 --> 00:10:00,860 oder auch Psychografie. Und das Spannende ist, dass sie ja relativ nah dran ist am 127 00:10:00,860 --> 00:10:04,009 Kern-Versprechen von so Unternehmen wie Google und Facebook. 128 00:10:04,009 --> 00:10:08,740 Denn die versprechen ihren Kunden – ihren Werbekunden – wir finden für euch 129 00:10:08,740 --> 00:10:13,149 Leute, die sich für Dienst X oder Produkt Y interessieren könnten. Und hier haben 130 00:10:13,149 --> 00:10:18,279 wir jetzt das Element der Beeinflussung. Beeinflussung heißt hier, Big Data zu 131 00:10:18,279 --> 00:10:23,230 nutzen, um Leute zu finden, und die Beeinflussung ist noch sehr banal. Aber 132 00:10:23,230 --> 00:10:26,810 solche Forschung kann natürlich auch genutzt werden, um zum Beispiel in einer 133 00:10:26,810 --> 00:10:31,059 großen Menge von Wählerinnen jene zu finden, die noch überzeugt werden könnten. 134 00:10:31,059 --> 00:10:34,771 Und ihr habt – viele von euch haben wahrscheinlich den Artikel in das Magazin 135 00:10:34,771 --> 00:10:39,199 gelesen, wo kolportiert wurde, dass diese Art von Psychografie für Trump und Brexit 136 00:10:39,199 --> 00:10:43,079 verantwortlich ist. Vor der Bundestagswahl gab es ja auch eine große Diskussion, dass 137 00:10:43,079 --> 00:10:47,689 das hier passieren könnte. Wir glauben, dass das mit Vorsicht zu genießen ist, 138 00:10:47,689 --> 00:10:51,160 aber die Möglichkeit mit derartigen Ansätzen überzeugbare Wählerinnen und Wähler 139 00:10:51,160 --> 00:10:53,790 zu finden und anzusprechen, ist durchaus realistisch. 140 00:10:53,790 --> 00:11:00,990 Und wir haben schon gesehen, dass es dadurch so eine Art Diskriminierung 2.0 141 00:11:00,990 --> 00:11:05,312 gibt. Denn ein homophober Arbeitgeber muss nicht mehr direkt erfragen, ob jemand 142 00:11:05,312 --> 00:11:09,610 homosexuell ist, wenn er es aus einem Facebook-Profil vorhersagen kann, und es 143 00:11:09,610 --> 00:11:13,129 interessiert ihn vielleicht auch nicht, ob er da einen Fehler macht und einen 144 00:11:13,129 --> 00:11:18,209 Heterosexuellen möglicherweise falsch einordnet. Diese Beeinflussung kann aber 145 00:11:18,209 --> 00:11:23,689 durchaus direkter sein. In den USA werden Algorithmen jetzt schon im Justizsystem 146 00:11:23,689 --> 00:11:28,300 als Entscheidungshilfe eingesetzt, und da wird zum Beispiel mit bestimmten 147 00:11:28,300 --> 00:11:32,639 Informationen über die Leute vorhergesagt, ob jemand rückfällig wird, der im 148 00:11:32,639 --> 00:11:37,759 Gefängnis ist, oder nicht. Das heißt man versucht vorherzusagen auf einer Skala von 149 00:11:37,759 --> 00:11:43,590 1 für ungefährlich bis 10 für hochgradig gefährlich, wo jemand hinkommt. Und hier 150 00:11:43,590 --> 00:11:49,069 haben wir zwei Beispiele: Einmal den Herrn links – VP die Initialen –, der zwei 151 00:11:49,069 --> 00:11:53,980 bewaffnete Raubüberfälle begangen und einen versuchten bewaffneten Raubüberfall, 152 00:11:53,980 --> 00:11:58,519 und die Risikoeinschätzung ist hier 3 niedriges Risiko. 153 00:11:58,519 --> 00:12:03,730 Daneben steht die Dame – BB –, die hat vier Ordnungswidrigkeiten unter 154 00:12:03,730 --> 00:12:11,509 Jugendstrafrecht auf dem Kerbholz, und die wird eingestuft mit hohes Risiko. Und wie 155 00:12:11,509 --> 00:12:15,199 sieht das jetzt aus. Also die Leute von ProPublica die das recherchiert haben, 156 00:12:15,199 --> 00:12:20,600 haben jetzt über zwei Jahre geguckt, wer wirklich rückfällig wird und wer nicht. BB 157 00:12:20,600 --> 00:12:24,689 – die Dame rechts –, die begeht keine weiteren Verbrechen. VP – der Herr links 158 00:12:24,689 --> 00:12:27,870 –, der begeht nach seiner Freilassung direkt einen schweren Diebstahl. Das 159 00:12:27,870 --> 00:12:31,269 Besondere ist hier, und ihr werdet es wahrscheinlich schon geraten haben, ist, 160 00:12:31,269 --> 00:12:35,900 dass der Algorithmus systematisch Afroamerikanerinnen diskriminiert. Es gibt 161 00:12:35,900 --> 00:12:41,250 also ein Bias, eine Verzerrung, gegen Schwarze. Darüber hinaus sind diese 162 00:12:41,250 --> 00:12:46,059 Vorhersagen von den proprietären Kompass- Systemen nur in 61 Prozent derzeit 163 00:12:46,059 --> 00:12:51,209 richtig. Wenn man jetzt die wirkliche Rückfälligkeit über zwei Jahren nimmt. Und 164 00:12:51,209 --> 00:12:55,089 wir kennen das aus der Statistik: Dort unterscheiden wir den Fehler erster Art 165 00:12:55,089 --> 00:12:59,149 und den Fehler zweiter Art. Das heißt unsere Nullhypothese ist: Der oder die 166 00:12:59,149 --> 00:13:03,689 Straftäterin wird nicht rückfällig. Der Fehler erster Art ist jetzt, dass die, 167 00:13:03,689 --> 00:13:08,739 die mit hohem Risiko eingestuft werden, aber nicht rückfällig werden. Und da sehen 168 00:13:08,739 --> 00:13:12,500 wir – oder hat ProPublica herausgefunden –, dass die Wahrscheinlichkeit, dass ein 169 00:13:12,500 --> 00:13:18,189 Weißer oder eine Weiße Opfer dieses Fehlers wird, bei 23,5 Prozent liegt und 170 00:13:18,189 --> 00:13:22,199 bei Afroamerikanerinnen liegt die Wahrscheinlichkeit bei 44,9, also fast 171 00:13:22,199 --> 00:13:25,910 doppelt so hoch. Es gibt auch den Fehler zweiter Art. Das ist die 172 00:13:25,910 --> 00:13:29,429 Wahrscheinlichkeit, dass jemand mit niedrigem Risiko 173 00:13:29,429 --> 00:13:33,590 eingestuft wird, aber trotzdem rückfällig wird. Und hier ist die Wahrscheinlichkeit 174 00:13:33,590 --> 00:13:41,779 umgekehrt: Weiße haben eine 47-Prozent- Chance diesem Fehler zum Opfer zu fallen. 175 00:13:41,779 --> 00:13:49,549 Afroamerikanerinnen nur 28 Prozent. Aber wie kommt das? Wir nehmen jetzt mal an, 176 00:13:49,549 --> 00:13:53,290 dass das kompetente Programmiererinnen sind, die in den Maschine Learning Kursen, 177 00:13:53,290 --> 00:13:56,920 die sie gemacht haben, gut aufgepasst haben und technisch alles richtig gemacht 178 00:13:56,920 --> 00:13:59,980 haben. Nun lernt Maschine Learning immer eine 179 00:13:59,980 --> 00:14:05,459 Abbildung von einem X auf ein Y. Z. B. hier haben wir bestimmte Informationen zu 180 00:14:05,459 --> 00:14:11,089 Gefangenen und diese Rückfälligkeit der Gefangenen. Das Problem ist jetzt das X 181 00:14:11,089 --> 00:14:15,300 ist keine Stichprobe der Grundgesamtheit, sondern eine Untermenge der 182 00:14:15,300 --> 00:14:19,179 Grundgesamtheit, die die Polizei untersucht hat. Es ist also ein X', es ist 183 00:14:19,179 --> 00:14:24,009 nicht repräsentativ. Und das kann eine selbsterfüllende Prophezeiung sein. Denn 184 00:14:24,009 --> 00:14:27,220 vielleicht sind Afroamerikanerinnen einfach in der Situation, dass sie 185 00:14:27,220 --> 00:14:31,779 deutlich häufiger kontrolliert werden und es einfach dadurch mehr Straffälle in 186 00:14:31,779 --> 00:14:36,550 dem Datensatz gibt. Und auf der auch auf der anderen Seite auf der Y Seite, das 187 00:14:36,550 --> 00:14:40,459 heißt diese Risikobeurteilung, ob man rückfällig wird oder nicht, ist ebenfalls 188 00:14:40,459 --> 00:14:45,269 eine Verfälschung. Denn die bezieht sich ja auch nur auf die, die vom Rechtssystem 189 00:14:45,269 --> 00:14:49,899 verurteilt werden. Das heißt hier haben wir auch ein Y'. Wenn 190 00:14:49,899 --> 00:14:54,089 man zum Beispiel ein Jurysystem hat, wie man es in den USA findet, dann kann auch 191 00:14:54,089 --> 00:14:58,790 dort latent oder weniger latent diskriminiert werden. Das macht Maschine 192 00:14:58,790 --> 00:15:04,399 Learning – pseudo-objektive, mathematische Modelle – zu einer Art Geldwäsche für 193 00:15:04,399 --> 00:15:08,649 Vorurteile. Weil sie fallen in dieses System rein und sind dann erst einmal 194 00:15:08,649 --> 00:15:14,360 nicht mehr sichtbar. Und hier kommen wir jetzt zum Element der direkten 195 00:15:14,360 --> 00:15:17,339 Beeinflussung. Denn diese Systeme werden zwar nur als 196 00:15:17,339 --> 00:15:22,019 Entscheidungshilfen verkauft, es sind halt nur Werkzeuge, die genutzt werden können, 197 00:15:22,019 --> 00:15:26,350 aber die Leute, die die Entscheidung treffen, verlassen sich direkt auf diese 198 00:15:26,350 --> 00:15:29,949 Systeme. Das heißt sie vertrauen diesen diskriminierenden Algorithmen. Das 199 00:15:29,949 --> 00:15:33,429 Beispiel kommt aus dem hervorragenden Deutschlandfunk-Feature von Thomas 200 00:15:33,429 --> 00:15:39,689 Schimmeck. Und der hat zum Beispiel Veronika Hiller, die Bewährungshelferin, 201 00:15:39,689 --> 00:15:45,019 die dem Richter im Endeffekt ein Strafmaß vorschlägt, interviewt. Das Spannende ist, 202 00:15:45,019 --> 00:15:48,189 die hat also ein Vierteljahrhundert Erfahrung im Dienst. Aber sie schwört auf 203 00:15:48,189 --> 00:15:52,839 diesen Algorithmus. Sie sagt der ist gut, akkurat und einfach. Was wir einfach 204 00:15:52,839 --> 00:15:57,989 zeigen wollen, ist, dass es hier um sozio- technische Systeme geht. Das heißt es 205 00:15:57,989 --> 00:16:01,519 geht nicht nur um das Maschine Learning. Es geht nicht nur um den Algorithmus. 206 00:16:01,519 --> 00:16:05,389 Sondern es geht auch um die Menschen, die ihn nutzen. Denn selbst wenn das System 207 00:16:05,389 --> 00:16:09,569 fair wäre – wir haben gerade gesehen dass es das nicht ist –, heißt es immer noch 208 00:16:09,569 --> 00:16:13,910 nicht, dass die Ergebnisse des Systems auch fair interpretiert werden, und wir 209 00:16:13,910 --> 00:16:17,740 finden das ist sehr wichtig für jene, die solche Systeme bauen – und da sind 210 00:16:17,740 --> 00:16:22,389 wahrscheinlich einige heute hier. Diese Verzerrung in und durch Daten sind 211 00:16:22,389 --> 00:16:27,089 allgegenwärtig. Wir haben zum Beispiel hier ein Beispiel von Google. Das ist eine 212 00:16:27,089 --> 00:16:32,100 Suche nach den Keywords „Three White Teenagers". Und das ist eine Suche nach 213 00:16:32,100 --> 00:16:38,489 den Keywords „Three Black Teenagers". Das heißt Technologie offenbart hier 214 00:16:38,489 --> 00:16:41,779 gesellschaftliche Probleme. Wir haben es wie gesagt mit sozi- 215 00:16:41,779 --> 00:16:46,769 technischen Systemen zu tun, die eine bestimmte Weltvorstellung festschreiben, 216 00:16:46,769 --> 00:16:51,660 vermitteln, aber auch verstärken können. Und die Probleme können ganz subtil und 217 00:16:51,660 --> 00:16:55,749 banal sein wie zum Beispiel dieses Beispiel aus der statistischen Übersetzung 218 00:16:55,749 --> 00:16:59,500 zeigt: Jetzt muss man wissen, dass die türkische Sprache nicht zwischen 219 00:16:59,500 --> 00:17:04,279 Geschlechtern unterscheidet, das heißt „er", „sie" und „es" sind alle „o". Es 220 00:17:04,279 --> 00:17:07,669 gibt auch keine Unterscheidung zwischen „Arzt" und „Ärztin" beides „Doktor". Und 221 00:17:07,669 --> 00:17:11,869 wenn wir jetzt mit Google Translate oder einem anderen statistischen 222 00:17:11,869 --> 00:17:16,970 Übersetzungsprogramm Sätze wie „Er ist ein Babysitter." und „Sie ist eine Ärztin." 223 00:17:16,970 --> 00:17:21,449 hin und her übersetzen, dann stellen wir fest, dass die Übersetzung bestimmte 224 00:17:21,449 --> 00:17:23,140 Geschlechterklischees widerspiegelt. 225 00:17:23,140 --> 00:17:27,659 Und ihr könnt mit dem was ihr bisher über Machine Learning gelernt habt in diesem 226 00:17:27,659 --> 00:17:32,380 Vortrag vielleicht schon erklären, wie das passiert. Wir lernen aus Beispielen und in 227 00:17:32,380 --> 00:17:37,520 diesen Beispielen sind Verzerrungen. In diesem Fall mehr weibliche Babysitter, 228 00:17:37,520 --> 00:17:41,440 mehr männliche Ärzte. Denn wenn wir übersetzen dann berechnen 229 00:17:41,440 --> 00:17:45,080 wir ja Wahrscheinlichkeiten und nehmen in der Regel einfach das wahrscheinlichste 230 00:17:45,080 --> 00:17:49,169 Ergebnis. Das heißt selbst minimale Verzerrungen können verstärkt werden. Das 231 00:17:49,169 --> 00:17:54,539 heißt eine Babysitterin mehr, ein Arzt mehr und diese Übersetzung sieht so aus, 232 00:17:54,539 --> 00:17:59,299 wie wir sie gerade sehen. Aber hier haben wir etwas, das technisch erklärbar ist. 233 00:17:59,299 --> 00:18:03,010 Aber welche Auswirkungen hat das auf die NutzerInnen. Welche Auswirkungen hat das 234 00:18:03,010 --> 00:18:09,450 auf die Weltsicht, wenn man die Google- Ergebnisse so sieht wie man sie sieht. Und 235 00:18:09,450 --> 00:18:13,760 anhand von Facebook wollen wir jetzt zeigen, wie direkt und intransparent diese 236 00:18:13,760 --> 00:18:17,730 Beeinflussung sein kann. Auch Facebook ist ein hochkomplexes sozio-technisches 237 00:18:17,730 --> 00:18:22,760 System, in dem NutzerInnen gleichzeitig Produzenten und KonsumentInnen sind. 238 00:18:22,760 --> 00:18:28,690 Facebooks erklärtes Ziel lautet ja, jedem zu jeder Zeit die richtigen Inhalte zu 239 00:18:28,690 --> 00:18:34,250 zeigen. Dafür nutzt Facebook nach eigener Aussage hundert tausend verschiedene 240 00:18:34,250 --> 00:18:38,440 Faktoren, um algorithmisch die besten Geschichten aus den potenziellen 241 00:18:38,440 --> 00:18:40,159 Geschichten auszuwählen. 242 00:18:40,159 --> 00:18:44,549 Das heißt, wenn ihr euch jetzt vorstellt - das sind jetzt Zahlen aus dem Kosinski- 243 00:18:44,549 --> 00:18:50,750 Paper mit den Persönlichkeitsmerkmalen. Das heißt da haben die Leute im Median 200 244 00:18:50,750 --> 00:18:56,710 Bekannte und liken 68 Seiten. Das heißt wenn nur jeder Dritte was macht, dann sind 245 00:18:56,710 --> 00:19:00,970 das pro Tag 90 potenzielle Beiträge. Wenn man jetzt nur fünf oder zehn Minuten auf 246 00:19:00,970 --> 00:19:04,460 der Seite verweilt, dann kann man sich nicht angucken. Das heißt eine 247 00:19:04,460 --> 00:19:10,130 chronologische Darstellung ist zwecklos und eine Kuration unumgänglich. Und 248 00:19:10,130 --> 00:19:15,080 deswegen sortiert Facebook die Nachrichten nach einem Algorithmus. Das Problem ist 249 00:19:15,080 --> 00:19:18,240 aber, dass dieser Vorgang sehr intransparent ist. Das heißt die 250 00:19:18,240 --> 00:19:19,929 NutzerInnen sehen und verstehen die Algorithmen nicht 251 00:19:19,929 --> 00:19:25,000 Und die glauben im Zweifelsfall wenn sie darauf angesprochen werden, dass die 252 00:19:25,000 --> 00:19:30,179 Algorithmen objektiv und unabhängig sind. Und dabei beziehe ich mich auf folgende 253 00:19:30,179 --> 00:19:35,620 Studie. Die kommt aus der CHI, der Computer Human Interaction Community. Und 254 00:19:35,620 --> 00:19:42,180 dort waren sich 62,5% der Teilnehmer und Teilnehmerinnen in dieser Studie der 255 00:19:42,180 --> 00:19:47,659 Existenz von Newsfeed-Algorithmen, also von dieser algorithmischen Kuration, nicht 256 00:19:47,659 --> 00:19:51,830 bewusst. Das heißt wir haben hier eine qualitative Studie mit 40 TeilnehmerInnen, 257 00:19:51,830 --> 00:19:56,010 die so ausgewählt wurden, dass sie repräsentativ sind für die US- 258 00:19:56,010 --> 00:20:00,980 Grundgesamtheit. Und von denen war also 25 Personen nicht bewusst, dass überhaupt 259 00:20:00,980 --> 00:20:06,580 irgendwie sortiert wird. Die Studie zeigt auch, dass die TeilnehmerInnen durchaus 260 00:20:06,580 --> 00:20:11,029 verärgert sind, wenn sie Posts von engen Freunden oder Familienmitgliedern nicht 261 00:20:11,029 --> 00:20:15,960 sehen. Spannend ist aber jetzt: Die Teilnehmer suchen den Fehler eher bei sich 262 00:20:15,960 --> 00:20:19,330 oder anderen, als bei einem Algorithmus, von dem sie im Zweifelsfall auch nichts 263 00:20:19,330 --> 00:20:24,660 wissen. Sie glauben dann z.B. dass sie etwas übersehen haben oder sie denken, 264 00:20:24,660 --> 00:20:30,029 dass ihnen bestimmte Bekannte bewusst Geschichten vorenthalten, weil sie 265 00:20:30,029 --> 00:20:33,649 vielleicht nicht so gut miteinander bekannt sind, sich noch nicht so gut 266 00:20:33,649 --> 00:20:37,289 kennen. Daher kommt auch dieses titelgebende Zitat: "I always assumed that 267 00:20:37,289 --> 00:20:41,480 I wasn't really that close to [that person], so that's fine. What the hell?" 268 00:20:41,480 --> 00:20:45,130 Das heißt hier hat jemand gedacht "Okay, ich sehe die Babyfotos vielleicht nicht, 269 00:20:45,130 --> 00:20:49,490 weil ich die Person nicht so gut kenne, aber die Person hat das für alle geteilt". 270 00:20:49,490 --> 00:20:54,100 Und hier hat der Algorithmus jetzt die Entscheidung getroffen, dass Person A das 271 00:20:54,100 --> 00:20:59,590 Baby von Person B nicht sieht. Das heißt diese Systeme, die im Schatten agieren und 272 00:20:59,590 --> 00:21:04,090 denen sich die BenutzerInnen nicht bewusst sind, haben Auswirkungen auf 273 00:21:04,090 --> 00:21:08,370 zwischenmenschliche Beziehungen. Sie rekonfigurieren sie. Und darüber hinaus 274 00:21:08,370 --> 00:21:11,820 muss man sich auch noch einmal bewusst machen, was diese Nachrichten- 275 00:21:11,820 --> 00:21:15,899 Empfehlungssysteme eigentlich erreichen wollen. Sie sind ja von der Art her wie 276 00:21:15,899 --> 00:21:20,909 Netflix. Das heißt wenn ich auf Youtube oder einem anderen Portal mir Videos 277 00:21:20,909 --> 00:21:24,990 angucke und ich gucke mir zehn Videos an und davon sind vier mit lustigen Hunde- 278 00:21:24,990 --> 00:21:30,461 Babys, dann folgert das System "Ok, Hendrik mag lustige Hunde-Babys. Dem zeige 279 00:21:30,461 --> 00:21:34,701 ich jetzt in Zukunft mehr lustige Hunde- Babys". Nun sind aber auch Nachrichten auf 280 00:21:34,701 --> 00:21:39,350 Plattformen wie Youtube. Das heißt wenn ich mir jetzt zehn Videos angucke und von 281 00:21:39,350 --> 00:21:43,710 denen geht es in vielen darum, dass Flüchtlinge kriminell sind, dann empfiehlt 282 00:21:43,710 --> 00:21:48,720 mir das System Videos von kriminellen Flüchtlingen. Das heißt da passiert etwas 283 00:21:48,720 --> 00:21:55,169 mit meiner Weltwahrnehmung. Das heißt so derartige Filterblasen und Echokammern 284 00:21:55,169 --> 00:21:59,840 entstehen online. Die gibts natürlich auch im echten Leben. Der Freundeskreis ist 285 00:21:59,840 --> 00:22:04,701 auch eine Echokammer, in der bestimmte Weltvorstellungen geteilt werden, aber 286 00:22:04,701 --> 00:22:09,360 hier sind sie durchaus intransparenter, denn es passiert unter dem gleichen Logo. 287 00:22:09,360 --> 00:22:14,830 Bei mir ist ein YouTube-Logo, bei euch ist ein YouTube-Logo. Und das sind Probleme, 288 00:22:14,830 --> 00:22:18,190 denen wir uns stellen müssen, mit denen wir umgehen müssen. 289 00:22:18,190 --> 00:22:22,820 Und das war mein Teil zur Perspektive der Mensch-Computer-Interaktion, die sich also 290 00:22:22,820 --> 00:22:26,799 als eigenes Feld mit derartigen Fragestellungen auseinandersetzt. Und ich 291 00:22:26,799 --> 00:22:31,370 übergebe jetzt an Karen, die nochmal technisch ins Detail gehen wird. 292 00:22:31,370 --> 00:22:43,649 Applaus Karen: Ja. Zum ersten Teil dieser Präsentation 293 00:22:43,649 --> 00:22:48,309 zeigten wir, dass Algorithmen uns schon heute schon beeinflussen, bewusst und 294 00:22:48,309 --> 00:22:52,100 unbewusst, direkt und indirekt. Und wir haben gesehen mit welcher Rigorosität ihre 295 00:22:52,100 --> 00:22:57,220 Voraussagen umgesetzt werden, nachdem sie einmal zur Verfügung stehen. Das immer 296 00:22:57,220 --> 00:23:00,149 unter der Annahme der Unvoreingenommenheit. Wir haben auch 297 00:23:00,149 --> 00:23:04,470 bereits angedeutet, dass dieses massive Vertrauen nicht unbedingt angebracht ist. 298 00:23:04,470 --> 00:23:08,870 In diesem zweiten Teil der Präsentation möchten wir darauf eingehen wann dieses 299 00:23:08,870 --> 00:23:12,019 Vertrauen nicht angebracht ist. Dabei möchte ich besonders auf ein Wort 300 00:23:12,019 --> 00:23:17,320 eingehen, das wir bereits viel verwendet haben. Das Wort Bias oder zu Deutsch 301 00:23:17,320 --> 00:23:20,630 Verzerrung. Beim maschinellen Lernen können wir grundsätzlich in zwei 302 00:23:20,630 --> 00:23:24,050 verschiedene Formen von Bias unterscheiden. Auf der einen Seite haben 303 00:23:24,050 --> 00:23:29,320 wir Bias der Daten, also Bias der ein Spiegel ist unserer eigenen Vorurteile und 304 00:23:29,320 --> 00:23:33,090 Moralvorstellungen, ob uns das jetzt bewusst ist oder nicht. 305 00:23:33,090 --> 00:23:37,110 Bias in Daten kann aber auch entstehen ganz zufällig durch mangelhafte Erhebung 306 00:23:37,110 --> 00:23:42,890 von Daten. Wenn das passiert wird eine Grundgesamtheit also die Population 307 00:23:42,890 --> 00:23:48,580 verzerrt abgebildet. Auf der anderen Seite befindet sich der Bias durch das 308 00:23:48,580 --> 00:23:51,399 Modellieren. Das sind also die Gesamtheit aller 309 00:23:51,399 --> 00:23:54,370 Annahmen die Ingenieure und Wissenschaftler von Algorithmen machen und 310 00:23:54,370 --> 00:24:00,490 machen müssen, um überhaupt Voraussagen treffen zu können. Dabei kann sich 311 00:24:00,490 --> 00:24:08,120 wiederum der Bias des Modells so auf die Daten auswirken, dass der Bias in den 312 00:24:08,120 --> 00:24:11,919 Daten verringert wird. Dazu gibt es vielfältige Forschung. Es kann aber auch 313 00:24:11,919 --> 00:24:18,630 den Bias in den Daten verstärken. Auf der anderen Seite knn auch Bias in Daten den 314 00:24:18,630 --> 00:24:24,690 Modellier-Bias beeinflussen. Wir werden im Folgenden, den folgenden 4 Beispielen, uns 315 00:24:24,690 --> 00:24:28,860 mit all diesen Phänomenen auseinander- setzen. Maschinelles Lernen hat in den 316 00:24:28,860 --> 00:24:32,659 letzten Jahren viele Durchbrüche bei der algorithmischen Wahrnehmung erzielt. 317 00:24:32,659 --> 00:24:37,250 Algorithmen bewältigen kognitive Aufgaben, die vor kurzem in weiter Ferne schienen. 318 00:24:37,250 --> 00:24:42,220 Das hat aber auch eine Welle von Forschung ausgelöst, die unlösbar geglaubte Aufgaben 319 00:24:42,220 --> 00:24:46,809 wieder aufgreift und neu bewertet. Eine Studie dieser Welle ist im November 320 00:24:46,809 --> 00:24:52,779 letzten Jahres erschienen zwei Forscher der Shanghai Jiaotong-Universität 321 00:24:52,779 --> 00:24:57,620 behaupten zeigen zu können, dass man Menschen mit kriminellen Absichten bereits 322 00:24:57,620 --> 00:25:01,289 an einem einfachen Ausweis-Foto erkennen kann und dies mit 90 prozentiger 323 00:25:01,289 --> 00:25:06,669 Trefferwahrscheinlichkeit. Dieses Ergebnis steht natürlich im starken Kontrast zu den 324 00:25:06,669 --> 00:25:10,250 Forschungsergebnissen der letzten Dekaden, die Kriminalität eher sozio-ökonomischen 325 00:25:10,250 --> 00:25:14,019 Umständen zuschreiben. Wir wollen uns also im Folgenden mit dieser Studie ein 326 00:25:14,019 --> 00:25:19,929 bisschen näher beschäftigen. Die Autoren sammelten hierzu 1800 Fotos von Chinesen 327 00:25:19,929 --> 00:25:24,740 im Alter zwischen 18 und 55 Jahren, die keine bemerkbaren Gesichtsbehaarungen, 328 00:25:24,740 --> 00:25:30,120 Narben oder Tattoos zeigten. Dabei repräsentieren zirka 700 Fotos die Rubrik 329 00:25:30,120 --> 00:25:35,889 kriminell. Die Fotos selbst wurden von der Polizei bereitgestellt und es handelt sich 330 00:25:35,889 --> 00:25:39,669 bei allen Fotos um bereits verurteilte Straftäter. 331 00:25:39,669 --> 00:25:42,730 Auf der anderen Seite mussten nun auch Bilder rechtschaffender Bürger 332 00:25:42,730 --> 00:25:47,429 repräsentiert werden. Dafür wurden 1100 Fotos aus verschiedenen Quellen des 333 00:25:47,429 --> 00:25:50,750 Internets beschafft. Dabei ist anzunehmen, dass diese von Seiten wie LinkedIn 334 00:25:50,750 --> 00:25:55,190 stammen, da die Autoren den Beruf der vermeintlich rechtschaffenen kennen. Um 335 00:25:55,190 --> 00:25:59,679 uns nun ein besseres Bild über die Daten zu machen, wollen wir uns also ein paar 336 00:25:59,679 --> 00:26:03,710 Datenpunkte anschauen. Jeder dieser Reihe entsprechen drei 337 00:26:03,710 --> 00:26:07,629 Datenpunkte aus jeweils einer Kategorie kriminell oder rechtschaffend. 338 00:26:07,629 --> 00:26:10,450 Dazu würde ich ein kleines Experiment wagen. Also ich zähle dann gleich mal bis 339 00:26:10,450 --> 00:26:15,220 zwei und alle die glauben, die obere Reihe seien die Rechtschaffenden, die bitte ich 340 00:26:15,220 --> 00:26:20,429 dann die linke Hand zu heben. Ich hebe die rechte Hand, damit ihr wisst, welche Hand. 341 00:26:20,429 --> 00:26:24,140 Und diejenigen, die denken die untere Reihe wären die Rechtschaffenden, die 342 00:26:24,140 --> 00:26:27,320 bitte ich also die rechte Hand zu heben. Das können wir gleich mal probieren, also 343 00:26:27,320 --> 00:26:32,832 ich zähle nochmal bis 2: eins, zwei und dann heben wir halt die Hand. 344 00:26:32,832 --> 00:26:36,620 Okay. Also die meisten von uns sind uns relativ einig dass wir die rechtschaffenen 345 00:26:36,620 --> 00:26:40,549 identifizieren können. Aber warum können wir das? Eigentlich sollten Menschen dazu 346 00:26:40,549 --> 00:26:45,190 ja nicht in der Lage sein und wir wissen, dass wir dazu nicht in der Lage sind. 347 00:26:45,190 --> 00:26:49,870 Ich denke also die meisten von uns haben gewisse Hinweise in den Bildern 348 00:26:49,870 --> 00:26:53,490 wahrgenommen, die auf der Unterschiedlichkeit der Quellen beruhen. 349 00:26:53,490 --> 00:26:57,399 Also ganz offensichtlich hier der Kragen im Bild, der darauf hinweist, dass es 350 00:26:57,399 --> 00:27:02,380 vielleicht ein Bewerbungsfoto sein könnte oder ein leichtes Grinsen im Gesicht. 351 00:27:02,380 --> 00:27:07,440 Dahingegen sind die Leute, die auf der kriminellen Seite sind nicht besonders 352 00:27:07,440 --> 00:27:10,360 vorteilhaft dargestellt. Also dem Mann hier wird der Scheinwerfer ins Gesicht 353 00:27:10,360 --> 00:27:17,260 gestrahlt, was dann Hautunreinheiten und Falten besonders betont. Wohingegen bei 354 00:27:17,260 --> 00:27:21,049 den Bewerbungsfotos offensichtlich Make-Up im Spiel ist oder Photoshop. Im 355 00:27:21,049 --> 00:27:28,940 trivialsten Fall kann es also sein, dass der Algorithmus einfach nur erkennt, in 356 00:27:28,940 --> 00:27:32,710 welchen Fotos Photoshop nachgeholfen hat. Das kann man also zum Beispiel schon an 357 00:27:32,710 --> 00:27:37,500 lokalen Pixel Statistiken gut erkennen. Diese Studie ist vielleicht ein extremes 358 00:27:37,500 --> 00:27:41,910 Beispiel, wie gravierend sich die verwendeten Daten auf das Ergebnis einer 359 00:27:41,910 --> 00:27:45,730 Voraussage eines Algorithmus auswirken können. Dies ist ein besonders starkes 360 00:27:45,730 --> 00:27:50,360 Beispiel für Stichproben-Verzerrung, also Bias in dem Gruppen unterschiedlich 361 00:27:50,360 --> 00:27:53,710 dargestellt werden. Bias kann aber auch entstehen ganz 362 00:27:53,710 --> 00:27:57,190 zufällig, wenn zu wenige Datenpunkte vorhanden sind, um verlässliche Aussagen 363 00:27:57,190 --> 00:27:59,940 zu treffen. Solche Probleme sehen wir also oft in 364 00:27:59,940 --> 00:28:04,929 medizinischen Studien oder psychologischen Studien, wo Tests teuer und langwierig 365 00:28:04,929 --> 00:28:08,750 sind. Melde-Bias beschreibt, wenn Befragte 366 00:28:08,750 --> 00:28:11,379 unkorrekte Angaben machen. Das geschieht zum Beispiel oft bei 367 00:28:11,379 --> 00:28:15,529 Gewaltverbrechen, bei denen Angst und Repression eine Rolle spielen. Und 368 00:28:15,529 --> 00:28:20,140 natürlich spielen auch die verwendeten Merkmale, die ein gewisses Problem 369 00:28:20,140 --> 00:28:25,250 beschreiben sollen, eine große Rolle. Kommen wir nun zur zweiten Kategorie: dem 370 00:28:25,250 --> 00:28:29,049 Bias in den Modellen. Hat man sich früher also vor dem die 371 00:28:29,049 --> 00:28:33,590 Deeplearning-Hype, sagen wir mal vor 2012 eine Einführungsveranstaltung zum 372 00:28:33,590 --> 00:28:37,700 maschinellen Lernen gesetzt, dann begann fast jeder mit dem Erklären des No-free- 373 00:28:37,700 --> 00:28:44,659 Lunch-Theorems. Also der Aussage, dass kein Modell in allen möglichen Szenarien 374 00:28:44,659 --> 00:28:47,549 funktioniert. Daraus schlussfolgerten wir, dass wir 375 00:28:47,549 --> 00:28:52,820 Annahmen machen müssen, die das Modell im Hinblick auf unser spezifisches Problem 376 00:28:52,820 --> 00:28:58,120 beschränken. Diese Annahmen haben aber ihre Grenzen. Dann versagt das Modell, 377 00:28:58,120 --> 00:29:00,399 ohne dass sich das Modell darüber bewusst ist. 378 00:29:00,399 --> 00:29:07,230 Das heißt also unser Job als Wissenschaftler oder Studierender ist es, 379 00:29:07,230 --> 00:29:14,890 diese Grenzfälle zu benennen und zu testen, ob in unserem speziellen 380 00:29:14,890 --> 00:29:17,950 Anwendungsfall diese Algorithmen nicht versagen. 381 00:29:17,950 --> 00:29:23,029 An diesen Prinzipien hat sich auch bis heute nichts geändert, aber der Erfolg des 382 00:29:23,029 --> 00:29:25,490 maschinellen Lernens in bestimmten Bereichen lässt selbst uns 383 00:29:25,490 --> 00:29:29,610 WissenschaftlerInnen diese universalen Regeln manchmal vergessen. 384 00:29:29,610 --> 00:29:33,509 Wir sind dann versucht zu glauben, dass Modelle so flexibel sind, dass die Grenzen 385 00:29:33,509 --> 00:29:37,000 quasi nicht mehr existieren. Im Folgenden möchte ich aber auf ein 386 00:29:37,000 --> 00:29:40,970 Beispiel eingehen, das sich auch mit dem Deeplearning-Hype gar nicht geändert hat. 387 00:29:40,970 --> 00:29:46,750 Und das ist das Problem der Zielsetzung und die Frage, wie Erfolg zu bewerten ist. 388 00:29:46,750 --> 00:29:51,799 Am Beginn des Vortrags sprach Hendrik über das Messen von Fehlern und, dass das 389 00:29:51,799 --> 00:29:55,049 Korrigieren dieser Fehler ein wichtiger Mechanismus sei, um Algorithmen zu 390 00:29:55,049 --> 00:29:58,590 trainieren. Doch was ein Fehler ist, ist oft nicht 391 00:29:58,590 --> 00:30:02,200 einfach zu bestimmen und es liegt in der Hand des Ingenieurs zu definieren. 392 00:30:02,200 --> 00:30:04,321 Zum Beispiel wie messe ich Erfolg bei YouTube-Empfehlungen? 393 00:30:04,321 --> 00:30:09,150 Messe ich die Zeit die jemand auf der Plattform verbringt? Das kann aber auch 394 00:30:09,150 --> 00:30:12,220 bedeuten, dass der PC vielleicht noch einer Ecke steht und die Personen gar 395 00:30:12,220 --> 00:30:15,710 nicht mehr im Raum ist oder messe ich die Anzahl von Klicks? Aber wenn diese zu 396 00:30:15,710 --> 00:30:19,250 frequent sind, dann bedeutet das vielleicht, dass die Person das Video gar 397 00:30:19,250 --> 00:30:23,580 nicht mag. Ein anderes Problem sind Übersetzungen. 398 00:30:23,580 --> 00:30:32,170 Stellen Sie sich nur also vor, dass wir einen Korpus von Übersetzungen haben und 399 00:30:32,170 --> 00:30:36,380 wir wollen messen, ob ein Text richtig übersetzt wurde. 400 00:30:36,380 --> 00:30:43,620 Wie können wir das messen? Wort für Wort oder Paragraph für Paragraph? Wenn wir 401 00:30:43,620 --> 00:30:46,870 Wort für Wort messen, dann spielen wir vielleicht mit der Wortreihenfolge in 402 00:30:46,870 --> 00:30:49,299 verschiedenen Sprachen und das funktioniert dann nicht so gut. Wenn wir 403 00:30:49,299 --> 00:30:53,659 Paragraph für Paragraph messen, funktioniert das vielleicht nicht so gut, 404 00:30:53,659 --> 00:30:58,179 weil der Algorithmus den Kontext nicht mehr begreift. Und wie gehen wir mit 405 00:30:58,179 --> 00:31:01,130 Synonymen um? Wenn also der Algorithmus ein richtiges Synonymen gefunden hat, wird 406 00:31:01,130 --> 00:31:04,720 dann trotzdem ein Fehler berechnet, wenn der spezielle Datenpunkt besagt, dass das 407 00:31:04,720 --> 00:31:08,340 vielleicht als ein anderes Synonym zu übersetzen ist? Man muss also 408 00:31:08,340 --> 00:31:13,299 Entscheidungen treffen. Die Ingenieure bei Google und anderen führenden 409 00:31:13,299 --> 00:31:20,970 Übersetzungssystem beantworten die Frage folgendermaßen: Wir übersetzen Satz für 410 00:31:20,970 --> 00:31:25,880 Satz. Dabei gehen wir davon aus, dass Sätze unabhängig sind und nur das 411 00:31:25,880 --> 00:31:30,049 wahrscheinlichste Wort oder die wahrscheinlichste Phrase wird richtig 412 00:31:30,049 --> 00:31:35,380 bewertet. Wenn wir also nochmal auf das Beispiel aus der ersten Hälfte des 413 00:31:35,380 --> 00:31:40,360 Vortrags eingehen. Wenn wir nun "Sie ist eine Frau. Sie ist Ärztin" in 414 00:31:40,360 --> 00:31:45,690 das genderneutrale Türkisch übersetzen zu "O bir kadın. O bir doktor." und dann 415 00:31:45,690 --> 00:31:51,090 zurückübersetzen ins Deutsche, dann wird dies mit "Sie ist eine Frau. Er ist Arzt" 416 00:31:51,090 --> 00:31:55,200 übersetzt. Und jetzt wissen wir auch warum. Da wir annahmen, dass Sätze 417 00:31:55,200 --> 00:31:58,779 unabhängig sind weiß der Algorithmus gar nichts vom Kontext, also dass wir hier 418 00:31:58,779 --> 00:32:04,580 über eine Frau sprechen. Wenn der Algorithmus "O bir doktor" dann übersetzt, 419 00:32:04,580 --> 00:32:08,360 übersetzt der nur die wahrscheinlichste Phrase und die ist "Er ist Arzt". Es 420 00:32:08,360 --> 00:32:12,389 handelt sich hier also nicht um Bias in den Daten oder zumindest nicht unbedingt, 421 00:32:12,389 --> 00:32:20,009 sondern um Bias in den Annahmen die das Modell zu sehr vereinfachen. Ein zweites 422 00:32:20,009 --> 00:32:23,289 Beispiel führt das noch klarer vor Augen. Wenn wir hier eben den Punkt durch ein 423 00:32:23,289 --> 00:32:30,830 Komma ersetzen, dann kann der Algorithmus es richtig übersetzen, weil er sich des 424 00:32:30,830 --> 00:32:36,970 Kontexts bewusst ist. Im nächsten Beispiel um das Phänomen Bias wollen wir zeigen wie 425 00:32:36,970 --> 00:32:39,909 Bias in Modellen Bias in Daten verstärken kann. 426 00:32:39,909 --> 00:32:44,820 Dies wird besonders in sogenannten aktiven Lernszenarien bewusst. Aktives Lernen 427 00:32:44,820 --> 00:32:52,190 funktioniert wie folgt. Wir haben Daten, auf deren Grundlage wir einen Algorithmus 428 00:32:52,190 --> 00:32:55,990 lernen. Für manche Voraussagen sind wir uns aber nicht sicher. Darum fragen wir 429 00:32:55,990 --> 00:32:59,990 einen menschlichen Experten um Rat und der Algorithmus fragt dann meistens die 430 00:32:59,990 --> 00:33:06,950 folgende Frage: Habe ich diesen Datenpunkt richtig bewertet? Und falls nicht, bitte 431 00:33:06,950 --> 00:33:11,970 um Feedback! Das führt dazu, dass der Algorithmus in der Zukunft mehr Daten zur 432 00:33:11,970 --> 00:33:16,309 Verfügung gestellt bekommt, um dann besser zu lernen und weniger oft um Hilfe fragen 433 00:33:16,309 --> 00:33:22,070 zu müssen. Das klingt gut. Und so viel zum störungsfreien Ablauf. Was aber nun wenn 434 00:33:22,070 --> 00:33:27,070 ein Datenpunkt mit falschen oder verzerrten Merkmalen beschrieben wird? Und 435 00:33:27,070 --> 00:33:31,399 dazu kommt, dass unser Mensch vielleicht nicht so wachsam ist, wie wir in unserem 436 00:33:31,399 --> 00:33:37,420 Modell annehmen. Wir haben also eine kleine Verzerrung im Datensatz, und die 437 00:33:37,420 --> 00:33:42,710 Annahme des idealen Menschen wird verletzt in unserem eigentlichen Phänomen. Dieser 438 00:33:42,710 --> 00:33:47,909 falsche Datenpunkt wird also ignoriert. Das führt dann dazu, dass, obwohl die 439 00:33:47,909 --> 00:33:52,490 Ursache der Verzerrung nicht mehr aktiv ist, dieser Datenpunkt nun vermehrt wird 440 00:33:52,490 --> 00:33:57,000 aufgrund der Tatsache, dass der Mensch nicht auf die Frage, habe ich diesen 441 00:33:57,000 --> 00:34:02,512 Datenpunkt richtig bewertet, reagiert. Und das führt dann wiederum dazu, wenn man 442 00:34:02,512 --> 00:34:04,720 mehr verzerrte Daten hat, dass diese mehr 443 00:34:04,720 --> 00:34:08,590 verzerrten Daten sich immer weiter vermehren können. Wann kann ich das also 444 00:34:08,590 --> 00:34:13,710 jetzt in freier Wildbahn beobachten? Es ist relativ schwer zu sagen, weil sich 445 00:34:13,710 --> 00:34:16,600 natürlich solche großen Player wie Google oder Facebook nicht immer in die Karten 446 00:34:16,600 --> 00:34:21,320 blicken lassen. Aber ich denke ein Tweet aus dem vergangenen Jahr lässt darauf 447 00:34:21,320 --> 00:34:27,090 schließen, dass das vielleicht hier passiert sein könnte. Also eine 448 00:34:27,090 --> 00:34:30,679 Afroamerikanerin mit Kussmund, in der Mitte unten, wird hier als Gorilla 449 00:34:30,679 --> 00:34:33,489 bezeichnet. Das ist eine geschichtsträchtige Bezeichnung für 450 00:34:33,489 --> 00:34:37,130 Afroamerikaner in Amerika und hat natürlich große Wellen geschlagen. Google 451 00:34:37,130 --> 00:34:41,190 erklärt die Ursache des Fehlers nicht genau genug, um genau zu wissen, was ihn 452 00:34:41,190 --> 00:34:46,670 ausgelöst hat, aber zwei Probleme können eine Rolle gespielt haben. Eins wäre, dass 453 00:34:46,670 --> 00:34:50,320 die Bildbeschreibung immer von Menschen bereitgestellt wird, und die erlauben sich 454 00:34:50,320 --> 00:34:55,679 gerne mal zu trollen und verfälschen das originale Datenset damit. Das kann aber 455 00:34:55,679 --> 00:34:59,180 nicht die einzige Ursache sein. Es kommt also mindestens noch dazu, dass gewisse 456 00:34:59,180 --> 00:35:02,180 Gruppen von Menschen entweder einfach sehr klein sind in einer Gesellschaft oder 457 00:35:02,180 --> 00:35:06,480 unterrepräsentiert sind. Und vielleicht auch drittens, man muss schon sagen dass 458 00:35:06,480 --> 00:35:11,650 bei großen Tech-Firmen sehr wenig Grenzszenarien oder Szenarien getestet 459 00:35:11,650 --> 00:35:15,560 werden. Wir denken da zum Beispiel an den Microsoft Chatbot, der ganz ähnliche 460 00:35:15,560 --> 00:35:22,130 Phänomene gezeigt hat. Also der dann auch sehr rassistische Chat-Nachrichten 461 00:35:22,130 --> 00:35:26,880 geschrieben hat. Das letzte relevante Beispiel zum Thema Bias soll aus dem 462 00:35:26,880 --> 00:35:32,130 Bereich des übertragenden Lernens kommen. Hierbei ist das Ziel das Lösen einer 463 00:35:32,130 --> 00:35:37,490 Aufgabe. Und diese Aufgabe hat aber nur wenige Datenpunkte. Und das sind nicht 464 00:35:37,490 --> 00:35:40,960 genug, um den Algorithmus erfolgreich lernen zu lassen. Aber es gibt eine 465 00:35:40,960 --> 00:35:44,950 ähnliche Aufgabe, die erfolgreich gelöst werden kann. Und die Idee ist nun, dass 466 00:35:44,950 --> 00:35:50,100 gut funktionierende Modell zu verwenden um unseren eigentlichen Problemen zu helfen. 467 00:35:50,100 --> 00:35:57,310 Diese Technik führt aber wieder zu Verzerrungen, die nur schwer bestimmt und 468 00:35:57,310 --> 00:36:00,750 kontrolliert werden können. Das wird klar, wenn wir ein konkretes 469 00:36:00,750 --> 00:36:04,440 Beispiel betrachten. Wir können eine ganze Halle voll Roboterarme stellen, um ihnen 470 00:36:04,440 --> 00:36:10,180 bestimmte motorische Aufgaben beizubringen. Aber selbst 1000 Roboterarme 471 00:36:10,180 --> 00:36:17,530 lernen nur mühsam. Was also gang und gäbe ist in der modernen Robotik, sind dass man 472 00:36:17,530 --> 00:36:23,020 Systeme in Simulationen üben lässt. Systeme werden also für Tausende Jahre in 473 00:36:23,020 --> 00:36:26,730 Simulationen geübt. Das ist natürlich aber nie Realität. Also wir denken da an 474 00:36:26,730 --> 00:36:31,540 Gravitationssimulationen, die Fehler enthalten kann. Lichtbedingungen, die 475 00:36:31,540 --> 00:36:34,910 nicht ganz real sind, oder der idealisierte Roboterarm, der hier 476 00:36:34,910 --> 00:36:40,190 verwendet wird. In diesem Zusammenhang möchte ich auch sagen, wie attraktiv auch 477 00:36:40,190 --> 00:36:44,100 die Zukunft mit selbstfahrenden Autos erscheinen mag, mit ihren Versprechen nach 478 00:36:44,100 --> 00:36:47,970 mehr Platz in den Städten, weniger Unfällen und effektiverer Verkehrsführung, 479 00:36:47,970 --> 00:36:51,581 so sollte man auch sehr skeptisch sein, denn auch diese Systeme haben die meiste 480 00:36:51,581 --> 00:36:58,840 Lebenserfahrung in Simulationen gesammelt. Eine ganz andere Betrachtungsweise auf 481 00:36:58,840 --> 00:37:03,140 Daten ist die der Datendichte. Daten können dicht beieinander liegen oder weit 482 00:37:03,140 --> 00:37:09,380 voneinander entfernt. In Bereichen mit vielen Daten ist es oft einfach korrekte 483 00:37:09,380 --> 00:37:13,650 Aussagen zu treffen. Neue Datenpunkte in diesen Bereichen zu beschreiben nennt man 484 00:37:13,650 --> 00:37:18,640 Interpolation. Wohingegen Bereiche mit wenigen Daten oder keinen Datenpunkten 485 00:37:18,640 --> 00:37:22,920 sehr schwer zu beschreiben sind. Diese Aufgabe beschreibt man mit Extrapolation. 486 00:37:22,920 --> 00:37:27,692 Korrektes extrapolieren ist im Allgemeinen nicht möglich oder nur möglich, wenn man 487 00:37:27,692 --> 00:37:30,500 korrekte Annahmen über den Entstehungsprozess der Daten macht. 488 00:37:30,500 --> 00:37:35,790 Interpolieren, also das Wandern von einem oder mehreren Datenpunkte zum anderen, 489 00:37:35,790 --> 00:37:40,570 kann so wichtige Fragen des Alltags beantworten wie: Wie würde das Kind von 490 00:37:40,570 --> 00:37:46,650 Kim Jong-un und Donald J. Trump aussehen? Neueste Anwendungen dieser Technik 491 00:37:46,650 --> 00:37:51,280 beinhalten auch das gezielte Verändern von Video in Bild und Sprache. Beispielsweise 492 00:37:51,280 --> 00:37:55,470 wurde hier das Gesicht von der Hauptdarstellerin des Wonder Woman Films, 493 00:37:55,470 --> 00:38:01,670 Gal Gadot, auf einen pornografischen Film gelegt. Und man muss nicht weit denken um 494 00:38:01,670 --> 00:38:03,370 sich die Konsequenzen solcher Techniken, für 495 00:38:03,370 --> 00:38:07,440 Fake News zum Beispiel, vorzustellen. Im extremsten Fall 496 00:38:07,440 --> 00:38:12,420 gibt es sehr wenige oder keine Daten wo eine Aussage getroffen werden soll. Nun 497 00:38:12,420 --> 00:38:16,220 ist es wichtig, die richtigen Annahmen zu treffen um extrapolieren zu können. Das 498 00:38:16,220 --> 00:38:20,730 haben wir bereits gesagt. Das ist aber eine extrem schwere Aufgabe, zu der auch 499 00:38:20,730 --> 00:38:24,750 moderne Wissenschaft nur wenige und unvollständige Antworten weiß. Was also 500 00:38:24,750 --> 00:38:28,331 anstatt in aller Regel passiert, ist, dass Algorithmen keine Annahmen machen. Und das 501 00:38:28,331 --> 00:38:33,630 kann zu unvorhergesehenen Phänomenen führen. Im schlimmsten Fall kann man 502 00:38:33,630 --> 00:38:38,530 dieses Wissen auch nutzen zu sogenannten feindlichen Attacken auf Algorithmen. Eine 503 00:38:38,530 --> 00:38:43,340 Attacke verläuft beispielsweise so: Man nehme einen Datenpunkt aus dem Datenset 504 00:38:43,340 --> 00:38:47,430 und dessen beschreibende Merkmale, also hier z.B. die Bilder von Verkehrsschildern 505 00:38:47,430 --> 00:38:48,430 und die Verkehrsschilder. 506 00:38:48,430 --> 00:38:49,430 [38:48] 507 00:38:49,430 --> 00:38:54,090 Man suche dann fernab von den Daten einen Punkt der sehr ähnlich ist, den aber der 508 00:38:54,090 --> 00:38:58,830 Algorithmus mit all mit einem ganz anderen Merkmal beschreiben würde. Und das 509 00:38:58,830 --> 00:39:08,910 gruselige ist, dass dies auch funktioniert mit ausgedruckten Version derselben 510 00:39:08,910 --> 00:39:13,580 Attacke. Und wenn man nicht dieselben Daten und nicht einmal denselben dasselbe 511 00:39:13,580 --> 00:39:19,470 Modell kennt oder verwendet. Wen das interessiert dem empfehle ich sehr für die 512 00:39:19,470 --> 00:39:22,700 nächste Präsentation zu bleiben. Das wird glaube ich ja der Kernpunkt der nächsten 513 00:39:22,700 --> 00:39:27,780 Präsentation sein. Abschließend zum Thema Möchte ich nochmal ganz deutlich machen, 514 00:39:27,780 --> 00:39:33,350 dass in allen Systemen des modernen maschinellen Lernens Korrelation evaluiert 515 00:39:33,350 --> 00:39:39,320 wird und nicht Kausalität. Mathematische Kausalitätsforschung, also dem Suchen nach 516 00:39:39,320 --> 00:39:43,450 Ursache und Effekt für komplexe Systeme ist erstens ein Kinderschuh und 517 00:39:43,450 --> 00:39:47,440 Korrelation zu finden und zu beschreiben ist nur einer der Schritte der dazu nötig 518 00:39:47,440 --> 00:39:53,320 ist. Bevor ich die Frage dann- die Runde für Fragen öffne haben Hendrik und ich 519 00:39:53,320 --> 00:39:56,050 noch ein Anliegen. Also ich hoffe wir haben umfassend die technischen 520 00:39:56,050 --> 00:40:00,220 Möglichkeiten des maschinellen Lernens dargestellt und welche Begrenzungen es 521 00:40:00,220 --> 00:40:06,150 aufweist. Letzteres soll und wird uns als Gesellschaft aber nicht davon abhalten 522 00:40:06,150 --> 00:40:11,140 diese großartigen Fortschritte zu geniessen. Also denken wir an Mediziner 523 00:40:11,140 --> 00:40:14,850 und Molekulare Biologie in denen diese Techniken großes Versprechen und auch 524 00:40:14,850 --> 00:40:19,740 schon geliefert haben. Daraus ergeben sich trotzdem große politische Fragen die uns 525 00:40:19,740 --> 00:40:23,490 alle etwas angehen. Entscheidungen die Wissenschaftler nicht alleine treffen 526 00:40:23,490 --> 00:40:28,570 können, wollen oder sollten. Also wir müssen uns Sachen fragen wie: Wer soll im 527 00:40:28,570 --> 00:40:32,810 konkreten Fall Entscheidungen treffen, Menschen oder Maschinen. Wer ist Schuld 528 00:40:32,810 --> 00:40:38,500 wenn Fehler passieren: Ingenieure, Firmen, Staat oder vielleicht gar niemand. Wie 529 00:40:38,500 --> 00:40:44,290 können staatliche Garantien wie Gleichheit juristisch umgesetzt werden im Angesicht 530 00:40:44,290 --> 00:40:49,700 solcher neuen Algorithmen. Und natürlich auch wie können Algorithmen oder sollten 531 00:40:49,700 --> 00:40:53,390 Algorithmen reguliert werden. An der Stelle möchte ich mich bedanken für 532 00:40:53,390 --> 00:40:57,070 Aufmerksamkeit und würde die Runde eröffnen für Fragen. 533 00:40:57,070 --> 00:41:12,620 Herald-Angel: Vielen Dank Karen, vielen 534 00:41:12,620 --> 00:41:19,430 Dank Hendrik. Wenn ihr Fragen habt, bitte an den Mikros aufstellen. Und dann 535 00:41:19,430 --> 00:41:21,770 entsprechend warten. Mikrophon 1 bitteschön. 536 00:41:21,770 --> 00:41:24,420 Mikrofon 1: Ja, vielen Dank für den 537 00:41:24,420 --> 00:41:31,360 großartigen Vortrag, war super spannend und es ist ein sehr sehr wichtiges Thema, 538 00:41:31,360 --> 00:41:35,900 wie gehen wir damit um, weil es wirklich Auswirkungen hat auf die politische 539 00:41:35,900 --> 00:41:41,650 Organisation, auf die Demokratie, all diese Sachen. Jetzt vom Beispiel das 540 00:41:41,650 --> 00:41:45,250 Hendrik gebracht hat, im ersten Teil ging's ja jetzt auch zum Beispiel über die 541 00:41:45,250 --> 00:41:51,820 Anwendung von KI für ja sagen wir politische Propaganda, könnte man auch 542 00:41:51,820 --> 00:41:58,300 sehen, Cambridge Analytica, die ganzen Sachen und gleichzeitig als zweites Thema 543 00:41:58,300 --> 00:42:03,720 die Filterbubbles die sich bilden, also wo natürlich eine Verstärkung dieses 544 00:42:03,720 --> 00:42:09,100 Phaenomens möglich ist. Meine Frage, die ich mich in diesem Jahr gestellt habe, mit 545 00:42:09,100 --> 00:42:19,580 Brexit, mit Trumpwahlen und so weiter, was sind die Möglichkeiten die sich bieten um 546 00:42:19,580 --> 00:42:26,890 dem entgegenzuwirken, dass sich Meinungen so stark durch Filterbubbles polarisieren, 547 00:42:26,890 --> 00:42:33,860 dass Leute durch Targeted Advertisement beeinflusst werden, die mit AI generiert 548 00:42:33,860 --> 00:42:41,060 werden und Big Data. Wie ja- habt ihr konkrete Vorschläge? 549 00:42:41,060 --> 00:42:44,060 Hendrik: Vielen Dank für die Frage. Es 550 00:42:44,060 --> 00:42:47,900 geht also darum was man jetzt gegen diese Probleme insbesondere im politischen 551 00:42:47,900 --> 00:42:52,620 Bereich machen kann. Und es ist natürlich eine riesige Frage, wird uns warscheinlich 552 00:42:52,620 --> 00:42:57,400 auch noch lange Begleiten, ich glaube kognitive Diversität im Bekannten- und 553 00:42:57,400 --> 00:43:02,630 Freundeskreis, ganz wichtig, vor allem aber auch in Unternehmen. Und unsere Ansätze, so 554 00:43:02,630 --> 00:43:06,490 kommen sie ja zusammen, mir gehts ja darum wie können wir Leute untersützten, wie 555 00:43:06,490 --> 00:43:09,931 machen wir Visualisierungen, wie machen wir Algorithmen sichtbar, wie helfen wir 556 00:43:09,931 --> 00:43:13,861 den Leuten zu verstehen was da passiert. Meine Perspektive, Karens Perspektive 557 00:43:13,861 --> 00:43:17,300 dann: Wie können wir die ALgorithmen, die Blackbox aufmachen, wie können wir 558 00:43:17,300 --> 00:43:21,200 erklären, wie kann ein System auch sagen wie sicher es ist mit seiner Vorhersage. 559 00:43:21,200 --> 00:43:28,280 Also es gibt ja auch viel Arbeit, es gibt die Fairness, Transparency... Fairness, 560 00:43:28,280 --> 00:43:32,230 Accountability, and Transparency in Machine Learning fatml.org. Da gibt es 561 00:43:32,230 --> 00:43:35,630 eine ganz große Gruppe von Leuten die sich damit auseinandersetzt, auch aus ganz 562 00:43:35,630 --> 00:43:39,070 verschiedenen Richtungen, weil es gibt viel Arbeit dazu in der Psychologie, in 563 00:43:39,070 --> 00:43:43,700 der Soziologie, aber auch halt in der Informatik. Genau fatml.org ist eine sehr 564 00:43:43,700 --> 00:43:44,700 gute Addresse für sowas. 565 00:43:44,700 --> 00:43:50,630 Herald-Angel: Eine Bitte an die, die gerade rausgehen: Macht das bitte so leise 566 00:43:50,630 --> 00:43:54,010 wie es geht und versucht durch die Tür zu meiner Linken, zu eurer Rechten dort 567 00:43:54,010 --> 00:44:00,790 hinten, den Saal zu verlassen, danke schön. 568 00:44:00,790 --> 00:44:04,790 Jawohl, Mikrofon 5, du hast eine Frage? 569 00:44:04,790 --> 00:44:08,960 Mikrophon 5: Ja, eher ein kurzer Kommentar aus dem Bereich des Machine Learnings, ist 570 00:44:08,960 --> 00:44:13,170 das, was wir da gesehen haben bei der bei dem Gorillabeispiel, ebenso bei dem 571 00:44:13,170 --> 00:44:18,550 Übersetzungsbeispiel nicht eher ein Bias in der Kostenfunktion? Dadurch, dass wir 572 00:44:18,550 --> 00:44:22,380 dem Algorithmus gesagt haben, es ist genauso teuer, wenn du die Klasse Gorilla 573 00:44:22,380 --> 00:44:27,410 mit der Klasse mit einer anderen Klasse verwechselst, versus, dass wir die 574 00:44:27,410 --> 00:44:33,470 Oberklasse Mensch mit der Oberklasse Tier verwechselst, oder in dem Genderbeispiel 575 00:44:33,470 --> 00:44:37,900 dass "Er" und "Sie" als Verwechselung eines einzelnen Worts genauso teuer sind 576 00:44:37,900 --> 00:44:40,800 wie beliebige andere Worverwechselungen. 577 00:44:40,800 --> 00:44:44,620 Hendrik: Sehr guter Punkt. Also man kann natürlich in der Kostenfunktion dagegen 578 00:44:44,620 --> 00:44:48,350 vorwirken, man kann sagen dieser Fehler ist schlimmer für uns als der andere 579 00:44:48,350 --> 00:44:53,150 Fehler, aber wenn wir davon ausgehen, dass alle Klassen gleich sind und wir einfach 580 00:44:53,150 --> 00:44:56,550 für alle Klassen gleich gute Ergebnisse haben wollen, und das kommt ja aus Google 581 00:44:56,550 --> 00:45:01,030 Fotos, wo wir das für alle Kategorien machen wollen, dann ist es halt da kommt 582 00:45:01,030 --> 00:45:04,180 der Mensch wieder rein. Das ist dann nichtmehr allgemeines Machine Learning, 583 00:45:04,180 --> 00:45:07,520 sondern wieder so Frickellösung. Und dieses Problem des Bias, und darum gings 584 00:45:07,520 --> 00:45:11,160 ja, ist einfach dem Machine Learning inherent, und wir müssen damit umgehen. 585 00:45:11,160 --> 00:45:14,110 Und ich glaube nicht, dass man das einfach in die Kostenfunktion schreiben kann. Oder 586 00:45:14,110 --> 00:45:15,560 willst du noch was dazu sagen? 587 00:45:15,560 --> 00:45:21,770 Karen: Ja der Punkt von dem Beispiel war ja auch quasi wie einerseits da muss ein 588 00:45:21,770 --> 00:45:27,240 falscher Datenpunkt exestiert haben, und wie das quasi durch die ein Bias 589 00:45:27,240 --> 00:45:30,350 vielleicht, oder eine Annahme in der Kostenfunktion dann eigentlich noch viel 590 00:45:30,350 --> 00:45:34,900 verstärkt wird. Es geht ja darum wie quasi eine Negativ-Spirale manchmal losgetreten 591 00:45:34,900 --> 00:45:38,240 werden kann. Dadurch, dass wir einerseits Bias in den Daten haben, aber auch andere 592 00:45:38,240 --> 00:45:42,750 gewisse Annahmen machen, die vielleicht die Realität zu sehr vereinfachen. 593 00:45:42,750 --> 00:45:44,540 Das war ja der Punkt dieses Beispiels. 594 00:45:44,540 --> 00:45:47,670 Hendrik: Und vielleicht dazu noch: Das sind natürlich sehr offensichtliche 595 00:45:47,670 --> 00:45:50,970 Beispiele, auch um das hier deutlich zu machen. Es gibt natürlich auch immer diese 596 00:45:50,970 --> 00:45:55,220 Blindstellen, Blindspots, wo halt was passiert, von dem wir das garnicht wissen. 597 00:45:55,220 --> 00:45:57,530 Das ist ja auf eine Art auch ein Blindspot, der vielleicht auch damit 598 00:45:57,530 --> 00:46:02,260 zusammenhängt, dass Google nicht divers genug ist und nicht genug Leute derartige 599 00:46:02,260 --> 00:46:04,940 Daten damit getestet haben, bevor sie es public gemacht haben. 600 00:46:04,940 --> 00:46:08,450 Herald-Angel: Mikrophon 1, deine Frage. 601 00:46:08,450 --> 00:46:11,420 Mikrophon 1: Ja vielen Dank, euer Vortrag 602 00:46:11,420 --> 00:46:15,290 war ja so ein bischen als Einführung gedacht, das Thema auf die Agenda zu 603 00:46:15,290 --> 00:46:17,750 bringen, was ich ganz großartig finde, aber deswegen hätte ich jetzt eher so eine 604 00:46:17,750 --> 00:46:21,820 Kommunikationsstrategische Frage. Ihr habt ja ganz viel über Bias gesprochen, über 605 00:46:21,820 --> 00:46:25,260 Verzerrung, wenn man das so sagt denkt man implizit ganz oft an neutral und 606 00:46:25,260 --> 00:46:29,940 Unverzerrt, und ich fands toll, du hattest ja das No-Free-Lunch-Theorem da, also 607 00:46:29,940 --> 00:46:33,250 sagen: Machine Learning ohne Bias gibt's garnicht, du hast auch gerade gesagt, das 608 00:46:33,250 --> 00:46:36,920 ist Machine-Learning inherent. Aber das ist ja ganz wichtig zu sagen, deswegen 609 00:46:36,920 --> 00:46:40,080 wollte ich einfach mal fragen wenn es um politische Debatten geht, um öffentliche 610 00:46:40,080 --> 00:46:44,260 Debatten geht, ob ihr dann denkt, dass Bias und Verzerrung sozusagen der richtige 611 00:46:44,260 --> 00:46:48,770 Header ist, um das alles zu thematisieren. Weil es eben dieses Neutrale, Unverzerrte 612 00:46:48,770 --> 00:46:52,880 immer mit impliziert, oder ihr denkt, dass man das dann nochmal anders framen müsste. 613 00:46:52,880 --> 00:46:54,890 Hendrik: Wir sind aufjedenfall keine 614 00:46:54,890 --> 00:46:59,410 Kommunikationsstrategen. Es gibt natürlich viele hervorragende Mediensoziologen, 615 00:46:59,410 --> 00:47:02,650 Kommunikationswissenschaftler, die das warscheinlich viel besser machen können. 616 00:47:02,650 --> 00:47:07,950 Wir wollten jetzt erstmal in diesem Rahmen zeigen, welche Probleme wir als Techniker, 617 00:47:07,950 --> 00:47:12,380 als Informatiker - wir promovieren ja beide zu diesen Themen - sehen. Also... 618 00:47:12,380 --> 00:47:16,520 Also das ist wird uns ja aber auch noch sehr lange beschäftigen, das richtig an 619 00:47:16,520 --> 00:47:17,520 die Leute zu bringen. 620 00:47:17,520 --> 00:47:22,860 Herald-Angel: Okay, Dankeschön. Wir haben eine Frage aus dem IRC. 621 00:47:22,860 --> 00:47:25,540 Signal-Angel: Ja, danke, eine Frage aus 622 00:47:25,540 --> 00:47:28,530 dem Internet: Hat menschliches Lernen nicht genau genommen die selben Probleme 623 00:47:28,530 --> 00:47:32,730 wie maschienelles Lernen? Oder gibt es da im Prinzipiellen Unterschiede? 624 00:47:32,730 --> 00:47:38,750 Hendrik: Ich guck mal zu dir. 625 00:47:38,750 --> 00:47:42,590 Karen: Also, das ist eine Frage, die 626 00:47:42,590 --> 00:47:44,441 natürlich nicht nur das maschienelle Lernen betrifft, sondern auch die 627 00:47:44,441 --> 00:47:48,690 Psychologie, oder die Evolutionsforschung, zu der ich mich nicht auskenne. Der 628 00:47:48,690 --> 00:47:56,680 Algorithmus oder die Idee, die Grundidee des maschienellen Lernens ist ja quasi 629 00:47:56,680 --> 00:48:01,720 Fehler festzustellen, und die dann zu kommunizieren und das Modell wird dann 630 00:48:01,720 --> 00:48:05,890 daraufhin besser. Ob das jetzt bei uns Menschen so funktioniert, ich bin mir 631 00:48:05,890 --> 00:48:12,250 nicht sicher ob das jemals jemand genauso gesagt hat. Aber ich glaube im Sinne von, 632 00:48:12,250 --> 00:48:19,020 dass unser Gehirn optimiert, das wird, oder das habe ich bestreiten gehört von 633 00:48:19,020 --> 00:48:24,400 Psychologen. Also die Frage ist nicht so sehr wie, oder das Problem, dass ich mit 634 00:48:24,400 --> 00:48:26,770 der Frage habe ist nicht so sehr wie jetzt das maschienelle Lernen funktioniert, 635 00:48:26,770 --> 00:48:29,590 sondern wie wir selbst funktionieren. Ich glaube wir sind gerade auf dem Weg das 636 00:48:29,590 --> 00:48:34,540 herauszufinden und die Modelle des Machine Learnings, maschienellen Lernens sind oft 637 00:48:34,540 --> 00:48:39,100 nur grobe Vereinfachungen dafür wie wir selbst funktioneren. 638 00:48:39,100 --> 00:48:40,790 Hendrik: Genau, ich würde auch sagen, es 639 00:48:40,790 --> 00:48:44,930 ist bio-inspiriert, aber es gab auch eine Zeit wo alles Maschienen waren, der Körper 640 00:48:44,930 --> 00:48:48,550 als Maschine. Das ist halt die Metapher ihrer Zeit. Jetzt haben wir diese 641 00:48:48,550 --> 00:48:52,400 künstlichen neuronalen Netzwerke und jetzt sind das die Metaphern, die wir nutzen, 642 00:48:52,400 --> 00:48:55,570 also ich glaube da ist ein fundamentaler Unterschied zwischen menschlichem und 643 00:48:55,570 --> 00:48:56,570 künstlichem Lernen. 644 00:48:56,570 --> 00:49:00,530 Karen: Ja es gibt auch so einen zentralen Leitsatz im maschinellen Lernen, der 645 00:49:00,530 --> 00:49:05,170 besagt, dass alle Modelle falsch sind, und einige vielleicht nützlich sind. Und ich 646 00:49:05,170 --> 00:49:08,470 denke das trifft auch auf uns Menschen zu, alle Modelle die wir verwenden, alle 647 00:49:08,470 --> 00:49:11,510 Annahmen die wir machen, alle Stereotypen die wir benutzen, die sind vielleicht 648 00:49:11,510 --> 00:49:17,130 manchmal nützlich, aber in der Gesamtheit immer falsch. Ich denke das trifft für 649 00:49:17,130 --> 00:49:25,060 Menschen und Maschinen zu. Applaus 650 00:49:25,060 --> 00:49:28,171 Herald-Angel: Dankeschön. Mikrophon 4, 651 00:49:28,171 --> 00:49:29,171 deine Frage. 652 00:49:29,171 --> 00:49:36,860 Mikrophon 4: Vielleicht eine etwas naive Frage, aber bestehen oder gibt es Metriken 653 00:49:36,860 --> 00:49:43,560 um diesen Bias, der uns täglich im Netz begegnet, zu bewerten? Also dass man das 654 00:49:43,560 --> 00:49:49,330 schon visualisieren kann oder vermitteln kann, dass man sich in einem hohen Bias 655 00:49:49,330 --> 00:49:56,250 also einer hohen Verzerrung bewegt oder auf Glatteis läuft in dem Sinne. Ein hoch 656 00:49:56,250 --> 00:50:04,080 komplexes Thema wirklich, runtergebrochen auf eine, ich sag mal, Bewusstbarmachung 657 00:50:04,080 --> 00:50:08,230 von hoher statistischer Verzerrung, die einen umgibt. 658 00:50:08,230 --> 00:50:10,870 Hendrik: Also es gibt durchaus Forschung 659 00:50:10,870 --> 00:50:14,870 in die Richtung es gibt z.B. die Civic Media Group am MIT Media Lab die sich mit 660 00:50:14,870 --> 00:50:18,341 soetwas aueinandersetzt. Das sind aber so einzelne Beispiele wo sie z.B. Leuten 661 00:50:18,341 --> 00:50:22,080 einfach mal zeigen, was für einen Gender- Bias sie bei den Leuten, die sie auf 662 00:50:22,080 --> 00:50:26,250 Twitter folgen, haben, also die folgen nur Männern z.B.. 663 00:50:26,250 --> 00:50:30,350 Solche Bewusstbarmachungen sind wichtig und sind glaube ich auch ein Teil des 664 00:50:30,350 --> 00:50:33,020 Puzzels, aber ich glaube die Medienpädagogik muss halt ernstgenommen 665 00:50:33,020 --> 00:50:36,180 werden, den Leuten muss das bewusst sein wenn wir diese Dinger benutzen wollen, 666 00:50:36,180 --> 00:50:40,930 wenn wir in solchen Autos rumfahren wollen, dann müssen wir das verstehen. Es 667 00:50:40,930 --> 00:50:44,560 gibt halt immer diese Blindspots und man kann einfach da nicht darauf eingehen, man 668 00:50:44,560 --> 00:50:47,460 kann nicht jeden Spot da bedenken vorher. 669 00:50:47,460 --> 00:50:54,240 Karen: Um die vielleicht Frage zu kontextualisieren von den Algorithmus- 670 00:50:54,240 --> 00:50:59,540 Wissenschaftlichen-Blickpunkt. Wir machen jetzt nicht unbedingt den Unterschied 671 00:50:59,540 --> 00:51:04,160 zwischen vielleicht dem was eine negative oder positive Verzerrung ist, also 672 00:51:04,160 --> 00:51:09,440 wahrgenommen wird, sondern für uns gibt es halt nur Merkmale die auf gewisse andere 673 00:51:09,440 --> 00:51:13,650 Merkmale schließen lassen und das führt dann wieder zu der Frage der Korrelation 674 00:51:13,650 --> 00:51:21,930 und wenn wir sagen wir haben oft ja Merkmale die Proxys sind für andere 675 00:51:21,930 --> 00:51:28,920 Merkmale, also wo ich wohne ist oft proxy dafür wie ich aussehe oder woher ich 676 00:51:28,920 --> 00:51:31,960 komme. Was ich also im Machine Learning machen 677 00:51:31,960 --> 00:51:34,580 kann, oder wie sich die Wissenschaft damit auseinandersetzt ist zu sagen, ok, wenn 678 00:51:34,580 --> 00:51:42,920 ich weiß welche Merkmale sensitiv sind, also welche ich nicht möchte dass die mein 679 00:51:42,920 --> 00:51:46,590 System korreliert mit der eigentlichen Aussage die das System treffen soll, dann 680 00:51:46,590 --> 00:51:54,210 kann quasi ich in meine Fehlerfunktion einen extra Term reinspeisen, der sagt du 681 00:51:54,210 --> 00:52:00,390 dekorrelierst jetzt das Ergebnis was du hast mit dem besonderen Merkmal was du als 682 00:52:00,390 --> 00:52:06,380 sensitiv also z.B. der Wohnort oder dein Bildungsstatus oder dein Einkommen, dass 683 00:52:06,380 --> 00:52:10,900 die keine Rolle spielen dafür, wie der Algorithmus Vorraussagen macht. 684 00:52:10,900 --> 00:52:15,630 Mikrophon 4: Was ich jetzt meinte war 685 00:52:15,630 --> 00:52:19,790 jetzt wirklich nicht die Unterscheidung zwischen gut und schlecht, sondern 686 00:52:19,790 --> 00:52:25,360 wirklich eine Visualisierung, dieser Datensatz oder dieses Ergebnis basiert auf 687 00:52:25,360 --> 00:52:31,590 wenigen Datensichten -- klar im Kontext kompliziert zu bewerkstelligen, aber dass 688 00:52:31,590 --> 00:52:37,520 man eine Möglichkeit findet sowas darzustellen dass diese Daten auf einer 689 00:52:37,520 --> 00:52:40,790 hohen Datendichte basieren und so weiter. 690 00:52:40,790 --> 00:52:46,020 Hendrik: Unsere Antwort is quasi, es gibt solche Sachen, es gibt sowas zu messen 691 00:52:46,020 --> 00:52:50,520 aber es ist immer eine Reduktion von Komplexität und da verliert man immer was 692 00:52:50,520 --> 00:52:53,970 und da muss man sich immer bewusst machen, wie viel reduzieren dürfen wir, wie 693 00:52:53,970 --> 00:52:55,810 einfach dürfen wir es machen. 694 00:52:55,810 --> 00:52:59,730 Karen: Zur Frage der Datensichte kann man vielleicht noch sagen, da ist wieder 695 00:52:59,730 --> 00:53:05,190 ein andere Kernansatz, der Bayesianische Kernansatz, der sich jetzt nicht die Frage 696 00:53:05,190 --> 00:53:10,010 stellt, wie ist meine Hypothese aufgrund der vorhandenen Daten zu bewerten sondern 697 00:53:10,010 --> 00:53:14,080 wie sind meine Daten aufgrund der verwedeten Hypothese zu bewerten. Das ist 698 00:53:14,080 --> 00:53:18,390 also nochmal eine ganz andere Ansicht auf die Sache und der wiederum erlaubt uns 699 00:53:18,390 --> 00:53:22,240 dann gewisse Unsicherheiten auszudrücken über Vorrausagen, die ich treffe. Also 700 00:53:22,240 --> 00:53:26,030 wenn jetzt zum Beispiel ein Datenpunkt über den ich eine Aussage treffen will 701 00:53:26,030 --> 00:53:30,740 weitab liegt von Daten die ich habe, dann wird dieser Ansatz oder wenn ich diesen 702 00:53:30,740 --> 00:53:34,200 Ansatz verwende wird mir dann sagen; über die Voraussage die ich jetzt treffe bin 703 00:53:34,200 --> 00:53:37,880 ich sehr unsicher und das ist eine Forschungsrichtung mit der sich viele 704 00:53:37,880 --> 00:53:44,210 Leute beschäftigen, die jetzt aber für diese großen, komplexen Systeme, ich würde 705 00:53:44,210 --> 00:53:46,380 sagen, noch sehr am Anfang steht. 706 00:53:46,380 --> 00:53:48,840 Herald-Angel: Mikrofon 1 bitte. 707 00:53:48,840 --> 00:53:53,460 Mikrofon 1: Danke für den super- interessanten Vortrag und danke auch an 708 00:53:53,460 --> 00:53:57,040 die Gebärden-Dolmetscherin, die hier ohne Unterlass die ganze Zeit übersetzt. 709 00:53:57,040 --> 00:54:10,450 Applaus Ich habe folgende Frage: Wie nützlich 710 00:54:10,450 --> 00:54:15,970 würdet ihr es einschätzen, das mit einer Qualitätskontrolle also einem 711 00:54:15,970 --> 00:54:21,020 Qualitätsmeilenstein für das Endergebnis zu kombinieren. Also als Beispiel; ein 712 00:54:21,020 --> 00:54:26,750 Auto ist dann hinreichend gut, wenn es im Verkehr weniger Leute umbringt als ein 713 00:54:26,750 --> 00:54:31,910 durschnittlicher menschlicher Fahrer oder sowas. Würde das einen zusätzlichen Nutzen 714 00:54:31,910 --> 00:54:36,060 ergeben? Kann man daraus noch mehr Rückschlüsse ziehen, oder sind das völlig 715 00:54:36,060 --> 00:54:37,230 getrennte Sachen? 716 00:54:37,230 --> 00:54:41,530 Karen: Also das ist eigentlich genau das worauf wir hinaus wollten, dass das eine 717 00:54:41,530 --> 00:54:44,260 politische Frage ist, die wir nicht beantworten wollen. 718 00:54:44,260 --> 00:54:45,260 Hendrik: Oder eine juristische. 719 00:54:45,260 --> 00:54:46,580 Karen: Oder eine juristische, das müsst 720 00:54:46,580 --> 00:54:49,220 ihr sagen, was ihr richtig findet, das ist doch nicht unsere Aufgabe zu sagen ... 721 00:54:49,220 --> 00:54:50,271 Hendrik: Nein also die Gesellschaft muss 722 00:54:50,271 --> 00:54:53,590 es aushandeln, wir können Probleme aufzeigen, aber die Antwort muss die 723 00:54:53,590 --> 00:54:55,020 Gesellschaft als ganzes finden. 724 00:54:55,020 --> 00:54:59,000 Mikrophon 1: Das ist klar, die Frage ist nur, wenn man so einen Punkt definiert hat 725 00:54:59,000 --> 00:55:02,430 und sich dann die Ergebnisse anschauen würde, die kurz vor und kurz nach diesem 726 00:55:02,430 --> 00:55:06,010 Punkt aufgetreten sind, ob das Rückschlüsse zulassen würde auf 727 00:55:06,010 --> 00:55:09,539 irgendeinen Bias oder irgendwelche anderen Sachen, oder ob dieser Punkt völlig 728 00:55:09,539 --> 00:55:11,180 unerheblich für euch wäre. 729 00:55:11,180 --> 00:55:13,550 Hendrik: Kannst du nochmal den Punkt benennen? 730 00:55:13,550 --> 00:55:15,250 Mikrophon 1: Also man definiert 731 00:55:15,250 --> 00:55:20,990 irgendeinen Punkt x, der ein bestimmtes Qualitätskriterium hat. Also der Wagen 732 00:55:20,990 --> 00:55:25,330 bringt eben nicht mehr Menschen um als ein durchschnittlicher Fahrer sondern weniger. 733 00:55:25,330 --> 00:55:32,900 Sind die Ergebnisse die um diesen Punkt liegen, die man dann messen kann. Sind die 734 00:55:32,900 --> 00:55:36,160 in irgendeiner Art relevant für den Ausgang, kann man da irgendwelche 735 00:55:36,160 --> 00:55:40,030 Rückschlüsse daraus ziehen, oder ist das nur irgendein Punkt, wie jeder andere 736 00:55:40,030 --> 00:55:41,030 auch? 737 00:55:41,030 --> 00:55:44,220 Hendrik: Also ich finde das problematisch, diesen Punkt zu finden, weil man ja auch 738 00:55:44,220 --> 00:55:47,970 den ganzen Kontext sehen muss bei den Autounfällen und warum sie passieren, also 739 00:55:47,970 --> 00:55:52,061 welche Gründe sie haben und das ganze datafizieren, das in einen Punkt zu 740 00:55:52,061 --> 00:55:55,850 pressen, und den dann als Evaluationsmetrik für was anderes 741 00:55:55,850 --> 00:55:58,695 hochkomplexes zu nehmen halte ich für sehr problematisch, ich glaube da ist wirklich, 742 00:55:58,695 --> 00:56:02,300 das meint Karen, die politsche Antwort wichtiger. 743 00:56:02,300 --> 00:56:04,600 Karen: Beim konkreten Beispiel von 744 00:56:04,600 --> 00:56:07,640 selbstfahrenden Autos muss man natürlich auch sagen, dass es das echte 745 00:56:07,640 --> 00:56:11,470 selbstfahrende Auto nie üben kann einen Crash zu haben, also dieses Crash-Szenario 746 00:56:11,470 --> 00:56:14,100 kann natürlich nie geübt werden, also wir wollen da ja natürlich niemanden sterben 747 00:56:14,100 --> 00:56:18,240 lassen oder nicht so viele Autos crashen, das ist ein bisschen teuer. Das heißt 748 00:56:18,240 --> 00:56:21,940 Crash-Szenarios werden eigentlich auch immer nur in der Simulation geübt und das 749 00:56:21,940 --> 00:56:26,500 ist genau das Problem, dass wir heute -- zumindest soweit ich das weiß -- sehr 750 00:56:26,500 --> 00:56:31,890 wenige Szenarien haben in denen wir sagen können; wenn wir jetzt in der Simulation 751 00:56:31,890 --> 00:56:37,910 geübt haben, was für Annahmen übernehmen wir denn dann in die echte Welt. Die 752 00:56:37,910 --> 00:56:43,140 einfach nur benennen zu können würde uns ja schon helfen eventuelle Fehlerszenarien 753 00:56:43,140 --> 00:56:47,100 vorrauszusagen, aber selbst das Benennen dieser Annahmen das fällt uns ja selbst 754 00:56:47,100 --> 00:56:52,080 schon schwer, also das ist noch ein weiter Weg. 755 00:56:52,080 --> 00:56:53,920 Herald-Angel: Mikro 1 756 00:56:53,920 --> 00:56:58,800 Mikrofon 1: Auch vielen Dank für den 757 00:56:58,800 --> 00:57:05,630 Vortrag. Die ganze Diskussion über die Biase, die ihr ja getrieben habt, besagt 758 00:57:05,630 --> 00:57:09,120 ja letztlich, dass es darum geht die Wahrheit zu finden, Wahrheit und letztlich 759 00:57:09,120 --> 00:57:13,480 eine Stichprobe der Wahrheit dem Computer zum Lernen zu geben und das bringt mich 760 00:57:13,480 --> 00:57:16,600 dann zu der Parallele in der Wissenschaft haben wir das ja auch, also wie sieht 761 00:57:16,600 --> 00:57:21,230 meine Stichprobe aus, die ideale Stichprobe, oder ist da ein Bias drin. 762 00:57:21,230 --> 00:57:25,590 Habt ihr diese Parallele schonmal gedanklich gezogen oder ist das ... ja. 763 00:57:25,590 --> 00:57:28,060 Hendrik: Also wir sind ja Wissenschaftler 764 00:57:28,060 --> 00:57:31,940 und wir müssen natürlich auch erstmal für uns wissen, ob was wir herasugefunden 765 00:57:31,940 --> 00:57:35,540 haben, gerade wenn wir mit Menschen arbeiten, wir hatten ja gestern auch den 766 00:57:35,540 --> 00:57:42,170 Vortrag "Science is broken", der da irgendwie, also es ist immer schwierig die 767 00:57:42,170 --> 00:57:45,920 richtige Samplesize zu haben um die Effectsize zu berücksichtigen, um zu 768 00:57:45,920 --> 00:57:48,550 wissen, dass man was weiß, das sind ja epistemische Fragen. 769 00:57:48,550 --> 00:57:49,990 Mikrophon 1: Aber gibt's da irgendwie 770 00:57:49,990 --> 00:57:54,440 schon für neuronale Netze irgendwelche Richtwerte, dass man dann irgendwie weiß. 771 00:57:54,440 --> 00:57:58,510 Weil in der Psychologie lernt man, dass die Sampelsize muss mindestens 5.000 Bla 772 00:57:58,510 --> 00:58:01,690 betragen, keine Ahnung, oder so und so Prozente. Gibt's Richtwerte, gibt's sowas 773 00:58:01,690 --> 00:58:07,440 schon für neuronale Netze? In Abhängigkeit der Layer oder der Parameter oder..? 774 00:58:07,440 --> 00:58:09,700 Hendrik: Nicht dass ich wüsste, weisst du 775 00:58:09,700 --> 00:58:10,700 was? 776 00:58:10,700 --> 00:58:14,200 Karen: Die Frage geht jetzt vielleicht ein bisschen tief. Für frühe Systeme, also 777 00:58:14,200 --> 00:58:22,680 sehr einfache neuronale Netze, die aus den Anfang der 90ern, so wie Boltzmann-machines oder 778 00:58:22,680 --> 00:58:28,990 Hofman-Networks. Für solche Sachen kann man sagen, wenn die Saturieren und mit 779 00:58:28,990 --> 00:58:34,800 wievielen Bits an Daten man da reingeht bis die Saturieren. Für aber diese hoch- 780 00:58:34,800 --> 00:58:40,590 nicht-linearen Systeme, die wir jetzt verwenden, kann man das nicht sagen, oder 781 00:58:40,590 --> 00:58:47,370 nur asymptothisch sagen. Es gibt viel Forschung zu dem Thema, aber nichts, was 782 00:58:47,370 --> 00:58:50,721 jetzt besonders handfest wäre; sagen wir mal so. Oder man jetzt im echten Leben 783 00:58:50,721 --> 00:58:51,721 verwenden könnte. 784 00:58:51,721 --> 00:58:56,000 Mikrophon 1: Ja gut, dann irgendwie so eine Ausage zu haben, so und so viele 785 00:58:56,000 --> 00:58:58,760 Testdatensampels brauchst du für dein neuronales Netz, wenn das so und so 786 00:58:58,760 --> 00:59:02,990 strukturiert ist. Irgendwie, das könnte vielleicht eine Form von Verifikation oder 787 00:59:02,990 --> 00:59:05,750 Validierung, Pre-Validierung bringen, irgendwie. 788 00:59:05,750 --> 00:59:08,350 Hendrik: Ja, das macht man ja. Man hat ja 789 00:59:08,350 --> 00:59:12,130 einen großen Datensatz, einen Trainingsdatensatz, einen Testdatensatz 790 00:59:12,130 --> 00:59:15,940 und einen Validierungsdatensatz, mit dem man dann nochmal guckt, was haben wir 791 00:59:15,940 --> 00:59:18,740 wirlich gelernt und haben wir nicht einfach nur die Eigenheiten des 792 00:59:18,740 --> 00:59:22,220 Datensatzes auswendig gelernt. Haben wir wirklich generalisiert. Also auf dem 793 00:59:22,220 --> 00:59:26,370 Niveau passiert das schon. Auf dem höheren Niveau wäre das bestimmt noch eine 794 00:59:26,370 --> 00:59:27,530 hervorragende Doktorarbeit. 795 00:59:27,530 --> 00:59:30,430 Herald-Angel: Mikro 5, deine Frage? 796 00:59:30,430 --> 00:59:36,680 Mikrofon 5: Vielen Dank für den Vortrag. Meine Frage ist: Diese Biases, die sind ja 797 00:59:36,680 --> 00:59:40,710 jetzt nicht neu, die kennt man ja seit Dekaden in der Statistik. Was hat sich 798 00:59:40,710 --> 00:59:46,610 denn mit der künstlichen Intelligenz, bzw. mit Deep Learning geändert? Und daran 799 00:59:46,610 --> 00:59:51,860 anschließend: Kennt ihr irgendwelche Studien, dass solche Filterblasen wirklich 800 00:59:51,860 --> 00:59:55,040 irgendwelche tatsächlichen messbaren Auswirkungen haben? Weil man hört 801 00:59:55,040 --> 00:59:59,850 unglaublich viel in den Medien, aber mir ist keine belastbare Studie bekannt, die 802 00:59:59,850 --> 01:00:05,850 sagt, dass das da tatsächlich was verschlimmert wird, was nicht vorher schon 803 01:00:05,850 --> 01:00:07,160 da war. 804 01:00:07,160 --> 01:00:10,530 Hendrik: Ich hab die erste Frage schon wieder vergessen. Kannst du einmal noch 805 01:00:10,530 --> 01:00:11,530 die erste sagen? 806 01:00:11,530 --> 01:00:16,580 Mikrophon 5: Die erste Frage war, was sich geändert hat, weil diese Biases, die sind 807 01:00:16,580 --> 01:00:17,580 ja jetzt nicht neu. 808 01:00:17,580 --> 01:00:20,570 Hendrik: Genau, nein, die sind natürlich nicht neu. Und die ganzen Vorurteil sind 809 01:00:20,570 --> 01:00:24,060 auch nicht neu. Ich glaube, es wird halt einfach sehr, sehr viel Machine Learning 810 01:00:24,060 --> 01:00:27,710 gerade benutzt. Auch aus sehr guten Gründen. Also, z.B. es gibt hervoragende 811 01:00:27,710 --> 01:00:31,650 Python Bibliotheken, es gibt hervoragende R Bibliotheken, die das super einfach 812 01:00:31,650 --> 01:00:37,090 machen. Die Unis lehren das fast überall. Data Science ist der große Hypeterm, und 813 01:00:37,090 --> 01:00:39,810 das wird einfach nur nochmal drängender, weil Leute diese Sachen jetzt auf einmal 814 01:00:39,810 --> 01:00:44,340 in ihre Systeme reinschmeißen, die benutzen, um vielleicht Geld zu verdienen, 815 01:00:44,340 --> 01:00:49,640 sich aber dann dieser Probleme gar nicht bewusst sind. Und zur 2. Frage: Ich bin 816 01:00:49,640 --> 01:00:52,780 mir ziemlich sicher, dass es viel zu Echokammern gibt. Ich weiß nicht, was du 817 01:00:52,780 --> 01:00:56,950 gefragt hast, ob man das wirklich auch wissenschaftlich so testen kann? Also, wie 818 01:00:56,950 --> 01:01:01,560 da quasi der Versuchsaufbau aussähe? Aber es gibt, auch gerade in der Soziologie, 819 01:01:01,560 --> 01:01:10,300 viel zu Echokammern. Aber mir fällt gerade kein Autor ein dazu. 820 01:01:10,300 --> 01:01:12,620 Herald-Angel: Vielen Dank für den Vortrag. 821 01:01:12,620 --> 01:01:15,560 Ich sehe, dass da noch Fragen sind, aber leider ist die Zeit rum. Seid ihr noch da? 822 01:01:15,560 --> 01:01:16,980 Können die Leute euch noch ansprechen? 823 01:01:16,980 --> 01:01:17,670 Hendrik: OK. 824 01:01:17,670 --> 01:01:20,410 Herald-Angel: Super. Vielen, vielen Dank! 825 01:01:20,410 --> 01:01:23,790 Applaus 826 01:01:23,790 --> 01:01:43,390 Untertitel erstellt von c3subtitles.de im Jahr 2018. Mach mit und hilf uns!