0:00:15.719,0:00:21.530 Herald-Angel: Der nächste Vortrag ist[br]„Beeinflussung durch Künstliche 0:00:21.530,0:00:27.170 Intelligenz". Es ist ein[br]Einführungsvortrag, also einer der 0:00:27.170,0:00:31.580 explizit dazu gedacht ist, dass ihr das[br]ohne Vorkenntnisse versteht. Und es geht 0:00:31.580,0:00:41.159 ums Maschinelle Lernen. Unsere Sprecher[br]sind die Karen – sie forscht in Amsterdam 0:00:41.159,0:00:47.729 an Maschinellem Lernen, kommt ursprünglich[br]aus Leipzig – und der Hendrik Heuer, der 0:00:47.729,0:00:55.440 in Bremen an Mensch-Computer-Interaktion[br]forscht. Großes Willkommen für die beiden! 0:00:55.440,0:01:03.190 Applaus 0:01:03.190,0:01:06.930 Hendrik Heuer: Vielen Dank! Moin erstmal![br]Willkommen zu unserem Vortrag 0:01:06.930,0:01:10.909 „Beeinflussung durch Künstliche[br]Intelligenz" über die Banalität der 0:01:10.909,0:01:14.920 Beeinflussung und das Leben mit[br]Algorithmen. Wir würden gern mit einem 0:01:14.920,0:01:19.979 Zitat von Kate Crawford beginnen. Kate[br]Crawford ist die Gründerin des AI Now 0:01:19.979,0:01:23.841 Institut das die sozialen Auswirkungen von[br]künstlicher Intelligenz untersucht. Sie 0:01:23.841,0:01:28.090 ist außerdem ein Principal Researcher bei[br]Microsoft Research und Professorin an der 0:01:28.090,0:01:33.840 New York University. Und die hat beim AI[br]Now Symposium in diesem Jahr gesagt: „Die 0:01:33.840,0:01:37.170 Menschen befürchten, dass Computer zu[br]intelligent werden und die Welt erobern. 0:01:37.170,0:01:42.549 Aber Computer sind zu dumm und haben die[br]Welt bereits erobert." Wir teilen diese 0:01:42.549,0:01:47.420 Ansicht. Es gibt keine digitale Welt. Die[br]Welt ist digital, das heißt durch digitale 0:01:47.420,0:01:51.799 Medien konstruiert. Und uns war es ein[br]Anliegen, einige englischsprachige 0:01:51.799,0:01:55.659 Diskussion jetzt nochmal auf Deutsch[br]zusammenzuführen. Es können also Beispiele 0:01:55.659,0:02:00.700 kommen die der eine oder andere vielleicht[br]schon kennt. Aber wir führen sie hier 0:02:00.700,0:02:05.390 nochmal zusammen und versuchen sie zu[br]kontextualisieren. Warum Banalität der 0:02:05.390,0:02:09.880 Überwachung? Banalität, weil die Systeme[br]des maschinellen Lernens im Kern sehr 0:02:09.880,0:02:14.520 simpel sind, weil aber auch die[br]Beeinflussung sehr subtil sein kann und 0:02:14.520,0:02:17.080 das Ganze ist auch eine Reminiszenz an[br]Hannah Arendt. 0:02:17.080,0:02:21.330 Noch mal kurz zu uns. Wie gesagt: Ich[br]werde die ersten 20 Minuten sprechen über 0:02:21.330,0:02:25.280 die Mensch-Computer-Interaktions-[br]Perspektive, Karen Ullrich wird die zweite 0:02:25.280,0:02:29.170 Hälfte bestreiten. Karen ist[br]wissenschaftliche Mitarbeiterin in 0:02:29.170,0:02:33.920 Amsterdam, im Amsterdam Machine Learning[br]Lab, und sie forscht direkt zu den 0:02:33.920,0:02:37.660 Algorithmen des maschinellen Lernens,[br]insbesondere Bayesian methods, also ein 0:02:37.660,0:02:41.950 Hintergrund im Deep Learning und der[br]Informationstheorie. Ich bin 0:02:41.950,0:02:46.470 wissenschaftlicher Mitarbeiter im Institut[br]für Informationsmanagement Bremen und mir 0:02:46.470,0:02:50.000 geht es um die Nutzererfahrung von[br]Maschine Learning, insbesondere das 0:02:50.000,0:02:56.380 Vertrauen. Wir würden jetzt gerne anfangen[br]mit einem Beispiel, das jeder kennt: Spam- 0:02:56.380,0:02:59.990 Erkennung. Benutzt wahrscheinlich jeder[br]hier. Funktioniert auch nicht immer. Aber 0:02:59.990,0:03:03.090 man muss sich wirklich vor Augen führen,[br]dass es eine beeindruckende technische 0:03:03.090,0:03:07.100 Leistung ist, auch wenn es manchmal nicht[br]funktioniert. Und wir nehmen es hier, um 0:03:07.100,0:03:11.620 den Unterschied zwischen imperativer[br]Programmierung und maschinellem Lernen zu 0:03:11.620,0:03:16.540 verdeutlichen. Imperative Programmierung[br]ist das, woran wahrscheinlich jeder denkt, 0:03:16.540,0:03:18.480 wenn er an Informatik und Programmierung[br]denkt. 0:03:18.480,0:03:21.940 Es geht um Regeln und Anweisungen: Wenn X 0:03:21.940,0:03:26.430 dann Y. Das Wort Imperativ für Befehl[br]steckt ja auch schon im Namen. Und wenn 0:03:26.430,0:03:30.210 wir jetzt Spam imperativ erkennen wollen[br]würden, dann würde man zum Beispiel 0:03:30.210,0:03:34.140 gucken, Okay das Wort Viagra wird so[br]geschrieben in der Nachricht vorkommen, 0:03:34.140,0:03:39.210 dann ist es eine Spam-Nachricht.[br]Andererseits ist es eine gutartige 0:03:39.210,0:03:43.710 Nachricht. Maschinelles Lernen ist jetzt[br]ein komplett anderer Ansatz. Da hat man 0:03:43.710,0:03:49.040 eine Vorhersage die man iterativ, also[br]immer und immer wieder, verbessert. Für 0:03:49.040,0:03:53.000 die Spam-Klassifikation versucht man zum[br]Beispiel Kombinationen von Wörtern zu 0:03:53.000,0:03:56.900 finden, durch die es wahrscheinlich wird,[br]dass es sich um Spam handelt. 0:03:56.900,0:04:02.160 Der Kernbegriff ist hier also wahrscheinlich. Und[br]das sieht dann so aus, dass man für viele 0:04:02.160,0:04:07.400 verschiedene Beispiele prognostiziert, ob[br]eine Nachricht Spam ist oder nicht. Dann 0:04:07.400,0:04:12.010 berechnet man Fehler mit einer geeigneten[br]Fehlerfunktion und dann ändert man seine 0:04:12.010,0:04:16.721 Parameter, um den Fehler zu verringern und[br]geht wieder zum ersten Schritt und macht 0:04:16.721,0:04:21.589 das immer und immer wieder. Natürlich ist[br]es nicht ganz so einfach, diesen Fehler zu 0:04:21.589,0:04:24.630 berechnen, und auch die Parameter zu[br]verändern, ist ein eigenes 0:04:24.630,0:04:28.030 Forschungsgebiet. Aber im Kern ist es[br]wirklich so simpel wie wir es hier 0:04:28.030,0:04:33.081 darstellen. Und deswegen ist es spannend[br]im Hinterkopf zu behalten. Dabei ist es 0:04:33.081,0:04:36.720 aber spannend im Hinterkopf zu behalten,[br]dass Spam-Erkennen nicht mit 0:04:36.720,0:04:40.790 Textverständnis gleichzusetzen ist. Das[br]heißt der Algorithmus muss nicht erst 0:04:40.790,0:04:45.030 Kafka verstehen können, um zu erkennen, ob[br]etwas Spam ist oder nicht. Und dieses 0:04:45.030,0:04:48.960 Problem, dass etwas wirkungsvoller[br]aussieht als es vermeintlich ist, wird uns 0:04:48.960,0:04:54.840 im Laufe des Vortrags noch begegnen.[br]Wir haben jetzt ein weiteres, immer noch 0:04:54.840,0:04:58.700 vereinfachtes Beispiel für eine[br]Entscheidungshilfe, hier aus der Medizin. 0:04:58.700,0:05:03.960 Das Ziel ist hier die Erkennung von[br]Brustkrebs. Statt Wörtern wie beim Spam 0:05:03.960,0:05:09.660 haben wir verschiedene Features, das heißt[br]Charakteristika, an denen man zum Beispiel 0:05:09.660,0:05:14.760 gutartigen von bösartigem Brustkrebs[br]unterscheiden kann. Dazu gehören hier der 0:05:14.760,0:05:20.850 Radius, die Textur, Umfang, Fläche, Glätte[br]aber auch so Sachen wie die Symmetrie und 0:05:20.850,0:05:25.780 die Zahl konkaver Punkte, also nach innen[br]gewölbter Punkte, das seht ihr hier oben. 0:05:25.780,0:05:30.610 Insgesamt gibt es in diesem vereinfachten[br]Datensatz 32 verschiedene Charakteristika. 0:05:30.610,0:05:36.260 Und wenn wir jetzt zwei Charakteristika[br]wie z.B. die durchschnittliche Zahl der 0:05:36.260,0:05:41.190 konkaven Punkte und die durchschnittliche[br]Fläche in Pixeln anschauen und abtragen, 0:05:41.190,0:05:45.450 dann erkennt man eine deutliche Tendenz:[br]Ab einem bestimmten Punkt – ab einer 0:05:45.450,0:05:48.520 bestimmten Zahl Punkte und ab einer[br]bestimmten Fläche – sehen wir nur noch 0:05:48.520,0:05:54.000 bösartigen Brustkrebs. Das heißt[br]mathematisch können wir im Beispiel 0:05:54.000,0:05:58.091 einfach eine Linie durch diesen Datensatz[br]ziehen und das ist eine sogenannte 0:05:58.091,0:06:02.169 Entscheidungsgrenze, die Decision-[br]Boundary. Die Entscheidungsgrenze muss 0:06:02.169,0:06:05.000 nicht linear sein, es muss nicht eine[br]einfache Linie sein. 0:06:05.000,0:06:10.140 Die kann durchaus komplexer sein und in[br]der Regel ist sie das. Und dieser Ansatz 0:06:10.140,0:06:14.650 ist durchaus analog zu dem, was eine[br]erfahrene Ärztin oder ein erfahrener Arzt 0:06:14.650,0:06:18.531 mehr oder weniger bewusst machen würde.[br]Die haben auch aus Erfahrung gelernt: ab 0:06:18.531,0:06:23.800 der Größe, und ab der Fläche und der Zahl[br]ist es wahrscheinlich bösartig oder 0:06:23.800,0:06:27.480 gutartig. Der Clou am Maschinellen Lernen[br]ist jetzt, dass wir das für viele 0:06:27.480,0:06:31.620 verschiedene Charakteristika gleichzeitig[br]machen können. Und darüber hinaus 0:06:31.620,0:06:36.060 profitieren wir sehr stark davon, wenn wir[br]mehr Daten haben, weil wir dadurch bessere 0:06:36.060,0:06:38.560 Entscheidungen treffen können. Weil wir[br]eine bessere Entscheidungsgrenze finden. 0:06:38.560,0:06:45.340 Ihr seht aber auch, dass eine gute Zahl an[br]roten und blauen Punkten im Beispiel auf 0:06:45.340,0:06:49.871 der falschen Seite der Grenze liegen.[br]Das heißt dort machen wir Fehler und da 0:06:49.871,0:06:53.300 muss man im Hinterkopf behalten, dass es[br]verschiedene Arten von Fehlern gibt und 0:06:53.300,0:06:57.010 die auch verschiedene Auswirkungen haben.[br]Falls ich zum Beispiel jemandem mit 0:06:57.010,0:07:02.669 gutartigen Brustkrebs fälschlicherweise[br]sage, dass ihr Brustkrebs bösartig ist, 0:07:02.669,0:07:07.870 löst das sicherlich Stress aus und ist[br]keine angenehme Situation. Falls ich aber 0:07:07.870,0:07:11.560 jemanden mit bösartigem Brustkrebs[br]fälschlicherweise sage, dass ihr 0:07:11.560,0:07:15.130 Brustkrebs gutartig ist und sie auch[br]entsprechend behandle, kann das deutlich 0:07:15.130,0:07:19.900 schlimmere Konsequenzen haben. Das ist[br]jetzt natürlich ein vereinfachtes 0:07:19.900,0:07:24.900 Beispiel. Aber gleichzeitig werden wir[br]zeigen, dass ähnliche Entscheidungshilfen 0:07:24.900,0:07:29.210 durchaus in sehr kritischen Bereichen[br]genutzt werden. Vorher wollen wir noch 0:07:29.210,0:07:33.750 einmal die Wirkungsmacht von Big Data[br]zeigen und da geht es darum, 0:07:33.750,0:07:39.800 Persönlichkeitsmerkmale zu erkennen. Das[br]heißt hier nimmt man digitale Spuren wie 0:07:39.800,0:07:43.960 Facebook-Likes, die relativ einfach[br]zugänglich sind, es aber ermöglichen, 0:07:43.960,0:07:47.460 hochgradig sensible[br]Persönlichkeitsmerkmale vorherzusagen. 0:07:47.460,0:07:54.380 Das ist ein Paper von 2013 und für die[br]Studie haben sie 58.000 Freiwillige in den 0:07:54.380,0:07:58.060 USA gefunden, die eine Facebook-App[br]benutzt haben. Und die haben dieser 0:07:58.060,0:08:02.120 Facebook-App ihr komplettes Profil zur[br]Verfügung gestellt mit allen Likes aber 0:08:02.120,0:08:06.060 auch mit allen Informationen wie zum[br]Beispiel der sexuellen Orientierung oder 0:08:06.060,0:08:10.540 der religiösen Zugehörigkeit. Was jetzt[br]gemacht wurde ist mit einem sehr einfachen 0:08:10.540,0:08:16.700 Modell, mit einem einfachen Regressions-[br]Modell, vorhergesagt, von welchen Likes, 0:08:16.700,0:08:21.270 ob man anhand der Likes bestimmte[br]Persönlichkeitsmerkmale erkennen kann. Und 0:08:21.270,0:08:26.570 es zeigt sich, dass man zum Beispiel mit[br]95-prozentiger Genauigkeit erkennen kann, 0:08:26.570,0:08:32.620 ob jemand weiß oder afroamerikanisch ist.[br]Sexuelle Orientierung kann man auch mit 0:08:32.620,0:08:38.999 sehr hoher Genauigkeit nur anhand der[br]Likes erkennen, das Geschlecht, die 0:08:38.999,0:08:44.350 politische Orientierung, die religiöse[br]Zugehörigkeit, aber auch so Sachen wie die 0:08:44.350,0:08:49.100 Drogenerfahrung und der Familienstand der[br]Eltern in der Kindheit. 0:08:49.100,0:08:53.970 Und ihr seht schon bei der religiösen[br]Zugehörigkeit sind wir bei 82 Prozent 0:08:53.970,0:08:58.589 Genauigkeit, bei so etwas wie[br]Drogenerfahrung und der Ehe ist es relativ 0:08:58.589,0:09:03.579 wenig mit der Genauigkeit: Es ist eine[br]50/50 Chance, wenn wir raten würden. 0:09:03.579,0:09:09.389 Aber es ist trotzdem eine Indikation. Und[br]wir zeigen das auch nur, weil das 0:09:09.389,0:09:12.992 wahnsinnige Möglichkeiten der[br]Diskriminierung bildet. Und das passiert 0:09:12.992,0:09:17.661 auch auf dem Wohnungsmarkt oder auf dem[br]Arbeitsmarkt. Das heißt was wir hier 0:09:17.661,0:09:21.089 zeigen wollen, ist, dass wir unsere[br]Vorstellungen von Datenschutz überdenken 0:09:21.089,0:09:26.019 und ausweiten müssen, weil man halt auch[br]Persönlichkeitsmerkmale inferieren können 0:09:26.019,0:09:31.630 kann. Denn man kann mit solchen Modellen[br]auch die Likes finden, die am 0:09:31.630,0:09:36.050 aussagekräftigsten für ein bestimmtes[br]Charakteristikum sind. Das heißt wir haben 0:09:36.050,0:09:41.170 hier drei Likes: einmal die Marke Harley-[br]Davidson, Kringel-Pommes/curly fries und 0:09:41.170,0:09:45.019 das Musical Wicked. Und ich überlasse es[br]euch mal, herauszufinden, welches Bild mit 0:09:45.019,0:09:49.790 niedriger Intelligenz, hoher Intelligenz[br]und Homosexualität bei Männern verbunden 0:09:49.790,0:09:56.439 ist. Diese durchaus fragwürdige[br]Forschungsrichtung nennt sich Psychometrik 0:09:56.439,0:10:00.860 oder auch Psychografie. Und das Spannende[br]ist, dass sie ja relativ nah dran ist am 0:10:00.860,0:10:04.009 Kern-Versprechen von so Unternehmen wie[br]Google und Facebook. 0:10:04.009,0:10:08.740 Denn die versprechen ihren Kunden – ihren[br]Werbekunden – wir finden für euch 0:10:08.740,0:10:13.149 Leute, die sich für Dienst X oder Produkt[br]Y interessieren könnten. Und hier haben 0:10:13.149,0:10:18.279 wir jetzt das Element der Beeinflussung.[br]Beeinflussung heißt hier, Big Data zu 0:10:18.279,0:10:23.230 nutzen, um Leute zu finden, und die[br]Beeinflussung ist noch sehr banal. Aber 0:10:23.230,0:10:26.810 solche Forschung kann natürlich auch[br]genutzt werden, um zum Beispiel in einer 0:10:26.810,0:10:31.059 großen Menge von Wählerinnen jene zu[br]finden, die noch überzeugt werden könnten. 0:10:31.059,0:10:34.771 Und ihr habt – viele von euch haben[br]wahrscheinlich den Artikel in das Magazin 0:10:34.771,0:10:39.199 gelesen, wo kolportiert wurde, dass diese Art[br]von Psychografie für Trump und Brexit 0:10:39.199,0:10:43.079 verantwortlich ist. Vor der Bundestagswahl[br]gab es ja auch eine große Diskussion, dass 0:10:43.079,0:10:47.689 das hier passieren könnte. Wir glauben,[br]dass das mit Vorsicht zu genießen ist, 0:10:47.689,0:10:51.160 aber die Möglichkeit mit derartigen[br]Ansätzen überzeugbare Wählerinnen und Wähler 0:10:51.160,0:10:53.790 zu finden und anzusprechen, ist durchaus[br]realistisch. 0:10:53.790,0:11:00.990 Und wir haben schon gesehen, dass es[br]dadurch so eine Art Diskriminierung 2.0 0:11:00.990,0:11:05.312 gibt. Denn ein homophober Arbeitgeber muss[br]nicht mehr direkt erfragen, ob jemand 0:11:05.312,0:11:09.610 homosexuell ist, wenn er es aus einem[br]Facebook-Profil vorhersagen kann, und es 0:11:09.610,0:11:13.129 interessiert ihn vielleicht auch nicht, ob[br]er da einen Fehler macht und einen 0:11:13.129,0:11:18.209 Heterosexuellen möglicherweise falsch[br]einordnet. Diese Beeinflussung kann aber 0:11:18.209,0:11:23.689 durchaus direkter sein. In den USA werden[br]Algorithmen jetzt schon im Justizsystem 0:11:23.689,0:11:28.300 als Entscheidungshilfe eingesetzt, und da[br]wird zum Beispiel mit bestimmten 0:11:28.300,0:11:32.639 Informationen über die Leute vorhergesagt,[br]ob jemand rückfällig wird, der im 0:11:32.639,0:11:37.759 Gefängnis ist, oder nicht. Das heißt man[br]versucht vorherzusagen auf einer Skala von 0:11:37.759,0:11:43.590 1 für ungefährlich bis 10 für hochgradig[br]gefährlich, wo jemand hinkommt. Und hier 0:11:43.590,0:11:49.069 haben wir zwei Beispiele: Einmal den Herrn[br]links – VP die Initialen –, der zwei 0:11:49.069,0:11:53.980 bewaffnete Raubüberfälle begangen und[br]einen versuchten bewaffneten Raubüberfall, 0:11:53.980,0:11:58.519 und die Risikoeinschätzung ist hier 3[br]niedriges Risiko. 0:11:58.519,0:12:03.730 Daneben steht die Dame – BB –, die hat[br]vier Ordnungswidrigkeiten unter 0:12:03.730,0:12:11.509 Jugendstrafrecht auf dem Kerbholz, und die[br]wird eingestuft mit hohes Risiko. Und wie 0:12:11.509,0:12:15.199 sieht das jetzt aus. Also die Leute von[br]ProPublica die das recherchiert haben, 0:12:15.199,0:12:20.600 haben jetzt über zwei Jahre geguckt, wer[br]wirklich rückfällig wird und wer nicht. BB 0:12:20.600,0:12:24.689 – die Dame rechts –, die begeht keine[br]weiteren Verbrechen. VP – der Herr links 0:12:24.689,0:12:27.870 –, der begeht nach seiner Freilassung[br]direkt einen schweren Diebstahl. Das 0:12:27.870,0:12:31.269 Besondere ist hier, und ihr werdet es[br]wahrscheinlich schon geraten haben, ist, 0:12:31.269,0:12:35.900 dass der Algorithmus systematisch[br]Afroamerikanerinnen diskriminiert. Es gibt 0:12:35.900,0:12:41.250 also ein Bias, eine Verzerrung, gegen[br]Schwarze. Darüber hinaus sind diese 0:12:41.250,0:12:46.059 Vorhersagen von den proprietären Kompass-[br]Systemen nur in 61 Prozent derzeit 0:12:46.059,0:12:51.209 richtig. Wenn man jetzt die wirkliche[br]Rückfälligkeit über zwei Jahren nimmt. Und 0:12:51.209,0:12:55.089 wir kennen das aus der Statistik: Dort[br]unterscheiden wir den Fehler erster Art 0:12:55.089,0:12:59.149 und den Fehler zweiter Art. Das heißt[br]unsere Nullhypothese ist: Der oder die 0:12:59.149,0:13:03.689 Straftäterin wird nicht rückfällig.[br]Der Fehler erster Art ist jetzt, dass die, 0:13:03.689,0:13:08.739 die mit hohem Risiko eingestuft werden,[br]aber nicht rückfällig werden. Und da sehen 0:13:08.739,0:13:12.500 wir – oder hat ProPublica herausgefunden[br]–, dass die Wahrscheinlichkeit, dass ein 0:13:12.500,0:13:18.189 Weißer oder eine Weiße Opfer dieses[br]Fehlers wird, bei 23,5 Prozent liegt und 0:13:18.189,0:13:22.199 bei Afroamerikanerinnen liegt die[br]Wahrscheinlichkeit bei 44,9, also fast 0:13:22.199,0:13:25.910 doppelt so hoch. Es gibt auch den Fehler[br]zweiter Art. Das ist die 0:13:25.910,0:13:29.429 Wahrscheinlichkeit,[br]dass jemand mit niedrigem Risiko 0:13:29.429,0:13:33.590 eingestuft wird, aber trotzdem rückfällig[br]wird. Und hier ist die Wahrscheinlichkeit 0:13:33.590,0:13:41.779 umgekehrt: Weiße haben eine 47-Prozent-[br]Chance diesem Fehler zum Opfer zu fallen. 0:13:41.779,0:13:49.549 Afroamerikanerinnen nur 28 Prozent. Aber[br]wie kommt das? Wir nehmen jetzt mal an, 0:13:49.549,0:13:53.290 dass das kompetente Programmiererinnen[br]sind, die in den Maschine Learning Kursen, 0:13:53.290,0:13:56.920 die sie gemacht haben, gut aufgepasst[br]haben und technisch alles richtig gemacht 0:13:56.920,0:13:59.980 haben.[br]Nun lernt Maschine Learning immer eine 0:13:59.980,0:14:05.459 Abbildung von einem X auf ein Y. Z. B.[br]hier haben wir bestimmte Informationen zu 0:14:05.459,0:14:11.089 Gefangenen und diese Rückfälligkeit der[br]Gefangenen. Das Problem ist jetzt das X 0:14:11.089,0:14:15.300 ist keine Stichprobe der Grundgesamtheit,[br]sondern eine Untermenge der 0:14:15.300,0:14:19.179 Grundgesamtheit, die die Polizei[br]untersucht hat. Es ist also ein X', es ist 0:14:19.179,0:14:24.009 nicht repräsentativ. Und das kann eine[br]selbsterfüllende Prophezeiung sein. Denn 0:14:24.009,0:14:27.220 vielleicht sind Afroamerikanerinnen[br]einfach in der Situation, dass sie 0:14:27.220,0:14:31.779 deutlich häufiger kontrolliert werden und[br]es einfach dadurch mehr Straffälle in 0:14:31.779,0:14:36.550 dem Datensatz gibt. Und auf der auch auf[br]der anderen Seite auf der Y Seite, das 0:14:36.550,0:14:40.459 heißt diese Risikobeurteilung, ob man[br]rückfällig wird oder nicht, ist ebenfalls 0:14:40.459,0:14:45.269 eine Verfälschung. Denn die bezieht sich[br]ja auch nur auf die, die vom Rechtssystem 0:14:45.269,0:14:49.899 verurteilt werden.[br]Das heißt hier haben wir auch ein Y'. Wenn 0:14:49.899,0:14:54.089 man zum Beispiel ein Jurysystem hat, wie[br]man es in den USA findet, dann kann auch 0:14:54.089,0:14:58.790 dort latent oder weniger latent[br]diskriminiert werden. Das macht Maschine 0:14:58.790,0:15:04.399 Learning – pseudo-objektive, mathematische[br]Modelle – zu einer Art Geldwäsche für 0:15:04.399,0:15:08.649 Vorurteile. Weil sie fallen in dieses[br]System rein und sind dann erst einmal 0:15:08.649,0:15:14.360 nicht mehr sichtbar. Und hier kommen wir[br]jetzt zum Element der direkten 0:15:14.360,0:15:17.339 Beeinflussung.[br]Denn diese Systeme werden zwar nur als 0:15:17.339,0:15:22.019 Entscheidungshilfen verkauft, es sind halt[br]nur Werkzeuge, die genutzt werden können, 0:15:22.019,0:15:26.350 aber die Leute, die die Entscheidung[br]treffen, verlassen sich direkt auf diese 0:15:26.350,0:15:29.949 Systeme. Das heißt sie vertrauen diesen[br]diskriminierenden Algorithmen. Das 0:15:29.949,0:15:33.429 Beispiel kommt aus dem hervorragenden[br]Deutschlandfunk-Feature von Thomas 0:15:33.429,0:15:39.689 Schimmeck. Und der hat zum Beispiel[br]Veronika Hiller, die Bewährungshelferin, 0:15:39.689,0:15:45.019 die dem Richter im Endeffekt ein Strafmaß[br]vorschlägt, interviewt. Das Spannende ist, 0:15:45.019,0:15:48.189 die hat also ein Vierteljahrhundert[br]Erfahrung im Dienst. Aber sie schwört auf 0:15:48.189,0:15:52.839 diesen Algorithmus. Sie sagt der ist gut,[br]akkurat und einfach. Was wir einfach 0:15:52.839,0:15:57.989 zeigen wollen, ist, dass es hier um sozio-[br]technische Systeme geht. Das heißt es 0:15:57.989,0:16:01.519 geht nicht nur um das Maschine Learning.[br]Es geht nicht nur um den Algorithmus. 0:16:01.519,0:16:05.389 Sondern es geht auch um die Menschen, die[br]ihn nutzen. Denn selbst wenn das System 0:16:05.389,0:16:09.569 fair wäre – wir haben gerade gesehen dass[br]es das nicht ist –, heißt es immer noch 0:16:09.569,0:16:13.910 nicht, dass die Ergebnisse des Systems[br]auch fair interpretiert werden, und wir 0:16:13.910,0:16:17.740 finden das ist sehr wichtig für jene, die[br]solche Systeme bauen – und da sind 0:16:17.740,0:16:22.389 wahrscheinlich einige heute hier. Diese[br]Verzerrung in und durch Daten sind 0:16:22.389,0:16:27.089 allgegenwärtig. Wir haben zum Beispiel[br]hier ein Beispiel von Google. Das ist eine 0:16:27.089,0:16:32.100 Suche nach den Keywords „Three White[br]Teenagers". Und das ist eine Suche nach 0:16:32.100,0:16:38.489 den Keywords „Three Black Teenagers". Das[br]heißt Technologie offenbart hier 0:16:38.489,0:16:41.779 gesellschaftliche Probleme.[br]Wir haben es wie gesagt mit sozi- 0:16:41.779,0:16:46.769 technischen Systemen zu tun, die eine[br]bestimmte Weltvorstellung festschreiben, 0:16:46.769,0:16:51.660 vermitteln, aber auch verstärken können.[br]Und die Probleme können ganz subtil und 0:16:51.660,0:16:55.749 banal sein wie zum Beispiel dieses[br]Beispiel aus der statistischen Übersetzung 0:16:55.749,0:16:59.500 zeigt: Jetzt muss man wissen, dass die[br]türkische Sprache nicht zwischen 0:16:59.500,0:17:04.279 Geschlechtern unterscheidet, das heißt[br]„er", „sie" und „es" sind alle „o". Es 0:17:04.279,0:17:07.669 gibt auch keine Unterscheidung zwischen[br]„Arzt" und „Ärztin" beides „Doktor". Und 0:17:07.669,0:17:11.869 wenn wir jetzt mit Google Translate oder[br]einem anderen statistischen 0:17:11.869,0:17:16.970 Übersetzungsprogramm Sätze wie „Er ist ein[br]Babysitter." und „Sie ist eine Ärztin." 0:17:16.970,0:17:21.449 hin und her übersetzen, dann stellen wir[br]fest, dass die Übersetzung bestimmte 0:17:21.449,0:17:23.140 Geschlechterklischees widerspiegelt. 0:17:23.140,0:17:27.659 Und ihr könnt mit dem was ihr bisher über[br]Machine Learning gelernt habt in diesem 0:17:27.659,0:17:32.380 Vortrag vielleicht schon erklären, wie das[br]passiert. Wir lernen aus Beispielen und in 0:17:32.380,0:17:37.520 diesen Beispielen sind Verzerrungen. In[br]diesem Fall mehr weibliche Babysitter, 0:17:37.520,0:17:41.440 mehr männliche Ärzte.[br]Denn wenn wir übersetzen dann berechnen 0:17:41.440,0:17:45.080 wir ja Wahrscheinlichkeiten und nehmen in[br]der Regel einfach das wahrscheinlichste 0:17:45.080,0:17:49.169 Ergebnis. Das heißt selbst minimale[br]Verzerrungen können verstärkt werden. Das 0:17:49.169,0:17:54.539 heißt eine Babysitterin mehr, ein Arzt[br]mehr und diese Übersetzung sieht so aus, 0:17:54.539,0:17:59.299 wie wir sie gerade sehen. Aber hier haben[br]wir etwas, das technisch erklärbar ist. 0:17:59.299,0:18:03.010 Aber welche Auswirkungen hat das auf die[br]NutzerInnen. Welche Auswirkungen hat das 0:18:03.010,0:18:09.450 auf die Weltsicht, wenn man die Google-[br]Ergebnisse so sieht wie man sie sieht. Und 0:18:09.450,0:18:13.760 anhand von Facebook wollen wir jetzt[br]zeigen, wie direkt und intransparent diese 0:18:13.760,0:18:17.730 Beeinflussung sein kann. Auch Facebook ist[br]ein hochkomplexes sozio-technisches 0:18:17.730,0:18:22.760 System, in dem NutzerInnen gleichzeitig[br]Produzenten und KonsumentInnen sind. 0:18:22.760,0:18:28.690 Facebooks erklärtes Ziel lautet ja, jedem[br]zu jeder Zeit die richtigen Inhalte zu 0:18:28.690,0:18:34.250 zeigen. Dafür nutzt Facebook nach eigener[br]Aussage hundert tausend verschiedene 0:18:34.250,0:18:38.440 Faktoren, um algorithmisch die besten[br]Geschichten aus den potenziellen 0:18:38.440,0:18:40.159 Geschichten auszuwählen. 0:18:40.159,0:18:44.549 Das heißt, wenn ihr euch jetzt vorstellt -[br]das sind jetzt Zahlen aus dem Kosinski- 0:18:44.549,0:18:50.750 Paper mit den Persönlichkeitsmerkmalen.[br]Das heißt da haben die Leute im Median 200 0:18:50.750,0:18:56.710 Bekannte und liken 68 Seiten. Das heißt[br]wenn nur jeder Dritte was macht, dann sind 0:18:56.710,0:19:00.970 das pro Tag 90 potenzielle Beiträge. Wenn[br]man jetzt nur fünf oder zehn Minuten auf 0:19:00.970,0:19:04.460 der Seite verweilt, dann kann man sich[br]nicht angucken. Das heißt eine 0:19:04.460,0:19:10.130 chronologische Darstellung ist zwecklos[br]und eine Kuration unumgänglich. Und 0:19:10.130,0:19:15.080 deswegen sortiert Facebook die Nachrichten[br]nach einem Algorithmus. Das Problem ist 0:19:15.080,0:19:18.240 aber, dass dieser Vorgang sehr[br]intransparent ist. Das heißt die 0:19:18.240,0:19:19.929 NutzerInnen sehen und verstehen die[br]Algorithmen nicht 0:19:19.929,0:19:25.000 Und die glauben im Zweifelsfall wenn sie[br]darauf angesprochen werden, dass die 0:19:25.000,0:19:30.179 Algorithmen objektiv und unabhängig sind.[br]Und dabei beziehe ich mich auf folgende 0:19:30.179,0:19:35.620 Studie. Die kommt aus der CHI, der[br]Computer Human Interaction Community. Und 0:19:35.620,0:19:42.180 dort waren sich 62,5% der Teilnehmer und[br]Teilnehmerinnen in dieser Studie der 0:19:42.180,0:19:47.659 Existenz von Newsfeed-Algorithmen, also[br]von dieser algorithmischen Kuration, nicht 0:19:47.659,0:19:51.830 bewusst. Das heißt wir haben hier eine[br]qualitative Studie mit 40 TeilnehmerInnen, 0:19:51.830,0:19:56.010 die so ausgewählt wurden, dass sie[br]repräsentativ sind für die US- 0:19:56.010,0:20:00.980 Grundgesamtheit. Und von denen war also 25[br]Personen nicht bewusst, dass überhaupt 0:20:00.980,0:20:06.580 irgendwie sortiert wird. Die Studie zeigt[br]auch, dass die TeilnehmerInnen durchaus 0:20:06.580,0:20:11.029 verärgert sind, wenn sie Posts von engen[br]Freunden oder Familienmitgliedern nicht 0:20:11.029,0:20:15.960 sehen. Spannend ist aber jetzt: Die[br]Teilnehmer suchen den Fehler eher bei sich 0:20:15.960,0:20:19.330 oder anderen, als bei einem Algorithmus,[br]von dem sie im Zweifelsfall auch nichts 0:20:19.330,0:20:24.660 wissen. Sie glauben dann z.B. dass sie[br]etwas übersehen haben oder sie denken, 0:20:24.660,0:20:30.029 dass ihnen bestimmte Bekannte bewusst[br]Geschichten vorenthalten, weil sie 0:20:30.029,0:20:33.649 vielleicht nicht so gut miteinander[br]bekannt sind, sich noch nicht so gut 0:20:33.649,0:20:37.289 kennen. Daher kommt auch dieses[br]titelgebende Zitat: "I always assumed that 0:20:37.289,0:20:41.480 I wasn't really that close to [that[br]person], so that's fine. What the hell?" 0:20:41.480,0:20:45.130 Das heißt hier hat jemand gedacht "Okay,[br]ich sehe die Babyfotos vielleicht nicht, 0:20:45.130,0:20:49.490 weil ich die Person nicht so gut kenne,[br]aber die Person hat das für alle geteilt". 0:20:49.490,0:20:54.100 Und hier hat der Algorithmus jetzt die[br]Entscheidung getroffen, dass Person A das 0:20:54.100,0:20:59.590 Baby von Person B nicht sieht. Das heißt[br]diese Systeme, die im Schatten agieren und 0:20:59.590,0:21:04.090 denen sich die BenutzerInnen nicht bewusst[br]sind, haben Auswirkungen auf 0:21:04.090,0:21:08.370 zwischenmenschliche Beziehungen. Sie[br]rekonfigurieren sie. Und darüber hinaus 0:21:08.370,0:21:11.820 muss man sich auch noch einmal bewusst[br]machen, was diese Nachrichten- 0:21:11.820,0:21:15.899 Empfehlungssysteme eigentlich erreichen[br]wollen. Sie sind ja von der Art her wie 0:21:15.899,0:21:20.909 Netflix. Das heißt wenn ich auf Youtube[br]oder einem anderen Portal mir Videos 0:21:20.909,0:21:24.990 angucke und ich gucke mir zehn Videos an[br]und davon sind vier mit lustigen Hunde- 0:21:24.990,0:21:30.461 Babys, dann folgert das System "Ok,[br]Hendrik mag lustige Hunde-Babys. Dem zeige 0:21:30.461,0:21:34.701 ich jetzt in Zukunft mehr lustige Hunde-[br]Babys". Nun sind aber auch Nachrichten auf 0:21:34.701,0:21:39.350 Plattformen wie Youtube. Das heißt wenn[br]ich mir jetzt zehn Videos angucke und von 0:21:39.350,0:21:43.710 denen geht es in vielen darum, dass[br]Flüchtlinge kriminell sind, dann empfiehlt 0:21:43.710,0:21:48.720 mir das System Videos von kriminellen[br]Flüchtlingen. Das heißt da passiert etwas 0:21:48.720,0:21:55.169 mit meiner Weltwahrnehmung. Das heißt so[br]derartige Filterblasen und Echokammern 0:21:55.169,0:21:59.840 entstehen online. Die gibts natürlich auch[br]im echten Leben. Der Freundeskreis ist 0:21:59.840,0:22:04.701 auch eine Echokammer, in der bestimmte[br]Weltvorstellungen geteilt werden, aber 0:22:04.701,0:22:09.360 hier sind sie durchaus intransparenter,[br]denn es passiert unter dem gleichen Logo. 0:22:09.360,0:22:14.830 Bei mir ist ein YouTube-Logo, bei euch ist[br]ein YouTube-Logo. Und das sind Probleme, 0:22:14.830,0:22:18.190 denen wir uns stellen müssen, mit denen[br]wir umgehen müssen. 0:22:18.190,0:22:22.820 Und das war mein Teil zur Perspektive der[br]Mensch-Computer-Interaktion, die sich also 0:22:22.820,0:22:26.799 als eigenes Feld mit derartigen[br]Fragestellungen auseinandersetzt. Und ich 0:22:26.799,0:22:31.370 übergebe jetzt an Karen, die nochmal[br]technisch ins Detail gehen wird. 0:22:31.370,0:22:43.649 Applaus[br]Karen: Ja. Zum ersten Teil dieser Präsentation 0:22:43.649,0:22:48.309 zeigten wir, dass Algorithmen uns schon[br]heute schon beeinflussen, bewusst und 0:22:48.309,0:22:52.100 unbewusst, direkt und indirekt. Und wir[br]haben gesehen mit welcher Rigorosität ihre 0:22:52.100,0:22:57.220 Voraussagen umgesetzt werden, nachdem sie[br]einmal zur Verfügung stehen. Das immer 0:22:57.220,0:23:00.149 unter der Annahme der[br]Unvoreingenommenheit. Wir haben auch 0:23:00.149,0:23:04.470 bereits angedeutet, dass dieses massive[br]Vertrauen nicht unbedingt angebracht ist. 0:23:04.470,0:23:08.870 In diesem zweiten Teil der Präsentation[br]möchten wir darauf eingehen wann dieses 0:23:08.870,0:23:12.019 Vertrauen nicht angebracht ist. Dabei[br]möchte ich besonders auf ein Wort 0:23:12.019,0:23:17.320 eingehen, das wir bereits viel verwendet[br]haben. Das Wort Bias oder zu Deutsch 0:23:17.320,0:23:20.630 Verzerrung. Beim maschinellen Lernen[br]können wir grundsätzlich in zwei 0:23:20.630,0:23:24.050 verschiedene Formen von Bias[br]unterscheiden. Auf der einen Seite haben 0:23:24.050,0:23:29.320 wir Bias der Daten, also Bias der ein[br]Spiegel ist unserer eigenen Vorurteile und 0:23:29.320,0:23:33.090 Moralvorstellungen, ob uns das jetzt[br]bewusst ist oder nicht. 0:23:33.090,0:23:37.110 Bias in Daten kann aber auch entstehen[br]ganz zufällig durch mangelhafte Erhebung 0:23:37.110,0:23:42.890 von Daten. Wenn das passiert wird eine[br]Grundgesamtheit also die Population 0:23:42.890,0:23:48.580 verzerrt abgebildet. Auf der anderen Seite[br]befindet sich der Bias durch das 0:23:48.580,0:23:51.399 Modellieren.[br]Das sind also die Gesamtheit aller 0:23:51.399,0:23:54.370 Annahmen die Ingenieure und[br]Wissenschaftler von Algorithmen machen und 0:23:54.370,0:24:00.490 machen müssen, um überhaupt Voraussagen[br]treffen zu können. Dabei kann sich 0:24:00.490,0:24:08.120 wiederum der Bias des Modells so auf die[br]Daten auswirken, dass der Bias in den 0:24:08.120,0:24:11.919 Daten verringert wird. Dazu gibt es[br]vielfältige Forschung. Es kann aber auch 0:24:11.919,0:24:18.630 den Bias in den Daten verstärken. Auf der[br]anderen Seite knn auch Bias in Daten den 0:24:18.630,0:24:24.690 Modellier-Bias beeinflussen. Wir werden im[br]Folgenden, den folgenden 4 Beispielen, uns 0:24:24.690,0:24:28.860 mit all diesen Phänomenen auseinander-[br]setzen. Maschinelles Lernen hat in den 0:24:28.860,0:24:32.659 letzten Jahren viele Durchbrüche bei der[br]algorithmischen Wahrnehmung erzielt. 0:24:32.659,0:24:37.250 Algorithmen bewältigen kognitive Aufgaben,[br]die vor kurzem in weiter Ferne schienen. 0:24:37.250,0:24:42.220 Das hat aber auch eine Welle von Forschung[br]ausgelöst, die unlösbar geglaubte Aufgaben 0:24:42.220,0:24:46.809 wieder aufgreift und neu bewertet.[br]Eine Studie dieser Welle ist im November 0:24:46.809,0:24:52.779 letzten Jahres erschienen zwei Forscher[br]der Shanghai Jiaotong-Universität 0:24:52.779,0:24:57.620 behaupten zeigen zu können, dass man[br]Menschen mit kriminellen Absichten bereits 0:24:57.620,0:25:01.289 an einem einfachen Ausweis-Foto erkennen[br]kann und dies mit 90 prozentiger 0:25:01.289,0:25:06.669 Trefferwahrscheinlichkeit. Dieses Ergebnis[br]steht natürlich im starken Kontrast zu den 0:25:06.669,0:25:10.250 Forschungsergebnissen der letzten Dekaden,[br]die Kriminalität eher sozio-ökonomischen 0:25:10.250,0:25:14.019 Umständen zuschreiben. Wir wollen uns also[br]im Folgenden mit dieser Studie ein 0:25:14.019,0:25:19.929 bisschen näher beschäftigen. Die Autoren[br]sammelten hierzu 1800 Fotos von Chinesen 0:25:19.929,0:25:24.740 im Alter zwischen 18 und 55 Jahren, die[br]keine bemerkbaren Gesichtsbehaarungen, 0:25:24.740,0:25:30.120 Narben oder Tattoos zeigten. Dabei[br]repräsentieren zirka 700 Fotos die Rubrik 0:25:30.120,0:25:35.889 kriminell. Die Fotos selbst wurden von der[br]Polizei bereitgestellt und es handelt sich 0:25:35.889,0:25:39.669 bei allen Fotos um bereits verurteilte[br]Straftäter. 0:25:39.669,0:25:42.730 Auf der anderen Seite mussten nun auch[br]Bilder rechtschaffender Bürger 0:25:42.730,0:25:47.429 repräsentiert werden. Dafür wurden 1100[br]Fotos aus verschiedenen Quellen des 0:25:47.429,0:25:50.750 Internets beschafft. Dabei ist anzunehmen,[br]dass diese von Seiten wie LinkedIn 0:25:50.750,0:25:55.190 stammen, da die Autoren den Beruf der[br]vermeintlich rechtschaffenen kennen. Um 0:25:55.190,0:25:59.679 uns nun ein besseres Bild über die Daten[br]zu machen, wollen wir uns also ein paar 0:25:59.679,0:26:03.710 Datenpunkte anschauen.[br]Jeder dieser Reihe entsprechen drei 0:26:03.710,0:26:07.629 Datenpunkte aus jeweils einer Kategorie[br]kriminell oder rechtschaffend. 0:26:07.629,0:26:10.450 Dazu würde ich ein kleines Experiment[br]wagen. Also ich zähle dann gleich mal bis 0:26:10.450,0:26:15.220 zwei und alle die glauben, die obere Reihe[br]seien die Rechtschaffenden, die bitte ich 0:26:15.220,0:26:20.429 dann die linke Hand zu heben. Ich hebe die[br]rechte Hand, damit ihr wisst, welche Hand. 0:26:20.429,0:26:24.140 Und diejenigen, die denken die untere[br]Reihe wären die Rechtschaffenden, die 0:26:24.140,0:26:27.320 bitte ich also die rechte Hand zu heben.[br]Das können wir gleich mal probieren, also 0:26:27.320,0:26:32.832 ich zähle nochmal bis 2: eins, zwei und[br]dann heben wir halt die Hand. 0:26:32.832,0:26:36.620 Okay. Also die meisten von uns sind uns[br]relativ einig dass wir die rechtschaffenen 0:26:36.620,0:26:40.549 identifizieren können. Aber warum können[br]wir das? Eigentlich sollten Menschen dazu 0:26:40.549,0:26:45.190 ja nicht in der Lage sein und wir wissen,[br]dass wir dazu nicht in der Lage sind. 0:26:45.190,0:26:49.870 Ich denke also die meisten von uns haben[br]gewisse Hinweise in den Bildern 0:26:49.870,0:26:53.490 wahrgenommen, die auf der[br]Unterschiedlichkeit der Quellen beruhen. 0:26:53.490,0:26:57.399 Also ganz offensichtlich hier der Kragen[br]im Bild, der darauf hinweist, dass es 0:26:57.399,0:27:02.380 vielleicht ein Bewerbungsfoto sein könnte[br]oder ein leichtes Grinsen im Gesicht. 0:27:02.380,0:27:07.440 Dahingegen sind die Leute, die auf der[br]kriminellen Seite sind nicht besonders 0:27:07.440,0:27:10.360 vorteilhaft dargestellt. Also dem Mann[br]hier wird der Scheinwerfer ins Gesicht 0:27:10.360,0:27:17.260 gestrahlt, was dann Hautunreinheiten und[br]Falten besonders betont. Wohingegen bei 0:27:17.260,0:27:21.049 den Bewerbungsfotos offensichtlich Make-Up[br]im Spiel ist oder Photoshop. Im 0:27:21.049,0:27:28.940 trivialsten Fall kann es also sein, dass[br]der Algorithmus einfach nur erkennt, in 0:27:28.940,0:27:32.710 welchen Fotos Photoshop nachgeholfen hat.[br]Das kann man also zum Beispiel schon an 0:27:32.710,0:27:37.500 lokalen Pixel Statistiken gut erkennen.[br]Diese Studie ist vielleicht ein extremes 0:27:37.500,0:27:41.910 Beispiel, wie gravierend sich die[br]verwendeten Daten auf das Ergebnis einer 0:27:41.910,0:27:45.730 Voraussage eines Algorithmus auswirken[br]können. Dies ist ein besonders starkes 0:27:45.730,0:27:50.360 Beispiel für Stichproben-Verzerrung, also[br]Bias in dem Gruppen unterschiedlich 0:27:50.360,0:27:53.710 dargestellt werden.[br]Bias kann aber auch entstehen ganz 0:27:53.710,0:27:57.190 zufällig, wenn zu wenige Datenpunkte[br]vorhanden sind, um verlässliche Aussagen 0:27:57.190,0:27:59.940 zu treffen.[br]Solche Probleme sehen wir also oft in 0:27:59.940,0:28:04.929 medizinischen Studien oder psychologischen[br]Studien, wo Tests teuer und langwierig 0:28:04.929,0:28:08.750 sind.[br]Melde-Bias beschreibt, wenn Befragte 0:28:08.750,0:28:11.379 unkorrekte Angaben machen.[br]Das geschieht zum Beispiel oft bei 0:28:11.379,0:28:15.529 Gewaltverbrechen, bei denen Angst und[br]Repression eine Rolle spielen. Und 0:28:15.529,0:28:20.140 natürlich spielen auch die verwendeten[br]Merkmale, die ein gewisses Problem 0:28:20.140,0:28:25.250 beschreiben sollen, eine große Rolle.[br]Kommen wir nun zur zweiten Kategorie: dem 0:28:25.250,0:28:29.049 Bias in den Modellen.[br]Hat man sich früher also vor dem die 0:28:29.049,0:28:33.590 Deeplearning-Hype, sagen wir mal vor 2012[br]eine Einführungsveranstaltung zum 0:28:33.590,0:28:37.700 maschinellen Lernen gesetzt, dann begann[br]fast jeder mit dem Erklären des No-free- 0:28:37.700,0:28:44.659 Lunch-Theorems. Also der Aussage, dass[br]kein Modell in allen möglichen Szenarien 0:28:44.659,0:28:47.549 funktioniert.[br]Daraus schlussfolgerten wir, dass wir 0:28:47.549,0:28:52.820 Annahmen machen müssen, die das Modell im[br]Hinblick auf unser spezifisches Problem 0:28:52.820,0:28:58.120 beschränken. Diese Annahmen haben aber[br]ihre Grenzen. Dann versagt das Modell, 0:28:58.120,0:29:00.399 ohne dass sich das Modell darüber bewusst[br]ist. 0:29:00.399,0:29:07.230 Das heißt also unser Job als[br]Wissenschaftler oder Studierender ist es, 0:29:07.230,0:29:14.890 diese Grenzfälle zu benennen und zu[br]testen, ob in unserem speziellen 0:29:14.890,0:29:17.950 Anwendungsfall diese Algorithmen nicht[br]versagen. 0:29:17.950,0:29:23.029 An diesen Prinzipien hat sich auch bis[br]heute nichts geändert, aber der Erfolg des 0:29:23.029,0:29:25.490 maschinellen Lernens in bestimmten[br]Bereichen lässt selbst uns 0:29:25.490,0:29:29.610 WissenschaftlerInnen diese universalen[br]Regeln manchmal vergessen. 0:29:29.610,0:29:33.509 Wir sind dann versucht zu glauben, dass[br]Modelle so flexibel sind, dass die Grenzen 0:29:33.509,0:29:37.000 quasi nicht mehr existieren.[br]Im Folgenden möchte ich aber auf ein 0:29:37.000,0:29:40.970 Beispiel eingehen, das sich auch mit dem[br]Deeplearning-Hype gar nicht geändert hat. 0:29:40.970,0:29:46.750 Und das ist das Problem der Zielsetzung[br]und die Frage, wie Erfolg zu bewerten ist. 0:29:46.750,0:29:51.799 Am Beginn des Vortrags sprach Hendrik über[br]das Messen von Fehlern und, dass das 0:29:51.799,0:29:55.049 Korrigieren dieser Fehler ein wichtiger[br]Mechanismus sei, um Algorithmen zu 0:29:55.049,0:29:58.590 trainieren.[br]Doch was ein Fehler ist, ist oft nicht 0:29:58.590,0:30:02.200 einfach zu bestimmen und es liegt in der[br]Hand des Ingenieurs zu definieren. 0:30:02.200,0:30:04.321 Zum Beispiel wie messe ich Erfolg bei[br]YouTube-Empfehlungen? 0:30:04.321,0:30:09.150 Messe ich die Zeit die jemand auf der[br]Plattform verbringt? Das kann aber auch 0:30:09.150,0:30:12.220 bedeuten, dass der PC vielleicht noch[br]einer Ecke steht und die Personen gar 0:30:12.220,0:30:15.710 nicht mehr im Raum ist oder messe ich die[br]Anzahl von Klicks? Aber wenn diese zu 0:30:15.710,0:30:19.250 frequent sind, dann bedeutet das[br]vielleicht, dass die Person das Video gar 0:30:19.250,0:30:23.580 nicht mag.[br]Ein anderes Problem sind Übersetzungen. 0:30:23.580,0:30:32.170 Stellen Sie sich nur also vor, dass wir[br]einen Korpus von Übersetzungen haben und 0:30:32.170,0:30:36.380 wir wollen messen, ob ein Text richtig[br]übersetzt wurde. 0:30:36.380,0:30:43.620 Wie können wir das messen? Wort für Wort[br]oder Paragraph für Paragraph? Wenn wir 0:30:43.620,0:30:46.870 Wort für Wort messen, dann spielen wir[br]vielleicht mit der Wortreihenfolge in 0:30:46.870,0:30:49.299 verschiedenen Sprachen und das[br]funktioniert dann nicht so gut. Wenn wir 0:30:49.299,0:30:53.659 Paragraph für Paragraph messen,[br]funktioniert das vielleicht nicht so gut, 0:30:53.659,0:30:58.179 weil der Algorithmus den Kontext nicht[br]mehr begreift. Und wie gehen wir mit 0:30:58.179,0:31:01.130 Synonymen um? Wenn also der Algorithmus[br]ein richtiges Synonymen gefunden hat, wird 0:31:01.130,0:31:04.720 dann trotzdem ein Fehler berechnet, wenn[br]der spezielle Datenpunkt besagt, dass das 0:31:04.720,0:31:08.340 vielleicht als ein anderes Synonym zu[br]übersetzen ist? Man muss also 0:31:08.340,0:31:13.299 Entscheidungen treffen. Die Ingenieure bei[br]Google und anderen führenden 0:31:13.299,0:31:20.970 Übersetzungssystem beantworten die Frage[br]folgendermaßen: Wir übersetzen Satz für 0:31:20.970,0:31:25.880 Satz. Dabei gehen wir davon aus, dass[br]Sätze unabhängig sind und nur das 0:31:25.880,0:31:30.049 wahrscheinlichste Wort oder die[br]wahrscheinlichste Phrase wird richtig 0:31:30.049,0:31:35.380 bewertet. Wenn wir also nochmal auf das[br]Beispiel aus der ersten Hälfte des 0:31:35.380,0:31:40.360 Vortrags eingehen. Wenn wir[br]nun "Sie ist eine Frau. Sie ist Ärztin" in 0:31:40.360,0:31:45.690 das genderneutrale Türkisch übersetzen zu[br]"O bir kadın. O bir doktor." und dann 0:31:45.690,0:31:51.090 zurückübersetzen ins Deutsche, dann wird[br]dies mit "Sie ist eine Frau. Er ist Arzt" 0:31:51.090,0:31:55.200 übersetzt. Und jetzt wissen wir auch[br]warum. Da wir annahmen, dass Sätze 0:31:55.200,0:31:58.779 unabhängig sind weiß der Algorithmus gar[br]nichts vom Kontext, also dass wir hier 0:31:58.779,0:32:04.580 über eine Frau sprechen. Wenn der[br]Algorithmus "O bir doktor" dann übersetzt, 0:32:04.580,0:32:08.360 übersetzt der nur die wahrscheinlichste[br]Phrase und die ist "Er ist Arzt". Es 0:32:08.360,0:32:12.389 handelt sich hier also nicht um Bias in[br]den Daten oder zumindest nicht unbedingt, 0:32:12.389,0:32:20.009 sondern um Bias in den Annahmen die das[br]Modell zu sehr vereinfachen. Ein zweites 0:32:20.009,0:32:23.289 Beispiel führt das noch klarer vor Augen.[br]Wenn wir hier eben den Punkt durch ein 0:32:23.289,0:32:30.830 Komma ersetzen, dann kann der Algorithmus[br]es richtig übersetzen, weil er sich des 0:32:30.830,0:32:36.970 Kontexts bewusst ist. Im nächsten Beispiel[br]um das Phänomen Bias wollen wir zeigen wie 0:32:36.970,0:32:39.909 Bias in Modellen Bias in Daten verstärken[br]kann. 0:32:39.909,0:32:44.820 Dies wird besonders in sogenannten aktiven[br]Lernszenarien bewusst. Aktives Lernen 0:32:44.820,0:32:52.190 funktioniert wie folgt. Wir haben Daten,[br]auf deren Grundlage wir einen Algorithmus 0:32:52.190,0:32:55.990 lernen. Für manche Voraussagen sind wir[br]uns aber nicht sicher. Darum fragen wir 0:32:55.990,0:32:59.990 einen menschlichen Experten um Rat und der[br]Algorithmus fragt dann meistens die 0:32:59.990,0:33:06.950 folgende Frage: Habe ich diesen Datenpunkt[br]richtig bewertet? Und falls nicht, bitte 0:33:06.950,0:33:11.970 um Feedback! Das führt dazu, dass der[br]Algorithmus in der Zukunft mehr Daten zur 0:33:11.970,0:33:16.309 Verfügung gestellt bekommt, um dann besser[br]zu lernen und weniger oft um Hilfe fragen 0:33:16.309,0:33:22.070 zu müssen. Das klingt gut. Und so viel zum[br]störungsfreien Ablauf. Was aber nun wenn 0:33:22.070,0:33:27.070 ein Datenpunkt mit falschen oder[br]verzerrten Merkmalen beschrieben wird? Und 0:33:27.070,0:33:31.399 dazu kommt, dass unser Mensch vielleicht[br]nicht so wachsam ist, wie wir in unserem 0:33:31.399,0:33:37.420 Modell annehmen. Wir haben also eine[br]kleine Verzerrung im Datensatz, und die 0:33:37.420,0:33:42.710 Annahme des idealen Menschen wird verletzt[br]in unserem eigentlichen Phänomen. Dieser 0:33:42.710,0:33:47.909 falsche Datenpunkt wird also ignoriert.[br]Das führt dann dazu, dass, obwohl die 0:33:47.909,0:33:52.490 Ursache der Verzerrung nicht mehr aktiv[br]ist, dieser Datenpunkt nun vermehrt wird 0:33:52.490,0:33:57.000 aufgrund der Tatsache, dass der Mensch[br]nicht auf die Frage, habe ich diesen 0:33:57.000,0:34:02.512 Datenpunkt richtig bewertet, reagiert.[br]Und das führt dann wiederum dazu, wenn man 0:34:02.512,0:34:04.720 mehr[br]verzerrte Daten hat, dass diese mehr 0:34:04.720,0:34:08.590 verzerrten Daten sich immer weiter[br]vermehren können. Wann kann ich das also 0:34:08.590,0:34:13.710 jetzt in freier Wildbahn beobachten? Es[br]ist relativ schwer zu sagen, weil sich 0:34:13.710,0:34:16.600 natürlich solche großen Player wie Google[br]oder Facebook nicht immer in die Karten 0:34:16.600,0:34:21.320 blicken lassen. Aber ich denke ein Tweet[br]aus dem vergangenen Jahr lässt darauf 0:34:21.320,0:34:27.090 schließen, dass das vielleicht hier[br]passiert sein könnte. Also eine 0:34:27.090,0:34:30.679 Afroamerikanerin mit Kussmund, in der[br]Mitte unten, wird hier als Gorilla 0:34:30.679,0:34:33.489 bezeichnet. Das ist eine[br]geschichtsträchtige Bezeichnung für 0:34:33.489,0:34:37.130 Afroamerikaner in Amerika und hat[br]natürlich große Wellen geschlagen. Google 0:34:37.130,0:34:41.190 erklärt die Ursache des Fehlers nicht[br]genau genug, um genau zu wissen, was ihn 0:34:41.190,0:34:46.670 ausgelöst hat, aber zwei Probleme können[br]eine Rolle gespielt haben. Eins wäre, dass 0:34:46.670,0:34:50.320 die Bildbeschreibung immer von Menschen[br]bereitgestellt wird, und die erlauben sich 0:34:50.320,0:34:55.679 gerne mal zu trollen und verfälschen das[br]originale Datenset damit. Das kann aber 0:34:55.679,0:34:59.180 nicht die einzige Ursache sein. Es kommt[br]also mindestens noch dazu, dass gewisse 0:34:59.180,0:35:02.180 Gruppen von Menschen entweder einfach sehr[br]klein sind in einer Gesellschaft oder 0:35:02.180,0:35:06.480 unterrepräsentiert sind. Und vielleicht[br]auch drittens, man muss schon sagen dass 0:35:06.480,0:35:11.650 bei großen Tech-Firmen sehr wenig[br]Grenzszenarien oder Szenarien getestet 0:35:11.650,0:35:15.560 werden. Wir denken da zum Beispiel an den[br]Microsoft Chatbot, der ganz ähnliche 0:35:15.560,0:35:22.130 Phänomene gezeigt hat. Also der dann auch[br]sehr rassistische Chat-Nachrichten 0:35:22.130,0:35:26.880 geschrieben hat. Das letzte relevante[br]Beispiel zum Thema Bias soll aus dem 0:35:26.880,0:35:32.130 Bereich des übertragenden Lernens kommen.[br]Hierbei ist das Ziel das Lösen einer 0:35:32.130,0:35:37.490 Aufgabe. Und diese Aufgabe hat aber nur[br]wenige Datenpunkte. Und das sind nicht 0:35:37.490,0:35:40.960 genug, um den Algorithmus erfolgreich[br]lernen zu lassen. Aber es gibt eine 0:35:40.960,0:35:44.950 ähnliche Aufgabe, die erfolgreich gelöst[br]werden kann. Und die Idee ist nun, dass 0:35:44.950,0:35:50.100 gut funktionierende Modell zu verwenden um[br]unseren eigentlichen Problemen zu helfen. 0:35:50.100,0:35:57.310 Diese Technik führt aber wieder zu[br]Verzerrungen, die nur schwer bestimmt und 0:35:57.310,0:36:00.750 kontrolliert werden können.[br]Das wird klar, wenn wir ein konkretes 0:36:00.750,0:36:04.440 Beispiel betrachten. Wir können eine ganze[br]Halle voll Roboterarme stellen, um ihnen 0:36:04.440,0:36:10.180 bestimmte motorische Aufgaben[br]beizubringen. Aber selbst 1000 Roboterarme 0:36:10.180,0:36:17.530 lernen nur mühsam. Was also gang und gäbe[br]ist in der modernen Robotik, sind dass man 0:36:17.530,0:36:23.020 Systeme in Simulationen üben lässt.[br]Systeme werden also für Tausende Jahre in 0:36:23.020,0:36:26.730 Simulationen geübt. Das ist natürlich aber[br]nie Realität. Also wir denken da an 0:36:26.730,0:36:31.540 Gravitationssimulationen, die Fehler[br]enthalten kann. Lichtbedingungen, die 0:36:31.540,0:36:34.910 nicht ganz real sind, oder der[br]idealisierte Roboterarm, der hier 0:36:34.910,0:36:40.190 verwendet wird. In diesem Zusammenhang[br]möchte ich auch sagen, wie attraktiv auch 0:36:40.190,0:36:44.100 die Zukunft mit selbstfahrenden Autos[br]erscheinen mag, mit ihren Versprechen nach 0:36:44.100,0:36:47.970 mehr Platz in den Städten, weniger[br]Unfällen und effektiverer Verkehrsführung, 0:36:47.970,0:36:51.581 so sollte man auch sehr skeptisch sein,[br]denn auch diese Systeme haben die meiste 0:36:51.581,0:36:58.840 Lebenserfahrung in Simulationen gesammelt.[br]Eine ganz andere Betrachtungsweise auf 0:36:58.840,0:37:03.140 Daten ist die der Datendichte. Daten[br]können dicht beieinander liegen oder weit 0:37:03.140,0:37:09.380 voneinander entfernt. In Bereichen mit[br]vielen Daten ist es oft einfach korrekte 0:37:09.380,0:37:13.650 Aussagen zu treffen. Neue Datenpunkte in[br]diesen Bereichen zu beschreiben nennt man 0:37:13.650,0:37:18.640 Interpolation. Wohingegen Bereiche mit[br]wenigen Daten oder keinen Datenpunkten 0:37:18.640,0:37:22.920 sehr schwer zu beschreiben sind. Diese[br]Aufgabe beschreibt man mit Extrapolation. 0:37:22.920,0:37:27.692 Korrektes extrapolieren ist im Allgemeinen[br]nicht möglich oder nur möglich, wenn man 0:37:27.692,0:37:30.500 korrekte Annahmen über den[br]Entstehungsprozess der Daten macht. 0:37:30.500,0:37:35.790 Interpolieren, also das Wandern von einem[br]oder mehreren Datenpunkte zum anderen, 0:37:35.790,0:37:40.570 kann so wichtige Fragen des Alltags[br]beantworten wie: Wie würde das Kind von 0:37:40.570,0:37:46.650 Kim Jong-un und Donald J. Trump aussehen?[br]Neueste Anwendungen dieser Technik 0:37:46.650,0:37:51.280 beinhalten auch das gezielte Verändern von[br]Video in Bild und Sprache. Beispielsweise 0:37:51.280,0:37:55.470 wurde hier das Gesicht von der[br]Hauptdarstellerin des Wonder Woman Films, 0:37:55.470,0:38:01.670 Gal Gadot, auf einen pornografischen Film[br]gelegt. Und man muss nicht weit denken um 0:38:01.670,0:38:03.370 sich die Konsequenzen solcher Techniken,[br]für 0:38:03.370,0:38:07.440 Fake News zum[br]Beispiel, vorzustellen. Im extremsten Fall 0:38:07.440,0:38:12.420 gibt es sehr wenige oder keine Daten wo[br]eine Aussage getroffen werden soll. Nun 0:38:12.420,0:38:16.220 ist es wichtig, die richtigen Annahmen zu[br]treffen um extrapolieren zu können. Das 0:38:16.220,0:38:20.730 haben wir bereits gesagt. Das ist aber[br]eine extrem schwere Aufgabe, zu der auch 0:38:20.730,0:38:24.750 moderne Wissenschaft nur wenige und[br]unvollständige Antworten weiß. Was also 0:38:24.750,0:38:28.331 anstatt in aller Regel passiert, ist, dass[br]Algorithmen keine Annahmen machen. Und das 0:38:28.331,0:38:33.630 kann zu unvorhergesehenen Phänomenen[br]führen. Im schlimmsten Fall kann man 0:38:33.630,0:38:38.530 dieses Wissen auch nutzen zu sogenannten[br]feindlichen Attacken auf Algorithmen. Eine 0:38:38.530,0:38:43.340 Attacke verläuft beispielsweise so: Man[br]nehme einen Datenpunkt aus dem Datenset 0:38:43.340,0:38:47.430 und dessen beschreibende Merkmale, also[br]hier z.B. die Bilder von Verkehrsschildern 0:38:47.430,0:38:48.430 und die Verkehrsschilder. 0:38:48.430,0:38:49.430 [38:48] 0:38:49.430,0:38:54.090 Man suche dann fernab von den Daten einen[br]Punkt der sehr ähnlich ist, den aber der 0:38:54.090,0:38:58.830 Algorithmus mit all mit einem ganz anderen[br]Merkmal beschreiben würde. Und das 0:38:58.830,0:39:08.910 gruselige ist, dass dies auch funktioniert[br]mit ausgedruckten Version derselben 0:39:08.910,0:39:13.580 Attacke. Und wenn man nicht dieselben[br]Daten und nicht einmal denselben dasselbe 0:39:13.580,0:39:19.470 Modell kennt oder verwendet. Wen das[br]interessiert dem empfehle ich sehr für die 0:39:19.470,0:39:22.700 nächste Präsentation zu bleiben. Das wird[br]glaube ich ja der Kernpunkt der nächsten 0:39:22.700,0:39:27.780 Präsentation sein. Abschließend zum Thema[br]Möchte ich nochmal ganz deutlich machen, 0:39:27.780,0:39:33.350 dass in allen Systemen des modernen[br]maschinellen Lernens Korrelation evaluiert 0:39:33.350,0:39:39.320 wird und nicht Kausalität. Mathematische[br]Kausalitätsforschung, also dem Suchen nach 0:39:39.320,0:39:43.450 Ursache und Effekt für komplexe Systeme[br]ist erstens ein Kinderschuh und 0:39:43.450,0:39:47.440 Korrelation zu finden und zu beschreiben[br]ist nur einer der Schritte der dazu nötig 0:39:47.440,0:39:53.320 ist. Bevor ich die Frage dann- die Runde[br]für Fragen öffne haben Hendrik und ich 0:39:53.320,0:39:56.050 noch ein Anliegen. Also ich hoffe wir[br]haben umfassend die technischen 0:39:56.050,0:40:00.220 Möglichkeiten des maschinellen Lernens[br]dargestellt und welche Begrenzungen es 0:40:00.220,0:40:06.150 aufweist. Letzteres soll und wird uns als[br]Gesellschaft aber nicht davon abhalten 0:40:06.150,0:40:11.140 diese großartigen Fortschritte zu[br]geniessen. Also denken wir an Mediziner 0:40:11.140,0:40:14.850 und Molekulare Biologie in denen diese[br]Techniken großes Versprechen und auch 0:40:14.850,0:40:19.740 schon geliefert haben. Daraus ergeben sich[br]trotzdem große politische Fragen die uns 0:40:19.740,0:40:23.490 alle etwas angehen. Entscheidungen die[br]Wissenschaftler nicht alleine treffen 0:40:23.490,0:40:28.570 können, wollen oder sollten. Also wir[br]müssen uns Sachen fragen wie: Wer soll im 0:40:28.570,0:40:32.810 konkreten Fall Entscheidungen treffen,[br]Menschen oder Maschinen. Wer ist Schuld 0:40:32.810,0:40:38.500 wenn Fehler passieren: Ingenieure, Firmen,[br]Staat oder vielleicht gar niemand. Wie 0:40:38.500,0:40:44.290 können staatliche Garantien wie Gleichheit[br]juristisch umgesetzt werden im Angesicht 0:40:44.290,0:40:49.700 solcher neuen Algorithmen. Und natürlich[br]auch wie können Algorithmen oder sollten 0:40:49.700,0:40:53.390 Algorithmen reguliert werden. An der[br]Stelle möchte ich mich bedanken für 0:40:53.390,0:40:57.070 Aufmerksamkeit[br]und würde die Runde eröffnen für Fragen. 0:40:57.070,0:41:12.620 Herald-Angel: Vielen Dank Karen, vielen 0:41:12.620,0:41:19.430 Dank Hendrik. Wenn ihr Fragen habt, bitte[br]an den Mikros aufstellen. Und dann 0:41:19.430,0:41:21.770 entsprechend warten. Mikrophon 1[br]bitteschön. 0:41:21.770,0:41:24.420 Mikrofon 1: Ja, vielen Dank für den 0:41:24.420,0:41:31.360 großartigen Vortrag, war super spannend[br]und es ist ein sehr sehr wichtiges Thema, 0:41:31.360,0:41:35.900 wie gehen wir damit um, weil es wirklich[br]Auswirkungen hat auf die politische 0:41:35.900,0:41:41.650 Organisation, auf die Demokratie, all[br]diese Sachen. Jetzt vom Beispiel das 0:41:41.650,0:41:45.250 Hendrik gebracht hat, im ersten Teil[br]ging's ja jetzt auch zum Beispiel über die 0:41:45.250,0:41:51.820 Anwendung von KI für ja sagen wir[br]politische Propaganda, könnte man auch 0:41:51.820,0:41:58.300 sehen, Cambridge Analytica, die ganzen[br]Sachen und gleichzeitig als zweites Thema 0:41:58.300,0:42:03.720 die Filterbubbles die sich bilden, also wo[br]natürlich eine Verstärkung dieses 0:42:03.720,0:42:09.100 Phaenomens möglich ist. Meine Frage, die[br]ich mich in diesem Jahr gestellt habe, mit 0:42:09.100,0:42:19.580 Brexit, mit Trumpwahlen und so weiter, was[br]sind die Möglichkeiten die sich bieten um 0:42:19.580,0:42:26.890 dem entgegenzuwirken, dass sich Meinungen[br]so stark durch Filterbubbles polarisieren, 0:42:26.890,0:42:33.860 dass Leute durch Targeted Advertisement[br]beeinflusst werden, die mit AI generiert 0:42:33.860,0:42:41.060 werden und Big Data. Wie ja- habt ihr[br]konkrete Vorschläge? 0:42:41.060,0:42:44.060 Hendrik: Vielen Dank für die Frage. Es 0:42:44.060,0:42:47.900 geht also darum was man jetzt gegen diese[br]Probleme insbesondere im politischen 0:42:47.900,0:42:52.620 Bereich machen kann. Und es ist natürlich[br]eine riesige Frage, wird uns warscheinlich 0:42:52.620,0:42:57.400 auch noch lange Begleiten, ich glaube[br]kognitive Diversität im Bekannten- und 0:42:57.400,0:43:02.630 Freundeskreis, ganz wichtig, vor allem aber[br]auch in Unternehmen. Und unsere Ansätze, so 0:43:02.630,0:43:06.490 kommen sie ja zusammen, mir gehts ja darum[br]wie können wir Leute untersützten, wie 0:43:06.490,0:43:09.931 machen wir Visualisierungen, wie machen[br]wir Algorithmen sichtbar, wie helfen wir 0:43:09.931,0:43:13.861 den Leuten zu verstehen was da passiert.[br]Meine Perspektive, Karens Perspektive 0:43:13.861,0:43:17.300 dann: Wie können wir die ALgorithmen, die[br]Blackbox aufmachen, wie können wir 0:43:17.300,0:43:21.200 erklären, wie kann ein System auch sagen[br]wie sicher es ist mit seiner Vorhersage. 0:43:21.200,0:43:28.280 Also es gibt ja auch viel Arbeit, es gibt[br]die Fairness, Transparency... Fairness, 0:43:28.280,0:43:32.230 Accountability, and Transparency in[br]Machine Learning fatml.org. Da gibt es 0:43:32.230,0:43:35.630 eine ganz große Gruppe von Leuten die sich[br]damit auseinandersetzt, auch aus ganz 0:43:35.630,0:43:39.070 verschiedenen Richtungen, weil es gibt[br]viel Arbeit dazu in der Psychologie, in 0:43:39.070,0:43:43.700 der Soziologie, aber auch halt in der[br]Informatik. Genau fatml.org ist eine sehr 0:43:43.700,0:43:44.700 gute Addresse für sowas. 0:43:44.700,0:43:50.630 Herald-Angel: Eine Bitte an die, die[br]gerade rausgehen: Macht das bitte so leise 0:43:50.630,0:43:54.010 wie es geht und versucht durch die Tür zu[br]meiner Linken, zu eurer Rechten dort 0:43:54.010,0:44:00.790 hinten, den Saal zu verlassen, danke[br]schön. 0:44:00.790,0:44:04.790 Jawohl, Mikrofon 5, du hast eine Frage? 0:44:04.790,0:44:08.960 Mikrophon 5: Ja, eher ein kurzer Kommentar[br]aus dem Bereich des Machine Learnings, ist 0:44:08.960,0:44:13.170 das, was wir da gesehen haben bei der bei[br]dem Gorillabeispiel, ebenso bei dem 0:44:13.170,0:44:18.550 Übersetzungsbeispiel nicht eher ein Bias[br]in der Kostenfunktion? Dadurch, dass wir 0:44:18.550,0:44:22.380 dem Algorithmus gesagt haben, es ist[br]genauso teuer, wenn du die Klasse Gorilla 0:44:22.380,0:44:27.410 mit der Klasse mit einer anderen Klasse[br]verwechselst, versus, dass wir die 0:44:27.410,0:44:33.470 Oberklasse Mensch mit der Oberklasse Tier[br]verwechselst, oder in dem Genderbeispiel 0:44:33.470,0:44:37.900 dass "Er" und "Sie" als Verwechselung[br]eines einzelnen Worts genauso teuer sind 0:44:37.900,0:44:40.800 wie beliebige andere Worverwechselungen. 0:44:40.800,0:44:44.620 Hendrik: Sehr guter Punkt. Also man kann[br]natürlich in der Kostenfunktion dagegen 0:44:44.620,0:44:48.350 vorwirken, man kann sagen dieser Fehler[br]ist schlimmer für uns als der andere 0:44:48.350,0:44:53.150 Fehler, aber wenn wir davon ausgehen, dass[br]alle Klassen gleich sind und wir einfach 0:44:53.150,0:44:56.550 für alle Klassen gleich gute Ergebnisse[br]haben wollen, und das kommt ja aus Google 0:44:56.550,0:45:01.030 Fotos, wo wir das für alle Kategorien[br]machen wollen, dann ist es halt da kommt 0:45:01.030,0:45:04.180 der Mensch wieder rein. Das ist dann[br]nichtmehr allgemeines Machine Learning, 0:45:04.180,0:45:07.520 sondern wieder so Frickellösung. Und[br]dieses Problem des Bias, und darum gings 0:45:07.520,0:45:11.160 ja, ist einfach dem Machine Learning[br]inherent, und wir müssen damit umgehen. 0:45:11.160,0:45:14.110 Und ich glaube nicht, dass man das einfach[br]in die Kostenfunktion schreiben kann. Oder 0:45:14.110,0:45:15.560 willst du noch was dazu sagen? 0:45:15.560,0:45:21.770 Karen: Ja der Punkt von dem Beispiel war[br]ja auch quasi wie einerseits da muss ein 0:45:21.770,0:45:27.240 falscher Datenpunkt exestiert haben, und[br]wie das quasi durch die ein Bias 0:45:27.240,0:45:30.350 vielleicht, oder eine Annahme in der[br]Kostenfunktion dann eigentlich noch viel 0:45:30.350,0:45:34.900 verstärkt wird. Es geht ja darum wie quasi[br]eine Negativ-Spirale manchmal losgetreten 0:45:34.900,0:45:38.240 werden kann. Dadurch, dass wir einerseits[br]Bias in den Daten haben, aber auch andere 0:45:38.240,0:45:42.750 gewisse Annahmen machen, die vielleicht[br]die Realität zu sehr vereinfachen. 0:45:42.750,0:45:44.540 Das war ja der Punkt dieses Beispiels. 0:45:44.540,0:45:47.670 Hendrik: Und vielleicht dazu noch: Das[br]sind natürlich sehr offensichtliche 0:45:47.670,0:45:50.970 Beispiele, auch um das hier deutlich zu[br]machen. Es gibt natürlich auch immer diese 0:45:50.970,0:45:55.220 Blindstellen, Blindspots, wo halt was[br]passiert, von dem wir das garnicht wissen. 0:45:55.220,0:45:57.530 Das ist ja auf eine Art auch ein[br]Blindspot, der vielleicht auch damit 0:45:57.530,0:46:02.260 zusammenhängt, dass Google nicht divers[br]genug ist und nicht genug Leute derartige 0:46:02.260,0:46:04.940 Daten damit getestet haben, bevor sie es[br]public gemacht haben. 0:46:04.940,0:46:08.450 Herald-Angel: Mikrophon 1, deine Frage. 0:46:08.450,0:46:11.420 Mikrophon 1: Ja vielen Dank, euer Vortrag 0:46:11.420,0:46:15.290 war ja so ein bischen als Einführung[br]gedacht, das Thema auf die Agenda zu 0:46:15.290,0:46:17.750 bringen, was ich ganz großartig finde,[br]aber deswegen hätte ich jetzt eher so eine 0:46:17.750,0:46:21.820 Kommunikationsstrategische Frage. Ihr habt[br]ja ganz viel über Bias gesprochen, über 0:46:21.820,0:46:25.260 Verzerrung, wenn man das so sagt denkt man[br]implizit ganz oft an neutral und 0:46:25.260,0:46:29.940 Unverzerrt, und ich fands toll, du hattest[br]ja das No-Free-Lunch-Theorem da, also 0:46:29.940,0:46:33.250 sagen: Machine Learning ohne Bias gibt's[br]garnicht, du hast auch gerade gesagt, das 0:46:33.250,0:46:36.920 ist Machine-Learning inherent. Aber das[br]ist ja ganz wichtig zu sagen, deswegen 0:46:36.920,0:46:40.080 wollte ich einfach mal fragen wenn es um[br]politische Debatten geht, um öffentliche 0:46:40.080,0:46:44.260 Debatten geht, ob ihr dann denkt, dass[br]Bias und Verzerrung sozusagen der richtige 0:46:44.260,0:46:48.770 Header ist, um das alles zu thematisieren.[br]Weil es eben dieses Neutrale, Unverzerrte 0:46:48.770,0:46:52.880 immer mit impliziert, oder ihr denkt, dass[br]man das dann nochmal anders framen müsste. 0:46:52.880,0:46:54.890 Hendrik: Wir sind aufjedenfall keine 0:46:54.890,0:46:59.410 Kommunikationsstrategen. Es gibt natürlich[br]viele hervorragende Mediensoziologen, 0:46:59.410,0:47:02.650 Kommunikationswissenschaftler, die das[br]warscheinlich viel besser machen können. 0:47:02.650,0:47:07.950 Wir wollten jetzt erstmal in diesem Rahmen[br]zeigen, welche Probleme wir als Techniker, 0:47:07.950,0:47:12.380 als Informatiker - wir promovieren ja[br]beide zu diesen Themen - sehen. Also... 0:47:12.380,0:47:16.520 Also das ist wird uns ja aber auch noch[br]sehr lange beschäftigen, das richtig an 0:47:16.520,0:47:17.520 die Leute zu bringen. 0:47:17.520,0:47:22.860 Herald-Angel: Okay, Dankeschön. Wir haben[br]eine Frage aus dem IRC. 0:47:22.860,0:47:25.540 Signal-Angel: Ja, danke, eine Frage aus 0:47:25.540,0:47:28.530 dem Internet: Hat menschliches Lernen[br]nicht genau genommen die selben Probleme 0:47:28.530,0:47:32.730 wie maschienelles Lernen? Oder gibt es da[br]im Prinzipiellen Unterschiede? 0:47:32.730,0:47:38.750 Hendrik: Ich guck mal zu dir. 0:47:38.750,0:47:42.590 Karen: Also, das ist eine Frage, die 0:47:42.590,0:47:44.441 natürlich nicht nur das maschienelle[br]Lernen betrifft, sondern auch die 0:47:44.441,0:47:48.690 Psychologie, oder die Evolutionsforschung,[br]zu der ich mich nicht auskenne. Der 0:47:48.690,0:47:56.680 Algorithmus oder die Idee, die Grundidee[br]des maschienellen Lernens ist ja quasi 0:47:56.680,0:48:01.720 Fehler festzustellen, und die dann zu[br]kommunizieren und das Modell wird dann 0:48:01.720,0:48:05.890 daraufhin besser. Ob das jetzt bei uns[br]Menschen so funktioniert, ich bin mir 0:48:05.890,0:48:12.250 nicht sicher ob das jemals jemand genauso[br]gesagt hat. Aber ich glaube im Sinne von, 0:48:12.250,0:48:19.020 dass unser Gehirn optimiert, das wird,[br]oder das habe ich bestreiten gehört von 0:48:19.020,0:48:24.400 Psychologen. Also die Frage ist nicht so[br]sehr wie, oder das Problem, dass ich mit 0:48:24.400,0:48:26.770 der Frage habe ist nicht so sehr wie jetzt[br]das maschienelle Lernen funktioniert, 0:48:26.770,0:48:29.590 sondern wie wir selbst funktionieren. Ich[br]glaube wir sind gerade auf dem Weg das 0:48:29.590,0:48:34.540 herauszufinden und die Modelle des Machine[br]Learnings, maschienellen Lernens sind oft 0:48:34.540,0:48:39.100 nur grobe Vereinfachungen dafür wie wir[br]selbst funktioneren. 0:48:39.100,0:48:40.790 Hendrik: Genau, ich würde auch sagen, es 0:48:40.790,0:48:44.930 ist bio-inspiriert, aber es gab auch eine[br]Zeit wo alles Maschienen waren, der Körper 0:48:44.930,0:48:48.550 als Maschine. Das ist halt die Metapher[br]ihrer Zeit. Jetzt haben wir diese 0:48:48.550,0:48:52.400 künstlichen neuronalen Netzwerke und jetzt[br]sind das die Metaphern, die wir nutzen, 0:48:52.400,0:48:55.570 also ich glaube da ist ein fundamentaler[br]Unterschied zwischen menschlichem und 0:48:55.570,0:48:56.570 künstlichem Lernen. 0:48:56.570,0:49:00.530 Karen: Ja es gibt auch so einen zentralen[br]Leitsatz im maschinellen Lernen, der 0:49:00.530,0:49:05.170 besagt, dass alle Modelle falsch sind, und[br]einige vielleicht nützlich sind. Und ich 0:49:05.170,0:49:08.470 denke das trifft auch auf uns Menschen zu,[br]alle Modelle die wir verwenden, alle 0:49:08.470,0:49:11.510 Annahmen die wir machen, alle Stereotypen[br]die wir benutzen, die sind vielleicht 0:49:11.510,0:49:17.130 manchmal nützlich, aber in der Gesamtheit[br]immer falsch. Ich denke das trifft für 0:49:17.130,0:49:25.060 Menschen und Maschinen zu.[br]Applaus 0:49:25.060,0:49:28.171 Herald-Angel: Dankeschön. Mikrophon 4, 0:49:28.171,0:49:29.171 deine Frage. 0:49:29.171,0:49:36.860 Mikrophon 4: Vielleicht eine etwas naive[br]Frage, aber bestehen oder gibt es Metriken 0:49:36.860,0:49:43.560 um diesen Bias, der uns täglich im Netz[br]begegnet, zu bewerten? Also dass man das 0:49:43.560,0:49:49.330 schon visualisieren kann oder vermitteln[br]kann, dass man sich in einem hohen Bias 0:49:49.330,0:49:56.250 also einer hohen Verzerrung bewegt oder[br]auf Glatteis läuft in dem Sinne. Ein hoch 0:49:56.250,0:50:04.080 komplexes Thema wirklich, runtergebrochen[br]auf eine, ich sag mal, Bewusstbarmachung 0:50:04.080,0:50:08.230 von hoher statistischer Verzerrung, die[br]einen umgibt. 0:50:08.230,0:50:10.870 Hendrik: Also es gibt durchaus Forschung 0:50:10.870,0:50:14.870 in die Richtung es gibt z.B. die Civic[br]Media Group am MIT Media Lab die sich mit 0:50:14.870,0:50:18.341 soetwas aueinandersetzt. Das sind aber so[br]einzelne Beispiele wo sie z.B. Leuten 0:50:18.341,0:50:22.080 einfach mal zeigen, was für einen Gender-[br]Bias sie bei den Leuten, die sie auf 0:50:22.080,0:50:26.250 Twitter folgen, haben, also die folgen nur[br]Männern z.B.. 0:50:26.250,0:50:30.350 Solche Bewusstbarmachungen sind wichtig[br]und sind glaube ich auch ein Teil des 0:50:30.350,0:50:33.020 Puzzels, aber ich glaube die[br]Medienpädagogik muss halt ernstgenommen 0:50:33.020,0:50:36.180 werden, den Leuten muss das bewusst sein[br]wenn wir diese Dinger benutzen wollen, 0:50:36.180,0:50:40.930 wenn wir in solchen Autos rumfahren[br]wollen, dann müssen wir das verstehen. Es 0:50:40.930,0:50:44.560 gibt halt immer diese Blindspots und man[br]kann einfach da nicht darauf eingehen, man 0:50:44.560,0:50:47.460 kann nicht jeden Spot da bedenken vorher. 0:50:47.460,0:50:54.240 Karen: Um die vielleicht Frage zu[br]kontextualisieren von den Algorithmus- 0:50:54.240,0:50:59.540 Wissenschaftlichen-Blickpunkt. Wir machen[br]jetzt nicht unbedingt den Unterschied 0:50:59.540,0:51:04.160 zwischen vielleicht dem was eine negative[br]oder positive Verzerrung ist, also 0:51:04.160,0:51:09.440 wahrgenommen wird, sondern für uns gibt es[br]halt nur Merkmale die auf gewisse andere 0:51:09.440,0:51:13.650 Merkmale schließen lassen und das führt[br]dann wieder zu der Frage der Korrelation 0:51:13.650,0:51:21.930 und wenn wir sagen wir haben oft ja[br]Merkmale die Proxys sind für andere 0:51:21.930,0:51:28.920 Merkmale, also wo ich wohne ist oft proxy[br]dafür wie ich aussehe oder woher ich 0:51:28.920,0:51:31.960 komme.[br]Was ich also im Machine Learning machen 0:51:31.960,0:51:34.580 kann, oder wie sich die Wissenschaft damit[br]auseinandersetzt ist zu sagen, ok, wenn 0:51:34.580,0:51:42.920 ich weiß welche Merkmale sensitiv sind,[br]also welche ich nicht möchte dass die mein 0:51:42.920,0:51:46.590 System korreliert mit der eigentlichen[br]Aussage die das System treffen soll, dann 0:51:46.590,0:51:54.210 kann quasi ich in meine Fehlerfunktion[br]einen extra Term reinspeisen, der sagt du 0:51:54.210,0:52:00.390 dekorrelierst jetzt das Ergebnis was du[br]hast mit dem besonderen Merkmal was du als 0:52:00.390,0:52:06.380 sensitiv also z.B. der Wohnort oder dein[br]Bildungsstatus oder dein Einkommen, dass 0:52:06.380,0:52:10.900 die keine Rolle spielen dafür, wie der[br]Algorithmus Vorraussagen macht. 0:52:10.900,0:52:15.630 Mikrophon 4: Was ich jetzt meinte war 0:52:15.630,0:52:19.790 jetzt wirklich nicht die Unterscheidung[br]zwischen gut und schlecht, sondern 0:52:19.790,0:52:25.360 wirklich eine Visualisierung, dieser[br]Datensatz oder dieses Ergebnis basiert auf 0:52:25.360,0:52:31.590 wenigen Datensichten -- klar im Kontext[br]kompliziert zu bewerkstelligen, aber dass 0:52:31.590,0:52:37.520 man eine Möglichkeit findet sowas[br]darzustellen dass diese Daten auf einer 0:52:37.520,0:52:40.790 hohen Datendichte basieren und so weiter. 0:52:40.790,0:52:46.020 Hendrik: Unsere Antwort is quasi, es gibt[br]solche Sachen, es gibt sowas zu messen 0:52:46.020,0:52:50.520 aber es ist immer eine Reduktion von[br]Komplexität und da verliert man immer was 0:52:50.520,0:52:53.970 und da muss man sich immer bewusst machen,[br]wie viel reduzieren dürfen wir, wie 0:52:53.970,0:52:55.810 einfach dürfen wir es machen. 0:52:55.810,0:52:59.730 Karen: Zur Frage der Datensichte kann[br]man vielleicht noch sagen, da ist wieder 0:52:59.730,0:53:05.190 ein andere Kernansatz, der Bayesianische[br]Kernansatz, der sich jetzt nicht die Frage 0:53:05.190,0:53:10.010 stellt, wie ist meine Hypothese aufgrund[br]der vorhandenen Daten zu bewerten sondern 0:53:10.010,0:53:14.080 wie sind meine Daten aufgrund der[br]verwedeten Hypothese zu bewerten. Das ist 0:53:14.080,0:53:18.390 also nochmal eine ganz andere Ansicht auf[br]die Sache und der wiederum erlaubt uns 0:53:18.390,0:53:22.240 dann gewisse Unsicherheiten auszudrücken[br]über Vorrausagen, die ich treffe. Also 0:53:22.240,0:53:26.030 wenn jetzt zum Beispiel ein Datenpunkt[br]über den ich eine Aussage treffen will 0:53:26.030,0:53:30.740 weitab liegt von Daten die ich habe, dann[br]wird dieser Ansatz oder wenn ich diesen 0:53:30.740,0:53:34.200 Ansatz verwende wird mir dann sagen; über[br]die Voraussage die ich jetzt treffe bin 0:53:34.200,0:53:37.880 ich sehr unsicher und das ist eine[br]Forschungsrichtung mit der sich viele 0:53:37.880,0:53:44.210 Leute beschäftigen, die jetzt aber für[br]diese großen, komplexen Systeme, ich würde 0:53:44.210,0:53:46.380 sagen, noch sehr am Anfang steht. 0:53:46.380,0:53:48.840 Herald-Angel: Mikrofon 1 bitte. 0:53:48.840,0:53:53.460 Mikrofon 1: Danke für den super-[br]interessanten Vortrag und danke auch an 0:53:53.460,0:53:57.040 die Gebärden-Dolmetscherin, die hier ohne[br]Unterlass die ganze Zeit übersetzt. 0:53:57.040,0:54:10.450 Applaus[br]Ich habe folgende Frage: Wie nützlich 0:54:10.450,0:54:15.970 würdet ihr es einschätzen, das mit einer[br]Qualitätskontrolle also einem 0:54:15.970,0:54:21.020 Qualitätsmeilenstein für das Endergebnis[br]zu kombinieren. Also als Beispiel; ein 0:54:21.020,0:54:26.750 Auto ist dann hinreichend gut, wenn es im[br]Verkehr weniger Leute umbringt als ein 0:54:26.750,0:54:31.910 durschnittlicher menschlicher Fahrer oder[br]sowas. Würde das einen zusätzlichen Nutzen 0:54:31.910,0:54:36.060 ergeben? Kann man daraus noch mehr[br]Rückschlüsse ziehen, oder sind das völlig 0:54:36.060,0:54:37.230 getrennte Sachen? 0:54:37.230,0:54:41.530 Karen: Also das ist eigentlich genau das[br]worauf wir hinaus wollten, dass das eine 0:54:41.530,0:54:44.260 politische Frage ist, die wir nicht[br]beantworten wollen. 0:54:44.260,0:54:45.260 Hendrik: Oder eine juristische. 0:54:45.260,0:54:46.580 Karen: Oder eine juristische, das müsst 0:54:46.580,0:54:49.220 ihr sagen, was ihr richtig findet, das ist[br]doch nicht unsere Aufgabe zu sagen ... 0:54:49.220,0:54:50.271 Hendrik: Nein also die Gesellschaft muss 0:54:50.271,0:54:53.590 es aushandeln, wir können Probleme[br]aufzeigen, aber die Antwort muss die 0:54:53.590,0:54:55.020 Gesellschaft als ganzes finden. 0:54:55.020,0:54:59.000 Mikrophon 1: Das ist klar, die Frage ist[br]nur, wenn man so einen Punkt definiert hat 0:54:59.000,0:55:02.430 und sich dann die Ergebnisse anschauen[br]würde, die kurz vor und kurz nach diesem 0:55:02.430,0:55:06.010 Punkt aufgetreten sind, ob das[br]Rückschlüsse zulassen würde auf 0:55:06.010,0:55:09.539 irgendeinen Bias oder irgendwelche anderen[br]Sachen, oder ob dieser Punkt völlig 0:55:09.539,0:55:11.180 unerheblich für euch wäre. 0:55:11.180,0:55:13.550 Hendrik: Kannst du nochmal den Punkt[br]benennen? 0:55:13.550,0:55:15.250 Mikrophon 1: Also man definiert 0:55:15.250,0:55:20.990 irgendeinen Punkt x, der ein bestimmtes[br]Qualitätskriterium hat. Also der Wagen 0:55:20.990,0:55:25.330 bringt eben nicht mehr Menschen um als ein[br]durchschnittlicher Fahrer sondern weniger. 0:55:25.330,0:55:32.900 Sind die Ergebnisse die um diesen Punkt[br]liegen, die man dann messen kann. Sind die 0:55:32.900,0:55:36.160 in irgendeiner Art relevant für den[br]Ausgang, kann man da irgendwelche 0:55:36.160,0:55:40.030 Rückschlüsse daraus ziehen, oder ist das[br]nur irgendein Punkt, wie jeder andere 0:55:40.030,0:55:41.030 auch? 0:55:41.030,0:55:44.220 Hendrik: Also ich finde das problematisch,[br]diesen Punkt zu finden, weil man ja auch 0:55:44.220,0:55:47.970 den ganzen Kontext sehen muss bei den[br]Autounfällen und warum sie passieren, also 0:55:47.970,0:55:52.061 welche Gründe sie haben und das ganze[br]datafizieren, das in einen Punkt zu 0:55:52.061,0:55:55.850 pressen, und den dann als[br]Evaluationsmetrik für was anderes 0:55:55.850,0:55:58.695 hochkomplexes zu nehmen halte ich für sehr[br]problematisch, ich glaube da ist wirklich, 0:55:58.695,0:56:02.300 das meint Karen, die politsche Antwort[br]wichtiger. 0:56:02.300,0:56:04.600 Karen: Beim konkreten Beispiel von 0:56:04.600,0:56:07.640 selbstfahrenden Autos muss man natürlich[br]auch sagen, dass es das echte 0:56:07.640,0:56:11.470 selbstfahrende Auto nie üben kann einen[br]Crash zu haben, also dieses Crash-Szenario 0:56:11.470,0:56:14.100 kann natürlich nie geübt werden, also wir[br]wollen da ja natürlich niemanden sterben 0:56:14.100,0:56:18.240 lassen oder nicht so viele Autos crashen,[br]das ist ein bisschen teuer. Das heißt 0:56:18.240,0:56:21.940 Crash-Szenarios werden eigentlich auch[br]immer nur in der Simulation geübt und das 0:56:21.940,0:56:26.500 ist genau das Problem, dass wir heute --[br]zumindest soweit ich das weiß -- sehr 0:56:26.500,0:56:31.890 wenige Szenarien haben in denen wir sagen[br]können; wenn wir jetzt in der Simulation 0:56:31.890,0:56:37.910 geübt haben, was für Annahmen übernehmen[br]wir denn dann in die echte Welt. Die 0:56:37.910,0:56:43.140 einfach nur benennen zu können würde uns[br]ja schon helfen eventuelle Fehlerszenarien 0:56:43.140,0:56:47.100 vorrauszusagen, aber selbst das Benennen[br]dieser Annahmen das fällt uns ja selbst 0:56:47.100,0:56:52.080 schon schwer, also das ist noch ein weiter[br]Weg. 0:56:52.080,0:56:53.920 Herald-Angel: Mikro 1 0:56:53.920,0:56:58.800 Mikrofon 1: Auch vielen Dank für den 0:56:58.800,0:57:05.630 Vortrag. Die ganze Diskussion über die[br]Biase, die ihr ja getrieben habt, besagt 0:57:05.630,0:57:09.120 ja letztlich, dass es darum geht die[br]Wahrheit zu finden, Wahrheit und letztlich 0:57:09.120,0:57:13.480 eine Stichprobe der Wahrheit dem Computer[br]zum Lernen zu geben und das bringt mich 0:57:13.480,0:57:16.600 dann zu der Parallele in der Wissenschaft[br]haben wir das ja auch, also wie sieht 0:57:16.600,0:57:21.230 meine Stichprobe aus, die ideale[br]Stichprobe, oder ist da ein Bias drin. 0:57:21.230,0:57:25.590 Habt ihr diese Parallele schonmal[br]gedanklich gezogen oder ist das ... ja. 0:57:25.590,0:57:28.060 Hendrik: Also wir sind ja Wissenschaftler 0:57:28.060,0:57:31.940 und wir müssen natürlich auch erstmal für[br]uns wissen, ob was wir herasugefunden 0:57:31.940,0:57:35.540 haben, gerade wenn wir mit Menschen[br]arbeiten, wir hatten ja gestern auch den 0:57:35.540,0:57:42.170 Vortrag "Science is broken", der da[br]irgendwie, also es ist immer schwierig die 0:57:42.170,0:57:45.920 richtige Samplesize zu haben um die[br]Effectsize zu berücksichtigen, um zu 0:57:45.920,0:57:48.550 wissen, dass man was weiß, das sind ja[br]epistemische Fragen. 0:57:48.550,0:57:49.990 Mikrophon 1: Aber gibt's da irgendwie 0:57:49.990,0:57:54.440 schon für neuronale Netze irgendwelche[br]Richtwerte, dass man dann irgendwie weiß. 0:57:54.440,0:57:58.510 Weil in der Psychologie lernt man, dass[br]die Sampelsize muss mindestens 5.000 Bla 0:57:58.510,0:58:01.690 betragen, keine Ahnung, oder so und so[br]Prozente. Gibt's Richtwerte, gibt's sowas 0:58:01.690,0:58:07.440 schon für neuronale Netze? In Abhängigkeit[br]der Layer oder der Parameter oder..? 0:58:07.440,0:58:09.700 Hendrik: Nicht dass ich wüsste, weisst du 0:58:09.700,0:58:10.700 was? 0:58:10.700,0:58:14.200 Karen: Die Frage geht jetzt vielleicht ein[br]bisschen tief. Für frühe Systeme, also 0:58:14.200,0:58:22.680 sehr einfache neuronale Netze, die aus den[br]Anfang der 90ern, so wie Boltzmann-machines oder 0:58:22.680,0:58:28.990 Hofman-Networks. Für solche Sachen kann[br]man sagen, wenn die Saturieren und mit 0:58:28.990,0:58:34.800 wievielen Bits an Daten man da reingeht[br]bis die Saturieren. Für aber diese hoch- 0:58:34.800,0:58:40.590 nicht-linearen Systeme, die wir jetzt[br]verwenden, kann man das nicht sagen, oder 0:58:40.590,0:58:47.370 nur asymptothisch sagen. Es gibt viel[br]Forschung zu dem Thema, aber nichts, was 0:58:47.370,0:58:50.721 jetzt besonders handfest wäre; sagen wir[br]mal so. Oder man jetzt im echten Leben 0:58:50.721,0:58:51.721 verwenden könnte. 0:58:51.721,0:58:56.000 Mikrophon 1: Ja gut, dann irgendwie so[br]eine Ausage zu haben, so und so viele 0:58:56.000,0:58:58.760 Testdatensampels brauchst du für dein[br]neuronales Netz, wenn das so und so 0:58:58.760,0:59:02.990 strukturiert ist. Irgendwie, das könnte[br]vielleicht eine Form von Verifikation oder 0:59:02.990,0:59:05.750 Validierung, Pre-Validierung bringen,[br]irgendwie. 0:59:05.750,0:59:08.350 Hendrik: Ja, das macht man ja. Man hat ja 0:59:08.350,0:59:12.130 einen großen Datensatz, einen[br]Trainingsdatensatz, einen Testdatensatz 0:59:12.130,0:59:15.940 und einen Validierungsdatensatz, mit dem[br]man dann nochmal guckt, was haben wir 0:59:15.940,0:59:18.740 wirlich gelernt und haben wir nicht[br]einfach nur die Eigenheiten des 0:59:18.740,0:59:22.220 Datensatzes auswendig gelernt. Haben wir[br]wirklich generalisiert. Also auf dem 0:59:22.220,0:59:26.370 Niveau passiert das schon. Auf dem höheren[br]Niveau wäre das bestimmt noch eine 0:59:26.370,0:59:27.530 hervorragende Doktorarbeit. 0:59:27.530,0:59:30.430 Herald-Angel: Mikro 5, deine Frage? 0:59:30.430,0:59:36.680 Mikrofon 5: Vielen Dank für den Vortrag.[br]Meine Frage ist: Diese Biases, die sind ja 0:59:36.680,0:59:40.710 jetzt nicht neu, die kennt man ja seit[br]Dekaden in der Statistik. Was hat sich 0:59:40.710,0:59:46.610 denn mit der künstlichen Intelligenz, bzw.[br]mit Deep Learning geändert? Und daran 0:59:46.610,0:59:51.860 anschließend: Kennt ihr irgendwelche[br]Studien, dass solche Filterblasen wirklich 0:59:51.860,0:59:55.040 irgendwelche tatsächlichen messbaren[br]Auswirkungen haben? Weil man hört 0:59:55.040,0:59:59.850 unglaublich viel in den Medien, aber mir[br]ist keine belastbare Studie bekannt, die 0:59:59.850,1:00:05.850 sagt, dass das da tatsächlich was[br]verschlimmert wird, was nicht vorher schon 1:00:05.850,1:00:07.160 da war. 1:00:07.160,1:00:10.530 Hendrik: Ich hab die erste Frage schon[br]wieder vergessen. Kannst du einmal noch 1:00:10.530,1:00:11.530 die erste sagen? 1:00:11.530,1:00:16.580 Mikrophon 5: Die erste Frage war, was sich[br]geändert hat, weil diese Biases, die sind 1:00:16.580,1:00:17.580 ja jetzt nicht neu. 1:00:17.580,1:00:20.570 Hendrik: Genau, nein, die sind natürlich[br]nicht neu. Und die ganzen Vorurteil sind 1:00:20.570,1:00:24.060 auch nicht neu. Ich glaube, es wird halt[br]einfach sehr, sehr viel Machine Learning 1:00:24.060,1:00:27.710 gerade benutzt. Auch aus sehr guten[br]Gründen. Also, z.B. es gibt hervoragende 1:00:27.710,1:00:31.650 Python Bibliotheken, es gibt hervoragende[br]R Bibliotheken, die das super einfach 1:00:31.650,1:00:37.090 machen. Die Unis lehren das fast überall.[br]Data Science ist der große Hypeterm, und 1:00:37.090,1:00:39.810 das wird einfach nur nochmal drängender,[br]weil Leute diese Sachen jetzt auf einmal 1:00:39.810,1:00:44.340 in ihre Systeme reinschmeißen, die[br]benutzen, um vielleicht Geld zu verdienen, 1:00:44.340,1:00:49.640 sich aber dann dieser Probleme gar nicht[br]bewusst sind. Und zur 2. Frage: Ich bin 1:00:49.640,1:00:52.780 mir ziemlich sicher, dass es viel zu[br]Echokammern gibt. Ich weiß nicht, was du 1:00:52.780,1:00:56.950 gefragt hast, ob man das wirklich auch[br]wissenschaftlich so testen kann? Also, wie 1:00:56.950,1:01:01.560 da quasi der Versuchsaufbau aussähe? Aber[br]es gibt, auch gerade in der Soziologie, 1:01:01.560,1:01:10.300 viel zu Echokammern. Aber mir fällt gerade[br]kein Autor ein dazu. 1:01:10.300,1:01:12.620 Herald-Angel: Vielen Dank für den Vortrag. 1:01:12.620,1:01:15.560 Ich sehe, dass da noch Fragen sind, aber[br]leider ist die Zeit rum. Seid ihr noch da? 1:01:15.560,1:01:16.980 Können die Leute euch noch ansprechen? 1:01:16.980,1:01:17.670 Hendrik: OK. 1:01:17.670,1:01:20.410 Herald-Angel: Super. Vielen, vielen Dank! 1:01:20.410,1:01:23.790 Applaus 1:01:23.790,1:01:43.390 Untertitel erstellt von c3subtitles.de[br]im Jahr 2018. Mach mit und hilf uns!