0:00:00.000,0:00:18.660 36C3 Vorspannmusik 0:00:18.660,0:00:25.180 Herald: Ich freue mich ganz besonders,[br]jetzt den nächsten Vortrag ankündigen zu 0:00:25.180,0:00:29.720 können, der zwei Themen vereint, die ich[br]beide interessant finde. Zwar geht es zum 0:00:29.720,0:00:33.822 einen um Machine Learning, im Speziellen[br]Deep Learning, aber auch gleichzeitig um 0:00:33.822,0:00:40.280 Nachhaltigkeit. Wie das Ganze verbunden[br]werden kann und ob vielleicht der Deep 0:00:40.280,0:00:44.591 Learning Hype irgendwie doch zu groß ist,[br]erklären uns Nadja Geisler und Benjamin 0:00:44.591,0:00:48.910 Hättasch, die an der TU Darmstadt arbeiten[br]und forschen oder irgendwo zwischendrin 0:00:48.910,0:00:55.290 sind. Und deswegen will ich jetzt gar[br]nicht weiter groß reden und freue mich auf 0:00:55.290,0:00:57.739 den Talk. Herzlich willkommen, Nadja und[br]Benjamin! 0:00:57.739,0:01:04.189 Applaus 0:01:04.189,0:01:07.120 Nadja Geisler: Herzlichen Dank! Hallo[br]erstmal und schön, dass wir hier sein 0:01:07.120,0:01:10.740 können, schön das ihr alle hier seid. Wir[br]freuen uns wirklich wahnsinnig. Es ist für 0:01:10.740,0:01:13.770 uns beide auch der erste Kongress, und das[br]ist etwas ganz Besonderes dann auch gleich 0:01:13.770,0:01:18.100 hier oben zu stehen. Ich bin Nadja und wie[br]er schon gesagt hat, bin ich mit dem 0:01:18.100,0:01:20.300 Master-Studium an der TU Darmstadt fertig[br]und werde wahrscheinlich demnächst dort 0:01:20.300,0:01:25.010 anfangen zu promovieren.[br]Benjamin Hättasch: Ich mache das schon 0:01:25.010,0:01:29.320 seit zwei Jahren und habe festgestellt:[br]Ich will mich nicht nur damit 0:01:29.320,0:01:32.810 beschäftigen, irgendwie toll Deep Learning[br]anzuwenden, sondern ein bisschen drüber 0:01:32.810,0:01:36.229 nachzudenken, was das alles so bedeutet.[br]Und weil wir da einiges herausgefunden 0:01:36.229,0:01:38.920 haben, sind wir heute hier, um euch das[br]auch zu erzählen. 0:01:38.920,0:01:42.970 Nadja: Unser Talk ist so zustande[br]gekommen, dass wir das 36C3 Motto gesehen 0:01:42.970,0:01:47.590 haben und uns dachten: Nachhaltigkeit[br]vereint doch eigentlich mehrere Aspekte, 0:01:47.590,0:01:50.240 die wir schon immer spannend fanden, was[br]das Thema Deep Learning und maschinelles 0:01:50.240,0:01:53.960 Lernen angeht. Aspekte, die sich unter dem[br]Stichwort zusammenfassen lassen, obwohl 0:01:53.960,0:01:56.829 sie an sich sehr unterschiedlich sind und[br]mit dem wir uns in verschiedene Art schon 0:01:56.829,0:02:00.539 beschäftigt hatten. Zu den Aspekten wollen[br]wir euch heute was erzählen, weil gerade 0:02:00.539,0:02:04.299 das Thema Nachhaltigkeit momentan[br]besonders aktuell, besonders wichtig und 0:02:04.299,0:02:09.520 besonders relevant für unsere Zukunft ist.[br]Bevor wir aber auf die drei verschiedenen 0:02:09.520,0:02:12.370 Ebenen von Nachhaltigkeit, über die wir[br]reden wollen, eingehen, das ist die 0:02:12.370,0:02:15.550 wissenschaftliche Ebene, die[br]gesellschaftliche Ebene und die Umwelt- 0:02:15.550,0:02:19.790 Ebene, müssen wir zuerst klären: Wovon[br]reden wir, wenn wir Deep Learning sagen? 0:02:19.790,0:02:23.770 Was sind die absoluten Basics für das, was[br]wir die nächsten 30, 45 Minuten reden 0:02:23.770,0:02:28.370 werden? Was müsst ihr wissen, damit wir[br]euch gut mitnehmen können? Und das wollen 0:02:28.370,0:02:31.190 wir jetzt machen. Das beinhaltet unter[br]anderem: was meinen Sie damit, wenn wir 0:02:31.190,0:02:34.430 Deep Learning sagen? Wie funktioniert das[br]auf einer intuitiven Ebene, nicht so sehr 0:02:34.430,0:02:38.360 auf einer detailreichen technischen Ebene?[br]Und wozu wird das aktuell jetzt schon 0:02:38.360,0:02:44.920 angewendet? Und wenn Deep Learning sagen,[br]dann vor allem dieses Konstrukt, was sich 0:02:44.920,0:02:50.290 dann neuronales Netz nennt, Artificial[br]Neural Network auf Englisch. Das sind so 0:02:50.290,0:02:53.500 Machine Learning Konstrukte, die es schon[br]sehr lange gibt, die dann zwischendurch 0:02:53.500,0:02:56.360 mal eine starke Flaute in der Beliebtheit[br]haben, weil sie eben doch nicht die 0:02:56.360,0:03:00.070 Ergebnisse gebracht haben, die man sich[br]erhofft hatte. Inzwischen sind sie wieder 0:03:00.070,0:03:04.670 extrem beliebt, um alle möglichen[br]Probleme, Aufgaben im maschinellen Lernen 0:03:04.670,0:03:09.790 anzugehen. Dabei bezeichnet ein neuronales[br]Netz im Wesentlichen eine Verknüpfung von 0:03:09.790,0:03:13.510 Knoten. Diese Knoten können je nach[br]Architektur verschieden miteinander 0:03:13.510,0:03:16.210 vernetzt und durch verschiedene[br]mathematische Funktionen verbunden sein. 0:03:16.210,0:03:20.730 Jeder Knoten wiederum repräsentiert[br]eigentlich nur eine nichtlineare 0:03:20.730,0:03:25.500 Berechnungsfunktion. So weit, so logisch.[br]Wir berechnen also sehr, sehr viel. Und 0:03:25.500,0:03:28.820 wenn diese Gewichte zwischen den[br]Berechnungen erst einmal fertig bestimmt 0:03:28.820,0:03:32.340 sind, sprich wenn das neuronale Netz[br]trainiert ist, dann lässt sich für jede 0:03:32.340,0:03:37.030 numerische Eingabe, die man im Netz gibt,[br]auch eine entsprechende Ausgabe bestimmen. 0:03:37.030,0:03:40.640 Diese Ausgabe macht dann Aussagen über[br]irgendwelche Größen, über irgendwelche 0:03:40.640,0:03:44.330 Klassifizierungen oder irgendwelche[br]Zuordnungen. Die wichtigste Voraussetzung 0:03:44.330,0:03:47.860 für viele, wenn auch nicht alle Arten von[br]neuronalen Netzen, sind entsprechende 0:03:47.860,0:03:51.660 Trainingsdaten und die auch noch in großer[br]Menge. Ob diese Trainingsdaten gelabelt 0:03:51.660,0:03:55.280 sein müssen, also so etwas wie schon eine[br]Bezeichnung der eigentlichen Zielgröße 0:03:55.280,0:03:59.310 haben müssen vorher oder nicht, das kann[br]unterschiedlich sein, ist aber an der 0:03:59.310,0:04:02.310 Stelle auch gar nicht so relevant. Was wir[br]brauchen, sind wahrscheinlich sehr, sehr 0:04:02.310,0:04:05.880 viele Daten, wenn wir mit neuronalen[br]Netzwerken arbeiten wollen. Anhand dieser 0:04:05.880,0:04:09.970 Daten, die möglichst vielfältig, möglichst[br]repräsentativ sein sollten für die spätere 0:04:09.970,0:04:14.560 Wirklichkeit oder das, was wir dann damit[br]bearbeiten und einfangen wollen, daran 0:04:14.560,0:04:19.230 wird das Modell gelernt. Um das Modell[br]später einzusetzen, das sieht man hier 0:04:19.230,0:04:22.449 ganz gut, wenn man einmal von links nach[br]rechts schaut, braucht man zunächst 0:04:22.449,0:04:25.430 Inputdaten. Die müssen in einem[br]numerischen Format sein. Wie man da 0:04:25.430,0:04:27.840 hinkommt? Das sind sehr viele verschiedene[br]Methoden, aber an dieser Stelle auch gar 0:04:27.840,0:04:31.410 nicht so weit relevant. Diese Inputdaten[br]gehen dann zu diesen Knoten, zu den 0:04:31.410,0:04:35.570 Neuronen, und jedes Neuron repräsentiert[br]irgendwo an bestimmte eine bestimmte 0:04:35.570,0:04:39.320 Eigenschaft, ein bestimmtes Feature. Bei[br]einer Bilderkennung könnte das eine Kante 0:04:39.320,0:04:42.160 sein oder eine Ecke oder ein[br]Helligkeitsunterschied, ganz verschiedene 0:04:42.160,0:04:46.710 Dinge. Je weiter wir in das neuronalen[br]Netz reingehen, je tiefer die Ebenen 0:04:46.710,0:04:49.860 werden, desto höher-levelig sind die[br]Eigenschaften, die wir repräsentieren. Das 0:04:49.860,0:04:52.850 Problem bei der ganzen Sache ist[br]normalerweise, dass wir gar nicht so genau 0:04:52.850,0:04:56.850 wissen, was dieses Neuron repräsentiert.[br]Bei einem Algorithmus, der Bilder 0:04:56.850,0:05:00.330 klassifiziert, der zum Beispiel Hunde und[br]Wölfe voneinander entscheiden kann, können 0:05:00.330,0:05:03.310 wir uns nicht ein Neuron anschauen und[br]können sagen: Aha! Das da schaut, ob da 0:05:03.310,0:05:06.650 eine Kante ist, die einen Schwanz[br]repräsentieren könnte. Sondern es sind für 0:05:06.650,0:05:10.110 uns einfach irgendwelche Zahlenwerte, die[br]wir nicht weiter interpretieren können. 0:05:10.110,0:05:13.200 Das bedeutet, wir haben Black Box Modelle.[br]Wir verstehen also nicht im Detail, 0:05:13.200,0:05:15.830 welches Gewicht wofür steht, was wir[br]eigentlich gelernt haben. Und im 0:05:15.830,0:05:19.820 Endeffekt, wenn ein Input reingeht, warum[br]der Output rauskommt, der am Ende 0:05:19.820,0:05:27.030 tatsächlich herauskommt. Das bildet also[br]im Prinzip die Basis für alle Systeme, die 0:05:27.030,0:05:29.240 irgendwie als Teil von Deep Learning[br]bezeichnet werden. 0:05:29.240,0:05:35.650 Benjamin: Was wir da an der Stelle also[br]haben, ist: Wir nehmen Mathe, wir nehmen 0:05:35.650,0:05:43.010 große Mengen von Daten und wenden einfach[br]Tricks aus der Statistik an. Wir nutzen 0:05:43.010,0:05:47.240 aus, dass bestimmte Dinge, wenn man es nur[br]oft genug betrachtet, wenn man es nur oft 0:05:47.240,0:05:52.400 genug anwendet, durchführt, dann eine[br]gewisse Systematik ergeben, dass man 0:05:52.400,0:05:58.590 Muster erkennen kann. Wir generalisieren.[br]Wie man hier also sieht, werden einfach 0:05:58.590,0:06:06.880 Tricks übernommen, die es in der Statistik[br]schon seit vielen hundert Jahren gibt. Und 0:06:06.880,0:06:11.050 dafür angewandt, um jetzt irgendwie zu[br]versuchen, aus einem Haufen Daten, ohne 0:06:11.050,0:06:15.370 ihn wirklich zu verstehen, ohne genau zu[br]wissen, was da drinsteckt, einfach durch 0:06:15.370,0:06:21.053 schiere Masse, Muster zu erkennen und[br]dann hoffentlich zu wissen: Okay, wenn ich 0:06:21.053,0:06:25.610 jetzt weit genug generalisiert habe, wird[br]mein System schon irgendwie gut genug sein 0:06:25.610,0:06:34.940 für mein Anwendungszweck. Das hat aber,[br]obwohl der Name Deep Learning und 0:06:34.940,0:06:41.250 Künstliche Intelligenz, alles nicht so[br]wahnsinnig viel damit zu tun, was wir als 0:06:41.250,0:06:47.160 Intelligenz verstehen, was wir als Lernen[br]verstehen. Der Tweet hier fasst das ganz 0:06:47.160,0:06:52.690 gut zusammen. Er sagt, das menschliche[br]Hirn funktioniert ganz anders. Wenn das 0:06:52.690,0:06:55.990 menschliche Hirn so wie Deep Learning[br]funktionieren würde, dann müssten wir 0:06:55.990,0:07:01.160 einfach 200 mal ins Gesicht geschlagen[br]werden, bevor wir überhaupt raffen, dass 0:07:01.160,0:07:04.370 wir das nicht mögen. So ist das[br]tatsächlich wenn ich bei Deep Learning, 0:07:04.370,0:07:09.040 wenn ich ihm 50, 100, 200 Wölfe und Hunde[br]zeige, dann weiß das System noch gar 0:07:09.040,0:07:14.139 nichts, weil es nicht schnell genug[br]interpretieren kann, nicht genug Kontext- 0:07:14.139,0:07:17.870 Informationen einbeziehen kann, nicht[br]genug von all dem nutzen können, was das 0:07:17.870,0:07:22.690 menschliche Hirn, was wir können, wenn wir[br]irgendwas machen, um irgendwie 0:07:22.690,0:07:27.910 Entscheidungen zu treffen. Und das ist ein[br]großes Problem. Warum genau, werden wir 0:07:27.910,0:07:36.370 gleich nochmal im Detail besprechen. Sorgt[br]aber dafür, dass wir einfach nur auf Masse 0:07:36.370,0:07:39.699 gehen und dadurch einfach eine bestimmte[br]Genauigkeit so leicht nicht erreichen 0:07:39.699,0:07:43.410 können, wie wir sie gerne hätten.[br]Nadja: Die intuitive Ursprungsidee hinter 0:07:43.410,0:07:47.870 neuronalen Netzen war tatsächlich mal[br]sozusagen die Funktionalität des Gehirns 0:07:47.870,0:07:51.060 nachzubauen. Unsere Neuronen feuern auch,[br]sind miteinander vernetzt, können 0:07:51.060,0:07:55.570 irgendwelche Dinge auslösen. Das ist aber[br]heutzutage nicht mehr wie Neuronale Netze 0:07:55.570,0:07:58.639 funktionieren. Wir bilden damit nicht[br]wirklich die Funktion organischer Gehirne 0:07:58.639,0:08:01.919 nach, sondern und das war zwar die[br]Intuition dahinter, das funktioniert aber 0:08:01.919,0:08:08.030 tatsächlich sehr anders. Der für uns[br]interessante Teil ist aber inzwischen, wie 0:08:08.030,0:08:11.920 wird das Ganze eigentlich angewendet, wo[br]begegnet uns das im Alltag, nicht nur in 0:08:11.920,0:08:15.480 Forschungslabors, nicht nur in[br]akademischen Institutionen, sondern auch 0:08:15.480,0:08:18.970 tatsächlich in Systemen, die wir jeden Tag[br]benutzen, die inzwischen weit verbreitet 0:08:18.970,0:08:23.620 sind. Mit allen Nach- und Vorteilen, nach[br]der großen Flaute, von der wir es eben 0:08:23.620,0:08:28.470 schon kurz hatten, erlebt das Feld gerade[br]wieder ein riesiges Hoch, und sie sind in 0:08:28.470,0:08:31.610 so vielen Bereichen im Einsatz, dass einen[br]kurzen Überblick davon zu verschaffen 0:08:31.610,0:08:35.519 quasi unmöglich ist. Extrem weit[br]verbreitet sind Sachen wie 0:08:35.519,0:08:39.370 Sprachassistenten. In den letzten Jahren[br]Siri, Alexa, Echo, all das. Sie müssen so 0:08:39.370,0:08:42.199 etwas können, wie Sprachverarbeitung, die[br]müssen so etwas können wie 0:08:42.199,0:08:45.370 Textverarbeitung, die müssen[br]Sprachsynthese beherrschen, sie müssen 0:08:45.370,0:08:47.710 auch irgendwo Information Retrieval[br]beherrschen und tatsächlich auch die 0:08:47.710,0:08:52.599 Informationen aus dem riesigen[br]Informationscluster, der das Internet nun 0:08:52.599,0:08:57.860 mal ist, hervorzuholen. Aber auch weit[br]verbreitet durch solche Unternehmen wie 0:08:57.860,0:09:01.050 Tesla oder Uber sind inzwischen die[br]Bereiche des autonomen Fahrens oder 0:09:01.050,0:09:04.779 generell des autonomen Transports, die[br]sich dann eher mit vielleicht 0:09:04.779,0:09:08.730 Bilderkennung bearbeiten müssen, mit[br]Navigation, mit Fein-Kontrolle an 0:09:08.730,0:09:12.600 motorischen Bauteilen etc. Nicht ganz so[br]offensichtlich, aber dennoch, wenn man 0:09:12.600,0:09:16.509 darüber nachdenkt oder wenn man es gesagt[br]bekommt, dann doch sehr gut sichtbar: Für 0:09:16.509,0:09:20.410 alle Menschen im Alltag sind[br]Recommendation Systems, so etwas wie 0:09:20.410,0:09:23.750 "Amazon Kunden kauften auch", "Sie könnte[br]interessieren", alles, was uns irgendwie 0:09:23.750,0:09:28.660 Vorschläge generiert. Die Sortierung von[br]Google Ergebnissen oder generell von 0:09:28.660,0:09:32.339 Suchmaschinen, wie mir Ergebnisse[br]angezeigt werden, was wie gerankt wird. 0:09:32.339,0:09:36.360 Aber auch sowas wie, was zeigt mir mein[br]Facebook Newsfeed überhaupt an? Wer 0:09:36.360,0:09:40.119 bekommt was, wann und wie oft zu sehen?[br]Das ist bei weitem nicht so 0:09:40.119,0:09:44.529 straightforward, nicht so offensichtlich,[br]wie sich das viele Leute denken. Deutlich 0:09:44.529,0:09:48.279 weniger bekannt sind dann schon Systeme,[br]die sowas wie 0:09:48.279,0:09:52.020 Rückfälligkeitseinschätzungen für[br]straffällig gewordene machen, die in 0:09:52.020,0:09:55.589 Gerichtsverfahren dazu verwendet werden,[br]um anhand von irgendwelchen Scores 0:09:55.589,0:10:02.100 Strafmaße zu vergeben. Das geschieht in[br]den USA schon seit Jahren. Aber auch 0:10:02.100,0:10:05.770 Sachen, die anhand von Gesichtserkennung[br]versuchen, verdächtige Personen zu 0:10:05.770,0:10:12.279 identifizieren, oder die Scoring[br]Algorithmen, die für irgendwelche sozialen 0:10:12.279,0:10:16.810 Systeme verwendet werden oder zur[br]Einschätzung für Versicherungen verwendet 0:10:16.810,0:10:21.939 werden. Aber auch Einstellungsverfahren,[br]die anhand von Stichwörtern, von 0:10:21.939,0:10:26.160 Lebensläufen, noch bevor jemals jemand auf[br]die Unterlagen drauf geschaut hat, 0:10:26.160,0:10:31.589 Kandidatinnen aussortieren.[br]Benjamin: Diese Systeme arbeiten auch da 0:10:31.589,0:10:35.140 wieder so, dass wir häufig nicht[br]verstehen, genau was sie tun. Teilweise 0:10:35.140,0:10:38.889 so, dass man im Nachhinein denkt: Um[br]Gottes Willen, wie können die so 0:10:38.889,0:10:43.480 funktionieren? Das heißt, sowohl diese[br]Einstellung bei Gesichtsinterpretation 0:10:43.480,0:10:49.819 oder für Bewerbungsverfahren, wo ein 15[br]sekündiges Video analysiert wird, 0:10:49.819,0:10:54.499 übernimmt regelmäßig solche Systeme wie,[br]wir messen jetzt Abstand zwischen Augen, 0:10:54.499,0:10:58.561 Nase, Mund, was weiß ich, was wir leider,[br]wenn man ganz ehrlich ist, kennen aus 0:10:58.561,0:11:03.660 irgendwelcher Genetik, die die Nazis[br]betrieben haben, um irgendwelche 0:11:03.660,0:11:10.139 überlegenen Rassen zu identifizieren. Und[br]solche Dinge werden in Systemen heutzutage 0:11:10.139,0:11:14.230 eingesetzt. Nicht unbedingt absichtlich.[br]Aber wenn man sich die Mühe macht zu 0:11:14.230,0:11:17.379 verstehen, was das System eigentlich[br]tut, stellt man plötzlich mit großem 0:11:17.379,0:11:21.119 Bedauern fest, dass es genau das tut.[br]Nadja: In all diesen Bereichen, in allen 0:11:21.119,0:11:24.620 Unteraufgaben davon und noch viel mehr[br]kommen diese Deep Learning Systeme mit all 0:11:24.620,0:11:28.300 ihren Nachteilen und oftmals mit[br]unbeabsichtigten Nebenwirkungen aktuell 0:11:28.300,0:11:34.379 zum Einsatz. Und es werden immer mehr.[br]Genug dazu, was die Grundlage ist, genug 0:11:34.379,0:11:37.300 dazu, was wir unter Deep Learning[br]verstehen und wo es angewendet wird. Wir 0:11:37.300,0:11:39.389 wollen uns als nächstes mit[br]wissenschaftlicher Nachhaltigkeit 0:11:39.389,0:11:44.190 beschäftigen. Und die erste Frage, die[br]sich die meisten Leute dazu stellen: Was 0:11:44.190,0:11:47.699 bedeutet denn wissenschaftliche[br]Nachhaltigkeit eigentlich? Wenn wir das 0:11:47.699,0:11:51.999 sagen, meinen wir solche Fragen wie, wie[br]relevant ist eigentlich das Thema, an dem 0:11:51.999,0:11:56.100 wir forschen? Wie relevant sind meine[br]Ergebnisse für die Zukunft, für die 0:11:56.100,0:12:00.079 weitere Entwicklung des Feldes, für den[br]Alltag der Menschen, um die es 0:12:00.079,0:12:04.529 letztendlich geht? Wir fragen uns aber[br]auch: Können wir diese Ergebnisse 0:12:04.529,0:12:09.129 überhaupt reproduzieren? Kann irgendjemand[br]anderes, wenn er dieses Paper gelesen hat, 0:12:09.129,0:12:11.879 zu den gleichen Zahlen, zu dem gleichen[br]Ergebnis oder zumindest zu der gleichen 0:12:11.879,0:12:16.399 Größenordnung kommen? Haben wir die dazu[br]notwendigen Mittel? Haben wir die Details 0:12:16.399,0:12:21.450 publiziert? Und sind die Ergebnisse so[br]verlässlich, dass es möglich ist? Wir 0:12:21.450,0:12:24.399 meinen auch: Können wir Dinge, die in der[br]Forschung entwickelt werden, 0:12:24.399,0:12:28.110 wiederverwenden? Oder sind sie nur für[br]diese eine sehr spezielle Aufgabe 0:12:28.110,0:12:32.559 relevant? Wir meinen auch: Sind wir[br]konkurrenzfähig? Oder sind andere Systeme, 0:12:32.559,0:12:36.709 die mit den gleichen oder sogar weniger[br]Aufwand entwickelbar, einsetzbar sind, 0:12:36.709,0:12:41.300 nicht vielleicht sogar besser? Wir meinen[br]auch: Mit welcher Systematik wurde dieses 0:12:41.300,0:12:45.889 System gebaut? Nach welchem System wurde[br]untersucht, was an dieser Stelle hilfreich 0:12:45.889,0:12:49.920 ist und was nicht? Oder war das völlig[br]willkürlich? Und schlussendlich meinen wir 0:12:49.920,0:12:52.660 auch: Was ist die Aussagekraft meiner[br]Ergebnisse? Wie war die 0:12:52.660,0:12:57.910 Evaluationsmethodik? Was ist dabei am Ende[br]rausgekommen, was tatsächlich relevant, 0:12:57.910,0:13:07.999 nennenswert, statistisch signifikant ist?[br]Benjamin: Und an der Stelle überlegen wir 0:13:07.999,0:13:11.149 uns kurz, ich weiß nicht, einige von euch[br]kommen sicherlich aus dem 0:13:11.149,0:13:16.320 wissenschaftlichen Bereich, andere aus der[br]Industrie, ist völlig egal, wie man sich 0:13:16.320,0:13:20.459 eigentlich wünschen würde, dass[br]Wissenschaft funktioniert, nämlich 0:13:20.459,0:13:24.260 irgendwie systematisch. Menschen denken[br]sich Dinge aus, überprüfen sie, stellen 0:13:24.260,0:13:28.239 fest, sie stimmen, und alles ist gut.[br]Tatsächlich haben wir in diesem Bereich 0:13:28.239,0:13:34.910 häufig, sehr häufig, ein völlig anderes[br]Verfahren. Es gibt Publikationen zu 0:13:34.910,0:13:37.154 irgendwelchen Arten: Wie [br]kann man diese 0:13:37.154,0:13:38.154 Neuronen, die wir vorhin hatten, [br]wie kann man diese Modelle 0:13:38.154,0:13:41.769 aufbauen? Was kann man[br]da machen? Dass die Daten dadurch fließen? 0:13:41.769,0:13:47.149 Dazu denken sich Leute was aus. Dann[br]publizieren sie das, veröffentlichen das, 0:13:47.149,0:13:51.249 und andere Leute denken sich, okay, das[br]klingt doch spannend. Lass das mal nehmen, 0:13:51.249,0:13:55.449 um daraus jetzt irgendwie für meinen[br]Anwendungsfall ein neues System zu bauen. 0:13:55.449,0:13:59.639 Das heißt, Sie nehmen dieses Modell, was[br]man irgendwo gehört hat, was gerade durch 0:13:59.639,0:14:07.450 die Fachwelt geistert. Dann überlegt man[br]sich grob: Wie baut man das auf? Wie nehme 0:14:07.450,0:14:12.540 ich das? Ich packe jetzt so viele[br]Schichten von diesem Typ hintereinander. 0:14:12.540,0:14:17.440 Sagen wir mal so und so viele, und die[br]Schichten machen wir so groß, wir arbeiten 0:14:17.440,0:14:21.540 jetzt mit so und so vielen dimensionalen[br]Vektoren. Das denkt man sich einfach aus, 0:14:21.540,0:14:24.019 was irgendwie plausibel klingt. [br]Dann guckt man, 0:14:24.019,0:14:25.019 dass man die Daten noch[br]irgendwie so lange schlägt, 0:14:25.019,0:14:28.410 bis sie irgendwie halbwegs[br]in das Format reinpassen, was man gerade 0:14:28.410,0:14:31.579 haben will, macht da irgendwelche[br]numerischen Werte draus, auf teilweise 0:14:31.579,0:14:36.579 sehr fragwürdige Art und Weise. Und dann[br]wird das Ganze in das Netzwerk gepackt, 0:14:36.579,0:14:39.749 und das ganze Ding nennt sich ja Deep[br]Learning. Das heißt, jetzt kommt das 0:14:39.749,0:14:44.119 Lernen. Das basiert halt darauf, dass man[br]die Daten reinschiebt, guckt, wie gut es 0:14:44.119,0:14:50.199 passt. Wie gut war die Vorhersage. Dann[br]anhand dessen das System anpasst, die 0:14:50.199,0:14:53.649 Daten wieder durchfließen lässt und das[br]Ganze immer und immer wiederholt, bis man 0:14:53.649,0:14:59.180 am Ende irgendwie schön Gewichte in diesen[br]Funktionen, die man im Prinzip 0:14:59.180,0:15:04.610 konstruiert, geraten hat oder gelernt hat,[br]die plausibel erscheinen für den Zweck, 0:15:04.610,0:15:08.449 den man braucht. Das ergibt dann das[br]Modell. Wenn die Zahlen, die dann 0:15:08.449,0:15:12.910 rauskommen, auf den Daten mit dem man das[br]testet, ganz gut aussehen, dann nehmen die 0:15:12.910,0:15:19.250 Leute das und schreiben ihr Paper darüber[br]und sagen Okay, für Klassifikationen von 0:15:19.250,0:15:24.079 Wölfen gegen Hunde haben wir jetzt[br]folgende Architektur, folgendes Dings. 0:15:24.079,0:15:28.089 Hier sind unsere Daten. Das sind die[br]Werte, die wir haben. Bitteschön, dass ist 0:15:28.089,0:15:32.089 jetzt das tolle neue Forschungsergebnis.[br]Wenn die Werte nicht so gut aussehen, dann 0:15:32.089,0:15:37.199 hat man wohl vielleicht die falsche State[br]of the Art System genommen, was gerade 0:15:37.199,0:15:40.939 jemand veröffentlicht hat. Oder man hat[br]eine Schlicht zu wenig, eine Schicht zu 0:15:40.939,0:15:44.939 viel, die Vektoren haben die falsche[br]Dimensionierung. Na naja, gut, dann rate 0:15:44.939,0:15:50.080 ich eben neue Parameter. Ist ja alles nur[br]Strom und Zeit, lässt das Ganze weiter 0:15:50.080,0:15:56.129 trainieren. Da laufen die GPUs heiß. Und[br]dann fängt man von vorne an damit und 0:15:56.129,0:16:01.959 guckt, ob jetzt gute Zahlen rauskommen.[br]Und je nachdem sagt man dann, Okay, ich 0:16:01.959,0:16:07.161 mache weiter, oder ich fall wieder durch.[br]Dazu kommt dann noch, das Ganze ist jetzt 0:16:07.161,0:16:11.419 ja schon irgendwie ziemlich[br]unwissenschaftlich. Das ist nicht mal mehr 0:16:11.419,0:16:16.159 empirische Forschung. Das ist wirklich[br]ausprobieren und hoffen, dass etwas Gutes 0:16:16.159,0:16:21.809 rauskommt. Aber danach kann man jetzt ja[br]noch die üblichen Schönungs-Methoden 0:16:21.809,0:16:27.359 anwenden, die es natürlich in der[br]Wissenschaft gibt, die man auch so leicht 0:16:27.359,0:16:31.699 gar nicht finden kann. Leider. Man kann[br]natürlich jetzt sagen, ich zeige nur die 0:16:31.699,0:16:34.990 Ergebnisse auf den Datensets, bei denen[br]die Zahlen gut aussehen, und auf dem 0:16:34.990,0:16:38.450 zweiten Datensets mit den Fotos aus einer[br]anderen Perspektive oder mit einem anderen 0:16:38.450,0:16:42.269 Hintergrund jetzt leider nicht gut[br]funktioniert hat, das muss ich ja 0:16:42.269,0:16:46.879 niemandem erzählen. Das veröffentliche ich[br]einfach nicht mit. Das bleibt bei mir, und 0:16:46.879,0:16:49.459 meinen anderen Zahlen sehen ja gut aus,[br]und das muss man jetzt erst mal jemand 0:16:49.459,0:16:52.649 nachmachen und zeigen, dass es mit etwas[br]anderem nicht funktioniert. Selbst wenn 0:16:52.649,0:16:56.839 nicht: Ich habe ja eine Publikation. Und[br]das ist leider in vielen Feldern 0:16:56.839,0:17:00.669 heutzutage was, was wichtig ist. Irgendwo[br]bei einer wichtigen Konferenz ein Paper zu 0:17:00.669,0:17:04.829 veröffentlichen, mit der man eine[br]minimale Verbesserung gegenüber dem 0:17:04.829,0:17:10.080 bisherigen State of the Art gezeigt hat.[br]Natürlich kann ich außerdem, eigentlich 0:17:10.080,0:17:13.790 sollte ich solche Experimente mehrfach[br]wiederholen und Mittelwerte bilden. Aber 0:17:13.790,0:17:16.959 ich kann natürlich Experimente mehrfach[br]wiederholen und einfach nur den besten 0:17:16.959,0:17:26.720 Score veröffentlichen. Und weitere solche[br]Tricks anwenden. Das heißt, wir haben 0:17:26.720,0:17:32.360 sowieso schon einen schlechten Prozess,[br]der dann auch noch teilweise missbraucht 0:17:32.360,0:17:37.510 wird, um schneller bessere Ergebnisse zu[br]kriegen und das dann zu publizieren. Das 0:17:37.510,0:17:41.929 ist das, was wir viel in diesen Feldern[br]sehen. Definitiv nicht bei allen Papern. 0:17:41.929,0:17:47.470 Gerade die Grundlagen Paper sind[br]sicherlich gut erforscht. Aber die vielen 0:17:47.470,0:17:53.809 Anwendungspaper können an der Stelle, und[br]allein schon indem, wie sie entstanden 0:17:53.809,0:17:57.519 sind, begründet, keinen wirklichen[br]Mehrwert liefern. Was ihre Relevanz und 0:17:57.519,0:18:01.000 ihren Vorteil, der daraus entsteht,[br]ergibt. 0:18:01.000,0:18:07.230 Nadja: Das Ganze ist natürlich plakativ[br]formuliert und natürlich bringen wir das 0:18:07.230,0:18:10.850 Ganze ein bisschen auf den Punkt, um zu[br]überspitzen. Aber Tatsache ist, wenn man 0:18:10.850,0:18:13.409 sich in einem Feld bewegt, was sehr viel[br]Druck hat, wenn man sich in einem Feld 0:18:13.409,0:18:17.069 bewegt, was so viele mögliche Gründe und[br]so viele Dinge hat, die diese 0:18:17.069,0:18:20.500 Fallstricke begünstigen, dann werden sie[br]auch immer mehr genutzt. 0:18:20.500,0:18:29.679 Benjamin: Genau. Wir sehen natürlich[br]besonders, es gibt gerade im Deep Learning 0:18:29.679,0:18:33.590 diese Möglichkeiten. Denn wir haben schon[br]gesagt: wir verstehen nicht, was diese 0:18:33.590,0:18:36.850 Modelle tun normalerweise. Es gibt ein[br]Forschungsfeld, was daran arbeitet. Aber 0:18:36.850,0:18:40.919 normalerweise verstehen wir nicht, was[br]diese Systeme tun. Das sind Blackbox 0:18:40.919,0:18:43.890 Modelle, die kriegen Daten rein, damit[br]wird irgendwas damit gemacht. Am Ende 0:18:43.890,0:18:49.950 kommen Daten raus. Das Ganze geht noch[br]über mehrere Schritte. Wir haben die 0:18:49.950,0:18:53.520 Daten, die werden irgendwie[br]vorverarbeitet. Dann kommen die Daten 0:18:53.520,0:18:57.730 rein, gehen durch dieses System, dann[br]werden sie eventuell nachverarbeitet. Am 0:18:57.730,0:19:00.960 Ende muss noch evaluiert werden,[br]entschieden werden: Was ist jetzt richtig? 0:19:00.960,0:19:04.260 Was ist exakt richtig? Was ist gerade so[br]richtig? Reicht mir das vielleicht, um es 0:19:04.260,0:19:09.841 als als wahr, stimmt es schon so, um es in[br]meinem Paper zu publizieren? Was ich genau 0:19:09.841,0:19:14.549 gemessen habe, wird häufig gar nicht erst[br]angegeben. Das heißt, dort ist es extrem 0:19:14.549,0:19:21.260 leicht möglich, auf diese Art und Weise zu[br]arbeiten. Und gerade dadurch, dass überall 0:19:21.260,0:19:27.570 heutzutage Expertinnen für dieses Feld[br]gesucht werden, dass überall jemand 0:19:27.570,0:19:31.250 Anwendungen haben möchte für Deep[br]Learning, kommt man damit eben ganz gut 0:19:31.250,0:19:34.950 durch. Deswegen passiert das dort[br]besonders. Man muss auf der anderen Seite, 0:19:34.950,0:19:39.529 wenn man die guten Jobs kriegen will, auch[br]solche Publikationen vorweisen. Also wird 0:19:39.529,0:19:44.389 das entsprechend gemacht. Und genauso: es[br]sind halt sehr viele Low Hanging Fruits 0:19:44.389,0:19:50.179 dabei. Das heißt Dinge, wo man weiß, okay,[br]mit wenig eigenen, großartigen Ideen und 0:19:50.179,0:19:56.549 mehr anwenden von Handwerkszeug kann ich[br]irgendwo was bauen, was es noch nicht 0:19:56.549,0:20:02.690 gibt. Und solange ich der Erste dazu bin,[br]kriege ich das leichter hin. Ich muss mich 0:20:02.690,0:20:06.019 nicht mit irgendwem vergleichen. Ich zeige[br]Okay, mein System kann das mit einer 0:20:06.019,0:20:10.590 akzeptablen Genauigkeit, exakte Zahlen und[br]Ergebnissen. Damit bin ich die erste 0:20:10.590,0:20:13.980 Person, die das geschafft hat, und kann[br]das entsprechend veröffentlichen. Deswegen 0:20:13.980,0:20:19.980 versuchen möglichst viele Leute, möglichst[br]schnell solche Dinge rauszuhauen, neue 0:20:19.980,0:20:30.210 Publikationen in diesen Bereichen zu[br]veröffentlichen. Wenn wir jetzt wissen 0:20:30.210,0:20:35.990 wollen, wie gut eigentlich ein System ist,[br]was vorgestellt wird, wäre es natürlich 0:20:35.990,0:20:40.120 schön, wenn wir die Experimente einfach[br]wiederholen könnten. Das ist allerdings 0:20:40.120,0:20:47.559 leider gar nicht so trivial. Denn auch[br]wenn die Systeme, die eingesetzt werden, 0:20:47.559,0:20:50.980 die Grundlagen-Systeme, häufig ein[br]gewisser Standard sind und irgendwie auch 0:20:50.980,0:20:57.380 als Open Source existieren, gilt das eben[br]nicht für die ganzen Anpassungen, die 0:20:57.380,0:21:00.880 ganzen Details, die die Personen einbauen.[br]Das gilt also nicht für den eigentlichen 0:21:00.880,0:21:06.870 Code, für die Pipeline, aber auch für die[br]Pre-Processing, für die Evaluierung. Das 0:21:06.870,0:21:12.320 gilt nicht unbedingt für die Daten. Häufig[br]sind Daten nicht verfügbar. Wir wissen, 0:21:12.320,0:21:16.669 Daten sind wertvoll, deswegen will man sie[br]nicht aus der Hand geben. Aber so 0:21:16.669,0:21:19.889 funktioniert Wissenschaft nicht. Ich kann[br]nicht auf meinen Daten, die ich für mich 0:21:19.889,0:21:23.309 behalte, arbeiten, sie niemandem zeigen[br]und sagen: Aber mein System ist gut, ich 0:21:23.309,0:21:29.919 habe es ja selbst getestet. Das ihr es[br]nicht überprüft könnt, Pech gehabt. Ich 0:21:29.919,0:21:35.110 habe in diesen Systemen enorm viele Hyper-[br]Parameter, die wir haben es ja gesagt, 0:21:35.110,0:21:39.940 erst einmal häufig geraten werden oder[br]durch durch grobes Ausprobieren bestimmt 0:21:39.940,0:21:44.179 werden. Wenn ich diese Parameter und diese[br]Hyper-Parameter nicht weiß, habe ich keine 0:21:44.179,0:21:49.410 Chance, das System nachzubauen. Ich weiß[br]auch nicht, mit welchen Initialisierungen, 0:21:49.410,0:21:51.420 die zufällig geschehen und [br]mit welchen Reihenfolgen 0:21:51.420,0:21:52.830 und Aufteilung der Daten[br]das Ganze geschehen ist. 0:21:52.830,0:21:55.679 Das heißt, wenn ich diese [br]ganzen Details nicht habe, habe ich 0:21:55.679,0:22:01.870 erst mal keine Chance, genau ein System[br]nachzubauen. Ich brauche aber genau diese 0:22:01.870,0:22:06.940 exakten Werte, weil diese Systeme enorm[br]fragil sind. Das heißt, wenn ich 0:22:06.940,0:22:12.300 Kleinigkeiten ändere, ein bisschen die[br]Dimensionen verändere, die Größe der 0:22:12.300,0:22:15.610 Schichten, gar so gar die Funktionen, die[br]da aneinandergekettet werden, ein bisschen 0:22:15.610,0:22:19.261 ändere, kriege ich völlig andere[br]Ergebnisse und weiß nicht mehr, ob das 0:22:19.261,0:22:23.549 andere System wirklich schlecht oder gut[br]war oder ob es eben nur daran liegt, dass 0:22:23.549,0:22:32.020 ich es nicht genau nachbauen kann.[br]Problem: Aktuell gibt es zwar 0:22:32.020,0:22:36.250 Bestrebungen, dass das so etwas besser[br]wird, aber keinen Zwang oder so dafür. Das 0:22:36.250,0:22:40.220 heißt, wenn ich ein Paper publiziere auf[br]einer der großen Konferenzen, in meinem 0:22:40.220,0:22:45.750 Anwendungsgebiet oder auch im Kern Machine[br]Learning Bereich, dann ist es gewünscht, 0:22:45.750,0:22:50.960 dass sie reproduzierbar sind. Es ist aber[br]nicht erzwungen. Das heißt, es gibt 0:22:50.960,0:22:56.090 zusätzlich nochmal das, ich möchte möchte,[br]dass mein Paper so ein Siegel kriegt, das 0:22:56.090,0:22:58.760 ist reproduzierbar. Dann muss ich dafür[br]ein paar Dinge machen. Da muss ich im 0:22:58.760,0:23:03.900 Prinzip diese Dinge hier bereitstellen,[br]die wir ja aufgelistet haben. Und dann 0:23:03.900,0:23:08.799 versuchen andere Leute nachzuvollziehen,[br]ob das, was ich mache, auch stimmt. Und 0:23:08.799,0:23:12.230 dann ich halt so ein Häkchen. Aber wenn[br]ich das nicht tue, dann mache ich es eben 0:23:12.230,0:23:18.259 nicht. Und das ist sicherlich eine Stelle,[br]die man hinterfragen muss, wo auch zum 0:23:18.259,0:23:22.899 Glück schon Dinge geschehen. Diese[br]Reproduzierbarkeit wird, rückt mehr in den 0:23:22.899,0:23:30.169 Fokus der Konferenzen. Der Effekt von dem[br]Ganzen ist natürlich dadurch: Wir haben 0:23:30.169,0:23:34.480 ganz viel Forschung, die nicht genutzt[br]werden kann von anderen Leuten. Das heißt, 0:23:34.480,0:23:37.190 ich muss natürlich Forschung an der Stelle[br]wiederholen. Andere Leute müssen sie 0:23:37.190,0:23:43.830 wiederholen und zusätzlich durch das,[br]sowohl durch diesen Effekt als auch durch 0:23:43.830,0:23:47.529 den Drang, möglichst viel und möglichst[br]schnell zu publizieren, wird halt extrem 0:23:47.529,0:23:51.330 viel Forschung auch so wiederholt und an[br]ähnlichen Problemen immer wieder 0:23:51.330,0:23:56.210 gearbeitet, um minimale Verbesserung zu[br]bekommen, weil man ja auch schon ein "Mein 0:23:56.210,0:24:00.130 System ist 0,5 Prozentpunkte besser als[br]das bisherige State of the Art System" 0:24:00.130,0:24:08.690 wieder publizieren kann. Das heißt,[br]wünschenswert wäre es, wir hätten überall 0:24:08.690,0:24:13.649 diese Reproduzierbarkeit. Das heißt, das[br]Wichtigste wäre natürlich wir alle immer, 0:24:13.649,0:24:17.269 wenn wir hier sitzen und wenn wir[br]irgendwas erforschen. Wir müssen unseren 0:24:17.269,0:24:19.460 Source Code veröffentlichen. Guck mal, da[br]ein Eichhörnchen. 0:24:19.460,0:24:23.830 Nadja: Das ist leider, was uns viel zu[br]häufig passiert, wenn es einen 0:24:23.830,0:24:27.700 wissenschaftlichen Code geht. Das heißt,[br]selbst die Autorinnen, die vorhatten ihren 0:24:27.700,0:24:31.000 Code zu publizieren, das Ganze öffentlich[br]zu machen, Open Source zu machen, werden 0:24:31.000,0:24:35.029 viel zu schnell vom nächsten Projekt, von[br]der größeren Deadline, von den 0:24:35.029,0:24:38.389 beschäftigten Doktorandinnen oder von der[br]Tatsache, dass der Code immer noch nicht 0:24:38.389,0:24:41.279 aufgeräumt ist, wenn man einfach nicht[br]dazu gekommen ist vor der Deadline, 0:24:41.279,0:24:45.330 abgelenkt. Wir haben einen extrem hohen[br]Publikationsdruck im Bereich Deep 0:24:45.330,0:24:49.330 Learning. Die Publikationen steigen[br]effektiv exponentiell. Man muss immer 0:24:49.330,0:24:51.060 schneller sein, um [br]wirklich noch state of 0:24:51.060,0:24:52.460 the art zu sein, um [br]selbst die eigene 0:24:52.460,0:24:54.300 Verbesserung noch an den [br]Markt bringen zu können. 0:24:54.300,0:24:55.300 Das sorgt dafür, dass[br]irgendwo unsauber 0:24:55.300,0:24:58.539 gearbeitet wird. Mein Code wird[br]nicht dokumentiert, da wird Spaghetti Code 0:24:58.539,0:25:02.350 geschrieben. Er wird irgendwie hingehackt,[br]Hauptsache, es funktioniert. Und danach 0:25:02.350,0:25:06.100 müsste ich mich hinsetzen und das Ganze[br]wieder aufarbeiten. Und das ist ein Riesen- 0:25:06.100,0:25:09.789 stück Arbeit. Und eigentlich steht ja[br]schon die nächste Publikation an. Und alles 0:25:09.789,0:25:12.539 ist es plötzlich interessanter, als den[br]Code zugänglich zu machen. Das gilt wieder 0:25:12.539,0:25:15.469 nicht für alle Paper. Natürlich gibt es[br]Leute, die das machen. Wir versuchen es 0:25:15.469,0:25:19.960 zum Beispiel auch. Aber es funktioniert[br]leider immer noch viel zu selten. 0:25:19.960,0:25:25.169 Tatsächlich gab es dazu oder gibt es doch[br]immer noch von einer großen Konferenz in 0:25:25.169,0:25:28.860 dem Bereich, die Reproducibility[br]Challenge, wo im wesentlichen 0:25:28.860,0:25:32.409 Wissenschaftler aufgefordert werden, sich[br]ein akzeptiertes Paper aus der Konferenz 0:25:32.409,0:25:37.180 2018 oder jetzt 2019 rauszusuchen und mit[br]allen Mitteln und Wegen zu versuchen, die 0:25:37.180,0:25:41.260 Ergebnisse nachzuvollziehen. Teilweise[br]oder im Detail, komplett, erst mal 0:25:41.260,0:25:44.960 rausfinden, was kann ich überhaupt? Die[br]Autoren sind angehalten, kurz publizieren 0:25:44.960,0:25:48.909 und zu kooperieren. Die Leute versuchen[br]wirklich, auch Zeitaufwand, mit dem 0:25:48.909,0:25:52.639 entsprechenden Fachwissen, die Ergebnisse[br]nachvollziehbar und erklärbar und 0:25:52.639,0:25:58.600 reproduzierbar zu machen. Die Erfolgsrate?[br]Ja, ein Teil können wir nachvollziehen, 0:25:58.600,0:26:03.480 immerhin 50 Prozent. Immerhin ein[br]Großteil, das nachvollziehen konnten 30 0:26:03.480,0:26:08.800 Prozent, gar nicht reproduzieren waren [br]aber immer noch 10 Prozent. Jetzt 0:26:08.800,0:26:12.510 ist das interessante aber ja der[br]Schwierigkeitsgrad, dass man das irgendwie 0:26:12.510,0:26:15.250 reproduzieren kann, ist an sich [br]schon mal gut, aber noch 0:26:15.250,0:26:17.370 nicht ausreichend. Wenn [br]ich die komplette 0:26:17.370,0:26:19.339 Forschung dafür neu machen[br]muss, dann lohnt das den Aufwand schlicht 0:26:19.339,0:26:24.929 und einfach nicht. Reasonable difficulty[br]ist in dem Fall sagen wir ein nicht sehr 0:26:24.929,0:26:28.909 konkretes Wort. Aber Tatsache ist, dass es[br]bei mindestens 20 Prozent der Paper sehr, 0:26:28.909,0:26:33.309 sehr schwierig war und überhaupt keine[br]Probleme aufgetreten sind bei einem 0:26:33.309,0:26:37.460 absolut vernachlässigbaren Teil. Was Sie[br]dabei noch gemacht haben, ist Sie haben 0:26:37.460,0:26:41.549 gefragt, diese Wissenschaftlerinnen, denen[br]diese Challenge gestellt wurde, haben wir 0:26:41.549,0:26:45.971 momentan eine Reproducibility Crisis im[br]Bereich Maschinenlearning? Seht ihr hier ein 0:26:45.971,0:26:52.470 Problem? Und die Anzahl der Leute, die ein[br]Problem sehen, ist über diese Challenge um 0:26:52.470,0:26:57.350 diverse Prozentpunkte gestiegen. Das[br]heißt, einfach mal selbst zu versuchen, 0:26:57.350,0:27:01.409 hat nochmal 15 Prozentpunkte mehr der[br]befragten Wissenschaftlerinnen ungefähr, 0:27:01.409,0:27:04.500 davon überzeugt, dass da tatsächlich[br]Probleme existiert und dazu geführt, dass 0:27:04.500,0:27:07.790 drei Viertel der befragten[br]Wissenschaftlerinnen ein Problem sehen, in 0:27:07.790,0:27:16.559 unterschiedlichem Ausmaße.[br]Benjamin: Noch ein Beispiel. Das ist 0:27:16.559,0:27:20.320 jetzt, es gibt tatsächlich inzwischen[br]Paper, die sich damit beschäftigen, wie 0:27:20.320,0:27:26.610 gut andere Paper reproduzierbar sind. In[br]dem Fall aus dem Bereich von 0:27:26.610,0:27:31.809 Recommendation. Es geht darum, aus einer[br]Menge von Dokumenten bestimmte Dokumente 0:27:31.809,0:27:35.820 für eine Anfrage oder Frage, oder was[br]weiss ich, vorzuschlagen. Da gab es in den 0:27:35.820,0:27:40.100 letzten Jahren 18 Publikationen, die alle[br]auf Deep Learning setzen, bei großen 0:27:40.100,0:27:46.440 Konferenzen. Und dann haben sich die Leute[br]mal hingesetzt und geguckt, wieviel können 0:27:46.440,0:27:50.200 wir davon reproduzieren? Inklusive, wir[br]schicken erst einmal dem Autor in eine 0:27:50.200,0:27:54.919 E-Mail, ob sie uns vielleicht ihren Code[br]geben können, bitten nochmal nach und 0:27:54.919,0:27:57.700 versuchen, die Sachen zum Laufen zu[br]bringen, versuchen irgendwie, teilweise 0:27:57.700,0:28:01.889 sogar ähnliche Hardware zu beschaffen, wie[br]die verwendet haben und bauen das nach. 0:28:01.889,0:28:07.019 Insgesamt haben sich von diesen, für[br]dieses Beispiel, von diesen 18 Papern, 0:28:07.019,0:28:11.490 ganze 7 Paper wirklich reproduzieren[br]können. Das heißt, bei denen können sie 0:28:11.490,0:28:15.630 die ganzen Sachen nachbauen, können es[br]laufen lassen und kommen dann auf ähnliche 0:28:15.630,0:28:18.870 Ergebnisse.[br]Nadja: Aber wichtig, erst nachdem Sie die 0:28:18.870,0:28:21.849 Arbeit investiert haben, erst nachdem Sie[br]nachgefragt haben, erst nachdem Sie 0:28:21.849,0:28:25.330 versucht haben, die Dinge aufzutreiben,[br]die nicht von sich aus herausgegeben 0:28:25.330,0:28:27.330 wurden.[br]Benjamin: Das ist nicht der Standard 0:28:27.330,0:28:30.779 Prozess. Also normalerweise, wenn ich[br]irgendwo auf der Konferenz ein Paper 0:28:30.779,0:28:34.490 schicke und sage, Okay, das möchte ich[br]veröffentlichen. Dann lesen Leute nur 0:28:34.490,0:28:38.960 dieses Paper. Gucken Sie sich eventuell[br]noch ein Video an oder vielleicht sogar 0:28:38.960,0:28:42.700 ganze zusätzliche Datensätze, die[br]hochgeladen werden. Aber normalerweise 0:28:42.700,0:28:47.200 lesen Sie nur dieses Paper, diese 6, 8,[br]10, manchmal 12 Seiten mit eng 0:28:47.200,0:28:51.450 geschriebenen Ergebnissen und entscheiden[br]nur anhand des Textes, der dort dann 0:28:51.450,0:28:55.720 steht, und anhand der Zahlen, die die[br]Autorin selbst herausgegeben haben, ob 0:28:55.720,0:29:02.329 diese Arbeit relevant, richtig und[br]irgendwie nutzbar erscheint. Und dann wird 0:29:02.329,0:29:06.929 entschieden, ob sie veröffentlicht wird[br]oder nicht. Aber sie können normalerweise 0:29:06.929,0:29:11.169 nicht in irgendeiner Form überprüfen, ob[br]das wirklich so ist. Sie müssen komplett 0:29:11.169,0:29:17.920 auf den Text vertrauen, ohne. Das ist[br]der Standardfall, wenn wir nicht explizit 0:29:17.920,0:29:22.700 Reproduzierbarkeit fordern für[br]irgendwelche Konferenzen. Und wie gesagt, 0:29:22.700,0:29:27.740 die bisherigen großen Konferenzen. Es gibt[br]keine, die einen von den angewandten 0:29:27.740,0:29:32.129 Konferenzen, die Reproduzierbarkeit[br]explizit fordert. Es ist immer nur ein 0:29:32.129,0:29:36.519 zusätzliches Challenge, oder ein[br]zusätzliches Siegel, oder was weiß ich. 0:29:36.519,0:29:40.560 Bisher basiert die Annahme und die[br]Veröffentlichung von irgendwelchen Papern 0:29:40.560,0:29:44.789 komplett nur auf dem Reviewen von den[br]eingereichten Sachen, ohne den Versuch es 0:29:44.789,0:29:51.350 auch zu reproduzieren. Noch zu dem[br]Beispiel, um es noch demotivierender zu 0:29:51.350,0:29:57.710 machen. Von diesen 7 Ergebnissen, die sie[br]reproduzieren konnten, haben sie dann 0:29:57.710,0:30:03.750 außerdem nochmal nicht Deep Learning[br]basierte Ansätze genommen, die damit 0:30:03.750,0:30:09.299 verglichen und festgestellt, dass wenn man[br]da sich ein bisschen Mühe gibt, sie von 6 0:30:09.299,0:30:12.820 von diesen 7 Paper noch besserere,[br]trotzdem noch bessere Ergebnisse kriegen. 0:30:12.820,0:30:20.070 Das heißt, von diesen 18 Publikationen hat[br]eine für externe Leute messbaren 0:30:20.070,0:30:28.340 wissenschaftlichen Fortschritt gebracht.[br]Und genau diese anderen Ansätze sind 0:30:28.340,0:30:34.059 nämlich leider etwas, was sehr stark durch[br]diesen Hype, der ja offensichtlich 0:30:34.059,0:30:39.620 funktioniert, so voll wie sie heute ist,[br]das Wort Deep Learning zieht, werden die 0:30:39.620,0:30:43.710 verdrängt. Der Rest sind häufig nur[br]Baselines. Ich muss ja nur im Paper 0:30:43.710,0:30:48.590 irgendwas angeben, was ein anderes System[br]ist, mit dem ich es vergleiche, damit ich 0:30:48.590,0:30:52.590 zeige, dass mein neues System besser ist[br]als das, was bisher da ist. Dann gebe ich 0:30:52.590,0:30:57.249 mir auch keine Mühe, dass ich diesen[br]Anteil, dieses andere System besonders gut 0:30:57.249,0:31:00.340 dastehen lasse. Denn dann wird es[br]schwieriger, dass mein neues System besser 0:31:00.340,0:31:04.610 abschneidet. Das heisst, es wird[br]hauptsächlich eben an diesem Deep 0:31:04.610,0:31:09.701 Learnings Krams geforscht, und alles[br]andere wird vernachlässigt, obwohl man da 0:31:09.701,0:31:13.679 noch sehr viel rausholen könnte, wenn man[br]es denn wollte und irgendeinen Vorteil 0:31:13.679,0:31:20.500 davon hätte. Und es wird wirklich alles[br]andere nur als Baseline betrachtet. Ganz 0:31:20.500,0:31:24.830 kurz noch Exkurs, das ist ein Foundation[br]Talk. Baseline, ich brauche irgendein 0:31:24.830,0:31:27.739 System, mit dem ich zeige, dass meine[br]Daten valide sind. Das ist irgendwie 0:31:27.739,0:31:31.080 Plausible ist, was ich raus kriege. Im[br]simpelsten Fall ist ein Baseline Ansatz 0:31:31.080,0:31:34.740 für eine binäre Entscheidung einfach ein[br]Münzwurf. Wenn ich ein System baue, was 0:31:34.740,0:31:39.080 zwischen Hund oder Wolf entscheiden muss[br]und es hat nur 5 Prozent Genauigkeit, dann 0:31:39.080,0:31:42.321 hätte ich mal lieber eine Münze geworfen.[br]Da würde ich mit 50 Prozent Genauigkeit 0:31:42.321,0:31:45.679 kriegen. Dann ist mein System[br]außerordentlich schlecht. Sobald ich über 0:31:45.679,0:31:49.240 diese 50 Prozent drüber kommen über diese[br]Baseline, kann ich in diesem Paper 0:31:49.240,0:31:54.639 inhaltlich begründen, warum mein neues[br]System besser ist als diese Baseline. Nun 0:31:54.639,0:31:57.610 gebe es vielleicht bessere, klügere[br]Ansätze als einen reinen Münzwurf. Aber 0:31:57.610,0:32:00.420 wenn ich den halt möglichst low halte,[br]habe ich es an der 0:32:00.420,0:32:04.179 anderen Stelle leichter.[br]Nadja: Dazu ganz kurz, um das in Zahlen zu 0:32:04.179,0:32:06.730 fassen. Kaggle ist eine Plattform, die[br]Daten- 0:32:06.730,0:32:07.730 wissenschaftliche Challenges[br]stellt, an der jeder 0:32:07.730,0:32:11.130 dann mitarbeiten kann und[br]einen Versuch einreichen kann, diese 0:32:11.130,0:32:14.379 Challenge zu schlagen. Z.B. im Bereich[br]Bilderkennung, aber eigentlich alles, was 0:32:14.379,0:32:17.870 da ist, an wissenschaftliche oder[br]maschinelles Lernen in Worte fasst. Das 0:32:17.870,0:32:20.659 ist der Unterschied zur akademischen[br]Forschung, dass wir uns nicht so sehr am 0:32:20.659,0:32:23.740 State of the art orientieren, sondern die[br]Leute versuchen, oftmals sind es auch 0:32:23.740,0:32:27.580 Privatpersonen, das zu nehmen, was[br]funktioniert. Da ist auch viel Deep 0:32:27.580,0:32:30.230 Learning dabei. Weil Deep Learning, halt[br]ein paar Sachens sind, wo viel entwickelt 0:32:30.230,0:32:33.450 wird, wo es viele fertige Frameworks gibt[br]und was verrufen ist als das, was 0:32:33.450,0:32:38.010 irgendwie mit allem funktioniert, unter[br]gewissen Voraussetzungen. Aber trotzdem 0:32:38.010,0:32:42.850 sehen wir das auch., dass klassische[br]Ansätze hier sehr, sehr hohen Anteil 0:32:42.850,0:32:47.369 einnehmen, einen höheren Anteil als[br]manchmal bei entsprechenden Konferenzen zu 0:32:47.369,0:32:50.630 finden ist. Das heißt, wenn es mir nur[br]darum geht, dass jetzt etwas funktioniert 0:32:50.630,0:32:53.080 und ich nicht maximalen Aufwand[br]reinstecken will, ich nicht unbedingt die 0:32:53.080,0:32:56.000 Buzzwords unterbringen will, ist Deep[br]Learning plötzlich nicht mehr ganz so 0:32:56.000,0:33:00.621 beliebt. Und dafür gibt's mit Sicherheit[br]ein Grund. Wir wollen aber noch zu zwei 0:33:00.621,0:33:03.450 weiteren Aspekten kommen. Und der nächste,[br]der der gesellschaftlichen Auswirkungen. 0:33:03.450,0:33:07.340 Weil auch, was unsere Gesamtgesellschaft[br]betrifft, müssen wir in der Forschung, was 0:33:07.340,0:33:10.440 das maschinelle Lernen und Deep Learning[br]angeht, ein bisschen auf Nachhaltigkeit 0:33:10.440,0:33:15.299 achten. Gerade das Thema Erklärbarkeit und[br]Transparenz, das Thema kann nicht das 0:33:15.299,0:33:18.539 System, was vielleicht sogar[br]lebenswichtige Entscheidungen trifft, 0:33:18.539,0:33:22.730 irgendwie verstehen. Dieses inzwischen[br]relativ weit verbreitete Beispiel kommt 0:33:22.730,0:33:26.850 aus der Software Compass, ich habe es[br]schon erwähnt, die wird verwendet, um bei 0:33:26.850,0:33:29.620 straffällig gewordene Menschen in[br]Gerichtsverfahren einen Score zu 0:33:29.620,0:33:32.249 ermitteln, mit welcher Wahrscheinlichkeit[br]sie rückfällig werden im weiteren Verlauf 0:33:32.249,0:33:37.370 ihres Lebens. Dieser Score wird vom[br]Richter dann verwendet, um das Strafmaß zu 0:33:37.370,0:33:43.110 bestimmen. Wenn wir uns jetzt den[br]Hintergrund der Hautfarbe, Hautfarbe 0:33:43.110,0:33:47.041 dieser Menschen anschauen, für die diese[br]Scores bestimmt wurden, erkennen wir eine 0:33:47.041,0:33:50.899 sehr unterschiedliche Verteilung zwischen[br]Menschen mit weißer Hautfarbe und Menschen 0:33:50.899,0:33:55.570 mit anderer Hautfarbe. Das heißt, oben[br]links sehen wir, dass hohe und niedrige 0:33:55.570,0:34:00.019 Scores annähernd gleichmäßig verteilt[br]werden, während wir eben bei Menschen mit 0:34:00.019,0:34:03.249 eindeutig weißer Hautfarbe oder die so[br]wahrgenommen werden eine sehr starke 0:34:03.249,0:34:07.929 Häufung niedrigen Scores haben. Das hat[br]sich an vielen Einzelbeispiele inzwischen 0:34:07.929,0:34:11.950 gezeigt, dass das schlicht und einfach[br]falsch ist. Dass für ähnliche Verbrechen 0:34:11.950,0:34:15.480 sehr unterschiedliche Strafen vergeben[br]wurden und das nicht der Fall ist, dass 0:34:15.480,0:34:19.070 die Personen mit dem höheren Score auch[br]zwangsläufig eher rückfällig geworden ist. 0:34:19.070,0:34:22.780 In einigen Fällen haben auch Menschen, die[br]in dem Bereich tätig sind, drauf geschaut 0:34:22.780,0:34:24.530 und haben gesagt, eigentlich hätte anhand[br]der Vorstrafen gerade andersherum 0:34:24.530,0:34:29.120 verteilt. Das ist ein Riesenproblem, weil[br]das System sind, die hier aktuell zum 0:34:29.120,0:34:31.690 Einsatz kommen und die für Menschen [br]lebenswichtige Entscheidungen 0:34:31.690,0:34:35.140 treffen müssen. Für niemanden er[br]sichtlich, warum dieser Score gegeben 0:34:35.140,0:34:38.810 wird. Die Firma sagt von sich, und das ist[br]insofern auch korrekt, wenn man es 0:34:38.810,0:34:43.110 wörtlich nimmt, dass der Hintergrund und[br]die Hautfarbe dieser Menschen nicht 0:34:43.110,0:34:47.179 eingegangen ist in das Training. Aber das[br]korreliert mit so vielen Dingen in den 0:34:47.179,0:34:50.480 USA, mit dem Einkommen, mit dem Wohnort[br]etc., dass das gar nicht der entscheidende 0:34:50.480,0:34:56.400 Faktor ist. Als weiteres Beispiel können[br]wir mal drüber nachdenken, was wir dann 0:34:56.400,0:35:00.230 mit dem Begriff eindeutige Handlungs-[br]Vorschrift meinen. Viele Menschen 0:35:00.230,0:35:04.620 bezeichnen damit Algorithmen, was sie[br]damit nicht bezeichnen wollen, dass wir 0:35:04.620,0:35:07.910 alles, was algorithmische System uns[br]vorschlagen, auch als Handlungs-Vorschrift 0:35:07.910,0:35:12.260 zu behandeln haben. Das ist nicht, wie wir[br]das gemeint haben, sondern wir müssen mit 0:35:12.260,0:35:17.280 diesem System immer reflektiert und[br]kritisierend umgehen. Ob jetzt Deep 0:35:17.280,0:35:20.570 Learning überhaupt noch auf diesen Begriff[br]passt, auf diese eindeutige Handlungs- 0:35:20.570,0:35:23.720 Vorschrift ist schon wieder extrem[br]fragwürdig. Denn wir reden hier von sehr 0:35:23.720,0:35:28.200 stark statistisch geprägten Systemen, wo[br]sehr viel Zufall mitspielt. Man könnte 0:35:28.200,0:35:31.390 sie, wie es in diesem Thread geschehen[br]ist, vielleicht eher als 0:35:31.390,0:35:34.290 maschinelles Bauchgefühl bezeichnen, [br]als eindeutige Handlungs-Vorschrift. 0:35:34.290,0:35:40.820 Benjamin: Das heißt, was wir hier[br]eigentlich erleben, ist eine wahnsinnige 0:35:40.820,0:35:44.680 Generalisierung nur. Wir nehmen[br]Datenpunkte aus der Vergangenheit, die wir 0:35:44.680,0:35:50.330 schon kennen. Wir wenden sie an, wir[br]trainieren darauf und danach versuchen wir 0:35:50.330,0:35:54.560 einfach und hoffen, dass, wenn wir diese[br]Sachen, die wir, die wir haben, wenn wir 0:35:54.560,0:35:59.370 nur weit genug generalisieren, wenn wir[br]irgendwo versuchen auf Teufel komm raus 0:35:59.370,0:36:03.550 und das System muss immer was liefern.[br]Normalerweise liefern die Systeme immer 0:36:03.550,0:36:08.810 einfach ein Ergebnis, egal, ob sie einen[br]guten Grund dafür sehen oder nicht. Sie 0:36:08.810,0:36:12.550 versuchen einfach, ein Muster zu finden[br]und dann liefern sie ein Ergebnis. Und das 0:36:12.550,0:36:18.870 bedeutet, dass das, was immer landläufig[br]als die KI sagt etwas vorher oder denkt 0:36:18.870,0:36:22.580 sich etwas aus oder was weiß ich, im[br]Prinzip nur ein auswendig lernen und 0:36:22.580,0:36:25.740 generalisieren und das Ergebnis irgendwie[br]wieder raushauen ist. 0:36:25.740,0:36:30.140 Nadja: Bei gelernten Systemen reden wir[br]oft von Prediction oder Vorhersage. Was 0:36:30.140,0:36:32.510 wir aber eigentlich getan haben, ist nicht[br]über die Zukunft nachzudenken, sondern 0:36:32.510,0:36:35.880 ausschließlich über die Vergangenheit. Und[br]dann ist es die interessante Frage, ob 0:36:35.880,0:36:40.740 wirklich Dinge vorhersagen oder eigentlich[br]nur reproduzieren. 0:36:40.740,0:36:47.770 Benjamin: Das Problem ist aber auch, dass[br]die Menschen den Computern vertrauen. Das 0:36:47.770,0:36:50.510 trifft vermutlich jetzt nicht auf alle[br]Leute hier im Raum zu. Das ist sehr 0:36:50.510,0:36:55.770 angenehm, aber in der Gesellschaft ist das[br]enorm verbreitet inzwischen. KI ist 0:36:55.770,0:37:00.770 irgendwas Tolles, KI ist super, KI wird[br]uns retten. KI kann das, was wir nicht 0:37:00.770,0:37:07.860 können. Beispiele: Wir haben diese große[br]Forschungsinitiative, überall muss KI 0:37:07.860,0:37:12.100 gemacht werden. Wenn ich KI in meine[br]Anträge schreibe, kriege ich Geld. Wenn 0:37:12.100,0:37:16.730 ich auf meine Hautcreme draufschreiben,[br]dass sie mit KI optimiert wurde, kann ich 0:37:16.730,0:37:21.910 sie besser verkaufen. Und wenn ich will,[br]dass mein System und ich als Firma gut 0:37:21.910,0:37:26.180 dastehe, dann kann es sich sogar lohnen,[br]was geschieht, was Google aber auch viele 0:37:26.180,0:37:31.490 andere machen, kann es sich lohnen, Leute[br]einzustellen, die so tun, als wären sie 0:37:31.490,0:37:35.400 Computer, zum Beispiel, die irgendwo[br]anrufen, weil der Computer dazu noch nicht 0:37:35.400,0:37:39.600 in der Lage ist und dann die Restaurant[br]Reservierung oder was weiß ich 0:37:39.600,0:37:43.290 durchführen, nur damit man dann am Ende[br]rausschreiben kann, dass die eigenen KI- 0:37:43.290,0:37:50.050 Systeme ja so wahnsinnig toll sind. Und[br]weil es ja kein Mensch ist, sondern der 0:37:50.050,0:37:55.700 Computer, der ja bestimmt viel weiser sein[br]muss, kann man dadurch sich Vorteile 0:37:55.700,0:37:58.430 verschaffen.[br]Nadja: Ein ganz besonders beunruhigendes 0:37:58.430,0:38:00.280 Beispiel haben wir uns außerdem noch[br]mitgebracht. 0:38:00.280,0:40:03.540 Musik[br]Dialog der Maschine und dem Mann auf japanisch 0:40:03.540,0:40:07.870 Um die Frage direkt vorwegzunehmen, ja,[br]das gibt es wirklich. Und ich hoffe 0:40:07.870,0:40:10.510 ehrlich gesagt, ich muss gar nicht[br]erklären, warum das so unglaublich 0:40:10.510,0:40:14.421 kritisch ist. Aber ich frag einfach mal,[br]was passiert mit uns Menschen so rein 0:40:14.421,0:40:18.230 soziologisch, so rein psychologisch, wenn[br]wir mit Maschinen interagieren, als wären 0:40:18.230,0:40:21.750 sie Menschen, als hätten sie Gefühle, wenn[br]sie Muster imitieren, wie sie in der 0:40:21.750,0:40:25.370 Beziehung und zwischenmenschlicher[br]Kommunikation stattfinden. Was passiert da 0:40:25.370,0:40:28.970 mit uns? Worauf lassen wir uns ein? Wie[br]viel Bios, den wir nicht haben sollten, 0:40:28.970,0:40:35.511 akzeptieren wir? Um noch zu einem ganz[br]anderen Thema zu kommen. Ich hoffe, das 0:40:35.511,0:40:37.670 müssen wir hier nur kurz anschneiden, denn[br]ich habe keine Antwort auf die Frage, die 0:40:37.670,0:40:41.050 ich gerade gestellt habe. Daten. Ich[br]glaube, das ist ein Rahmen, in dem ich 0:40:41.050,0:40:44.560 wenig erklären muss, warum[br]Datensparsamkeit wichtig ist. Wir haben 0:40:44.560,0:40:48.580 aber mit Deep Learning ein fundamentales[br]Problem. Wir brauchen nämlich extrem viele 0:40:48.580,0:40:53.450 Daten. Und das beißt sich ganz, ganz stark[br]mit unseren gesellschaftlichen Interessen. 0:40:53.450,0:40:57.640 Das ist aber ein Thema, über das könnte[br]man mindestens einen eigenen Talk halten. 0:40:57.640,0:41:01.320 Außerdem Beispiele wie das: Wie viele[br]werden es auch schon gesehen haben, eine 0:41:01.320,0:41:05.040 KI, die sich gefühlte 15 Minuten im Netz[br]bewegt hat. Und plötzlich überaus 0:41:05.040,0:41:08.060 rassistisch und anderweitig inakzeptable[br]Äußerungen gebracht hat, weil sie nun mal 0:41:08.060,0:41:11.440 aus dem Internet gelernt hat. Und die[br]interessante Frage stellt sich an der 0:41:11.440,0:41:15.030 Stelle ganz krass, sollten wir wirklich[br]versuchen, mit maschinellen Systemen 0:41:15.030,0:41:18.790 Menschen nachzubilden? Oder ist das[br]vielleicht eine sehr schlechte Idee? 0:41:18.790,0:41:27.080 Benjamin: Ein weiterer Punkt, den wir uns,[br]dem wir uns stellen müssen, der für uns 0:41:27.080,0:41:31.310 alle relevant ist, denn wir arbeiten in[br]irgendeiner Form an Systemen, die 0:41:31.310,0:41:36.860 irgendwie was in der Welt bewegen sollen.[br]Wer ist für all das verantwortlich? Ganz 0:41:36.860,0:41:41.860 typisches Beispiel haben wir bei den[br]autonomen Fahrzeugen. Da wird es schon x 0:41:41.860,0:41:47.140 mal diskutiert, wer ist dafür[br]verantwortlich, wenn ein Unfall passiert? 0:41:47.140,0:41:51.220 Aber bei jedem weiteren System gilt das[br]auch. Es gibt so viele Stellen, die daran 0:41:51.220,0:41:54.850 beteiligt sind. Wir haben die Person, die[br]das Ganze programmieren. Die Personen, die 0:41:54.850,0:41:58.800 es in Auftrag gegeben haben. Die Firma,[br]die das Ganze kauft, vermarktet. 0:41:58.800,0:42:02.080 Vielleicht öffentliche Stellen, die[br]entsprechende Regularien dafür 0:42:02.080,0:42:05.520 veröffentlichen. Wir haben[br]Versicherungskonzerne. Wir haben 0:42:05.520,0:42:09.680 Privatpersonen, die ein autonomes Fahrzeug[br]oder irgendein anderes intelligentes 0:42:09.680,0:42:16.640 System besitzen. Wer ist schuld? Wer kann[br]belangt werden, wenn irgendetwas passiert? 0:42:16.640,0:42:20.510 Und welche Auswirkungen hat das? Denn, je[br]nachdem, wer dafür belangt werden kann, 0:42:20.510,0:42:25.230 ergeben sich völlig unterschiedliche[br]Entscheidungen von den beteiligten 0:42:25.230,0:42:30.040 Personen, wogegen sie ihre Systeme[br]absichern, wie sie ihre Systeme designen. 0:42:30.040,0:42:37.060 Und diesen Punkt, dazu gibt es keine[br]befriedigende Antwort. Eine Umfrage unter 0:42:37.060,0:42:44.640 den Amerikaner sagt, dass sie, die[br]Mehrheit das inakzeptabel findet, dass ein 0:42:44.640,0:42:48.920 Computersystem oder algorithmische Systeme[br]genutzt werden, um in bestimmten 0:42:48.920,0:42:55.160 Bereichen, zum Beispiel bei der[br]Einschätzung von Strafmaßen oder für den 0:42:55.160,0:42:58.460 Bewerbungsprozess von Menschen, dass der[br]Computer wesentliche Entscheidungen dafür 0:42:58.460,0:43:04.610 trifft. Blöd nur, all das wird heutzutage[br]schon gemacht, und zwar eben mit immer 0:43:04.610,0:43:10.110 stärker werdenden Ausmaß.[br]Nadja: Und als Drittes kommen wir jetzt zu 0:43:10.110,0:43:14.000 einem Punkt, der oft vernachlässigt wird,[br]wenn es um Deep Learning geht. Ja, das 0:43:14.000,0:43:17.120 werden die alle, die wir heute gesagt[br]haben, aber der ganz besonders. Und wir 0:43:17.120,0:43:20.580 glauben, dass der trotzdem relevant ist.[br]Nämlich gerade zu Zeiten, wo das Thema 0:43:20.580,0:43:24.380 Klimawandel wieder mehr in den Medien[br]kommt, wo sowohl die Gegner als auch die 0:43:24.380,0:43:27.570 Befürworter von irgendwelchen Maßnahmen[br]stärker werden, ist das ein Thema über das 0:43:27.570,0:43:30.420 wir auch nachdenken müssen, auch[br]wenn es auf den ersten Blick 0:43:30.420,0:43:34.380 nichts mit unserer Arbeit zu tun hat.[br]Benjamin: Wir haben natürlich, bekannt ist 0:43:34.380,0:43:37.590 es im Bereich, z. B. von den[br]Cryptocurrencies, dass die enormen 0:43:37.590,0:43:43.810 Stromverbrauch haben, zum Beispiel ein[br]Bitcoin Transaktion verbraucht ungefähr so 0:43:43.810,0:43:52.620 viel Strom wie 500.000 Visa Transaktionen,[br]eine einzige! Und das entspricht ungefähr 0:43:52.620,0:43:58.060 dem Stromverbrauch eines Kühlschranks für[br]8 Jahre für eine Transaktion. Aber 0:43:58.060,0:44:04.230 Bitcoins ist nicht der einzige Bereich, wo[br]wir Probleme kriegen, in der Hinsicht. Wir 0:44:04.230,0:44:11.690 haben auch das generell in allen Formen,[br]wo wir große Daten haben. Deep Learning 0:44:11.690,0:44:15.040 braucht große Datenmengen, Datenmengen[br]müssen wir speichern, verarbeiten, 0:44:15.040,0:44:20.340 transportieren und dafür haben wir[br]weltweit inzwischen eine relativ groß 0:44:20.340,0:44:25.280 steigende Anzahl an Rechenzentren, die[br]zwischen 200 und 500 Milliarden 0:44:25.280,0:44:28.270 Kilowattstunden pro Jahr gerade[br]verbrauchen. Ganz genau kann man das 0:44:28.270,0:44:33.230 natürlich nicht sagen, weil die Firmen[br]auch diese Daten als Geheimnis betrachten. 0:44:33.230,0:44:38.200 Wenn man alle Rechenzentren zusammen als[br]Land betrachten würde, hätten wir fünf 0:44:38.200,0:44:41.200 Länder auf der Erde, die mehr Strom[br]verbrauchen, dann kommen die 0:44:41.200,0:44:44.720 Rechenzentren, dann kommen alle anderen[br]Länder, und auch das wird weiterhin 0:44:44.720,0:44:55.821 steigen. Wir haben, wenn man jetzt noch[br]kleiner guckt auf das, was wir jetzt 0:44:55.821,0:45:00.160 beschrieben haben, den Trainingsprozess[br]von einzelnen Modellen, auch da schon 0:45:00.160,0:45:05.780 einen erschreckend hohen Stromverbrauch,[br]der auch dort leider nicht linear, sondern 0:45:05.780,0:45:12.720 sondern deutlich darüber ansteigt. Wenn[br]wir also ein einzelnes, einzelne Modelle 0:45:12.720,0:45:16.850 trainieren wollen, sehen wir, dass die[br]großen State of the Art Systeme, die dann 0:45:16.850,0:45:21.670 natürlich von Firmen wie Google und[br]Facebook AI und anderen 0:45:21.670,0:45:25.200 Forschungsinstitute, Einrichtungen von[br]großen, großen Firmen vorgeschlagen 0:45:25.200,0:45:34.250 werden, dass dort Strom verbraucht wird[br]für hunderttausende teilweise Millionen an 0:45:34.250,0:45:42.650 Euro. Dass dort auch inzwischen natürlich[br]zusätzlich noch GPUs, CPUs eingesetzt 0:45:42.650,0:45:47.510 werden, die schwer zu bekommen sind, die[br]teuer anzuschaffen sind, sodass wir 0:45:47.510,0:45:50.561 natürlich auch sowohl durch den[br]Stromverbrauch als auch durch die 0:45:50.561,0:45:56.250 Infrastruktur. Erstens haben wir diesen[br]Umwelteffekt. Zweitens, wenn wir den 0:45:56.250,0:46:01.270 Effekt, dass immer weniger Firmen, immer[br]weniger große Einrichtungen in der Lage 0:46:01.270,0:46:06.570 sind, Deep Learning auf dem State of the[br]Art durchzuführen. Der Rest wird 0:46:06.570,0:46:10.210 abgehängt. Das heißt auch da[br]gesellschaftliche Auswirkungen --- 0:46:10.210,0:46:14.950 problematisch, Umweltauswirkungen ---[br]problematisch und leider ein Trend, der 0:46:14.950,0:46:19.740 offensichtlich genau in die falsche[br]Richtung geht. Wenn man sich das nochmal 0:46:19.740,0:46:26.760 hier anguckt, was das auch für den[br]CO2-Ausstoß bedeutet, sehen wir, dass das 0:46:26.760,0:46:33.300 Training von einem einzigen Modell, wie es[br]dann veröffentlicht wird am Ende, von so 0:46:33.300,0:46:38.360 einem großen Modell ungefähr so viel CO2[br]ausstößt wie fünf Autos in ihrer ganzen 0:46:38.360,0:46:43.210 Lebensdauer, inklusive Produktion und[br]inklusive sämtlichen Sprit, der dann darin 0:46:43.210,0:46:47.600 verbrannt wird. Und solche Forschung[br]findet ständig weiterhin statt, weil man 0:46:47.600,0:46:51.320 ja weiter publizieren will, wie wir am[br]Anfang schon erzählt haben. Das heißt, 0:46:51.320,0:46:55.030 dauerhaft werden solche Modelle gerade auf[br]der Welt trainiert, um dann irgendwo in 0:46:55.030,0:46:58.090 irgendeinem kleinen Teilbereich eine neue[br]Publikationen machen zu können. 0:46:58.090,0:47:02.800 Nadja: Jetzt komme ich und bringe die[br]Frohbotschaft. Nein, es ist nicht alles 0:47:02.800,0:47:06.200 ganz so schlimm, wie es jetzt gerade[br]scheint, wenn wir die Nachteile auflisten. 0:47:06.200,0:47:09.070 Tatsächlich kann der ganze Bereich des[br]maschinellen Lernen auch Vorteile mit sich 0:47:09.070,0:47:11.880 bringen und hier in diesem Beispiel sogar[br]auch tatsächlich das Deep Learning. Es 0:47:11.880,0:47:16.700 geht darum, dass Google über Jahre hinweg[br]versucht hatte, mithilfe von maschinellen 0:47:16.700,0:47:22.700 Lernen die Betriebe ihrer Datenzentren zu[br]optimieren. Da eine Einsparung im 0:47:22.700,0:47:25.220 Stromverbrauch zu erreichen. Wir reden[br]hier von Reinforsment Learning für die, 0:47:25.220,0:47:29.760 denen es was sagt. Was die Kühlungsteuerung,[br]die Abschaltung von Servernet et cetera 0:47:29.760,0:47:32.920 beeinflussen konnte und damit der[br]Stromverbrauch um bis zu 40 Prozent 0:47:32.920,0:47:36.840 gesenkt hat. Das ist auf jeden Fall eine[br]gute Nachricht. Natürlich ist auch mir die 0:47:36.840,0:47:40.130 Ironie klar, dass wir hier den[br]Stromverbrauch von Datenzentren sprechen, 0:47:40.130,0:47:44.300 ohne das Feld auch gar nicht so sehr nötig[br]wären. Trotzdem Man kann diese 0:47:44.300,0:47:49.250 Wissenschaft, man kann diesen Bereich auch[br]durchaus für gute Sachen nutzen, die uns 0:47:49.250,0:47:54.160 allen was helfen kann. Das lässt sich[br]natürlich nicht auf alle großen Strom und 0:47:54.160,0:47:58.440 CO2 Produzenten übertragen, die wir in[br]unserer Industrie so haben. In der 0:47:58.440,0:48:01.560 Autoindustrie wird das schon sehr viel[br]schwieriger, wenn wir von Montagerozessen 0:48:01.560,0:48:04.720 reden, von Produktionsprozessen reden. Da[br]kann man nicht einfach wild durch die 0:48:04.720,0:48:07.820 Gegend tauschen, welcher Task denn[br]ausgeführt wird. Wenn die Server 0:48:07.820,0:48:11.850 vielleicht nicht ausgelastet sind oder sie[br]nicht direkt ausführen, damit der Server 0:48:11.850,0:48:16.300 noch mal abgeschaltet bleiben kann. Aber[br]ist das was, womit wir uns auf jeden Fall 0:48:16.300,0:48:22.000 beschäftigen sollten. Mit Strom und CO2[br]ist das Lied um die Umweltauswirkungen 0:48:22.000,0:48:25.540 noch nicht zu Ende. Es geht auch darum,[br]wie wir unsere Infrastruktur belasten, wie 0:48:25.540,0:48:30.040 wir Straßen, Städte, Gebäude und so weiter[br]beanspruchen für den Bau, für den Betrieb, 0:48:30.040,0:48:33.390 für den Transport. Für die Vernetzung von[br]den ganzen Systemen, die wir für diesen 0:48:33.390,0:48:36.420 Forschungszweig brauchen. Es geht darum,[br]was wir für Platz beanspruchen mit 0:48:36.420,0:48:41.240 Forschungszentren, mit Datenzentren, mit[br]Supercomputern und GPU Produktion. Es geht 0:48:41.240,0:48:45.040 darum, wie viel Arbeitskraft und wie viel[br]Zeitaufwand gebunden ist. Nur um ein neues 0:48:45.040,0:48:48.120 Netz zu forschen. Es geht darum, wie viel[br]Forschungsgelder darin investiert werden, 0:48:48.120,0:48:51.160 mit denen man noch andere Dinge tun[br]könnte. Es geht um endliche Ressourcen 0:48:51.160,0:48:55.330 unserer Erde wie Metalle wie die[br]sogenannten Seltenen Erden oder wie Erdöl, 0:48:55.330,0:48:59.990 die dafür gebraucht werden. Und es gibt[br]noch so viel mehr. Das war nur ein ganz 0:48:59.990,0:49:03.010 kleiner Einblick in das Thema, und es ist[br]ganz wichtig: Es geht nicht nur um den 0:49:03.010,0:49:07.290 Stromverbrauch. Die Awareness an der[br]Stelle ist noch viel zu niedrig, um 0:49:07.290,0:49:11.700 darüber quantitativ Aussagen treffen zu[br]können. Aber es ist auf jeden Fall ein 0:49:11.700,0:49:15.530 Faktor. So viel wissen wir. Wir kommen[br]damit auch schon zur Frage: Wie kann es 0:49:15.530,0:49:21.890 eigentlich weitergehen?[br]Benjamin: Wichtig ist, dass wir alle uns 0:49:21.890,0:49:26.010 bewusst sind, dass wir die Verantwortung[br]tragen, wie es in dem Bereich weitergeht. 0:49:26.010,0:49:30.010 Denn sowohl die Leute, die in diesem Land[br]arbeiten, aber auch in allen Bereichen, 0:49:30.010,0:49:35.580 die damit verbunden sind. Wir forschen.[br]Wir bauen Systeme. Wir sorgen dafür, dass 0:49:35.580,0:49:40.290 solche Systeme weiter entstehen, dass sie[br]wichtiger werden, dass sie, obwohl wir 0:49:40.290,0:49:43.240 wissen, dass zum Beispiel das alles der[br]Generalisierung, aus Vereinfachungen 0:49:43.240,0:49:47.760 besteht. Dass sie trotzdem für Dinge[br]eingesetzt werden. Wir sorgen dafür, dass 0:49:47.760,0:49:54.180 unsere Sensorik, die wir in Autos[br]verbauen, irgendwelche 25 Gigabyte pro 0:49:54.180,0:49:57.261 Stunde an Daten produzieren, die man dann[br]wieder auswerten, um daraus etwas machen 0:49:57.261,0:50:02.930 kann. Wir sorgen dafür, dass Systeme[br]optimiert werden. Wir sorgen dafür, dass 0:50:02.930,0:50:09.260 das gebaut werden für die Industrie, damit[br]das komische Hautpflegeprodukten 0:50:09.260,0:50:14.280 plötzlich KI optimiert ist. Das kann[br]man natürlich alles einfach so machen, 0:50:14.280,0:50:18.690 weil man in dem Bereich gut Geld verdienen[br]kann. Ist aber vermutlich keine gute Idee, 0:50:18.690,0:50:22.910 sondern man sollte sich wirklich[br]überlegen: Was sind die Konsequenzen von 0:50:22.910,0:50:27.490 dem Ganzen, und was müssten wir eigentlich[br]alle ändern, um dieses ganze Feld 0:50:27.490,0:50:33.980 weiterzutreiben? Denn, das ist das Schöne,[br]zumindest im Forschungssektor. Es ist 0:50:33.980,0:50:38.250 alles von der Community angetrieben. Es[br]ist immer eine Entscheidung von allen 0:50:38.250,0:50:44.010 Forscher in den ganzen Bereichen, ob sie[br]genauso weitermachen oder ob sie ihre 0:50:44.010,0:50:50.530 Arten schieben, ob sie anders agieren, ob[br]sie mehr und mehr auf solche Dinge achten 0:50:50.530,0:50:54.030 oder eben nicht.[br]Nadja: Grundsätzlich um weiterzumachen, 0:50:54.030,0:50:56.380 gerade um die gesellschaftlichen[br]Auswirkungen des Themas zu beeinflussen. 0:50:56.380,0:51:00.040 Was müssen wir anstreben? Wir müssen[br]Diskurs anstreben. Wir müssen mit der 0:51:00.040,0:51:03.160 gesamten Gesellschaft, mit einer riesigen[br]Breite an Menschen darüber reden. Was 0:51:03.160,0:51:05.770 wollen wir von diesen Systemen? Unter[br]welchen Umständen machen wir das System? 0:51:05.770,0:51:09.530 Was sind die Auflagen, die wir stellen,[br]was akzeptabel und was nicht? Das 0:51:09.530,0:51:12.350 funktioniert nicht, wenn diese[br]Entscheidungen getroffen werden von fünf 0:51:12.350,0:51:15.030 Leuten, die irgendwie ihre eigenen[br]Interessen vertreten müssen. Das ist ein 0:51:15.030,0:51:17.600 Diskurs, der auf jeden Fall in die[br]gesellschaftliche Breite gehen muss. Es 0:51:17.600,0:51:20.870 gibt einfach keine klare Antwort, und die[br]Antworten, die wir brauchen, die müssen 0:51:20.870,0:51:24.110 wir zusammen finden. Wir müssen aber auch[br]Bildung auf allen Ebenen vorantreiben. 0:51:24.110,0:51:28.080 Weil ich muss als Informatikerin auch die[br]ethischen Auswirkungen eines Handelns 0:51:28.080,0:51:33.020 bedenken. Ich muss auch dem Enduser sagen[br]können, was das bedeutet, wenn er etwas 0:51:33.020,0:51:36.590 einsetzt. Auch wenn er die technischen[br]Details nicht versteht, muss er in der 0:51:36.590,0:51:40.220 Lage sein einzuschätzen, ob der Einsatz an[br]der Stelle sinnvoll ist und gerade auch 0:51:40.220,0:51:43.290 die Menschen, die die Legislatur[br]vorantreiben. Diese Menschen sollte es auf 0:51:43.290,0:51:46.270 jeden Fall geben müssen, genug davon[br]verstehen und auch wirklich einschätzen 0:51:46.270,0:51:49.311 können, was sie da gerade erlauben oder[br]nicht erlauben, damit wir auch die 0:51:49.311,0:51:54.020 positiven Aspekte solcher Felder mitnehmen[br]können. Awareness ist ganz besonders 0:51:54.020,0:51:57.120 wichtig, damit wir diesen Diskurs führen[br]können. Damit wir diese Bildung 0:51:57.120,0:52:00.150 vorantreiben kann, müssen wir darüber[br]reden: Wie funktionieren unsere Daten? 0:52:00.150,0:52:03.010 Unter welchen Umständen verwenden wir sie?[br]Wo kommen die Modelle her? Wie 0:52:03.010,0:52:05.990 funktionieren Erklärbarkeit und[br]Reproduzierbarkeit? Aber auch wer trägt 0:52:05.990,0:52:08.990 die Verantwortung? Was sind die[br]Konsequenzen? Und wie führen wir diesen 0:52:08.990,0:52:13.780 Diskurs? Am Ende gilt: Wir müssen[br]umdenken, statt nur zu folgen. Es 0:52:13.780,0:52:17.060 funktioniert nicht, wenn wir einfach so[br]weitermachen wie bisher. Sondern wir 0:52:17.060,0:52:21.010 müssen in manchen Dingen einfach[br]grundlegend auch nochmal nachdenken. Viele 0:52:21.010,0:52:24.430 dieser Maßnahmen sind tatsächlich doppelt[br]hilfreich, begünstigen sich gegenseitig. 0:52:24.430,0:52:27.320 Wir stecken da nicht unbedingt in einem[br]Teufelskreis. Wenn wir systematisch 0:52:27.320,0:52:30.260 arbeiten, dann tun wir der[br]Reproduzierbarkeit gefallen. Aber auch 0:52:30.260,0:52:33.910 unseren Ressourcenverbrauch, weil wir viel[br]weniger nochmal machen müssen, wenn wir 0:52:33.910,0:52:36.940 die Alternativen zu Deep Learning auch[br]nutzen, tun wir der Erklärbarkeit 0:52:36.940,0:52:39.820 Gefallen, aber auch der Datensparsamkeit.[br]Wahrscheinlich, wenn wir den Publications 0:52:39.820,0:52:44.050 Druck senken und damit die Qualität in die[br]Höhe schreiben. Dann fördern wir den 0:52:44.050,0:52:46.620 wissenschaftlichen Anspruch, und wir[br]helfen unserem Ressourcenverbrauch. Aber 0:52:46.620,0:52:50.120 insgesamt ist unsere große Herausforderung[br]momentan in der Gesellschaft verbreitete 0:52:50.120,0:52:53.150 Unwissenheit, und das nicht richtig[br]reflektiert wird, was das für Auswirkungen 0:52:53.150,0:52:57.500 hat, was wir machen und in welchen Skalen[br]bewegen. Damit sagen wir fürs Erste auch 0:52:57.500,0:53:01.240 schon Danke, schön, dass Sie hier waren.[br]Wir haben uns wirklich gefreut gesagt. So 0:53:01.240,0:53:04.240 dürfen wir hoffen. Wir geben ein paar[br]Denkanstöße mit. Wir können dieses Thema 0:53:04.240,0:53:07.070 nur sehr, sehr oberflächlich einsteigen in[br]50 Minuten. Wir sind jetzt schon relativ 0:53:07.070,0:53:10.061 weit in der Zeit. Trotzdem haben wir noch[br]ein paar Minuten für Fragen, aber auch 0:53:10.061,0:53:13.270 über den Vortrag hinaus. Sind wir da froh,[br]wenn Leute sich informieren, 0:53:13.270,0:53:18.510 recherchieren, selbst kritisieren und[br]reflektieren oder auf uns zukommen. 0:53:18.510,0:53:19.190 Dankeschön. 0:53:19.190,0:53:25.010 Applaus 0:53:25.010,0:53:28.830 Herald: Okay, alles klar. Wir haben noch[br]ein paar Minuten Zeit für Fragen. 0:53:28.830,0:53:33.210 Damit wir auch möglichst viele und zügig[br]durchkommen. Bewegt euch doch bitte direkt 0:53:33.210,0:53:37.520 zu den Mikrofonen. Und wir fangen direkt[br]hier mit Mikrofon 4 and. 0:53:37.520,0:53:46.320 Mik 4: Ich versuche, mich kurz zu halten.[br]KI für Autos ist ziemlich faszinierend, 0:53:46.320,0:53:51.200 die unterscheidet zuverlässig zwischen[br]einem Baum und einem Verkehrsschild. Ich 0:53:51.200,0:53:55.660 bin immer wieder enttäuscht, wenn ich KI[br]sehe für Suchmaschinenoptimierung, was ich 0:53:55.660,0:54:01.760 da angeboten bekomme. Ich glaube, das[br]Problem ist die Datengrundlage. Ein Baum, 0:54:01.760,0:54:05.590 da gibts keine Diskussion. Das ist ein[br]Baum. Was ist die schönste Website ist 0:54:05.590,0:54:12.620 oder das nächstbeste Video? Das ist eine[br]Geschmacksfrage. Worauf ich hinaus möchte: 0:54:12.620,0:54:18.620 wäre es nicht sinnvoll oder dringend[br]notwendig, darüber nachzudenken, wie die 0:54:18.620,0:54:24.500 Trainingsdaten qualifiziert sind, ob man[br]die qualitativ einsortieren sollte? 0:54:24.500,0:54:30.280 Nadja: Ich stimme soweit absolut zu,[br]Trainingstagendiskussion steht an. Müssen 0:54:30.280,0:54:34.450 wir führen? Qualität ist extrem wichtig.[br]Das Problem geht aber noch darüber hinaus. 0:54:34.450,0:54:38.660 Zum einen die Frage mit dem Auto und dem[br]Fußgänger, wie uns der Überkräsch 2018 0:54:38.660,0:54:41.740 gezeigt hat, gar nicht so trivial.[br]Festgestellt haben die Annahme, dass 0:54:41.740,0:54:45.150 Fußgänger nur auf dem Fußgängerüberweg zu[br]finden ist, das vielleicht gar nicht so 0:54:45.150,0:54:49.600 realistisch. Trivial ist es also nicht.[br]Natürlich sind Suchmaschinen auch eine 0:54:49.600,0:54:53.520 subjektive Entscheidung. Weil was ich[br]suche, weiß am Ende nur ich. Jemand mit 0:54:53.520,0:54:56.370 der gleichen Suchanfrage sucht vielleicht[br]etwas anderes. Natürlich ist das Internet 0:54:56.370,0:55:00.200 einfach eine extrem riesige Datenbasis mit[br]sehr unsauberen Daten. Das heißt, dass es 0:55:00.200,0:55:02.640 eine völlig andere Herausforderung als[br]Bildklassifikation von autonomen 0:55:02.640,0:55:06.470 Fahrzeugen. Grundsätzlich Trainingstagen,[br]Diskussionen, aber auch über das Monopol 0:55:06.470,0:55:09.641 von solchen Unternehmen, wie Google.[br]Gerade was Suchmaschinen angeht, müssen 0:55:09.641,0:55:14.440 wir definitiv reden. Herald: Alles was,[br]dann machen wir direkt weiter mit einer 0:55:14.440,0:55:18.640 Frage vom Signal-Engel aus dem Internet.[br]Signal-Engel: Das Internet fragt: Sollen 0:55:18.640,0:55:22.650 wir das mit dem Deep Learning dann[br]eigentlich lieber lassen? Oder seht ihr 0:55:22.650,0:55:26.820 auch sinnvolle Anwendungen, zum Beispiel[br]um irgendeinen hohen Datenaufwand für 0:55:26.820,0:55:31.030 freigiebige Nutzer irgendwie zu reduzieren[br]zum Beispiel. 0:55:31.030,0:55:35.080 Benjamin: Es sein zu lassen, ist[br]sicherlich nicht der richtige Ansatz. Das 0:55:35.080,0:55:39.340 zeigt sich ja, dass Deep Learming für[br]bestimmte Dinge sehr wertvoll ist. Wir 0:55:39.340,0:55:43.430 haben jetzt Beispiele gezeigt, wo es gut[br]funktioniert, schlechter funktioniert. 0:55:43.430,0:55:48.340 Gerade bei komplexen Dingen haben wir[br]wenig Ansätze, die anders gut 0:55:48.340,0:55:52.180 funktionieren. Die Verarbeitung[br]menschlicher Sprache zum Beispiel hat 0:55:52.180,0:55:55.710 einen Riesenschritt nach vorne gemacht[br]durch die Deep Learning, weil menschliche 0:55:55.710,0:55:59.250 Sprache so unglaublich komplex ist, dass[br]ich mit allen bisherigen Ansatz, bei denen 0:55:59.250,0:56:02.470 ich Silben zähle und Buchstaben vergleiche[br]oder so etwas nicht so wirklich 0:56:02.470,0:56:07.291 weiterkomme. Da brauche ich ganz viel[br]Wissen rein. Das heißt, man muss, aber man 0:56:07.291,0:56:12.000 muss sich eben überlegen. Ist es für[br]diesen Zweck der richtige Ansatz? Also, 0:56:12.000,0:56:17.180 ich will das jetzt nicht pauschal[br]beantworten. Das muss man sich gründlich 0:56:17.180,0:56:21.580 überlegen. Das sollte sicher Message sein.[br]Nadja: Wir stellen im Prinzip nicht die 0:56:21.580,0:56:24.150 Frage: Sollten wir die Planung verwenden,[br]sondern Wofür sollten wir es verwenden? 0:56:24.150,0:56:29.150 Und was müssen wir vorher bedenken?[br]Herald: Ich versuche, es mit den Fragen 0:56:29.150,0:56:33.040 hier im Raum so halbwegs chronologisch zu[br]machen. Aber mit Mikro 1 weiter. 0:56:33.040,0:56:38.020 Mik 1: Eine Frage zur Reproduzierbarkeit.[br]Ich saß gerade in einem Lightening Talk, 0:56:38.020,0:56:43.750 Da hatte jemand genau das Problem, das[br]nicht reproduzieren konnte. Eine seiner 0:56:43.750,0:56:47.710 Hauptforderungen, um das zu beheben, war,[br]das alles, was man braucht, zum 0:56:47.710,0:56:51.570 Reproduzieren zur Verfügung gestellt wird[br]und dass das auch von Journals enforced 0:56:51.570,0:56:56.920 wird. Über Reviews oder über irgendwelche[br]andere Sachen. Sieht Ihr, dass es 0:56:56.920,0:57:00.840 irgendwelche Bestrebungen in diese[br]Richtung gibt. Oder es ist ein zu großer 0:57:00.840,0:57:05.280 Hype, als dass man da irgendwie eingreifen[br]könnte sinnvoll. 0:57:05.280,0:57:07.680 Benjamin: Es gibt, wie[br]gesagt, 0:57:07.680,0:57:14.450 diese Sigel bei vielen Konferenzen,[br]sicherlich auch bei Journals. Je nach Feld 0:57:14.450,0:57:17.260 in dem Bereich, hier wird gar nicht so[br]viel in Journals publiziert, weil man 0:57:17.260,0:57:21.420 Konferenzen leichter hinkriegt. Und alles[br]geht schneller, Journals dauert irgendwie 0:57:21.420,0:57:25.280 immer zu lang. Es wäre[br]wünschenswert, dass da mehr passiert. 0:57:25.280,0:57:29.770 Dafür müssen sich aber quasi[br]diese Ältestenrates, die sich 0:57:29.770,0:57:33.140 zusammensetzen und diese Konferenzen[br]planen, organisieren, dafür entscheiden, 0:57:33.140,0:57:38.030 dass für sie das auf der Liste auch so[br]weit oben ist, dass sie das erzwingen. 0:57:38.030,0:57:41.440 Bisher ist es alles optional.[br]Wünschenswert wäre es definitiv. 0:57:41.440,0:57:44.400 Nadja: Sicherlich reden wir doch in[br]irgendeiner Form über Regularien. Und 0:57:44.400,0:57:46.620 dabei müssen wir dann immer noch[br]unterscheiden zwischen öffentlich 0:57:46.620,0:57:50.290 geförderten Forschungseinrichtungen und[br]privater Forschung. Das ist nämlich sehr 0:57:50.290,0:57:54.930 unterschiedliche Herausforderungen.[br]Herald: Okay, dann gehen wir gerade mal 0:57:54.930,0:58:01.370 kurz zum Mikro Nr. 7 da ganz am Rand.[br]Mik 7: Hallo, danke für den Vortrag. 0:58:01.370,0:58:05.820 Haltet ihr AGI für möglich? Und wann[br]könnte es soweit sein? 0:58:05.820,0:58:09.240 Nadja: AGI Omnipotenz, Intelligenz oder[br]... 0:58:09.240,0:58:14.030 Mik 7: Artifical General Intelligence.[br]Nadja: Momentaner Forschungsstand "Hell 0:58:14.030,0:58:18.220 know". Das war eine relativ[br]unprofessionelle Antwort. Aber momentan 0:58:18.220,0:58:20.531 haben wir hauptsächlich sehr[br]spezialisierte Expertensysteme, die genau 0:58:20.531,0:58:25.460 ein detailreichen Task machen kann. Selbst[br]bei Sprachassistenzsystemen, die irgendwie 0:58:25.460,0:58:29.530 ein Paar Tasks, die noch immer eine sehr[br]eingeschränkte Menge machen, haben in 0:58:29.530,0:58:32.890 aktuellen Forschungsstand zwar große[br]Fortschritte, aber man kann sie ja sehr 0:58:32.890,0:58:36.800 einfach die Schwächen ausnutzen. Es gibt[br]eine total spannende Professorin in USA, 0:58:36.800,0:58:39.890 die sagt, gibt mir irgendeinen[br]Sprachverarbeitungsystem, in drei Fragen 0:58:39.890,0:58:43.460 mache ich spätestens kaputt, und sie hat[br]es bisher immer geschafft. Wir haben 0:58:43.460,0:58:47.470 momentan mit dem aktuellen Stand der[br]Technik ziemlich krasse Limitationen in 0:58:47.470,0:58:51.980 den nächsten Jahren. Ich persönlich nicht[br]kommen. Grundsätzlich ist die künstliche 0:58:51.980,0:58:55.480 Intelligenz aber auf allen Ebenen etwas,[br]das sie im Auge behalten sollen. Also ich 0:58:55.480,0:58:57.770 würde auch wiederum nicht behaupten, dass[br]davon keinerlei Gefahr ausgeht. 0:58:57.770,0:58:59.210 Benjamin: Es ist aber[br]auch nicht der 0:58:59.210,0:59:01.990 zentrale Punkt zur Zeit. [br]Das meiste, was, woran die Leute 0:59:01.990,0:59:05.680 forschen, sind spezialisierte Systeme und[br]vielleicht noch zusätzliche Systeme, die 0:59:05.680,0:59:09.250 vorne dran gestellt werden, die dann[br]entscheiden, an welches Teilsystem das 0:59:09.250,0:59:14.190 Ganze weitergereicht wird. Aber daran zu[br]forschen, ein weltverstehendes System, was 0:59:14.190,0:59:18.160 irgendwie auch noch beliebige Formate von[br]Antworten geben kann, so sowas zu bauen, 0:59:18.160,0:59:21.890 das gibt es sicherlich die Forschung. Aber[br]es ist nicht das, was irgendwie auch in 0:59:21.890,0:59:25.770 den Publikationen Platz findet, weil man[br]dort überhaupt nicht soweit wäre und das 0:59:25.770,0:59:29.240 andere einfach viel einfacher ist und man[br]da vielleicht was veröffentlichen kann. 0:59:29.240,0:59:31.850 Wen das Fachliche interessiert, wäre das ein [br]schönes Einstiegspunt in das ein semantische 0:59:31.850,0:59:34.820 Modellierung. Weil wir bei vielen[br]Künstliche Intelligenzen darüber sprechen, 0:59:34.820,0:59:37.720 ist das Allgemeinwissen,[br]Hintergrundwissen, diese ganzen Sachen 0:59:37.720,0:59:40.780 fehlen und die Darstellung dafür auch. Das[br]ist eine der großen Herausforderungen, 0:59:40.780,0:59:44.320 so als Stichwort.[br]Herald: Okay. Nehmen wir doch eine Frage 0:59:44.320,0:59:47.640 aus dem Internet.[br]Signal-Engel: Ich sage erst mal Liebe 0:59:47.640,0:59:53.740 Grüße aus D. 120, das wisst ihr jetzt[br]besser als ich. Nadja lacht Die Frage 0:59:53.740,0:59:58.370 ist Ist die Reproduzierbarkeit nur oder[br]gerade im Deep Learning ein Problem, oder 0:59:58.370,1:00:01.550 betrifft das nicht sogar große Teile der[br]machienelearning Forschung? 1:00:01.550,1:00:03.450 Nadja: Definitiv große Teile[br]der machiene learning 1:00:03.450,1:00:05.430 Forschung. Ehrlich gesagt auch[br]darüber hinaus. 1:00:05.430,1:00:09.080 Reproduzierbarkeit ist bei[br]fast allen wissenschaftlichen 1:00:09.080,1:00:12.270 Publikationen ein Faktor, es gibt nur die[br]Sachen, die dafür anfälliger und weniger 1:00:12.270,1:00:15.270 anfällig sind. Gerade wenn man über[br]digitale Themen reden. Aber an sich 1:00:15.270,1:00:17.961 Reproduzierbarkeit ist immer in der[br]Forschung gewünscht und leider nicht weit 1:00:17.961,1:00:20.870 genug verbreitet. Also defintiv die[br]gesamte Informatik generell. 1:00:20.870,1:00:28.030 Benjamin: Generell vieles, was wir hier[br]gesagt haben, trifft auf machiene learning 1:00:28.030,1:00:31.571 im Allgemeinen zu. Aber das Deep Learning,[br]gerade durch diese riesigen Datenmengen 1:00:31.571,1:00:35.580 und so weiter. Da treten die Effekte[br]verstärken besonders auf. Deswegen haben 1:00:35.580,1:00:38.640 wir uns hier darauf konzentriert. Aber man[br]kann es auch beliebig... 1:00:38.640,1:00:41.770 Nadja: Und gerade weil es ein Passwort[br]ist, macht es auch nochmal 1:00:41.770,1:00:45.750 anfälliger dafür .[br]Herald: Ok, dann Mikrophon Nr. 8. 1:00:45.750,1:00:51.170 Mik 8: Daran anschließend. Ich hab[br]irgendwie das Gefühl, dass es ein großer 1:00:51.170,1:00:56.480 Teil auch Publicationsbios ist, wo so[br]lange gespielt wird an den Daten, bis 1:00:56.480,1:01:02.781 irgendwie ein Ergebnis raus kommt. Und ich[br]hab, es ist so einen Trend in der Psychologie, wo 1:01:02.781,1:01:06.080 die das Problem ganz massiv hatten. Und[br]die haben das dadurch gelöst, dass die 1:01:06.080,1:01:10.510 sagen, Hey, ich muss die Studien bei[br]manchen Journals vorregistrieren, so: Dass 1:01:10.510,1:01:14.520 sind meine. Das möchte ich machen. Und[br]dann kommt am Ende vielleicht ein 1:01:14.520,1:01:19.560 negativer Ergebnis raus. Gibt es da[br]Bemühungen, machiene learning, sodass man 1:01:19.560,1:01:24.731 sagt: Ich publiziere den Korpus vorher,[br]den ich auf dem ich lernen will, und wenn 1:01:24.731,1:01:28.020 dann nichts funktioniert, dann ist das[br]halt so. 1:01:28.020,1:01:29.490 Nadja: Ich würde [br]sagen, es ist relativ schwer 1:01:29.490,1:01:32.510 zu beantworten für den Bereich,[br]weil es vielleicht nicht ganz so 1:01:32.510,1:01:36.750 funktioniert. Ein Datenkorpus zu[br]publizieren an sich. Es gibt zum Daten 1:01:36.750,1:01:40.801 Konferenzen, die sich einfach auf sowas[br]konzentrieren. Aber auf einem Korpus kann 1:01:40.801,1:01:46.460 ich sehr viele Dinge tun, und dadurch[br]hilft mir das noch nicht unbedingt. Ich 1:01:46.460,1:01:50.900 glaube, dass da die Fragestellung einfach[br]komplexer ist. Ich kenne keine konkreten 1:01:50.900,1:01:53.450 Bemühungen, die jetzt in eine Richtung[br]gehen. Ich fände es wünschenswert... 1:01:53.450,1:01:58.770 Benjamin: Es wäre definitiv wünschenswert.[br]Aber es wird in der Form kaum gemacht. Es 1:01:58.770,1:02:03.200 sind eben keine. Ich bin bisher fast[br]nirgendwo. Oder bei den großen 1:02:03.200,1:02:08.070 Konferenzen bin ich niemals gezwungen,[br]vorher zu sagen, was ich glaube, wie es 1:02:08.070,1:02:13.141 ausgeht, sondern ich liefere erst wenn ich[br]mein Ergebnis vorstelle, sage ich, was da 1:02:13.141,1:02:17.510 rauskommt und welche Fehlschläge ich hatte[br]und ob ich überhaupt verklausuliert ins 1:02:17.510,1:02:20.540 Paper reinschreiben oder ob es komplett[br]sein lasse. Da zwingt mich niemand zu. 1:02:20.540,1:02:24.200 Nadja: Es gibt ein paar Bestrebungen, die[br]Publikation von Fehlschlägen oder 1:02:24.200,1:02:28.231 Messergebnissen zu machen. Aber auch das[br]wird immer noch von so vielen Leuten 1:02:28.231,1:02:31.510 belächelt, so als Unterhaltungsmedium mehr[br]als ernst zu nehmende Wissenschaft. Das 1:02:31.510,1:02:34.110 glaube ich auch ein Problem, weil [br]dadurch die gleichen 1:02:34.110,1:02:36.190 Fehler z.B. im machiene learning, [br]gerade wo wir nicht 1:02:36.190,1:02:38.440 systematisch arbeiten,[br]sondern auch ein bisschen nach 1:02:38.440,1:02:42.190 Bauchgefühl gehen müssen, wiederholt[br]werden, was eigentlich unmöglich ist. 1:02:42.190,1:02:46.050 Dieser typische Satz, das weiß man doch,[br]dass der Ansatz da nicht funktioniert. 1:02:46.050,1:02:48.010 Woher soll man das wissen, wenn [br]man noch studiert? 1:02:48.010,1:02:54.240 Herald: Okay, wir haben noch Zeit für eine[br]kurze Frage und gehen zum Mikrofon 5. 1:02:54.240,1:03:01.570 Mik 5: Ich will ein paar Details zu dieser[br]Beschreibung von Black Box Wissen. Ich 1:03:01.570,1:03:08.560 weiß, dass man durch featuremaps das[br]Netzwerk untersuchen kann, und wollte 1:03:08.560,1:03:14.370 wissen, was hier eine Blackbox, weil es[br]ist nicht so Black entscheidend. 1:03:14.370,1:03:18.390 Nadja: Es kommt drauf an wie die Systeme[br]gebaut sind. Es gibt zum Beispiel einen 1:03:18.390,1:03:23.620 Ansatz von Explainable Neural Netz (ExNN),[br]durchaus Valides Konzepts, und es wird 1:03:23.620,1:03:28.920 auch eingesetzt. Es gibt aber auch[br]Architekturen, die per se erst einmal 1:03:28.920,1:03:33.540 völlig unlesbar sind, und die Ansätze, die[br]darauf existierende Erklärbarkeit 1:03:33.540,1:03:37.350 reinzubringen, sind noch sehr beschränkt.[br]Es gibt sie. Sie tun auch sinnvolle Dinge 1:03:37.350,1:03:41.220 im Bereich, aber zum Beispiel beschränken[br]sie sich oft nur auf den Bereich des 1:03:41.220,1:03:44.650 eigentlichen Modells, was trainiert wurde.[br]Die Pipeline der Maschinenlearning ist aber 1:03:44.650,1:03:49.090 viel länger. Die beginnt ja schon bei der[br]Datenerhebung, bei der Auswahl, bei der 1:03:49.090,1:03:52.080 Verarbeitung. Bei der Auswahl der[br]Features, aber auch beim PostProcessing, 1:03:52.080,1:03:56.200 bei Evaluationsmetriken und so weiter. [br]Das sind alles irgendwo Stellschrauben für 1:03:56.200,1:04:00.420 Erklärbarkeit. Wir haben da auf jeden Fall[br]noch einen weiten Weg vor uns. Aber klar, 1:04:00.420,1:04:03.200 es gibt Bestrebungen in die Richtung, die[br]auch durchaus funktionieren 1:04:03.200,1:04:05.660 für das, wofür Sie gedacht sind.[br]Herald: Okay, dann sind wir am Ende der 1:04:05.660,1:04:11.200 Zeit angekommen. Vielen Dank nochmal Nadja[br]und Benjamin. 1:04:11.200,1:04:15.556 Applaus 1:04:15.556,1:04:34.640 36c3 Abspannmusik 1:04:34.640,1:04:38.785 Untertitel erstellt von c3subtitles.de[br]im Jahr 2020. Mach mit und hilf uns!