< Return to Video

36C3 - Der Deep Learning Hype

  • 0:00 - 0:19
    36C3 Vorspannmusik
  • 0:19 - 0:25
    Herald: Ich freue mich ganz besonders,
    jetzt den nächsten Vortrag ankündigen zu
  • 0:25 - 0:30
    können, der zwei Themen vereint, die ich
    beide interessant finde. Zwar geht es zum
  • 0:30 - 0:34
    einen um Machine Learning, im Speziellen
    Deep Learning, aber auch gleichzeitig um
  • 0:34 - 0:40
    Nachhaltigkeit. Wie das Ganze verbunden
    werden kann und ob vielleicht der Deep
  • 0:40 - 0:45
    Learning Hype irgendwie doch zu groß ist,
    erklären uns Nadja Geisler und Benjamin
  • 0:45 - 0:49
    Hättasch, die an der TU Darmstadt arbeiten
    und forschen oder irgendwo zwischendrin
  • 0:49 - 0:55
    sind. Und deswegen will ich jetzt gar
    nicht weiter groß reden und freue mich auf
  • 0:55 - 0:58
    den Talk. Herzlich willkommen, Nadja und
    Benjamin!
  • 0:58 - 1:04
    Applaus
  • 1:04 - 1:07
    Nadja Geisler: Herzlichen Dank! Hallo
    erstmal und schön, dass wir hier sein
  • 1:07 - 1:11
    können, schön das ihr alle hier seid. Wir
    freuen uns wirklich wahnsinnig. Es ist für
  • 1:11 - 1:14
    uns beide auch der erste Kongress, und das
    ist etwas ganz Besonderes dann auch gleich
  • 1:14 - 1:18
    hier oben zu stehen. Ich bin Nadja und wie
    er schon gesagt hat, bin ich mit dem
  • 1:18 - 1:20
    Master-Studium an der TU Darmstadt fertig
    und werde wahrscheinlich demnächst dort
  • 1:20 - 1:25
    anfangen zu promovieren.
    Benjamin Hättasch: Ich mache das schon
  • 1:25 - 1:29
    seit zwei Jahren und habe festgestellt:
    Ich will mich nicht nur damit
  • 1:29 - 1:33
    beschäftigen, irgendwie toll Deep Learning
    anzuwenden, sondern ein bisschen drüber
  • 1:33 - 1:36
    nachzudenken, was das alles so bedeutet.
    Und weil wir da einiges herausgefunden
  • 1:36 - 1:39
    haben, sind wir heute hier, um euch das
    auch zu erzählen.
  • 1:39 - 1:43
    Nadja: Unser Talk ist so zustande
    gekommen, dass wir das 36C3 Motto gesehen
  • 1:43 - 1:48
    haben und uns dachten: Nachhaltigkeit
    vereint doch eigentlich mehrere Aspekte,
  • 1:48 - 1:50
    die wir schon immer spannend fanden, was
    das Thema Deep Learning und maschinelles
  • 1:50 - 1:54
    Lernen angeht. Aspekte, die sich unter dem
    Stichwort zusammenfassen lassen, obwohl
  • 1:54 - 1:57
    sie an sich sehr unterschiedlich sind und
    mit dem wir uns in verschiedene Art schon
  • 1:57 - 2:01
    beschäftigt hatten. Zu den Aspekten wollen
    wir euch heute was erzählen, weil gerade
  • 2:01 - 2:04
    das Thema Nachhaltigkeit momentan
    besonders aktuell, besonders wichtig und
  • 2:04 - 2:10
    besonders relevant für unsere Zukunft ist.
    Bevor wir aber auf die drei verschiedenen
  • 2:10 - 2:12
    Ebenen von Nachhaltigkeit, über die wir
    reden wollen, eingehen, das ist die
  • 2:12 - 2:16
    wissenschaftliche Ebene, die
    gesellschaftliche Ebene und die Umwelt-
  • 2:16 - 2:20
    Ebene, müssen wir zuerst klären: Wovon
    reden wir, wenn wir Deep Learning sagen?
  • 2:20 - 2:24
    Was sind die absoluten Basics für das, was
    wir die nächsten 30, 45 Minuten reden
  • 2:24 - 2:28
    werden? Was müsst ihr wissen, damit wir
    euch gut mitnehmen können? Und das wollen
  • 2:28 - 2:31
    wir jetzt machen. Das beinhaltet unter
    anderem: was meinen Sie damit, wenn wir
  • 2:31 - 2:34
    Deep Learning sagen? Wie funktioniert das
    auf einer intuitiven Ebene, nicht so sehr
  • 2:34 - 2:38
    auf einer detailreichen technischen Ebene?
    Und wozu wird das aktuell jetzt schon
  • 2:38 - 2:45
    angewendet? Und wenn Deep Learning sagen,
    dann vor allem dieses Konstrukt, was sich
  • 2:45 - 2:50
    dann neuronales Netz nennt, Artificial
    Neural Network auf Englisch. Das sind so
  • 2:50 - 2:54
    Machine Learning Konstrukte, die es schon
    sehr lange gibt, die dann zwischendurch
  • 2:54 - 2:56
    mal eine starke Flaute in der Beliebtheit
    haben, weil sie eben doch nicht die
  • 2:56 - 3:00
    Ergebnisse gebracht haben, die man sich
    erhofft hatte. Inzwischen sind sie wieder
  • 3:00 - 3:05
    extrem beliebt, um alle möglichen
    Probleme, Aufgaben im maschinellen Lernen
  • 3:05 - 3:10
    anzugehen. Dabei bezeichnet ein neuronales
    Netz im Wesentlichen eine Verknüpfung von
  • 3:10 - 3:14
    Knoten. Diese Knoten können je nach
    Architektur verschieden miteinander
  • 3:14 - 3:16
    vernetzt und durch verschiedene
    mathematische Funktionen verbunden sein.
  • 3:16 - 3:21
    Jeder Knoten wiederum repräsentiert
    eigentlich nur eine nichtlineare
  • 3:21 - 3:26
    Berechnungsfunktion. So weit, so logisch.
    Wir berechnen also sehr, sehr viel. Und
  • 3:26 - 3:29
    wenn diese Gewichte zwischen den
    Berechnungen erst einmal fertig bestimmt
  • 3:29 - 3:32
    sind, sprich wenn das neuronale Netz
    trainiert ist, dann lässt sich für jede
  • 3:32 - 3:37
    numerische Eingabe, die man im Netz gibt,
    auch eine entsprechende Ausgabe bestimmen.
  • 3:37 - 3:41
    Diese Ausgabe macht dann Aussagen über
    irgendwelche Größen, über irgendwelche
  • 3:41 - 3:44
    Klassifizierungen oder irgendwelche
    Zuordnungen. Die wichtigste Voraussetzung
  • 3:44 - 3:48
    für viele, wenn auch nicht alle Arten von
    neuronalen Netzen, sind entsprechende
  • 3:48 - 3:52
    Trainingsdaten und die auch noch in großer
    Menge. Ob diese Trainingsdaten gelabelt
  • 3:52 - 3:55
    sein müssen, also so etwas wie schon eine
    Bezeichnung der eigentlichen Zielgröße
  • 3:55 - 3:59
    haben müssen vorher oder nicht, das kann
    unterschiedlich sein, ist aber an der
  • 3:59 - 4:02
    Stelle auch gar nicht so relevant. Was wir
    brauchen, sind wahrscheinlich sehr, sehr
  • 4:02 - 4:06
    viele Daten, wenn wir mit neuronalen
    Netzwerken arbeiten wollen. Anhand dieser
  • 4:06 - 4:10
    Daten, die möglichst vielfältig, möglichst
    repräsentativ sein sollten für die spätere
  • 4:10 - 4:15
    Wirklichkeit oder das, was wir dann damit
    bearbeiten und einfangen wollen, daran
  • 4:15 - 4:19
    wird das Modell gelernt. Um das Modell
    später einzusetzen, das sieht man hier
  • 4:19 - 4:22
    ganz gut, wenn man einmal von links nach
    rechts schaut, braucht man zunächst
  • 4:22 - 4:25
    Inputdaten. Die müssen in einem
    numerischen Format sein. Wie man da
  • 4:25 - 4:28
    hinkommt? Das sind sehr viele verschiedene
    Methoden, aber an dieser Stelle auch gar
  • 4:28 - 4:31
    nicht so weit relevant. Diese Inputdaten
    gehen dann zu diesen Knoten, zu den
  • 4:31 - 4:36
    Neuronen, und jedes Neuron repräsentiert
    irgendwo an bestimmte eine bestimmte
  • 4:36 - 4:39
    Eigenschaft, ein bestimmtes Feature. Bei
    einer Bilderkennung könnte das eine Kante
  • 4:39 - 4:42
    sein oder eine Ecke oder ein
    Helligkeitsunterschied, ganz verschiedene
  • 4:42 - 4:47
    Dinge. Je weiter wir in das neuronalen
    Netz reingehen, je tiefer die Ebenen
  • 4:47 - 4:50
    werden, desto höher-levelig sind die
    Eigenschaften, die wir repräsentieren. Das
  • 4:50 - 4:53
    Problem bei der ganzen Sache ist
    normalerweise, dass wir gar nicht so genau
  • 4:53 - 4:57
    wissen, was dieses Neuron repräsentiert.
    Bei einem Algorithmus, der Bilder
  • 4:57 - 5:00
    klassifiziert, der zum Beispiel Hunde und
    Wölfe voneinander entscheiden kann, können
  • 5:00 - 5:03
    wir uns nicht ein Neuron anschauen und
    können sagen: Aha! Das da schaut, ob da
  • 5:03 - 5:07
    eine Kante ist, die einen Schwanz
    repräsentieren könnte. Sondern es sind für
  • 5:07 - 5:10
    uns einfach irgendwelche Zahlenwerte, die
    wir nicht weiter interpretieren können.
  • 5:10 - 5:13
    Das bedeutet, wir haben Black Box Modelle.
    Wir verstehen also nicht im Detail,
  • 5:13 - 5:16
    welches Gewicht wofür steht, was wir
    eigentlich gelernt haben. Und im
  • 5:16 - 5:20
    Endeffekt, wenn ein Input reingeht, warum
    der Output rauskommt, der am Ende
  • 5:20 - 5:27
    tatsächlich herauskommt. Das bildet also
    im Prinzip die Basis für alle Systeme, die
  • 5:27 - 5:29
    irgendwie als Teil von Deep Learning
    bezeichnet werden.
  • 5:29 - 5:36
    Benjamin: Was wir da an der Stelle also
    haben, ist: Wir nehmen Mathe, wir nehmen
  • 5:36 - 5:43
    große Mengen von Daten und wenden einfach
    Tricks aus der Statistik an. Wir nutzen
  • 5:43 - 5:47
    aus, dass bestimmte Dinge, wenn man es nur
    oft genug betrachtet, wenn man es nur oft
  • 5:47 - 5:52
    genug anwendet, durchführt, dann eine
    gewisse Systematik ergeben, dass man
  • 5:52 - 5:59
    Muster erkennen kann. Wir generalisieren.
    Wie man hier also sieht, werden einfach
  • 5:59 - 6:07
    Tricks übernommen, die es in der Statistik
    schon seit vielen hundert Jahren gibt. Und
  • 6:07 - 6:11
    dafür angewandt, um jetzt irgendwie zu
    versuchen, aus einem Haufen Daten, ohne
  • 6:11 - 6:15
    ihn wirklich zu verstehen, ohne genau zu
    wissen, was da drinsteckt, einfach durch
  • 6:15 - 6:21
    schiere Masse, Muster zu erkennen und
    dann hoffentlich zu wissen: Okay, wenn ich
  • 6:21 - 6:26
    jetzt weit genug generalisiert habe, wird
    mein System schon irgendwie gut genug sein
  • 6:26 - 6:35
    für mein Anwendungszweck. Das hat aber,
    obwohl der Name Deep Learning und
  • 6:35 - 6:41
    Künstliche Intelligenz, alles nicht so
    wahnsinnig viel damit zu tun, was wir als
  • 6:41 - 6:47
    Intelligenz verstehen, was wir als Lernen
    verstehen. Der Tweet hier fasst das ganz
  • 6:47 - 6:53
    gut zusammen. Er sagt, das menschliche
    Hirn funktioniert ganz anders. Wenn das
  • 6:53 - 6:56
    menschliche Hirn so wie Deep Learning
    funktionieren würde, dann müssten wir
  • 6:56 - 7:01
    einfach 200 mal ins Gesicht geschlagen
    werden, bevor wir überhaupt raffen, dass
  • 7:01 - 7:04
    wir das nicht mögen. So ist das
    tatsächlich wenn ich bei Deep Learning,
  • 7:04 - 7:09
    wenn ich ihm 50, 100, 200 Wölfe und Hunde
    zeige, dann weiß das System noch gar
  • 7:09 - 7:14
    nichts, weil es nicht schnell genug
    interpretieren kann, nicht genug Kontext-
  • 7:14 - 7:18
    Informationen einbeziehen kann, nicht
    genug von all dem nutzen können, was das
  • 7:18 - 7:23
    menschliche Hirn, was wir können, wenn wir
    irgendwas machen, um irgendwie
  • 7:23 - 7:28
    Entscheidungen zu treffen. Und das ist ein
    großes Problem. Warum genau, werden wir
  • 7:28 - 7:36
    gleich nochmal im Detail besprechen. Sorgt
    aber dafür, dass wir einfach nur auf Masse
  • 7:36 - 7:40
    gehen und dadurch einfach eine bestimmte
    Genauigkeit so leicht nicht erreichen
  • 7:40 - 7:43
    können, wie wir sie gerne hätten.
    Nadja: Die intuitive Ursprungsidee hinter
  • 7:43 - 7:48
    neuronalen Netzen war tatsächlich mal
    sozusagen die Funktionalität des Gehirns
  • 7:48 - 7:51
    nachzubauen. Unsere Neuronen feuern auch,
    sind miteinander vernetzt, können
  • 7:51 - 7:56
    irgendwelche Dinge auslösen. Das ist aber
    heutzutage nicht mehr wie Neuronale Netze
  • 7:56 - 7:59
    funktionieren. Wir bilden damit nicht
    wirklich die Funktion organischer Gehirne
  • 7:59 - 8:02
    nach, sondern und das war zwar die
    Intuition dahinter, das funktioniert aber
  • 8:02 - 8:08
    tatsächlich sehr anders. Der für uns
    interessante Teil ist aber inzwischen, wie
  • 8:08 - 8:12
    wird das Ganze eigentlich angewendet, wo
    begegnet uns das im Alltag, nicht nur in
  • 8:12 - 8:15
    Forschungslabors, nicht nur in
    akademischen Institutionen, sondern auch
  • 8:15 - 8:19
    tatsächlich in Systemen, die wir jeden Tag
    benutzen, die inzwischen weit verbreitet
  • 8:19 - 8:24
    sind. Mit allen Nach- und Vorteilen, nach
    der großen Flaute, von der wir es eben
  • 8:24 - 8:28
    schon kurz hatten, erlebt das Feld gerade
    wieder ein riesiges Hoch, und sie sind in
  • 8:28 - 8:32
    so vielen Bereichen im Einsatz, dass einen
    kurzen Überblick davon zu verschaffen
  • 8:32 - 8:36
    quasi unmöglich ist. Extrem weit
    verbreitet sind Sachen wie
  • 8:36 - 8:39
    Sprachassistenten. In den letzten Jahren
    Siri, Alexa, Echo, all das. Sie müssen so
  • 8:39 - 8:42
    etwas können, wie Sprachverarbeitung, die
    müssen so etwas können wie
  • 8:42 - 8:45
    Textverarbeitung, die müssen
    Sprachsynthese beherrschen, sie müssen
  • 8:45 - 8:48
    auch irgendwo Information Retrieval
    beherrschen und tatsächlich auch die
  • 8:48 - 8:53
    Informationen aus dem riesigen
    Informationscluster, der das Internet nun
  • 8:53 - 8:58
    mal ist, hervorzuholen. Aber auch weit
    verbreitet durch solche Unternehmen wie
  • 8:58 - 9:01
    Tesla oder Uber sind inzwischen die
    Bereiche des autonomen Fahrens oder
  • 9:01 - 9:05
    generell des autonomen Transports, die
    sich dann eher mit vielleicht
  • 9:05 - 9:09
    Bilderkennung bearbeiten müssen, mit
    Navigation, mit Fein-Kontrolle an
  • 9:09 - 9:13
    motorischen Bauteilen etc. Nicht ganz so
    offensichtlich, aber dennoch, wenn man
  • 9:13 - 9:17
    darüber nachdenkt oder wenn man es gesagt
    bekommt, dann doch sehr gut sichtbar: Für
  • 9:17 - 9:20
    alle Menschen im Alltag sind
    Recommendation Systems, so etwas wie
  • 9:20 - 9:24
    "Amazon Kunden kauften auch", "Sie könnte
    interessieren", alles, was uns irgendwie
  • 9:24 - 9:29
    Vorschläge generiert. Die Sortierung von
    Google Ergebnissen oder generell von
  • 9:29 - 9:32
    Suchmaschinen, wie mir Ergebnisse
    angezeigt werden, was wie gerankt wird.
  • 9:32 - 9:36
    Aber auch sowas wie, was zeigt mir mein
    Facebook Newsfeed überhaupt an? Wer
  • 9:36 - 9:40
    bekommt was, wann und wie oft zu sehen?
    Das ist bei weitem nicht so
  • 9:40 - 9:45
    straightforward, nicht so offensichtlich,
    wie sich das viele Leute denken. Deutlich
  • 9:45 - 9:48
    weniger bekannt sind dann schon Systeme,
    die sowas wie
  • 9:48 - 9:52
    Rückfälligkeitseinschätzungen für
    straffällig gewordene machen, die in
  • 9:52 - 9:56
    Gerichtsverfahren dazu verwendet werden,
    um anhand von irgendwelchen Scores
  • 9:56 - 10:02
    Strafmaße zu vergeben. Das geschieht in
    den USA schon seit Jahren. Aber auch
  • 10:02 - 10:06
    Sachen, die anhand von Gesichtserkennung
    versuchen, verdächtige Personen zu
  • 10:06 - 10:12
    identifizieren, oder die Scoring
    Algorithmen, die für irgendwelche sozialen
  • 10:12 - 10:17
    Systeme verwendet werden oder zur
    Einschätzung für Versicherungen verwendet
  • 10:17 - 10:22
    werden. Aber auch Einstellungsverfahren,
    die anhand von Stichwörtern, von
  • 10:22 - 10:26
    Lebensläufen, noch bevor jemals jemand auf
    die Unterlagen drauf geschaut hat,
  • 10:26 - 10:32
    Kandidatinnen aussortieren.
    Benjamin: Diese Systeme arbeiten auch da
  • 10:32 - 10:35
    wieder so, dass wir häufig nicht
    verstehen, genau was sie tun. Teilweise
  • 10:35 - 10:39
    so, dass man im Nachhinein denkt: Um
    Gottes Willen, wie können die so
  • 10:39 - 10:43
    funktionieren? Das heißt, sowohl diese
    Einstellung bei Gesichtsinterpretation
  • 10:43 - 10:50
    oder für Bewerbungsverfahren, wo ein 15
    sekündiges Video analysiert wird,
  • 10:50 - 10:54
    übernimmt regelmäßig solche Systeme wie,
    wir messen jetzt Abstand zwischen Augen,
  • 10:54 - 10:59
    Nase, Mund, was weiß ich, was wir leider,
    wenn man ganz ehrlich ist, kennen aus
  • 10:59 - 11:04
    irgendwelcher Genetik, die die Nazis
    betrieben haben, um irgendwelche
  • 11:04 - 11:10
    überlegenen Rassen zu identifizieren. Und
    solche Dinge werden in Systemen heutzutage
  • 11:10 - 11:14
    eingesetzt. Nicht unbedingt absichtlich.
    Aber wenn man sich die Mühe macht zu
  • 11:14 - 11:17
    verstehen, was das System eigentlich
    tut, stellt man plötzlich mit großem
  • 11:17 - 11:21
    Bedauern fest, dass es genau das tut.
    Nadja: In all diesen Bereichen, in allen
  • 11:21 - 11:25
    Unteraufgaben davon und noch viel mehr
    kommen diese Deep Learning Systeme mit all
  • 11:25 - 11:28
    ihren Nachteilen und oftmals mit
    unbeabsichtigten Nebenwirkungen aktuell
  • 11:28 - 11:34
    zum Einsatz. Und es werden immer mehr.
    Genug dazu, was die Grundlage ist, genug
  • 11:34 - 11:37
    dazu, was wir unter Deep Learning
    verstehen und wo es angewendet wird. Wir
  • 11:37 - 11:39
    wollen uns als nächstes mit
    wissenschaftlicher Nachhaltigkeit
  • 11:39 - 11:44
    beschäftigen. Und die erste Frage, die
    sich die meisten Leute dazu stellen: Was
  • 11:44 - 11:48
    bedeutet denn wissenschaftliche
    Nachhaltigkeit eigentlich? Wenn wir das
  • 11:48 - 11:52
    sagen, meinen wir solche Fragen wie, wie
    relevant ist eigentlich das Thema, an dem
  • 11:52 - 11:56
    wir forschen? Wie relevant sind meine
    Ergebnisse für die Zukunft, für die
  • 11:56 - 12:00
    weitere Entwicklung des Feldes, für den
    Alltag der Menschen, um die es
  • 12:00 - 12:05
    letztendlich geht? Wir fragen uns aber
    auch: Können wir diese Ergebnisse
  • 12:05 - 12:09
    überhaupt reproduzieren? Kann irgendjemand
    anderes, wenn er dieses Paper gelesen hat,
  • 12:09 - 12:12
    zu den gleichen Zahlen, zu dem gleichen
    Ergebnis oder zumindest zu der gleichen
  • 12:12 - 12:16
    Größenordnung kommen? Haben wir die dazu
    notwendigen Mittel? Haben wir die Details
  • 12:16 - 12:21
    publiziert? Und sind die Ergebnisse so
    verlässlich, dass es möglich ist? Wir
  • 12:21 - 12:24
    meinen auch: Können wir Dinge, die in der
    Forschung entwickelt werden,
  • 12:24 - 12:28
    wiederverwenden? Oder sind sie nur für
    diese eine sehr spezielle Aufgabe
  • 12:28 - 12:33
    relevant? Wir meinen auch: Sind wir
    konkurrenzfähig? Oder sind andere Systeme,
  • 12:33 - 12:37
    die mit den gleichen oder sogar weniger
    Aufwand entwickelbar, einsetzbar sind,
  • 12:37 - 12:41
    nicht vielleicht sogar besser? Wir meinen
    auch: Mit welcher Systematik wurde dieses
  • 12:41 - 12:46
    System gebaut? Nach welchem System wurde
    untersucht, was an dieser Stelle hilfreich
  • 12:46 - 12:50
    ist und was nicht? Oder war das völlig
    willkürlich? Und schlussendlich meinen wir
  • 12:50 - 12:53
    auch: Was ist die Aussagekraft meiner
    Ergebnisse? Wie war die
  • 12:53 - 12:58
    Evaluationsmethodik? Was ist dabei am Ende
    rausgekommen, was tatsächlich relevant,
  • 12:58 - 13:08
    nennenswert, statistisch signifikant ist?
    Benjamin: Und an der Stelle überlegen wir
  • 13:08 - 13:11
    uns kurz, ich weiß nicht, einige von euch
    kommen sicherlich aus dem
  • 13:11 - 13:16
    wissenschaftlichen Bereich, andere aus der
    Industrie, ist völlig egal, wie man sich
  • 13:16 - 13:20
    eigentlich wünschen würde, dass
    Wissenschaft funktioniert, nämlich
  • 13:20 - 13:24
    irgendwie systematisch. Menschen denken
    sich Dinge aus, überprüfen sie, stellen
  • 13:24 - 13:28
    fest, sie stimmen, und alles ist gut.
    Tatsächlich haben wir in diesem Bereich
  • 13:28 - 13:35
    häufig, sehr häufig, ein völlig anderes
    Verfahren. Es gibt Publikationen zu
  • 13:35 - 13:37
    irgendwelchen Arten: Wie
    kann man diese
  • 13:37 - 13:38
    Neuronen, die wir vorhin hatten,
    wie kann man diese Modelle
  • 13:38 - 13:42
    aufbauen? Was kann man
    da machen? Dass die Daten dadurch fließen?
  • 13:42 - 13:47
    Dazu denken sich Leute was aus. Dann
    publizieren sie das, veröffentlichen das,
  • 13:47 - 13:51
    und andere Leute denken sich, okay, das
    klingt doch spannend. Lass das mal nehmen,
  • 13:51 - 13:55
    um daraus jetzt irgendwie für meinen
    Anwendungsfall ein neues System zu bauen.
  • 13:55 - 14:00
    Das heißt, Sie nehmen dieses Modell, was
    man irgendwo gehört hat, was gerade durch
  • 14:00 - 14:07
    die Fachwelt geistert. Dann überlegt man
    sich grob: Wie baut man das auf? Wie nehme
  • 14:07 - 14:13
    ich das? Ich packe jetzt so viele
    Schichten von diesem Typ hintereinander.
  • 14:13 - 14:17
    Sagen wir mal so und so viele, und die
    Schichten machen wir so groß, wir arbeiten
  • 14:17 - 14:22
    jetzt mit so und so vielen dimensionalen
    Vektoren. Das denkt man sich einfach aus,
  • 14:22 - 14:24
    was irgendwie plausibel klingt.
    Dann guckt man,
  • 14:24 - 14:25
    dass man die Daten noch
    irgendwie so lange schlägt,
  • 14:25 - 14:28
    bis sie irgendwie halbwegs
    in das Format reinpassen, was man gerade
  • 14:28 - 14:32
    haben will, macht da irgendwelche
    numerischen Werte draus, auf teilweise
  • 14:32 - 14:37
    sehr fragwürdige Art und Weise. Und dann
    wird das Ganze in das Netzwerk gepackt,
  • 14:37 - 14:40
    und das ganze Ding nennt sich ja Deep
    Learning. Das heißt, jetzt kommt das
  • 14:40 - 14:44
    Lernen. Das basiert halt darauf, dass man
    die Daten reinschiebt, guckt, wie gut es
  • 14:44 - 14:50
    passt. Wie gut war die Vorhersage. Dann
    anhand dessen das System anpasst, die
  • 14:50 - 14:54
    Daten wieder durchfließen lässt und das
    Ganze immer und immer wiederholt, bis man
  • 14:54 - 14:59
    am Ende irgendwie schön Gewichte in diesen
    Funktionen, die man im Prinzip
  • 14:59 - 15:05
    konstruiert, geraten hat oder gelernt hat,
    die plausibel erscheinen für den Zweck,
  • 15:05 - 15:08
    den man braucht. Das ergibt dann das
    Modell. Wenn die Zahlen, die dann
  • 15:08 - 15:13
    rauskommen, auf den Daten mit dem man das
    testet, ganz gut aussehen, dann nehmen die
  • 15:13 - 15:19
    Leute das und schreiben ihr Paper darüber
    und sagen Okay, für Klassifikationen von
  • 15:19 - 15:24
    Wölfen gegen Hunde haben wir jetzt
    folgende Architektur, folgendes Dings.
  • 15:24 - 15:28
    Hier sind unsere Daten. Das sind die
    Werte, die wir haben. Bitteschön, dass ist
  • 15:28 - 15:32
    jetzt das tolle neue Forschungsergebnis.
    Wenn die Werte nicht so gut aussehen, dann
  • 15:32 - 15:37
    hat man wohl vielleicht die falsche State
    of the Art System genommen, was gerade
  • 15:37 - 15:41
    jemand veröffentlicht hat. Oder man hat
    eine Schlicht zu wenig, eine Schicht zu
  • 15:41 - 15:45
    viel, die Vektoren haben die falsche
    Dimensionierung. Na naja, gut, dann rate
  • 15:45 - 15:50
    ich eben neue Parameter. Ist ja alles nur
    Strom und Zeit, lässt das Ganze weiter
  • 15:50 - 15:56
    trainieren. Da laufen die GPUs heiß. Und
    dann fängt man von vorne an damit und
  • 15:56 - 16:02
    guckt, ob jetzt gute Zahlen rauskommen.
    Und je nachdem sagt man dann, Okay, ich
  • 16:02 - 16:07
    mache weiter, oder ich fall wieder durch.
    Dazu kommt dann noch, das Ganze ist jetzt
  • 16:07 - 16:11
    ja schon irgendwie ziemlich
    unwissenschaftlich. Das ist nicht mal mehr
  • 16:11 - 16:16
    empirische Forschung. Das ist wirklich
    ausprobieren und hoffen, dass etwas Gutes
  • 16:16 - 16:22
    rauskommt. Aber danach kann man jetzt ja
    noch die üblichen Schönungs-Methoden
  • 16:22 - 16:27
    anwenden, die es natürlich in der
    Wissenschaft gibt, die man auch so leicht
  • 16:27 - 16:32
    gar nicht finden kann. Leider. Man kann
    natürlich jetzt sagen, ich zeige nur die
  • 16:32 - 16:35
    Ergebnisse auf den Datensets, bei denen
    die Zahlen gut aussehen, und auf dem
  • 16:35 - 16:38
    zweiten Datensets mit den Fotos aus einer
    anderen Perspektive oder mit einem anderen
  • 16:38 - 16:42
    Hintergrund jetzt leider nicht gut
    funktioniert hat, das muss ich ja
  • 16:42 - 16:47
    niemandem erzählen. Das veröffentliche ich
    einfach nicht mit. Das bleibt bei mir, und
  • 16:47 - 16:49
    meinen anderen Zahlen sehen ja gut aus,
    und das muss man jetzt erst mal jemand
  • 16:49 - 16:53
    nachmachen und zeigen, dass es mit etwas
    anderem nicht funktioniert. Selbst wenn
  • 16:53 - 16:57
    nicht: Ich habe ja eine Publikation. Und
    das ist leider in vielen Feldern
  • 16:57 - 17:01
    heutzutage was, was wichtig ist. Irgendwo
    bei einer wichtigen Konferenz ein Paper zu
  • 17:01 - 17:05
    veröffentlichen, mit der man eine
    minimale Verbesserung gegenüber dem
  • 17:05 - 17:10
    bisherigen State of the Art gezeigt hat.
    Natürlich kann ich außerdem, eigentlich
  • 17:10 - 17:14
    sollte ich solche Experimente mehrfach
    wiederholen und Mittelwerte bilden. Aber
  • 17:14 - 17:17
    ich kann natürlich Experimente mehrfach
    wiederholen und einfach nur den besten
  • 17:17 - 17:27
    Score veröffentlichen. Und weitere solche
    Tricks anwenden. Das heißt, wir haben
  • 17:27 - 17:32
    sowieso schon einen schlechten Prozess,
    der dann auch noch teilweise missbraucht
  • 17:32 - 17:38
    wird, um schneller bessere Ergebnisse zu
    kriegen und das dann zu publizieren. Das
  • 17:38 - 17:42
    ist das, was wir viel in diesen Feldern
    sehen. Definitiv nicht bei allen Papern.
  • 17:42 - 17:47
    Gerade die Grundlagen Paper sind
    sicherlich gut erforscht. Aber die vielen
  • 17:47 - 17:54
    Anwendungspaper können an der Stelle, und
    allein schon indem, wie sie entstanden
  • 17:54 - 17:58
    sind, begründet, keinen wirklichen
    Mehrwert liefern. Was ihre Relevanz und
  • 17:58 - 18:01
    ihren Vorteil, der daraus entsteht,
    ergibt.
  • 18:01 - 18:07
    Nadja: Das Ganze ist natürlich plakativ
    formuliert und natürlich bringen wir das
  • 18:07 - 18:11
    Ganze ein bisschen auf den Punkt, um zu
    überspitzen. Aber Tatsache ist, wenn man
  • 18:11 - 18:13
    sich in einem Feld bewegt, was sehr viel
    Druck hat, wenn man sich in einem Feld
  • 18:13 - 18:17
    bewegt, was so viele mögliche Gründe und
    so viele Dinge hat, die diese
  • 18:17 - 18:20
    Fallstricke begünstigen, dann werden sie
    auch immer mehr genutzt.
  • 18:20 - 18:30
    Benjamin: Genau. Wir sehen natürlich
    besonders, es gibt gerade im Deep Learning
  • 18:30 - 18:34
    diese Möglichkeiten. Denn wir haben schon
    gesagt: wir verstehen nicht, was diese
  • 18:34 - 18:37
    Modelle tun normalerweise. Es gibt ein
    Forschungsfeld, was daran arbeitet. Aber
  • 18:37 - 18:41
    normalerweise verstehen wir nicht, was
    diese Systeme tun. Das sind Blackbox
  • 18:41 - 18:44
    Modelle, die kriegen Daten rein, damit
    wird irgendwas damit gemacht. Am Ende
  • 18:44 - 18:50
    kommen Daten raus. Das Ganze geht noch
    über mehrere Schritte. Wir haben die
  • 18:50 - 18:54
    Daten, die werden irgendwie
    vorverarbeitet. Dann kommen die Daten
  • 18:54 - 18:58
    rein, gehen durch dieses System, dann
    werden sie eventuell nachverarbeitet. Am
  • 18:58 - 19:01
    Ende muss noch evaluiert werden,
    entschieden werden: Was ist jetzt richtig?
  • 19:01 - 19:04
    Was ist exakt richtig? Was ist gerade so
    richtig? Reicht mir das vielleicht, um es
  • 19:04 - 19:10
    als als wahr, stimmt es schon so, um es in
    meinem Paper zu publizieren? Was ich genau
  • 19:10 - 19:15
    gemessen habe, wird häufig gar nicht erst
    angegeben. Das heißt, dort ist es extrem
  • 19:15 - 19:21
    leicht möglich, auf diese Art und Weise zu
    arbeiten. Und gerade dadurch, dass überall
  • 19:21 - 19:28
    heutzutage Expertinnen für dieses Feld
    gesucht werden, dass überall jemand
  • 19:28 - 19:31
    Anwendungen haben möchte für Deep
    Learning, kommt man damit eben ganz gut
  • 19:31 - 19:35
    durch. Deswegen passiert das dort
    besonders. Man muss auf der anderen Seite,
  • 19:35 - 19:40
    wenn man die guten Jobs kriegen will, auch
    solche Publikationen vorweisen. Also wird
  • 19:40 - 19:44
    das entsprechend gemacht. Und genauso: es
    sind halt sehr viele Low Hanging Fruits
  • 19:44 - 19:50
    dabei. Das heißt Dinge, wo man weiß, okay,
    mit wenig eigenen, großartigen Ideen und
  • 19:50 - 19:57
    mehr anwenden von Handwerkszeug kann ich
    irgendwo was bauen, was es noch nicht
  • 19:57 - 20:03
    gibt. Und solange ich der Erste dazu bin,
    kriege ich das leichter hin. Ich muss mich
  • 20:03 - 20:06
    nicht mit irgendwem vergleichen. Ich zeige
    Okay, mein System kann das mit einer
  • 20:06 - 20:11
    akzeptablen Genauigkeit, exakte Zahlen und
    Ergebnissen. Damit bin ich die erste
  • 20:11 - 20:14
    Person, die das geschafft hat, und kann
    das entsprechend veröffentlichen. Deswegen
  • 20:14 - 20:20
    versuchen möglichst viele Leute, möglichst
    schnell solche Dinge rauszuhauen, neue
  • 20:20 - 20:30
    Publikationen in diesen Bereichen zu
    veröffentlichen. Wenn wir jetzt wissen
  • 20:30 - 20:36
    wollen, wie gut eigentlich ein System ist,
    was vorgestellt wird, wäre es natürlich
  • 20:36 - 20:40
    schön, wenn wir die Experimente einfach
    wiederholen könnten. Das ist allerdings
  • 20:40 - 20:48
    leider gar nicht so trivial. Denn auch
    wenn die Systeme, die eingesetzt werden,
  • 20:48 - 20:51
    die Grundlagen-Systeme, häufig ein
    gewisser Standard sind und irgendwie auch
  • 20:51 - 20:57
    als Open Source existieren, gilt das eben
    nicht für die ganzen Anpassungen, die
  • 20:57 - 21:01
    ganzen Details, die die Personen einbauen.
    Das gilt also nicht für den eigentlichen
  • 21:01 - 21:07
    Code, für die Pipeline, aber auch für die
    Pre-Processing, für die Evaluierung. Das
  • 21:07 - 21:12
    gilt nicht unbedingt für die Daten. Häufig
    sind Daten nicht verfügbar. Wir wissen,
  • 21:12 - 21:17
    Daten sind wertvoll, deswegen will man sie
    nicht aus der Hand geben. Aber so
  • 21:17 - 21:20
    funktioniert Wissenschaft nicht. Ich kann
    nicht auf meinen Daten, die ich für mich
  • 21:20 - 21:23
    behalte, arbeiten, sie niemandem zeigen
    und sagen: Aber mein System ist gut, ich
  • 21:23 - 21:30
    habe es ja selbst getestet. Das ihr es
    nicht überprüft könnt, Pech gehabt. Ich
  • 21:30 - 21:35
    habe in diesen Systemen enorm viele Hyper-
    Parameter, die wir haben es ja gesagt,
  • 21:35 - 21:40
    erst einmal häufig geraten werden oder
    durch durch grobes Ausprobieren bestimmt
  • 21:40 - 21:44
    werden. Wenn ich diese Parameter und diese
    Hyper-Parameter nicht weiß, habe ich keine
  • 21:44 - 21:49
    Chance, das System nachzubauen. Ich weiß
    auch nicht, mit welchen Initialisierungen,
  • 21:49 - 21:51
    die zufällig geschehen und
    mit welchen Reihenfolgen
  • 21:51 - 21:53
    und Aufteilung der Daten
    das Ganze geschehen ist.
  • 21:53 - 21:56
    Das heißt, wenn ich diese
    ganzen Details nicht habe, habe ich
  • 21:56 - 22:02
    erst mal keine Chance, genau ein System
    nachzubauen. Ich brauche aber genau diese
  • 22:02 - 22:07
    exakten Werte, weil diese Systeme enorm
    fragil sind. Das heißt, wenn ich
  • 22:07 - 22:12
    Kleinigkeiten ändere, ein bisschen die
    Dimensionen verändere, die Größe der
  • 22:12 - 22:16
    Schichten, gar so gar die Funktionen, die
    da aneinandergekettet werden, ein bisschen
  • 22:16 - 22:19
    ändere, kriege ich völlig andere
    Ergebnisse und weiß nicht mehr, ob das
  • 22:19 - 22:24
    andere System wirklich schlecht oder gut
    war oder ob es eben nur daran liegt, dass
  • 22:24 - 22:32
    ich es nicht genau nachbauen kann.
    Problem: Aktuell gibt es zwar
  • 22:32 - 22:36
    Bestrebungen, dass das so etwas besser
    wird, aber keinen Zwang oder so dafür. Das
  • 22:36 - 22:40
    heißt, wenn ich ein Paper publiziere auf
    einer der großen Konferenzen, in meinem
  • 22:40 - 22:46
    Anwendungsgebiet oder auch im Kern Machine
    Learning Bereich, dann ist es gewünscht,
  • 22:46 - 22:51
    dass sie reproduzierbar sind. Es ist aber
    nicht erzwungen. Das heißt, es gibt
  • 22:51 - 22:56
    zusätzlich nochmal das, ich möchte möchte,
    dass mein Paper so ein Siegel kriegt, das
  • 22:56 - 22:59
    ist reproduzierbar. Dann muss ich dafür
    ein paar Dinge machen. Da muss ich im
  • 22:59 - 23:04
    Prinzip diese Dinge hier bereitstellen,
    die wir ja aufgelistet haben. Und dann
  • 23:04 - 23:09
    versuchen andere Leute nachzuvollziehen,
    ob das, was ich mache, auch stimmt. Und
  • 23:09 - 23:12
    dann ich halt so ein Häkchen. Aber wenn
    ich das nicht tue, dann mache ich es eben
  • 23:12 - 23:18
    nicht. Und das ist sicherlich eine Stelle,
    die man hinterfragen muss, wo auch zum
  • 23:18 - 23:23
    Glück schon Dinge geschehen. Diese
    Reproduzierbarkeit wird, rückt mehr in den
  • 23:23 - 23:30
    Fokus der Konferenzen. Der Effekt von dem
    Ganzen ist natürlich dadurch: Wir haben
  • 23:30 - 23:34
    ganz viel Forschung, die nicht genutzt
    werden kann von anderen Leuten. Das heißt,
  • 23:34 - 23:37
    ich muss natürlich Forschung an der Stelle
    wiederholen. Andere Leute müssen sie
  • 23:37 - 23:44
    wiederholen und zusätzlich durch das,
    sowohl durch diesen Effekt als auch durch
  • 23:44 - 23:48
    den Drang, möglichst viel und möglichst
    schnell zu publizieren, wird halt extrem
  • 23:48 - 23:51
    viel Forschung auch so wiederholt und an
    ähnlichen Problemen immer wieder
  • 23:51 - 23:56
    gearbeitet, um minimale Verbesserung zu
    bekommen, weil man ja auch schon ein "Mein
  • 23:56 - 24:00
    System ist 0,5 Prozentpunkte besser als
    das bisherige State of the Art System"
  • 24:00 - 24:09
    wieder publizieren kann. Das heißt,
    wünschenswert wäre es, wir hätten überall
  • 24:09 - 24:14
    diese Reproduzierbarkeit. Das heißt, das
    Wichtigste wäre natürlich wir alle immer,
  • 24:14 - 24:17
    wenn wir hier sitzen und wenn wir
    irgendwas erforschen. Wir müssen unseren
  • 24:17 - 24:19
    Source Code veröffentlichen. Guck mal, da
    ein Eichhörnchen.
  • 24:19 - 24:24
    Nadja: Das ist leider, was uns viel zu
    häufig passiert, wenn es einen
  • 24:24 - 24:28
    wissenschaftlichen Code geht. Das heißt,
    selbst die Autorinnen, die vorhatten ihren
  • 24:28 - 24:31
    Code zu publizieren, das Ganze öffentlich
    zu machen, Open Source zu machen, werden
  • 24:31 - 24:35
    viel zu schnell vom nächsten Projekt, von
    der größeren Deadline, von den
  • 24:35 - 24:38
    beschäftigten Doktorandinnen oder von der
    Tatsache, dass der Code immer noch nicht
  • 24:38 - 24:41
    aufgeräumt ist, wenn man einfach nicht
    dazu gekommen ist vor der Deadline,
  • 24:41 - 24:45
    abgelenkt. Wir haben einen extrem hohen
    Publikationsdruck im Bereich Deep
  • 24:45 - 24:49
    Learning. Die Publikationen steigen
    effektiv exponentiell. Man muss immer
  • 24:49 - 24:51
    schneller sein, um
    wirklich noch state of
  • 24:51 - 24:52
    the art zu sein, um
    selbst die eigene
  • 24:52 - 24:54
    Verbesserung noch an den
    Markt bringen zu können.
  • 24:54 - 24:55
    Das sorgt dafür, dass
    irgendwo unsauber
  • 24:55 - 24:59
    gearbeitet wird. Mein Code wird
    nicht dokumentiert, da wird Spaghetti Code
  • 24:59 - 25:02
    geschrieben. Er wird irgendwie hingehackt,
    Hauptsache, es funktioniert. Und danach
  • 25:02 - 25:06
    müsste ich mich hinsetzen und das Ganze
    wieder aufarbeiten. Und das ist ein Riesen-
  • 25:06 - 25:10
    stück Arbeit. Und eigentlich steht ja
    schon die nächste Publikation an. Und alles
  • 25:10 - 25:13
    ist es plötzlich interessanter, als den
    Code zugänglich zu machen. Das gilt wieder
  • 25:13 - 25:15
    nicht für alle Paper. Natürlich gibt es
    Leute, die das machen. Wir versuchen es
  • 25:15 - 25:20
    zum Beispiel auch. Aber es funktioniert
    leider immer noch viel zu selten.
  • 25:20 - 25:25
    Tatsächlich gab es dazu oder gibt es doch
    immer noch von einer großen Konferenz in
  • 25:25 - 25:29
    dem Bereich, die Reproducibility
    Challenge, wo im wesentlichen
  • 25:29 - 25:32
    Wissenschaftler aufgefordert werden, sich
    ein akzeptiertes Paper aus der Konferenz
  • 25:32 - 25:37
    2018 oder jetzt 2019 rauszusuchen und mit
    allen Mitteln und Wegen zu versuchen, die
  • 25:37 - 25:41
    Ergebnisse nachzuvollziehen. Teilweise
    oder im Detail, komplett, erst mal
  • 25:41 - 25:45
    rausfinden, was kann ich überhaupt? Die
    Autoren sind angehalten, kurz publizieren
  • 25:45 - 25:49
    und zu kooperieren. Die Leute versuchen
    wirklich, auch Zeitaufwand, mit dem
  • 25:49 - 25:53
    entsprechenden Fachwissen, die Ergebnisse
    nachvollziehbar und erklärbar und
  • 25:53 - 25:59
    reproduzierbar zu machen. Die Erfolgsrate?
    Ja, ein Teil können wir nachvollziehen,
  • 25:59 - 26:03
    immerhin 50 Prozent. Immerhin ein
    Großteil, das nachvollziehen konnten 30
  • 26:03 - 26:09
    Prozent, gar nicht reproduzieren waren
    aber immer noch 10 Prozent. Jetzt
  • 26:09 - 26:13
    ist das interessante aber ja der
    Schwierigkeitsgrad, dass man das irgendwie
  • 26:13 - 26:15
    reproduzieren kann, ist an sich
    schon mal gut, aber noch
  • 26:15 - 26:17
    nicht ausreichend. Wenn
    ich die komplette
  • 26:17 - 26:19
    Forschung dafür neu machen
    muss, dann lohnt das den Aufwand schlicht
  • 26:19 - 26:25
    und einfach nicht. Reasonable difficulty
    ist in dem Fall sagen wir ein nicht sehr
  • 26:25 - 26:29
    konkretes Wort. Aber Tatsache ist, dass es
    bei mindestens 20 Prozent der Paper sehr,
  • 26:29 - 26:33
    sehr schwierig war und überhaupt keine
    Probleme aufgetreten sind bei einem
  • 26:33 - 26:37
    absolut vernachlässigbaren Teil. Was Sie
    dabei noch gemacht haben, ist Sie haben
  • 26:37 - 26:42
    gefragt, diese Wissenschaftlerinnen, denen
    diese Challenge gestellt wurde, haben wir
  • 26:42 - 26:46
    momentan eine Reproducibility Crisis im
    Bereich Maschinenlearning? Seht ihr hier ein
  • 26:46 - 26:52
    Problem? Und die Anzahl der Leute, die ein
    Problem sehen, ist über diese Challenge um
  • 26:52 - 26:57
    diverse Prozentpunkte gestiegen. Das
    heißt, einfach mal selbst zu versuchen,
  • 26:57 - 27:01
    hat nochmal 15 Prozentpunkte mehr der
    befragten Wissenschaftlerinnen ungefähr,
  • 27:01 - 27:04
    davon überzeugt, dass da tatsächlich
    Probleme existiert und dazu geführt, dass
  • 27:04 - 27:08
    drei Viertel der befragten
    Wissenschaftlerinnen ein Problem sehen, in
  • 27:08 - 27:17
    unterschiedlichem Ausmaße.
    Benjamin: Noch ein Beispiel. Das ist
  • 27:17 - 27:20
    jetzt, es gibt tatsächlich inzwischen
    Paper, die sich damit beschäftigen, wie
  • 27:20 - 27:27
    gut andere Paper reproduzierbar sind. In
    dem Fall aus dem Bereich von
  • 27:27 - 27:32
    Recommendation. Es geht darum, aus einer
    Menge von Dokumenten bestimmte Dokumente
  • 27:32 - 27:36
    für eine Anfrage oder Frage, oder was
    weiss ich, vorzuschlagen. Da gab es in den
  • 27:36 - 27:40
    letzten Jahren 18 Publikationen, die alle
    auf Deep Learning setzen, bei großen
  • 27:40 - 27:46
    Konferenzen. Und dann haben sich die Leute
    mal hingesetzt und geguckt, wieviel können
  • 27:46 - 27:50
    wir davon reproduzieren? Inklusive, wir
    schicken erst einmal dem Autor in eine
  • 27:50 - 27:55
    E-Mail, ob sie uns vielleicht ihren Code
    geben können, bitten nochmal nach und
  • 27:55 - 27:58
    versuchen, die Sachen zum Laufen zu
    bringen, versuchen irgendwie, teilweise
  • 27:58 - 28:02
    sogar ähnliche Hardware zu beschaffen, wie
    die verwendet haben und bauen das nach.
  • 28:02 - 28:07
    Insgesamt haben sich von diesen, für
    dieses Beispiel, von diesen 18 Papern,
  • 28:07 - 28:11
    ganze 7 Paper wirklich reproduzieren
    können. Das heißt, bei denen können sie
  • 28:11 - 28:16
    die ganzen Sachen nachbauen, können es
    laufen lassen und kommen dann auf ähnliche
  • 28:16 - 28:19
    Ergebnisse.
    Nadja: Aber wichtig, erst nachdem Sie die
  • 28:19 - 28:22
    Arbeit investiert haben, erst nachdem Sie
    nachgefragt haben, erst nachdem Sie
  • 28:22 - 28:25
    versucht haben, die Dinge aufzutreiben,
    die nicht von sich aus herausgegeben
  • 28:25 - 28:27
    wurden.
    Benjamin: Das ist nicht der Standard
  • 28:27 - 28:31
    Prozess. Also normalerweise, wenn ich
    irgendwo auf der Konferenz ein Paper
  • 28:31 - 28:34
    schicke und sage, Okay, das möchte ich
    veröffentlichen. Dann lesen Leute nur
  • 28:34 - 28:39
    dieses Paper. Gucken Sie sich eventuell
    noch ein Video an oder vielleicht sogar
  • 28:39 - 28:43
    ganze zusätzliche Datensätze, die
    hochgeladen werden. Aber normalerweise
  • 28:43 - 28:47
    lesen Sie nur dieses Paper, diese 6, 8,
    10, manchmal 12 Seiten mit eng
  • 28:47 - 28:51
    geschriebenen Ergebnissen und entscheiden
    nur anhand des Textes, der dort dann
  • 28:51 - 28:56
    steht, und anhand der Zahlen, die die
    Autorin selbst herausgegeben haben, ob
  • 28:56 - 29:02
    diese Arbeit relevant, richtig und
    irgendwie nutzbar erscheint. Und dann wird
  • 29:02 - 29:07
    entschieden, ob sie veröffentlicht wird
    oder nicht. Aber sie können normalerweise
  • 29:07 - 29:11
    nicht in irgendeiner Form überprüfen, ob
    das wirklich so ist. Sie müssen komplett
  • 29:11 - 29:18
    auf den Text vertrauen, ohne. Das ist
    der Standardfall, wenn wir nicht explizit
  • 29:18 - 29:23
    Reproduzierbarkeit fordern für
    irgendwelche Konferenzen. Und wie gesagt,
  • 29:23 - 29:28
    die bisherigen großen Konferenzen. Es gibt
    keine, die einen von den angewandten
  • 29:28 - 29:32
    Konferenzen, die Reproduzierbarkeit
    explizit fordert. Es ist immer nur ein
  • 29:32 - 29:37
    zusätzliches Challenge, oder ein
    zusätzliches Siegel, oder was weiß ich.
  • 29:37 - 29:41
    Bisher basiert die Annahme und die
    Veröffentlichung von irgendwelchen Papern
  • 29:41 - 29:45
    komplett nur auf dem Reviewen von den
    eingereichten Sachen, ohne den Versuch es
  • 29:45 - 29:51
    auch zu reproduzieren. Noch zu dem
    Beispiel, um es noch demotivierender zu
  • 29:51 - 29:58
    machen. Von diesen 7 Ergebnissen, die sie
    reproduzieren konnten, haben sie dann
  • 29:58 - 30:04
    außerdem nochmal nicht Deep Learning
    basierte Ansätze genommen, die damit
  • 30:04 - 30:09
    verglichen und festgestellt, dass wenn man
    da sich ein bisschen Mühe gibt, sie von 6
  • 30:09 - 30:13
    von diesen 7 Paper noch besserere,
    trotzdem noch bessere Ergebnisse kriegen.
  • 30:13 - 30:20
    Das heißt, von diesen 18 Publikationen hat
    eine für externe Leute messbaren
  • 30:20 - 30:28
    wissenschaftlichen Fortschritt gebracht.
    Und genau diese anderen Ansätze sind
  • 30:28 - 30:34
    nämlich leider etwas, was sehr stark durch
    diesen Hype, der ja offensichtlich
  • 30:34 - 30:40
    funktioniert, so voll wie sie heute ist,
    das Wort Deep Learning zieht, werden die
  • 30:40 - 30:44
    verdrängt. Der Rest sind häufig nur
    Baselines. Ich muss ja nur im Paper
  • 30:44 - 30:49
    irgendwas angeben, was ein anderes System
    ist, mit dem ich es vergleiche, damit ich
  • 30:49 - 30:53
    zeige, dass mein neues System besser ist
    als das, was bisher da ist. Dann gebe ich
  • 30:53 - 30:57
    mir auch keine Mühe, dass ich diesen
    Anteil, dieses andere System besonders gut
  • 30:57 - 31:00
    dastehen lasse. Denn dann wird es
    schwieriger, dass mein neues System besser
  • 31:00 - 31:05
    abschneidet. Das heisst, es wird
    hauptsächlich eben an diesem Deep
  • 31:05 - 31:10
    Learnings Krams geforscht, und alles
    andere wird vernachlässigt, obwohl man da
  • 31:10 - 31:14
    noch sehr viel rausholen könnte, wenn man
    es denn wollte und irgendeinen Vorteil
  • 31:14 - 31:20
    davon hätte. Und es wird wirklich alles
    andere nur als Baseline betrachtet. Ganz
  • 31:20 - 31:25
    kurz noch Exkurs, das ist ein Foundation
    Talk. Baseline, ich brauche irgendein
  • 31:25 - 31:28
    System, mit dem ich zeige, dass meine
    Daten valide sind. Das ist irgendwie
  • 31:28 - 31:31
    Plausible ist, was ich raus kriege. Im
    simpelsten Fall ist ein Baseline Ansatz
  • 31:31 - 31:35
    für eine binäre Entscheidung einfach ein
    Münzwurf. Wenn ich ein System baue, was
  • 31:35 - 31:39
    zwischen Hund oder Wolf entscheiden muss
    und es hat nur 5 Prozent Genauigkeit, dann
  • 31:39 - 31:42
    hätte ich mal lieber eine Münze geworfen.
    Da würde ich mit 50 Prozent Genauigkeit
  • 31:42 - 31:46
    kriegen. Dann ist mein System
    außerordentlich schlecht. Sobald ich über
  • 31:46 - 31:49
    diese 50 Prozent drüber kommen über diese
    Baseline, kann ich in diesem Paper
  • 31:49 - 31:55
    inhaltlich begründen, warum mein neues
    System besser ist als diese Baseline. Nun
  • 31:55 - 31:58
    gebe es vielleicht bessere, klügere
    Ansätze als einen reinen Münzwurf. Aber
  • 31:58 - 32:00
    wenn ich den halt möglichst low halte,
    habe ich es an der
  • 32:00 - 32:04
    anderen Stelle leichter.
    Nadja: Dazu ganz kurz, um das in Zahlen zu
  • 32:04 - 32:07
    fassen. Kaggle ist eine Plattform, die
    Daten-
  • 32:07 - 32:08
    wissenschaftliche Challenges
    stellt, an der jeder
  • 32:08 - 32:11
    dann mitarbeiten kann und
    einen Versuch einreichen kann, diese
  • 32:11 - 32:14
    Challenge zu schlagen. Z.B. im Bereich
    Bilderkennung, aber eigentlich alles, was
  • 32:14 - 32:18
    da ist, an wissenschaftliche oder
    maschinelles Lernen in Worte fasst. Das
  • 32:18 - 32:21
    ist der Unterschied zur akademischen
    Forschung, dass wir uns nicht so sehr am
  • 32:21 - 32:24
    State of the art orientieren, sondern die
    Leute versuchen, oftmals sind es auch
  • 32:24 - 32:28
    Privatpersonen, das zu nehmen, was
    funktioniert. Da ist auch viel Deep
  • 32:28 - 32:30
    Learning dabei. Weil Deep Learning, halt
    ein paar Sachens sind, wo viel entwickelt
  • 32:30 - 32:33
    wird, wo es viele fertige Frameworks gibt
    und was verrufen ist als das, was
  • 32:33 - 32:38
    irgendwie mit allem funktioniert, unter
    gewissen Voraussetzungen. Aber trotzdem
  • 32:38 - 32:43
    sehen wir das auch., dass klassische
    Ansätze hier sehr, sehr hohen Anteil
  • 32:43 - 32:47
    einnehmen, einen höheren Anteil als
    manchmal bei entsprechenden Konferenzen zu
  • 32:47 - 32:51
    finden ist. Das heißt, wenn es mir nur
    darum geht, dass jetzt etwas funktioniert
  • 32:51 - 32:53
    und ich nicht maximalen Aufwand
    reinstecken will, ich nicht unbedingt die
  • 32:53 - 32:56
    Buzzwords unterbringen will, ist Deep
    Learning plötzlich nicht mehr ganz so
  • 32:56 - 33:01
    beliebt. Und dafür gibt's mit Sicherheit
    ein Grund. Wir wollen aber noch zu zwei
  • 33:01 - 33:03
    weiteren Aspekten kommen. Und der nächste,
    der der gesellschaftlichen Auswirkungen.
  • 33:03 - 33:07
    Weil auch, was unsere Gesamtgesellschaft
    betrifft, müssen wir in der Forschung, was
  • 33:07 - 33:10
    das maschinelle Lernen und Deep Learning
    angeht, ein bisschen auf Nachhaltigkeit
  • 33:10 - 33:15
    achten. Gerade das Thema Erklärbarkeit und
    Transparenz, das Thema kann nicht das
  • 33:15 - 33:19
    System, was vielleicht sogar
    lebenswichtige Entscheidungen trifft,
  • 33:19 - 33:23
    irgendwie verstehen. Dieses inzwischen
    relativ weit verbreitete Beispiel kommt
  • 33:23 - 33:27
    aus der Software Compass, ich habe es
    schon erwähnt, die wird verwendet, um bei
  • 33:27 - 33:30
    straffällig gewordene Menschen in
    Gerichtsverfahren einen Score zu
  • 33:30 - 33:32
    ermitteln, mit welcher Wahrscheinlichkeit
    sie rückfällig werden im weiteren Verlauf
  • 33:32 - 33:37
    ihres Lebens. Dieser Score wird vom
    Richter dann verwendet, um das Strafmaß zu
  • 33:37 - 33:43
    bestimmen. Wenn wir uns jetzt den
    Hintergrund der Hautfarbe, Hautfarbe
  • 33:43 - 33:47
    dieser Menschen anschauen, für die diese
    Scores bestimmt wurden, erkennen wir eine
  • 33:47 - 33:51
    sehr unterschiedliche Verteilung zwischen
    Menschen mit weißer Hautfarbe und Menschen
  • 33:51 - 33:56
    mit anderer Hautfarbe. Das heißt, oben
    links sehen wir, dass hohe und niedrige
  • 33:56 - 34:00
    Scores annähernd gleichmäßig verteilt
    werden, während wir eben bei Menschen mit
  • 34:00 - 34:03
    eindeutig weißer Hautfarbe oder die so
    wahrgenommen werden eine sehr starke
  • 34:03 - 34:08
    Häufung niedrigen Scores haben. Das hat
    sich an vielen Einzelbeispiele inzwischen
  • 34:08 - 34:12
    gezeigt, dass das schlicht und einfach
    falsch ist. Dass für ähnliche Verbrechen
  • 34:12 - 34:15
    sehr unterschiedliche Strafen vergeben
    wurden und das nicht der Fall ist, dass
  • 34:15 - 34:19
    die Personen mit dem höheren Score auch
    zwangsläufig eher rückfällig geworden ist.
  • 34:19 - 34:23
    In einigen Fällen haben auch Menschen, die
    in dem Bereich tätig sind, drauf geschaut
  • 34:23 - 34:25
    und haben gesagt, eigentlich hätte anhand
    der Vorstrafen gerade andersherum
  • 34:25 - 34:29
    verteilt. Das ist ein Riesenproblem, weil
    das System sind, die hier aktuell zum
  • 34:29 - 34:32
    Einsatz kommen und die für Menschen
    lebenswichtige Entscheidungen
  • 34:32 - 34:35
    treffen müssen. Für niemanden er
    sichtlich, warum dieser Score gegeben
  • 34:35 - 34:39
    wird. Die Firma sagt von sich, und das ist
    insofern auch korrekt, wenn man es
  • 34:39 - 34:43
    wörtlich nimmt, dass der Hintergrund und
    die Hautfarbe dieser Menschen nicht
  • 34:43 - 34:47
    eingegangen ist in das Training. Aber das
    korreliert mit so vielen Dingen in den
  • 34:47 - 34:50
    USA, mit dem Einkommen, mit dem Wohnort
    etc., dass das gar nicht der entscheidende
  • 34:50 - 34:56
    Faktor ist. Als weiteres Beispiel können
    wir mal drüber nachdenken, was wir dann
  • 34:56 - 35:00
    mit dem Begriff eindeutige Handlungs-
    Vorschrift meinen. Viele Menschen
  • 35:00 - 35:05
    bezeichnen damit Algorithmen, was sie
    damit nicht bezeichnen wollen, dass wir
  • 35:05 - 35:08
    alles, was algorithmische System uns
    vorschlagen, auch als Handlungs-Vorschrift
  • 35:08 - 35:12
    zu behandeln haben. Das ist nicht, wie wir
    das gemeint haben, sondern wir müssen mit
  • 35:12 - 35:17
    diesem System immer reflektiert und
    kritisierend umgehen. Ob jetzt Deep
  • 35:17 - 35:21
    Learning überhaupt noch auf diesen Begriff
    passt, auf diese eindeutige Handlungs-
  • 35:21 - 35:24
    Vorschrift ist schon wieder extrem
    fragwürdig. Denn wir reden hier von sehr
  • 35:24 - 35:28
    stark statistisch geprägten Systemen, wo
    sehr viel Zufall mitspielt. Man könnte
  • 35:28 - 35:31
    sie, wie es in diesem Thread geschehen
    ist, vielleicht eher als
  • 35:31 - 35:34
    maschinelles Bauchgefühl bezeichnen,
    als eindeutige Handlungs-Vorschrift.
  • 35:34 - 35:41
    Benjamin: Das heißt, was wir hier
    eigentlich erleben, ist eine wahnsinnige
  • 35:41 - 35:45
    Generalisierung nur. Wir nehmen
    Datenpunkte aus der Vergangenheit, die wir
  • 35:45 - 35:50
    schon kennen. Wir wenden sie an, wir
    trainieren darauf und danach versuchen wir
  • 35:50 - 35:55
    einfach und hoffen, dass, wenn wir diese
    Sachen, die wir, die wir haben, wenn wir
  • 35:55 - 35:59
    nur weit genug generalisieren, wenn wir
    irgendwo versuchen auf Teufel komm raus
  • 35:59 - 36:04
    und das System muss immer was liefern.
    Normalerweise liefern die Systeme immer
  • 36:04 - 36:09
    einfach ein Ergebnis, egal, ob sie einen
    guten Grund dafür sehen oder nicht. Sie
  • 36:09 - 36:13
    versuchen einfach, ein Muster zu finden
    und dann liefern sie ein Ergebnis. Und das
  • 36:13 - 36:19
    bedeutet, dass das, was immer landläufig
    als die KI sagt etwas vorher oder denkt
  • 36:19 - 36:23
    sich etwas aus oder was weiß ich, im
    Prinzip nur ein auswendig lernen und
  • 36:23 - 36:26
    generalisieren und das Ergebnis irgendwie
    wieder raushauen ist.
  • 36:26 - 36:30
    Nadja: Bei gelernten Systemen reden wir
    oft von Prediction oder Vorhersage. Was
  • 36:30 - 36:33
    wir aber eigentlich getan haben, ist nicht
    über die Zukunft nachzudenken, sondern
  • 36:33 - 36:36
    ausschließlich über die Vergangenheit. Und
    dann ist es die interessante Frage, ob
  • 36:36 - 36:41
    wirklich Dinge vorhersagen oder eigentlich
    nur reproduzieren.
  • 36:41 - 36:48
    Benjamin: Das Problem ist aber auch, dass
    die Menschen den Computern vertrauen. Das
  • 36:48 - 36:51
    trifft vermutlich jetzt nicht auf alle
    Leute hier im Raum zu. Das ist sehr
  • 36:51 - 36:56
    angenehm, aber in der Gesellschaft ist das
    enorm verbreitet inzwischen. KI ist
  • 36:56 - 37:01
    irgendwas Tolles, KI ist super, KI wird
    uns retten. KI kann das, was wir nicht
  • 37:01 - 37:08
    können. Beispiele: Wir haben diese große
    Forschungsinitiative, überall muss KI
  • 37:08 - 37:12
    gemacht werden. Wenn ich KI in meine
    Anträge schreibe, kriege ich Geld. Wenn
  • 37:12 - 37:17
    ich auf meine Hautcreme draufschreiben,
    dass sie mit KI optimiert wurde, kann ich
  • 37:17 - 37:22
    sie besser verkaufen. Und wenn ich will,
    dass mein System und ich als Firma gut
  • 37:22 - 37:26
    dastehe, dann kann es sich sogar lohnen,
    was geschieht, was Google aber auch viele
  • 37:26 - 37:31
    andere machen, kann es sich lohnen, Leute
    einzustellen, die so tun, als wären sie
  • 37:31 - 37:35
    Computer, zum Beispiel, die irgendwo
    anrufen, weil der Computer dazu noch nicht
  • 37:35 - 37:40
    in der Lage ist und dann die Restaurant
    Reservierung oder was weiß ich
  • 37:40 - 37:43
    durchführen, nur damit man dann am Ende
    rausschreiben kann, dass die eigenen KI-
  • 37:43 - 37:50
    Systeme ja so wahnsinnig toll sind. Und
    weil es ja kein Mensch ist, sondern der
  • 37:50 - 37:56
    Computer, der ja bestimmt viel weiser sein
    muss, kann man dadurch sich Vorteile
  • 37:56 - 37:58
    verschaffen.
    Nadja: Ein ganz besonders beunruhigendes
  • 37:58 - 38:00
    Beispiel haben wir uns außerdem noch
    mitgebracht.
  • 38:00 - 40:04
    Musik
    Dialog der Maschine und dem Mann auf japanisch
  • 40:04 - 40:08
    Um die Frage direkt vorwegzunehmen, ja,
    das gibt es wirklich. Und ich hoffe
  • 40:08 - 40:11
    ehrlich gesagt, ich muss gar nicht
    erklären, warum das so unglaublich
  • 40:11 - 40:14
    kritisch ist. Aber ich frag einfach mal,
    was passiert mit uns Menschen so rein
  • 40:14 - 40:18
    soziologisch, so rein psychologisch, wenn
    wir mit Maschinen interagieren, als wären
  • 40:18 - 40:22
    sie Menschen, als hätten sie Gefühle, wenn
    sie Muster imitieren, wie sie in der
  • 40:22 - 40:25
    Beziehung und zwischenmenschlicher
    Kommunikation stattfinden. Was passiert da
  • 40:25 - 40:29
    mit uns? Worauf lassen wir uns ein? Wie
    viel Bios, den wir nicht haben sollten,
  • 40:29 - 40:36
    akzeptieren wir? Um noch zu einem ganz
    anderen Thema zu kommen. Ich hoffe, das
  • 40:36 - 40:38
    müssen wir hier nur kurz anschneiden, denn
    ich habe keine Antwort auf die Frage, die
  • 40:38 - 40:41
    ich gerade gestellt habe. Daten. Ich
    glaube, das ist ein Rahmen, in dem ich
  • 40:41 - 40:45
    wenig erklären muss, warum
    Datensparsamkeit wichtig ist. Wir haben
  • 40:45 - 40:49
    aber mit Deep Learning ein fundamentales
    Problem. Wir brauchen nämlich extrem viele
  • 40:49 - 40:53
    Daten. Und das beißt sich ganz, ganz stark
    mit unseren gesellschaftlichen Interessen.
  • 40:53 - 40:58
    Das ist aber ein Thema, über das könnte
    man mindestens einen eigenen Talk halten.
  • 40:58 - 41:01
    Außerdem Beispiele wie das: Wie viele
    werden es auch schon gesehen haben, eine
  • 41:01 - 41:05
    KI, die sich gefühlte 15 Minuten im Netz
    bewegt hat. Und plötzlich überaus
  • 41:05 - 41:08
    rassistisch und anderweitig inakzeptable
    Äußerungen gebracht hat, weil sie nun mal
  • 41:08 - 41:11
    aus dem Internet gelernt hat. Und die
    interessante Frage stellt sich an der
  • 41:11 - 41:15
    Stelle ganz krass, sollten wir wirklich
    versuchen, mit maschinellen Systemen
  • 41:15 - 41:19
    Menschen nachzubilden? Oder ist das
    vielleicht eine sehr schlechte Idee?
  • 41:19 - 41:27
    Benjamin: Ein weiterer Punkt, den wir uns,
    dem wir uns stellen müssen, der für uns
  • 41:27 - 41:31
    alle relevant ist, denn wir arbeiten in
    irgendeiner Form an Systemen, die
  • 41:31 - 41:37
    irgendwie was in der Welt bewegen sollen.
    Wer ist für all das verantwortlich? Ganz
  • 41:37 - 41:42
    typisches Beispiel haben wir bei den
    autonomen Fahrzeugen. Da wird es schon x
  • 41:42 - 41:47
    mal diskutiert, wer ist dafür
    verantwortlich, wenn ein Unfall passiert?
  • 41:47 - 41:51
    Aber bei jedem weiteren System gilt das
    auch. Es gibt so viele Stellen, die daran
  • 41:51 - 41:55
    beteiligt sind. Wir haben die Person, die
    das Ganze programmieren. Die Personen, die
  • 41:55 - 41:59
    es in Auftrag gegeben haben. Die Firma,
    die das Ganze kauft, vermarktet.
  • 41:59 - 42:02
    Vielleicht öffentliche Stellen, die
    entsprechende Regularien dafür
  • 42:02 - 42:06
    veröffentlichen. Wir haben
    Versicherungskonzerne. Wir haben
  • 42:06 - 42:10
    Privatpersonen, die ein autonomes Fahrzeug
    oder irgendein anderes intelligentes
  • 42:10 - 42:17
    System besitzen. Wer ist schuld? Wer kann
    belangt werden, wenn irgendetwas passiert?
  • 42:17 - 42:21
    Und welche Auswirkungen hat das? Denn, je
    nachdem, wer dafür belangt werden kann,
  • 42:21 - 42:25
    ergeben sich völlig unterschiedliche
    Entscheidungen von den beteiligten
  • 42:25 - 42:30
    Personen, wogegen sie ihre Systeme
    absichern, wie sie ihre Systeme designen.
  • 42:30 - 42:37
    Und diesen Punkt, dazu gibt es keine
    befriedigende Antwort. Eine Umfrage unter
  • 42:37 - 42:45
    den Amerikaner sagt, dass sie, die
    Mehrheit das inakzeptabel findet, dass ein
  • 42:45 - 42:49
    Computersystem oder algorithmische Systeme
    genutzt werden, um in bestimmten
  • 42:49 - 42:55
    Bereichen, zum Beispiel bei der
    Einschätzung von Strafmaßen oder für den
  • 42:55 - 42:58
    Bewerbungsprozess von Menschen, dass der
    Computer wesentliche Entscheidungen dafür
  • 42:58 - 43:05
    trifft. Blöd nur, all das wird heutzutage
    schon gemacht, und zwar eben mit immer
  • 43:05 - 43:10
    stärker werdenden Ausmaß.
    Nadja: Und als Drittes kommen wir jetzt zu
  • 43:10 - 43:14
    einem Punkt, der oft vernachlässigt wird,
    wenn es um Deep Learning geht. Ja, das
  • 43:14 - 43:17
    werden die alle, die wir heute gesagt
    haben, aber der ganz besonders. Und wir
  • 43:17 - 43:21
    glauben, dass der trotzdem relevant ist.
    Nämlich gerade zu Zeiten, wo das Thema
  • 43:21 - 43:24
    Klimawandel wieder mehr in den Medien
    kommt, wo sowohl die Gegner als auch die
  • 43:24 - 43:28
    Befürworter von irgendwelchen Maßnahmen
    stärker werden, ist das ein Thema über das
  • 43:28 - 43:30
    wir auch nachdenken müssen, auch
    wenn es auf den ersten Blick
  • 43:30 - 43:34
    nichts mit unserer Arbeit zu tun hat.
    Benjamin: Wir haben natürlich, bekannt ist
  • 43:34 - 43:38
    es im Bereich, z. B. von den
    Cryptocurrencies, dass die enormen
  • 43:38 - 43:44
    Stromverbrauch haben, zum Beispiel ein
    Bitcoin Transaktion verbraucht ungefähr so
  • 43:44 - 43:53
    viel Strom wie 500.000 Visa Transaktionen,
    eine einzige! Und das entspricht ungefähr
  • 43:53 - 43:58
    dem Stromverbrauch eines Kühlschranks für
    8 Jahre für eine Transaktion. Aber
  • 43:58 - 44:04
    Bitcoins ist nicht der einzige Bereich, wo
    wir Probleme kriegen, in der Hinsicht. Wir
  • 44:04 - 44:12
    haben auch das generell in allen Formen,
    wo wir große Daten haben. Deep Learning
  • 44:12 - 44:15
    braucht große Datenmengen, Datenmengen
    müssen wir speichern, verarbeiten,
  • 44:15 - 44:20
    transportieren und dafür haben wir
    weltweit inzwischen eine relativ groß
  • 44:20 - 44:25
    steigende Anzahl an Rechenzentren, die
    zwischen 200 und 500 Milliarden
  • 44:25 - 44:28
    Kilowattstunden pro Jahr gerade
    verbrauchen. Ganz genau kann man das
  • 44:28 - 44:33
    natürlich nicht sagen, weil die Firmen
    auch diese Daten als Geheimnis betrachten.
  • 44:33 - 44:38
    Wenn man alle Rechenzentren zusammen als
    Land betrachten würde, hätten wir fünf
  • 44:38 - 44:41
    Länder auf der Erde, die mehr Strom
    verbrauchen, dann kommen die
  • 44:41 - 44:45
    Rechenzentren, dann kommen alle anderen
    Länder, und auch das wird weiterhin
  • 44:45 - 44:56
    steigen. Wir haben, wenn man jetzt noch
    kleiner guckt auf das, was wir jetzt
  • 44:56 - 45:00
    beschrieben haben, den Trainingsprozess
    von einzelnen Modellen, auch da schon
  • 45:00 - 45:06
    einen erschreckend hohen Stromverbrauch,
    der auch dort leider nicht linear, sondern
  • 45:06 - 45:13
    sondern deutlich darüber ansteigt. Wenn
    wir also ein einzelnes, einzelne Modelle
  • 45:13 - 45:17
    trainieren wollen, sehen wir, dass die
    großen State of the Art Systeme, die dann
  • 45:17 - 45:22
    natürlich von Firmen wie Google und
    Facebook AI und anderen
  • 45:22 - 45:25
    Forschungsinstitute, Einrichtungen von
    großen, großen Firmen vorgeschlagen
  • 45:25 - 45:34
    werden, dass dort Strom verbraucht wird
    für hunderttausende teilweise Millionen an
  • 45:34 - 45:43
    Euro. Dass dort auch inzwischen natürlich
    zusätzlich noch GPUs, CPUs eingesetzt
  • 45:43 - 45:48
    werden, die schwer zu bekommen sind, die
    teuer anzuschaffen sind, sodass wir
  • 45:48 - 45:51
    natürlich auch sowohl durch den
    Stromverbrauch als auch durch die
  • 45:51 - 45:56
    Infrastruktur. Erstens haben wir diesen
    Umwelteffekt. Zweitens, wenn wir den
  • 45:56 - 46:01
    Effekt, dass immer weniger Firmen, immer
    weniger große Einrichtungen in der Lage
  • 46:01 - 46:07
    sind, Deep Learning auf dem State of the
    Art durchzuführen. Der Rest wird
  • 46:07 - 46:10
    abgehängt. Das heißt auch da
    gesellschaftliche Auswirkungen ---
  • 46:10 - 46:15
    problematisch, Umweltauswirkungen ---
    problematisch und leider ein Trend, der
  • 46:15 - 46:20
    offensichtlich genau in die falsche
    Richtung geht. Wenn man sich das nochmal
  • 46:20 - 46:27
    hier anguckt, was das auch für den
    CO2-Ausstoß bedeutet, sehen wir, dass das
  • 46:27 - 46:33
    Training von einem einzigen Modell, wie es
    dann veröffentlicht wird am Ende, von so
  • 46:33 - 46:38
    einem großen Modell ungefähr so viel CO2
    ausstößt wie fünf Autos in ihrer ganzen
  • 46:38 - 46:43
    Lebensdauer, inklusive Produktion und
    inklusive sämtlichen Sprit, der dann darin
  • 46:43 - 46:48
    verbrannt wird. Und solche Forschung
    findet ständig weiterhin statt, weil man
  • 46:48 - 46:51
    ja weiter publizieren will, wie wir am
    Anfang schon erzählt haben. Das heißt,
  • 46:51 - 46:55
    dauerhaft werden solche Modelle gerade auf
    der Welt trainiert, um dann irgendwo in
  • 46:55 - 46:58
    irgendeinem kleinen Teilbereich eine neue
    Publikationen machen zu können.
  • 46:58 - 47:03
    Nadja: Jetzt komme ich und bringe die
    Frohbotschaft. Nein, es ist nicht alles
  • 47:03 - 47:06
    ganz so schlimm, wie es jetzt gerade
    scheint, wenn wir die Nachteile auflisten.
  • 47:06 - 47:09
    Tatsächlich kann der ganze Bereich des
    maschinellen Lernen auch Vorteile mit sich
  • 47:09 - 47:12
    bringen und hier in diesem Beispiel sogar
    auch tatsächlich das Deep Learning. Es
  • 47:12 - 47:17
    geht darum, dass Google über Jahre hinweg
    versucht hatte, mithilfe von maschinellen
  • 47:17 - 47:23
    Lernen die Betriebe ihrer Datenzentren zu
    optimieren. Da eine Einsparung im
  • 47:23 - 47:25
    Stromverbrauch zu erreichen. Wir reden
    hier von Reinforsment Learning für die,
  • 47:25 - 47:30
    denen es was sagt. Was die Kühlungsteuerung,
    die Abschaltung von Servernet et cetera
  • 47:30 - 47:33
    beeinflussen konnte und damit der
    Stromverbrauch um bis zu 40 Prozent
  • 47:33 - 47:37
    gesenkt hat. Das ist auf jeden Fall eine
    gute Nachricht. Natürlich ist auch mir die
  • 47:37 - 47:40
    Ironie klar, dass wir hier den
    Stromverbrauch von Datenzentren sprechen,
  • 47:40 - 47:44
    ohne das Feld auch gar nicht so sehr nötig
    wären. Trotzdem Man kann diese
  • 47:44 - 47:49
    Wissenschaft, man kann diesen Bereich auch
    durchaus für gute Sachen nutzen, die uns
  • 47:49 - 47:54
    allen was helfen kann. Das lässt sich
    natürlich nicht auf alle großen Strom und
  • 47:54 - 47:58
    CO2 Produzenten übertragen, die wir in
    unserer Industrie so haben. In der
  • 47:58 - 48:02
    Autoindustrie wird das schon sehr viel
    schwieriger, wenn wir von Montagerozessen
  • 48:02 - 48:05
    reden, von Produktionsprozessen reden. Da
    kann man nicht einfach wild durch die
  • 48:05 - 48:08
    Gegend tauschen, welcher Task denn
    ausgeführt wird. Wenn die Server
  • 48:08 - 48:12
    vielleicht nicht ausgelastet sind oder sie
    nicht direkt ausführen, damit der Server
  • 48:12 - 48:16
    noch mal abgeschaltet bleiben kann. Aber
    ist das was, womit wir uns auf jeden Fall
  • 48:16 - 48:22
    beschäftigen sollten. Mit Strom und CO2
    ist das Lied um die Umweltauswirkungen
  • 48:22 - 48:26
    noch nicht zu Ende. Es geht auch darum,
    wie wir unsere Infrastruktur belasten, wie
  • 48:26 - 48:30
    wir Straßen, Städte, Gebäude und so weiter
    beanspruchen für den Bau, für den Betrieb,
  • 48:30 - 48:33
    für den Transport. Für die Vernetzung von
    den ganzen Systemen, die wir für diesen
  • 48:33 - 48:36
    Forschungszweig brauchen. Es geht darum,
    was wir für Platz beanspruchen mit
  • 48:36 - 48:41
    Forschungszentren, mit Datenzentren, mit
    Supercomputern und GPU Produktion. Es geht
  • 48:41 - 48:45
    darum, wie viel Arbeitskraft und wie viel
    Zeitaufwand gebunden ist. Nur um ein neues
  • 48:45 - 48:48
    Netz zu forschen. Es geht darum, wie viel
    Forschungsgelder darin investiert werden,
  • 48:48 - 48:51
    mit denen man noch andere Dinge tun
    könnte. Es geht um endliche Ressourcen
  • 48:51 - 48:55
    unserer Erde wie Metalle wie die
    sogenannten Seltenen Erden oder wie Erdöl,
  • 48:55 - 49:00
    die dafür gebraucht werden. Und es gibt
    noch so viel mehr. Das war nur ein ganz
  • 49:00 - 49:03
    kleiner Einblick in das Thema, und es ist
    ganz wichtig: Es geht nicht nur um den
  • 49:03 - 49:07
    Stromverbrauch. Die Awareness an der
    Stelle ist noch viel zu niedrig, um
  • 49:07 - 49:12
    darüber quantitativ Aussagen treffen zu
    können. Aber es ist auf jeden Fall ein
  • 49:12 - 49:16
    Faktor. So viel wissen wir. Wir kommen
    damit auch schon zur Frage: Wie kann es
  • 49:16 - 49:22
    eigentlich weitergehen?
    Benjamin: Wichtig ist, dass wir alle uns
  • 49:22 - 49:26
    bewusst sind, dass wir die Verantwortung
    tragen, wie es in dem Bereich weitergeht.
  • 49:26 - 49:30
    Denn sowohl die Leute, die in diesem Land
    arbeiten, aber auch in allen Bereichen,
  • 49:30 - 49:36
    die damit verbunden sind. Wir forschen.
    Wir bauen Systeme. Wir sorgen dafür, dass
  • 49:36 - 49:40
    solche Systeme weiter entstehen, dass sie
    wichtiger werden, dass sie, obwohl wir
  • 49:40 - 49:43
    wissen, dass zum Beispiel das alles der
    Generalisierung, aus Vereinfachungen
  • 49:43 - 49:48
    besteht. Dass sie trotzdem für Dinge
    eingesetzt werden. Wir sorgen dafür, dass
  • 49:48 - 49:54
    unsere Sensorik, die wir in Autos
    verbauen, irgendwelche 25 Gigabyte pro
  • 49:54 - 49:57
    Stunde an Daten produzieren, die man dann
    wieder auswerten, um daraus etwas machen
  • 49:57 - 50:03
    kann. Wir sorgen dafür, dass Systeme
    optimiert werden. Wir sorgen dafür, dass
  • 50:03 - 50:09
    das gebaut werden für die Industrie, damit
    das komische Hautpflegeprodukten
  • 50:09 - 50:14
    plötzlich KI optimiert ist. Das kann
    man natürlich alles einfach so machen,
  • 50:14 - 50:19
    weil man in dem Bereich gut Geld verdienen
    kann. Ist aber vermutlich keine gute Idee,
  • 50:19 - 50:23
    sondern man sollte sich wirklich
    überlegen: Was sind die Konsequenzen von
  • 50:23 - 50:27
    dem Ganzen, und was müssten wir eigentlich
    alle ändern, um dieses ganze Feld
  • 50:27 - 50:34
    weiterzutreiben? Denn, das ist das Schöne,
    zumindest im Forschungssektor. Es ist
  • 50:34 - 50:38
    alles von der Community angetrieben. Es
    ist immer eine Entscheidung von allen
  • 50:38 - 50:44
    Forscher in den ganzen Bereichen, ob sie
    genauso weitermachen oder ob sie ihre
  • 50:44 - 50:51
    Arten schieben, ob sie anders agieren, ob
    sie mehr und mehr auf solche Dinge achten
  • 50:51 - 50:54
    oder eben nicht.
    Nadja: Grundsätzlich um weiterzumachen,
  • 50:54 - 50:56
    gerade um die gesellschaftlichen
    Auswirkungen des Themas zu beeinflussen.
  • 50:56 - 51:00
    Was müssen wir anstreben? Wir müssen
    Diskurs anstreben. Wir müssen mit der
  • 51:00 - 51:03
    gesamten Gesellschaft, mit einer riesigen
    Breite an Menschen darüber reden. Was
  • 51:03 - 51:06
    wollen wir von diesen Systemen? Unter
    welchen Umständen machen wir das System?
  • 51:06 - 51:10
    Was sind die Auflagen, die wir stellen,
    was akzeptabel und was nicht? Das
  • 51:10 - 51:12
    funktioniert nicht, wenn diese
    Entscheidungen getroffen werden von fünf
  • 51:12 - 51:15
    Leuten, die irgendwie ihre eigenen
    Interessen vertreten müssen. Das ist ein
  • 51:15 - 51:18
    Diskurs, der auf jeden Fall in die
    gesellschaftliche Breite gehen muss. Es
  • 51:18 - 51:21
    gibt einfach keine klare Antwort, und die
    Antworten, die wir brauchen, die müssen
  • 51:21 - 51:24
    wir zusammen finden. Wir müssen aber auch
    Bildung auf allen Ebenen vorantreiben.
  • 51:24 - 51:28
    Weil ich muss als Informatikerin auch die
    ethischen Auswirkungen eines Handelns
  • 51:28 - 51:33
    bedenken. Ich muss auch dem Enduser sagen
    können, was das bedeutet, wenn er etwas
  • 51:33 - 51:37
    einsetzt. Auch wenn er die technischen
    Details nicht versteht, muss er in der
  • 51:37 - 51:40
    Lage sein einzuschätzen, ob der Einsatz an
    der Stelle sinnvoll ist und gerade auch
  • 51:40 - 51:43
    die Menschen, die die Legislatur
    vorantreiben. Diese Menschen sollte es auf
  • 51:43 - 51:46
    jeden Fall geben müssen, genug davon
    verstehen und auch wirklich einschätzen
  • 51:46 - 51:49
    können, was sie da gerade erlauben oder
    nicht erlauben, damit wir auch die
  • 51:49 - 51:54
    positiven Aspekte solcher Felder mitnehmen
    können. Awareness ist ganz besonders
  • 51:54 - 51:57
    wichtig, damit wir diesen Diskurs führen
    können. Damit wir diese Bildung
  • 51:57 - 52:00
    vorantreiben kann, müssen wir darüber
    reden: Wie funktionieren unsere Daten?
  • 52:00 - 52:03
    Unter welchen Umständen verwenden wir sie?
    Wo kommen die Modelle her? Wie
  • 52:03 - 52:06
    funktionieren Erklärbarkeit und
    Reproduzierbarkeit? Aber auch wer trägt
  • 52:06 - 52:09
    die Verantwortung? Was sind die
    Konsequenzen? Und wie führen wir diesen
  • 52:09 - 52:14
    Diskurs? Am Ende gilt: Wir müssen
    umdenken, statt nur zu folgen. Es
  • 52:14 - 52:17
    funktioniert nicht, wenn wir einfach so
    weitermachen wie bisher. Sondern wir
  • 52:17 - 52:21
    müssen in manchen Dingen einfach
    grundlegend auch nochmal nachdenken. Viele
  • 52:21 - 52:24
    dieser Maßnahmen sind tatsächlich doppelt
    hilfreich, begünstigen sich gegenseitig.
  • 52:24 - 52:27
    Wir stecken da nicht unbedingt in einem
    Teufelskreis. Wenn wir systematisch
  • 52:27 - 52:30
    arbeiten, dann tun wir der
    Reproduzierbarkeit gefallen. Aber auch
  • 52:30 - 52:34
    unseren Ressourcenverbrauch, weil wir viel
    weniger nochmal machen müssen, wenn wir
  • 52:34 - 52:37
    die Alternativen zu Deep Learning auch
    nutzen, tun wir der Erklärbarkeit
  • 52:37 - 52:40
    Gefallen, aber auch der Datensparsamkeit.
    Wahrscheinlich, wenn wir den Publications
  • 52:40 - 52:44
    Druck senken und damit die Qualität in die
    Höhe schreiben. Dann fördern wir den
  • 52:44 - 52:47
    wissenschaftlichen Anspruch, und wir
    helfen unserem Ressourcenverbrauch. Aber
  • 52:47 - 52:50
    insgesamt ist unsere große Herausforderung
    momentan in der Gesellschaft verbreitete
  • 52:50 - 52:53
    Unwissenheit, und das nicht richtig
    reflektiert wird, was das für Auswirkungen
  • 52:53 - 52:58
    hat, was wir machen und in welchen Skalen
    bewegen. Damit sagen wir fürs Erste auch
  • 52:58 - 53:01
    schon Danke, schön, dass Sie hier waren.
    Wir haben uns wirklich gefreut gesagt. So
  • 53:01 - 53:04
    dürfen wir hoffen. Wir geben ein paar
    Denkanstöße mit. Wir können dieses Thema
  • 53:04 - 53:07
    nur sehr, sehr oberflächlich einsteigen in
    50 Minuten. Wir sind jetzt schon relativ
  • 53:07 - 53:10
    weit in der Zeit. Trotzdem haben wir noch
    ein paar Minuten für Fragen, aber auch
  • 53:10 - 53:13
    über den Vortrag hinaus. Sind wir da froh,
    wenn Leute sich informieren,
  • 53:13 - 53:19
    recherchieren, selbst kritisieren und
    reflektieren oder auf uns zukommen.
  • 53:19 - 53:19
    Dankeschön.
  • 53:19 - 53:25
    Applaus
  • 53:25 - 53:29
    Herald: Okay, alles klar. Wir haben noch
    ein paar Minuten Zeit für Fragen.
  • 53:29 - 53:33
    Damit wir auch möglichst viele und zügig
    durchkommen. Bewegt euch doch bitte direkt
  • 53:33 - 53:38
    zu den Mikrofonen. Und wir fangen direkt
    hier mit Mikrofon 4 and.
  • 53:38 - 53:46
    Mik 4: Ich versuche, mich kurz zu halten.
    KI für Autos ist ziemlich faszinierend,
  • 53:46 - 53:51
    die unterscheidet zuverlässig zwischen
    einem Baum und einem Verkehrsschild. Ich
  • 53:51 - 53:56
    bin immer wieder enttäuscht, wenn ich KI
    sehe für Suchmaschinenoptimierung, was ich
  • 53:56 - 54:02
    da angeboten bekomme. Ich glaube, das
    Problem ist die Datengrundlage. Ein Baum,
  • 54:02 - 54:06
    da gibts keine Diskussion. Das ist ein
    Baum. Was ist die schönste Website ist
  • 54:06 - 54:13
    oder das nächstbeste Video? Das ist eine
    Geschmacksfrage. Worauf ich hinaus möchte:
  • 54:13 - 54:19
    wäre es nicht sinnvoll oder dringend
    notwendig, darüber nachzudenken, wie die
  • 54:19 - 54:24
    Trainingsdaten qualifiziert sind, ob man
    die qualitativ einsortieren sollte?
  • 54:24 - 54:30
    Nadja: Ich stimme soweit absolut zu,
    Trainingstagendiskussion steht an. Müssen
  • 54:30 - 54:34
    wir führen? Qualität ist extrem wichtig.
    Das Problem geht aber noch darüber hinaus.
  • 54:34 - 54:39
    Zum einen die Frage mit dem Auto und dem
    Fußgänger, wie uns der Überkräsch 2018
  • 54:39 - 54:42
    gezeigt hat, gar nicht so trivial.
    Festgestellt haben die Annahme, dass
  • 54:42 - 54:45
    Fußgänger nur auf dem Fußgängerüberweg zu
    finden ist, das vielleicht gar nicht so
  • 54:45 - 54:50
    realistisch. Trivial ist es also nicht.
    Natürlich sind Suchmaschinen auch eine
  • 54:50 - 54:54
    subjektive Entscheidung. Weil was ich
    suche, weiß am Ende nur ich. Jemand mit
  • 54:54 - 54:56
    der gleichen Suchanfrage sucht vielleicht
    etwas anderes. Natürlich ist das Internet
  • 54:56 - 55:00
    einfach eine extrem riesige Datenbasis mit
    sehr unsauberen Daten. Das heißt, dass es
  • 55:00 - 55:03
    eine völlig andere Herausforderung als
    Bildklassifikation von autonomen
  • 55:03 - 55:06
    Fahrzeugen. Grundsätzlich Trainingstagen,
    Diskussionen, aber auch über das Monopol
  • 55:06 - 55:10
    von solchen Unternehmen, wie Google.
    Gerade was Suchmaschinen angeht, müssen
  • 55:10 - 55:14
    wir definitiv reden. Herald: Alles was,
    dann machen wir direkt weiter mit einer
  • 55:14 - 55:19
    Frage vom Signal-Engel aus dem Internet.
    Signal-Engel: Das Internet fragt: Sollen
  • 55:19 - 55:23
    wir das mit dem Deep Learning dann
    eigentlich lieber lassen? Oder seht ihr
  • 55:23 - 55:27
    auch sinnvolle Anwendungen, zum Beispiel
    um irgendeinen hohen Datenaufwand für
  • 55:27 - 55:31
    freigiebige Nutzer irgendwie zu reduzieren
    zum Beispiel.
  • 55:31 - 55:35
    Benjamin: Es sein zu lassen, ist
    sicherlich nicht der richtige Ansatz. Das
  • 55:35 - 55:39
    zeigt sich ja, dass Deep Learming für
    bestimmte Dinge sehr wertvoll ist. Wir
  • 55:39 - 55:43
    haben jetzt Beispiele gezeigt, wo es gut
    funktioniert, schlechter funktioniert.
  • 55:43 - 55:48
    Gerade bei komplexen Dingen haben wir
    wenig Ansätze, die anders gut
  • 55:48 - 55:52
    funktionieren. Die Verarbeitung
    menschlicher Sprache zum Beispiel hat
  • 55:52 - 55:56
    einen Riesenschritt nach vorne gemacht
    durch die Deep Learning, weil menschliche
  • 55:56 - 55:59
    Sprache so unglaublich komplex ist, dass
    ich mit allen bisherigen Ansatz, bei denen
  • 55:59 - 56:02
    ich Silben zähle und Buchstaben vergleiche
    oder so etwas nicht so wirklich
  • 56:02 - 56:07
    weiterkomme. Da brauche ich ganz viel
    Wissen rein. Das heißt, man muss, aber man
  • 56:07 - 56:12
    muss sich eben überlegen. Ist es für
    diesen Zweck der richtige Ansatz? Also,
  • 56:12 - 56:17
    ich will das jetzt nicht pauschal
    beantworten. Das muss man sich gründlich
  • 56:17 - 56:22
    überlegen. Das sollte sicher Message sein.
    Nadja: Wir stellen im Prinzip nicht die
  • 56:22 - 56:24
    Frage: Sollten wir die Planung verwenden,
    sondern Wofür sollten wir es verwenden?
  • 56:24 - 56:29
    Und was müssen wir vorher bedenken?
    Herald: Ich versuche, es mit den Fragen
  • 56:29 - 56:33
    hier im Raum so halbwegs chronologisch zu
    machen. Aber mit Mikro 1 weiter.
  • 56:33 - 56:38
    Mik 1: Eine Frage zur Reproduzierbarkeit.
    Ich saß gerade in einem Lightening Talk,
  • 56:38 - 56:44
    Da hatte jemand genau das Problem, das
    nicht reproduzieren konnte. Eine seiner
  • 56:44 - 56:48
    Hauptforderungen, um das zu beheben, war,
    das alles, was man braucht, zum
  • 56:48 - 56:52
    Reproduzieren zur Verfügung gestellt wird
    und dass das auch von Journals enforced
  • 56:52 - 56:57
    wird. Über Reviews oder über irgendwelche
    andere Sachen. Sieht Ihr, dass es
  • 56:57 - 57:01
    irgendwelche Bestrebungen in diese
    Richtung gibt. Oder es ist ein zu großer
  • 57:01 - 57:05
    Hype, als dass man da irgendwie eingreifen
    könnte sinnvoll.
  • 57:05 - 57:08
    Benjamin: Es gibt, wie
    gesagt,
  • 57:08 - 57:14
    diese Sigel bei vielen Konferenzen,
    sicherlich auch bei Journals. Je nach Feld
  • 57:14 - 57:17
    in dem Bereich, hier wird gar nicht so
    viel in Journals publiziert, weil man
  • 57:17 - 57:21
    Konferenzen leichter hinkriegt. Und alles
    geht schneller, Journals dauert irgendwie
  • 57:21 - 57:25
    immer zu lang. Es wäre
    wünschenswert, dass da mehr passiert.
  • 57:25 - 57:30
    Dafür müssen sich aber quasi
    diese Ältestenrates, die sich
  • 57:30 - 57:33
    zusammensetzen und diese Konferenzen
    planen, organisieren, dafür entscheiden,
  • 57:33 - 57:38
    dass für sie das auf der Liste auch so
    weit oben ist, dass sie das erzwingen.
  • 57:38 - 57:41
    Bisher ist es alles optional.
    Wünschenswert wäre es definitiv.
  • 57:41 - 57:44
    Nadja: Sicherlich reden wir doch in
    irgendeiner Form über Regularien. Und
  • 57:44 - 57:47
    dabei müssen wir dann immer noch
    unterscheiden zwischen öffentlich
  • 57:47 - 57:50
    geförderten Forschungseinrichtungen und
    privater Forschung. Das ist nämlich sehr
  • 57:50 - 57:55
    unterschiedliche Herausforderungen.
    Herald: Okay, dann gehen wir gerade mal
  • 57:55 - 58:01
    kurz zum Mikro Nr. 7 da ganz am Rand.
    Mik 7: Hallo, danke für den Vortrag.
  • 58:01 - 58:06
    Haltet ihr AGI für möglich? Und wann
    könnte es soweit sein?
  • 58:06 - 58:09
    Nadja: AGI Omnipotenz, Intelligenz oder
    ...
  • 58:09 - 58:14
    Mik 7: Artifical General Intelligence.
    Nadja: Momentaner Forschungsstand "Hell
  • 58:14 - 58:18
    know". Das war eine relativ
    unprofessionelle Antwort. Aber momentan
  • 58:18 - 58:21
    haben wir hauptsächlich sehr
    spezialisierte Expertensysteme, die genau
  • 58:21 - 58:25
    ein detailreichen Task machen kann. Selbst
    bei Sprachassistenzsystemen, die irgendwie
  • 58:25 - 58:30
    ein Paar Tasks, die noch immer eine sehr
    eingeschränkte Menge machen, haben in
  • 58:30 - 58:33
    aktuellen Forschungsstand zwar große
    Fortschritte, aber man kann sie ja sehr
  • 58:33 - 58:37
    einfach die Schwächen ausnutzen. Es gibt
    eine total spannende Professorin in USA,
  • 58:37 - 58:40
    die sagt, gibt mir irgendeinen
    Sprachverarbeitungsystem, in drei Fragen
  • 58:40 - 58:43
    mache ich spätestens kaputt, und sie hat
    es bisher immer geschafft. Wir haben
  • 58:43 - 58:47
    momentan mit dem aktuellen Stand der
    Technik ziemlich krasse Limitationen in
  • 58:47 - 58:52
    den nächsten Jahren. Ich persönlich nicht
    kommen. Grundsätzlich ist die künstliche
  • 58:52 - 58:55
    Intelligenz aber auf allen Ebenen etwas,
    das sie im Auge behalten sollen. Also ich
  • 58:55 - 58:58
    würde auch wiederum nicht behaupten, dass
    davon keinerlei Gefahr ausgeht.
  • 58:58 - 58:59
    Benjamin: Es ist aber
    auch nicht der
  • 58:59 - 59:02
    zentrale Punkt zur Zeit.
    Das meiste, was, woran die Leute
  • 59:02 - 59:06
    forschen, sind spezialisierte Systeme und
    vielleicht noch zusätzliche Systeme, die
  • 59:06 - 59:09
    vorne dran gestellt werden, die dann
    entscheiden, an welches Teilsystem das
  • 59:09 - 59:14
    Ganze weitergereicht wird. Aber daran zu
    forschen, ein weltverstehendes System, was
  • 59:14 - 59:18
    irgendwie auch noch beliebige Formate von
    Antworten geben kann, so sowas zu bauen,
  • 59:18 - 59:22
    das gibt es sicherlich die Forschung. Aber
    es ist nicht das, was irgendwie auch in
  • 59:22 - 59:26
    den Publikationen Platz findet, weil man
    dort überhaupt nicht soweit wäre und das
  • 59:26 - 59:29
    andere einfach viel einfacher ist und man
    da vielleicht was veröffentlichen kann.
  • 59:29 - 59:32
    Wen das Fachliche interessiert, wäre das ein
    schönes Einstiegspunt in das ein semantische
  • 59:32 - 59:35
    Modellierung. Weil wir bei vielen
    Künstliche Intelligenzen darüber sprechen,
  • 59:35 - 59:38
    ist das Allgemeinwissen,
    Hintergrundwissen, diese ganzen Sachen
  • 59:38 - 59:41
    fehlen und die Darstellung dafür auch. Das
    ist eine der großen Herausforderungen,
  • 59:41 - 59:44
    so als Stichwort.
    Herald: Okay. Nehmen wir doch eine Frage
  • 59:44 - 59:48
    aus dem Internet.
    Signal-Engel: Ich sage erst mal Liebe
  • 59:48 - 59:54
    Grüße aus D. 120, das wisst ihr jetzt
    besser als ich. Nadja lacht Die Frage
  • 59:54 - 59:58
    ist Ist die Reproduzierbarkeit nur oder
    gerade im Deep Learning ein Problem, oder
  • 59:58 - 60:02
    betrifft das nicht sogar große Teile der
    machienelearning Forschung?
  • 60:02 - 60:03
    Nadja: Definitiv große Teile
    der machiene learning
  • 60:03 - 60:05
    Forschung. Ehrlich gesagt auch
    darüber hinaus.
  • 60:05 - 60:09
    Reproduzierbarkeit ist bei
    fast allen wissenschaftlichen
  • 60:09 - 60:12
    Publikationen ein Faktor, es gibt nur die
    Sachen, die dafür anfälliger und weniger
  • 60:12 - 60:15
    anfällig sind. Gerade wenn man über
    digitale Themen reden. Aber an sich
  • 60:15 - 60:18
    Reproduzierbarkeit ist immer in der
    Forschung gewünscht und leider nicht weit
  • 60:18 - 60:21
    genug verbreitet. Also defintiv die
    gesamte Informatik generell.
  • 60:21 - 60:28
    Benjamin: Generell vieles, was wir hier
    gesagt haben, trifft auf machiene learning
  • 60:28 - 60:32
    im Allgemeinen zu. Aber das Deep Learning,
    gerade durch diese riesigen Datenmengen
  • 60:32 - 60:36
    und so weiter. Da treten die Effekte
    verstärken besonders auf. Deswegen haben
  • 60:36 - 60:39
    wir uns hier darauf konzentriert. Aber man
    kann es auch beliebig...
  • 60:39 - 60:42
    Nadja: Und gerade weil es ein Passwort
    ist, macht es auch nochmal
  • 60:42 - 60:46
    anfälliger dafür .
    Herald: Ok, dann Mikrophon Nr. 8.
  • 60:46 - 60:51
    Mik 8: Daran anschließend. Ich hab
    irgendwie das Gefühl, dass es ein großer
  • 60:51 - 60:56
    Teil auch Publicationsbios ist, wo so
    lange gespielt wird an den Daten, bis
  • 60:56 - 61:03
    irgendwie ein Ergebnis raus kommt. Und ich
    hab, es ist so einen Trend in der Psychologie, wo
  • 61:03 - 61:06
    die das Problem ganz massiv hatten. Und
    die haben das dadurch gelöst, dass die
  • 61:06 - 61:11
    sagen, Hey, ich muss die Studien bei
    manchen Journals vorregistrieren, so: Dass
  • 61:11 - 61:15
    sind meine. Das möchte ich machen. Und
    dann kommt am Ende vielleicht ein
  • 61:15 - 61:20
    negativer Ergebnis raus. Gibt es da
    Bemühungen, machiene learning, sodass man
  • 61:20 - 61:25
    sagt: Ich publiziere den Korpus vorher,
    den ich auf dem ich lernen will, und wenn
  • 61:25 - 61:28
    dann nichts funktioniert, dann ist das
    halt so.
  • 61:28 - 61:29
    Nadja: Ich würde
    sagen, es ist relativ schwer
  • 61:29 - 61:33
    zu beantworten für den Bereich,
    weil es vielleicht nicht ganz so
  • 61:33 - 61:37
    funktioniert. Ein Datenkorpus zu
    publizieren an sich. Es gibt zum Daten
  • 61:37 - 61:41
    Konferenzen, die sich einfach auf sowas
    konzentrieren. Aber auf einem Korpus kann
  • 61:41 - 61:46
    ich sehr viele Dinge tun, und dadurch
    hilft mir das noch nicht unbedingt. Ich
  • 61:46 - 61:51
    glaube, dass da die Fragestellung einfach
    komplexer ist. Ich kenne keine konkreten
  • 61:51 - 61:53
    Bemühungen, die jetzt in eine Richtung
    gehen. Ich fände es wünschenswert...
  • 61:53 - 61:59
    Benjamin: Es wäre definitiv wünschenswert.
    Aber es wird in der Form kaum gemacht. Es
  • 61:59 - 62:03
    sind eben keine. Ich bin bisher fast
    nirgendwo. Oder bei den großen
  • 62:03 - 62:08
    Konferenzen bin ich niemals gezwungen,
    vorher zu sagen, was ich glaube, wie es
  • 62:08 - 62:13
    ausgeht, sondern ich liefere erst wenn ich
    mein Ergebnis vorstelle, sage ich, was da
  • 62:13 - 62:18
    rauskommt und welche Fehlschläge ich hatte
    und ob ich überhaupt verklausuliert ins
  • 62:18 - 62:21
    Paper reinschreiben oder ob es komplett
    sein lasse. Da zwingt mich niemand zu.
  • 62:21 - 62:24
    Nadja: Es gibt ein paar Bestrebungen, die
    Publikation von Fehlschlägen oder
  • 62:24 - 62:28
    Messergebnissen zu machen. Aber auch das
    wird immer noch von so vielen Leuten
  • 62:28 - 62:32
    belächelt, so als Unterhaltungsmedium mehr
    als ernst zu nehmende Wissenschaft. Das
  • 62:32 - 62:34
    glaube ich auch ein Problem, weil
    dadurch die gleichen
  • 62:34 - 62:36
    Fehler z.B. im machiene learning,
    gerade wo wir nicht
  • 62:36 - 62:38
    systematisch arbeiten,
    sondern auch ein bisschen nach
  • 62:38 - 62:42
    Bauchgefühl gehen müssen, wiederholt
    werden, was eigentlich unmöglich ist.
  • 62:42 - 62:46
    Dieser typische Satz, das weiß man doch,
    dass der Ansatz da nicht funktioniert.
  • 62:46 - 62:48
    Woher soll man das wissen, wenn
    man noch studiert?
  • 62:48 - 62:54
    Herald: Okay, wir haben noch Zeit für eine
    kurze Frage und gehen zum Mikrofon 5.
  • 62:54 - 63:02
    Mik 5: Ich will ein paar Details zu dieser
    Beschreibung von Black Box Wissen. Ich
  • 63:02 - 63:09
    weiß, dass man durch featuremaps das
    Netzwerk untersuchen kann, und wollte
  • 63:09 - 63:14
    wissen, was hier eine Blackbox, weil es
    ist nicht so Black entscheidend.
  • 63:14 - 63:18
    Nadja: Es kommt drauf an wie die Systeme
    gebaut sind. Es gibt zum Beispiel einen
  • 63:18 - 63:24
    Ansatz von Explainable Neural Netz (ExNN),
    durchaus Valides Konzepts, und es wird
  • 63:24 - 63:29
    auch eingesetzt. Es gibt aber auch
    Architekturen, die per se erst einmal
  • 63:29 - 63:34
    völlig unlesbar sind, und die Ansätze, die
    darauf existierende Erklärbarkeit
  • 63:34 - 63:37
    reinzubringen, sind noch sehr beschränkt.
    Es gibt sie. Sie tun auch sinnvolle Dinge
  • 63:37 - 63:41
    im Bereich, aber zum Beispiel beschränken
    sie sich oft nur auf den Bereich des
  • 63:41 - 63:45
    eigentlichen Modells, was trainiert wurde.
    Die Pipeline der Maschinenlearning ist aber
  • 63:45 - 63:49
    viel länger. Die beginnt ja schon bei der
    Datenerhebung, bei der Auswahl, bei der
  • 63:49 - 63:52
    Verarbeitung. Bei der Auswahl der
    Features, aber auch beim PostProcessing,
  • 63:52 - 63:56
    bei Evaluationsmetriken und so weiter.
    Das sind alles irgendwo Stellschrauben für
  • 63:56 - 64:00
    Erklärbarkeit. Wir haben da auf jeden Fall
    noch einen weiten Weg vor uns. Aber klar,
  • 64:00 - 64:03
    es gibt Bestrebungen in die Richtung, die
    auch durchaus funktionieren
  • 64:03 - 64:06
    für das, wofür Sie gedacht sind.
    Herald: Okay, dann sind wir am Ende der
  • 64:06 - 64:11
    Zeit angekommen. Vielen Dank nochmal Nadja
    und Benjamin.
  • 64:11 - 64:16
    Applaus
  • 64:16 - 64:35
    36c3 Abspannmusik
  • 64:35 - 64:39
    Untertitel erstellt von c3subtitles.de
    im Jahr 2020. Mach mit und hilf uns!
Title:
36C3 - Der Deep Learning Hype
Description:

more » « less
Video Language:
German
Duration:
01:04:43

German subtitles

Revisions