Return to Video

Die wundervollen und erschreckenden Folgen lernender Computer

  • 0:01 - 0:05
    Wenn man früher wollte,
    dass ein Computer etwas Neues tat,
  • 0:05 - 0:07
    musste man ihn programmieren.
  • 0:07 - 0:10
    Für alle, die es noch nie
    selbst probiert haben:
  • 0:10 - 0:13
    Beim Programmieren
    muss man bis ins kleinste Detail
  • 0:13 - 0:17
    jeden einzelnen Schritt definieren,
    den der Computer erledigen soll,
  • 0:17 - 0:19
    um sein Ziel zu erreichen.
  • 0:19 - 0:23
    Will man also etwas tun,
    was man selbst noch nicht kann,
  • 0:23 - 0:25
    dann wird das eine große Herausforderung.
  • 0:25 - 0:28
    Dieser Herausforderung stellte sich
    dieser Mann, Arthur Samuel.
  • 0:28 - 0:32
    1956 wollte er diesem Computer beibringen,
  • 0:32 - 0:35
    ihn im Spiel Dame zu schlagen.
  • 0:35 - 0:37
    Wie kann man ein Programm schreiben
  • 0:37 - 0:40
    und bis ins kleinste Detail definieren,
    wie man sich selbst in Dame übertrifft?
  • 0:40 - 0:42
    Also hatte er eine Idee:
  • 0:42 - 0:46
    Er ließ den Computer tausende Male
    gegen sich selbst spielen,
  • 0:46 - 0:48
    sodass er Dame spielen lernte.
  • 0:48 - 0:52
    Das funktionierte wirklich, und schon 1962
  • 0:52 - 0:56
    besiegte dieser Computer
    den Landesmeister von Connecticut.
  • 0:56 - 0:59
    Arthur Samuel war also
    der Urvater des Maschinellen Lernens
  • 0:59 - 1:00
    und ich schulde ihm viel,
  • 1:00 - 1:03
    denn ich bin ein Fachmann
    im Maschinellen Lernen.
  • 1:03 - 1:04
    Ich war Präsident von Kaggle,
  • 1:04 - 1:08
    einer Plattform von über 200 000
    Fachleuten für Maschinelles Lernen.
  • 1:08 - 1:10
    Kaggle veranstaltet Wettbewerbe,
  • 1:10 - 1:14
    bei denen bisher ungelöste Probleme
    gelöst werden sollen,
  • 1:14 - 1:17
    und das war schon
    hunderte Male erfolgreich.
  • 1:17 - 1:20
    Aus dieser Warte habe
    ich viel darüber gelernt,
  • 1:20 - 1:24
    was Maschinelles Lernen
    früher konnte, was es heute kann
  • 1:24 - 1:26
    und was es zukünftig vollbringen könnte.
  • 1:26 - 1:31
    Der vielleicht erste kommerzielle Erfolg
    im Maschinellen Lernen war Google.
  • 1:31 - 1:33
    Google hat bewiesen,
    dass man Informationen
  • 1:33 - 1:36
    über einen Computeralgorithmus
    finden kann,
  • 1:36 - 1:38
    der auf Maschinellem Lernen basiert.
  • 1:38 - 1:42
    Seitdem gab es viele kommerzielle Erfolge
    im Maschinellen Lernen.
  • 1:42 - 1:44
    Firmen wie Amazon oder Netflix
  • 1:44 - 1:48
    nutzen Maschinelles Lernen
    für Kaufempfehlungen
  • 1:48 - 1:50
    oder Filmvorschläge.
  • 1:50 - 1:52
    Manchmal ist das beinahe gruselig.
  • 1:52 - 1:54
    Firmen wie LinkedIn oder Facebook
  • 1:54 - 1:56
    schlagen Ihnen manchmal neue Freunde vor
  • 1:56 - 1:58
    und Sie haben keine Ahnung, wie das geht,
  • 1:58 - 2:01
    und genau das ist die Macht
    des Maschinellen Lernens.
  • 2:01 - 2:04
    Diese Algorithmen haben
    anhand vorhandener Daten gelernt,
  • 2:04 - 2:07
    anstatt von Hand programmiert zu werden.
  • 2:07 - 2:11
    So konnte auch IBM Watson dazu bringen,
  • 2:11 - 2:14
    die zwei Weltmeister
    der Quizshow "Jeopardy" zu schlagen,
  • 2:14 - 2:16
    wo man knifflige, komplexe Fragen
    beantworten musste, z. B.:
  • 2:16 - 2:19
    ["2003 verschwand u. a.
    der antike 'Löwe von Nimrud'
  • 2:19 - 2:21
    aus dem Museum dieser Stadt."]
  • 2:21 - 2:23
    Daher gibt es nun
    erste selbstfahrende Autos.
  • 2:23 - 2:25
    Will man den Unterschied
  • 2:25 - 2:28
    etwa zwischen Baum und
    Fußgänger erkennen, ist das wichtig.
  • 2:28 - 2:31
    Wir wissen nicht, wie man
    solche Programme schreibt,
  • 2:31 - 2:34
    aber durch Maschinelles Lernen
    ist das jetzt möglich.
  • 2:34 - 2:37
    Dieses Auto ist schon über 1 Mio. km
  • 2:37 - 2:40
    ohne den kleinsten Unfall
    auf normalen Straßen gefahren.
  • 2:40 - 2:44
    Wir wissen also,
    dass Computer lernen können
  • 2:44 - 2:46
    und dass sie auch Dinge lernen können,
  • 2:46 - 2:49
    von denen wir nicht wissen,
    wie sie funktionieren,
  • 2:49 - 2:52
    und manchmal sogar besser als wir.
  • 2:52 - 2:56
    Eines der faszinierendsten Beispiele
    für Maschinelles Lernen
  • 2:56 - 2:58
    habe ich bei einem meiner
    Kaggle-Projekte gesehen,
  • 2:58 - 3:02
    als ein Team unter der Leitung
    von Geoffrey Hinton
  • 3:02 - 3:03
    von der Universität Toronto
  • 3:03 - 3:06
    den Wettstreit für automatische
    Drogenerkennung gewann.
  • 3:06 - 3:09
    Außergewöhnlich war
    daran nicht nur ihr Sieg
  • 3:09 - 3:13
    gegen all die Algorithmen von Merck
    und der internationalen akademischen Welt,
  • 3:13 - 3:18
    sondern, dass das Team kein Vorwissen
    zu Chemie oder Biowissenschaften hatte
  • 3:18 - 3:20
    und nur zwei Wochen brauchte.
  • 3:20 - 3:22
    Wie haben sie das gemacht?
  • 3:22 - 3:25
    Sie nutzten einen besonderen
    Algorithmus namens Deep Learning.
  • 3:25 - 3:28
    Ihr Erfolg war so bedeutend,
  • 3:28 - 3:31
    dass er wenig später auf der Titelseite
    der NY Times erschien.
  • 3:31 - 3:34
    Hier auf der linken Seite
    sehen Sie Geoffrey Hinton.
  • 3:34 - 3:38
    Deep Learning basiert auf der Funktion
    des menschlichen Gehirns
  • 3:38 - 3:40
    und deswegen ist es ein Algorithmus,
  • 3:40 - 3:44
    dessen Funktion theoretisch
    keine Grenzen gesetzt sind.
  • 3:44 - 3:47
    Je mehr Daten und Rechenzeit man hat,
  • 3:47 - 3:48
    desto besser wird er.
  • 3:48 - 3:51
    Die New York Times zeigte in ihrem Artikel
  • 3:51 - 3:53
    noch ein Resultat des Deep Learning,
  • 3:53 - 3:56
    das ich Ihnen jetzt vorstellen will.
  • 3:56 - 4:01
    Es beweist, dass Computer
    zuhören und verstehen können.
  • 4:01 - 4:06
    Richard Rashid (Video):
    Als letzten Schritt in diesem Prozess
  • 4:06 - 4:11
    werde ich Chinesisch mit Ihnen sprechen.
  • 4:11 - 4:14
    Als wichtigsten Schritt haben wir
  • 4:14 - 4:19
    anhand großer Informationsmengen
    von vielen Chinesisch-Sprechern
  • 4:19 - 4:21
    ein Text-zu-Sprache-System gebaut,
  • 4:21 - 4:26
    das chinesischen Text
    in chinesche Sprache umwandelt,
  • 4:26 - 4:31
    und dann haben wir eine etwa einstündige
    Aufnahme meiner Stimme benutzt,
  • 4:31 - 4:36
    um das Text-zu-Sprache-System
    so zu ändern, dass es wie ich klingt.
  • 4:36 - 4:39
    Wieder ist das Ergebnis nicht perfekt.
  • 4:39 - 4:42
    Eigentlich hat es sogar
    ganz schön viele Fehler.
  • 4:42 - 4:44
    (Auf Chinesisch)
  • 4:44 - 4:47
    (Applaus)
  • 4:49 - 4:53
    In diesem Bereich ist noch viel zu tun.
  • 4:53 - 4:57
    (Chinesisch)
  • 4:57 - 5:00
    (Applaus)
  • 5:01 - 5:05
    Jeremy Howard: Das war eine Konferenz
    zu Maschinellem Lernen in China.
  • 5:05 - 5:07
    Übrigens hört man
    bei akademischen Konferenzen
  • 5:07 - 5:09
    nur ganz selten Zwischenapplaus,
  • 5:09 - 5:13
    obwohl das bei TEDx-Konferenzen
    durchaus erwünscht sein kann.
  • 5:13 - 5:15
    Was Sie eben gesehen haben,
    basiert auf Deep Learning.
  • 5:15 - 5:17
    (Applaus) Danke!
  • 5:17 - 5:19
    Die englische Transkription
    war Deep Learning.
  • 5:19 - 5:23
    Die Übersetzung ins Chinesische und
    der Text rechts oben – Deep Learning
  • 5:23 - 5:26
    und die Modellierung der Stimme
    -- ebenfalls Deep Learning.
  • 5:26 - 5:29
    Deep Learning ist also
    eine außergewöhnliche Sache.
  • 5:29 - 5:32
    Es ist ein einziger Algorithmus,
    der scheinbar fast alles kann
  • 5:32 - 5:35
    und ich fand heraus, dass er
    ein Jahr zuvor sehen gelernt hatte.
  • 5:35 - 5:38
    Bei einem obskuren Wettbewerb
    der Ruhr-Universität Bochum
  • 5:38 - 5:40
    zum Erkennen von Verkehrszeichen
  • 5:40 - 5:44
    hat Deep Learning gelernt,
    Verkehrszeichen wie dieses zu erkennen.
  • 5:44 - 5:45
    Er konnte Verkehrszeichen nicht nur
  • 5:45 - 5:47
    besser als andere Algorithmen erkennen;
  • 5:47 - 5:50
    die Rangliste zeigte,
    dass er sogar Menschen übertraf
  • 5:50 - 5:52
    und zwar um das Doppelte.
  • 5:52 - 5:54
    2011 gab es also das erste Beispiel
  • 5:54 - 5:57
    für Computer, die besser
    sehen können als Menschen.
  • 5:57 - 5:59
    Seitdem ist viel passiert.
  • 5:59 - 6:03
    2012 gab Google bekannt,
    dass sie einen Deep-Learning-Algorithmus
  • 6:03 - 6:04
    Youtube Videos schauen ließen
  • 6:04 - 6:08
    und die Daten auf 16 000 Computern
    einen Monat lang berechnen ließen
  • 6:08 - 6:12
    und dass der Computer allein
    Konzepte wie Menschen oder Katzen
  • 6:12 - 6:14
    einzig durch das Betrachten
    von Videos erkannt hat.
  • 6:14 - 6:16
    Menschen lernen sehr ähnlich.
  • 6:16 - 6:19
    Sie lernen nicht, indem man
    ihnen sagt, was sie sehen,
  • 6:19 - 6:22
    sondern sie lernen selbst,
    was diese Dinge sind.
  • 6:22 - 6:26
    Übrigens hat 2012 Geoffrey Hinton,
    den wir vorher gesehen haben,
  • 6:26 - 6:30
    den beliebten ImageNet-Wettbewerb
    mit seinem Versuch gewonnen,
  • 6:30 - 6:35
    auf 1,5 Mio. Bildern
    die Motive zu erkennen.
  • 6:35 - 6:38
    2014 sind wir mittlerweile
    nur noch bei einer 6%igen Fehlerrate
  • 6:38 - 6:39
    bei der Bilderkennung.
  • 6:39 - 6:42
    Das ist wiederum besser als Menschen.
  • 6:42 - 6:45
    Maschinen sind dabei
    also außergewöhnlich gut
  • 6:45 - 6:48
    und das wird nun auch
    in der Wirtschaft genutzt.
  • 6:48 - 6:50
    Zum Beispiel hat Google
    letztes Jahr bekanntgegeben,
  • 6:50 - 6:55
    dass sie jeden Ort Frankreichs
    in nur 2 Stunden kartografiert hätten,
  • 6:55 - 7:00
    indem sie Street-View-Bilder in einen
    Deep-Learning-Algorithmus einspeisten,
  • 7:00 - 7:03
    der dann Hausnummern
    erkennen und lesen konnte.
  • 7:03 - 7:08
    Davor hätte es dutzende Leute
    und viele Jahre gebraucht.
  • 7:08 - 7:10
    Dasselbe passiert in China.
  • 7:10 - 7:14
    Baidu ist sowas wie
    das chinesische Google,
  • 7:14 - 7:17
    und was Sie hier oben links sehen,
  • 7:17 - 7:20
    ist z. B. ein Bild, das ich in Baidus
    Deep-Learning-System hochgeladen habe.
  • 7:20 - 7:24
    Darunter sehen Sie,
    dass das System das Bild verstanden
  • 7:24 - 7:26
    und ähnliche Bilder gefunden hat.
  • 7:26 - 7:29
    Die ähnlichen Bilder haben
    ähnliche Hintergründe,
  • 7:29 - 7:31
    ähnliche Gesichts-Ausrichtung,
  • 7:31 - 7:33
    manche sogar die rausgestreckte Zunge.
  • 7:33 - 7:36
    Das System schaut eindeutig nicht
    auf den Text einer Website.
  • 7:36 - 7:37
    Es hatte nur ein Bild.
  • 7:37 - 7:41
    Also haben wir jetzt Computer,
    die wirklich verstehen, was sie sehen,
  • 7:41 - 7:43
    und daher Datenbanken
  • 7:43 - 7:46
    mit vielen Millionen Bildern
    in Echtzeit durchsuchen können.
  • 7:46 - 7:50
    Aber was bedeutet es nun,
    dass Computer sehen können?
  • 7:50 - 7:52
    Tja, es ist nicht nur so, dass sie sehen.
  • 7:52 - 7:54
    Genau genommen kann
    Deep Leaning noch mehr.
  • 7:54 - 7:57
    Komplexe, differenzierte Sätze wie dieser
  • 7:57 - 7:59
    können nun mit Deep-Learning-Algorithmen
    verstanden werden.
  • 7:59 - 8:01
    Wie Sie hier sehen können,
  • 8:01 - 8:03
    zeigt dieses System aus Stanford
    mit dem roten Punkt oben,
  • 8:03 - 8:07
    dass es die negative Botschaft
    des Satzes erkannt hat.
  • 8:07 - 8:11
    Deep Learning ist jetzt
    fast so gut wie Menschen
  • 8:11 - 8:16
    im Verstehen, worum es in Sätzen
    geht und was gesagt wird.
  • 8:16 - 8:19
    Deep Learning wird auch genutzt,
    um Chinesisch zu lesen
  • 8:19 - 8:22
    wieder fast auf Muttersprachler-Niveau.
  • 8:22 - 8:25
    Der Algorithmus dafür
    stammt von Leuten aus der Schweiz,
  • 8:25 - 8:28
    die allesamt kein Chinesisch
    sprechen oder verstehen.
  • 8:28 - 8:30
    Wie ich schon sagte: Deep Learning
  • 8:30 - 8:33
    ist so ziemlich das beste
    System der Welt dafür,
  • 8:33 - 8:37
    sogar im Vergleich mit
    dem Wissen von Muttersprachlern.
  • 8:37 - 8:40
    Dieses System haben wir
    in meiner Firma entworfen,
  • 8:40 - 8:42
    das all diesen Kram zusammenfügt.
  • 8:42 - 8:44
    Das sind Bilder ohne angehängten Text
  • 8:44 - 8:47
    und während ich diese Sätze hier eintippe,
  • 8:47 - 8:50
    versteht das System die Bilder in Echtzeit
  • 8:50 - 8:51
    und erkennt, was sie zeigen,
  • 8:51 - 8:54
    und findet ähnliche Bilder
    zu dem eingetippten Text.
  • 8:54 - 8:57
    Sie sehen also,
    es versteht wirklich meine Sätze
  • 8:57 - 8:59
    und ebenso diese Bilder.
  • 8:59 - 9:02
    Ich weiß, dass Sie
    sowas Ähnliches von Google kennen,
  • 9:02 - 9:05
    wo man Text eingeben kann
    und einem Bilder gezeigt werden,
  • 9:05 - 9:08
    aber da wird nur die Website
    nach dem Text durchsucht.
  • 9:08 - 9:11
    Das ist ein großer Unterschied dazu,
    die Bilder zu verstehen.
  • 9:11 - 9:14
    Letzteres haben Computer erst
  • 9:14 - 9:17
    vor ein paar Monaten gelernt.
  • 9:17 - 9:21
    Wir haben gesehen, dass Computer nicht
    nur sehen, sondern auch lesen können.
  • 9:21 - 9:25
    Wir haben natürlich auch gesehen,
    dass sie verstehen, was sie hören.
  • 9:25 - 9:28
    Vielleicht sind Sie nicht überrascht,
    dass sie auch schreiben können.
  • 9:28 - 9:33
    Diesen Text habe ich gestern mit einem
    Deep-Learning-Algorithmus erzeugt.
  • 9:33 - 9:37
    Diesen Text hier hat
    ein Algorithmus aus Stanford erzeugt.
  • 9:37 - 9:41
    Jeder dieser Sätze wurde mit
    einem Deep-Learning-Algorithmus erzeugt,
  • 9:41 - 9:43
    um das jeweilige Bild zu beschreiben.
  • 9:43 - 9:48
    Vorher hat der Algorithmus nie einen Mann
    im schwarzen Hemd Gitarre spielen sehen.
  • 9:48 - 9:50
    Er hat einen Mann, die Farbe Schwarz,
  • 9:50 - 9:51
    und eine Gitarre gesehen,
  • 9:51 - 9:56
    aber er hat selbstständig
    diese neue Bildbeschreibung erstellt.
  • 9:56 - 9:59
    Menschliche Leistung ist das
    noch nicht, aber nah dran.
  • 9:59 - 10:03
    In Tests bevorzugen Menschen
    die computer-generierte Bildbeschreibung
  • 10:03 - 10:05
    nur eines von vier Malen.
  • 10:05 - 10:07
    Aber das System ist jetzt
    erst 2 Wochen alt,
  • 10:07 - 10:09
    sodass wahrscheinlich im nächsten Jahr
  • 10:09 - 10:12
    der Computeralgorithmus
    die menschliche Leistung übertrifft,
  • 10:12 - 10:14
    so schnell wie die Dinge gerade gehen.
  • 10:14 - 10:16
    Computer können also auch schreiben.
  • 10:16 - 10:20
    Wenn wir das alles kombinieren,
    kriegen wir sehr spannenden Möglichkeiten.
  • 10:20 - 10:21
    In der Medizin, zum Beispiel,
  • 10:21 - 10:24
    hat ein Team aus Boston verkündet,
  • 10:24 - 10:27
    dass es Dutzende
    neue klinisch relevante Merkmale
  • 10:27 - 10:32
    von Tumoren entdeckt hätte,
    die Ärzten bei der Krebsprognose helfen.
  • 10:32 - 10:35
    Ähnlich hat in Stanford
    eine Gruppe bekanntgegeben,
  • 10:35 - 10:38
    dass sie für die Gewebeanalyse
    in vergrößerter Aufnahme
  • 10:38 - 10:41
    ein Maschinelles Lernsystem
    entwickelt haben,
  • 10:41 - 10:44
    das menschliche Pathologen
    tatsächlich dabei übertrifft,
  • 10:44 - 10:48
    die Überlebenschancen von
    Krebspatienten vorherzusagen.
  • 10:48 - 10:51
    In beiden Fällen waren
    die Vorhersagen nicht nur genauer,
  • 10:51 - 10:53
    sie förderten auch neue
    wissenschaftliche Erkenntnisse.
  • 10:53 - 10:55
    Im Fall der Radiologie
  • 10:55 - 10:58
    waren es neue klinische Indikatoren,
    die Menschen verstehen.
  • 10:58 - 11:00
    Im Fall der Pathologie
  • 11:00 - 11:04
    hat das Computersystem herausgefunden,
    dass die Zellen rund um den Krebs
  • 11:04 - 11:08
    genauso wichtig sind
    wie die Krebszellen selbst
  • 11:08 - 11:09
    beim Erstellen der Diagnose.
  • 11:09 - 11:14
    Das ist das Gegenteil davon, was man
    Pathologen jahrzehntelang beibrachte.
  • 11:15 - 11:17
    In beiden Fällen wurden die Systeme
  • 11:17 - 11:22
    gemeinsam von Experten der Medizin
    und des Maschinellen Lernens entwickelt,
  • 11:22 - 11:24
    aber seit letztem Jahr haben
    wir auch das überwunden.
  • 11:24 - 11:28
    Das hier ist ein Beispiel,
    wie man krebsgeschädigte Bereiche
  • 11:28 - 11:31
    menschlichen Gewebes
    unter dem Mikroskop erkennt.
  • 11:31 - 11:35
    Das hier gezeigte System
    erkennt solche Bereiche genauer,
  • 11:35 - 11:38
    oder etwa gleich genau,
    wie menschliche Pathologen,
  • 11:38 - 11:41
    aber es wurde allein mit Deep Learning,
    ohne medizinisches Wissen,
  • 11:41 - 11:44
    von Leuten ohne Ausbildung
    in diesem Feld entwickelt.
  • 11:45 - 11:47
    Ähnlich ist es bei dieser
    Neuronen-Segmentierung.
  • 11:47 - 11:51
    Neuronen können jetzt damit etwa so genau
    wie durch Menschen segmentieren werden,
  • 11:51 - 11:54
    aber dieses System wurde
    mit Deep Learning
  • 11:54 - 11:57
    von Leuten ohne
    medizinisches Vorwissen entwickelt.
  • 11:57 - 12:00
    Sogar ich, als jemand
    ohne medizinische Ausbildung,
  • 12:00 - 12:04
    scheine nun genug für die Gründung
    eines medizinisches Unternehmens zu wissen
  • 12:04 - 12:06
    -- und das habe ich auch.
  • 12:06 - 12:08
    Ich hatte irgendwie Angst davor,
  • 12:08 - 12:11
    aber theoretisch
    schien es möglich zu sein,
  • 12:11 - 12:16
    in der Medizin sehr nützliche Dinge allein
    mit solchen Datenanalysen zu bewirken.
  • 12:16 - 12:19
    Glücklicherweise war
    das Feedback fantastisch,
  • 12:19 - 12:21
    sowohl von den Medien
    als auch von Medizinern,
  • 12:21 - 12:23
    die mich sehr unterstützt haben.
  • 12:23 - 12:27
    Theoretisch können wir den Mittelteil
    des medizinischen Vorgangs
  • 12:27 - 12:30
    so viel wie möglich
    der Datenanalyse überlassen,
  • 12:30 - 12:33
    sodass Ärzte nur noch tun müssen,
    was sie am besten können.
  • 12:33 - 12:35
    Ich will Ihnen ein Beispiel geben.
  • 12:35 - 12:40
    Aktuell brauchen wir 15 Minuten, um einen
    neuen medizinischen Diagnosetest zu bauen.
  • 12:40 - 12:42
    Das zeige ich Ihnen jetzt in Echtzeit,
  • 12:42 - 12:45
    aber ich habe es durch Zusammenschneiden
    auf 3 Minuten gekürzt.
  • 12:45 - 12:48
    Anstatt Ihnen das Erstellen eines
    medizinischen Tests zu zeigen,
  • 12:48 - 12:52
    zeige ich Ihnen einen
    Diagnosetest für Autobilder,
  • 12:52 - 12:54
    denn das verstehen wir alle.
  • 12:54 - 12:57
    Hier fangen wir mit ungefähr
    1,5 Mio. Autobildern an,
  • 12:57 - 13:00
    und ich möchte etwas bauen,
    das sie nach dem Winkel sortiert,
  • 13:00 - 13:03
    in dem das Foto gemacht wurde.
  • 13:03 - 13:07
    Diese Bilder sind jetzt noch
    nicht benannt, ich fange bei Null an.
  • 13:07 - 13:08
    Unser Deep-Learning-Algorithmus
  • 13:08 - 13:12
    erkennt automatisch
    Strukturflächen auf den Bildern.
  • 13:12 - 13:16
    Das Schöne ist, dass Mensch und Computer
    jetzt zusammenarbeiten können.
  • 13:16 - 13:18
    Wie Sie hier sehen,
  • 13:18 - 13:21
    gibt der Mensch dem Computer
    Zielbereiche vor,
  • 13:21 - 13:25
    womit der Computer dann versuchen soll,
    seinem Algorithmus zu verbessern.
  • 13:25 - 13:30
    Eigentlich sind diese Deep-Learning-
    Systeme im 16 000-dimensionalen Raum,
  • 13:30 - 13:32
    hier können Sie den Computer
    das durch den Raum
  • 13:32 - 13:35
    auf der Suche nach neuen
    Strukturflächen rotieren sehen.
  • 13:35 - 13:37
    Wenn er dabei Erfolg hat,
  • 13:37 - 13:41
    kann der menschliche Betreiber
    dann die interessanten Bereiche festlegen.
  • 13:41 - 13:43
    Hier hat der Computer Bereiche gefunden,
  • 13:43 - 13:46
    zum Beispiel Winkel.
  • 13:46 - 13:47
    Im Verlauf des Prozesses
  • 13:47 - 13:50
    sagen wir dem Computer immer mehr
  • 13:50 - 13:52
    über die gesuchten Strukturen.
  • 13:52 - 13:54
    Bei einem Diagnose-Test zum Beispiel
  • 13:54 - 13:57
    würde das dem Pathologen helfen,
    kranke Bereiche zu identifizieren,
  • 13:57 - 14:02
    oder dem Radiologen bei
    potentiell gefährlichen Knoten.
  • 14:02 - 14:05
    Manchmal wird es
    schwer für den Algorithmus.
  • 14:05 - 14:07
    In diesem Fall war er etwas verwirrt.
  • 14:07 - 14:09
    Die Vorder- und Rückseiten
    der Autos sind vermischt.
  • 14:09 - 14:11
    Wir müssen hier also sorgfältiger sein,
  • 14:11 - 14:15
    und die Vorderseiten manuell
    von den Rückseiten trennen,
  • 14:15 - 14:20
    um dann dem Computer zu sagen,
    dass das Teil einer Gruppe ist,
  • 14:20 - 14:22
    die uns interessiert.
  • 14:22 - 14:24
    Das machen wir für eine Weile,
    wir springen ein wenig weiter,
  • 14:24 - 14:26
    und dann trainieren wir den Algorithmus,
  • 14:26 - 14:28
    basierend auf diesen paar hundert Sachen,
  • 14:28 - 14:30
    und hoffen, dass er besser geworden ist.
  • 14:30 - 14:34
    Wie Sie sehen, lässt er
    einige dieser Bilder jetzt verblassen
  • 14:34 - 14:38
    und zeigt uns, dass er schon jetzt
    ein wenig selbst erkennt.
  • 14:38 - 14:41
    Wir können das Konzept
    der ähnlichen Bilder nutzen
  • 14:41 - 14:43
    und dabei sehen Sie,
  • 14:43 - 14:47
    dass der Computer jetzt in der Lage ist,
    nur die Vorderseiten der Autos zu finden.
  • 14:47 - 14:50
    Also kann der Mensch dem
    Computer an diesem Punkt sagen,
  • 14:50 - 14:52
    okay, du hast gute Arbeit geleistet.
  • 14:54 - 14:57
    Natürlich ist es manchmal
    selbst hier schwer,
  • 14:57 - 15:00
    die einzelnen Gruppen zu unterscheiden.
  • 15:00 - 15:03
    Selbst nachdem der Computer
    die Bilder eine Weile rotiert hat,
  • 15:03 - 15:07
    sind die rechten und linken Seiten
    der Bilder immer noch
  • 15:07 - 15:08
    komplett durcheinander.
  • 15:08 - 15:11
    Wieder können wir dem
    Computer Hinweise geben
  • 15:11 - 15:13
    und sagen, okay, jetzt
    versuch mal einen Weg,
  • 15:13 - 15:16
    der die rechte und linke Seite
    so gut wie möglich
  • 15:16 - 15:18
    mit dem Deep-Learning-Algorithmus trennt.
  • 15:18 - 15:21
    Und mit diesem Hinweis --
    ah, okay, jetzt hat er Erfolg.
  • 15:21 - 15:24
    Er hat einen Weg gefunden,
    diese Objekte so sehen,
  • 15:24 - 15:26
    der diese hier aussortiert hat.
  • 15:26 - 15:29
    Sie haben jetzt einen Eindruck davon.
  • 15:29 - 15:37
    Das ist kein Fall, wo der Mensch
    von einem Computer ersetzt wird,
  • 15:37 - 15:40
    sondern sie arbeiten zusammen.
  • 15:40 - 15:44
    Wir ersetzen hier etwas, wofür man
    früher ein Team von fünf oder sechs Leuten
  • 15:44 - 15:45
    7 Jahre beschäftigt hat,
  • 15:45 - 15:48
    durch etwas, das 15 Minuten
  • 15:48 - 15:50
    für eine einzige Person braucht.
  • 15:50 - 15:54
    Dieser Vorgang braucht ungefähr
    vier oder fünf Durchgänge.
  • 15:54 - 15:56
    Wie Sie sehen, sind wir nun bei 62 %
  • 15:56 - 15:59
    korrekt klassifizierten Bildern
    aus 1,5 Millionen.
  • 15:59 - 16:01
    An dieser Stelle können
    wir anfangen, sehr schnell
  • 16:01 - 16:03
    große Bereiche zu erfassen,
  • 16:03 - 16:06
    und sie auf Fehler zu überprüfen.
  • 16:06 - 16:10
    Wenn es Fehler gibt, lassen wir
    das den Computer wissen.
  • 16:10 - 16:13
    Indem wir diesen Vorgang auf jede
    der einzelnen Gruppen anwenden,
  • 16:13 - 16:15
    sind wir jetzt bei
    einer 80%igen Erfolgsrate
  • 16:15 - 16:18
    beim Klassifizieren der 1,5 Mio. Bilder.
  • 16:18 - 16:20
    An diesem Punkt müssen wir nur noch
  • 16:20 - 16:23
    die kleine Zahl der
    falsch klassifizierten Bilder finden
  • 16:23 - 16:26
    und versuchen, die Ursache zu verstehen.
  • 16:26 - 16:28
    Wenden wir das an,
  • 16:28 - 16:32
    sind wir nach 15 Minuten
    bei einer Erfolgsquote von 97 %.
  • 16:32 - 16:37
    Also könnten wir mit dieser Technik
    ein großes Problem beheben,
  • 16:37 - 16:40
    nämlich, das Fehlen medizinischen
    Fachwissens in der Welt.
  • 16:40 - 16:43
    Laut Weltwirtschaftsforum gibt es
    zwischen 10x und 20x
  • 16:43 - 16:46
    zu wenige Ärzte in Entwicklungsländern
  • 16:46 - 16:48
    und es würde etwa 300 Jahre dauern,
  • 16:48 - 16:51
    genug Leute auszubilden,
    um das Problem zu beheben.
  • 16:51 - 16:54
    Können Sie sich vorstellen,
    dass wir ihre Effizienz
  • 16:54 - 16:56
    mit diesen Deep-Learning-Ansätzen
    steigern können?
  • 16:56 - 16:59
    Ich bin ganz begeistert
    von den Möglichkeiten.
  • 16:59 - 17:01
    Ich mache mir auch
    Sorgen über die Probleme.
  • 17:01 - 17:04
    Das Problem hierbei ist,
    in jedem blauen Bereich auf der Karte
  • 17:04 - 17:08
    machen Dienstleistungen
    über 80 % der Beschäftigung aus.
  • 17:08 - 17:10
    Was sind Dienstleistungen?
  • 17:10 - 17:11
    Das sind Dienstleistungen.
  • 17:11 - 17:16
    Das sind außerdem genau die Dinge,
    die Computer gerade gelernt haben.
  • 17:16 - 17:19
    Also sind 80 % der Beschäftigung
    der entwickelten Welt Dinge,
  • 17:19 - 17:22
    die Computer gerade gelernt haben.
  • 17:22 - 17:23
    Was bedeutet das?
  • 17:23 - 17:26
    Naja, es wird alles gut.
    Andere Jobs ersetzen diese.
  • 17:26 - 17:29
    Zum Beispiel wird es
    mehr Jobs für Informatiker geben.
  • 17:29 - 17:30
    Nun, nicht ganz.
  • 17:30 - 17:33
    Informatiker brauchen nicht lange,
    diese Dinge zu bauen.
  • 17:33 - 17:36
    Zum Beispiel wurden diese 4
    Algorithmen vom selben Typen gebaut.
  • 17:36 - 17:38
    Wenn Sie also denken, oh,
    das ist alles nicht neu,
  • 17:38 - 17:42
    wir haben in der Vergangenheit gesehen,
    wenn etwas Neues kommt,
  • 17:42 - 17:44
    werden sie durch neue Jobs ersetzt,
  • 17:44 - 17:46
    was also sind diese neuen Jobs?
  • 17:46 - 17:48
    Das ist sehr schwer einzuschätzen,
  • 17:48 - 17:51
    weil menschliche Leistung
    schrittweise wächst,
  • 17:51 - 17:54
    aber wir haben jetzt ein System,
    Deep Learning,
  • 17:54 - 17:57
    das seine Leistung
    nachweislich exponentiell steigert.
  • 17:57 - 17:58
    Und da sind wir.
  • 17:58 - 18:01
    Zurzeit sehen wir die Dinge um uns herum
  • 18:01 - 18:03
    und sagen "Computer sind
    immer noch ziemlich dumm." Oder?
  • 18:03 - 18:07
    Aber in fünf Jahren werden Computer
    nicht mehr Teil dieser Tabelle sein.
  • 18:07 - 18:11
    Wir müssen also schon jetzt anfangen,
    über diese Leistung nachzudenken.
  • 18:11 - 18:13
    Wir haben das natürlich schon mal gesehen.
  • 18:13 - 18:14
    Die Industrielle Revolution
  • 18:14 - 18:17
    bewirkte einen Evolutionssprung
    der Leistung durch Motoren.
  • 18:18 - 18:21
    Aber nach einer Weile
    beruhigten sich die Dinge.
  • 18:21 - 18:23
    Es gab soziale Umbrüche,
  • 18:23 - 18:26
    aber sobald die Motoren damals
    zur Energiegewinnung genutzt wurden,
  • 18:26 - 18:28
    beruhigten sich die Dinge.
  • 18:28 - 18:30
    Die Revolution des Maschinellen Lernens
  • 18:30 - 18:33
    wird ganz anders
    als die Industrielle Revolution,
  • 18:33 - 18:36
    weil die Revolution nie zu Ende ist.
  • 18:36 - 18:39
    Je besser Computer
    bei intellektuellen Aktivitäten werden,
  • 18:39 - 18:41
    desto bessere Computer können sie bauen,
  • 18:41 - 18:43
    die intellektuell noch
    leistungsfähiger sind,
  • 18:43 - 18:45
    also wird das eine Art Wandel,
  • 18:45 - 18:47
    den die Welt nie zuvor gesehen hat,
  • 18:47 - 18:51
    sodass sich Ihr Verständnis
    des Möglichen ändert.
  • 18:51 - 18:53
    Das beeinflusst uns schon jetzt.
  • 18:53 - 18:56
    In den letzten 25 Jahren ist
    die Produktivität des Kapitals gestiegen,
  • 18:56 - 19:01
    aber die Produktivität der Arbeit
    blieb gleich und sank sogar ein bisschen.
  • 19:01 - 19:04
    Deswegen will ich, dass wir
    diese Diskussion jetzt führen.
  • 19:04 - 19:07
    Wenn ich Leuten
    von dieser Situation erzähle,
  • 19:07 - 19:09
    sind sie oft sehr abschätzig.
  • 19:09 - 19:10
    Computer denken nicht wirklich,
  • 19:10 - 19:13
    sie fühlen nichts,
    sie verstehen Lyrik nicht,
  • 19:13 - 19:16
    wir verstehen nicht wirklich,
    wie sie funktionieren.
  • 19:16 - 19:17
    Ja, und?
  • 19:17 - 19:19
    Computer können jetzt Dinge tun,
  • 19:19 - 19:22
    für die Menschen ihre meiste Zeit
    gegen Bezahlung aufwenden.
  • 19:22 - 19:24
    Wir sollten also jetzt überlegen,
  • 19:24 - 19:28
    wie wir unsere sozialen und
    wirtschaftlichen Strukturen anpassen,
  • 19:28 - 19:30
    um diese neue Realität zu erkennen.
  • 19:30 - 19:31
    Danke.
  • 19:31 - 19:32
    (Applaus)
Title:
Die wundervollen und erschreckenden Folgen lernender Computer
Speaker:
Jeremy Howard
Description:

Was passiert, wenn wir einem Computer beibringen, wie man lernt? Der Technologe Jeremy Howard zeigt einige überraschende neue Entwicklungen im rasant wachsenden Feld des Deep Learning, einer Technik, die Computern beibringt, Chinesisch zu lernen, Objekte auf Fotos zu erkennen oder bei einer medizinischen Diagnose zu helfen. (Ein Deep-Learning-Tool hat sich nach Stunden von YouTube-Videos das Konzept "Katzen" selbst beigebracht.) Lassen Sie sich mitreißen von einem Gebiet, das das Verhalten der Computer um Sie herum ändern wird ... wahrscheinlich früher, als Sie denken.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

German subtitles

Revisions