Die wundervollen und erschreckenden Folgen lernender Computer
-
0:01 - 0:05Wenn man früher wollte,
dass ein Computer etwas Neues tat, -
0:05 - 0:07musste man ihn programmieren.
-
0:07 - 0:10Für alle, die es noch nie
selbst probiert haben: -
0:10 - 0:13Beim Programmieren
muss man bis ins kleinste Detail -
0:13 - 0:17jeden einzelnen Schritt definieren,
den der Computer erledigen soll, -
0:17 - 0:19um sein Ziel zu erreichen.
-
0:19 - 0:23Will man also etwas tun,
was man selbst noch nicht kann, -
0:23 - 0:25dann wird das eine große Herausforderung.
-
0:25 - 0:28Dieser Herausforderung stellte sich
dieser Mann, Arthur Samuel. -
0:28 - 0:321956 wollte er diesem Computer beibringen,
-
0:32 - 0:35ihn im Spiel Dame zu schlagen.
-
0:35 - 0:37Wie kann man ein Programm schreiben
-
0:37 - 0:40und bis ins kleinste Detail definieren,
wie man sich selbst in Dame übertrifft? -
0:40 - 0:42Also hatte er eine Idee:
-
0:42 - 0:46Er ließ den Computer tausende Male
gegen sich selbst spielen, -
0:46 - 0:48sodass er Dame spielen lernte.
-
0:48 - 0:52Das funktionierte wirklich, und schon 1962
-
0:52 - 0:56besiegte dieser Computer
den Landesmeister von Connecticut. -
0:56 - 0:59Arthur Samuel war also
der Urvater des Maschinellen Lernens -
0:59 - 1:00und ich schulde ihm viel,
-
1:00 - 1:03denn ich bin ein Fachmann
im Maschinellen Lernen. -
1:03 - 1:04Ich war Präsident von Kaggle,
-
1:04 - 1:08einer Plattform von über 200 000
Fachleuten für Maschinelles Lernen. -
1:08 - 1:10Kaggle veranstaltet Wettbewerbe,
-
1:10 - 1:14bei denen bisher ungelöste Probleme
gelöst werden sollen, -
1:14 - 1:17und das war schon
hunderte Male erfolgreich. -
1:17 - 1:20Aus dieser Warte habe
ich viel darüber gelernt, -
1:20 - 1:24was Maschinelles Lernen
früher konnte, was es heute kann -
1:24 - 1:26und was es zukünftig vollbringen könnte.
-
1:26 - 1:31Der vielleicht erste kommerzielle Erfolg
im Maschinellen Lernen war Google. -
1:31 - 1:33Google hat bewiesen,
dass man Informationen -
1:33 - 1:36über einen Computeralgorithmus
finden kann, -
1:36 - 1:38der auf Maschinellem Lernen basiert.
-
1:38 - 1:42Seitdem gab es viele kommerzielle Erfolge
im Maschinellen Lernen. -
1:42 - 1:44Firmen wie Amazon oder Netflix
-
1:44 - 1:48nutzen Maschinelles Lernen
für Kaufempfehlungen -
1:48 - 1:50oder Filmvorschläge.
-
1:50 - 1:52Manchmal ist das beinahe gruselig.
-
1:52 - 1:54Firmen wie LinkedIn oder Facebook
-
1:54 - 1:56schlagen Ihnen manchmal neue Freunde vor
-
1:56 - 1:58und Sie haben keine Ahnung, wie das geht,
-
1:58 - 2:01und genau das ist die Macht
des Maschinellen Lernens. -
2:01 - 2:04Diese Algorithmen haben
anhand vorhandener Daten gelernt, -
2:04 - 2:07anstatt von Hand programmiert zu werden.
-
2:07 - 2:11So konnte auch IBM Watson dazu bringen,
-
2:11 - 2:14die zwei Weltmeister
der Quizshow "Jeopardy" zu schlagen, -
2:14 - 2:16wo man knifflige, komplexe Fragen
beantworten musste, z. B.: -
2:16 - 2:19["2003 verschwand u. a.
der antike 'Löwe von Nimrud' -
2:19 - 2:21aus dem Museum dieser Stadt."]
-
2:21 - 2:23Daher gibt es nun
erste selbstfahrende Autos. -
2:23 - 2:25Will man den Unterschied
-
2:25 - 2:28etwa zwischen Baum und
Fußgänger erkennen, ist das wichtig. -
2:28 - 2:31Wir wissen nicht, wie man
solche Programme schreibt, -
2:31 - 2:34aber durch Maschinelles Lernen
ist das jetzt möglich. -
2:34 - 2:37Dieses Auto ist schon über 1 Mio. km
-
2:37 - 2:40ohne den kleinsten Unfall
auf normalen Straßen gefahren. -
2:40 - 2:44Wir wissen also,
dass Computer lernen können -
2:44 - 2:46und dass sie auch Dinge lernen können,
-
2:46 - 2:49von denen wir nicht wissen,
wie sie funktionieren, -
2:49 - 2:52und manchmal sogar besser als wir.
-
2:52 - 2:56Eines der faszinierendsten Beispiele
für Maschinelles Lernen -
2:56 - 2:58habe ich bei einem meiner
Kaggle-Projekte gesehen, -
2:58 - 3:02als ein Team unter der Leitung
von Geoffrey Hinton -
3:02 - 3:03von der Universität Toronto
-
3:03 - 3:06den Wettstreit für automatische
Drogenerkennung gewann. -
3:06 - 3:09Außergewöhnlich war
daran nicht nur ihr Sieg -
3:09 - 3:13gegen all die Algorithmen von Merck
und der internationalen akademischen Welt, -
3:13 - 3:18sondern, dass das Team kein Vorwissen
zu Chemie oder Biowissenschaften hatte -
3:18 - 3:20und nur zwei Wochen brauchte.
-
3:20 - 3:22Wie haben sie das gemacht?
-
3:22 - 3:25Sie nutzten einen besonderen
Algorithmus namens Deep Learning. -
3:25 - 3:28Ihr Erfolg war so bedeutend,
-
3:28 - 3:31dass er wenig später auf der Titelseite
der NY Times erschien. -
3:31 - 3:34Hier auf der linken Seite
sehen Sie Geoffrey Hinton. -
3:34 - 3:38Deep Learning basiert auf der Funktion
des menschlichen Gehirns -
3:38 - 3:40und deswegen ist es ein Algorithmus,
-
3:40 - 3:44dessen Funktion theoretisch
keine Grenzen gesetzt sind. -
3:44 - 3:47Je mehr Daten und Rechenzeit man hat,
-
3:47 - 3:48desto besser wird er.
-
3:48 - 3:51Die New York Times zeigte in ihrem Artikel
-
3:51 - 3:53noch ein Resultat des Deep Learning,
-
3:53 - 3:56das ich Ihnen jetzt vorstellen will.
-
3:56 - 4:01Es beweist, dass Computer
zuhören und verstehen können. -
4:01 - 4:06Richard Rashid (Video):
Als letzten Schritt in diesem Prozess -
4:06 - 4:11werde ich Chinesisch mit Ihnen sprechen.
-
4:11 - 4:14Als wichtigsten Schritt haben wir
-
4:14 - 4:19anhand großer Informationsmengen
von vielen Chinesisch-Sprechern -
4:19 - 4:21ein Text-zu-Sprache-System gebaut,
-
4:21 - 4:26das chinesischen Text
in chinesche Sprache umwandelt, -
4:26 - 4:31und dann haben wir eine etwa einstündige
Aufnahme meiner Stimme benutzt, -
4:31 - 4:36um das Text-zu-Sprache-System
so zu ändern, dass es wie ich klingt. -
4:36 - 4:39Wieder ist das Ergebnis nicht perfekt.
-
4:39 - 4:42Eigentlich hat es sogar
ganz schön viele Fehler. -
4:42 - 4:44(Auf Chinesisch)
-
4:44 - 4:47(Applaus)
-
4:49 - 4:53In diesem Bereich ist noch viel zu tun.
-
4:53 - 4:57(Chinesisch)
-
4:57 - 5:00(Applaus)
-
5:01 - 5:05Jeremy Howard: Das war eine Konferenz
zu Maschinellem Lernen in China. -
5:05 - 5:07Übrigens hört man
bei akademischen Konferenzen -
5:07 - 5:09nur ganz selten Zwischenapplaus,
-
5:09 - 5:13obwohl das bei TEDx-Konferenzen
durchaus erwünscht sein kann. -
5:13 - 5:15Was Sie eben gesehen haben,
basiert auf Deep Learning. -
5:15 - 5:17(Applaus) Danke!
-
5:17 - 5:19Die englische Transkription
war Deep Learning. -
5:19 - 5:23Die Übersetzung ins Chinesische und
der Text rechts oben – Deep Learning -
5:23 - 5:26und die Modellierung der Stimme
-- ebenfalls Deep Learning. -
5:26 - 5:29Deep Learning ist also
eine außergewöhnliche Sache. -
5:29 - 5:32Es ist ein einziger Algorithmus,
der scheinbar fast alles kann -
5:32 - 5:35und ich fand heraus, dass er
ein Jahr zuvor sehen gelernt hatte. -
5:35 - 5:38Bei einem obskuren Wettbewerb
der Ruhr-Universität Bochum -
5:38 - 5:40zum Erkennen von Verkehrszeichen
-
5:40 - 5:44hat Deep Learning gelernt,
Verkehrszeichen wie dieses zu erkennen. -
5:44 - 5:45Er konnte Verkehrszeichen nicht nur
-
5:45 - 5:47besser als andere Algorithmen erkennen;
-
5:47 - 5:50die Rangliste zeigte,
dass er sogar Menschen übertraf -
5:50 - 5:52und zwar um das Doppelte.
-
5:52 - 5:542011 gab es also das erste Beispiel
-
5:54 - 5:57für Computer, die besser
sehen können als Menschen. -
5:57 - 5:59Seitdem ist viel passiert.
-
5:59 - 6:032012 gab Google bekannt,
dass sie einen Deep-Learning-Algorithmus -
6:03 - 6:04Youtube Videos schauen ließen
-
6:04 - 6:08und die Daten auf 16 000 Computern
einen Monat lang berechnen ließen -
6:08 - 6:12und dass der Computer allein
Konzepte wie Menschen oder Katzen -
6:12 - 6:14einzig durch das Betrachten
von Videos erkannt hat. -
6:14 - 6:16Menschen lernen sehr ähnlich.
-
6:16 - 6:19Sie lernen nicht, indem man
ihnen sagt, was sie sehen, -
6:19 - 6:22sondern sie lernen selbst,
was diese Dinge sind. -
6:22 - 6:26Übrigens hat 2012 Geoffrey Hinton,
den wir vorher gesehen haben, -
6:26 - 6:30den beliebten ImageNet-Wettbewerb
mit seinem Versuch gewonnen, -
6:30 - 6:35auf 1,5 Mio. Bildern
die Motive zu erkennen. -
6:35 - 6:382014 sind wir mittlerweile
nur noch bei einer 6%igen Fehlerrate -
6:38 - 6:39bei der Bilderkennung.
-
6:39 - 6:42Das ist wiederum besser als Menschen.
-
6:42 - 6:45Maschinen sind dabei
also außergewöhnlich gut -
6:45 - 6:48und das wird nun auch
in der Wirtschaft genutzt. -
6:48 - 6:50Zum Beispiel hat Google
letztes Jahr bekanntgegeben, -
6:50 - 6:55dass sie jeden Ort Frankreichs
in nur 2 Stunden kartografiert hätten, -
6:55 - 7:00indem sie Street-View-Bilder in einen
Deep-Learning-Algorithmus einspeisten, -
7:00 - 7:03der dann Hausnummern
erkennen und lesen konnte. -
7:03 - 7:08Davor hätte es dutzende Leute
und viele Jahre gebraucht. -
7:08 - 7:10Dasselbe passiert in China.
-
7:10 - 7:14Baidu ist sowas wie
das chinesische Google, -
7:14 - 7:17und was Sie hier oben links sehen,
-
7:17 - 7:20ist z. B. ein Bild, das ich in Baidus
Deep-Learning-System hochgeladen habe. -
7:20 - 7:24Darunter sehen Sie,
dass das System das Bild verstanden -
7:24 - 7:26und ähnliche Bilder gefunden hat.
-
7:26 - 7:29Die ähnlichen Bilder haben
ähnliche Hintergründe, -
7:29 - 7:31ähnliche Gesichts-Ausrichtung,
-
7:31 - 7:33manche sogar die rausgestreckte Zunge.
-
7:33 - 7:36Das System schaut eindeutig nicht
auf den Text einer Website. -
7:36 - 7:37Es hatte nur ein Bild.
-
7:37 - 7:41Also haben wir jetzt Computer,
die wirklich verstehen, was sie sehen, -
7:41 - 7:43und daher Datenbanken
-
7:43 - 7:46mit vielen Millionen Bildern
in Echtzeit durchsuchen können. -
7:46 - 7:50Aber was bedeutet es nun,
dass Computer sehen können? -
7:50 - 7:52Tja, es ist nicht nur so, dass sie sehen.
-
7:52 - 7:54Genau genommen kann
Deep Leaning noch mehr. -
7:54 - 7:57Komplexe, differenzierte Sätze wie dieser
-
7:57 - 7:59können nun mit Deep-Learning-Algorithmen
verstanden werden. -
7:59 - 8:01Wie Sie hier sehen können,
-
8:01 - 8:03zeigt dieses System aus Stanford
mit dem roten Punkt oben, -
8:03 - 8:07dass es die negative Botschaft
des Satzes erkannt hat. -
8:07 - 8:11Deep Learning ist jetzt
fast so gut wie Menschen -
8:11 - 8:16im Verstehen, worum es in Sätzen
geht und was gesagt wird. -
8:16 - 8:19Deep Learning wird auch genutzt,
um Chinesisch zu lesen -
8:19 - 8:22wieder fast auf Muttersprachler-Niveau.
-
8:22 - 8:25Der Algorithmus dafür
stammt von Leuten aus der Schweiz, -
8:25 - 8:28die allesamt kein Chinesisch
sprechen oder verstehen. -
8:28 - 8:30Wie ich schon sagte: Deep Learning
-
8:30 - 8:33ist so ziemlich das beste
System der Welt dafür, -
8:33 - 8:37sogar im Vergleich mit
dem Wissen von Muttersprachlern. -
8:37 - 8:40Dieses System haben wir
in meiner Firma entworfen, -
8:40 - 8:42das all diesen Kram zusammenfügt.
-
8:42 - 8:44Das sind Bilder ohne angehängten Text
-
8:44 - 8:47und während ich diese Sätze hier eintippe,
-
8:47 - 8:50versteht das System die Bilder in Echtzeit
-
8:50 - 8:51und erkennt, was sie zeigen,
-
8:51 - 8:54und findet ähnliche Bilder
zu dem eingetippten Text. -
8:54 - 8:57Sie sehen also,
es versteht wirklich meine Sätze -
8:57 - 8:59und ebenso diese Bilder.
-
8:59 - 9:02Ich weiß, dass Sie
sowas Ähnliches von Google kennen, -
9:02 - 9:05wo man Text eingeben kann
und einem Bilder gezeigt werden, -
9:05 - 9:08aber da wird nur die Website
nach dem Text durchsucht. -
9:08 - 9:11Das ist ein großer Unterschied dazu,
die Bilder zu verstehen. -
9:11 - 9:14Letzteres haben Computer erst
-
9:14 - 9:17vor ein paar Monaten gelernt.
-
9:17 - 9:21Wir haben gesehen, dass Computer nicht
nur sehen, sondern auch lesen können. -
9:21 - 9:25Wir haben natürlich auch gesehen,
dass sie verstehen, was sie hören. -
9:25 - 9:28Vielleicht sind Sie nicht überrascht,
dass sie auch schreiben können. -
9:28 - 9:33Diesen Text habe ich gestern mit einem
Deep-Learning-Algorithmus erzeugt. -
9:33 - 9:37Diesen Text hier hat
ein Algorithmus aus Stanford erzeugt. -
9:37 - 9:41Jeder dieser Sätze wurde mit
einem Deep-Learning-Algorithmus erzeugt, -
9:41 - 9:43um das jeweilige Bild zu beschreiben.
-
9:43 - 9:48Vorher hat der Algorithmus nie einen Mann
im schwarzen Hemd Gitarre spielen sehen. -
9:48 - 9:50Er hat einen Mann, die Farbe Schwarz,
-
9:50 - 9:51und eine Gitarre gesehen,
-
9:51 - 9:56aber er hat selbstständig
diese neue Bildbeschreibung erstellt. -
9:56 - 9:59Menschliche Leistung ist das
noch nicht, aber nah dran. -
9:59 - 10:03In Tests bevorzugen Menschen
die computer-generierte Bildbeschreibung -
10:03 - 10:05nur eines von vier Malen.
-
10:05 - 10:07Aber das System ist jetzt
erst 2 Wochen alt, -
10:07 - 10:09sodass wahrscheinlich im nächsten Jahr
-
10:09 - 10:12der Computeralgorithmus
die menschliche Leistung übertrifft, -
10:12 - 10:14so schnell wie die Dinge gerade gehen.
-
10:14 - 10:16Computer können also auch schreiben.
-
10:16 - 10:20Wenn wir das alles kombinieren,
kriegen wir sehr spannenden Möglichkeiten. -
10:20 - 10:21In der Medizin, zum Beispiel,
-
10:21 - 10:24hat ein Team aus Boston verkündet,
-
10:24 - 10:27dass es Dutzende
neue klinisch relevante Merkmale -
10:27 - 10:32von Tumoren entdeckt hätte,
die Ärzten bei der Krebsprognose helfen. -
10:32 - 10:35Ähnlich hat in Stanford
eine Gruppe bekanntgegeben, -
10:35 - 10:38dass sie für die Gewebeanalyse
in vergrößerter Aufnahme -
10:38 - 10:41ein Maschinelles Lernsystem
entwickelt haben, -
10:41 - 10:44das menschliche Pathologen
tatsächlich dabei übertrifft, -
10:44 - 10:48die Überlebenschancen von
Krebspatienten vorherzusagen. -
10:48 - 10:51In beiden Fällen waren
die Vorhersagen nicht nur genauer, -
10:51 - 10:53sie förderten auch neue
wissenschaftliche Erkenntnisse. -
10:53 - 10:55Im Fall der Radiologie
-
10:55 - 10:58waren es neue klinische Indikatoren,
die Menschen verstehen. -
10:58 - 11:00Im Fall der Pathologie
-
11:00 - 11:04hat das Computersystem herausgefunden,
dass die Zellen rund um den Krebs -
11:04 - 11:08genauso wichtig sind
wie die Krebszellen selbst -
11:08 - 11:09beim Erstellen der Diagnose.
-
11:09 - 11:14Das ist das Gegenteil davon, was man
Pathologen jahrzehntelang beibrachte. -
11:15 - 11:17In beiden Fällen wurden die Systeme
-
11:17 - 11:22gemeinsam von Experten der Medizin
und des Maschinellen Lernens entwickelt, -
11:22 - 11:24aber seit letztem Jahr haben
wir auch das überwunden. -
11:24 - 11:28Das hier ist ein Beispiel,
wie man krebsgeschädigte Bereiche -
11:28 - 11:31menschlichen Gewebes
unter dem Mikroskop erkennt. -
11:31 - 11:35Das hier gezeigte System
erkennt solche Bereiche genauer, -
11:35 - 11:38oder etwa gleich genau,
wie menschliche Pathologen, -
11:38 - 11:41aber es wurde allein mit Deep Learning,
ohne medizinisches Wissen, -
11:41 - 11:44von Leuten ohne Ausbildung
in diesem Feld entwickelt. -
11:45 - 11:47Ähnlich ist es bei dieser
Neuronen-Segmentierung. -
11:47 - 11:51Neuronen können jetzt damit etwa so genau
wie durch Menschen segmentieren werden, -
11:51 - 11:54aber dieses System wurde
mit Deep Learning -
11:54 - 11:57von Leuten ohne
medizinisches Vorwissen entwickelt. -
11:57 - 12:00Sogar ich, als jemand
ohne medizinische Ausbildung, -
12:00 - 12:04scheine nun genug für die Gründung
eines medizinisches Unternehmens zu wissen -
12:04 - 12:06-- und das habe ich auch.
-
12:06 - 12:08Ich hatte irgendwie Angst davor,
-
12:08 - 12:11aber theoretisch
schien es möglich zu sein, -
12:11 - 12:16in der Medizin sehr nützliche Dinge allein
mit solchen Datenanalysen zu bewirken. -
12:16 - 12:19Glücklicherweise war
das Feedback fantastisch, -
12:19 - 12:21sowohl von den Medien
als auch von Medizinern, -
12:21 - 12:23die mich sehr unterstützt haben.
-
12:23 - 12:27Theoretisch können wir den Mittelteil
des medizinischen Vorgangs -
12:27 - 12:30so viel wie möglich
der Datenanalyse überlassen, -
12:30 - 12:33sodass Ärzte nur noch tun müssen,
was sie am besten können. -
12:33 - 12:35Ich will Ihnen ein Beispiel geben.
-
12:35 - 12:40Aktuell brauchen wir 15 Minuten, um einen
neuen medizinischen Diagnosetest zu bauen. -
12:40 - 12:42Das zeige ich Ihnen jetzt in Echtzeit,
-
12:42 - 12:45aber ich habe es durch Zusammenschneiden
auf 3 Minuten gekürzt. -
12:45 - 12:48Anstatt Ihnen das Erstellen eines
medizinischen Tests zu zeigen, -
12:48 - 12:52zeige ich Ihnen einen
Diagnosetest für Autobilder, -
12:52 - 12:54denn das verstehen wir alle.
-
12:54 - 12:57Hier fangen wir mit ungefähr
1,5 Mio. Autobildern an, -
12:57 - 13:00und ich möchte etwas bauen,
das sie nach dem Winkel sortiert, -
13:00 - 13:03in dem das Foto gemacht wurde.
-
13:03 - 13:07Diese Bilder sind jetzt noch
nicht benannt, ich fange bei Null an. -
13:07 - 13:08Unser Deep-Learning-Algorithmus
-
13:08 - 13:12erkennt automatisch
Strukturflächen auf den Bildern. -
13:12 - 13:16Das Schöne ist, dass Mensch und Computer
jetzt zusammenarbeiten können. -
13:16 - 13:18Wie Sie hier sehen,
-
13:18 - 13:21gibt der Mensch dem Computer
Zielbereiche vor, -
13:21 - 13:25womit der Computer dann versuchen soll,
seinem Algorithmus zu verbessern. -
13:25 - 13:30Eigentlich sind diese Deep-Learning-
Systeme im 16 000-dimensionalen Raum, -
13:30 - 13:32hier können Sie den Computer
das durch den Raum -
13:32 - 13:35auf der Suche nach neuen
Strukturflächen rotieren sehen. -
13:35 - 13:37Wenn er dabei Erfolg hat,
-
13:37 - 13:41kann der menschliche Betreiber
dann die interessanten Bereiche festlegen. -
13:41 - 13:43Hier hat der Computer Bereiche gefunden,
-
13:43 - 13:46zum Beispiel Winkel.
-
13:46 - 13:47Im Verlauf des Prozesses
-
13:47 - 13:50sagen wir dem Computer immer mehr
-
13:50 - 13:52über die gesuchten Strukturen.
-
13:52 - 13:54Bei einem Diagnose-Test zum Beispiel
-
13:54 - 13:57würde das dem Pathologen helfen,
kranke Bereiche zu identifizieren, -
13:57 - 14:02oder dem Radiologen bei
potentiell gefährlichen Knoten. -
14:02 - 14:05Manchmal wird es
schwer für den Algorithmus. -
14:05 - 14:07In diesem Fall war er etwas verwirrt.
-
14:07 - 14:09Die Vorder- und Rückseiten
der Autos sind vermischt. -
14:09 - 14:11Wir müssen hier also sorgfältiger sein,
-
14:11 - 14:15und die Vorderseiten manuell
von den Rückseiten trennen, -
14:15 - 14:20um dann dem Computer zu sagen,
dass das Teil einer Gruppe ist, -
14:20 - 14:22die uns interessiert.
-
14:22 - 14:24Das machen wir für eine Weile,
wir springen ein wenig weiter, -
14:24 - 14:26und dann trainieren wir den Algorithmus,
-
14:26 - 14:28basierend auf diesen paar hundert Sachen,
-
14:28 - 14:30und hoffen, dass er besser geworden ist.
-
14:30 - 14:34Wie Sie sehen, lässt er
einige dieser Bilder jetzt verblassen -
14:34 - 14:38und zeigt uns, dass er schon jetzt
ein wenig selbst erkennt. -
14:38 - 14:41Wir können das Konzept
der ähnlichen Bilder nutzen -
14:41 - 14:43und dabei sehen Sie,
-
14:43 - 14:47dass der Computer jetzt in der Lage ist,
nur die Vorderseiten der Autos zu finden. -
14:47 - 14:50Also kann der Mensch dem
Computer an diesem Punkt sagen, -
14:50 - 14:52okay, du hast gute Arbeit geleistet.
-
14:54 - 14:57Natürlich ist es manchmal
selbst hier schwer, -
14:57 - 15:00die einzelnen Gruppen zu unterscheiden.
-
15:00 - 15:03Selbst nachdem der Computer
die Bilder eine Weile rotiert hat, -
15:03 - 15:07sind die rechten und linken Seiten
der Bilder immer noch -
15:07 - 15:08komplett durcheinander.
-
15:08 - 15:11Wieder können wir dem
Computer Hinweise geben -
15:11 - 15:13und sagen, okay, jetzt
versuch mal einen Weg, -
15:13 - 15:16der die rechte und linke Seite
so gut wie möglich -
15:16 - 15:18mit dem Deep-Learning-Algorithmus trennt.
-
15:18 - 15:21Und mit diesem Hinweis --
ah, okay, jetzt hat er Erfolg. -
15:21 - 15:24Er hat einen Weg gefunden,
diese Objekte so sehen, -
15:24 - 15:26der diese hier aussortiert hat.
-
15:26 - 15:29Sie haben jetzt einen Eindruck davon.
-
15:29 - 15:37Das ist kein Fall, wo der Mensch
von einem Computer ersetzt wird, -
15:37 - 15:40sondern sie arbeiten zusammen.
-
15:40 - 15:44Wir ersetzen hier etwas, wofür man
früher ein Team von fünf oder sechs Leuten -
15:44 - 15:457 Jahre beschäftigt hat,
-
15:45 - 15:48durch etwas, das 15 Minuten
-
15:48 - 15:50für eine einzige Person braucht.
-
15:50 - 15:54Dieser Vorgang braucht ungefähr
vier oder fünf Durchgänge. -
15:54 - 15:56Wie Sie sehen, sind wir nun bei 62 %
-
15:56 - 15:59korrekt klassifizierten Bildern
aus 1,5 Millionen. -
15:59 - 16:01An dieser Stelle können
wir anfangen, sehr schnell -
16:01 - 16:03große Bereiche zu erfassen,
-
16:03 - 16:06und sie auf Fehler zu überprüfen.
-
16:06 - 16:10Wenn es Fehler gibt, lassen wir
das den Computer wissen. -
16:10 - 16:13Indem wir diesen Vorgang auf jede
der einzelnen Gruppen anwenden, -
16:13 - 16:15sind wir jetzt bei
einer 80%igen Erfolgsrate -
16:15 - 16:18beim Klassifizieren der 1,5 Mio. Bilder.
-
16:18 - 16:20An diesem Punkt müssen wir nur noch
-
16:20 - 16:23die kleine Zahl der
falsch klassifizierten Bilder finden -
16:23 - 16:26und versuchen, die Ursache zu verstehen.
-
16:26 - 16:28Wenden wir das an,
-
16:28 - 16:32sind wir nach 15 Minuten
bei einer Erfolgsquote von 97 %. -
16:32 - 16:37Also könnten wir mit dieser Technik
ein großes Problem beheben, -
16:37 - 16:40nämlich, das Fehlen medizinischen
Fachwissens in der Welt. -
16:40 - 16:43Laut Weltwirtschaftsforum gibt es
zwischen 10x und 20x -
16:43 - 16:46zu wenige Ärzte in Entwicklungsländern
-
16:46 - 16:48und es würde etwa 300 Jahre dauern,
-
16:48 - 16:51genug Leute auszubilden,
um das Problem zu beheben. -
16:51 - 16:54Können Sie sich vorstellen,
dass wir ihre Effizienz -
16:54 - 16:56mit diesen Deep-Learning-Ansätzen
steigern können? -
16:56 - 16:59Ich bin ganz begeistert
von den Möglichkeiten. -
16:59 - 17:01Ich mache mir auch
Sorgen über die Probleme. -
17:01 - 17:04Das Problem hierbei ist,
in jedem blauen Bereich auf der Karte -
17:04 - 17:08machen Dienstleistungen
über 80 % der Beschäftigung aus. -
17:08 - 17:10Was sind Dienstleistungen?
-
17:10 - 17:11Das sind Dienstleistungen.
-
17:11 - 17:16Das sind außerdem genau die Dinge,
die Computer gerade gelernt haben. -
17:16 - 17:19Also sind 80 % der Beschäftigung
der entwickelten Welt Dinge, -
17:19 - 17:22die Computer gerade gelernt haben.
-
17:22 - 17:23Was bedeutet das?
-
17:23 - 17:26Naja, es wird alles gut.
Andere Jobs ersetzen diese. -
17:26 - 17:29Zum Beispiel wird es
mehr Jobs für Informatiker geben. -
17:29 - 17:30Nun, nicht ganz.
-
17:30 - 17:33Informatiker brauchen nicht lange,
diese Dinge zu bauen. -
17:33 - 17:36Zum Beispiel wurden diese 4
Algorithmen vom selben Typen gebaut. -
17:36 - 17:38Wenn Sie also denken, oh,
das ist alles nicht neu, -
17:38 - 17:42wir haben in der Vergangenheit gesehen,
wenn etwas Neues kommt, -
17:42 - 17:44werden sie durch neue Jobs ersetzt,
-
17:44 - 17:46was also sind diese neuen Jobs?
-
17:46 - 17:48Das ist sehr schwer einzuschätzen,
-
17:48 - 17:51weil menschliche Leistung
schrittweise wächst, -
17:51 - 17:54aber wir haben jetzt ein System,
Deep Learning, -
17:54 - 17:57das seine Leistung
nachweislich exponentiell steigert. -
17:57 - 17:58Und da sind wir.
-
17:58 - 18:01Zurzeit sehen wir die Dinge um uns herum
-
18:01 - 18:03und sagen "Computer sind
immer noch ziemlich dumm." Oder? -
18:03 - 18:07Aber in fünf Jahren werden Computer
nicht mehr Teil dieser Tabelle sein. -
18:07 - 18:11Wir müssen also schon jetzt anfangen,
über diese Leistung nachzudenken. -
18:11 - 18:13Wir haben das natürlich schon mal gesehen.
-
18:13 - 18:14Die Industrielle Revolution
-
18:14 - 18:17bewirkte einen Evolutionssprung
der Leistung durch Motoren. -
18:18 - 18:21Aber nach einer Weile
beruhigten sich die Dinge. -
18:21 - 18:23Es gab soziale Umbrüche,
-
18:23 - 18:26aber sobald die Motoren damals
zur Energiegewinnung genutzt wurden, -
18:26 - 18:28beruhigten sich die Dinge.
-
18:28 - 18:30Die Revolution des Maschinellen Lernens
-
18:30 - 18:33wird ganz anders
als die Industrielle Revolution, -
18:33 - 18:36weil die Revolution nie zu Ende ist.
-
18:36 - 18:39Je besser Computer
bei intellektuellen Aktivitäten werden, -
18:39 - 18:41desto bessere Computer können sie bauen,
-
18:41 - 18:43die intellektuell noch
leistungsfähiger sind, -
18:43 - 18:45also wird das eine Art Wandel,
-
18:45 - 18:47den die Welt nie zuvor gesehen hat,
-
18:47 - 18:51sodass sich Ihr Verständnis
des Möglichen ändert. -
18:51 - 18:53Das beeinflusst uns schon jetzt.
-
18:53 - 18:56In den letzten 25 Jahren ist
die Produktivität des Kapitals gestiegen, -
18:56 - 19:01aber die Produktivität der Arbeit
blieb gleich und sank sogar ein bisschen. -
19:01 - 19:04Deswegen will ich, dass wir
diese Diskussion jetzt führen. -
19:04 - 19:07Wenn ich Leuten
von dieser Situation erzähle, -
19:07 - 19:09sind sie oft sehr abschätzig.
-
19:09 - 19:10Computer denken nicht wirklich,
-
19:10 - 19:13sie fühlen nichts,
sie verstehen Lyrik nicht, -
19:13 - 19:16wir verstehen nicht wirklich,
wie sie funktionieren. -
19:16 - 19:17Ja, und?
-
19:17 - 19:19Computer können jetzt Dinge tun,
-
19:19 - 19:22für die Menschen ihre meiste Zeit
gegen Bezahlung aufwenden. -
19:22 - 19:24Wir sollten also jetzt überlegen,
-
19:24 - 19:28wie wir unsere sozialen und
wirtschaftlichen Strukturen anpassen, -
19:28 - 19:30um diese neue Realität zu erkennen.
-
19:30 - 19:31Danke.
-
19:31 - 19:32(Applaus)
- Title:
- Die wundervollen und erschreckenden Folgen lernender Computer
- Speaker:
- Jeremy Howard
- Description:
-
Was passiert, wenn wir einem Computer beibringen, wie man lernt? Der Technologe Jeremy Howard zeigt einige überraschende neue Entwicklungen im rasant wachsenden Feld des Deep Learning, einer Technik, die Computern beibringt, Chinesisch zu lernen, Objekte auf Fotos zu erkennen oder bei einer medizinischen Diagnose zu helfen. (Ein Deep-Learning-Tool hat sich nach Stunden von YouTube-Videos das Konzept "Katzen" selbst beigebracht.) Lassen Sie sich mitreißen von einem Gebiet, das das Verhalten der Computer um Sie herum ändern wird ... wahrscheinlich früher, als Sie denken.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 19:45
Retired user approved German subtitles for The wonderful and terrifying implications of computers that can learn | ||
Angelika Lueckert Leon accepted German subtitles for The wonderful and terrifying implications of computers that can learn | ||
Angelika Lueckert Leon edited German subtitles for The wonderful and terrifying implications of computers that can learn | ||
Angelika Lueckert Leon edited German subtitles for The wonderful and terrifying implications of computers that can learn | ||
Angelika Lueckert Leon edited German subtitles for The wonderful and terrifying implications of computers that can learn | ||
Retired user rejected German subtitles for The wonderful and terrifying implications of computers that can learn | ||
Retired user edited German subtitles for The wonderful and terrifying implications of computers that can learn | ||
Retired user edited German subtitles for The wonderful and terrifying implications of computers that can learn |