German subtitles

← Die wundervollen und erschreckenden Folgen lernender Computer

Get Embed Code
30 Languages

Showing Revision 23 created 08/26/2015 by Angelika Lueckert Leon.

  1. Wenn man früher wollte,
    dass ein Computer etwas Neues tat,
  2. musste man ihn programmieren.
  3. Für alle, die es noch nie
    selbst probiert haben:
  4. Beim Programmieren
    muss man bis ins kleinste Detail
  5. jeden einzelnen Schritt definieren,
    den der Computer erledigen soll,
  6. um sein Ziel zu erreichen.
  7. Will man also etwas tun,
    was man selbst noch nicht kann,
  8. dann wird das eine große Herausforderung.
  9. Dieser Herausforderung stellte sich
    dieser Mann, Arthur Samuel.

  10. 1956 wollte er diesem Computer beibringen,
  11. ihn im Spiel Dame zu schlagen.
  12. Wie kann man ein Programm schreiben
  13. und bis ins kleinste Detail definieren,
    wie man sich selbst in Dame übertrifft?
  14. Also hatte er eine Idee:
  15. Er ließ den Computer tausende Male
    gegen sich selbst spielen,
  16. sodass er Dame spielen lernte.
  17. Das funktionierte wirklich, und schon 1962
  18. besiegte dieser Computer
    den Landesmeister von Connecticut.
  19. Arthur Samuel war also
    der Urvater des Maschinellen Lernens

  20. und ich schulde ihm viel,
  21. denn ich bin ein Fachmann
    im Maschinellen Lernen.
  22. Ich war Präsident von Kaggle,
  23. einer Plattform von über 200 000
    Fachleuten für Maschinelles Lernen.
  24. Kaggle veranstaltet Wettbewerbe,
  25. bei denen bisher ungelöste Probleme
    gelöst werden sollen,
  26. und das war schon
    hunderte Male erfolgreich.
  27. Aus dieser Warte habe
    ich viel darüber gelernt,
  28. was Maschinelles Lernen
    früher konnte, was es heute kann
  29. und was es zukünftig vollbringen könnte.
  30. Der vielleicht erste kommerzielle Erfolg
    im Maschinellen Lernen war Google.
  31. Google hat bewiesen,
    dass man Informationen
  32. über einen Computeralgorithmus
    finden kann,
  33. der auf Maschinellem Lernen basiert.
  34. Seitdem gab es viele kommerzielle Erfolge
    im Maschinellen Lernen.
  35. Firmen wie Amazon oder Netflix
  36. nutzen Maschinelles Lernen
    für Kaufempfehlungen
  37. oder Filmvorschläge.
  38. Manchmal ist das beinahe gruselig.
  39. Firmen wie LinkedIn oder Facebook
  40. schlagen Ihnen manchmal neue Freunde vor
  41. und Sie haben keine Ahnung, wie das geht,
  42. und genau das ist die Macht
    des Maschinellen Lernens.
  43. Diese Algorithmen haben
    anhand vorhandener Daten gelernt,
  44. anstatt von Hand programmiert zu werden.
  45. So konnte auch IBM Watson dazu bringen,

  46. die zwei Weltmeister
    der Quizshow "Jeopardy" zu schlagen,
  47. wo man knifflige, komplexe Fragen
    beantworten musste, z. B.:
  48. ["2003 verschwand u. a.
    der antike 'Löwe von Nimrud'
  49. aus dem Museum dieser Stadt."]
  50. Daher gibt es nun
    erste selbstfahrende Autos.
  51. Will man den Unterschied
  52. etwa zwischen Baum und
    Fußgänger erkennen, ist das wichtig.
  53. Wir wissen nicht, wie man
    solche Programme schreibt,
  54. aber durch Maschinelles Lernen
    ist das jetzt möglich.
  55. Dieses Auto ist schon über 1 Mio. km
  56. ohne den kleinsten Unfall
    auf normalen Straßen gefahren.
  57. Wir wissen also,
    dass Computer lernen können

  58. und dass sie auch Dinge lernen können,
  59. von denen wir nicht wissen,
    wie sie funktionieren,
  60. und manchmal sogar besser als wir.
  61. Eines der faszinierendsten Beispiele
    für Maschinelles Lernen
  62. habe ich bei einem meiner
    Kaggle-Projekte gesehen,
  63. als ein Team unter der Leitung
    von Geoffrey Hinton
  64. von der Universität Toronto
  65. den Wettstreit für automatische
    Drogenerkennung gewann.
  66. Außergewöhnlich war
    daran nicht nur ihr Sieg
  67. gegen all die Algorithmen von Merck
    und der internationalen akademischen Welt,
  68. sondern, dass das Team kein Vorwissen
    zu Chemie oder Biowissenschaften hatte
  69. und nur zwei Wochen brauchte.
  70. Wie haben sie das gemacht?
  71. Sie nutzten einen besonderen
    Algorithmus namens Deep Learning.
  72. Ihr Erfolg war so bedeutend,
  73. dass er wenig später auf der Titelseite
    der NY Times erschien.
  74. Hier auf der linken Seite
    sehen Sie Geoffrey Hinton.
  75. Deep Learning basiert auf der Funktion
    des menschlichen Gehirns
  76. und deswegen ist es ein Algorithmus,
  77. dessen Funktion theoretisch
    keine Grenzen gesetzt sind.
  78. Je mehr Daten und Rechenzeit man hat,
  79. desto besser wird er.
  80. Die New York Times zeigte in ihrem Artikel

  81. noch ein Resultat des Deep Learning,
  82. das ich Ihnen jetzt vorstellen will.
  83. Es beweist, dass Computer
    zuhören und verstehen können.
  84. Richard Rashid (Video):
    Als letzten Schritt in diesem Prozess

  85. werde ich Chinesisch mit Ihnen sprechen.
  86. Als wichtigsten Schritt haben wir
  87. anhand großer Informationsmengen
    von vielen Chinesisch-Sprechern
  88. ein Text-zu-Sprache-System gebaut,
  89. das chinesischen Text
    in chinesche Sprache umwandelt,
  90. und dann haben wir eine etwa einstündige
    Aufnahme meiner Stimme benutzt,
  91. um das Text-zu-Sprache-System
    so zu ändern, dass es wie ich klingt.
  92. Wieder ist das Ergebnis nicht perfekt.
  93. Eigentlich hat es sogar
    ganz schön viele Fehler.
  94. (Auf Chinesisch)
  95. (Applaus)
  96. In diesem Bereich ist noch viel zu tun.
  97. (Chinesisch)
  98. (Applaus)
  99. Jeremy Howard: Das war eine Konferenz
    zu Maschinellem Lernen in China.

  100. Übrigens hört man
    bei akademischen Konferenzen
  101. nur ganz selten Zwischenapplaus,
  102. obwohl das bei TEDx-Konferenzen
    durchaus erwünscht sein kann.
  103. Was Sie eben gesehen haben,
    basiert auf Deep Learning.
  104. (Applaus) Danke!
  105. Die englische Transkription
    war Deep Learning.
  106. Die Übersetzung ins Chinesische und
    der Text rechts oben – Deep Learning
  107. und die Modellierung der Stimme
    -- ebenfalls Deep Learning.
  108. Deep Learning ist also
    eine außergewöhnliche Sache.

  109. Es ist ein einziger Algorithmus,
    der scheinbar fast alles kann
  110. und ich fand heraus, dass er
    ein Jahr zuvor sehen gelernt hatte.
  111. Bei einem obskuren Wettbewerb
    der Ruhr-Universität Bochum
  112. zum Erkennen von Verkehrszeichen
  113. hat Deep Learning gelernt,
    Verkehrszeichen wie dieses zu erkennen.
  114. Er konnte Verkehrszeichen nicht nur
  115. besser als andere Algorithmen erkennen;
  116. die Rangliste zeigte,
    dass er sogar Menschen übertraf
  117. und zwar um das Doppelte.
  118. 2011 gab es also das erste Beispiel
  119. für Computer, die besser
    sehen können als Menschen.
  120. Seitdem ist viel passiert.
  121. 2012 gab Google bekannt,
    dass sie einen Deep-Learning-Algorithmus
  122. Youtube Videos schauen ließen
  123. und die Daten auf 16 000 Computern
    einen Monat lang berechnen ließen
  124. und dass der Computer allein
    Konzepte wie Menschen oder Katzen
  125. einzig durch das Betrachten
    von Videos erkannt hat.
  126. Menschen lernen sehr ähnlich.
  127. Sie lernen nicht, indem man
    ihnen sagt, was sie sehen,
  128. sondern sie lernen selbst,
    was diese Dinge sind.
  129. Übrigens hat 2012 Geoffrey Hinton,
    den wir vorher gesehen haben,
  130. den beliebten ImageNet-Wettbewerb
    mit seinem Versuch gewonnen,
  131. auf 1,5 Mio. Bildern
    die Motive zu erkennen.
  132. 2014 sind wir mittlerweile
    nur noch bei einer 6%igen Fehlerrate
  133. bei der Bilderkennung.
  134. Das ist wiederum besser als Menschen.
  135. Maschinen sind dabei
    also außergewöhnlich gut

  136. und das wird nun auch
    in der Wirtschaft genutzt.
  137. Zum Beispiel hat Google
    letztes Jahr bekanntgegeben,
  138. dass sie jeden Ort Frankreichs
    in nur 2 Stunden kartografiert hätten,
  139. indem sie Street-View-Bilder in einen
    Deep-Learning-Algorithmus einspeisten,
  140. der dann Hausnummern
    erkennen und lesen konnte.
  141. Davor hätte es dutzende Leute
    und viele Jahre gebraucht.
  142. Dasselbe passiert in China.
  143. Baidu ist sowas wie
    das chinesische Google,
  144. und was Sie hier oben links sehen,
  145. ist z. B. ein Bild, das ich in Baidus
    Deep-Learning-System hochgeladen habe.
  146. Darunter sehen Sie,
    dass das System das Bild verstanden
  147. und ähnliche Bilder gefunden hat.
  148. Die ähnlichen Bilder haben
    ähnliche Hintergründe,
  149. ähnliche Gesichts-Ausrichtung,
  150. manche sogar die rausgestreckte Zunge.
  151. Das System schaut eindeutig nicht
    auf den Text einer Website.
  152. Es hatte nur ein Bild.
  153. Also haben wir jetzt Computer,
    die wirklich verstehen, was sie sehen,
  154. und daher Datenbanken
  155. mit vielen Millionen Bildern
    in Echtzeit durchsuchen können.
  156. Aber was bedeutet es nun,
    dass Computer sehen können?

  157. Tja, es ist nicht nur so, dass sie sehen.
  158. Genau genommen kann
    Deep Leaning noch mehr.
  159. Komplexe, differenzierte Sätze wie dieser
  160. können nun mit Deep-Learning-Algorithmen
    verstanden werden.
  161. Wie Sie hier sehen können,
  162. zeigt dieses System aus Stanford
    mit dem roten Punkt oben,
  163. dass es die negative Botschaft
    des Satzes erkannt hat.
  164. Deep Learning ist jetzt
    fast so gut wie Menschen
  165. im Verstehen, worum es in Sätzen
    geht und was gesagt wird.
  166. Deep Learning wird auch genutzt,
    um Chinesisch zu lesen
  167. wieder fast auf Muttersprachler-Niveau.
  168. Der Algorithmus dafür
    stammt von Leuten aus der Schweiz,
  169. die allesamt kein Chinesisch
    sprechen oder verstehen.
  170. Wie ich schon sagte: Deep Learning
  171. ist so ziemlich das beste
    System der Welt dafür,
  172. sogar im Vergleich mit
    dem Wissen von Muttersprachlern.
  173. Dieses System haben wir
    in meiner Firma entworfen,

  174. das all diesen Kram zusammenfügt.
  175. Das sind Bilder ohne angehängten Text
  176. und während ich diese Sätze hier eintippe,
  177. versteht das System die Bilder in Echtzeit
  178. und erkennt, was sie zeigen,
  179. und findet ähnliche Bilder
    zu dem eingetippten Text.
  180. Sie sehen also,
    es versteht wirklich meine Sätze
  181. und ebenso diese Bilder.
  182. Ich weiß, dass Sie
    sowas Ähnliches von Google kennen,
  183. wo man Text eingeben kann
    und einem Bilder gezeigt werden,
  184. aber da wird nur die Website
    nach dem Text durchsucht.
  185. Das ist ein großer Unterschied dazu,
    die Bilder zu verstehen.
  186. Letzteres haben Computer erst
  187. vor ein paar Monaten gelernt.
  188. Wir haben gesehen, dass Computer nicht
    nur sehen, sondern auch lesen können.

  189. Wir haben natürlich auch gesehen,
    dass sie verstehen, was sie hören.
  190. Vielleicht sind Sie nicht überrascht,
    dass sie auch schreiben können.
  191. Diesen Text habe ich gestern mit einem
    Deep-Learning-Algorithmus erzeugt.
  192. Diesen Text hier hat
    ein Algorithmus aus Stanford erzeugt.
  193. Jeder dieser Sätze wurde mit
    einem Deep-Learning-Algorithmus erzeugt,
  194. um das jeweilige Bild zu beschreiben.
  195. Vorher hat der Algorithmus nie einen Mann
    im schwarzen Hemd Gitarre spielen sehen.
  196. Er hat einen Mann, die Farbe Schwarz,
  197. und eine Gitarre gesehen,
  198. aber er hat selbstständig
    diese neue Bildbeschreibung erstellt.
  199. Menschliche Leistung ist das
    noch nicht, aber nah dran.
  200. In Tests bevorzugen Menschen
    die computer-generierte Bildbeschreibung
  201. nur eines von vier Malen.
  202. Aber das System ist jetzt
    erst 2 Wochen alt,
  203. sodass wahrscheinlich im nächsten Jahr
  204. der Computeralgorithmus
    die menschliche Leistung übertrifft,
  205. so schnell wie die Dinge gerade gehen.
  206. Computer können also auch schreiben.
  207. Wenn wir das alles kombinieren,
    kriegen wir sehr spannenden Möglichkeiten.

  208. In der Medizin, zum Beispiel,
  209. hat ein Team aus Boston verkündet,
  210. dass es Dutzende
    neue klinisch relevante Merkmale
  211. von Tumoren entdeckt hätte,
    die Ärzten bei der Krebsprognose helfen.
  212. Ähnlich hat in Stanford
    eine Gruppe bekanntgegeben,
  213. dass sie für die Gewebeanalyse
    in vergrößerter Aufnahme
  214. ein Maschinelles Lernsystem
    entwickelt haben,
  215. das menschliche Pathologen
    tatsächlich dabei übertrifft,
  216. die Überlebenschancen von
    Krebspatienten vorherzusagen.
  217. In beiden Fällen waren
    die Vorhersagen nicht nur genauer,
  218. sie förderten auch neue
    wissenschaftliche Erkenntnisse.
  219. Im Fall der Radiologie
  220. waren es neue klinische Indikatoren,
    die Menschen verstehen.
  221. Im Fall der Pathologie
  222. hat das Computersystem herausgefunden,
    dass die Zellen rund um den Krebs
  223. genauso wichtig sind
    wie die Krebszellen selbst
  224. beim Erstellen der Diagnose.
  225. Das ist das Gegenteil davon, was man
    Pathologen jahrzehntelang beibrachte.
  226. In beiden Fällen wurden die Systeme
  227. gemeinsam von Experten der Medizin
    und des Maschinellen Lernens entwickelt,
  228. aber seit letztem Jahr haben
    wir auch das überwunden.
  229. Das hier ist ein Beispiel,
    wie man krebsgeschädigte Bereiche
  230. menschlichen Gewebes
    unter dem Mikroskop erkennt.
  231. Das hier gezeigte System
    erkennt solche Bereiche genauer,
  232. oder etwa gleich genau,
    wie menschliche Pathologen,
  233. aber es wurde allein mit Deep Learning,
    ohne medizinisches Wissen,
  234. von Leuten ohne Ausbildung
    in diesem Feld entwickelt.
  235. Ähnlich ist es bei dieser
    Neuronen-Segmentierung.
  236. Neuronen können jetzt damit etwa so genau
    wie durch Menschen segmentieren werden,
  237. aber dieses System wurde
    mit Deep Learning
  238. von Leuten ohne
    medizinisches Vorwissen entwickelt.
  239. Sogar ich, als jemand
    ohne medizinische Ausbildung,

  240. scheine nun genug für die Gründung
    eines medizinisches Unternehmens zu wissen
  241. -- und das habe ich auch.
  242. Ich hatte irgendwie Angst davor,
  243. aber theoretisch
    schien es möglich zu sein,
  244. in der Medizin sehr nützliche Dinge allein
    mit solchen Datenanalysen zu bewirken.
  245. Glücklicherweise war
    das Feedback fantastisch,
  246. sowohl von den Medien
    als auch von Medizinern,
  247. die mich sehr unterstützt haben.
  248. Theoretisch können wir den Mittelteil
    des medizinischen Vorgangs
  249. so viel wie möglich
    der Datenanalyse überlassen,
  250. sodass Ärzte nur noch tun müssen,
    was sie am besten können.
  251. Ich will Ihnen ein Beispiel geben.
  252. Aktuell brauchen wir 15 Minuten, um einen
    neuen medizinischen Diagnosetest zu bauen.
  253. Das zeige ich Ihnen jetzt in Echtzeit,
  254. aber ich habe es durch Zusammenschneiden
    auf 3 Minuten gekürzt.
  255. Anstatt Ihnen das Erstellen eines
    medizinischen Tests zu zeigen,
  256. zeige ich Ihnen einen
    Diagnosetest für Autobilder,
  257. denn das verstehen wir alle.
  258. Hier fangen wir mit ungefähr
    1,5 Mio. Autobildern an,

  259. und ich möchte etwas bauen,
    das sie nach dem Winkel sortiert,
  260. in dem das Foto gemacht wurde.
  261. Diese Bilder sind jetzt noch
    nicht benannt, ich fange bei Null an.
  262. Unser Deep-Learning-Algorithmus
  263. erkennt automatisch
    Strukturflächen auf den Bildern.
  264. Das Schöne ist, dass Mensch und Computer
    jetzt zusammenarbeiten können.
  265. Wie Sie hier sehen,
  266. gibt der Mensch dem Computer
    Zielbereiche vor,
  267. womit der Computer dann versuchen soll,
    seinem Algorithmus zu verbessern.
  268. Eigentlich sind diese Deep-Learning-
    Systeme im 16 000-dimensionalen Raum,
  269. hier können Sie den Computer
    das durch den Raum
  270. auf der Suche nach neuen
    Strukturflächen rotieren sehen.
  271. Wenn er dabei Erfolg hat,
  272. kann der menschliche Betreiber
    dann die interessanten Bereiche festlegen.
  273. Hier hat der Computer Bereiche gefunden,
  274. zum Beispiel Winkel.
  275. Im Verlauf des Prozesses
  276. sagen wir dem Computer immer mehr
  277. über die gesuchten Strukturen.
  278. Bei einem Diagnose-Test zum Beispiel
  279. würde das dem Pathologen helfen,
    kranke Bereiche zu identifizieren,
  280. oder dem Radiologen bei
    potentiell gefährlichen Knoten.
  281. Manchmal wird es
    schwer für den Algorithmus.
  282. In diesem Fall war er etwas verwirrt.
  283. Die Vorder- und Rückseiten
    der Autos sind vermischt.
  284. Wir müssen hier also sorgfältiger sein,
  285. und die Vorderseiten manuell
    von den Rückseiten trennen,
  286. um dann dem Computer zu sagen,
    dass das Teil einer Gruppe ist,
  287. die uns interessiert.
  288. Das machen wir für eine Weile,
    wir springen ein wenig weiter,

  289. und dann trainieren wir den Algorithmus,
  290. basierend auf diesen paar hundert Sachen,
  291. und hoffen, dass er besser geworden ist.
  292. Wie Sie sehen, lässt er
    einige dieser Bilder jetzt verblassen
  293. und zeigt uns, dass er schon jetzt
    ein wenig selbst erkennt.
  294. Wir können das Konzept
    der ähnlichen Bilder nutzen
  295. und dabei sehen Sie,
  296. dass der Computer jetzt in der Lage ist,
    nur die Vorderseiten der Autos zu finden.
  297. Also kann der Mensch dem
    Computer an diesem Punkt sagen,
  298. okay, du hast gute Arbeit geleistet.
  299. Natürlich ist es manchmal
    selbst hier schwer,

  300. die einzelnen Gruppen zu unterscheiden.
  301. Selbst nachdem der Computer
    die Bilder eine Weile rotiert hat,
  302. sind die rechten und linken Seiten
    der Bilder immer noch
  303. komplett durcheinander.
  304. Wieder können wir dem
    Computer Hinweise geben
  305. und sagen, okay, jetzt
    versuch mal einen Weg,
  306. der die rechte und linke Seite
    so gut wie möglich
  307. mit dem Deep-Learning-Algorithmus trennt.
  308. Und mit diesem Hinweis --
    ah, okay, jetzt hat er Erfolg.
  309. Er hat einen Weg gefunden,
    diese Objekte so sehen,
  310. der diese hier aussortiert hat.
  311. Sie haben jetzt einen Eindruck davon.

  312. Das ist kein Fall, wo der Mensch
    von einem Computer ersetzt wird,
  313. sondern sie arbeiten zusammen.
  314. Wir ersetzen hier etwas, wofür man
    früher ein Team von fünf oder sechs Leuten
  315. 7 Jahre beschäftigt hat,
  316. durch etwas, das 15 Minuten
  317. für eine einzige Person braucht.
  318. Dieser Vorgang braucht ungefähr
    vier oder fünf Durchgänge.

  319. Wie Sie sehen, sind wir nun bei 62 %
  320. korrekt klassifizierten Bildern
    aus 1,5 Millionen.
  321. An dieser Stelle können
    wir anfangen, sehr schnell
  322. große Bereiche zu erfassen,
  323. und sie auf Fehler zu überprüfen.
  324. Wenn es Fehler gibt, lassen wir
    das den Computer wissen.
  325. Indem wir diesen Vorgang auf jede
    der einzelnen Gruppen anwenden,
  326. sind wir jetzt bei
    einer 80%igen Erfolgsrate
  327. beim Klassifizieren der 1,5 Mio. Bilder.
  328. An diesem Punkt müssen wir nur noch
  329. die kleine Zahl der
    falsch klassifizierten Bilder finden
  330. und versuchen, die Ursache zu verstehen.
  331. Wenden wir das an,
  332. sind wir nach 15 Minuten
    bei einer Erfolgsquote von 97 %.
  333. Also könnten wir mit dieser Technik
    ein großes Problem beheben,

  334. nämlich, das Fehlen medizinischen
    Fachwissens in der Welt.
  335. Laut Weltwirtschaftsforum gibt es
    zwischen 10x und 20x
  336. zu wenige Ärzte in Entwicklungsländern
  337. und es würde etwa 300 Jahre dauern,
  338. genug Leute auszubilden,
    um das Problem zu beheben.
  339. Können Sie sich vorstellen,
    dass wir ihre Effizienz
  340. mit diesen Deep-Learning-Ansätzen
    steigern können?
  341. Ich bin ganz begeistert
    von den Möglichkeiten.

  342. Ich mache mir auch
    Sorgen über die Probleme.
  343. Das Problem hierbei ist,
    in jedem blauen Bereich auf der Karte
  344. machen Dienstleistungen
    über 80 % der Beschäftigung aus.
  345. Was sind Dienstleistungen?
  346. Das sind Dienstleistungen.
  347. Das sind außerdem genau die Dinge,
    die Computer gerade gelernt haben.
  348. Also sind 80 % der Beschäftigung
    der entwickelten Welt Dinge,
  349. die Computer gerade gelernt haben.
  350. Was bedeutet das?
  351. Naja, es wird alles gut.
    Andere Jobs ersetzen diese.
  352. Zum Beispiel wird es
    mehr Jobs für Informatiker geben.
  353. Nun, nicht ganz.
  354. Informatiker brauchen nicht lange,
    diese Dinge zu bauen.
  355. Zum Beispiel wurden diese 4
    Algorithmen vom selben Typen gebaut.
  356. Wenn Sie also denken, oh,
    das ist alles nicht neu,
  357. wir haben in der Vergangenheit gesehen,
    wenn etwas Neues kommt,
  358. werden sie durch neue Jobs ersetzt,
  359. was also sind diese neuen Jobs?
  360. Das ist sehr schwer einzuschätzen,
  361. weil menschliche Leistung
    schrittweise wächst,
  362. aber wir haben jetzt ein System,
    Deep Learning,
  363. das seine Leistung
    nachweislich exponentiell steigert.
  364. Und da sind wir.
  365. Zurzeit sehen wir die Dinge um uns herum
  366. und sagen "Computer sind
    immer noch ziemlich dumm." Oder?
  367. Aber in fünf Jahren werden Computer
    nicht mehr Teil dieser Tabelle sein.
  368. Wir müssen also schon jetzt anfangen,
    über diese Leistung nachzudenken.
  369. Wir haben das natürlich schon mal gesehen.

  370. Die Industrielle Revolution
  371. bewirkte einen Evolutionssprung
    der Leistung durch Motoren.
  372. Aber nach einer Weile
    beruhigten sich die Dinge.
  373. Es gab soziale Umbrüche,
  374. aber sobald die Motoren damals
    zur Energiegewinnung genutzt wurden,
  375. beruhigten sich die Dinge.
  376. Die Revolution des Maschinellen Lernens
  377. wird ganz anders
    als die Industrielle Revolution,
  378. weil die Revolution nie zu Ende ist.
  379. Je besser Computer
    bei intellektuellen Aktivitäten werden,
  380. desto bessere Computer können sie bauen,
  381. die intellektuell noch
    leistungsfähiger sind,
  382. also wird das eine Art Wandel,
  383. den die Welt nie zuvor gesehen hat,
  384. sodass sich Ihr Verständnis
    des Möglichen ändert.
  385. Das beeinflusst uns schon jetzt.

  386. In den letzten 25 Jahren ist
    die Produktivität des Kapitals gestiegen,
  387. aber die Produktivität der Arbeit
    blieb gleich und sank sogar ein bisschen.
  388. Deswegen will ich, dass wir
    diese Diskussion jetzt führen.

  389. Wenn ich Leuten
    von dieser Situation erzähle,
  390. sind sie oft sehr abschätzig.
  391. Computer denken nicht wirklich,
  392. sie fühlen nichts,
    sie verstehen Lyrik nicht,
  393. wir verstehen nicht wirklich,
    wie sie funktionieren.
  394. Ja, und?
  395. Computer können jetzt Dinge tun,
  396. für die Menschen ihre meiste Zeit
    gegen Bezahlung aufwenden.
  397. Wir sollten also jetzt überlegen,
  398. wie wir unsere sozialen und
    wirtschaftlichen Strukturen anpassen,
  399. um diese neue Realität zu erkennen.
  400. Danke.
  401. (Applaus)