YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Polish subtitles

← Cudowne i przerażające implikacje tego, że komputer potrafi się uczyć

Get Embed Code
30 Languages

Showing Revision 30 created 02/06/2015 by Rysia Wand.

  1. Kiedyś było tak,
  2. że aby komputer coś zrobił,
  3. trzeba go było zaprogramować.
  4. Dla tych, którzy tego nie robili:
  5. programowanie wymaga
    drobiazgowego zdefiniowania
  6. każdego kroku, który komputer ma wykonać,
  7. by osiągnąć cel.
  8. Jeżeli chcemy,
    by komputer wykonał czynność,
  9. której sami nie potrafimy wykonać,
  10. stajemy przed dużym wyzwaniem.
  11. Stanął przed nim Artur Samuel.

  12. W 1956 roku stwierdził, że chciałby,
  13. aby komputer wygrał z nim w warcaby.
  14. Jak napisać program,
  15. drobiazgowo wyrazić,
    jak być lepszym w warcaby
  16. niż jest się samemu?
  17. Artur wpadł na następujący pomysł:
  18. kazał komputerowi
    grać z samym sobą tysiące razy
  19. i w ten sposób nauczyć się gry.
  20. Rzeczywiście się udało.
  21. W 1962 roku komputer pokonał
    mistrza stanu Connecticut.
  22. Artur Samuel był ojcem
    uczenia maszynowego.

  23. Mam wobec niego duży dług,
  24. bo sam zajmuję się
    uczeniem maszynowym.
  25. Byłem przewodniczącym Kaggle,
  26. społeczności zrzeszającej
    200 tys. specjalistów
  27. od programowania maszynowego.
  28. Kaggle organizuje konkursy,
  29. podczas których członkowie próbują
  30. rozwiązać dotąd nierozwiązane problemy.
  31. Udało się to już setki razy.
  32. Z tej perspektywy wiele się dowiedziałem
  33. o dawnych i obecnych
    możliwościach uczenia maszynowego,
  34. i co będzie możliwe w przyszłości.
  35. Chyba pierwszym dużym sukcesem
  36. w komercyjnym zastosowaniu
    uczenia maszynowego
  37. był Google, który udowodnił,
    że da się szukać informacji
  38. przy pomocy algorytmu komputerowego,
  39. opartego o uczenie maszynowe.
  40. Odtąd było wiele udanych
    komercyjnych zastosowań.
  41. Firmy takie jak Amazon czy Netflix
  42. używają uczenia maszynowego
    do proponowania produktów
  43. lub filmów, które nas zaciekawią.
  44. Czasem przyprawia to o gęsią skórkę.
  45. Firmy jak LinkedIn czy Facebook
  46. mówią nam czasem, kogo znamy,
  47. i nie mamy pojęcia, jak to robią.
  48. Wykorzystują moc uczenia maszynowego.
  49. To algorytmy, które uczą się z danych,
  50. nie zaś przez ręczne programowanie.
  51. To również dlatego
    komputer Watson firmy IBM

  52. potrafił pokonać dwóch
    mistrzów świata w grze "Va Banque",
  53. odpowiadając na niezwykle subtelne
    i skomplikowane pytania takie jak to:
  54. Antyczny "Lew z Kalchu" zginął z muzeum
    w tym mieście w 2003 roku.
  55. Także dlatego mamy pierwsze
    samokierujące samochody.
  56. Możliwość odróżnienia, powiedzmy,
    drzewa i przechodnia,
  57. jest dosyć istotna.
  58. Nie wiemy, jak zaprogramować to ręcznie,
  59. ale potrafimy to zrobić
    przez uczenie maszynowe.
  60. Ten samochód przejechał już
    ponad 2 mln kilometrów
  61. po zwykłych drogach, bez wypadków.
  62. Czyli komputery potrafią się uczyć

  63. i potrafią uczyć się rzeczy,
  64. których czasem sami nie potrafimy robić,
  65. lub potrafią je robić lepiej niż my.
  66. Jeden z niezwykłych przykładów
    uczenia maszynowego
  67. zdarzył się w projekcie,
    który prowadziłem w Kaggle.
  68. Zespół, którym kierował Geoffrey Hinton
  69. z Uniwersytetu w Toronto,
  70. wygrał konkurs na automatyczne
    odkrywanie leków.
  71. Co niezwykłe,
    nie tylko przebili wszystkie algorytmy
  72. firmy Merck i międzynarodowej
    społeczności akademickiej,
  73. ale też nikt w zespole nie miał
    żadnej wiedzy z chemii, biologii
  74. czy nauki o organizmach żywych,
  75. a zrobili to w dwa tygodnie.
  76. Jak im się to udało?
  77. Użyli niezwykłego algorytmu,
    zwanego uczeniem głębokim.
  78. To wydarzenie było tak ważne,
    że kilka tygodni później
  79. New York Times pisał o nim
    na stronie głównej.
  80. Po lewej stronie widoczny
    jest Geoffrey Hinton.
  81. Uczenie głębokie to algorytm zainspirowany
    sposobem działania ludzkiego mózgu,
  82. przez co nie ma żadnych
    teoretycznych ograniczeń.
  83. Im więcej dostaje danych,
    im więcej czasu obliczeniowego,
  84. tym staje się lepszy.
  85. New York Times przedstawił też w artykule

  86. inne niezwykłe osiągniecie
    uczenia głębokiego,
  87. które teraz zaprezentuję.
  88. Udowadnia ono, że komputery
    potrafią słuchać i rozumieć.
  89. (Wideo) Richard Rashid: Ostatni krok,

  90. który chciałbym wykonać w tym procesie,
  91. to przemówić do was po chińsku.
  92. Chodzi o to, że udało nam się
  93. wziąć dużą ilość informacji
    od osób mówiących po chińsku
  94. i stworzyć system syntezy mowy,
  95. który konwertuje chiński tekst na mowę.
  96. Potem wzięliśmy godzinne
    nagranie mojego głosu
  97. i użyliśmy go do zmodulowania
    standardowego systemu syntezy mowy,
  98. żeby brzmiał jak ja.
  99. Efekt nie jest bezbłędny.
  100. W sumie jest nawet sporo błędów.
  101. (Po chińsku)
  102. (Oklaski)
  103. Ta dziedzina wymaga jeszcze dużo pracy.
  104. (Po chińsku)
  105. (Oklaski)
  106. JH: To był fragment konferencji
    na temat uczenia maszynowego w Chinach.

  107. Na akademickich konferencjach
    rzadko słyszy się spontaniczny aplauz.
  108. Na konferencjach TEDx
    zdarza się to częściej,
  109. więc proszę się nie krępować.
  110. Wszystko, co tu widzieliście,
    osiągnięto przez uczenie głębokie.
  111. (Oklaski) Dziękuję.
  112. Transkrypcja na angielski
    to uczenie głębokie.
  113. Tłumaczenie na chiński i tekst
    w prawym górnym rogu - uczenie głębokie,
  114. synteza mowy to również uczenie głębokie.
  115. Uczenie głębokie jest niezwykłe.

  116. To pojedynczy algorytm,
    który jakby umie wszystko.
  117. Odkryłem, że rok wcześniej
    nauczył się również widzieć.
  118. W mało znanym konkursie w Niemczech
  119. na rozpoznawanie znaków drogowych
  120. uczenie głębokie nauczyło się
  121. rozpoznawać takie znaki drogowe.
  122. Nie tylko rozpoznawało znaki
  123. lepiej niż inne algorytmy,
  124. ale nawet lepiej niż ludzie,
  125. mniej więcej dwa razy lepiej.
  126. Czyli w 2011 r. mieliśmy pierwszy przykład
  127. komputerów widzących lepiej niż ludzie.
  128. Od tego czasu bardzo dużo się wydarzyło.
  129. W 2012 r. Google ogłosił,
    że ich algorytm uczenia głębokiego
  130. oglądał filmy na YouTube
  131. i przez miesiąc przetwarzał dane
    na 16 tysiącach serwerów,
  132. po czym samodzielnie nauczył się pojęć
  133. takich jak ludzie czy koty,
  134. tylko przez oglądanie filmów.
  135. W bardzo podobny sposób uczą się ludzie.
  136. Nie trzeba im mówić, na co patrzą,
  137. tylko sami się uczą się,
    czym są widziane obiekty.
  138. W 2012 roku Geoffrey Hinton,
    którego widzieliśmy wcześniej,
  139. wygrał bardzo popularny konkurs ImageNet,
  140. gdzie dla 1,5 miliona obrazków
    trzeba określić,
  141. co się na nich znajduje.
  142. Do 2014 r. proporcja błędów spadła do 6%.
  143. To znowu lepiej, niż ludzie.
  144. Maszyny są tu niesamowicie skuteczne

  145. i wykorzystuje się to już komercyjnie.
  146. Na przykład Google ogłosił w zeszłym roku,
  147. że znaleźli na mapie wszystkie adresy
    we Francji w dwie godziny
  148. przez dostarczenie zdjęć Street View
  149. algorytmowi uczenia głębokiego,
    który rozpoznał i odczytał numery domów.
  150. Wyobraźcie sobie,
    ile czasu zajęłoby to kiedyś:
  151. dziesiątki ludzi, wiele lat.
  152. To samo dzieje się w Chinach.
  153. Baidu jest czymś w rodzaju
    chińskiego Google.
  154. W lewym górnym rogu
    widać przykładowe zdjęcie,
  155. które wczytałem do systemu
    uczenia głębokiego Baidu,
  156. poniżej widać, że system zrozumiał,
    co jest na zdjęciu
  157. i znalazł podobne zdjęcia.
  158. Te zdjęcia mają podobne tło,
  159. podobny kierunek pysków,
  160. niektórym nawet wystają języki.
  161. Ten algorytm na pewno nie patrzy
    na tekst na stronie,
  162. wgrałem tylko zdjęcie.
  163. Czyli dzisiejsze komputery
    naprawdę rozumieją, co widzą,
  164. i na żywo umieją przeszukiwać bazy danych
  165. setek milionów zdjęć.
  166. Co to właściwie znaczy,
    że komputery mogą widzieć?

  167. Nie chodzi o samo widzenie.
  168. Uczenie głębokie dało znacznie więcej.
  169. Złożone i pełne niuansów zdania, jak to,
  170. są już zrozumiałe
    dla algorytmów uczenia głębokiego.
  171. Jak widać tutaj,
  172. system z Uniwersytetu Stanforda
  173. zaznaczył czerwoną kropką na górze,
  174. że to zdanie wyraża negację.
  175. Efektywność uczenia głębokiego
    jest zbliżona do ludzkiej
  176. w rozumieniu sensu zdania i analizie.
  177. Uczenie głębokie zastosowano
    do czytania chińskiego
  178. na poziomie zbliżonym
    do rodzimych użytkowników.
  179. Ten algorytm opracował szwajcarski zespół,
  180. którego członkowie nie znają chińskiego.
  181. Jak wspomniałem, uczenie głębokie
  182. jest w tym najlepsze,
  183. nawet w porównaniu z rozumieniem
  184. przez rodzimych użytkowników języka.
  185. Ten system zbudowaliśmy w mojej firmie.

  186. Pokazuje, jak można to wszystko
    połączyć w całość.
  187. To są zdjęcia bez żadnego opisu
  188. i w trakcie wpisywania zdań
  189. system na żywo rozpoznaje zdjęcia,
  190. ustala, co na nich jest,
  191. i znajduje zdjęcia podobne do opisu.
  192. Rzeczywiście rozumie, o czym piszę,
  193. i rozumie, co jest na zdjęciach.
  194. Pewnie znacie to z Google'a,
  195. który znajduje zdjęcia
    według wpisywanych słów,
  196. choć w rzeczywistości wyszukuje
    strony internetowe w oparciu o tekst.
  197. To co innego niż rozumienie samych zdjęć.
  198. Komputery potrafią to robić
    dopiero od kilku miesięcy.
  199. Czyli komputery potrafią
    nie tylko widzieć, ale też czytać,

  200. i potrafią też rozumieć, co słyszą.
  201. Pewnie was nie zaskoczy,
    że potrafią też pisać.
  202. Ten tekst wygenerowałem wczoraj
    przy pomocy uczenia głębokiego.
  203. "Miło mi być tu z wami w Brukseli!"
  204. Tę próbkę tekstu
    wygenerował algorytm ze Stanford.
  205. Uczenie głębokie wygenerowało te zdania,
  206. aby opisać każde z tych zdjęć.
  207. Ten algorytm nigdy przedtem nie widział
  208. mężczyzny w czarnej koszulce,
    grającego na gitarze.
  209. Widział mężczyznę,
    widział czerń lub gitarę,
  210. ale sam stworzył oryginalny opis zdjęcia.
  211. Nadal nie dorównuje ludziom,
    ale mało mu brakuje.
  212. W testach ludzie preferują opisy
    generowane przez komputer
  213. w co czwartym przypadku.
  214. Ten system powstał dwa tygodnie temu,
  215. więc w tym tempie
  216. algorytm komputerowy
    prześcignie człowieka,
  217. pewnie w ciągu kolejnego roku.
  218. Czyli komputery potrafią też pisać.

  219. Połączyliśmy to wszystko,
    co daje ekscytujące możliwości.
  220. Na przykład w medycynie:
  221. zespół z Bostonu ogłosił odkrycie
  222. dziesiątek nowych,
    istotnych klinicznie cech nowotworów,
  223. co pomoże lekarzom
    w prognozowaniu postępów raka.
  224. Grupa badaczy ze Stanford ogłosiła,
  225. że badając tkanki w powiększeniu,
  226. opracowali system
    wykorzystujący uczenie maszynowe,
  227. który lepiej niż patolodzy przewiduje
  228. przeżywalność chorych na raka.
  229. Prognozy były nie tylko trafniejsze,
  230. ale dostarczyły nowej, wnikliwej wiedzy.
  231. W przypadku radiologii
  232. były to nowe wskaźniki kliniczne,
    zrozumiałe dla ludzi.
  233. W przypadku patologii
  234. system komputerowy odkrył,
    że komórki otaczające nowotwór
  235. są tak samo istotne,
    jak komórki nowotworowe
  236. w postawieniu diagnozy.
  237. To całkowicie przeczy
    dotychczasowej wiedzy o patologii.
  238. Oba te systemy
    opracowali eksperci medyczni
  239. we współpracy z ekspertami
    od uczenia maszynowego.
  240. W zeszłym roku
    przekroczyliśmy i ten próg.
  241. To jest przykład identyfikacji
    zmian nowotworowych
  242. w ludzkiej tkance badanej pod mikroskopem.
  243. Prezentowany tu system potrafi
    rozpoznawać te zmiany dokładniej
  244. lub równie dokładnie, co patolog,
  245. ale został zbudowany
    przy użyciu uczenia głębokiego
  246. bez żadnej wiedzy medycznej,
  247. przez ludzi nie związanych z medycyną.
  248. Podobnie z segmentacją neuronów.
  249. Możemy segmentować neurony
    równie dokładnie, jak ludzie,
  250. przy użyciu systemu uczenia głębokiego,
  251. opracowanego przez ludzi
    bez wiedzy medycznej.
  252. Zatem ja, jako osoba
    bez żadnej wiedzy medycznej,
  253. mam dostateczne kwalifikacje,
    by założyć firmę medyczną,
  254. co też zrobiłem.
  255. Byłem tym dosyć przerażony,

  256. ale teoria wskazywała, że w medycynie
  257. można przydać się
    samą techniką analizy danych.
  258. Szczęśliwie, przyjęto nas fantastycznie,
  259. zarówno media, jak i społeczność medyczna,
  260. która bardzo wspierała ten projekt.
  261. W teorii możemy przejąć
    środkową część procesu medycznego
  262. i zastąpić ją daleko idącą analizą danych,
  263. pozwalając lekarzom zająć się tym,
    w czym są najlepsi.
  264. Pokażę państwu przykład.
  265. Generacja nowego testu diagnostycznego
    zajmuje 15 minut.
  266. Pokażę to teraz na żywo.
  267. Skompresowałem to do trzech minut,
    omijając pewne czynności.
  268. Zamiast nowego testu diagnostycznego
    w medycynie,
  269. pokażę test diagnostyczny samochodów,
  270. bo jest to coś, co wszyscy rozumiemy.
  271. Na początek mamy 1,5 mln zdjęć samochodów.

  272. Chcę stworzyć coś,
    co je pogrupuje według kąta,
  273. z jakiego zostały sfotografowane.
  274. To zdjęcia bez opisów,
    więc trzeba zacząć od zera.
  275. Nasz algorytm uczenia głębokiego
  276. potrafi automatycznie rozpoznawać
    struktury na zdjęciach.
  277. Człowiek i komputer mogą współpracować.
  278. Jak tu widać,
  279. człowiek mówi komputerowi
    o obszarach zainteresowań,
  280. których komputer ma użyć
    do ulepszenia swojego algorytmu.
  281. Ten system uczenia głębokiego
    operuje w przestrzeni
  282. o 16 tysiącach wymiarów.
  283. Widać, jak komputer obraca obiekty,
  284. próbując znaleźć nowe obszary struktur.
  285. Kiedy mu się to uda,
  286. operator może wskazać
    interesujące obszary.
  287. W tym przypadku komputer
    znalazł pewne obszary,
  288. na przykład kąt zdjęcia.
  289. Z biegiem tego procesu
  290. stopniowo mówimy komputerowi coraz więcej
  291. na temat rodzaju szukanych struktur.
  292. Można sobie wyobrazić,
    że w przypadku testu diagnostycznego
  293. patolog identyfikowałby
    obszary patologiczne,
  294. a radiolog wskazywałby
    na potencjalnie uciążliwe guzki.
  295. Czasami może być to trudne dla algorytmu.
  296. W tym przypadku, algorytm się zgubił.
  297. Przednie i tylne części samochodów
    są wymieszane.
  298. Musimy być trochę ostrożniejsi
  299. i ręcznie zaznaczyć przednie części,
  300. wskazując potem komputerowi,
    że o taką grupę chodzi.
  301. Robimy to przez jakiś czas,
    tu coś pominiemy,

  302. teraz uczymy algorytm uczenia maszynowego
  303. na podstawie tych kilkuset rzeczy
  304. mając nadzieję, że się udoskonali.
  305. Widać, że algorytm
    zaczął wygaszać niektóre zdjęcia,
  306. pokazując w ten sposób,
    że potrafi je już rozpoznawać.
  307. Możemy użyć koncepcji podobnych zdjęć
  308. i teraz widać,
  309. że komputer potrafi już
    znajdować maski samochodów.
  310. Teraz człowiek może powiedzieć komputerowi
  311. "Tak, świetnie się spisałeś".
  312. Czasem, oczywiście, nawet w tym momencie

  313. jest jeszcze trudno rozpoznawać grupy.
  314. W tym przypadku nawet jeżeli pozwolimy
    komputerowi obracać tym przez chwilę,
  315. widać, że zdjęcia z prawej i lewej strony
    są nadal wymieszane.
  316. Można dać komputerowi kolejne wskazówki
  317. i kazać mu znaleźć rzut,
  318. który najwyraźniej oddziela
    lewe i prawe boki,
  319. przy pomocy uczenia głębokiego.
  320. Po tej wskazówce - udało się.
  321. Potrafi już myśleć o obiektach w sposób,
  322. który oddziela te grupy.
  323. Rozumiecie koncepcję.

  324. Tutaj komputer współpracuje z człowiekiem,
  325. zamiast go zastępować.
  326. Udało się zastąpić proces,
    który kiedyś wymagał zespołu
  327. pięciu czy sześciu ludzi przez siedem lat
  328. procesem, który zajmuje 15 minut
  329. i wymaga jednej osoby.
  330. Ten proces wymaga
    czterech czy pięciu iteracji.

  331. Widać, że teraz 62% z 1,5 miliona zdjęć
  332. jest zaklasyfikowanych poprawnie.
  333. Teraz można szybko wziąć większe sekcje
  334. i sprawdzić, czy nie ma błędów.
  335. Jeżeli są błędy,
    można o nich powiedzieć komputerowi.
  336. Powtarzając tę czynność dla różnych grup,
  337. mamy już teraz 80% skuteczności
  338. w klasyfikowaniu 1,5 miliona zdjęć.
  339. Teraz trzeba już tylko znaleźć tych kilka,
  340. które nie są klasyfikowane poprawnie
  341. i zrozumieć przyczynę.
  342. W 15 minut można osiągnąć skuteczność 97%.
  343. Ta technika pozwoli być może
    rozwiązać poważny problem
  344. światowego niedoboru
    kompetencji medycznych.

  345. Światowe Forum Ekonomiczne szacuje
    10- lub 20-krotny niedobór lekarzy
  346. w krajach rozwijających się,
  347. a wyszkolenie odpowiedniej liczby ludzi
  348. zajęłoby około 300 lat.
  349. A gdyby można było
    zwiększyć ich efektywność
  350. przy pomocy metod uczenia głębokiego?
  351. Bardzo mnie pociągają takie możliwości.

  352. Niepokoją mnie też problemy.
  353. Otóż każdy niebieski obszar na tej mapie
  354. to ponad 80% osób
    zatrudnionych w usługach.
  355. Co to są usługi?
  356. Oto usługi. [Kierowcy, kucharze,
    diagnostycy, prawnicy]
  357. Tak się składa,
    że właśnie to opanowały komputery.
  358. Zatem 80% zatrudnionych
    w krajach rozwiniętych
  359. robi rzeczy, których właśnie
    nauczyły się komputery.
  360. Co to oznacza?
  361. Nie szkodzi. Będą inne stanowiska.
  362. Na przykład przybędzie naukowców
    od analizy danych.
  363. Nie do końca.
  364. Analitykom danych nie trzeba dużo czasu
  365. na budowę takich systemów.
  366. Na przykład te cztery algorytmy
    opracował jeden człowiek.
  367. Myślicie, że to już było,
  368. widzieliśmy już w przeszłości,
  369. jak stare zawody ustępują nowym.
  370. Jakie będą te nowe zawody?
  371. Bardzo ciężko jest to oszacować,
  372. bo ludzkie osiągnięcia rosną stopniowo,
  373. a teraz mamy system, uczenie głębokie,
  374. którego zdolności rosną wykładniczo.
  375. A my jesteśmy tutaj.
  376. Widząc dzisiejsze realia mówimy:
  377. "Komputery są nadal dosyć głupie".
  378. Ale za pięć lat komputery będą poza skalą.
  379. Musimy zacząć myśleć
    o tych możliwościach już teraz.

  380. Oczywiście widzieliśmy to już kiedyś.
  381. Podczas rewolucji przemysłowej
  382. mieliśmy skokową zmianę możliwości
    dzięki silnikom.
  383. Tyle tylko, że po pewnym czasie
    rezultaty uległy spłaszczeniu.
  384. Nastąpiły zakłócenia społeczne,
  385. ale kiedy silnik zaczęto stosować
    do każdego rodzaju wytwarzania energii,
  386. wszystko się ustabilizowało.
  387. Rewolucja uczenia maszynowego
  388. będzie bardzo różna
    od rewolucji przemysłowej,
  389. bo rewolucja uczenia maszynowego
    nie ustabilizuje się nigdy.
  390. Im lepsza będzie
    aktywność intelektualna komputerów,
  391. tym lepsze zbudują komputery,
  392. o jeszcze większych
    zdolnościach intelektualnych.
  393. Będzie to zmiana,
    jakiej świat nigdy dotąd nie doświadczył,
  394. więc zmieniło się nasze wcześniejsze
    zrozumienie możliwości.
  395. Już odczuwamy ten wpływ.

  396. Przez ostatnie 25 lat
    produktywność kapitału wzrastała,
  397. wydajność pracy pozostała bez zmian,
    a nawet trochę spadła.
  398. Chcę więc już teraz zacząć tę dyskusję.

  399. Zwykle gdy opowiadam o tym problemie,
  400. napotykam lekceważenie.
  401. Przecież komputery nie potrafią
    naprawdę myśleć,
  402. nie mają uczuć,
    nie rozumieją poezji,
  403. nie do końca wiemy, jak działają.
  404. I co z tego?
  405. Komputery już teraz potrafią
    wykonywać czynności,
  406. z których utrzymują się ludzie,
  407. więc trzeba zacząć się zastanawiać,
  408. jak dostosujemy
    społeczne i gospodarcze struktury
  409. do tej nowej rzeczywistości.
  410. Dziękuję.
  411. (Oklaski)