1 00:00:00,880 --> 00:00:04,893 Anksčiau, jei norėdavai, kad kompiuteris padarytų kažką naujo, 2 00:00:04,893 --> 00:00:06,447 turėdavai programuoti. 3 00:00:06,447 --> 00:00:09,858 Programavimas, sakau tiems, kas niekada nėra to daręs, 4 00:00:09,858 --> 00:00:13,360 vargina savo reikalavimu išdėstyti 5 00:00:13,360 --> 00:00:16,727 kiekvieną atskirą žingsnį, ką nori, kad kompiuteris darytų, 6 00:00:16,727 --> 00:00:19,089 kad pasiektų tavo iškeltą tikslą. 7 00:00:19,089 --> 00:00:22,585 Ir jei nori padaryti kažką, ko pats nežinai kaip padaryti, 8 00:00:22,585 --> 00:00:24,648 tai išties yra didelis iššūkis. 9 00:00:24,648 --> 00:00:28,131 Su šiuo iššūkiu susidūrė šis žmogus, Athur Samuel. 10 00:00:28,131 --> 00:00:31,338 1956 m. jis norėjo, kad kompiuteris 11 00:00:31,338 --> 00:00:34,548 sugebėtų jį nugalėti žaidžiant šaškėmis. 12 00:00:34,548 --> 00:00:36,588 Kaip gali parašyti programą, 13 00:00:36,588 --> 00:00:40,394 detalizuoti, kaip būti geresniam nei esi pats žaisdamas šaškėmis? 14 00:00:40,394 --> 00:00:42,116 Jam kilo idėja: 15 00:00:42,116 --> 00:00:45,840 jis leido kompiuteriui žaisti prieš save tūkstančius kartų 16 00:00:45,840 --> 00:00:48,364 ir išmokti žaisti šaškėmis. 17 00:00:48,364 --> 00:00:51,544 Ir tai suveikė, be to, 1962 m. 18 00:00:51,544 --> 00:00:55,561 šis kompiuteris nugalėjo Konektikuto čempioną. 19 00:00:55,561 --> 00:00:58,534 Taigi Arthur Samuel yra gebančios mokytis mašinos tėvas, 20 00:00:58,534 --> 00:01:00,251 ir jam aš esu skolingas, 21 00:01:00,251 --> 00:01:03,014 nes aš esu gebančios mokytis mašinos praktikas. 22 00:01:03,014 --> 00:01:04,839 Aš buvau „Kaggle“ prezidentu, 23 00:01:04,839 --> 00:01:07,867 bendruomenės su daugiau nei 200 000 besimokančios mašinos praktikų. 24 00:01:07,867 --> 00:01:09,925 „Kaggle“ skelbia konkursus 25 00:01:09,925 --> 00:01:13,633 pabandyti ir išspręsti prieš tai neišspręstas problemas, 26 00:01:13,633 --> 00:01:17,470 ir tai pavyko šimtus kartų. 27 00:01:17,470 --> 00:01:19,940 Taigi turėdamas pranašumą aš galėjau daug sužinoti 28 00:01:19,940 --> 00:01:23,890 apie tai, ką besimokančios mašinos galėjo padaryti praeity, ką gali dabar, 29 00:01:23,890 --> 00:01:26,252 ir ką galėtų ateityje. 30 00:01:26,252 --> 00:01:30,675 Galbūt pirma didžiausia besimokančios mašinos komercinė sėkmė buvo „Google“. 31 00:01:30,675 --> 00:01:33,784 „Google“ įrodė, kad įmanoma surasti informaciją, 32 00:01:33,784 --> 00:01:35,536 naudojant kompiuterio algoritmą, 33 00:01:35,536 --> 00:01:38,437 šis algoritmas paremtas mašinos gebėjimu mokytis. 34 00:01:38,437 --> 00:01:42,323 Nuo to laiko turime daugiau komercinės sėkmės pavyzdžių. 35 00:01:42,323 --> 00:01:44,160 Įmonės, kaip „Amazon“ ir „Netflix“, 36 00:01:44,160 --> 00:01:47,876 naudoja besimokančias mašinas, kad pasiūlytų tai, ką gal norėtumėte pirkti, 37 00:01:47,876 --> 00:01:49,896 filmų, kuriuos galbūt norėtumėte pamatyti. 38 00:01:49,896 --> 00:01:51,703 Kartais tai kelia baimę. 39 00:01:51,703 --> 00:01:53,657 Įmonės, kaip „LinkedIn“ ir „Facebook“, 40 00:01:53,657 --> 00:01:56,251 kartais pasiūlys jums, kas galėtų būti jūsų draugais, 41 00:01:56,251 --> 00:01:58,228 ir jūs nežinote, kaip jie tai daro, 42 00:01:58,228 --> 00:02:01,195 ir tai tik dėl to, kad jie naudoja besimokančios mašinos galią. 43 00:02:01,195 --> 00:02:04,152 Tai yra algoritmai, kurie iš duomenų mokosi, kaip tai padaryti, 44 00:02:04,152 --> 00:02:07,399 užuot būtų programuojami ranka. 45 00:02:07,399 --> 00:02:09,877 Taip buvo ir su IBM pasisekimu, 46 00:02:09,877 --> 00:02:13,739 kad Watson sumuštų du pasaulio čempionus žaidime „Jeopardy“, 47 00:02:13,739 --> 00:02:16,964 atsakinėjant neįtikėtinai subtilius ir sunkius klausimus, kaip šis. 48 00:02:16,964 --> 00:02:19,799 [„Antik. „Nimrudo liūtas“ dingo iš šio miesto muziejaus...“] 49 00:02:19,799 --> 00:02:23,034 Dėl tos pačios priežasties matome pirmus automobilius be vairuotojų. 50 00:02:23,034 --> 00:02:25,856 Jei jūs norite įvardinti skirtumą tarp, pavyzdžiui, 51 00:02:25,856 --> 00:02:28,488 medžio ir pėsčiojo, ką gi, tai gana svarbu. 52 00:02:28,488 --> 00:02:31,075 Mes nežinome, kaip parašyti šias programas ranka, 53 00:02:31,075 --> 00:02:34,072 bet su besimokančiomis mašinomis dabar tai įmanoma. 54 00:02:34,072 --> 00:02:36,680 Išties, šis automobilis nuvažiavo virš milijono mylių 55 00:02:36,680 --> 00:02:40,186 be jokių eismo įvykių įprastuose keliuose. 56 00:02:40,196 --> 00:02:44,110 Dabar žinome – kompiuteriai gali mokytis, 57 00:02:44,110 --> 00:02:46,010 ir jie gali išmokti daryti dalykus, 58 00:02:46,010 --> 00:02:48,848 kurių mes patys kartais, nežinome kaip padaryti, 59 00:02:48,848 --> 00:02:51,733 o gal netgi padaryti geriau, nei mes. 60 00:02:51,733 --> 00:02:55,928 Vienas iš nuostabiausių mano matytų besimokančios mašinos pavyzdžių 61 00:02:55,928 --> 00:02:58,320 nutiko mano vykdytame projekte „Kaggle“. 62 00:02:58,320 --> 00:03:01,911 Komanda, kuriai vadovavo vaikinas vardu Geoffrey Hinton, 63 00:03:01,911 --> 00:03:03,463 iš Toronto universiteto, 64 00:03:03,463 --> 00:03:06,140 laimėjo varžybas už automatinį vaistų atradimą. 65 00:03:06,140 --> 00:03:08,987 Keisčiausia ne tai, kad jie paneigė visus 66 00:03:08,987 --> 00:03:13,000 Merck sukurtus ar tarptautinius akademinės bendruomenės algoritmus, 67 00:03:13,000 --> 00:03:18,061 o tai, kad nei vienas neturėjo chemijos, biologijos ar gamtos mokslų pagrindų, 68 00:03:18,061 --> 00:03:20,230 ir jie tai padarė per dvi savaites. 69 00:03:20,230 --> 00:03:21,611 Kaip jiems pavyko? 70 00:03:22,421 --> 00:03:25,342 Jie naudojo išskirtinį algoritmą, vadinamą giliuoju mokymusi. 71 00:03:25,342 --> 00:03:28,291 Tai buvo tiek svarbu, kad ši sėkmės istorija buvo aprašyta 72 00:03:28,291 --> 00:03:31,412 pirmajame „New York Times“ puslapyje po kelių savaičių. 73 00:03:31,412 --> 00:03:34,147 Čia yra Geoffrey Hinton, kairėje pusėje. 74 00:03:34,147 --> 00:03:38,488 Gilusis mokymasis yra algoritmas, įkvėptas to, kaip dirba žmogaus smegenys, 75 00:03:38,488 --> 00:03:40,300 ir dėl to šis algoritmas 76 00:03:40,300 --> 00:03:44,141 neturi teorinių apribojimų tam, ką jis gali daryti. 77 00:03:44,141 --> 00:03:46,964 Kuo daugiau jam duodi duomenų ir laiko jiems apskaičiuoti, 78 00:03:46,964 --> 00:03:48,276 tuo jis geresnis. 79 00:03:48,276 --> 00:03:50,615 „New York Times“ taip pat tame straipsnyje aprašė 80 00:03:50,615 --> 00:03:52,857 kitą išskirtinį gilaus mokymosi rezultatą, 81 00:03:52,857 --> 00:03:55,569 kurį dabar jums parodysiu. 82 00:03:55,569 --> 00:04:00,510 Tai rodo, kad kompiuteris gali girdėti ir suprasti. 83 00:04:00,510 --> 00:04:03,221 (Video) Richard Rashid: Dabar 84 00:04:03,221 --> 00:04:06,246 paskutinis dalykas, ką norėčiau padaryti šiame procese, 85 00:04:06,246 --> 00:04:10,961 yra kalbėti su jumis kiniškai. 86 00:04:10,961 --> 00:04:13,596 Pagrindinis dalykas, 87 00:04:13,596 --> 00:04:18,598 kad mes turėjome galimybę surinkti daugybę informacijos iš kalbančių kiniškai 88 00:04:18,598 --> 00:04:21,128 ir sukurti teksto-kalbos sistemą, 89 00:04:21,128 --> 00:04:25,801 kuri paima kinišką tekstą ir konvertuoja jį į kinų kalbą, 90 00:04:25,801 --> 00:04:29,929 ir tada mes paėmėme apie valandą mano balso, 91 00:04:29,929 --> 00:04:31,820 ir tai panaudojome sumodeliuoti 92 00:04:31,820 --> 00:04:36,364 standartinę teksto-kalbos sistemą, kuri kalbėtų mano balsu. 93 00:04:36,364 --> 00:04:38,904 Dar kartą, rezultatas nėra tobulas. 94 00:04:38,904 --> 00:04:41,552 Iš tiesų, yra keli netikslumai. 95 00:04:41,552 --> 00:04:44,036 (Kiniškai) 96 00:04:44,036 --> 00:04:47,403 (Plojimai) 97 00:04:49,446 --> 00:04:53,022 Dar daug reikia nuveikti šioje srityje. 98 00:04:53,022 --> 00:04:56,667 (Kiniškai) 99 00:04:56,667 --> 00:05:00,100 (Plojimai) 100 00:05:01,345 --> 00:05:04,744 Jeremy Howard: Tai buvo besimokan- čių mašinų konferencija Kinijoje. 101 00:05:04,744 --> 00:05:07,114 Išties nedažnai pasitaiko mokslo konferencijose 102 00:05:07,114 --> 00:05:09,011 išgirsti spontaniškus plojimus, 103 00:05:09,011 --> 00:05:12,687 nors, žinoma, kartais pasitaiko ir TEDx konferencijose, nesivaržykite. 104 00:05:12,687 --> 00:05:15,482 Viskas, ką jūs čia matėte, vyko su giliuoju mokymusi. 105 00:05:15,482 --> 00:05:17,007 (Plojimai) Dėkoju. 106 00:05:17,007 --> 00:05:19,289 Angliška transkripcija buvo gilus mokymasis. 107 00:05:19,289 --> 00:05:22,701 Vertimas į kinų kalbą ir tekstas viršuje dešinėje – gilus mokymasis, 108 00:05:22,701 --> 00:05:26,008 ir balso konstrukcija – taip pat gilus mokymasis. 109 00:05:26,008 --> 00:05:29,242 Gilusis mokymasis yra išskirtinis dalykas. 110 00:05:29,242 --> 00:05:32,341 Tai yra atskiras algoritmas, kuris, atrodo, gali beveik viską, 111 00:05:32,341 --> 00:05:35,452 ir aš atradau, kad prieš metus jis išmoko matyti. 112 00:05:35,452 --> 00:05:37,628 Šiame nežymiame konkurse Vokietijoje, 113 00:05:37,628 --> 00:05:40,225 pavadintame Vokiečių kelių ženklų atpažinimo etalonu, 114 00:05:40,225 --> 00:05:43,618 gilusis mokymasis išmoko atpažinti kelio ženklus, kaip šis. 115 00:05:43,618 --> 00:05:45,712 Ne tik galėjo atpažinti kelio ženklus 116 00:05:45,712 --> 00:05:47,470 geriau, nei kiti algoritmai, 117 00:05:47,470 --> 00:05:50,189 rezultatų lentelė parodė, kad jis buvo geresnis už žmones, 118 00:05:50,189 --> 00:05:52,041 netgi du kartus geresnis. 119 00:05:52,041 --> 00:05:54,037 Taigi 2011 m. turėjome pirmą pavyzdį 120 00:05:54,037 --> 00:05:57,442 kompiuterių, galinčių matyti geriau, nei žmonės. 121 00:05:57,442 --> 00:05:59,491 Nuo tada daug kas įvyko. 122 00:05:59,491 --> 00:06:03,005 2012 m. „Google“ paskelbė, kad jie leido gilaus mokymosi algoritmui 123 00:06:03,005 --> 00:06:04,420 žiūrėti „YouTube“ įrašus 124 00:06:04,420 --> 00:06:07,857 ir mėnesį rinko duomenis iš 16 000 kompiuterių, 125 00:06:07,857 --> 00:06:12,218 ir šie kompiuteriai savarankiškai išmoko apie sąvokas, kaip žmonės ir katės, 126 00:06:12,218 --> 00:06:14,027 tiesiog žiūrėdami vaizdo įrašus. 127 00:06:14,027 --> 00:06:16,379 Tai panašu į tai, kaip mokosi žmonės. 128 00:06:16,379 --> 00:06:19,119 Žmonės mokosi ne kai jiems sakoma, ką jie mato, 129 00:06:19,119 --> 00:06:22,450 bet mokosi patys atrasdami, kas šie dalykai yra. 130 00:06:22,450 --> 00:06:25,819 Taip pat 2012 m. Geoffrey Hinton, kurį matėme anksčiau, 131 00:06:25,819 --> 00:06:28,677 laimėjo populiarų „ImageNet“ konkursą, 132 00:06:28,677 --> 00:06:32,818 bandantį apskaičiuoti iš pusantro milijono vaizdų, 133 00:06:32,818 --> 00:06:34,256 kieno tai nuotraukos. 134 00:06:34,256 --> 00:06:37,789 Nors dabar 2014 m., mes vis dar klystame 6 procentais 135 00:06:37,789 --> 00:06:39,242 atpažindami vaizdus. 136 00:06:39,242 --> 00:06:41,268 Ir vėlgi tai yra geriau, nei gali žmonės. 137 00:06:41,268 --> 00:06:45,037 Taigi mašinos išties daro išskirtinį darbą šioje srityje, 138 00:06:45,037 --> 00:06:47,306 ir dabar tai naudojama pramonėje. 139 00:06:47,306 --> 00:06:50,348 Pavyzdžiui, „Google“ pernai paskelbė, 140 00:06:50,348 --> 00:06:54,933 kad į žemėlapį įtraukė kiekvieną atskirą Prancūzijos vietą vos per dvi valandas, 141 00:06:54,933 --> 00:06:58,380 jie tai padarė perkeldami gatvių vaizdus 142 00:06:58,380 --> 00:07:02,699 į gilaus mokymosi algoritmą, kad atpažintų gatvių numerius. 143 00:07:02,699 --> 00:07:04,919 Įsivaizduokite, kaip ilgai tai būtų užtrukę: 144 00:07:04,919 --> 00:07:08,274 daugybė žmonių ir metų. 145 00:07:08,274 --> 00:07:10,185 Tai vyksta ir Kinijoje. 146 00:07:10,185 --> 00:07:14,221 „Baidu“ yra savotiškas kinų „Google“, spėju, 147 00:07:14,221 --> 00:07:16,504 ir tai, ką jūs matote viršuje kairėje 148 00:07:16,504 --> 00:07:20,478 yra pavyzdys nuotraukos, kurią aš įkėliau į „Baidu“ gilaus mokymosi sistemą, 149 00:07:20,478 --> 00:07:24,247 ir apačioje jūs galite pamatyti, kad sistema suprato, kas yra nuotraukoje, 150 00:07:24,247 --> 00:07:26,483 ir rado panašius vaizdus. 151 00:07:26,483 --> 00:07:29,219 Išties panašūs vaizdai turi panašų foną, 152 00:07:29,219 --> 00:07:30,877 panašų snukių pasukimą, 153 00:07:30,877 --> 00:07:32,665 netgi kai kurie su iškištu liežuviu. 154 00:07:32,665 --> 00:07:35,695 Tai nelabai aišku, žiūrint į tekstą tinklalapyje. 155 00:07:35,695 --> 00:07:37,107 Aš įkėliau tik nuotrauką. 156 00:07:37,107 --> 00:07:41,128 Taigi dabar mes turime kompiuterius, kurie tikrai supranta, ką mato 157 00:07:41,128 --> 00:07:42,752 ir gali ieškoti duomenų bazėse 158 00:07:42,752 --> 00:07:46,306 šimtus milijonus vaizdų realiu laiku. 159 00:07:46,306 --> 00:07:49,536 Taigi ką reiškia, kad dabar kompiuteriai gali matyti? 160 00:07:49,536 --> 00:07:51,553 Tai ne tik, kad kompiuteriai gali matyti. 161 00:07:51,553 --> 00:07:53,622 Išties, gilus mokymasis padarė daugiau. 162 00:07:53,622 --> 00:07:56,570 Sudėtingi sakiniai su niuansais, kaip šis 163 00:07:56,570 --> 00:07:59,394 dabar yra suprantami su gilaus mokymosi algoritmais. 164 00:07:59,394 --> 00:08:00,697 Kaip galite čia matyti. 165 00:08:00,697 --> 00:08:03,465 ši Stanfordu paremta sistema, rodanti raudoną tašką viršuj, 166 00:08:03,465 --> 00:08:07,384 suprato, kad šis sakinys išreiškia neigiamą mintį. 167 00:08:07,384 --> 00:08:10,790 Gilus mokymasis iš tiesų artėja prie žmogaus gebėjimo 168 00:08:10,802 --> 00:08:15,923 suprasti, apie ką yra sakiniai ir kas yra sakoma apie tuos dalykus. 169 00:08:15,923 --> 00:08:18,651 Taip pat, gilus mokymasis buvo naudotas skaityti kiniškai 170 00:08:18,651 --> 00:08:21,807 dar kartą gimtosios kinų kalbos skaitytojo lygiu. 171 00:08:21,807 --> 00:08:23,975 Šis algoritmas, sukurtas Šveicarijoje žmonių, 172 00:08:23,975 --> 00:08:27,331 kurių nei vienas nekalba ar supranta kiniškai. 173 00:08:27,331 --> 00:08:29,382 Kaip ir sakiau, gilaus mokymosi naudojimas 174 00:08:29,382 --> 00:08:31,601 už tai yra geriausia sistema pasaulyje 175 00:08:31,601 --> 00:08:36,718 net palyginus su įgimtu žmogaus suvokimu. 176 00:08:36,718 --> 00:08:39,682 Tai yra sistema, kurią mes sudėjome mano kompanijoje, 177 00:08:39,682 --> 00:08:41,728 kuri rodo, kaip sudeda viską į krūvą. 178 00:08:41,728 --> 00:08:44,189 Štai čia nuotraukos, kurios neturi pridėto teksto, 179 00:08:44,189 --> 00:08:46,541 ir kai aš rašau šiuos žodžius, 180 00:08:46,541 --> 00:08:49,510 ji realiu laiku supranta šias nuotraukas 181 00:08:49,510 --> 00:08:51,189 ir išsiaiškina, apie ką jos, 182 00:08:51,189 --> 00:08:54,352 ir suranda nuotraukas, panašias į tekstą, kurį aš rašau. 183 00:08:54,352 --> 00:08:57,108 Taigi jūs matote, kad ji išties supranta mano žodžius 184 00:08:57,108 --> 00:08:59,332 ir iš tikrųjų supranta šiuos vaizdus. 185 00:08:59,332 --> 00:09:01,891 Žinau, kad jūs matėte kažką panašaus „Google“, 186 00:09:01,891 --> 00:09:04,666 kur jūs rašote tekstą, ir jums suranda vaizdus, 187 00:09:04,666 --> 00:09:08,090 bet iš tikrųjų ji tik ieško tinklalapio su nurodytu tekstu. 188 00:09:08,090 --> 00:09:11,091 Tai išties skiriasi nuo tikro vaizdų supratimo. 189 00:09:11,091 --> 00:09:13,843 Tai yra kažkas, ką kompiuteriai galėjo padaryti 190 00:09:13,843 --> 00:09:17,091 pirmą kartą paskutiniais mėnesiais. 191 00:09:17,091 --> 00:09:21,182 Taigi mes matome, kad kompiuteriai gali ne tik matyti, bet ir skaityti, 192 00:09:21,182 --> 00:09:24,947 ir, žinoma, mes parodėme, kad jie gali suprasti ką girdi. 193 00:09:24,947 --> 00:09:28,389 Gal nenustebinsiu jums pasakydamas, kad jie gali ir rašyti. 194 00:09:28,389 --> 00:09:33,172 Štai čia tekstas, kurį sugeneravau vakar naudodamas gilaus mokymosi algoritmą. 195 00:09:33,172 --> 00:09:37,096 Ir štai čia - tekstas, kurį sugeneravo Stanfordo algoritmas. 196 00:09:37,096 --> 00:09:38,860 Kiekvienas šių sakinių buvo sukurtas 197 00:09:38,860 --> 00:09:43,109 gilaus mokymosi algoritmo, kad aprašytų kiekvieną šių vaizdų. 198 00:09:43,109 --> 00:09:47,581 Šis algoritmas prieš tai nebuvo matęs vyro juodais marškinėliais grojant gitara. 199 00:09:47,581 --> 00:09:49,801 Jis yra matęs vyrą prieš tai, yra matęs juodą, 200 00:09:49,801 --> 00:09:51,400 taip pat ir gitarą, 201 00:09:51,400 --> 00:09:55,694 bet jis savarankiškai sugeneravo šį nuotraukos aprašymą. 202 00:09:55,694 --> 00:09:59,196 Kol kas tai neprilygsta žmogaus gebėjimams, bet mes esame arti. 203 00:09:59,196 --> 00:10:03,264 Testuose žmonės teikia pirmenybę kompiuterio sukurtai antraštei 204 00:10:03,264 --> 00:10:04,791 vieną iš keturių kartų. 205 00:10:04,791 --> 00:10:06,855 Šiai sistemai kol kas tik dvi savaitės, 206 00:10:06,855 --> 00:10:08,701 taigi tikėtina, kad per kitus metus 207 00:10:08,701 --> 00:10:11,502 kompiuterio algoritmas bus 208 00:10:11,502 --> 00:10:13,364 gerokai pralenkęs žmogaus gebėjimus. 209 00:10:13,364 --> 00:10:16,413 Taigi kompiuteriai taip pat gali rašyti. 210 00:10:16,413 --> 00:10:19,888 Taigi mes viską sudėjome, ir tai veda į įdomias galimybes. 211 00:10:19,888 --> 00:10:21,380 Pavyzdžiui, medicinoje. 212 00:10:21,380 --> 00:10:23,905 Komanda Bostone pranešė, kad jie atrado 213 00:10:23,905 --> 00:10:26,854 daugybę naujų kliniškai svarbių 214 00:10:26,854 --> 00:10:31,120 auglių bruožų, kurie padeda gydytojams prognozuoti vėžį. 215 00:10:32,220 --> 00:10:34,516 Labai panašiai Stanforde 216 00:10:34,516 --> 00:10:38,179 ten esanti komanda pranešė, kad tyrinėdami padidintus audinius 217 00:10:38,179 --> 00:10:40,560 jie sukūrė sistemą, pagrįstą mašinos mokymusi, 218 00:10:40,560 --> 00:10:43,142 kuri išties yra geresnė, už žmones patologus 219 00:10:43,142 --> 00:10:47,519 nustatant išgyvenimo tikimybę sergantiems vėžiu. 220 00:10:47,519 --> 00:10:50,764 Abiem atvejais ne tik buvo tikslesnės prognozės, 221 00:10:50,764 --> 00:10:53,266 bet jie sukūrė ir naują įžvalgos mokslą. 222 00:10:53,276 --> 00:10:54,781 Radiologijos atveju 223 00:10:54,781 --> 00:10:57,876 tai buvo nauji klinikiniai indikatoriai, kuriuos supranta žmonės. 224 00:10:57,876 --> 00:10:59,668 Patologijos atveju 225 00:10:59,668 --> 00:11:04,168 kompiuterio sistema atrado, kad ląstelės aplink vėžio židinį 226 00:11:04,168 --> 00:11:07,508 yra tokios pat svarbios, kaip vėžinės ląstelės 227 00:11:07,508 --> 00:11:09,260 nustatant diagnozę. 228 00:11:09,260 --> 00:11:14,621 Tai yra atvirkščiai, nei patologai buvo mokami dešimtmečiais. 229 00:11:14,621 --> 00:11:17,913 Kiekviename šių dviejų atvejų buvo sukurtos sistemos 230 00:11:17,913 --> 00:11:21,534 derinant medicinos ekspertus ir mašinos mokymosi ekspertus, 231 00:11:21,534 --> 00:11:24,275 bet paskutiniais metais mes pažengėme į priekį. 232 00:11:24,275 --> 00:11:27,824 Štai čia pavyzdys, kaip nustatomos vėžio ląstelės 233 00:11:27,824 --> 00:11:30,354 žmogaus audinyje po mikroskopu. 234 00:11:30,354 --> 00:11:34,967 Čia demonstruojama sistema gali atpažinti šias vietas tiksliau, 235 00:11:34,967 --> 00:11:37,742 ar beveik taip pat tiksliai, kaip gydytojai patologai, 236 00:11:37,742 --> 00:11:41,134 ji buvo sukurta vien su giliu mokymusi, be jokių medicinos žinių 237 00:11:41,134 --> 00:11:43,660 žmonių, kurie neturi jokio pagrindo šioje srityje. 238 00:11:44,730 --> 00:11:47,285 Panašiai čia, tai neurono segmentavimas. 239 00:11:47,285 --> 00:11:50,953 Dabar galime segmentuoti neuronus beveik taip pat tiksliai, kaip žmonės, 240 00:11:50,953 --> 00:11:53,670 bet ši sistema sukurta naudojant gilų mokymąsi 241 00:11:53,670 --> 00:11:56,921 žmonių, neturinčių ankstesnės patirties medicinoje. 242 00:11:56,921 --> 00:12:00,148 Taigi aš, neturintis jokio medicininio išsilavinimo, 243 00:12:00,148 --> 00:12:03,875 panašu, kad esu tinkamas įsteigti naują medicinos kompaniją, 244 00:12:03,875 --> 00:12:06,021 ką aš ir padariau. 245 00:12:06,021 --> 00:12:07,761 Tam tikra prasme bijojau tą daryti, 246 00:12:07,761 --> 00:12:10,650 bet teorija, rodos, pati patarė, kad turėtų būti įmanoma 247 00:12:10,650 --> 00:12:16,142 sukurti naudingą mediciną, naudojant tik duomenų analizės technikas. 248 00:12:16,142 --> 00:12:18,622 Ir laimei, atsiliepimai buvo puikūs, 249 00:12:18,622 --> 00:12:20,978 ne tik iš žiniasklaidos, bet ir iš medikų, 250 00:12:20,978 --> 00:12:23,322 kurie labai palaikė. 251 00:12:23,322 --> 00:12:27,471 Teoriškai mes galime paimti vidurinę medicininio proceso dalį 252 00:12:27,471 --> 00:12:30,364 ir paversti ją į duomenų analizę kiek įmanoma daugiau, 253 00:12:30,364 --> 00:12:33,429 leidžiant gydytojams daryti tai, ką jie geriausiai sugeba. 254 00:12:33,429 --> 00:12:35,031 Noriu jums duoti pavyzdį. 255 00:12:35,031 --> 00:12:39,975 Mums užtrunka apie 15 minučių sukurti naują medicininės diagnozės testą, 256 00:12:39,975 --> 00:12:41,929 dabar aš jums parodysiu realiu laiku, 257 00:12:41,929 --> 00:12:45,416 bet aš sumažinau jį iki trijų minučių išmesdamas kai kurias dalis. 258 00:12:45,416 --> 00:12:48,477 Užuot rodęs jums, kaip kuriamas medicininės diagnozės testas, 259 00:12:48,477 --> 00:12:51,846 aš jums parodysiu mašinų vaizdų diagnozės testą, 260 00:12:51,846 --> 00:12:54,068 nes šitai mes visi galime suprasti. 261 00:12:54,068 --> 00:12:57,269 Taigi pradedame su apie 1,5 milijono automobilių vaizdų, 262 00:12:57,269 --> 00:13:00,475 ir aš noriu sukurti kažką, kas gali juos išskaidyti pagal 263 00:13:00,475 --> 00:13:02,698 padarytos nuotraukos kampą. 264 00:13:02,698 --> 00:13:06,586 Šie vaizdai yra be žymių, taigi turiu pradėti nuo pradžių. 265 00:13:06,586 --> 00:13:08,451 Naudojant gilaus mokymosi algoritmą 266 00:13:08,451 --> 00:13:12,158 jis gali automatiškai identifikuoti struktūros vietas šiuose vaizduose. 267 00:13:12,158 --> 00:13:15,778 Nuostabu, kad žmogus ir kompiuteris dabar gali kartu dirbti. 268 00:13:15,778 --> 00:13:17,956 Taigi žmogus, kaip jūs matote čia, 269 00:13:17,956 --> 00:13:20,631 nurodo kompiuteriui jam rūpimas vietas, 270 00:13:20,631 --> 00:13:25,281 nori, kad kompiuteris išbandytų ir pagerintų savo algoritmą. 271 00:13:25,281 --> 00:13:29,577 Dabar šios gilaus mokymosi sistemos yra 16 000 dimensijų erdvėje, 272 00:13:29,577 --> 00:13:33,009 taigi jūs matote kompiuterį, besisukantį šioje erdvėje, 273 00:13:33,009 --> 00:13:35,001 ieškantį naujų struktūros vietų. 274 00:13:35,001 --> 00:13:36,782 Ir, kai jam tai pavyksta, 275 00:13:36,782 --> 00:13:40,786 žmogus, kuris jį valdo, tada atkreipia dėmesį į įdomias vietas. 276 00:13:40,786 --> 00:13:43,208 Taigi kompiuteris sėkmingai surado vietas, 277 00:13:43,208 --> 00:13:45,770 pavyzdžiui, kampus. 278 00:13:45,770 --> 00:13:47,376 Kai perėjome šį procesą, 279 00:13:47,376 --> 00:13:49,716 mes tolygiai nurodome kompiuteriui vis daugiau 280 00:13:49,716 --> 00:13:52,144 apie struktūrų tipus, kurių mes ieškome. 281 00:13:52,144 --> 00:13:53,916 Įsivaizduokite diagnostikos teste 282 00:13:53,916 --> 00:13:57,266 tai būtų patologas, identifikuojantis, pavyzdžiui, susirgimo tipą, 283 00:13:57,266 --> 00:14:02,292 arba radiologas, nustatantis potencialiai pavojingus mazgelius. 284 00:14:02,292 --> 00:14:04,851 Ir kartais tai gali būti sudėtinga algoritmui. 285 00:14:04,851 --> 00:14:06,815 Šiuo atveju jis šiek tiek pasimetė. 286 00:14:06,815 --> 00:14:09,365 Mašinų priekiai ir galai yra sumaišyti. 287 00:14:09,365 --> 00:14:11,437 Taigi turime būti dėmesingesni, 288 00:14:11,437 --> 00:14:14,669 rankiniu būdu atrinkdami šiuos priekius, kaip galų priešingybes 289 00:14:14,669 --> 00:14:20,175 tada nurodyti kompiuteriui, kad šio tipo grupė 290 00:14:20,175 --> 00:14:21,523 mus domina. 291 00:14:21,523 --> 00:14:24,200 Taigi mes tai darome kurį laiką, šiek tiek praleidžiame, 292 00:14:24,200 --> 00:14:26,446 ir tada treniruojame mašinos mokymosi algoritmą, 293 00:14:26,446 --> 00:14:28,420 paremtą keliais šimtais dalykų, 294 00:14:28,420 --> 00:14:30,445 ir mes tikimės, kad jis patobulės. 295 00:14:30,445 --> 00:14:33,518 Dabar matote, kad jis pradėjo išmetinėti kai kuriuos vaizdus, 296 00:14:33,518 --> 00:14:38,226 rodydamas mums, kad jau žino, kaip pačiam suprasti kai kuriuos vaizdus. 297 00:14:38,226 --> 00:14:41,128 Tada mes galime naudoti šį panašių vaizdų konceptą, 298 00:14:41,128 --> 00:14:43,222 ir naudojant panašius vaizdus, matote, 299 00:14:43,222 --> 00:14:47,241 kompiuteris šioje vietoje sugeba atrasti vien automobilių priekius. 300 00:14:47,241 --> 00:14:50,189 Šiuo atveju žmogus gali pasakyti kompiuteriui, 301 00:14:50,189 --> 00:14:52,482 puiku, tu padarei gerą darbą. 302 00:14:53,652 --> 00:14:55,837 Kartais, žinoma, net ir šiuo momentu 303 00:14:55,837 --> 00:14:59,511 tai vis dar sudėtinga atskirti grupes. 304 00:14:59,511 --> 00:15:03,395 Net jei mes leidžiame kompiuteriui bandyti kurį laiką, 305 00:15:03,399 --> 00:15:06,744 mes vis dar randame, kad kairės ir dešinės pusės vaizdai 306 00:15:06,744 --> 00:15:08,222 yra visi sumaišyti. 307 00:15:08,222 --> 00:15:10,362 Mes galime vėl kompiuteriui duoti užuominų, 308 00:15:10,362 --> 00:15:13,338 sakome - gerai, pabandyk ir rask projekciją, kuri kuo labiau 309 00:15:13,338 --> 00:15:15,945 išskiria kaires puses nuo dešinių 310 00:15:15,945 --> 00:15:18,067 naudojant šį gilaus mokymosi algoritmą. 311 00:15:18,067 --> 00:15:21,009 Ir davus užuominą – ak, puiku, pavyko. 312 00:15:21,009 --> 00:15:23,891 Jam pavyko surasti mąstymo apie šiuos objektus būdą, 313 00:15:23,891 --> 00:15:26,271 kas atskyrė detales. 314 00:15:26,271 --> 00:15:28,709 Taigi jūs mane supratote. 315 00:15:28,709 --> 00:15:36,906 Čia ne tas atvejis, kur žmogus yra pakeičiamas kompiuterio, 316 00:15:36,906 --> 00:15:39,546 bet tas, kai jie dirba kartu. 317 00:15:39,546 --> 00:15:43,096 Ką mes čia darome, tai išstumiame kažką, kam reikėdavo komandos 318 00:15:43,096 --> 00:15:45,098 iš penkių ar šešių žmonių 7 metams, 319 00:15:45,098 --> 00:15:47,703 ir pakeičiame tai su kažkuo, kas užtrunka 15 min. 320 00:15:47,703 --> 00:15:50,208 veikiant vienam asmeniui. 321 00:15:50,208 --> 00:15:54,158 Šiam procesui prireikia 4 ar 5 pakartojimų. 322 00:15:54,158 --> 00:15:56,017 Dabar matote, kad turime 62 proc. 323 00:15:56,017 --> 00:15:58,976 iš mūsų 1,5 milijono vaizdų suskirstytų teisingai. 324 00:15:58,976 --> 00:16:01,448 Ir šiame etape mes galime pradėti gana greitai 325 00:16:01,448 --> 00:16:02,745 imti pilnas dalis, 326 00:16:02,745 --> 00:16:05,664 patikrinti jas ir įsitikinti, kad nėra klaidų. 327 00:16:05,664 --> 00:16:09,616 Jei yra klaidų, leidžiame kompiuteriui jas žinoti. 328 00:16:09,616 --> 00:16:12,661 Ir naudodami tokį procesą kiekvienai atskirai grupei 329 00:16:12,661 --> 00:16:15,148 mes pasiekiame 80 proc. sėkmės rodiklį 330 00:16:15,148 --> 00:16:17,563 skirstant 1,5 milijono vaizdų. 331 00:16:17,563 --> 00:16:19,641 Šiuo momentu tai tik problema, 332 00:16:19,641 --> 00:16:23,220 kaip surasti mažą kiekį, kuris nėra teisingai suklasifikuotas, 333 00:16:23,220 --> 00:16:26,108 ir pabandyti suprasti kodėl. 334 00:16:26,108 --> 00:16:27,851 Naudojant šį metodą, 335 00:16:27,851 --> 00:16:31,972 per 15 minučių mes suklasifikuojame 97 proc. 336 00:16:31,972 --> 00:16:36,572 Tokio tipo technika leistų mums išspręsti pagrindinę problemą – 337 00:16:36,578 --> 00:16:39,614 medicininės ekspertizės trūkumą pasaulyje. 338 00:16:39,614 --> 00:16:43,103 Pasaulio ekonomikos forumas teigia, kad gydytojų trūkumas siekia 339 00:16:43,103 --> 00:16:45,727 nuo 10 iki 20 kartų besivystančiose šalyse, 340 00:16:45,727 --> 00:16:47,840 ir prireiktų apie 300 metų 341 00:16:47,840 --> 00:16:50,734 išmokyti pakankamai žmonių šiai problemai panaikinti. 342 00:16:50,734 --> 00:16:53,619 Įsivaizduokite, jei galėtume padidinti jų efektyvumą 343 00:16:53,619 --> 00:16:56,458 naudodami šiuos gilaus mokymosi būdus? 344 00:16:56,458 --> 00:16:58,690 Esu labai susijaudinęs dėl šių galimybių. 345 00:16:58,690 --> 00:17:01,279 Man taip pat rūpi šios problemos. 346 00:17:01,279 --> 00:17:04,403 Problema ta, kad kiekviena mėlyna spalva šiame žemėlapyje 347 00:17:04,403 --> 00:17:08,172 rodo, kur paslaugos užima virš 80 procentų užimtumo. 348 00:17:08,172 --> 00:17:09,959 Kokios tai paslaugos? 349 00:17:09,959 --> 00:17:11,473 Štai šios paslaugos. 350 00:17:11,473 --> 00:17:15,627 Taip pat tai konkretūs dalykai, kuriuos kompiuteriai jau išmoko daryti. 351 00:17:15,627 --> 00:17:19,431 Taigi 80 proc. pasaulio užimtumo išsivysčiusiame pasaulyje 352 00:17:19,431 --> 00:17:21,963 yra dalykai, kuriuos kompiuteriai jau išmoko daryti. 353 00:17:21,963 --> 00:17:23,403 Ką tai reiškia? 354 00:17:23,403 --> 00:17:25,986 Ką gi, viskas bus gerai. Jie bus pakeisti kitų darbų. 355 00:17:25,986 --> 00:17:28,693 Pavyzdžiui, bus daugiau darbo duomenų mokslininkams. 356 00:17:28,693 --> 00:17:29,510 Tiesa, nelabai. 357 00:17:29,510 --> 00:17:32,628 Duomenų mokslininkams neužtrunka ilgai tai sukurti. 358 00:17:32,628 --> 00:17:35,880 Pavyzdžiui, šie keturi algoritmai buvo sukurti to paties vaikino. 359 00:17:35,880 --> 00:17:38,318 Taigi, jei galvojate, ak, taip jau buvo anksčiau, 360 00:17:38,318 --> 00:17:42,126 mes matėme rezultatus praeity, kai atsirado nauji dalykai 361 00:17:42,126 --> 00:17:44,378 ir jie buvo pakeisti naujų darbų, 362 00:17:44,378 --> 00:17:46,494 kokie tie nauji darbai bus? 363 00:17:46,494 --> 00:17:48,365 Labai sunku mums tai įvertinti, 364 00:17:48,365 --> 00:17:51,104 nes žmogaus veikla auga palaipsniui, 365 00:17:51,104 --> 00:17:53,666 o mes turime sistemą, gilų mokymąsi, 366 00:17:53,666 --> 00:17:56,893 kuris, mes jau žinome, auga eksponentiniu pajėgumu. 367 00:17:56,893 --> 00:17:58,498 Ir štai mes čia. 368 00:17:58,498 --> 00:18:00,559 Šiuo metu mes matome, kas aplinkui dedasi 369 00:18:00,559 --> 00:18:03,235 ir mes sakome, „Ak, kompiuteriai yra gana kvaili“. Taip? 370 00:18:03,235 --> 00:18:06,664 Bet po penkerių metų kompiuteriai peraugs šią lentelę. 371 00:18:06,664 --> 00:18:10,529 Mums reikia pradėti galvoti apie šį sugebėjimą jau dabar. 372 00:18:10,529 --> 00:18:12,579 Mes tai jau matėme kartą, žinoma. 373 00:18:12,579 --> 00:18:13,966 Pramonės perversme 374 00:18:13,966 --> 00:18:16,817 mes matėme pasikeitimą pajėgume dėka variklių. 375 00:18:17,667 --> 00:18:20,805 Dalykas tas, vis dėlto, kad po kurio laiko viskas nusistovės. 376 00:18:20,805 --> 00:18:22,507 Tuomet buvo socialinis lūžis, 377 00:18:22,507 --> 00:18:25,946 bet vos tik varikliai buvo panaudoti jėgos generavimui visose situacijose 378 00:18:25,946 --> 00:18:28,300 viskas išties nusistovėjo. 379 00:18:28,300 --> 00:18:29,773 Mašinų mokymosi revoliucija 380 00:18:29,773 --> 00:18:32,682 labai skirsis nuo Pramonės perversmo, 381 00:18:32,682 --> 00:18:35,632 nes mašinų mokymosi revoliucija niekada nenusistovės. 382 00:18:35,632 --> 00:18:38,614 Kuo kompiuteriai taps geresni intelektualinėje veikloje, 383 00:18:38,614 --> 00:18:42,862 tuo geresnius kompiuterius jie gali sukurti dar geresnei veiklai, 384 00:18:42,862 --> 00:18:44,770 taigi tai bus pasikeitimas, 385 00:18:44,770 --> 00:18:47,248 kurio pasaulis iš tiesų niekada nebuvo patyręs. 386 00:18:47,248 --> 00:18:50,554 Taigi jūsų ankstesnis suvokimas, kas yra įmanoma, yra skirtingas. 387 00:18:50,974 --> 00:18:52,754 Tai jau daro mums įtaką. 388 00:18:52,754 --> 00:18:56,384 Paskutiniais 25 metais, padidėjus kapitalo produktyvumui, 389 00:18:56,400 --> 00:19:00,588 darbo jėgos produktyvumas buvo nuoseklus, tiesą sakant, truputį žemas. 390 00:19:01,408 --> 00:19:04,149 Taigi noriu, kad mes pradėtume apie tai diskutuoti. 391 00:19:04,149 --> 00:19:07,176 Žinau, kad, kai kalbu žmonėms apie šią situaciją, 392 00:19:07,176 --> 00:19:08,766 žmonės gali būti gana priešiški. 393 00:19:08,766 --> 00:19:10,459 Kompiuteriai negali tikrai galvoti, 394 00:19:10,459 --> 00:19:13,367 jie neturi jausmų, jie nesupranta poezijos, 395 00:19:13,367 --> 00:19:15,888 mes nelabai suprantame, kaip jie dirba. 396 00:19:15,888 --> 00:19:17,374 Tai kas? 397 00:19:17,374 --> 00:19:19,178 Kompiuteriai jau dabar daro dalykus, 398 00:19:19,178 --> 00:19:21,897 kuriems žmonės skiria daugiausia savo apmokamo laiko, 399 00:19:21,897 --> 00:19:23,628 dabar pats laikas pradėti mąstyti 400 00:19:23,628 --> 00:19:28,015 apie tai, kaip mes pritaikysime savo socialines ir ekonomines struktūras, 401 00:19:28,015 --> 00:19:29,855 kad suvoktume šią naują realybę. 402 00:19:29,855 --> 00:19:31,388 Dėkoju. 403 00:19:31,388 --> 00:19:32,190 (Plojimai.)