0:00:00.880,0:00:04.893 Det brukade vara så att om du ville[br]få en dator att göra något nytt 0:00:04.893,0:00:06.447 så behövde du programmera den. 0:00:06.447,0:00:09.858 Programmering, för dem av er[br]som inte har gjort det själva, 0:00:09.858,0:00:11.307 kräver att man 0:00:11.307,0:00:13.846 på ett olidligt detaljerat sätt 0:00:13.846,0:00:16.727 anger varenda steg[br]man vill att datorn ska ta 0:00:16.727,0:00:19.089 för att uppnå önskat mål. 0:00:19.089,0:00:22.585 Men, om du vill göra något[br]som du inte vet själv hur man gör, 0:00:22.585,0:00:24.648 då blir det här en enorm utmaning. 0:00:24.648,0:00:28.131 Så det här var den utmaning som denne man,[br]Arthur Samuel, ställdes inför. 0:00:28.131,0:00:32.208 1956 ville han få sin dator till 0:00:32.208,0:00:34.548 att slå honom i spelet Dam. 0:00:34.548,0:00:36.588 Hur kan du skriva ett program, 0:00:36.588,0:00:40.394 och ange på ett olidligt detaljerat sätt,[br]hur det ska slå dig i Dam? 0:00:40.394,0:00:42.116 Så han kom på en idé: 0:00:42.116,0:00:45.840 han lät datorn spela[br]mot sig själv tusentals gånger 0:00:45.840,0:00:48.364 och lära sig att spela Dam. 0:00:48.804,0:00:51.544 Och det fungerade faktiskt, och vid 1962 0:00:51.544,0:00:54.956 hade datorn slagit[br]Connecticuts statsmästare. 0:00:55.301,0:00:58.534 Så Arthur Samuels[br]var maskininlärningens fader, 0:00:58.534,0:01:00.211 och jag är skyldig honom så mycket, 0:01:00.211,0:01:03.014 för att jag är verksam[br]inom maskininlärning. 0:01:03.014,0:01:04.479 Jag var ordförande i Kaggle, 0:01:04.479,0:01:07.867 en gemenskap på över 200 000[br]verksamma inom maskininlärning. 0:01:07.867,0:01:09.925 Kaggle anordnar tävlingar 0:01:09.925,0:01:13.633 för att försöka åstadkomma[br]lösningar på olösta problem, 0:01:13.633,0:01:17.001 och det har varit framgångsrikt[br]vid hundratals tillfällen. 0:01:17.470,0:01:19.940 Så från den synvinkeln[br]kunde jag få veta 0:01:19.940,0:01:23.890 väldigt mycket om vad maskininlärning[br]kan göra i det förflutna, kan göra idag, 0:01:23.890,0:01:26.252 och vad den kan tänkas göra i framtiden. 0:01:26.252,0:01:29.472 Maskininlärningens första stora framgång 0:01:29.472,0:01:30.942 var kanske Google. 0:01:30.942,0:01:33.784 Google visade att det är möjligt[br]att få fram information 0:01:33.784,0:01:35.536 genom att använda en datoralgoritm, 0:01:35.536,0:01:38.437 en datoralgoritm som bygger[br]på maskininlärning. 0:01:38.437,0:01:42.323 Sen dess har maskininlärning[br]rönt många kommersiella framgångar. 0:01:42.323,0:01:43.970 Företag som Amazon och Netflix 0:01:43.970,0:01:46.392 använder maskininlärning[br]för att föreslå produkter 0:01:46.392,0:01:47.984 som du kan tänkas vilja köpa, 0:01:47.984,0:01:49.896 filmer som du kan tänkas vilja se. 0:01:49.896,0:01:51.523 Ibland är det nästan lite läskigt. 0:01:51.523,0:01:53.447 Företag som LinkedIn och Facebook 0:01:53.447,0:01:56.301 kan ibland berätta för dig[br]vilka dina vänner kan tänkas vara 0:01:56.301,0:01:58.608 och du kan inte föreställa dig[br]hur det gick till 0:01:58.608,0:02:01.335 och det beror på att de använder[br]maskininlärningens kraft. 0:02:01.335,0:02:04.512 Det här är algoritmer som har lärt sig[br]att göra detta utifrån data 0:02:04.512,0:02:07.399 snarare än att ha blivit[br]programmerade till det. 0:02:07.399,0:02:09.877 Det här också hemligheten[br]bakom IBM:s framgångar 0:02:09.877,0:02:13.739 med att få Watson att slå[br]de två världsmästarna i Jeopardy, 0:02:13.739,0:02:16.964 genom att besvara otroligt subtila[br]och komplexa frågor som den här. 0:02:16.964,0:02:19.799 [Det antika "Lion of Nimrud" försvann[br]från denna stads ...] 0:02:19.799,0:02:23.034 Det här är också anledningen till[br]att vi nu ser självkörande bilar. 0:02:23.034,0:02:25.856 Om du vill kunna skilja på till exempel 0:02:25.856,0:02:28.488 ett träd och en fotgängare[br]så är det ganska viktigt. 0:02:28.488,0:02:31.105 Vi vet inte hur vi skulle kunna[br]programmera något sånt, 0:02:31.105,0:02:34.072 men med maskininlärning [br]är det här nu möjligt. 0:02:34.072,0:02:36.800 Och den här bilen har faktiskt[br]kört över 1,5 miljoner mil, 0:02:36.800,0:02:39.856 utan olyckor, på vanliga vägar. 0:02:40.196,0:02:44.110 Så nu vet vi att datorer kan lära sig, 0:02:44.110,0:02:46.010 och datorer kan lära sig att göra saker 0:02:46.010,0:02:48.848 som vi ibland faktiskt själva[br]inte vet hur man gör, 0:02:48.848,0:02:51.733 eller så kan de göra något[br]bättre än vi. 0:02:51.733,0:02:55.928 Ett av det mer häpnadsväckande exemplen[br]av maskininlärning som jag har sett 0:02:55.928,0:02:58.320 tog plats i ett projekt[br]som jag körde på Kaggle 0:02:58.320,0:03:01.911 där ett lag som leddes av en kille[br]som heter Geoffrey Hinton 0:03:01.911,0:03:03.463 från University of Toronto 0:03:03.463,0:03:06.140 vann en tävling[br]i automatisk medicinforskning. 0:03:06.140,0:03:08.987 Men vad som var exceptionellt[br]var inte bara att de slog 0:03:08.987,0:03:13.000 alla Mercks algoritmer och hela den[br]internationella akademiska gemenskapen, 0:03:13.000,0:03:18.061 utan att ingen i laget hade någon bakgrund[br]i kemi, biologi eller livsvetenskap 0:03:18.061,0:03:20.230 och de klarade det på två veckor. 0:03:20.230,0:03:21.961 Hur gjorde de detta? 0:03:22.421,0:03:25.342 De använde en enastående algoritm[br]som kallas djupinlärning. 0:03:25.342,0:03:28.291 Det här var så viktigt[br]att det till och med rapporterades 0:03:28.291,0:03:31.412 på framsidan till New York Times[br]några veckor senare. 0:03:31.412,0:03:34.147 Här är Geoffrey Hinton till vänster. 0:03:34.147,0:03:38.488 Djupinlärningsalgoritmen[br]är inspirerad av hur hjärnan fungerar 0:03:38.488,0:03:40.300 och som en effekt av det 0:03:40.300,0:03:43.921 så har den inga teoretiska begränsningar[br]i vad den kan åstadkomma. 0:03:43.921,0:03:46.964 Ju mer data och beräkningstid du ger den, 0:03:46.964,0:03:48.276 desto bättre blir den. 0:03:48.276,0:03:50.615 New York Times visade[br]i sin artikel också på 0:03:50.615,0:03:52.857 en annan exceptionell effekt[br]av djupinlärning 0:03:52.857,0:03:55.075 som jag ska visa er nu. 0:03:55.569,0:04:00.073 Den visar att datorer[br]kan lyssna och förstå. 0:04:00.510,0:04:03.221 (Video) Richard Rashid: Det sista steget 0:04:03.221,0:04:06.246 som jag vill kunna ta i den här processen 0:04:06.246,0:04:10.295 är att kunna tala till er på kinesiska. 0:04:10.961,0:04:13.596 Nyckeln här är att 0:04:13.596,0:04:18.598 vi har kunnat ta en stor mängd information[br]från många som talar kinesiska 0:04:18.598,0:04:21.128 och producera ett "text till tal"-system 0:04:21.128,0:04:25.801 som tar kinesisk text[br]och konverterar den till kinesiskt språk. 0:04:26.471,0:04:29.929 Sen har vi tagit en timme[br]eller så av min egen röst 0:04:29.929,0:04:31.820 och vi har använt den till att modulera 0:04:31.820,0:04:36.364 vårt grundläggande "text till tal"-system[br]så att det låter som jag. 0:04:36.364,0:04:38.904 Återigen, resultatet är inte perfekt. 0:04:39.344,0:04:41.552 Det finns fortfarande några fel. 0:04:41.552,0:04:44.036 (Kinesiska) 0:04:44.036,0:04:47.023 (Applåder) 0:04:49.446,0:04:52.343 Det finns mycket att göra[br]på det här området. 0:04:53.022,0:04:56.007 (Kinesiska) 0:04:56.667,0:04:59.640 (Applåder) 0:05:01.345,0:05:04.744 Jeremy Howard: Det där var[br]på en maskininlärningskonferens i Kina. 0:05:04.744,0:05:07.154 Det är faktiskt inte ofta[br]på akademiska konferenser 0:05:07.154,0:05:09.011 att man hör spontana applåder, 0:05:09.011,0:05:12.687 fast på TEDx-konferenser[br]är det förstås välkommet. 0:05:12.687,0:05:15.482 Allt ni såg där hände[br]med hjälp av maskininlärning. 0:05:15.482,0:05:16.407 (Applåder) Tack. 0:05:16.407,0:05:18.719 Avskriften till engelska[br]var djupinlärning. 0:05:18.719,0:05:22.421 Översättningen till kinesiska och texten[br]i övre högra hörnet vad djupinlärning 0:05:22.421,0:05:25.758 och skapandet av rösten[br]var också djupinlärning. 0:05:26.598,0:05:29.122 Så djupinlärning är en exceptionell sak. 0:05:29.122,0:05:32.461 Det är en enda algoritm som ser ut[br]att kunna göra nästan vad som helst, 0:05:32.461,0:05:35.712 och jag upptäckte att ett år tidigare[br]hade den också lärt sig att se. 0:05:35.712,0:05:37.298 I en obskyr tävling från Tyskland 0:05:37.298,0:05:39.745 som hette German Traffic Sign[br]Recognition Benchmark, 0:05:39.745,0:05:43.148 hade djupinlärning lärt sig[br]att känna igen trafikskyltar som den här. 0:05:43.148,0:05:45.302 Den kunde inte bara[br]känna igen trafikskyltarna 0:05:45.302,0:05:47.050 bättre än alla andra algoritmer, 0:05:47.050,0:05:50.199 utan resultattavlan visade[br]att den faktiskt var bättre än människor 0:05:50.199,0:05:51.981 ungefär dubbelt så bra som människor. 0:05:51.981,0:05:54.167 Vid 2011 hade vi det första exemplet 0:05:54.167,0:05:57.122 på en dator som kan se[br]bättre än människor. 0:05:57.442,0:05:59.491 Sen dess har det hänt många saker. 0:05:59.491,0:06:03.005 2012 meddelade Google att de hade[br]låtit en djupinlärningsalgoritm 0:06:03.005,0:06:04.420 titta på YouTube-klipp 0:06:04.420,0:06:07.857 och beräknade datan[br]på 16 000 datorer i en månad. 0:06:07.857,0:06:12.218 Och datorn lärde sig, helt av sig själv,[br]om koncept som människor och katter 0:06:12.218,0:06:13.907 bara genom att titta på klippen. 0:06:13.907,0:06:16.379 Det här är väldigt likt[br]den mänskliga lärprocessen. 0:06:16.379,0:06:19.199 Människor lär sig inte genom[br]att någon berättar vad de ser, 0:06:19.199,0:06:22.060 utan de lär sig själva[br]vad de här sakerna är. 0:06:22.450,0:06:25.819 2012 vann George Hinton,[br]som vi såg tidigare, också 0:06:25.819,0:06:28.677 den väldigt populära ImageNet-tävlingen, 0:06:28.677,0:06:32.818 när han försökte lista ut,[br]på basis av 1,5 miljoner bilder, 0:06:32.818,0:06:34.256 vad bilderna innehöll. 0:06:34.256,0:06:37.789 Nu 2014, är vi nere på[br]en sexprocentig felmarginal 0:06:37.789,0:06:39.242 för bildigenkänning. 0:06:39.242,0:06:41.268 Detta är, återigen, bättre än människor. 0:06:41.268,0:06:45.037 Så maskiner gör verkligen[br]ett exceptionellt bra jobb här 0:06:45.037,0:06:47.306 och används nu inom industrin. 0:06:47.306,0:06:50.348 Till exempel meddelade Google förra året 0:06:50.348,0:06:54.933 att de hade mappat varenda plats[br]i Frankrike på två timmar. 0:06:54.933,0:06:58.180 Och de gjorde detta genom[br]att föda bilder av gatuvyer 0:06:58.180,0:07:01.019 in i en djupinlärningsalgoritm[br]för att den skulle känna igen 0:07:01.019,0:07:02.738 och läsa gatunummer. 0:07:02.738,0:07:05.059 Föreställ er hur lång tid[br]detta skulle ha tagit: 0:07:05.059,0:07:07.829 dussintals med människor, många år. 0:07:08.274,0:07:10.185 Det här händer också i Kina. 0:07:10.185,0:07:14.221 Baidu kan väl kanske sägas vara [br]ett kinesiskt Google 0:07:14.221,0:07:16.504 och vad ni ser här uppe till vänster 0:07:16.504,0:07:18.755 är ett exempel på en bild[br]som jag laddade upp 0:07:18.755,0:07:20.746 i Baidus djupinlärningssystem, 0:07:20.746,0:07:24.247 och nedanför kan ni se att systemet[br]har förstått vad bilden innehåller 0:07:24.247,0:07:26.483 och hittat liknande bilder. 0:07:26.483,0:07:29.219 De liknande bilderna har faktiskt[br]liknande bakgrunder, 0:07:29.219,0:07:30.877 liknande ansiktsvinklar, 0:07:30.877,0:07:32.935 till och med några med utstickande tungor. 0:07:32.935,0:07:35.695 Det här handlar inte om att titta[br]på text på en webbsida. 0:07:35.695,0:07:37.447 Allt jag laddade upp var en bild. 0:07:37.447,0:07:40.958 Så, nu har vi datorer[br]som faktiskt förstår vad de ser 0:07:40.958,0:07:42.752 och därmed kan söka igenom databaser 0:07:42.752,0:07:45.964 med hundra miljontals bilder i realtid. 0:07:46.306,0:07:49.436 Så vad betyder det nu att datorer kan se? 0:07:49.436,0:07:51.553 Det betyder inte bara[br]att datorer kan se. 0:07:51.553,0:07:53.622 Djupinlärning har faktiskt[br]gjort mer än så. 0:07:53.622,0:07:55.756 Komplexa, nyanserade meningar 0:07:55.756,0:07:57.650 som den här kan nu förstås 0:07:57.650,0:07:59.394 med djupinlärningsalgoritmer. 0:07:59.394,0:08:00.337 Som ni kan se här, 0:08:00.337,0:08:03.685 så har det här Stanford-baserade systemet[br]med den röda pricken i toppen 0:08:03.685,0:08:07.134 räknat ut att den här meningen[br]uttrycker negativa känslor. 0:08:07.134,0:08:10.362 Djupinlärning är faktiskt nära[br]den mänskliga prestationsförmågan 0:08:10.362,0:08:12.708 när det gäller att förstå[br]vad meningar handlar om 0:08:12.708,0:08:15.426 och vad de säger om det. 0:08:16.034,0:08:18.651 Djupinlärning har också använts[br]till att läsa kinesiska, 0:08:18.651,0:08:21.807 på, återigen, nästan modersmålsnivå. 0:08:21.807,0:08:23.975 Den här algoritmen[br]har utvecklats i Schweitz 0:08:23.975,0:08:27.331 av människor som varken talar[br]eller förstår kinesiska. 0:08:27.331,0:08:29.472 Jag brukar säga att,[br]att använda djupinlärning 0:08:29.472,0:08:31.831 är nära nog det bästa systemet[br]i världen för detta 0:08:31.831,0:08:36.175 även jämfört med[br]mänsklig modersmålsförståelse. 0:08:36.718,0:08:39.682 Det här ett system som vi satte ihop[br]på mitt företag 0:08:39.682,0:08:41.728 som visar hur allt det här sätts ihop. 0:08:41.728,0:08:44.189 De här bilderna har ingen vidhängd text, 0:08:44.189,0:08:46.541 och medan jag skriver in meningar här 0:08:46.541,0:08:49.510 så förstår den de här bilderna i realtid 0:08:49.510,0:08:51.189 och listar ut vad de handlar om 0:08:51.189,0:08:54.352 och hittar bilder som liknar[br]den text som jag skriver in. 0:08:54.352,0:08:57.108 Så ni kan se att den faktiskt[br]förstår mina meningar 0:08:57.108,0:08:59.332 och faktiskt förstår de här bilderna. 0:08:59.332,0:09:01.891 Jag vet att ni har sett[br]liknande saker på Google, 0:09:01.891,0:09:04.666 där du kan skriva in saker[br]och den visar dig bilder, 0:09:04.666,0:09:08.090 men vad den faktiskt gör är[br]att den söker av webbsidan efter text. 0:09:08.090,0:09:10.751 Det är en stor skillnad[br]mot att förstå bilderna. 0:09:10.751,0:09:13.183 Det här är något som datorer[br]har kunnat göra 0:09:13.183,0:09:16.507 för första gången[br]för bara några månader sen. 0:09:17.091,0:09:21.182 Så nu kan vi se att datorer[br]inte bara kan se, de kan också läsa, 0:09:21.182,0:09:24.667 och så har vi också visat[br]att de kan förstå vad de hör. 0:09:24.667,0:09:27.378 Kanske är det inte överraskande[br]att jag nu berättar för er 0:09:27.378,0:09:28.569 att de kan skriva. 0:09:28.569,0:09:30.811 Här är lite text som jag genererade igår 0:09:30.811,0:09:33.330 med hjälp av en djupinlärningsalgoritm. 0:09:33.963,0:09:37.096 Och här är lite text som en algoritm[br]från Stanford har genererat. 0:09:37.096,0:09:39.170 Var och en av dessa meningar[br]har genererats 0:09:39.170,0:09:43.109 av en djupinlärningsalgoritm[br]för att förklara varje bild. 0:09:43.109,0:09:47.521 Den här algoritmen har aldrig förut sett[br]en man i svart tröja som spelar gitarr. 0:09:47.521,0:09:49.951 Den har sett en man förut,[br]den har sett svart förut, 0:09:49.951,0:09:51.400 den har sett en gitarr förut, 0:09:51.400,0:09:55.304 men den har helt fristående genererat[br]den här nya beskrivningen av bilden. 0:09:55.304,0:09:58.527 Vi är ännu inte riktigt framme[br]vid mänsklig prestationsförmåga här, 0:09:58.527,0:09:59.480 men vi är nära. 0:09:59.480,0:10:03.264 Tester har visat att människor föredrar[br]den datorgenererade förklaringen 0:10:03.264,0:10:04.791 en av fyra gånger. 0:10:04.791,0:10:06.985 Det här systemet är nu bara[br]två veckor gammalt, 0:10:06.985,0:10:08.871 så det är sannolikt att datoralgoritmen 0:10:08.871,0:10:10.878 kommer att slå mänsklig prestationsförmåga 0:10:10.878,0:10:11.865 inom ett år 0:10:11.865,0:10:13.364 om det fortsätter i samma takt. 0:10:13.364,0:10:16.413 Så, datorer kan skriva också. 0:10:16.413,0:10:19.888 När vi slår samman allt det här[br]så ser vi väldigt spännande möjligheter. 0:10:19.888,0:10:21.380 Till exempel inom läkekonsten, 0:10:21.380,0:10:23.905 ett team i Boston meddelade[br]att de hade upptäckt 0:10:23.905,0:10:26.854 dussintals nya kliniskt[br]relevanta kännetecken 0:10:26.854,0:10:31.440 på tumörer, som hjälper läkare[br]att göra cancerprognoser. 0:10:31.900,0:10:34.266 Också liknande,[br]meddelade en grupp i Stanford 0:10:34.266,0:10:38.799 att de, genom att titta på vävnad[br]under förstoring, hade utvecklat 0:10:38.799,0:10:40.560 ett maskininlärningsbaserat system 0:10:40.560,0:10:43.142 som faktiskt är bättre[br]än mänskliga patologer 0:10:43.142,0:10:45.352 på att förutse överlevnadssiffror 0:10:45.372,0:10:47.062 för cancersjuka. 0:10:47.062,0:10:49.146 I båda dessa fall[br]visade sig förutsägelserna[br] 0:10:49.146,0:10:50.620 inte bara vara mer rättvisande 0:10:50.620,0:10:53.266 utan de genererade också[br]ny insiktsfull kunskap. 0:10:53.276,0:10:54.781 I röntgenfallet 0:10:54.781,0:10:57.876 var det nya kliniska indikatorer[br]som människor kan förstå. 0:10:57.876,0:10:59.668 I patologifallet 0:10:59.668,0:11:04.168 upptäckte systemet[br]att cellerna runt cancern 0:11:04.168,0:11:07.508 är lika viktiga som cancercellerna själva 0:11:07.508,0:11:09.260 för att ställa diagnos. 0:11:09.260,0:11:14.164 Det här var motsatsen till vad patologer[br]hade fått lära sig i årtionden. 0:11:15.131,0:11:17.913 I båda dessa fall var systemen utvecklade 0:11:17.913,0:11:21.414 av en kombination av medicinska experter[br]och maskininlärningsexperter, 0:11:21.414,0:11:24.275 men sedan ett år tillbaka[br]har vi tagit oss förbi det också. 0:11:24.275,0:11:27.614 Det här är ett exempel på hur man[br]identifierar cancerområden 0:11:27.614,0:11:30.354 i mänsklig vävnad under ett mikroskåp. 0:11:30.354,0:11:34.967 Systemet som visas här kan identifiera[br]de områdena med större exakthet, 0:11:34.967,0:11:37.742 eller ungefär lika exakt,[br]som mänskliga patologer, 0:11:37.742,0:11:41.134 fast det enbart bygger på djupinlärning[br]helt utan medicinsk expertis 0:11:41.134,0:11:44.480 och har byggts av människor[br]som inte har någon erfarenhet på området. 0:11:44.730,0:11:47.495 På liknande vis, här, det här med[br]segmentering av neuroner. 0:11:47.495,0:11:50.633 Vi kan nu segmentera neuroner[br]ungefär lika exakt som människor kan, 0:11:50.633,0:11:53.400 men det här systemet utvecklades[br]med hjälp av djupinlärning 0:11:53.400,0:11:56.289 av människor utan erfarenhet av läkekonst. 0:11:56.981,0:12:00.148 Så jag själv, som någon som inte har[br]någon erfarenhet av läkekonst, 0:12:00.148,0:12:03.875 tycks vara helt kvalificerad för[br]att starta ett nytt medicinskt företag, 0:12:03.875,0:12:06.021 vilket jag gjorde. 0:12:06.021,0:12:08.041 Jag var en aning livrädd för att göra det, 0:12:08.041,0:12:10.650 men teoretiskt sett borde det vara möjligt 0:12:10.650,0:12:16.142 att praktisera nyttig läkekonst[br]bara på basis av dessa dataanalystekniker. 0:12:16.142,0:12:18.622 Och som tur är har återkopplingen[br]varit fantastisk, 0:12:18.622,0:12:20.978 inte bara från media[br]utan också från läkarkåren, 0:12:20.978,0:12:22.996 som har varit väldigt stöttande. 0:12:23.322,0:12:27.471 Teorin innebär att vi kan ta mittendelen[br]av den medicinska processen 0:12:27.471,0:12:30.364 och göra om den till dataanalys[br]så långt det är möjligt, 0:12:30.364,0:12:33.429 och på så sätt frigöra läkarna till[br]att göra det de är bäst på. 0:12:33.429,0:12:35.031 Jag vill ge er ett exempel. 0:12:35.031,0:12:37.330 Det tar oss nu ungefär 15 minuter 0:12:37.330,0:12:40.069 att ta fram ett nytt[br]medicinskt diagnostiskt test 0:12:40.069,0:12:41.829 och jag ska visa er det i realtid nu, 0:12:41.829,0:12:43.961 men jag har komprimerat det[br]till tre minuter 0:12:43.961,0:12:45.373 genom att skära bort en del. 0:12:45.373,0:12:48.717 Snarare än att visa er hur man skapar[br]ett medicinskt diagnostiskt test, 0:12:48.717,0:12:49.730 så vill jag visa er 0:12:49.730,0:12:52.123 ett diagnostiskt test på bilbilder, 0:12:52.123,0:12:54.268 eftersom det är något[br]som vi alla kan förstå. 0:12:54.268,0:12:57.269 Så vi börjar med ungefär[br]1,5 miljoner bilbilder, 0:12:57.269,0:13:00.475 och jag vill skapa något som kan sortera[br]dem beroende på vilken 0:13:00.475,0:13:02.698 vinkel bilden är tagen ur. 0:13:02.698,0:13:06.586 De här bilderna har inga etiketter,[br]så jag måste börja från början. 0:13:06.586,0:13:08.451 Med vår djupinlärningsalgoritm 0:13:08.451,0:13:12.158 kan den automatiskt identifiera områden[br]med struktur i bilderna. 0:13:12.158,0:13:15.778 Det fina är att nu kan människan[br]och datorn samarbeta. 0:13:15.778,0:13:17.956 Människan, som ni ser här, 0:13:17.956,0:13:21.821 talar om för datorn vilka områden[br]som är intressanta, den information 0:13:21.821,0:13:25.533 som hon vill att datorn använder[br]för att förbättra algoritmen. 0:13:25.915,0:13:27.639 De här djupinlärningssystemen 0:13:27.639,0:13:29.933 existerar faktiskt[br]i en 16000-dimensionell rymd, 0:13:29.933,0:13:33.009 så ni kan här se hur datorn roterar[br]genom den rymden 0:13:33.009,0:13:35.001 och letar efter nya strukturella områden. 0:13:35.001,0:13:36.782 Och när den hittar ett sånt 0:13:36.782,0:13:40.786 så kan människan som styr den påpeka[br]att dessa områden är intressanta. 0:13:40.786,0:13:43.208 Så här har datorn lyckats hitta områden, 0:13:43.208,0:13:45.550 till exempel vinklar. 0:13:45.550,0:13:47.546 Så medan vi går igenom den här processen, 0:13:47.546,0:13:49.716 så berättar vi gradvis[br]mer och mer för datorn 0:13:49.716,0:13:52.144 om vilka strukturer vi letar efter. 0:13:52.144,0:13:53.916 I ett diagnostiskt test 0:13:53.916,0:13:57.266 skulle det här motsvara en patolog[br]som identifierar sjuka områden 0:13:57.266,0:14:02.292 eller en radiolog som identifierar[br]potentiellt farliga knutor. 0:14:02.292,0:14:04.701 Och ibland kan det vara svårt[br]för algoritmen. 0:14:04.701,0:14:06.965 I det här fallet blev den något förvirrad. 0:14:06.965,0:14:09.485 Fronten och bakänden på bilarna[br]är helt ihopblandade. 0:14:09.485,0:14:11.497 Så här behöver vi[br]vara lite mer försiktiga, 0:14:11.497,0:14:14.669 och manuellt välja ut fronterna[br]men inte bakändarna, 0:14:14.669,0:14:19.955 och sen berätta för datorn[br]att detta är en sorts grupp 0:14:19.955,0:14:21.523 som vi är intresserade av. 0:14:21.523,0:14:24.200 Så vi gör det en stund,[br]vi hoppar över en liten bit, 0:14:24.200,0:14:26.446 och sen tränar vi[br]maskininlärningsalgoritmen 0:14:26.446,0:14:28.160 baserat på ett par hundra saker 0:14:28.160,0:14:30.495 och så hoppas vi att den har[br]blivit mycket bättre. 0:14:30.495,0:14:33.518 Ni kan se att den nu har börjat tona ut[br]vissa av de här bilderna 0:14:33.518,0:14:38.226 och visar oss därmed att den redan vet[br]hur den själv ska förstå vissa av dem. 0:14:38.226,0:14:40.968 Sen kan vi använda det här konceptet[br]av liknande bilder 0:14:40.968,0:14:42.595 och med hjälp av liknande bilder 0:14:42.595,0:14:44.552 kan ni nu se att datorn vid det här laget 0:14:44.552,0:14:46.994 kan hitta enbart bilder med bilfronter. 0:14:47.016,0:14:50.189 Så, vid det här laget kan människan[br]berätta för datorn att, 0:14:50.189,0:14:52.482 "Okej, bra - du har gjort[br]ett bra jobb med det." 0:14:53.652,0:14:55.837 Ibland är det förstås[br]även vid det här laget 0:14:55.837,0:14:59.511 svårt att skilja ut grupper. 0:14:59.511,0:15:02.182 I det här fallet,[br]trots att vi har låtit datorn 0:15:02.182,0:15:03.983 försöka rotera det här en stund, 0:15:03.983,0:15:06.744 så ser vi att bilder[br]av vänster och höger sida 0:15:06.744,0:15:08.222 har blandats ihop. 0:15:08.222,0:15:10.362 Så vi kan ge datorn några tips, 0:15:10.362,0:15:12.978 som "Okej, försök hitta[br]en projektion som skiljer ut 0:15:12.978,0:15:14.621 vänstersidorna och högersidorna 0:15:14.621,0:15:15.884 så gott det går 0:15:15.884,0:15:18.067 med hjälp av en djupinlärningsalgoritm." 0:15:18.067,0:15:21.009 Och med det tipset - ah, så lyckas den. 0:15:21.009,0:15:23.891 Den har hittat ett sätt[br]att tänka kring de här objekten 0:15:23.891,0:15:26.271 som har skiljt ut dessa tillsammans. 0:15:26.271,0:15:28.709 Så ni förstår tanken här. 0:15:28.709,0:15:31.591 Det här är ett fall som inte handlar om 0:15:31.591,0:15:36.833 att människan ersätts av datorn, 0:15:36.833,0:15:39.546 utan om att de arbetar tillsammans. 0:15:39.546,0:15:43.096 Vad vi gör är att vi ersätter någonting[br]som brukade ta ett helt team 0:15:43.096,0:15:45.098 på fem eller sex personer ungefär sju år 0:15:45.098,0:15:47.703 och ersätter det med någonting[br]som tar 15 minuter 0:15:47.703,0:15:50.208 för en person på egen hand. 0:15:50.208,0:15:54.158 Så den här processen kräver ungefär[br]fyra eller fem upprepningar. 0:15:54.158,0:15:55.827 Ni kan se att vi nu har 62 procent 0:15:55.827,0:15:58.206 av våra 1,5 miljoner bilder[br]korrekt klassificerade. 0:15:58.206,0:16:00.678 Och vid det här laget,[br]kan vi börja att ganska snabbt 0:16:00.678,0:16:02.205 ta tag i en hela stora sektioner 0:16:02.205,0:16:05.534 och kolla igenom för att säkerställa[br]att det inte finns några misstag. 0:16:05.534,0:16:08.802 Där vi hittar misstag[br]kan vi uppmärksamma datorn på dem. 0:16:09.616,0:16:12.661 Genom att använda den här sortens process[br]för alla olika grupper, 0:16:12.661,0:16:14.758 är vi nu uppe i 80 procent 0:16:14.758,0:16:17.563 framgångsrikt klassificerade bilder. 0:16:17.613,0:16:19.841 Och vid det här laget[br]är det bara en fråga om 0:16:19.841,0:16:23.220 att hitta de få bilder[br]som inte har klassificerats korrekt, 0:16:23.220,0:16:26.108 och försöka förstå varför. 0:16:26.108,0:16:27.851 Och på det sättet 0:16:27.851,0:16:31.972 är vi efter 15 minuter uppe[br]i 97 procent klassificerade bilder. 0:16:31.972,0:16:36.378 Det här är en teknik som skulle kunna [br]bistå med att överbrygga det stora problem 0:16:36.378,0:16:39.614 som utgörs av begränsad tillgång[br]till medicinsk expertis i världen. 0:16:39.614,0:16:43.103 Världsekonomiskt forum menar[br]att det råder en mellan 10x och 20x 0:16:43.103,0:16:45.727 brist på läkare i utvecklingsländer 0:16:45.727,0:16:47.760 och att det skulle ta ungefär 300 år 0:16:47.760,0:16:49.766 att lära upp tillräckligt många människor 0:16:49.766,0:16:50.792 för att lösa det. 0:16:50.792,0:16:53.619 Så föreställ er om vi kan hjälpa till[br]att öka effektiviteten 0:16:53.619,0:16:56.458 med hjälp av djupinlärning. 0:16:56.458,0:16:58.690 Så, de här möjligheterna[br]gör mig väldigt ivrig. 0:16:58.690,0:17:01.279 Jag är också bekymrad över problemen. 0:17:01.279,0:17:04.403 Problemet är att i alla blå områden[br]på den här kartan 0:17:04.403,0:17:08.172 består jobben till 80 procent av tjänster. 0:17:08.172,0:17:09.959 Vad är tjänster? 0:17:09.959,0:17:11.473 Det här är tjänster. 0:17:11.473,0:17:15.627 Det här är också precis vad datorerna[br]har lärt sig att göra. 0:17:15.627,0:17:19.431 Så 80 procent av jobben[br]i den utvecklade världen 0:17:19.431,0:17:21.963 utför sånt som datorer[br]precis har lärt sig att göra. 0:17:21.963,0:17:23.403 Vad betyder det här? 0:17:23.403,0:17:25.986 Nå, det blir fint.[br]Nya jobb kommer att ersätta dem. 0:17:25.986,0:17:28.583 Till exempel blir det fler jobb[br]för forskare inom data. 0:17:28.583,0:17:29.550 Eller, inte riktigt. 0:17:29.550,0:17:32.548 Det tar inte en forskare särskilt lång tid[br]att bygga en sån här. 0:17:32.548,0:17:35.880 De här fyra algoritmerna, till exempel,[br]har alla byggts av samma kille. 0:17:35.880,0:17:38.318 Så, om ni tänker att,[br]"Åh, det här har hänt förr, 0:17:38.318,0:17:42.126 vi har sett det här hända[br]när nya saker har uppfunnits 0:17:42.126,0:17:44.378 och de har ersatts av nya jobb, 0:17:44.378,0:17:46.494 vilka kommer de nya jobben att vara?" 0:17:46.494,0:17:48.365 Det är väldigt svårt att räkna ut, 0:17:48.365,0:17:51.104 eftersom mänsklig prestationsförmåga[br]utvecklas gradvis, 0:17:51.104,0:17:54.016 emedan vi nu har ett system,[br]djupinlärning, som vi vet 0:17:54.016,0:17:56.893 faktiskt utvecklas exponentiellt. 0:17:56.893,0:17:58.498 Och vi är här. 0:17:58.498,0:18:00.559 Så nu ser vi saker omkring oss och 0:18:00.559,0:18:03.235 och vi tänker "Åh, datorer är [br]rätt korkade." Eller hur? 0:18:03.235,0:18:06.664 Men om fem år kommer datorerna[br]att ha lämnat oss långt bakom sig. 0:18:06.664,0:18:10.529 Så vi behöver börja tänka på[br]den här förmågan redan nu. 0:18:10.529,0:18:12.479 Vi har sett det en gång tidigare förstås. 0:18:12.479,0:18:13.966 I den industriella revolutionen 0:18:13.966,0:18:16.817 såg vi en stegvis förändring[br]i prestanda tack vare motorer. 0:18:17.667,0:18:20.695 Saken är den, att efter en stund[br]flackade kurvan ut. 0:18:20.695,0:18:22.377 Det orsakade social förändring, 0:18:22.377,0:18:25.816 men så snart motorerna användes[br]för att generera kraft i alla situationer 0:18:25.816,0:18:27.930 så lugnade det ner sig. 0:18:27.930,0:18:29.493 Maskininlärningsrevolutionen 0:18:29.493,0:18:32.332 kommer skilja sig mycket[br]från den industriella revolutionen, 0:18:32.332,0:18:35.732 därför att maskininlärningsrevolutionen[br]aldrig kommer att lugna ner sig. 0:18:35.732,0:18:38.254 Ju bättre datorer blir[br]på intellektuella aktiviteter 0:18:38.254,0:18:42.502 desto bättre kan de bygga bättre datorer[br]som har större intellektuella förmågor, 0:18:42.502,0:18:44.770 så det här kommer att bli en förändring 0:18:44.770,0:18:47.178 som världen aldrig förr har upplevt, 0:18:47.178,0:18:50.484 så er tidigare uppfattning[br]om vad som är möjligt förändras. 0:18:50.974,0:18:52.754 Det här påverkar oss redan. 0:18:52.754,0:18:56.384 Under de senaste 25 åren[br]har kapitalproduktiviteten ökat, 0:18:56.400,0:19:00.588 arbetsproduktivitet är oförändrad,[br]faktiskt en aning minskande. 0:19:01.408,0:19:04.149 Så jag vill att vi börjar[br]diskutera det här nu. 0:19:04.149,0:19:06.976 Jag vet att ganska ofta[br]när jag berättar om det här, 0:19:06.976,0:19:08.666 kan folk vara ganska avfärdande. 0:19:08.666,0:19:10.339 Datorer kan inte tänka på riktigt, 0:19:10.339,0:19:13.367 de har inga känslor,[br]de förstår inte poesi, 0:19:13.367,0:19:15.678 vi förstår inte riktigt hur de fungerar. 0:19:15.678,0:19:17.114 Så vadå? 0:19:17.114,0:19:18.808 Just nu kan datorer göra det 0:19:18.808,0:19:22.157 som människor ägnar det mesta[br]av sin tid åt att göra för att få betalt, 0:19:22.157,0:19:23.798 så det är hög tid att börja tänka 0:19:23.798,0:19:28.025 på hur vi ska anpassa[br]våra sociala och ekonomiska strukturer 0:19:28.025,0:19:30.005 för att klara av den nya verkligheten. 0:19:30.005,0:19:31.158 Tack. 0:19:31.158,0:19:32.188 (Applåder)