0:00:00.960,0:00:03.936 Den här berättelsen börjar 1985, 0:00:03.960,0:00:05.936 när jag var 22 år 0:00:05.960,0:00:08.336 och blev världsmästare i schack 0:00:08.360,0:00:11.560 efter att ha besegrat Anatoly Karpov. 0:00:12.480,0:00:13.736 Tidigare samma år 0:00:13.760,0:00:17.376 spelade jag något[br]som kallas simultanschack 0:00:17.400,0:00:21.696 mot 32 av världens bästa schackdatorer 0:00:21.720,0:00:23.080 i Hamburg i Tyskland. 0:00:24.160,0:00:25.620 Jag vann alla matcherna, 0:00:26.560,0:00:29.736 och på den tiden sågs det inte[br]som en överraskning 0:00:29.760,0:00:33.800 att jag kunde slå 32 datorer på en gång. 0:00:34.480,0:00:37.056 För mig var det guldåldern. 0:00:37.080,0:00:39.176 (Skratt) 0:00:39.200,0:00:40.720 Maskinerna var svaga, 0:00:41.680,0:00:43.016 och mitt hår var starkt. 0:00:43.040,0:00:45.240 (Skratt) 0:00:46.720,0:00:48.776 Bara 12 år senare 0:00:48.800,0:00:53.416 kämpade jag för mitt liv[br]mot en enda dator 0:00:53.440,0:00:54.640 i en match 0:00:55.360,0:00:57.416 som Newsweek kallade 0:00:57.440,0:00:59.216 "Hjärnans sista strid." 0:00:59.240,0:01:00.456 Ingen press. 0:01:00.480,0:01:02.000 (Skratt) 0:01:03.040,0:01:05.616 I allt från mytologi till science fiction 0:01:05.640,0:01:08.376 har "människan mot maskinen" 0:01:08.400,0:01:11.160 ofta framställts som en fråga[br]om liv och död. 0:01:11.960,0:01:13.536 John Henry, 0:01:13.560,0:01:15.256 som kallades "ståldrivaren" 0:01:15.280,0:01:19.056 i den afroamerikanska[br]1800-talslegenden, 0:01:19.080,0:01:20.456 sattes att tävla 0:01:20.480,0:01:23.216 mot en ångdriven hammare 0:01:23.240,0:01:25.600 i att bryta en tunnel genom berget. 0:01:26.800,0:01:31.000 John Henrys legend är en del[br]av ett långt historiskt narrativ 0:01:31.680,0:01:34.760 som ställer mänskligheten mot teknologin. 0:01:36.200,0:01:39.080 Och den här tävlingsretoriken[br]är standard nu. 0:01:39.560,0:01:41.520 Det är en kapplöpning mot maskinerna, 0:01:42.360,0:01:44.440 en kamp, eller till och med ett krig. 0:01:45.880,0:01:47.496 Arbetstillfällen försvinner. 0:01:47.520,0:01:51.080 Människor blir ersatta,[br]som om de hade försvunnit från jorden. 0:01:52.240,0:01:55.736 Det är nästan som om filmer[br]som "The Terminator" eller "The Matrix" 0:01:55.760,0:01:57.310 är på riktigt. 0:01:59.640,0:02:03.960 Det finns väldigt få exempel på en arena 0:02:05.360,0:02:09.616 där den mänskliga kroppen och hjärnan[br]kan tävla på lika villkor 0:02:09.639,0:02:11.480 med en dator eller en robot. 0:02:12.280,0:02:14.138 Jag önskar faktiskt att det fanns fler. 0:02:15.760,0:02:16.960 I stället 0:02:17.840,0:02:22.496 var det min välsignelse och förbannelse 0:02:22.520,0:02:25.216 att bokstavligen bli människan 0:02:25.240,0:02:28.336 i tävlingen mellan människa och maskin 0:02:28.360,0:02:30.240 som alla fortfarande pratar om. 0:02:33.120,0:02:38.136 I den mest berömda tävlingen mellan[br]människa och maskin sedan John Henry 0:02:38.160,0:02:40.736 spelade jag två matcher 0:02:40.760,0:02:44.400 mot IBM:s superdator Deep Blue. 0:02:47.040,0:02:49.216 Ingen minns att jag vann[br]den första matchen - 0:02:49.240,0:02:51.576 (Skratt) 0:02:51.600,0:02:54.590 (Applåder) 0:02:55.920,0:03:00.896 i Philadelphia, för att sedan förlora[br]returmatchen följande år i New York. 0:03:00.920,0:03:03.100 Men jag antar att det är rimligt. 0:03:04.320,0:03:09.416 Det finns ingen historisk dag,[br]ingen notis i kalendern 0:03:09.440,0:03:12.936 för alla som misslyckades[br]med att bestiga Mount Everest 0:03:12.960,0:03:15.696 innan Sir Edmund Hillary[br]och Tenzing Norgay[br] 0:03:15.720,0:03:17.190 tog sig till toppen. 0:03:17.960,0:03:21.720 Och 1997 var jag fortfarande världsmästare 0:03:24.520,0:03:28.720 när schackdatorerna till slut blev redo. 0:03:29.520,0:03:31.496 Jag var Mount Everest, 0:03:31.520,0:03:33.490 och Deep Blue nådde toppen. 0:03:34.600,0:03:38.656 Jag borde såklart inte säga[br]att Deep Blue gjorde det, 0:03:38.680,0:03:40.816 utan dess mänskliga skapare - 0:03:40.840,0:03:44.176 Anantharaman, Campbell, Hoane, Hsu. 0:03:44.200,0:03:45.870 Hatten av för dem. 0:03:46.840,0:03:51.256 Som alltid var maskinens triumf[br]en mänsklig triumf, 0:03:51.280,0:03:53.600 vilket vi ofta glömmer bort 0:03:53.620,0:03:56.541 när människor överträffas[br]av våra egna skapelser. 0:03:58.360,0:04:00.090 Deep Blue segrade, 0:04:01.400,0:04:03.340 men var den intelligent? 0:04:03.360,0:04:05.120 Nej, det var den inte, 0:04:06.200,0:04:11.256 åtminstone inte så som Alan Turing[br]och andra av datavetenskapens grundare 0:04:11.280,0:04:12.480 hade hoppats. 0:04:13.240,0:04:18.016 Det visade sig att schack[br]kunde besegras med råstyrka 0:04:18.040,0:04:22.296 när hårdvaran väl blev tillräckligt snabb 0:04:22.320,0:04:25.640 och algoritmerna blev tillräckligt smarta. 0:04:26.760,0:04:30.456 Men i termer av prestation, 0:04:30.480,0:04:33.696 schack på stormästarnivå, 0:04:33.720,0:04:35.500 var Deep Blue intelligent. 0:04:37.320,0:04:39.720 Men även vid den otroliga hastigheten 0:04:40.560,0:04:44.110 200 miljoner drag per sekund 0:04:45.360,0:04:47.340 kunde Deep Blues metod 0:04:47.360,0:04:53.960 inte bidra med särskilt mycket insikt[br]i den mänskliga intelligensens mysterium. 0:04:56.960,0:04:58.776 Snart 0:04:58.800,0:05:01.376 kommer maskiner vara taxichaufförer 0:05:01.400,0:05:03.816 och läkare och professorer, 0:05:03.840,0:05:06.680 men kommer de vara "intelligenta"? 0:05:07.840,0:05:10.336 Jag skulle hellre lämna definitionerna 0:05:10.360,0:05:13.920 till filosoferna och till ordböckerna. 0:05:15.440,0:05:19.320 Det som spelar roll är hur vi människor 0:05:20.320,0:05:24.260 känner inför att leva och arbeta[br]med de här maskinerna. 0:05:26.160,0:05:31.416 När jag först mötte Deep Blue[br]i februari 1996 0:05:31.440,0:05:34.360 hade jag varit världsmästare i över 10 år 0:05:36.080,0:05:40.096 och hade spelat[br]182 världsmästerskapsmatcher 0:05:40.120,0:05:45.216 och hundratals matcher[br]mot andra toppspelare i andra tävlingar. 0:05:45.240,0:05:50.296 Jag visste vad jag kunde förvänta mig[br]av mina motståndare 0:05:50.320,0:05:52.660 och vad jag kunde förvänta mig[br]av mig själv. 0:05:52.680,0:05:57.856 Jag var van vid[br]att ta ställning till deras drag 0:05:57.880,0:06:01.496 och bedöma deras emotionella tillstånd 0:06:01.520,0:06:05.360 genom att studera deras kroppsspråk[br]och se dem i ögonen. 0:06:05.880,0:06:10.220 Sedan satt jag mittemot Deep Blue. 0:06:12.960,0:06:15.816 Jag kände genast något nytt, 0:06:15.840,0:06:17.470 något oroväckande. 0:06:19.440,0:06:22.240 Du kanske känner samma sak 0:06:23.320,0:06:25.856 första gången du åker[br]i en förarlös bil 0:06:25.880,0:06:27.350 eller första gången 0:06:27.380,0:06:31.482 din datoriserade arbetsledare[br]ger dig en order. 0:06:33.800,0:06:36.920 När jag satt i den där första matchen 0:06:38.080,0:06:40.216 kunde jag inte veta 0:06:40.240,0:06:43.920 vad den här maskinen var kapabel till. 0:06:44.920,0:06:48.080 Teknologi kan gå framåt i språng,[br]och IBM hade investerat mycket. 0:06:48.680,0:06:50.430 Jag förlorade den matchen. 0:06:52.150,0:06:54.096 Och jag kunde inte låta bli att undra, 0:06:54.120,0:06:55.680 kunde den vara oövervinnerlig? 0:06:56.600,0:06:59.300 Var detta slutet för mitt älskade spel? 0:07:00.800,0:07:04.936 Det här var mänskligt tvivel,[br]mänskliga rädslor, 0:07:04.960,0:07:06.640 och det enda jag var säker på 0:07:07.070,0:07:10.476 var att min motståndare Deep Blue[br]inte hade några sådana bekymmer alls. 0:07:10.486,0:07:12.260 (Skratt) 0:07:13.920,0:07:15.320 Jag kämpade emot 0:07:16.400,0:07:18.080 efter det här bakslaget, 0:07:19.000,0:07:20.400 och vann den första matchen, 0:07:20.960,0:07:22.600 men det var bara en tidsfråga. 0:07:24.400,0:07:26.536 Till slut förlorade jag mot maskinen 0:07:26.560,0:07:29.616 men mötte inte samma öde som John Henry, 0:07:29.640,0:07:32.680 som vann, men dog[br]med sin hammare i handen. 0:07:37.720,0:07:40.256 Det visade sig att schackvärlden 0:07:40.280,0:07:43.440 fortfarande ville ha[br]en mänsklig världsmästare. 0:07:44.920,0:07:46.600 Och än idag, 0:07:48.080,0:07:51.536 när en gratis schack-app[br]på den senaste mobiltelefonen 0:07:51.560,0:07:53.576 är bättre än Deep Blue, 0:07:53.600,0:07:55.630 spelar folk fortfarande schack, 0:07:56.680,0:07:58.920 mer än någonsin tidigare. 0:07:59.800,0:08:03.016 Domedagsprofeter hävdade[br]att ingen skulle vilja ta i spelet 0:08:03.040,0:08:05.296 som kunde erövras av maskinerna, 0:08:05.320,0:08:07.536 men de blev motbevisade. 0:08:07.560,0:08:11.016 Men domedagsprofetior[br]har altlid varit populära 0:08:11.040,0:08:12.560 när det gäller teknik. 0:08:14.360,0:08:17.096 Vad jag lärde mig från min egen erfarenhet 0:08:17.120,0:08:21.776 är att vi måste möta våra rädslor 0:08:21.800,0:08:25.520 om vi vill få ut det mesta från vår teknik 0:08:26.360,0:08:28.736 och att vi måste besegra de rädslorna 0:08:28.760,0:08:34.670 om vi vill få ut det mesta[br]av vår mänsklighet. 0:08:36.120,0:08:37.895 Medan jag slickade mina sår, 0:08:37.919,0:08:40.140 fick jag mycket inspiration 0:08:41.080,0:08:43.775 från mina kamper mot Deep Blue. 0:08:43.799,0:08:47.220 Som ett ryskt talesätt säger:[br]"Om du inte kan slå dem, gå ihop med dem." 0:08:48.880,0:08:50.256 Så jag tänkte 0:08:50.280,0:08:52.616 tänk om jag kunde spela med en dator - 0:08:52.640,0:08:55.960 tillsammans med en dator vid min sida,[br]och kombinera våra styrkor, 0:08:57.160,0:09:00.936 människans intuition[br]plus maskinens beräkningar 0:09:00.960,0:09:03.656 människans strategi, maskinens taktik, 0:09:03.680,0:09:06.096 människans erfarenhet, maskinens minne. 0:09:06.120,0:09:06.970 Kunde det bli 0:09:06.970,0:09:10.000 det mest perfekta spelet någonsin? 0:09:10.000,0:09:12.020 Min idé blev till verklighet 0:09:12.920,0:09:16.296 år 1998, under namnet "Advanced Chess" 0:09:16.320,0:09:20.280 när jag spelade mot en annan elitspelare[br]i en "människa-plus-maskin"-tävling. 0:09:23.280,0:09:25.176 Men i detta första experiment 0:09:25.200,0:09:31.560 misslyckades vi båda med att kombinera[br]människans och maskinens färdigheter. 0:09:34.920,0:09:37.160 Advanced Chess levde vidare på internet 0:09:38.160,0:09:43.016 och 2005, på en så kallad[br]fristilsturnering i schack 0:09:43.040,0:09:44.560 kom en uppenbarelse. 0:09:47.250,0:09:50.786 En grupp stormästare[br]och toppmaskiner deltog 0:09:50.800,0:09:53.536 men segrarna var inte stormästare, 0:09:53.560,0:09:55.020 inte en superdator. 0:09:55.680,0:10:00.016 Segrarna var ett par amerikanska[br]amatörschackspelare 0:10:00.040,0:10:03.200 som använde tre vanliga[br]PC-datorer samtidigt. 0:10:05.340,0:10:08.576 Deras skicklighet i[br]att träna sina maskiner 0:10:08.600,0:10:14.376 motarbetade effektivt[br]de överlägsna schackkunskaper 0:10:14.400,0:10:15.976 som stormästarna hade 0:10:16.000,0:10:20.160 och andras mycket större processorkraft. 0:10:21.600,0:10:23.710 Och jag kom till den här slutsatsen: 0:10:24.560,0:10:27.936 En svag mänsklig spelare plus en maskin 0:10:27.960,0:10:31.216 plus en bättre programvara är bättre 0:10:31.240,0:10:33.656 än en ensam kraftfull maskin. 0:10:33.680,0:10:37.576 Men mer anmärkningsvärt:[br]är bättre än en skicklig spelare 0:10:37.600,0:10:39.560 plus maskin 0:10:41.120,0:10:43.880 och en sämre programvara. 0:10:46.360,0:10:48.480 Detta övertygade mig om att vi behöver 0:10:50.000,0:10:53.680 bättre gränssnitt för att hjälpa oss[br]träna våra maskiner 0:10:54.520,0:10:56.780 mot en mer användbar intelligens. 0:10:58.320,0:11:01.616 Människa plus maskin är inte framtiden, 0:11:01.640,0:11:02.856 det är nutiden. 0:11:02.880,0:11:06.876 Alla som har använt online-översättning 0:11:06.890,0:11:08.260 för att förstå grunddragen 0:11:08.260,0:11:11.360 i en tidningsartikel[br]på ett främmande språk 0:11:11.360,0:11:13.410 vet att det är långt ifrån perfekt. 0:11:13.680,0:11:15.776 Då använder vi vår mänskliga erfarenhet 0:11:15.800,0:11:17.896 för att göra det hela begripligt 0:11:17.920,0:11:20.696 och sen får maskinen[br]lära sig av våra rättelser. 0:11:20.720,0:11:23.290 Den här modellen sprider sig 0:11:23.310,0:11:26.440 till medicinsk diagnostik[br]och säkerhetsanalys. 0:11:26.440,0:11:28.560 Maskinen tuggar data, 0:11:29.320,0:11:31.056 beräknar sannolikheter 0:11:31.080,0:11:34.736 och gör 80 eller 90 procent av jobbet, 0:11:34.760,0:11:39.136 och underlättar människans analys 0:11:39.160,0:11:41.760 och beslutsfattande. 0:11:42.280,0:11:47.120 Men du skulle inte skicka dina barn 0:11:48.000,0:11:51.560 till skolan i en förarlös bil[br]som har 90 procents tillförlitlighet, 0:11:52.580,0:11:54.760 inte ens med 99 procent. 0:11:55.560,0:11:58.416 Så vi behöver ett språng framåt 0:11:58.440,0:12:04.760 för att lägga till[br]de avgörande decimalerna. 0:12:07.160,0:12:11.330 Tjugo år efter min match mot Deep Blue, 0:12:12.200,0:12:13.816 den andra matchen, 0:12:13.840,0:12:20.136 har den sensationella rubriken[br]om "hjärnans sista strid" 0:12:20.160,0:12:21.736 blivit en vardaglighet, 0:12:21.760,0:12:24.296 i takt med att intelligenta maskiner 0:12:24.320,0:12:25.520 rör sig framåt 0:12:26.560,0:12:28.760 i alla sektorer, till synes varje dag. 0:12:30.160,0:12:33.256 Men till skillnad från i det förflutna 0:12:33.280,0:12:34.920 när maskiner ersatte 0:12:36.480,0:12:38.856 arbetsdjur, kroppsarbete, 0:12:38.880,0:12:41.376 hotar de nu människor[br]med högskoleutbildning 0:12:41.400,0:12:43.200 och politiskt inflytande. 0:12:43.860,0:12:46.216 Och som någon som slogs[br]mot maskiner och förlorade 0:12:46.240,0:12:49.380 kan jag berätta att detta är[br]fantastiska, fantastiska nyheter. 0:12:51.000,0:12:53.216 Förr eller senare kommer alla professioner 0:12:53.240,0:12:55.336 få känna på det här trycket, 0:12:55.360,0:13:01.400 annars betyder det att mänskligheten[br]har slutat göra framsteg. 0:13:02.760,0:13:04.320 Vi får inte 0:13:05.720,0:13:09.090 välja när och var 0:13:09.120,0:13:11.200 den tekniska utvecklingen stannar. 0:13:13.160,0:13:14.520 Vi kan inte 0:13:15.960,0:13:17.456 sakta ner. 0:13:17.480,0:13:19.296 I själva verket 0:13:19.320,0:13:21.880 måste vi accelerera. 0:13:24.600,0:13:27.240 Vår teknik är förträfflig på att avlägsna 0:13:29.200,0:13:32.960 svårigheter och osäkerheter från våra liv, 0:13:35.000,0:13:37.816 så därför måste vi söka upp 0:13:37.840,0:13:39.696 ännu svårare, 0:13:39.720,0:13:44.150 ännu mer osäkra utmaningar. 0:13:48.200,0:13:49.760 Maskiner har 0:13:51.880,0:13:53.696 beräkningar. 0:13:53.720,0:13:55.296 Vi har förståelse. 0:13:55.320,0:13:57.360 Maskiner har instruktioner. 0:13:58.840,0:14:00.696 Vi har mening. 0:14:00.720,0:14:03.000 Maskiner har 0:14:05.080,0:14:06.296 objektivitet. 0:14:06.320,0:14:07.520 Vi har passion. 0:14:08.600,0:14:14.576 Vi ska inte oroa oss för[br]vad våra maskiner kan göra idag. 0:14:14.600,0:14:19.176 I stället borde vi oroa oss för[br]vad de fortfarande inte kan göra, 0:14:19.200,0:14:24.696 för vi kommer behöva hjälp[br]av nya, intelligenta maskiner 0:14:24.720,0:14:29.180 för att förverkliga våra största drömmar. 0:14:30.000,0:14:31.430 Och om vi misslyckas, 0:14:32.240,0:14:36.896 om vi misslyckas så är det inte för[br]att våra maskiner är för intelligenta, 0:14:36.920,0:14:38.970 eller inte tillräckligt intelligenta. 0:14:39.200,0:14:42.280 Om vi misslyckas,[br]är det för att vi blev självgoda 0:14:43.680,0:14:45.240 och begränsade våra ambitioner. 0:14:46.520,0:14:49.720 Vår mänsklighet definieras inte[br]av någon färdighet, 0:14:51.280,0:14:54.020 som att svinga en hammare[br]eller spela schack. 0:14:54.560,0:14:57.576 Det finns en sak[br]som bara en människa kan göra. 0:14:57.600,0:14:59.120 Det är att drömma. 0:15:00.120,0:15:02.656 Så låt oss drömma stort. 0:15:02.680,0:15:03.896 Tack. 0:15:03.920,0:15:06.877 (Applåder)