0:00:00.960,0:00:03.936 Dit verhaal begint in 1985 0:00:03.960,0:00:05.936 toen ik als 22-jarige 0:00:05.960,0:00:08.336 wereldkampioen schaken werd, 0:00:08.360,0:00:11.560 na Anatoly Karpov te hebben verslagen. 0:00:12.480,0:00:13.736 Eerder dat jaar 0:00:13.760,0:00:17.086 speelde ik simultaan 0:00:17.100,0:00:21.416 tegen 32 van 's werelds [br]beste schaakmachines 0:00:21.430,0:00:23.200 in Hamburg, Duitsland. 0:00:24.160,0:00:25.600 Ik won alle partijen, 0:00:26.560,0:00:29.736 en destijds verbaasde het niemand 0:00:29.760,0:00:33.800 dat ik 32 computers tegelijk kon verslaan. 0:00:34.480,0:00:37.056 Voor mij was dat de gouden eeuw. 0:00:37.080,0:00:39.176 (Gelach) 0:00:39.200,0:00:40.720 Machines waren zwak, 0:00:41.440,0:00:43.016 en mijn haar was sterk. 0:00:43.040,0:00:45.240 (Gelach) 0:00:46.720,0:00:48.776 Maar slechts 12 jaar later 0:00:48.800,0:00:53.140 vocht ik voor mijn leven [br]tegen slechts één computer 0:00:53.140,0:00:54.620 in een wedstrijd 0:00:54.620,0:00:57.150 die Newsweek op zijn cover betitelde als: 0:00:57.150,0:00:59.366 ‘De Ultieme Strijd van het Brein’. 0:00:59.366,0:01:00.456 Geen druk. 0:01:00.480,0:01:02.000 (Gelach) 0:01:03.040,0:01:05.616 In de mythologie en in science fiction 0:01:05.640,0:01:08.376 werd mens-tegen-machine 0:01:08.400,0:01:11.160 vaak afgeschilderd [br]als een zaak van leven of dood. 0:01:11.960,0:01:13.536 John Henry, 0:01:13.560,0:01:15.256 de 'stalen man' genoemd 0:01:15.280,0:01:18.896 in de 19e eeuwse [br]Afro-Amerikaanse volkslegende, 0:01:18.910,0:01:20.456 moest een wedstrijd aangaan 0:01:20.480,0:01:23.216 tegen een stoomaangedreven hamer 0:01:23.240,0:01:25.600 om een tunnel door een berg te hakken. 0:01:26.800,0:01:31.000 John Henry's legende is een deel [br]van een lang historisch verhaal 0:01:31.680,0:01:34.760 van strijd tussen mens en technologie. 0:01:36.200,0:01:39.080 Deze competitieve retoriek [br]is nu standaard. 0:01:39.560,0:01:41.520 We zitten in een race [br]tegen de machines 0:01:42.360,0:01:44.440 in een gevecht of zelfs een oorlog. 0:01:45.880,0:01:47.496 Jobs vallen weg. 0:01:47.520,0:01:51.080 Mensen worden vervangen [br]alsof ze van de aarde zijn verdwenen. 0:01:51.990,0:01:55.736 Je zou bijna gaan denken dat films [br]als ‘The Terminator’ of ‘The Matrix’ 0:01:55.760,0:01:57.110 non-fictie zijn. 0:01:59.640,0:02:03.960 Er zijn zeer weinig gevallen van een arena 0:02:05.360,0:02:09.616 waarbij de mens lichamelijk en geestelijk [br]op gelijke voorwaarden kan concurreren 0:02:09.639,0:02:11.480 met een computer of een robot. 0:02:12.280,0:02:14.608 Eigenlijk wou ik dat er wat meer waren. 0:02:15.760,0:02:16.960 In plaats daarvan 0:02:17.840,0:02:22.496 was het mijn zegen en mijn vloek 0:02:22.520,0:02:25.466 om letterlijk uit te groeien [br]tot de spreekwoordelijke man 0:02:25.466,0:02:28.336 in de mens-versus-machinecompetitie 0:02:28.360,0:02:30.240 waar iedereen nog steeds over praat. 0:02:33.120,0:02:38.136 In de meest bekende [br]mens-machinecompetitie sinds John Henry 0:02:38.160,0:02:40.736 speelde ik twee wedstrijden 0:02:40.760,0:02:44.200 tegen de IBM-supercomputer Deep Blue. 0:02:47.040,0:02:49.706 Niemand herinnert zich [br]dat ik de eerste wedstrijd won -- 0:02:49.706,0:02:51.576 (Gelach) 0:02:51.600,0:02:55.000 (Applaus) 0:02:55.920,0:03:00.896 in Philadelphia voordat ik de terugmatch [br]het jaar daarop in New York verloor. 0:03:00.920,0:03:02.680 Maar ik denk dat het eerlijk is. 0:03:04.320,0:03:09.416 Er is geen bijzondere herdenkingsdag 0:03:09.440,0:03:12.936 voor iedereen die de top [br]van de Everest niet haalde 0:03:12.960,0:03:15.696 voordat Sir Edmund Hillary [br]en Tenzing Norgay 0:03:15.720,0:03:16.920 de top bereikten. 0:03:17.960,0:03:21.720 En in 1997 was ik [br]nog steeds de wereldkampioen 0:03:24.520,0:03:28.720 toen de schaakcomputers [br]eindelijk volwassen werden. 0:03:29.520,0:03:31.496 Ik was de Everest 0:03:31.520,0:03:33.120 en Deep Blue bereikte de top. 0:03:34.600,0:03:38.656 Ik moet natuurlijk zeggen [br]dat niet Deep Blue het deed, 0:03:38.680,0:03:40.816 maar wel zijn menselijke makers -- 0:03:40.840,0:03:44.176 Anantharaman, Campbell, Hoane, Hsu. 0:03:44.370,0:03:45.550 Petje af voor hen. 0:03:46.840,0:03:51.256 Zoals altijd was de triomf [br]van de machine een menselijke triomf, 0:03:51.280,0:03:56.040 iets wat we wel eens vergeten wanneer [br]onze eigen creaties ons overtreffen. 0:03:58.360,0:03:59.990 Deep Blue heeft gezegevierd, 0:04:01.240,0:04:02.600 maar was hij intelligent? 0:04:03.360,0:04:05.120 Nee, nee, hij was het niet, 0:04:06.200,0:04:09.260 althans niet [br]op de manier waarop Alan Turing 0:04:09.260,0:04:12.480 en andere grondleggers [br]van de informatica het hadden gehoopt. 0:04:13.240,0:04:18.016 Het bleek dat schaken kon worden [br]gekraakt door brute kracht, 0:04:18.040,0:04:22.296 zodra de hardware snel genoeg werd 0:04:22.320,0:04:25.280 en de algoritmen slim genoeg. 0:04:26.760,0:04:30.456 Maar naar de definitie van het resultaat, 0:04:30.480,0:04:33.696 schaken op grootmeesterniveau, 0:04:33.720,0:04:35.220 was Deep Blue intelligent. 0:04:37.320,0:04:39.720 Maar ondanks de ongelooflijke snelheid 0:04:40.560,0:04:43.760 van 200 miljoen posities per seconde, 0:04:45.360,0:04:47.460 verschafte Deep Blue's methode 0:04:47.480,0:04:50.500 weinig van het gedroomde inzicht 0:04:50.990,0:04:55.180 in de mysteries [br]van de menselijke intelligentie. 0:04:56.960,0:04:58.776 Spoedig 0:04:58.800,0:05:01.376 zullen machines taxichauffeurs, 0:05:01.400,0:05:03.816 artsen en professoren zijn, 0:05:03.840,0:05:06.440 maar zullen ze ‘intelligent’ zijn? 0:05:07.840,0:05:10.336 Ik zou deze definities liever overlaten 0:05:10.360,0:05:13.920 aan filosofen en woordenboeken. 0:05:15.440,0:05:19.320 Wat echt belangrijk is, [br]is hoe wij mensen 0:05:20.320,0:05:23.920 ons voelen over leven [br]en werken met deze machines. 0:05:26.160,0:05:31.146 Toen ik voor het eerst Deep Blue [br]in februari 1996 ontmoette, 0:05:31.170,0:05:34.040 was ik al meer [br]dan 10 jaar wereldkampioen, 0:05:36.080,0:05:40.096 en had ik 182 WK-partijen gespeeld 0:05:40.120,0:05:41.400 en honderden partijen 0:05:41.400,0:05:44.780 tegen andere topspelers [br]in andere wedstrijden. 0:05:45.240,0:05:50.296 Ik wist wat te verwachten [br]van mijn tegenstanders 0:05:50.320,0:05:52.000 en wat te verwachten van mezelf. 0:05:52.680,0:05:57.856 Ik was gewend [br]om hun zetten in te schatten 0:05:57.880,0:06:01.496 en hun emotionele toestand te peilen 0:06:01.520,0:06:05.360 door te kijken [br]naar hun lichaamstaal en hun ogen. 0:06:05.880,0:06:09.880 Maar toen zat ik [br]aan het schaakbord tegenover Deep Blue. 0:06:12.960,0:06:15.816 Ik voelde meteen iets nieuws, 0:06:15.840,0:06:17.160 iets verontrustends. 0:06:19.440,0:06:22.240 Een soortgelijk gevoel [br]zal je misschien ervaren 0:06:23.320,0:06:25.856 de eerste keer dat je rijdt [br]in een zelfrijdende auto 0:06:25.880,0:06:29.270 of de eerste keer [br]dat je nieuwe computer-manager 0:06:29.270,0:06:31.580 je iets beveelt op het werk. 0:06:33.800,0:06:36.920 Maar bij dat eerste spel 0:06:38.080,0:06:40.216 wist ik niet zeker 0:06:40.240,0:06:43.920 waartoe dit ding in staat was. 0:06:44.920,0:06:48.500 Technologie kan sprongsgewijs vooruitgaan [br]en IBM had er zwaar in geïnvesteerd. 0:06:48.530,0:06:50.090 Ik verloor die wedstrijd. 0:06:52.200,0:06:54.216 En ik kon niet anders dan me afvragen 0:06:54.240,0:06:55.990 of hij onklopbaar kon zijn. 0:06:56.600,0:06:58.960 Was mijn geliefde schaakspel om zeep? 0:07:00.800,0:07:04.776 Dit waren menselijke twijfels, [br]menselijke angsten, 0:07:04.800,0:07:06.560 en het enige wat ik zeker wist, 0:07:06.560,0:07:08.400 was dat mijn tegenstander Deep Blue 0:07:08.400,0:07:10.620 zich daar helemaal [br]geen zorgen over maakte. 0:07:10.620,0:07:12.080 (Gelach) 0:07:13.920,0:07:15.320 Ik vocht terug 0:07:16.400,0:07:18.260 na deze verwoestende klap 0:07:19.000,0:07:20.830 om de eerste wedstrijd te winnen, 0:07:20.960,0:07:22.880 maar het was een teken aan de wand. 0:07:24.400,0:07:26.536 Uiteindelijk verloor ik van de machine 0:07:26.560,0:07:29.616 maar ik onderging niet [br]het lot van John Henry 0:07:29.640,0:07:32.680 die won, maar stierf [br]met zijn hamer in de hand. 0:07:37.720,0:07:40.256 Het bleek dat de schaakwereld 0:07:40.280,0:07:43.520 nog steeds een menselijke [br]schaakkampioen wilde hebben. 0:07:44.920,0:07:46.600 En zelfs vandaag, nu 0:07:48.080,0:07:51.536 een gratis schaak-app [br]op de nieuwste mobiele telefoon 0:07:51.560,0:07:53.576 sterker is dan Deep Blue, 0:07:53.600,0:07:55.600 zijn mensen nog steeds aan het schaken, 0:07:56.680,0:07:58.920 zelfs meer dan ooit tevoren. 0:07:59.650,0:08:03.016 Doemdenkers voorspelden dat [br]niemand het spel zou willen spelen 0:08:03.040,0:08:05.296 dat door een machine bedwongen kon worden 0:08:05.320,0:08:07.536 maar ze bleken het fout te hebben, 0:08:07.560,0:08:11.016 maar doemdenken was altijd al [br]een populair tijdverdrijf 0:08:11.040,0:08:12.600 als het over technologie gaat. 0:08:14.360,0:08:17.096 Wat ik van mijn eigen ervaring leerde, 0:08:17.120,0:08:21.776 is dat we onze angsten [br]onder ogen moeten zien 0:08:21.800,0:08:25.520 als we het maximale [br]uit onze technologie willen halen, 0:08:26.360,0:08:28.736 en we moeten die angsten overwinnen 0:08:28.760,0:08:34.000 als we het beste [br]uit onze menselijkheid willen halen. 0:08:36.120,0:08:37.895 Terwijl ik mijn wonden likte, 0:08:37.919,0:08:39.880 kreeg ik heel wat inspiratie 0:08:41.080,0:08:43.775 door mijn gevechten tegen Deep Blue. 0:08:43.799,0:08:45.710 Zoals het oude Russische gezegde gaat: 0:08:45.710,0:08:48.330 als je ze niet kunt verslaan, [br]sluit je dan bij hen aan. 0:08:48.880,0:08:50.256 Toen dacht ik: 0:08:50.280,0:08:52.616 wat als ik samen [br]met een computer kon spelen -- 0:08:52.640,0:08:55.800 met een computer aan mijn zijde [br]onze krachten kon bundelen: 0:08:57.160,0:09:00.936 menselijke intuïtie [br]plus machineberekening, 0:09:00.960,0:09:03.656 menselijk strategie, machinetactiek, 0:09:03.680,0:09:06.096 menselijke ervaring, machinegeheugen. 0:09:06.120,0:09:08.520 Zou dat het meest [br]perfecte spel ooit kunnen zijn? 0:09:10.000,0:09:11.790 Mijn idee kwam tot leven 0:09:12.890,0:09:14.050 in 1998 0:09:14.540,0:09:16.296 onder de naam Geavanceerd Schaken 0:09:16.320,0:09:22.000 toen ik een mens-plus-machinewedstrijd [br]speelde tegen een andere topspeler. 0:09:23.280,0:09:25.176 Maar in dit eerste experiment, 0:09:25.200,0:09:27.310 slaagden we er allebei niet in 0:09:27.380,0:09:31.760 om mens- en machinevaardigheden [br]effectief te combineren. 0:09:34.920,0:09:37.950 Geavanceerd Schaken [br]vond zijn thuis op het internet 0:09:38.160,0:09:42.760 en in 2005 zorgde een zogenaamd [br]freestyle schaaktoernooi 0:09:42.790,0:09:44.400 voor een openbaring. 0:09:47.240,0:09:50.776 Een team van grootmeesters [br]en topmachines nam deel, 0:09:50.800,0:09:53.536 maar de winnaars [br]waren noch de grootmeesters 0:09:53.560,0:09:54.920 noch de supercomputer. 0:09:55.680,0:10:00.016 De winnaars waren [br]een paar Amerikaanse schaakamateurs 0:10:00.040,0:10:03.200 die drie gewone pc's [br]tegelijk bedienden. 0:10:05.560,0:10:08.576 Hun vaardigheid [br]in het coachen van hun machines 0:10:08.600,0:10:14.060 counterde effectief [br]de superieure schaakkennis 0:10:14.080,0:10:16.176 van hun grootmeester-tegenstanders 0:10:16.176,0:10:20.160 en de grotere rekenkracht van anderen. 0:10:21.600,0:10:23.560 Ik kwam tot deze formulering: 0:10:24.560,0:10:27.936 een zwakke menselijke speler [br]met een computer 0:10:27.960,0:10:31.216 en een betere procesbeheersing [br]is superieur 0:10:31.240,0:10:33.656 aan een zeer krachtige machine alleen, 0:10:33.680,0:10:37.576 maar, nog opmerkelijker, is superieur [br]aan een sterke menselijke speler 0:10:37.600,0:10:39.560 met machine en... 0:10:41.120,0:10:43.520 een inferieure procesbeheersing. 0:10:46.180,0:10:47.630 Dit overtuigde me ervan 0:10:47.630,0:10:51.120 dat we betere interfaces[br]nodig zouden hebben 0:10:51.120,0:10:53.910 om ons te helpen bij[br]het coachen van onze machines 0:10:53.920,0:10:56.240 richting een nuttiger intelligentie. 0:10:58.320,0:11:01.616 Mens plus machine is niet de toekomst, 0:11:01.640,0:11:02.856 het is er al. 0:11:02.880,0:11:07.016 Iedereen die ooit [br]onlinevertaling gebruikte 0:11:07.040,0:11:11.336 om iets van een nieuwsartikel [br]van een buitenlandse krant te snappen, 0:11:11.360,0:11:13.270 weet dat ze verre van perfect is. 0:11:13.680,0:11:15.776 Dan gebruiken we onze menselijke ervaring 0:11:15.800,0:11:17.896 om er iets zinvols uit te distilleren, 0:11:17.920,0:11:20.696 waarna de machine [br]leert van onze correcties. 0:11:20.720,0:11:23.440 Dit model verspreidt zich [br]en wordt toegepast 0:11:23.440,0:11:26.440 bij medische diagnose [br]en veiligheidsanalyse. 0:11:26.440,0:11:28.560 De machine verwerkt data, 0:11:29.320,0:11:31.056 berekent waarschijnlijkheden, 0:11:31.080,0:11:34.736 legt 80-90% van het traject af, 0:11:34.760,0:11:39.136 waardoor analyse en besluitvorming 0:11:39.160,0:11:41.760 makkelijker wordt [br]voor de menselijke partij. 0:11:42.280,0:11:47.120 Maar je stuurt je kinderen niet 0:11:48.000,0:11:51.560 naar school in een zelfrijdende [br]auto met 90% nauwkeurigheid, 0:11:52.600,0:11:54.200 zelfs niet met 99%. 0:11:55.560,0:11:58.416 Voor de sprong voorwaarts moeten er 0:11:58.440,0:12:04.600 nog wat cruciale decimalen bijkomen. 0:12:07.160,0:12:11.200 Twintig jaar na mijn match met Deep Blue, 0:12:12.200,0:12:13.816 na de tweede wedstrijd, 0:12:13.840,0:12:19.890 is de sensationele kop:[br]‘De Ultieme Strijd van het Brein’ 0:12:19.920,0:12:21.736 gemeengoed geworden, 0:12:21.760,0:12:24.296 nu intelligente machines 0:12:24.320,0:12:26.060 hun intrede doen 0:12:26.080,0:12:28.930 in elke sector, bijna dagelijks. 0:12:30.160,0:12:33.256 Maar in tegenstelling tot het verleden, 0:12:33.280,0:12:34.920 toen machines 0:12:36.480,0:12:38.856 boerderijdieren en handenarbeid vervingen, 0:12:38.880,0:12:41.486 gaan ze dat nu doen [br]met mensen met academische graden 0:12:41.486,0:12:42.880 en politieke invloed. 0:12:44.120,0:12:46.426 Als iemand [br]die met machines vocht en verloor, 0:12:46.426,0:12:48.880 vertel ik jullie [br]dat dit geweldig nieuws is. 0:12:51.000,0:12:53.216 Uiteindelijk zal elk beroep 0:12:53.240,0:12:55.336 deze druk moeten ondergaan 0:12:55.360,0:12:59.760 of anders zou het betekenen 0:12:59.760,0:13:02.430 dat de mensheid [br]ophoudt met vooruitgang boeken. 0:13:02.760,0:13:03.960 We zullen niet 0:13:05.440,0:13:07.160 kunnen kiezen 0:13:08.480,0:13:11.200 wanneer en waar [br]de technologische vooruitgang stopt. 0:13:13.160,0:13:14.520 We kunnen niet 0:13:15.960,0:13:17.456 vertragen. 0:13:17.480,0:13:19.296 Eigenlijk 0:13:19.320,0:13:21.240 moeten we versnellen. 0:13:24.600,0:13:27.240 Onze technologie [br]blinkt uit in het wegnemen 0:13:29.200,0:13:32.560 van moeilijkheden [br]en onzekerheden uit ons leven, 0:13:35.000,0:13:37.816 en dus moeten we op zoek gaan naar 0:13:37.840,0:13:39.696 steeds moeilijker, 0:13:39.720,0:13:43.800 steeds onzekerder uitdagingen. 0:13:48.200,0:13:49.400 Machines hebben 0:13:51.880,0:13:53.696 berekeningen. 0:13:53.720,0:13:55.296 Wij hebben begrip. 0:13:55.320,0:13:57.360 Machines hebben instructies. 0:13:58.840,0:14:00.696 Wij hebben doel. 0:14:00.720,0:14:03.000 Machines hebben 0:14:04.950,0:14:06.296 objectiviteit. 0:14:06.320,0:14:07.760 Wij hebben passie. 0:14:08.600,0:14:11.600 We moeten ons geen zorgen maken 0:14:11.600,0:14:14.600 over wat onze machines [br]vandaag kunnen. 0:14:14.600,0:14:16.920 In plaats daarvan [br]moeten we ons zorgen maken 0:14:16.920,0:14:19.200 over wat ze vandaag [br]nog steeds niet kunnen, 0:14:19.200,0:14:24.696 omdat we de hulp van de nieuwe, [br]intelligente machines nodig hebben 0:14:24.720,0:14:28.800 om onze grootste dromen [br]om te zetten in realiteit. 0:14:30.000,0:14:31.320 En als we falen, 0:14:32.240,0:14:36.896 als we falen, is het niet [br]omdat onze machines te intelligent 0:14:36.920,0:14:38.570 of niet intelligent genoeg zijn. 0:14:39.200,0:14:42.280 Als we falen, dan is dat [br]omdat we zelfgenoegzaam werden 0:14:43.680,0:14:45.240 en onze ambities inperkten. 0:14:46.520,0:14:49.560 Onze menselijkheid wordt [br]niet bepaald door vaardigheden 0:14:51.280,0:14:53.960 als met een hamer zwiepen[br]of zelfs als schaken. 0:14:54.560,0:14:57.576 Er is één ding dat [br]alleen maar een mens kan doen. 0:14:57.600,0:14:58.800 Dat is dromen. 0:15:00.120,0:15:02.656 Laten we dus groots dromen. 0:15:02.680,0:15:03.896 Dank je. 0:15:03.920,0:15:07.347 (Applaus)