1 00:00:00,960 --> 00:00:03,936 Dit verhaal begint in 1985 2 00:00:03,960 --> 00:00:05,936 toen ik als 22-jarige 3 00:00:05,960 --> 00:00:08,336 wereldkampioen schaken werd, 4 00:00:08,360 --> 00:00:11,560 na Anatoly Karpov te hebben verslagen. 5 00:00:12,480 --> 00:00:13,736 Eerder dat jaar 6 00:00:13,760 --> 00:00:17,086 speelde ik simultaan 7 00:00:17,100 --> 00:00:21,416 tegen 32 van 's werelds beste schaakmachines 8 00:00:21,430 --> 00:00:23,200 in Hamburg, Duitsland. 9 00:00:24,160 --> 00:00:25,600 Ik won alle partijen, 10 00:00:26,560 --> 00:00:29,736 en destijds verbaasde het niemand 11 00:00:29,760 --> 00:00:33,800 dat ik 32 computers tegelijk kon verslaan. 12 00:00:34,480 --> 00:00:37,056 Voor mij was dat de gouden eeuw. 13 00:00:37,080 --> 00:00:39,176 (Gelach) 14 00:00:39,200 --> 00:00:40,720 Machines waren zwak, 15 00:00:41,440 --> 00:00:43,016 en mijn haar was sterk. 16 00:00:43,040 --> 00:00:45,240 (Gelach) 17 00:00:46,720 --> 00:00:48,776 Maar slechts 12 jaar later 18 00:00:48,800 --> 00:00:53,140 vocht ik voor mijn leven tegen slechts één computer 19 00:00:53,140 --> 00:00:54,620 in een wedstrijd 20 00:00:54,620 --> 00:00:57,150 die Newsweek op zijn cover betitelde als: 21 00:00:57,150 --> 00:00:59,366 ‘De Ultieme Strijd van het Brein’. 22 00:00:59,366 --> 00:01:00,456 Geen druk. 23 00:01:00,480 --> 00:01:02,000 (Gelach) 24 00:01:03,040 --> 00:01:05,616 In de mythologie en in science fiction 25 00:01:05,640 --> 00:01:08,376 werd mens-tegen-machine 26 00:01:08,400 --> 00:01:11,160 vaak afgeschilderd als een zaak van leven of dood. 27 00:01:11,960 --> 00:01:13,536 John Henry, 28 00:01:13,560 --> 00:01:15,256 de 'stalen man' genoemd 29 00:01:15,280 --> 00:01:18,896 in de 19e eeuwse Afro-Amerikaanse volkslegende, 30 00:01:18,910 --> 00:01:20,456 moest een wedstrijd aangaan 31 00:01:20,480 --> 00:01:23,216 tegen een stoomaangedreven hamer 32 00:01:23,240 --> 00:01:25,600 om een tunnel door een berg te hakken. 33 00:01:26,800 --> 00:01:31,000 John Henry's legende is een deel van een lang historisch verhaal 34 00:01:31,680 --> 00:01:34,760 van strijd tussen mens en technologie. 35 00:01:36,200 --> 00:01:39,080 Deze competitieve retoriek is nu standaard. 36 00:01:39,560 --> 00:01:41,520 We zitten in een race tegen de machines 37 00:01:42,360 --> 00:01:44,440 in een gevecht of zelfs een oorlog. 38 00:01:45,880 --> 00:01:47,496 Jobs vallen weg. 39 00:01:47,520 --> 00:01:51,080 Mensen worden vervangen alsof ze van de aarde zijn verdwenen. 40 00:01:51,990 --> 00:01:55,736 Je zou bijna gaan denken dat films als ‘The Terminator’ of ‘The Matrix’ 41 00:01:55,760 --> 00:01:57,110 non-fictie zijn. 42 00:01:59,640 --> 00:02:03,960 Er zijn zeer weinig gevallen van een arena 43 00:02:05,360 --> 00:02:09,616 waarbij de mens lichamelijk en geestelijk op gelijke voorwaarden kan concurreren 44 00:02:09,639 --> 00:02:11,480 met een computer of een robot. 45 00:02:12,280 --> 00:02:14,608 Eigenlijk wou ik dat er wat meer waren. 46 00:02:15,760 --> 00:02:16,960 In plaats daarvan 47 00:02:17,840 --> 00:02:22,496 was het mijn zegen en mijn vloek 48 00:02:22,520 --> 00:02:25,466 om letterlijk uit te groeien tot de spreekwoordelijke man 49 00:02:25,466 --> 00:02:28,336 in de mens-versus-machinecompetitie 50 00:02:28,360 --> 00:02:30,240 waar iedereen nog steeds over praat. 51 00:02:33,120 --> 00:02:38,136 In de meest bekende mens-machinecompetitie sinds John Henry 52 00:02:38,160 --> 00:02:40,736 speelde ik twee wedstrijden 53 00:02:40,760 --> 00:02:44,200 tegen de IBM-supercomputer Deep Blue. 54 00:02:47,040 --> 00:02:49,706 Niemand herinnert zich dat ik de eerste wedstrijd won -- 55 00:02:49,706 --> 00:02:51,576 (Gelach) 56 00:02:51,600 --> 00:02:55,000 (Applaus) 57 00:02:55,920 --> 00:03:00,896 in Philadelphia voordat ik de terugmatch het jaar daarop in New York verloor. 58 00:03:00,920 --> 00:03:02,680 Maar ik denk dat het eerlijk is. 59 00:03:04,320 --> 00:03:09,416 Er is geen bijzondere herdenkingsdag 60 00:03:09,440 --> 00:03:12,936 voor iedereen die de top van de Everest niet haalde 61 00:03:12,960 --> 00:03:15,696 voordat Sir Edmund Hillary en Tenzing Norgay 62 00:03:15,720 --> 00:03:16,920 de top bereikten. 63 00:03:17,960 --> 00:03:21,720 En in 1997 was ik nog steeds de wereldkampioen 64 00:03:24,520 --> 00:03:28,720 toen de schaakcomputers eindelijk volwassen werden. 65 00:03:29,520 --> 00:03:31,496 Ik was de Everest 66 00:03:31,520 --> 00:03:33,120 en Deep Blue bereikte de top. 67 00:03:34,600 --> 00:03:38,656 Ik moet natuurlijk zeggen dat niet Deep Blue het deed, 68 00:03:38,680 --> 00:03:40,816 maar wel zijn menselijke makers -- 69 00:03:40,840 --> 00:03:44,176 Anantharaman, Campbell, Hoane, Hsu. 70 00:03:44,370 --> 00:03:45,550 Petje af voor hen. 71 00:03:46,840 --> 00:03:51,256 Zoals altijd was de triomf van de machine een menselijke triomf, 72 00:03:51,280 --> 00:03:56,040 iets wat we wel eens vergeten wanneer onze eigen creaties ons overtreffen. 73 00:03:58,360 --> 00:03:59,990 Deep Blue heeft gezegevierd, 74 00:04:01,240 --> 00:04:02,600 maar was hij intelligent? 75 00:04:03,360 --> 00:04:05,120 Nee, nee, hij was het niet, 76 00:04:06,200 --> 00:04:09,260 althans niet op de manier waarop Alan Turing 77 00:04:09,260 --> 00:04:12,480 en andere grondleggers van de informatica het hadden gehoopt. 78 00:04:13,240 --> 00:04:18,016 Het bleek dat schaken kon worden gekraakt door brute kracht, 79 00:04:18,040 --> 00:04:22,296 zodra de hardware snel genoeg werd 80 00:04:22,320 --> 00:04:25,280 en de algoritmen slim genoeg. 81 00:04:26,760 --> 00:04:30,456 Maar naar de definitie van het resultaat, 82 00:04:30,480 --> 00:04:33,696 schaken op grootmeesterniveau, 83 00:04:33,720 --> 00:04:35,220 was Deep Blue intelligent. 84 00:04:37,320 --> 00:04:39,720 Maar ondanks de ongelooflijke snelheid 85 00:04:40,560 --> 00:04:43,760 van 200 miljoen posities per seconde, 86 00:04:45,360 --> 00:04:47,460 verschafte Deep Blue's methode 87 00:04:47,480 --> 00:04:50,500 weinig van het gedroomde inzicht 88 00:04:50,990 --> 00:04:55,180 in de mysteries van de menselijke intelligentie. 89 00:04:56,960 --> 00:04:58,776 Spoedig 90 00:04:58,800 --> 00:05:01,376 zullen machines taxichauffeurs, 91 00:05:01,400 --> 00:05:03,816 artsen en professoren zijn, 92 00:05:03,840 --> 00:05:06,440 maar zullen ze ‘intelligent’ zijn? 93 00:05:07,840 --> 00:05:10,336 Ik zou deze definities liever overlaten 94 00:05:10,360 --> 00:05:13,920 aan filosofen en woordenboeken. 95 00:05:15,440 --> 00:05:19,320 Wat echt belangrijk is, is hoe wij mensen 96 00:05:20,320 --> 00:05:23,920 ons voelen over leven en werken met deze machines. 97 00:05:26,160 --> 00:05:31,146 Toen ik voor het eerst Deep Blue in februari 1996 ontmoette, 98 00:05:31,170 --> 00:05:34,040 was ik al meer dan 10 jaar wereldkampioen, 99 00:05:36,080 --> 00:05:40,096 en had ik 182 WK-partijen gespeeld 100 00:05:40,120 --> 00:05:41,400 en honderden partijen 101 00:05:41,400 --> 00:05:44,780 tegen andere topspelers in andere wedstrijden. 102 00:05:45,240 --> 00:05:50,296 Ik wist wat te verwachten van mijn tegenstanders 103 00:05:50,320 --> 00:05:52,000 en wat te verwachten van mezelf. 104 00:05:52,680 --> 00:05:57,856 Ik was gewend om hun zetten in te schatten 105 00:05:57,880 --> 00:06:01,496 en hun emotionele toestand te peilen 106 00:06:01,520 --> 00:06:05,360 door te kijken naar hun lichaamstaal en hun ogen. 107 00:06:05,880 --> 00:06:09,880 Maar toen zat ik aan het schaakbord tegenover Deep Blue. 108 00:06:12,960 --> 00:06:15,816 Ik voelde meteen iets nieuws, 109 00:06:15,840 --> 00:06:17,160 iets verontrustends. 110 00:06:19,440 --> 00:06:22,240 Een soortgelijk gevoel zal je misschien ervaren 111 00:06:23,320 --> 00:06:25,856 de eerste keer dat je rijdt in een zelfrijdende auto 112 00:06:25,880 --> 00:06:29,270 of de eerste keer dat je nieuwe computer-manager 113 00:06:29,270 --> 00:06:31,580 je iets beveelt op het werk. 114 00:06:33,800 --> 00:06:36,920 Maar bij dat eerste spel 115 00:06:38,080 --> 00:06:40,216 wist ik niet zeker 116 00:06:40,240 --> 00:06:43,920 waartoe dit ding in staat was. 117 00:06:44,920 --> 00:06:48,500 Technologie kan sprongsgewijs vooruitgaan en IBM had er zwaar in geïnvesteerd. 118 00:06:48,530 --> 00:06:50,090 Ik verloor die wedstrijd. 119 00:06:52,200 --> 00:06:54,216 En ik kon niet anders dan me afvragen 120 00:06:54,240 --> 00:06:55,990 of hij onklopbaar kon zijn. 121 00:06:56,600 --> 00:06:58,960 Was mijn geliefde schaakspel om zeep? 122 00:07:00,800 --> 00:07:04,776 Dit waren menselijke twijfels, menselijke angsten, 123 00:07:04,800 --> 00:07:06,560 en het enige wat ik zeker wist, 124 00:07:06,560 --> 00:07:08,400 was dat mijn tegenstander Deep Blue 125 00:07:08,400 --> 00:07:10,620 zich daar helemaal geen zorgen over maakte. 126 00:07:10,620 --> 00:07:12,080 (Gelach) 127 00:07:13,920 --> 00:07:15,320 Ik vocht terug 128 00:07:16,400 --> 00:07:18,260 na deze verwoestende klap 129 00:07:19,000 --> 00:07:20,830 om de eerste wedstrijd te winnen, 130 00:07:20,960 --> 00:07:22,880 maar het was een teken aan de wand. 131 00:07:24,400 --> 00:07:26,536 Uiteindelijk verloor ik van de machine 132 00:07:26,560 --> 00:07:29,616 maar ik onderging niet het lot van John Henry 133 00:07:29,640 --> 00:07:32,680 die won, maar stierf met zijn hamer in de hand. 134 00:07:37,720 --> 00:07:40,256 Het bleek dat de schaakwereld 135 00:07:40,280 --> 00:07:43,520 nog steeds een menselijke schaakkampioen wilde hebben. 136 00:07:44,920 --> 00:07:46,600 En zelfs vandaag, nu 137 00:07:48,080 --> 00:07:51,536 een gratis schaak-app op de nieuwste mobiele telefoon 138 00:07:51,560 --> 00:07:53,576 sterker is dan Deep Blue, 139 00:07:53,600 --> 00:07:55,600 zijn mensen nog steeds aan het schaken, 140 00:07:56,680 --> 00:07:58,920 zelfs meer dan ooit tevoren. 141 00:07:59,650 --> 00:08:03,016 Doemdenkers voorspelden dat niemand het spel zou willen spelen 142 00:08:03,040 --> 00:08:05,296 dat door een machine bedwongen kon worden 143 00:08:05,320 --> 00:08:07,536 maar ze bleken het fout te hebben, 144 00:08:07,560 --> 00:08:11,016 maar doemdenken was altijd al een populair tijdverdrijf 145 00:08:11,040 --> 00:08:12,600 als het over technologie gaat. 146 00:08:14,360 --> 00:08:17,096 Wat ik van mijn eigen ervaring leerde, 147 00:08:17,120 --> 00:08:21,776 is dat we onze angsten onder ogen moeten zien 148 00:08:21,800 --> 00:08:25,520 als we het maximale uit onze technologie willen halen, 149 00:08:26,360 --> 00:08:28,736 en we moeten die angsten overwinnen 150 00:08:28,760 --> 00:08:34,000 als we het beste uit onze menselijkheid willen halen. 151 00:08:36,120 --> 00:08:37,895 Terwijl ik mijn wonden likte, 152 00:08:37,919 --> 00:08:39,880 kreeg ik heel wat inspiratie 153 00:08:41,080 --> 00:08:43,775 door mijn gevechten tegen Deep Blue. 154 00:08:43,799 --> 00:08:45,710 Zoals het oude Russische gezegde gaat: 155 00:08:45,710 --> 00:08:48,330 als je ze niet kunt verslaan, sluit je dan bij hen aan. 156 00:08:48,880 --> 00:08:50,256 Toen dacht ik: 157 00:08:50,280 --> 00:08:52,616 wat als ik samen met een computer kon spelen -- 158 00:08:52,640 --> 00:08:55,800 met een computer aan mijn zijde onze krachten kon bundelen: 159 00:08:57,160 --> 00:09:00,936 menselijke intuïtie plus machineberekening, 160 00:09:00,960 --> 00:09:03,656 menselijk strategie, machinetactiek, 161 00:09:03,680 --> 00:09:06,096 menselijke ervaring, machinegeheugen. 162 00:09:06,120 --> 00:09:08,520 Zou dat het meest perfecte spel ooit kunnen zijn? 163 00:09:10,000 --> 00:09:11,790 Mijn idee kwam tot leven 164 00:09:12,890 --> 00:09:14,050 in 1998 165 00:09:14,540 --> 00:09:16,296 onder de naam Geavanceerd Schaken 166 00:09:16,320 --> 00:09:22,000 toen ik een mens-plus-machinewedstrijd speelde tegen een andere topspeler. 167 00:09:23,280 --> 00:09:25,176 Maar in dit eerste experiment, 168 00:09:25,200 --> 00:09:27,310 slaagden we er allebei niet in 169 00:09:27,380 --> 00:09:31,760 om mens- en machinevaardigheden effectief te combineren. 170 00:09:34,920 --> 00:09:37,950 Geavanceerd Schaken vond zijn thuis op het internet 171 00:09:38,160 --> 00:09:42,760 en in 2005 zorgde een zogenaamd freestyle schaaktoernooi 172 00:09:42,790 --> 00:09:44,400 voor een openbaring. 173 00:09:47,240 --> 00:09:50,776 Een team van grootmeesters en topmachines nam deel, 174 00:09:50,800 --> 00:09:53,536 maar de winnaars waren noch de grootmeesters 175 00:09:53,560 --> 00:09:54,920 noch de supercomputer. 176 00:09:55,680 --> 00:10:00,016 De winnaars waren een paar Amerikaanse schaakamateurs 177 00:10:00,040 --> 00:10:03,200 die drie gewone pc's tegelijk bedienden. 178 00:10:05,560 --> 00:10:08,576 Hun vaardigheid in het coachen van hun machines 179 00:10:08,600 --> 00:10:14,060 counterde effectief de superieure schaakkennis 180 00:10:14,080 --> 00:10:16,176 van hun grootmeester-tegenstanders 181 00:10:16,176 --> 00:10:20,160 en de grotere rekenkracht van anderen. 182 00:10:21,600 --> 00:10:23,560 Ik kwam tot deze formulering: 183 00:10:24,560 --> 00:10:27,936 een zwakke menselijke speler met een computer 184 00:10:27,960 --> 00:10:31,216 en een betere procesbeheersing is superieur 185 00:10:31,240 --> 00:10:33,656 aan een zeer krachtige machine alleen, 186 00:10:33,680 --> 00:10:37,576 maar, nog opmerkelijker, is superieur aan een sterke menselijke speler 187 00:10:37,600 --> 00:10:39,560 met machine en... 188 00:10:41,120 --> 00:10:43,520 een inferieure procesbeheersing. 189 00:10:46,180 --> 00:10:47,630 Dit overtuigde me ervan 190 00:10:47,630 --> 00:10:51,120 dat we betere interfaces nodig zouden hebben 191 00:10:51,120 --> 00:10:53,910 om ons te helpen bij het coachen van onze machines 192 00:10:53,920 --> 00:10:56,240 richting een nuttiger intelligentie. 193 00:10:58,320 --> 00:11:01,616 Mens plus machine is niet de toekomst, 194 00:11:01,640 --> 00:11:02,856 het is er al. 195 00:11:02,880 --> 00:11:07,016 Iedereen die ooit onlinevertaling gebruikte 196 00:11:07,040 --> 00:11:11,336 om iets van een nieuwsartikel van een buitenlandse krant te snappen, 197 00:11:11,360 --> 00:11:13,270 weet dat ze verre van perfect is. 198 00:11:13,680 --> 00:11:15,776 Dan gebruiken we onze menselijke ervaring 199 00:11:15,800 --> 00:11:17,896 om er iets zinvols uit te distilleren, 200 00:11:17,920 --> 00:11:20,696 waarna de machine leert van onze correcties. 201 00:11:20,720 --> 00:11:23,440 Dit model verspreidt zich en wordt toegepast 202 00:11:23,440 --> 00:11:26,440 bij medische diagnose en veiligheidsanalyse. 203 00:11:26,440 --> 00:11:28,560 De machine verwerkt data, 204 00:11:29,320 --> 00:11:31,056 berekent waarschijnlijkheden, 205 00:11:31,080 --> 00:11:34,736 legt 80-90% van het traject af, 206 00:11:34,760 --> 00:11:39,136 waardoor analyse en besluitvorming 207 00:11:39,160 --> 00:11:41,760 makkelijker wordt voor de menselijke partij. 208 00:11:42,280 --> 00:11:47,120 Maar je stuurt je kinderen niet 209 00:11:48,000 --> 00:11:51,560 naar school in een zelfrijdende auto met 90% nauwkeurigheid, 210 00:11:52,600 --> 00:11:54,200 zelfs niet met 99%. 211 00:11:55,560 --> 00:11:58,416 Voor de sprong voorwaarts moeten er 212 00:11:58,440 --> 00:12:04,600 nog wat cruciale decimalen bijkomen. 213 00:12:07,160 --> 00:12:11,200 Twintig jaar na mijn match met Deep Blue, 214 00:12:12,200 --> 00:12:13,816 na de tweede wedstrijd, 215 00:12:13,840 --> 00:12:19,890 is de sensationele kop: ‘De Ultieme Strijd van het Brein’ 216 00:12:19,920 --> 00:12:21,736 gemeengoed geworden, 217 00:12:21,760 --> 00:12:24,296 nu intelligente machines 218 00:12:24,320 --> 00:12:26,060 hun intrede doen 219 00:12:26,080 --> 00:12:28,930 in elke sector, bijna dagelijks. 220 00:12:30,160 --> 00:12:33,256 Maar in tegenstelling tot het verleden, 221 00:12:33,280 --> 00:12:34,920 toen machines 222 00:12:36,480 --> 00:12:38,856 boerderijdieren en handenarbeid vervingen, 223 00:12:38,880 --> 00:12:41,486 gaan ze dat nu doen met mensen met academische graden 224 00:12:41,486 --> 00:12:42,880 en politieke invloed. 225 00:12:44,120 --> 00:12:46,426 Als iemand die met machines vocht en verloor, 226 00:12:46,426 --> 00:12:48,880 vertel ik jullie dat dit geweldig nieuws is. 227 00:12:51,000 --> 00:12:53,216 Uiteindelijk zal elk beroep 228 00:12:53,240 --> 00:12:55,336 deze druk moeten ondergaan 229 00:12:55,360 --> 00:12:59,760 of anders zou het betekenen 230 00:12:59,760 --> 00:13:02,430 dat de mensheid ophoudt met vooruitgang boeken. 231 00:13:02,760 --> 00:13:03,960 We zullen niet 232 00:13:05,440 --> 00:13:07,160 kunnen kiezen 233 00:13:08,480 --> 00:13:11,200 wanneer en waar de technologische vooruitgang stopt. 234 00:13:13,160 --> 00:13:14,520 We kunnen niet 235 00:13:15,960 --> 00:13:17,456 vertragen. 236 00:13:17,480 --> 00:13:19,296 Eigenlijk 237 00:13:19,320 --> 00:13:21,240 moeten we versnellen. 238 00:13:24,600 --> 00:13:27,240 Onze technologie blinkt uit in het wegnemen 239 00:13:29,200 --> 00:13:32,560 van moeilijkheden en onzekerheden uit ons leven, 240 00:13:35,000 --> 00:13:37,816 en dus moeten we op zoek gaan naar 241 00:13:37,840 --> 00:13:39,696 steeds moeilijker, 242 00:13:39,720 --> 00:13:43,800 steeds onzekerder uitdagingen. 243 00:13:48,200 --> 00:13:49,400 Machines hebben 244 00:13:51,880 --> 00:13:53,696 berekeningen. 245 00:13:53,720 --> 00:13:55,296 Wij hebben begrip. 246 00:13:55,320 --> 00:13:57,360 Machines hebben instructies. 247 00:13:58,840 --> 00:14:00,696 Wij hebben doel. 248 00:14:00,720 --> 00:14:03,000 Machines hebben 249 00:14:04,950 --> 00:14:06,296 objectiviteit. 250 00:14:06,320 --> 00:14:07,760 Wij hebben passie. 251 00:14:08,600 --> 00:14:11,600 We moeten ons geen zorgen maken 252 00:14:11,600 --> 00:14:14,600 over wat onze machines vandaag kunnen. 253 00:14:14,600 --> 00:14:16,920 In plaats daarvan moeten we ons zorgen maken 254 00:14:16,920 --> 00:14:19,200 over wat ze vandaag nog steeds niet kunnen, 255 00:14:19,200 --> 00:14:24,696 omdat we de hulp van de nieuwe, intelligente machines nodig hebben 256 00:14:24,720 --> 00:14:28,800 om onze grootste dromen om te zetten in realiteit. 257 00:14:30,000 --> 00:14:31,320 En als we falen, 258 00:14:32,240 --> 00:14:36,896 als we falen, is het niet omdat onze machines te intelligent 259 00:14:36,920 --> 00:14:38,570 of niet intelligent genoeg zijn. 260 00:14:39,200 --> 00:14:42,280 Als we falen, dan is dat omdat we zelfgenoegzaam werden 261 00:14:43,680 --> 00:14:45,240 en onze ambities inperkten. 262 00:14:46,520 --> 00:14:49,560 Onze menselijkheid wordt niet bepaald door vaardigheden 263 00:14:51,280 --> 00:14:53,960 als met een hamer zwiepen of zelfs als schaken. 264 00:14:54,560 --> 00:14:57,576 Er is één ding dat alleen maar een mens kan doen. 265 00:14:57,600 --> 00:14:58,800 Dat is dromen. 266 00:15:00,120 --> 00:15:02,656 Laten we dus groots dromen. 267 00:15:02,680 --> 00:15:03,896 Dank je. 268 00:15:03,920 --> 00:15:07,347 (Applaus)