1 00:00:00,960 --> 00:00:03,936 Zgodba se začne leta 1985, 2 00:00:03,960 --> 00:00:05,936 ko sem pri 22 letih 3 00:00:05,960 --> 00:00:08,336 postal Svetovni šahovski prvak, 4 00:00:08,360 --> 00:00:11,560 s tem ko sem premagal Anatolija Karpova. 5 00:00:12,480 --> 00:00:13,736 Prej tega leta, 6 00:00:13,760 --> 00:00:17,376 sem igral tako imenovano ekshibicijsko simultanko 7 00:00:17,400 --> 00:00:21,696 proti 32 najboljšim strojem za igranje šaha na svetu 8 00:00:21,720 --> 00:00:23,080 v nemškem Hamburgu. 9 00:00:24,160 --> 00:00:25,360 Zmagal sem vse igre 10 00:00:26,560 --> 00:00:29,736 in tedaj ni bilo prav veliko presenečenje, 11 00:00:29,760 --> 00:00:33,800 da sem lahko hkrati premagal 32 računalnikov. 12 00:00:34,480 --> 00:00:37,056 Zame je bila to zlata doba. 13 00:00:37,080 --> 00:00:39,176 (Smeh) 14 00:00:39,200 --> 00:00:40,720 Stroji so bili šibki 15 00:00:41,680 --> 00:00:43,016 in moji lasje so bili močni. 16 00:00:43,040 --> 00:00:45,240 (Smeh) 17 00:00:46,720 --> 00:00:48,776 Samo 12 let kasneje 18 00:00:48,800 --> 00:00:53,416 sem se boril za svoje življenje proti samo enemu računalniku 19 00:00:53,440 --> 00:00:54,640 v dvoboju, 20 00:00:55,360 --> 00:00:57,416 ki so ga na naslovnici tednika "Newsweek" 21 00:00:57,440 --> 00:00:59,216 poimenovali "Zadnja utrdba možganov." 22 00:00:59,240 --> 00:01:00,456 Nobenega pritiska. 23 00:01:00,480 --> 00:01:02,000 (Smeh) 24 00:01:03,040 --> 00:01:05,616 Od mitologije do znanstvene fantastike 25 00:01:05,640 --> 00:01:08,376 je bil boj med strojem in človekom 26 00:01:08,400 --> 00:01:11,160 pogosto prikazan kot boj za življenje ali smrt. 27 00:01:11,960 --> 00:01:13,536 John Henry, 28 00:01:13,560 --> 00:01:15,256 človek, ki je z jeklom vrtal luknje 29 00:01:15,280 --> 00:01:19,056 v afriško-ameriški ljudski legendi iz 19. stoletja, 30 00:01:19,080 --> 00:01:20,456 je tekmoval proti 31 00:01:20,480 --> 00:01:23,216 parno gnanemu kladivu 32 00:01:23,240 --> 00:01:25,600 v kopanju tunela skozi kamnito goro. 33 00:01:26,800 --> 00:01:31,000 Legenda o Johnu Henryju je del dolgega zgodovinskega nareka, 34 00:01:31,680 --> 00:01:34,760 ki podpihuje boj človeka s tehnologijo. 35 00:01:36,200 --> 00:01:39,080 In ta tekmovalna retorika je sedaj čisto normalna. 36 00:01:39,560 --> 00:01:41,520 Nahajamo se v tekmi proti strojem, 37 00:01:42,360 --> 00:01:44,440 v boju, če ne celo vojni. 38 00:01:45,880 --> 00:01:47,496 Ukinjajo se službe. 39 00:01:47,520 --> 00:01:51,080 Ljudi se menja, kot da bi izginili iz obličja Zemlje. 40 00:01:52,240 --> 00:01:55,736 Dovolj je že razmišljati o tem, da filmi kot so "Terminator" ali "Matrica" 41 00:01:55,760 --> 00:01:56,960 niso izmišljeni. 42 00:01:59,640 --> 00:02:03,960 Obstaja zelo malo področij, 43 00:02:05,360 --> 00:02:09,616 kjer lahko človeško telo in možgani tekmujejo pod enakimi pogoji 44 00:02:09,639 --> 00:02:11,480 proti računalniku ali robotu. 45 00:02:12,280 --> 00:02:14,588 Pravzaprav, želim si, da bi jih bilo več. 46 00:02:15,760 --> 00:02:16,960 Namesto tega 47 00:02:17,840 --> 00:02:22,496 je bil moj privilegij in moje prekletstvo, 48 00:02:22,520 --> 00:02:25,216 da sem dejansko postal pregovorna oseba 49 00:02:25,240 --> 00:02:28,336 v boju med človekom in strojem, 50 00:02:28,360 --> 00:02:30,240 o katerem še danes vsi govorijo. 51 00:02:33,120 --> 00:02:38,136 V najbolj slavnem tekmovanju med človekom in strojem od Johna Henryja dalje, 52 00:02:38,160 --> 00:02:40,736 sem igral dva dvoboja 53 00:02:40,760 --> 00:02:44,200 proti IBM-ovem super-računalniku, Deep Blue. 54 00:02:47,040 --> 00:02:49,506 Nihče se ne spomni, da sem zmagal v prvem dvoboju - 55 00:02:49,506 --> 00:02:51,576 (Smeh) 56 00:02:51,600 --> 00:02:55,000 (Aplavz) 57 00:02:55,920 --> 00:03:00,896 v Filadelfiji, preden sem naslednje leto izgubil revanšo v New Yorku. 58 00:03:00,920 --> 00:03:02,680 Ampak verjetno je to pošteno. 59 00:03:04,320 --> 00:03:09,416 Ne obstaja dan v zgodovini, poseben praznik na koledarju 60 00:03:09,440 --> 00:03:12,936 za vse ljudi, ki niso priplezali na Mt. Everest, 61 00:03:12,960 --> 00:03:15,696 preden Sir Edmund Hillary in Tenzing Norgay 62 00:03:15,720 --> 00:03:16,920 nista osvojila vrha. 63 00:03:17,960 --> 00:03:21,720 In leta 1997 sem bil še vedno svetovni prvak, 64 00:03:24,520 --> 00:03:28,720 ko so šahovski računalniki končno odrasli. 65 00:03:29,520 --> 00:03:31,496 Jaz sem bil Mt. Everest 66 00:03:31,520 --> 00:03:33,530 in Deep Blue se je povzpel na vrh. 67 00:03:34,600 --> 00:03:38,656 Moral bi seveda reči, da ni bil Deep Blue tisti, 68 00:03:38,680 --> 00:03:40,816 ampak njegovi človeški stvaritelji - 69 00:03:40,840 --> 00:03:44,176 Anantharaman, Campbell, Hoane, Hsu. 70 00:03:44,200 --> 00:03:45,400 Kapo dol pred njimi. 71 00:03:46,840 --> 00:03:51,256 Kot vedno, strojeva zmaga je bila človeška zmaga, 72 00:03:51,280 --> 00:03:56,040 nekaj, kar radi pozabljamo, ko ljudi prehitijo njihove lastne kreacije. 73 00:03:58,360 --> 00:03:59,800 Deep Blue je zmagal, 74 00:04:01,400 --> 00:04:02,600 pa je bil inteligenten? 75 00:04:03,360 --> 00:04:05,120 Ne, ni bil, 76 00:04:06,200 --> 00:04:12,296 vsaj ne na način kot so upali Alan Turing in drugi ustanovitelji računalništva. 77 00:04:13,240 --> 00:04:18,016 Izkazalo se je, da je mogoče šah obvladati s surovo močjo, 78 00:04:18,040 --> 00:04:22,296 ko je enkrat strojna oprema postala dovolj hitra 79 00:04:22,320 --> 00:04:25,280 in so algoritmi postali dovolj pametni. 80 00:04:26,760 --> 00:04:30,456 Vendar po definiciji rezultata, 81 00:04:30,480 --> 00:04:33,696 šahovski velemojster, 82 00:04:33,720 --> 00:04:35,510 je bil Deep Blue inteligenten. 83 00:04:37,320 --> 00:04:39,720 Ampak celo pri neverjetni hitrosti, 84 00:04:40,560 --> 00:04:43,760 200 milijonov pozicij na sekundo, 85 00:04:45,360 --> 00:04:46,560 je njegova metoda 86 00:04:47,360 --> 00:04:53,960 zelo malo prispevala k vpogledu v skrivnosti človeške inteligence. 87 00:04:56,960 --> 00:04:58,776 Kmalu 88 00:04:58,800 --> 00:05:01,376 bodo stroji postali taksisti 89 00:05:01,400 --> 00:05:03,816 in zdravniki in profesorji, 90 00:05:03,840 --> 00:05:06,440 ampak ali bodo "inteligentni?" 91 00:05:07,840 --> 00:05:10,336 Te definicije bi raje prepustil 92 00:05:10,360 --> 00:05:13,920 filozofom in slovarju. 93 00:05:15,440 --> 00:05:19,320 Kar je resnično pomembno, je, kako se mi ljudje 94 00:05:20,320 --> 00:05:23,920 počutimo ob bivanju in delu skupaj s temi stroji. 95 00:05:26,160 --> 00:05:31,416 Ko sem prvič spoznal Deep Blue, februarja leta 1996, 96 00:05:31,440 --> 00:05:34,040 sem bil svetovni prvak že več kot 10 let, 97 00:05:36,080 --> 00:05:40,096 odigral sem 182 iger za svetovno prvenstvo 98 00:05:40,120 --> 00:05:45,216 in stotine iger proti drugim velemojstrom v drugih tekmovanjih. 99 00:05:45,240 --> 00:05:50,296 Vedel sem, kaj pričakovati od svojih nasprotnikov 100 00:05:50,320 --> 00:05:52,000 in kaj pričakovati od sebe. 101 00:05:52,680 --> 00:05:57,856 Navajen sem bil vrednotiti njihove poteze 102 00:05:57,880 --> 00:06:01,496 in ocenjevati njihovo čustveno stanje 103 00:06:01,520 --> 00:06:05,360 z opazovanjem njihove telesne govorice in gledanjem v njihove oči. 104 00:06:05,880 --> 00:06:09,880 In potem sem sedel za šahovnico nasproti Deep Blue. 105 00:06:12,960 --> 00:06:15,816 Takoj sem zaznal nekaj novega, 106 00:06:15,840 --> 00:06:17,160 nekaj vznemirjajočega. 107 00:06:19,440 --> 00:06:22,240 Nekaj podobnega lahko doživite, 108 00:06:23,320 --> 00:06:25,856 ko se prvič peljete v avtu brez voznika, 109 00:06:25,880 --> 00:06:30,720 ali ko vaš računalniški delovodja prvič izda delovni nalog. 110 00:06:33,800 --> 00:06:36,920 Ampak ko sem sedel k tej prvi igri, 111 00:06:38,080 --> 00:06:40,216 nisem mogel biti prepričan, 112 00:06:40,240 --> 00:06:43,920 česa je ta stvar zmožna. 113 00:06:44,920 --> 00:06:48,080 Tehnologija se lahko razvija v skokih in IBM je veliko vložil. 114 00:06:48,680 --> 00:06:49,880 Izgubil sem to igro. 115 00:06:52,320 --> 00:06:54,096 In neizbežno sem se spraševal, 116 00:06:54,120 --> 00:06:55,680 je možno, da je nepremagljiv? 117 00:06:56,600 --> 00:06:58,960 Pomeni to konec za mojo ljubo igro šaha? 118 00:07:00,800 --> 00:07:04,936 Porajala se mi je človeška negotovost, človeški strah, 119 00:07:04,960 --> 00:07:07,370 in edina stvar, o kateri sem bil prepričan, 120 00:07:07,400 --> 00:07:10,296 je bila, da moj nasprotnik Deep Blue nima takih skrbi. 121 00:07:10,320 --> 00:07:12,080 (Smeh) 122 00:07:13,920 --> 00:07:15,320 Boril sem se nazaj 123 00:07:16,400 --> 00:07:18,080 po tem uničujočem udarcu, 124 00:07:19,000 --> 00:07:20,200 da bi zmagal prvo igro, 125 00:07:20,960 --> 00:07:22,600 ampak rezultat je bil že znan. 126 00:07:24,400 --> 00:07:26,536 Na koncu sem izgubil proti stroju, 127 00:07:26,560 --> 00:07:29,616 ampak ni me doletela usoda Johna Henryja, 128 00:07:29,640 --> 00:07:32,680 ki je zmagal, a umrl s kladivom v roki. 129 00:07:37,720 --> 00:07:40,256 Izkazalo se je, da je svet šaha 130 00:07:40,280 --> 00:07:43,520 še vedno želel imeti človeškega prvaka. 131 00:07:44,920 --> 00:07:46,600 In celo danes, 132 00:07:48,080 --> 00:07:51,536 ko je brezplačna aplikacija na najnovejšem mobilniku 133 00:07:51,560 --> 00:07:53,576 močnejša od Deep Blue, 134 00:07:53,600 --> 00:07:55,080 ljudje še vedno igrajo šah, 135 00:07:56,680 --> 00:07:58,920 in celo več kot kdajkoli prej. 136 00:07:59,800 --> 00:08:03,016 Ciniki so napovedali, da se igre po tem ne bo nihče več dotaknil, 137 00:08:03,040 --> 00:08:05,296 ko jo bo lahko osvojil stroj, 138 00:08:05,320 --> 00:08:07,536 a motili so se, dokazano motili, 139 00:08:07,560 --> 00:08:11,016 a napovedovanje konca je bilo vedno popularen hobi, 140 00:08:11,040 --> 00:08:12,400 ko govorimo o tehnologiji. 141 00:08:14,360 --> 00:08:17,096 Iz svoje izkušnje sem se naučil, 142 00:08:17,120 --> 00:08:21,776 da se moramo soočiti s svojimi strahovi, 143 00:08:21,800 --> 00:08:25,520 če želimo kar najbolje izkoristiti našo tehnologijo, 144 00:08:26,360 --> 00:08:28,736 in te strahove moramo premagati, 145 00:08:28,760 --> 00:08:34,000 če želimo kar najbolje izkoristiti našo humanost. 146 00:08:36,120 --> 00:08:37,895 Med tem ko sem si lizal rane, 147 00:08:37,919 --> 00:08:39,880 sem dobil veliko navdiha 148 00:08:41,080 --> 00:08:43,775 iz mojih bojev proti Deep Blue. 149 00:08:43,799 --> 00:08:47,780 Kot pravi stari ruski pregovor, če jih ne moreš premagati, se jim pridruži. 150 00:08:48,880 --> 00:08:50,256 Potem sem pomislil, 151 00:08:50,280 --> 00:08:52,616 kaj če bi lahko igral skupaj z računalnikom - 152 00:08:52,640 --> 00:08:55,800 z njim ob mojem boku, z združenimi močmi, 153 00:08:57,160 --> 00:09:00,936 človeška intuicija in strojna kalkulacija, 154 00:09:00,960 --> 00:09:03,656 človeška strategija, strojna taktika, 155 00:09:03,680 --> 00:09:06,096 človeške izkušnje, strojni spomin. 156 00:09:06,120 --> 00:09:08,320 Bi lahko odigrala popolno igro? 157 00:09:10,000 --> 00:09:11,680 Moja ideja se je uresničila 158 00:09:12,920 --> 00:09:16,296 leta 1998 pod imenom Napredni šah, 159 00:09:16,320 --> 00:09:22,000 ko sem igral kot človek-plus-stroj proti drugemu elitnemu igralcu. 160 00:09:23,280 --> 00:09:25,176 Vendar v tem prvem eksperimentu, 161 00:09:25,200 --> 00:09:31,560 je obema spodletelo učinkovito združiti človeške in strojne spretnosti. 162 00:09:34,920 --> 00:09:37,160 Napredni šah je našel svoj dom na internetu 163 00:09:38,160 --> 00:09:43,016 in leta 2005 je tako imenovani freestyle šahovski turnir 164 00:09:43,040 --> 00:09:44,400 prinesel razodetje. 165 00:09:47,240 --> 00:09:50,776 Ekipa velemojstrov in najboljših strojev je sodelovala na njem, 166 00:09:50,800 --> 00:09:53,536 vendar zmagovalci niso bili velemojstri, 167 00:09:53,560 --> 00:09:54,920 niti super-računalnik. 168 00:09:55,680 --> 00:10:00,016 Zmagovalca sta bila dva Ameriška amaterska igralca šaha, 169 00:10:00,040 --> 00:10:03,200 ki sta delala s tremi navadnimi osebnimi računalniki naenkrat. 170 00:10:05,560 --> 00:10:08,576 Njuna spretnost, kako učiti njune stroje, 171 00:10:08,600 --> 00:10:14,376 je dejansko prevladala nad superiornim znanjem šaha 172 00:10:14,400 --> 00:10:16,236 njunih velemojstrskih nasprotnikov 173 00:10:16,236 --> 00:10:20,160 in veliko večjo računsko močjo drugih. 174 00:10:21,600 --> 00:10:23,560 In prišel sem do sledeče formulacije. 175 00:10:24,560 --> 00:10:27,936 Šibak človeški igralec plus stroj 176 00:10:27,960 --> 00:10:31,216 plus boljši proces je močnejši 177 00:10:31,240 --> 00:10:33,656 od samostojnega zelo močnega stroja, 178 00:10:33,680 --> 00:10:37,576 a še bolj neverjetno, je močnejši od močnega človeškega igralca 179 00:10:37,600 --> 00:10:39,560 plus stroj 180 00:10:41,120 --> 00:10:43,520 in slabšega procesa. 181 00:10:46,360 --> 00:10:48,480 To me je prepričalo, da bomo potrebovali 182 00:10:50,000 --> 00:10:53,680 boljše vmesnike, s katerimi bomo učili naše stroje 183 00:10:54,520 --> 00:10:56,240 za dosego bolj uporabne inteligence. 184 00:10:58,320 --> 00:11:01,616 Človek plus stroj ni prihodnost, 185 00:11:01,640 --> 00:11:02,856 to je sedanjost. 186 00:11:02,880 --> 00:11:07,016 Vsak, ki je uporabil spletni prevajalnik, 187 00:11:07,040 --> 00:11:11,336 da bi izluščil, kaj piše v časopisnem članku iz tujega časopisa, 188 00:11:11,360 --> 00:11:13,000 vedoč, da je daleč od popolnega. 189 00:11:13,680 --> 00:11:15,776 Potem uporabimo človeške izkušnje, 190 00:11:15,800 --> 00:11:17,896 da stvari povežemo v smisel 191 00:11:17,920 --> 00:11:20,696 in potem se stroj uči iz naših popravkov. 192 00:11:20,720 --> 00:11:25,680 Ta model se širi v medicinsko diagnostiko, varnostno analitiko. 193 00:11:26,440 --> 00:11:28,560 Stroj melje podatke, 194 00:11:29,320 --> 00:11:31,056 izračunava verjetnosti, 195 00:11:31,080 --> 00:11:34,736 opravi delo do 80 %, 90 %, 196 00:11:34,760 --> 00:11:39,136 olajša analizo 197 00:11:39,160 --> 00:11:41,760 in odločanje človeškemu sodelavcu. 198 00:11:42,280 --> 00:11:47,120 Ampak svojih otrok ne boste poslali v šolo 199 00:11:48,000 --> 00:11:51,560 s samovozečim avtomobilom, ki je 90 odstotkov natančen, 200 00:11:52,600 --> 00:11:54,200 ali celo 99 odstotkov. 201 00:11:55,560 --> 00:11:58,416 Zato potrebujemo skok naprej, 202 00:11:58,440 --> 00:12:04,600 da dodamo še nekaj ključnih decimalk. 203 00:12:07,160 --> 00:12:11,200 Dvajset let po mojem obračunu z Deep Blue, 204 00:12:12,200 --> 00:12:13,816 drugem obračunu, 205 00:12:13,840 --> 00:12:20,136 je naslovnica "Zadnja utrdba možganov" 206 00:12:20,160 --> 00:12:21,736 postala nekaj vsakdanjega, 207 00:12:21,760 --> 00:12:25,506 ko inteligentni stroji vdirajo 208 00:12:26,560 --> 00:12:28,760 v vse sektorje, praktično vsak dan. 209 00:12:30,160 --> 00:12:33,256 Vendar v nasprotju z zgodovino, 210 00:12:33,280 --> 00:12:34,920 ko so stroji zamenjali 211 00:12:36,480 --> 00:12:38,856 domače živali, ročno delo, 212 00:12:38,880 --> 00:12:41,376 se sedaj lotevajo ljudi z univerzitetno izobrazbo 213 00:12:41,400 --> 00:12:42,680 in političnim vplivom. 214 00:12:43,920 --> 00:12:46,446 In kot nekdo, ki se je boril proti strojem in izgubil, 215 00:12:46,446 --> 00:12:49,090 sem tu, da vam povem, da je to odlična, odlična novica. 216 00:12:51,000 --> 00:12:53,216 Sčasoma bo vsak poklic 217 00:12:53,240 --> 00:12:55,336 občutil ta pritisk, 218 00:12:55,360 --> 00:13:00,960 v nasprotnem primeru pomeni, da je človeštvo prenehalo napredovati. 219 00:13:02,760 --> 00:13:03,960 Nimamo 220 00:13:05,440 --> 00:13:07,160 vpliva na to, 221 00:13:08,480 --> 00:13:11,200 kdaj in kje se tehnološki napredek ustavi. 222 00:13:13,160 --> 00:13:14,520 Ne moremo 223 00:13:15,960 --> 00:13:17,456 ga upočasniti. 224 00:13:17,480 --> 00:13:19,296 Pravzaprav 225 00:13:19,320 --> 00:13:21,240 ga moramo pospešiti. 226 00:13:24,600 --> 00:13:27,240 Naša tehnologija blesti pri zmanjševanju 227 00:13:29,200 --> 00:13:32,560 težavnosti in negotovosti v naših življenjih, 228 00:13:35,000 --> 00:13:37,816 zato moramo poiskati 229 00:13:37,840 --> 00:13:39,696 še bolj zahtevne, 230 00:13:39,720 --> 00:13:43,800 še bolj tvegane izzive. 231 00:13:48,200 --> 00:13:49,400 Stroji imajo 232 00:13:51,880 --> 00:13:53,696 kalkulacije. 233 00:13:53,720 --> 00:13:55,296 Mi imamo razumevanje. 234 00:13:55,320 --> 00:13:57,360 Stroji imajo navodila. 235 00:13:58,840 --> 00:14:00,696 Mi imamo namen. 236 00:14:00,720 --> 00:14:03,000 Stroji imajo 237 00:14:05,080 --> 00:14:06,296 objektivnost. 238 00:14:06,320 --> 00:14:07,520 Mi imamo strast. 239 00:14:08,600 --> 00:14:14,576 Ne sme nas skrbeti, kaj lahko naši stroji naredijo danes. 240 00:14:14,600 --> 00:14:19,176 Namesto tega nas mora skrbeti, česa danes še ne zmorejo narediti, 241 00:14:19,200 --> 00:14:24,696 ker bomo potrebovali pomoč novih, inteligentnih strojev, 242 00:14:24,720 --> 00:14:28,800 da uresničimo naše največje sanje. 243 00:14:30,000 --> 00:14:31,320 In če nam spodleti, 244 00:14:32,240 --> 00:14:36,896 če nam spodleti, nam ne bo zato, ker so naši stroji preveč pametni, 245 00:14:36,920 --> 00:14:38,320 ali ker niso dovolj pametni. 246 00:14:39,200 --> 00:14:42,280 Če nam spodleti, bo to zato, ker smo postali samozadovoljni 247 00:14:43,680 --> 00:14:45,240 in omejili naše ambicije. 248 00:14:46,520 --> 00:14:49,560 Naša človeškost ni definirana s katerokoli veščino, 249 00:14:51,280 --> 00:14:53,960 kot je vihtenje kladiva ali celo igranje šaha. 250 00:14:54,560 --> 00:14:57,576 Le eno stvar lahko naredi le človek. 251 00:14:57,600 --> 00:14:58,800 Da sanja. 252 00:15:00,120 --> 00:15:02,656 Torej sanjajmo velike sanje. 253 00:15:02,680 --> 00:15:03,896 Hvala. 254 00:15:03,920 --> 00:15:07,807 (Aplavz)