1 00:00:00,960 --> 00:00:03,936 A történet 1985-ben kezdődik, 2 00:00:03,960 --> 00:00:05,936 22 éves koromban, 3 00:00:05,960 --> 00:00:08,336 amikor sakkvilágbajnok lettem 4 00:00:08,360 --> 00:00:11,560 Anatolij Karpov legyőzésével. 5 00:00:12,230 --> 00:00:13,736 Abban az évben korábban 6 00:00:13,760 --> 00:00:17,376 szimultán mérkőzést játszottam 7 00:00:17,400 --> 00:00:21,696 a világ 32 legjobb sakkozógépe ellen 8 00:00:21,720 --> 00:00:23,080 a németországi Hamburgban. 9 00:00:24,160 --> 00:00:25,510 Minden játszmát megnyertem, 10 00:00:26,560 --> 00:00:29,736 és nem számított meglepőnek, 11 00:00:29,760 --> 00:00:33,800 hogy egyidejűleg meg tudtam verni 32 számítógépet. 12 00:00:34,480 --> 00:00:37,056 Az volt az én aranykorom. 13 00:00:37,080 --> 00:00:39,176 (Nevetés) 14 00:00:39,200 --> 00:00:40,720 A gépek gyengék voltak, 15 00:00:41,680 --> 00:00:43,016 a hajam pedig dús. 16 00:00:43,040 --> 00:00:45,240 (Nevetés) 17 00:00:46,720 --> 00:00:48,776 De 12 évvel később 18 00:00:48,800 --> 00:00:53,416 élet-halál küzdelmet vívtam egyetlen számítógép ellen 19 00:00:53,440 --> 00:00:54,640 olyan mérkőzésen, 20 00:00:55,360 --> 00:00:57,416 amelyet a Newsweek címoldala 21 00:00:57,440 --> 00:00:59,216 "Az agy utolsó védvonalá"-nak hívott. 22 00:00:59,240 --> 00:01:00,456 Spongyát rá! 23 00:01:00,480 --> 00:01:02,000 (Nevetés) 24 00:01:03,040 --> 00:01:05,616 A mitológiától kezdve a sci-fiig 25 00:01:05,640 --> 00:01:08,376 az ember gép elleni küzdelmét 26 00:01:08,400 --> 00:01:11,160 gyakran élet-halál harcként ábrázolják. 27 00:01:11,960 --> 00:01:13,536 John Henry, 28 00:01:13,560 --> 00:01:15,256 az acélkalapácsos ember, 29 00:01:15,280 --> 00:01:19,056 a 19. századi afroamerikai népi legenda hőse, 30 00:01:19,080 --> 00:01:20,456 gőzkalapács ellen 31 00:01:20,480 --> 00:01:23,216 folytatott küzdelmet, 32 00:01:23,240 --> 00:01:25,600 amikor alagutat tört a sziklás hegyen át. 33 00:01:26,800 --> 00:01:31,000 John Henry legendája része annak a régi gondolkodási sémának, 34 00:01:31,680 --> 00:01:34,760 amely az embert és a technológiát szembeállítja egymással. 35 00:01:36,200 --> 00:01:39,080 A versenyzés retorikája manapság is uralkodó. 36 00:01:39,560 --> 00:01:41,520 Versenyben vagyunk a gépekkel, 37 00:01:42,360 --> 00:01:44,440 küzdelemben, sőt háborúban. 38 00:01:45,880 --> 00:01:47,496 Munkahelyek szűnnek meg. 39 00:01:47,520 --> 00:01:51,080 Gépek lépnek emberek helyébe, mintha soha nem léteztek volna a Földön. 40 00:01:52,240 --> 00:01:55,736 Elég arra gondolni, hogy a Terminátor vagy a Mátrix c. film 41 00:01:55,760 --> 00:01:56,960 valósággá váltak. 42 00:01:59,640 --> 00:02:03,960 Kevés terület maradt, 43 00:02:05,360 --> 00:02:09,616 ahol az emberi test és ész egyenlő feltételekkel versenyezhet 44 00:02:09,639 --> 00:02:11,480 számítógépekkel vagy robotokkal. 45 00:02:12,280 --> 00:02:14,138 Szeretném, ha sokkal több lenne. 46 00:02:15,760 --> 00:02:16,960 Ehelyett 47 00:02:17,840 --> 00:02:22,496 egyszerre voltam megáldva és megátkozva, 48 00:02:22,520 --> 00:02:25,216 hogy szó szerint példaalakja lettem 49 00:02:25,240 --> 00:02:28,336 az ember és a gép versenyének, 50 00:02:28,360 --> 00:02:30,410 akire állandóan hivatkoznak. 51 00:02:33,120 --> 00:02:38,136 A John Henry óta lezajlott leghíresebb ember–gép versenyben 52 00:02:38,160 --> 00:02:40,736 két mérkőzést játszottam 53 00:02:40,760 --> 00:02:44,200 az IBM Deep Blue nevű csúcsszámítógépe ellen. 54 00:02:47,040 --> 00:02:49,476 Senki sem emlékszik rá, hogy az elsőt megnyertem... 55 00:02:49,476 --> 00:02:51,576 (Nevetés) 56 00:02:51,600 --> 00:02:55,000 (Taps) 57 00:02:55,920 --> 00:03:00,896 ...Philadelphiában, mielőtt elvesztettem a visszavágót egy év múlva New Yorkban. 58 00:03:00,920 --> 00:03:02,680 De ez rendjén való. 59 00:03:04,320 --> 00:03:09,416 Nem tartják számon a naptárban azokat, 60 00:03:09,440 --> 00:03:12,936 akiknek nem sikerült megmászniuk a Mount Everestet, 61 00:03:12,960 --> 00:03:15,696 mielőtt Sir Edmund Hillary és Tenzing Norgay 62 00:03:15,720 --> 00:03:17,010 föl nem jutott a csúcsára. 63 00:03:17,960 --> 00:03:21,720 1997-ben még sakkvilágbajnok voltam, 64 00:03:24,520 --> 00:03:28,720 mikor a sakkszámítógépek végül beértek. 65 00:03:29,520 --> 00:03:31,496 Én voltam a Mount Everest, 66 00:03:31,520 --> 00:03:33,120 és a Deep Blue elérte a csúcsot. 67 00:03:34,600 --> 00:03:38,656 Persze, nem a Deep Blue tette, 68 00:03:38,680 --> 00:03:40,816 hanem a létrehozói 69 00:03:40,840 --> 00:03:44,176 Anantharaman, Campbell, Hoane, Hsu. 70 00:03:44,200 --> 00:03:45,400 Le a kalappal előttük! 71 00:03:46,840 --> 00:03:51,256 Mint mindig, a gép győzelme az ember győzelme, 72 00:03:51,280 --> 00:03:56,040 ezt hajlunk elfeledni, amikor teremtményei túltesznek létrehozójukon. 73 00:03:58,360 --> 00:03:59,800 A Deep Blue győzedelmeskedett, 74 00:04:01,400 --> 00:04:02,600 de intelligens volt-e? 75 00:04:03,360 --> 00:04:05,350 Nem volt, legalábbis abban az értelemben, 76 00:04:06,200 --> 00:04:11,256 ahogy Alan Turing s az informatika tudományának megalapítói 77 00:04:11,280 --> 00:04:12,480 remélték. 78 00:04:13,240 --> 00:04:18,016 Kiderült, hogy a sakkjátékban a nyers erő is dönthet, 79 00:04:18,040 --> 00:04:22,296 ha a hardver elég gyors 80 00:04:22,320 --> 00:04:25,280 és az algoritmus elég okos. 81 00:04:26,760 --> 00:04:30,456 Bár az eredmény szempontjából 82 00:04:30,480 --> 00:04:33,696 – hogy ti. nagymesteri fokon játsszék – 83 00:04:33,720 --> 00:04:35,000 a Deep Blue okos volt. 84 00:04:37,320 --> 00:04:39,720 De a hihetetlen sebességű 85 00:04:40,560 --> 00:04:43,760 – 200 millió állás másodpercenként – 86 00:04:45,360 --> 00:04:47,260 Deep Blue módszer nem sokat tett hozzá, 87 00:04:47,360 --> 00:04:53,960 hogy belelássunk az emberi intelligencia rejtelmébe. 88 00:04:56,960 --> 00:04:58,776 Nemsokára 89 00:04:58,800 --> 00:05:01,376 gépek lesznek a taxisok, 90 00:05:01,400 --> 00:05:03,816 orvosok, egyetemi tanárok, 91 00:05:03,840 --> 00:05:06,440 de vajon intelligensek lesznek-e? 92 00:05:07,840 --> 00:05:12,046 Ezeket a meghatározásokat inkább meghagyom 93 00:05:12,046 --> 00:05:13,920 filozófusoknak és szótáraknak. 94 00:05:15,440 --> 00:05:19,320 Igazából az számít, hogy mi, emberek, 95 00:05:20,320 --> 00:05:23,920 hogyan érezzük magunkat e gépek között élve és velük dolgozva. 96 00:05:26,160 --> 00:05:31,416 Amikor 1996 februárjában először találkoztam a Deep Blue-val, 97 00:05:31,440 --> 00:05:34,040 már több mint 10 éve világbajnok voltam, 98 00:05:36,080 --> 00:05:40,096 és 182 világbajnoki játszmán voltam túl, 99 00:05:40,120 --> 00:05:45,216 meg más kiváló sakkozók ellen vívott több száz játszmán. 100 00:05:45,240 --> 00:05:50,296 Tudtam, mire számítsak ellenfeleimtől, 101 00:05:50,320 --> 00:05:52,000 és tudtam, mit várhatok magamtól. 102 00:05:52,680 --> 00:05:57,856 Megszoktam, hogy mérlegeljem a lépéseiket, 103 00:05:57,880 --> 00:06:01,496 és fölbecsüljem érzelmi állapotukat 104 00:06:01,520 --> 00:06:05,360 testbeszédük alapján és a szemükbe nézve. 105 00:06:05,880 --> 00:06:09,880 Amikor a Deep Blue sakktáblájához ültem, 106 00:06:12,960 --> 00:06:15,816 rögtön valami újdonságot éreztem, 107 00:06:15,840 --> 00:06:17,160 valami nyugtalanítót. 108 00:06:19,440 --> 00:06:22,240 Amilyent akkor éreznek, 109 00:06:23,320 --> 00:06:25,856 mikor először ülnek vezető nélküli kocsiba, 110 00:06:25,880 --> 00:06:30,720 vagy amikor az új IT-főnöktől először kapnak utasítást. 111 00:06:33,800 --> 00:06:36,920 De az első játszmánál még 112 00:06:38,080 --> 00:06:40,216 nem lehettem benne biztos, 113 00:06:40,240 --> 00:06:43,920 mire képes ez a micsoda. 114 00:06:44,920 --> 00:06:48,160 A technológia ugrásszerűen fejlődik, és az IBM sokat fektetett bele. 115 00:06:48,680 --> 00:06:50,060 Azt a játszmát elvesztettem. 116 00:06:52,320 --> 00:06:54,096 Csak tűnődtem: 117 00:06:54,120 --> 00:06:55,680 lehet, hogy legyőzhetetlen? 118 00:06:56,600 --> 00:06:58,960 Talán befellegzett imádott sakkomnak? 119 00:07:00,800 --> 00:07:04,936 Ezek emberi kétségek, emberi félelmek voltak. 120 00:07:04,960 --> 00:07:06,640 Egyben biztos voltam: 121 00:07:07,400 --> 00:07:10,296 Deep Blue nevű ellenfelemnek nincsenek ilyen kétségei. 122 00:07:10,320 --> 00:07:12,080 (Nevetés) 123 00:07:13,920 --> 00:07:15,320 A megsemmisítő csapás után 124 00:07:16,400 --> 00:07:18,080 visszavágtam, 125 00:07:18,630 --> 00:07:20,200 és megnyertem az első mérkőzést, 126 00:07:20,710 --> 00:07:22,600 de a baljós előjelek már jelentkeztek. 127 00:07:24,400 --> 00:07:26,536 Végül is vesztettem a géppel szemben, 128 00:07:26,560 --> 00:07:29,616 de legalább nem jutottam John Henry sorsára, 129 00:07:29,640 --> 00:07:32,680 aki bár győzött, kalapácsával a kezében halt meg. 130 00:07:37,720 --> 00:07:40,256 Kiderült, hogy a sakk világának 131 00:07:40,280 --> 00:07:43,520 még szüksége van emberi sakkbajnokra. 132 00:07:44,920 --> 00:07:46,600 Még manapság is, mikor a mobilokon 133 00:07:48,080 --> 00:07:51,536 az ingyen sakkprogramok 134 00:07:51,560 --> 00:07:53,576 erősebbek a Deep Blue-nál, 135 00:07:53,600 --> 00:07:55,080 az emberek mégis sakkoznak, 136 00:07:56,680 --> 00:07:58,920 többet, mint bármikor. 137 00:07:59,800 --> 00:08:03,016 A vészmadarak azt jósolták, hogy senki nem fog sakkozni, 138 00:08:03,040 --> 00:08:05,296 ha gép is legyőzheti. 139 00:08:05,320 --> 00:08:07,536 Bebizonyosodott a tévedésük, 140 00:08:07,560 --> 00:08:11,016 de a vészmadaraknak mindig kedvenc időtöltésük 141 00:08:11,040 --> 00:08:12,400 a károgás a technológiáról. 142 00:08:14,360 --> 00:08:17,096 Saját tapasztalatomból tudom, 143 00:08:17,120 --> 00:08:21,776 hogy szembe kell néznünk a félelmünkkel, 144 00:08:21,800 --> 00:08:25,520 ha a legtöbbet akarjuk kihozni a technológiából, 145 00:08:26,360 --> 00:08:28,736 és le kell győznünk félelmünket, 146 00:08:28,760 --> 00:08:34,000 hogy a legjobbat hozzuk ki emberi mivoltunkból. 147 00:08:36,120 --> 00:08:37,895 Sebeim nyalogatása közben 148 00:08:37,919 --> 00:08:39,880 a Deep Blue elleni küzdelemből 149 00:08:41,080 --> 00:08:43,775 merítettem ihletet. 150 00:08:43,799 --> 00:08:47,170 A régi orosz mondás szerint: ha nem tudod megverni, csatlakozz hozzá. 151 00:08:48,880 --> 00:08:50,256 Akkor arra gondoltam: 152 00:08:50,280 --> 00:08:52,616 mi lenne, ha összefognék a géppel, 153 00:08:52,640 --> 00:08:55,800 a számítógép és én együttműködnénk, egyesítenénk erősségeinket: 154 00:08:57,160 --> 00:09:00,936 az emberi ösztönt a gépi számolással, 155 00:09:00,960 --> 00:09:03,656 az emberi stratégiát a gépi taktikával, 156 00:09:03,680 --> 00:09:06,096 az emberi tapasztalatot a gép memóriájával? 157 00:09:06,120 --> 00:09:08,320 Tán ez lenne az eddigi legtökéletesebb játszma. 158 00:09:10,000 --> 00:09:11,680 1998-ban Haladó Sakk néven 159 00:09:12,920 --> 00:09:16,296 megvalósítottam az elgondolásomat. 160 00:09:16,320 --> 00:09:22,000 A géppel az oldalamon játszottam egy másik kiváló sakkozó ellen. 161 00:09:23,280 --> 00:09:25,436 Az első kísérletben egyikünknek sem sikerült 162 00:09:25,436 --> 00:09:31,560 hatékonyan egyesítenie az ember és a gép erősségét. 163 00:09:34,920 --> 00:09:37,160 A Haladó Sakk fölkerült az internetre, 164 00:09:38,160 --> 00:09:43,016 és 2005-ben az ún. kötetlen sakkbajnokság 165 00:09:43,040 --> 00:09:44,400 meglepetésszámba ment. 166 00:09:47,240 --> 00:09:50,776 Nagymesterek csapata s a legjobb sakkgépek vettek benne részt, 167 00:09:50,800 --> 00:09:53,536 de nem a nagymesterek nyertek, 168 00:09:53,560 --> 00:09:54,920 és nem a csúcsszámítógép. 169 00:09:55,680 --> 00:10:00,016 Egy amerikai amatőr sakkpáros nyert, 170 00:10:00,040 --> 00:10:03,200 amely egyidejűleg három közönséges személyi számítógépet kezelt. 171 00:10:05,560 --> 00:10:08,576 Gépeik kezelése révén 172 00:10:08,600 --> 00:10:14,376 hatékonyan fölülmúlták 173 00:10:14,400 --> 00:10:16,846 nagymester ellenfeleik sokkal nagyobb sakktudását 174 00:10:16,846 --> 00:10:20,160 és a többiek sokkal nagyobb számítási teljesítményét. 175 00:10:21,600 --> 00:10:23,560 Kialakítottam e képletet: 176 00:10:24,560 --> 00:10:27,936 gyenge játékos plusz gép 177 00:10:27,960 --> 00:10:31,216 plusz jobb kombináció fölülmúlja 178 00:10:31,240 --> 00:10:33,656 az önálló nagy teljesítményű gépet, 179 00:10:33,680 --> 00:10:37,576 de még figyelemreméltóbb, hogy fölülmúlja 180 00:10:37,600 --> 00:10:39,560 az erős játékos plusz gép összeállítást, 181 00:10:41,120 --> 00:10:43,520 ha csapnivaló a kombináció. 182 00:10:46,360 --> 00:10:49,010 Ez arról győzött meg, hogy fejlettebb felületek kellenek 183 00:10:50,000 --> 00:10:53,680 gépeink összehangolására 184 00:10:54,520 --> 00:10:56,240 a jobb intelligencia érdekében. 185 00:10:58,320 --> 00:11:01,616 Az ember + gép nem a jövő, 186 00:11:01,640 --> 00:11:02,856 hanem a jelen. 187 00:11:02,880 --> 00:11:07,016 Aki már használt internetes fordítást 188 00:11:07,040 --> 00:11:11,336 idegen nyelvű újsághír lényegének megértéséhez, 189 00:11:11,360 --> 00:11:13,000 tudja, hogy a fordítás gyatra. 190 00:11:13,680 --> 00:11:15,776 De ha hozzáadjuk az emberi tapasztalatot, 191 00:11:15,800 --> 00:11:17,896 hogy értelmessé tegyük, 192 00:11:17,920 --> 00:11:20,696 a gép tanul a kiigazításainkból. 193 00:11:20,720 --> 00:11:25,680 E modell egyre jobban terjed az orvosi diagnosztikában, a biztonsági elemzésben. 194 00:11:26,440 --> 00:11:28,560 A gép feldolgozza az adatokat, 195 00:11:29,320 --> 00:11:31,056 valószínűségeket számol, 196 00:11:31,080 --> 00:11:34,736 eléri a 80%-os, majd 90%-os pontosságot, 197 00:11:34,760 --> 00:11:39,136 az emberi oldalnak elemzésre 198 00:11:39,160 --> 00:11:41,760 és döntés-előkészítésre alkalmassá teszi őket. 199 00:11:42,280 --> 00:11:47,120 De senki sem küldi gyerekét iskolába 200 00:11:48,000 --> 00:11:51,560 90%-os pontosságú vezető nélküli kocsival, 201 00:11:52,600 --> 00:11:54,200 de még 99%-ossal sem. 202 00:11:55,560 --> 00:11:58,416 Nagyot kell még ugranunk előre, 203 00:11:58,440 --> 00:12:04,600 hogy pár tizedes értékkel javuljunk. 204 00:12:07,160 --> 00:12:11,170 A Deep Blue-val vívott második mérkőzésem után 205 00:12:12,200 --> 00:12:13,816 20 évvel 206 00:12:13,840 --> 00:12:20,136 a szenzációhajhász szalagcím: "Az agy utolsó védvonala" 207 00:12:20,160 --> 00:12:21,736 közhellyé vált, 208 00:12:21,760 --> 00:12:24,296 ahogy az intelligens gépek 209 00:12:24,320 --> 00:12:25,520 behatolnak 210 00:12:26,560 --> 00:12:28,760 minden ágazatba, úgyszólván nap mint nap. 211 00:12:30,160 --> 00:12:33,256 De a múlttól eltérően, 212 00:12:33,280 --> 00:12:34,920 amikor a gépek az igavonó állatot 213 00:12:36,480 --> 00:12:38,856 és a kétkezi munkát helyettesítették, 214 00:12:38,880 --> 00:12:41,376 most a diplomásokat 215 00:12:41,400 --> 00:12:42,870 és a politikusokat fenyegetik. 216 00:12:44,120 --> 00:12:46,216 Mint aki gép ellen küzdött és vesztett, 217 00:12:46,240 --> 00:12:48,880 azt mondom önöknek, hogy ez kiváló hír. 218 00:12:51,000 --> 00:12:53,216 Végtére is, minden szakmának 219 00:12:53,240 --> 00:12:55,336 el kell viselnie ezt a nyomást, 220 00:12:55,360 --> 00:13:00,960 különben az emberiség fejlődése megrekedne. 221 00:13:02,760 --> 00:13:03,960 Nem mi 222 00:13:05,440 --> 00:13:07,160 választjuk meg, 223 00:13:08,480 --> 00:13:11,200 mikor és hol áll meg a fejlődés. 224 00:13:13,160 --> 00:13:14,520 Nincs lehetőségünk 225 00:13:15,960 --> 00:13:17,456 lelassítani. 226 00:13:17,480 --> 00:13:19,296 Valójában, 227 00:13:19,320 --> 00:13:21,240 ideje fölgyorsulnunk. 228 00:13:24,600 --> 00:13:27,240 Technológiánk pompásan boldogul 229 00:13:29,200 --> 00:13:32,560 életünk nehézségeinek s kockázatainak leküzdésével, 230 00:13:35,000 --> 00:13:37,816 ezért még bonyolultabb, 231 00:13:37,840 --> 00:13:39,696 még kockázatosabb feladatokat 232 00:13:39,720 --> 00:13:43,800 kell találnunk magunknak. 233 00:13:48,200 --> 00:13:49,400 A gépek 234 00:13:51,880 --> 00:13:53,630 tudnak számolni. 235 00:13:53,630 --> 00:13:55,396 Nekünk megvan az értelmi képességünk. 236 00:13:55,396 --> 00:13:57,360 A gépek utasításokat kapnak. 237 00:13:58,840 --> 00:14:00,696 Nekünk célunk van. 238 00:14:00,720 --> 00:14:03,000 A gépek 239 00:14:05,080 --> 00:14:06,296 objektívak. 240 00:14:06,320 --> 00:14:07,730 Mi szenvedélyesek vagyunk. 241 00:14:08,600 --> 00:14:14,576 Ne izguljunk amiatt, amire gépeink ma képesek. 242 00:14:14,600 --> 00:14:19,176 Inkább azon izguljunk, amire ma még nem képesek, 243 00:14:19,200 --> 00:14:24,696 mert szükségünk lesz új, intelligens gépek segítségére 244 00:14:24,720 --> 00:14:28,800 legmerészebb álmaink valóra váltásához. 245 00:14:30,000 --> 00:14:31,320 Ha kudarcot vallunk, 246 00:14:32,240 --> 00:14:36,896 ha mégis kudarcot vallunk, nem azért lesz, mert gépeink túl intelligensek, 247 00:14:36,920 --> 00:14:38,320 vagy nem elég intelligensek. 248 00:14:39,200 --> 00:14:42,280 Ha kudarcot vallunk, annak oka, hogy önteltté váltunk, 249 00:14:43,680 --> 00:14:45,240 és fékeztük becsvágyunkat. 250 00:14:46,520 --> 00:14:49,560 Emberi mivoltunkat nem készségeink határozzák meg, 251 00:14:51,280 --> 00:14:53,960 mint pl. a pörölycsapás vagy a sakkozás. 252 00:14:54,560 --> 00:14:57,576 Egy dologra csak ember képes. 253 00:14:57,600 --> 00:14:58,800 Ez az álmodozás. 254 00:15:00,120 --> 00:15:02,656 Álmodjunk nagyot! 255 00:15:02,680 --> 00:15:03,896 Köszönöm. 256 00:15:03,920 --> 00:15:07,807 (Taps)