0:00:00.960,0:00:03.936 A történet 1985-ben kezdődik, 0:00:03.960,0:00:05.936 22 éves koromban, 0:00:05.960,0:00:08.336 amikor sakkvilágbajnok lettem 0:00:08.360,0:00:11.560 Anatolij Karpov legyőzésével. 0:00:12.230,0:00:13.736 Abban az évben korábban 0:00:13.760,0:00:17.376 szimultán mérkőzést játszottam 0:00:17.400,0:00:21.696 a világ 32 legjobb sakkozógépe ellen 0:00:21.720,0:00:23.080 a németországi Hamburgban. 0:00:24.160,0:00:25.510 Minden játszmát megnyertem, 0:00:26.560,0:00:29.736 és nem számított meglepőnek, 0:00:29.760,0:00:33.800 hogy egyidejűleg meg tudtam verni[br]32 számítógépet. 0:00:34.480,0:00:37.056 Az volt az én aranykorom. 0:00:37.080,0:00:39.176 (Nevetés) 0:00:39.200,0:00:40.720 A gépek gyengék voltak, 0:00:41.680,0:00:43.016 a hajam pedig dús. 0:00:43.040,0:00:45.240 (Nevetés) 0:00:46.720,0:00:48.776 De 12 évvel később 0:00:48.800,0:00:53.416 élet-halál küzdelmet vívtam[br]egyetlen számítógép ellen 0:00:53.440,0:00:54.640 olyan mérkőzésen, 0:00:55.360,0:00:57.416 amelyet a Newsweek címoldala 0:00:57.440,0:00:59.216 "Az agy utolsó védvonalá"-nak hívott. 0:00:59.240,0:01:00.456 Spongyát rá! 0:01:00.480,0:01:02.000 (Nevetés) 0:01:03.040,0:01:05.616 A mitológiától kezdve a sci-fiig 0:01:05.640,0:01:08.376 az ember gép elleni küzdelmét 0:01:08.400,0:01:11.160 gyakran élet-halál harcként ábrázolják. 0:01:11.960,0:01:13.536 John Henry, 0:01:13.560,0:01:15.256 az acélkalapácsos ember, 0:01:15.280,0:01:19.056 a 19. századi afroamerikai[br]népi legenda hőse, 0:01:19.080,0:01:20.456 gőzkalapács ellen 0:01:20.480,0:01:23.216 folytatott küzdelmet, 0:01:23.240,0:01:25.600 amikor alagutat tört a sziklás hegyen át. 0:01:26.800,0:01:31.000 John Henry legendája része[br]annak a régi gondolkodási sémának, 0:01:31.680,0:01:34.760 amely az embert és a technológiát[br]szembeállítja egymással. 0:01:36.200,0:01:39.080 A versenyzés retorikája [br]manapság is uralkodó. 0:01:39.560,0:01:41.520 Versenyben vagyunk a gépekkel, 0:01:42.360,0:01:44.440 küzdelemben, sőt háborúban. 0:01:45.880,0:01:47.496 Munkahelyek szűnnek meg. 0:01:47.520,0:01:51.080 Gépek lépnek emberek helyébe,[br]mintha soha nem léteztek volna a Földön. 0:01:52.240,0:01:55.736 Elég arra gondolni, [br]hogy a Terminátor vagy a Mátrix c. film 0:01:55.760,0:01:56.960 valósággá váltak. 0:01:59.640,0:02:03.960 Kevés terület maradt, 0:02:05.360,0:02:09.616 ahol az emberi test és ész[br]egyenlő feltételekkel versenyezhet 0:02:09.639,0:02:11.480 számítógépekkel vagy robotokkal. 0:02:12.280,0:02:14.138 Szeretném, ha sokkal több lenne. 0:02:15.760,0:02:16.960 Ehelyett 0:02:17.840,0:02:22.496 egyszerre voltam megáldva és megátkozva, 0:02:22.520,0:02:25.216 hogy szó szerint példaalakja lettem 0:02:25.240,0:02:28.336 az ember és a gép versenyének, 0:02:28.360,0:02:30.410 akire állandóan hivatkoznak. 0:02:33.120,0:02:38.136 A John Henry óta lezajlott leghíresebb [br]ember–gép versenyben 0:02:38.160,0:02:40.736 két mérkőzést játszottam 0:02:40.760,0:02:44.200 az IBM Deep Blue nevű[br]csúcsszámítógépe ellen. 0:02:47.040,0:02:49.476 Senki sem emlékszik rá,[br]hogy az elsőt megnyertem... 0:02:49.476,0:02:51.576 (Nevetés) 0:02:51.600,0:02:55.000 (Taps) 0:02:55.920,0:03:00.896 ...Philadelphiában, mielőtt elvesztettem[br]a visszavágót egy év múlva New Yorkban. 0:03:00.920,0:03:02.680 De ez rendjén való. 0:03:04.320,0:03:09.416 Nem tartják számon a naptárban azokat, 0:03:09.440,0:03:12.936 akiknek nem sikerült[br]megmászniuk a Mount Everestet, 0:03:12.960,0:03:15.696 mielőtt Sir Edmund Hillary[br]és Tenzing Norgay 0:03:15.720,0:03:17.010 föl nem jutott a csúcsára. 0:03:17.960,0:03:21.720 1997-ben még sakkvilágbajnok voltam, 0:03:24.520,0:03:28.720 mikor a sakkszámítógépek végül beértek. 0:03:29.520,0:03:31.496 Én voltam a Mount Everest, 0:03:31.520,0:03:33.120 és a Deep Blue elérte a csúcsot. 0:03:34.600,0:03:38.656 Persze, nem a Deep Blue tette, 0:03:38.680,0:03:40.816 hanem a létrehozói 0:03:40.840,0:03:44.176 Anantharaman, Campbell, Hoane, Hsu. 0:03:44.200,0:03:45.400 Le a kalappal előttük! 0:03:46.840,0:03:51.256 Mint mindig, a gép győzelme[br]az ember győzelme, 0:03:51.280,0:03:56.040 ezt hajlunk elfeledni, amikor teremtményei[br]túltesznek létrehozójukon. 0:03:58.360,0:03:59.800 A Deep Blue győzedelmeskedett, 0:04:01.400,0:04:02.600 de intelligens volt-e? 0:04:03.360,0:04:05.350 Nem volt, legalábbis abban az értelemben, 0:04:06.200,0:04:11.256 ahogy Alan Turing s az informatika[br]tudományának megalapítói 0:04:11.280,0:04:12.480 remélték. 0:04:13.240,0:04:18.016 Kiderült, hogy a sakkjátékban[br]a nyers erő is dönthet, 0:04:18.040,0:04:22.296 ha a hardver elég gyors 0:04:22.320,0:04:25.280 és az algoritmus elég okos. 0:04:26.760,0:04:30.456 Bár az eredmény szempontjából 0:04:30.480,0:04:33.696 – hogy ti. nagymesteri fokon játsszék – 0:04:33.720,0:04:35.000 a Deep Blue okos volt. 0:04:37.320,0:04:39.720 De a hihetetlen sebességű 0:04:40.560,0:04:43.760 – 200 millió állás másodpercenként – 0:04:45.360,0:04:47.260 Deep Blue módszer[br]nem sokat tett hozzá, 0:04:47.360,0:04:53.960 hogy belelássunk[br]az emberi intelligencia rejtelmébe. 0:04:56.960,0:04:58.776 Nemsokára 0:04:58.800,0:05:01.376 gépek lesznek a taxisok, 0:05:01.400,0:05:03.816 orvosok, egyetemi tanárok, 0:05:03.840,0:05:06.440 de vajon intelligensek lesznek-e? 0:05:07.840,0:05:12.046 Ezeket a meghatározásokat[br]inkább meghagyom 0:05:12.046,0:05:13.920 filozófusoknak és szótáraknak. 0:05:15.440,0:05:19.320 Igazából az számít, hogy mi, emberek, 0:05:20.320,0:05:23.920 hogyan érezzük magunkat e gépek[br]között élve és velük dolgozva. 0:05:26.160,0:05:31.416 Amikor 1996 februárjában [br]először találkoztam a Deep Blue-val, 0:05:31.440,0:05:34.040 már több mint 10 éve világbajnok voltam, 0:05:36.080,0:05:40.096 és 182 világbajnoki játszmán voltam túl, 0:05:40.120,0:05:45.216 meg más kiváló sakkozók[br]ellen vívott több száz játszmán. 0:05:45.240,0:05:50.296 Tudtam, mire számítsak ellenfeleimtől, 0:05:50.320,0:05:52.000 és tudtam, mit várhatok magamtól. 0:05:52.680,0:05:57.856 Megszoktam, hogy mérlegeljem a lépéseiket, 0:05:57.880,0:06:01.496 és fölbecsüljem érzelmi állapotukat 0:06:01.520,0:06:05.360 testbeszédük alapján és a szemükbe nézve. 0:06:05.880,0:06:09.880 Amikor a Deep Blue sakktáblájához ültem, 0:06:12.960,0:06:15.816 rögtön valami újdonságot éreztem, 0:06:15.840,0:06:17.160 valami nyugtalanítót. 0:06:19.440,0:06:22.240 Amilyent akkor éreznek, 0:06:23.320,0:06:25.856 mikor először ülnek[br]vezető nélküli kocsiba, 0:06:25.880,0:06:30.720 vagy amikor az új IT-főnöktől[br]először kapnak utasítást. 0:06:33.800,0:06:36.920 De az első játszmánál még 0:06:38.080,0:06:40.216 nem lehettem benne biztos, 0:06:40.240,0:06:43.920 mire képes ez a micsoda. 0:06:44.920,0:06:48.160 A technológia ugrásszerűen fejlődik,[br]és az IBM sokat fektetett bele. 0:06:48.680,0:06:50.060 Azt a játszmát elvesztettem. 0:06:52.320,0:06:54.096 Csak tűnődtem: 0:06:54.120,0:06:55.680 lehet, hogy legyőzhetetlen? 0:06:56.600,0:06:58.960 Talán befellegzett imádott sakkomnak? 0:07:00.800,0:07:04.936 Ezek emberi kétségek, [br]emberi félelmek voltak. 0:07:04.960,0:07:06.640 Egyben biztos voltam: 0:07:07.400,0:07:10.296 Deep Blue nevű ellenfelemnek[br]nincsenek ilyen kétségei. 0:07:10.320,0:07:12.080 (Nevetés) 0:07:13.920,0:07:15.320 A megsemmisítő csapás után 0:07:16.400,0:07:18.080 visszavágtam, 0:07:18.630,0:07:20.200 és megnyertem az első mérkőzést, 0:07:20.710,0:07:22.600 de a baljós előjelek már jelentkeztek. 0:07:24.400,0:07:26.536 Végül is vesztettem a géppel szemben, 0:07:26.560,0:07:29.616 de legalább nem jutottam [br]John Henry sorsára, 0:07:29.640,0:07:32.680 aki bár győzött,[br]kalapácsával a kezében halt meg. 0:07:37.720,0:07:40.256 Kiderült, hogy a sakk világának 0:07:40.280,0:07:43.520 még szüksége van emberi sakkbajnokra. 0:07:44.920,0:07:46.600 Még manapság is, mikor a mobilokon 0:07:48.080,0:07:51.536 az ingyen sakkprogramok 0:07:51.560,0:07:53.576 erősebbek a Deep Blue-nál, 0:07:53.600,0:07:55.080 az emberek mégis sakkoznak, 0:07:56.680,0:07:58.920 többet, mint bármikor. 0:07:59.800,0:08:03.016 A vészmadarak azt jósolták,[br]hogy senki nem fog sakkozni, 0:08:03.040,0:08:05.296 ha gép is legyőzheti. 0:08:05.320,0:08:07.536 Bebizonyosodott a tévedésük, 0:08:07.560,0:08:11.016 de a vészmadaraknak mindig[br]kedvenc időtöltésük 0:08:11.040,0:08:12.400 a károgás a technológiáról. 0:08:14.360,0:08:17.096 Saját tapasztalatomból tudom, 0:08:17.120,0:08:21.776 hogy szembe kell néznünk a félelmünkkel, 0:08:21.800,0:08:25.520 ha a legtöbbet akarjuk[br]kihozni a technológiából, 0:08:26.360,0:08:28.736 és le kell győznünk félelmünket, 0:08:28.760,0:08:34.000 hogy a legjobbat hozzuk[br]ki emberi mivoltunkból. 0:08:36.120,0:08:37.895 Sebeim nyalogatása közben 0:08:37.919,0:08:39.880 a Deep Blue elleni küzdelemből 0:08:41.080,0:08:43.775 merítettem ihletet. 0:08:43.799,0:08:47.170 A régi orosz mondás szerint: ha nem[br]tudod megverni, csatlakozz hozzá. 0:08:48.880,0:08:50.256 Akkor arra gondoltam: 0:08:50.280,0:08:52.616 mi lenne, ha összefognék a géppel, 0:08:52.640,0:08:55.800 a számítógép és én együttműködnénk,[br]egyesítenénk erősségeinket: 0:08:57.160,0:09:00.936 az emberi ösztönt a gépi számolással, 0:09:00.960,0:09:03.656 az emberi stratégiát a gépi taktikával, 0:09:03.680,0:09:06.096 az emberi tapasztalatot [br]a gép memóriájával? 0:09:06.120,0:09:08.320 Tán ez lenne az eddigi[br]legtökéletesebb játszma. 0:09:10.000,0:09:11.680 1998-ban Haladó Sakk néven 0:09:12.920,0:09:16.296 megvalósítottam az elgondolásomat. 0:09:16.320,0:09:22.000 A géppel az oldalamon játszottam[br]egy másik kiváló sakkozó ellen. 0:09:23.280,0:09:25.436 Az első kísérletben[br]egyikünknek sem sikerült 0:09:25.436,0:09:31.560 hatékonyan egyesítenie[br]az ember és a gép erősségét. 0:09:34.920,0:09:37.160 A Haladó Sakk fölkerült az internetre, 0:09:38.160,0:09:43.016 és 2005-ben az ún. kötetlen sakkbajnokság 0:09:43.040,0:09:44.400 meglepetésszámba ment. 0:09:47.240,0:09:50.776 Nagymesterek csapata[br]s a legjobb sakkgépek vettek benne részt, 0:09:50.800,0:09:53.536 de nem a nagymesterek nyertek, 0:09:53.560,0:09:54.920 és nem a csúcsszámítógép. 0:09:55.680,0:10:00.016 Egy amerikai amatőr sakkpáros nyert, 0:10:00.040,0:10:03.200 amely egyidejűleg három közönséges[br]személyi számítógépet kezelt. 0:10:05.560,0:10:08.576 Gépeik kezelése révén 0:10:08.600,0:10:14.376 hatékonyan fölülmúlták 0:10:14.400,0:10:16.846 nagymester ellenfeleik[br]sokkal nagyobb sakktudását 0:10:16.846,0:10:20.160 és a többiek sokkal nagyobb[br]számítási teljesítményét. 0:10:21.600,0:10:23.560 Kialakítottam e képletet: 0:10:24.560,0:10:27.936 gyenge játékos plusz gép 0:10:27.960,0:10:31.216 plusz jobb kombináció fölülmúlja 0:10:31.240,0:10:33.656 az önálló nagy teljesítményű gépet, 0:10:33.680,0:10:37.576 de még figyelemreméltóbb, hogy fölülmúlja 0:10:37.600,0:10:39.560 az erős játékos plusz gép összeállítást, 0:10:41.120,0:10:43.520 ha csapnivaló a kombináció. 0:10:46.360,0:10:49.010 Ez arról győzött meg,[br]hogy fejlettebb felületek kellenek 0:10:50.000,0:10:53.680 gépeink összehangolására 0:10:54.520,0:10:56.240 a jobb intelligencia érdekében. 0:10:58.320,0:11:01.616 Az ember + gép nem a jövő, 0:11:01.640,0:11:02.856 hanem a jelen. 0:11:02.880,0:11:07.016 Aki már használt internetes fordítást 0:11:07.040,0:11:11.336 idegen nyelvű újsághír[br]lényegének megértéséhez, 0:11:11.360,0:11:13.000 tudja, hogy a fordítás gyatra. 0:11:13.680,0:11:15.776 De ha hozzáadjuk az emberi tapasztalatot, 0:11:15.800,0:11:17.896 hogy értelmessé tegyük, 0:11:17.920,0:11:20.696 a gép tanul a kiigazításainkból. 0:11:20.720,0:11:25.680 E modell egyre jobban terjed az orvosi[br]diagnosztikában, a biztonsági elemzésben. 0:11:26.440,0:11:28.560 A gép feldolgozza az adatokat, 0:11:29.320,0:11:31.056 valószínűségeket számol, 0:11:31.080,0:11:34.736 eléri a 80%-os, majd 90%-os pontosságot, 0:11:34.760,0:11:39.136 az emberi oldalnak elemzésre 0:11:39.160,0:11:41.760 és döntés-előkészítésre[br]alkalmassá teszi őket. 0:11:42.280,0:11:47.120 De senki sem küldi gyerekét iskolába 0:11:48.000,0:11:51.560 90%-os pontosságú vezető nélküli kocsival, 0:11:52.600,0:11:54.200 de még 99%-ossal sem. 0:11:55.560,0:11:58.416 Nagyot kell még ugranunk előre, 0:11:58.440,0:12:04.600 hogy pár tizedes értékkel javuljunk. 0:12:07.160,0:12:11.170 A Deep Blue-val vívott[br]második mérkőzésem után 0:12:12.200,0:12:13.816 20 évvel 0:12:13.840,0:12:20.136 a szenzációhajhász szalagcím:[br]"Az agy utolsó védvonala" 0:12:20.160,0:12:21.736 közhellyé vált, 0:12:21.760,0:12:24.296 ahogy az intelligens gépek 0:12:24.320,0:12:25.520 behatolnak 0:12:26.560,0:12:28.760 minden ágazatba, úgyszólván nap mint nap. 0:12:30.160,0:12:33.256 De a múlttól eltérően, 0:12:33.280,0:12:34.920 amikor a gépek az igavonó állatot 0:12:36.480,0:12:38.856 és a kétkezi munkát helyettesítették, 0:12:38.880,0:12:41.376 most a diplomásokat 0:12:41.400,0:12:42.870 és a politikusokat fenyegetik. 0:12:44.120,0:12:46.216 Mint aki gép ellen küzdött és vesztett, 0:12:46.240,0:12:48.880 azt mondom önöknek, hogy ez kiváló hír. 0:12:51.000,0:12:53.216 Végtére is, minden szakmának 0:12:53.240,0:12:55.336 el kell viselnie ezt a nyomást, 0:12:55.360,0:13:00.960 különben az emberiség[br]fejlődése megrekedne. 0:13:02.760,0:13:03.960 Nem mi 0:13:05.440,0:13:07.160 választjuk meg, 0:13:08.480,0:13:11.200 mikor és hol áll meg a fejlődés. 0:13:13.160,0:13:14.520 Nincs lehetőségünk 0:13:15.960,0:13:17.456 lelassítani. 0:13:17.480,0:13:19.296 Valójában, 0:13:19.320,0:13:21.240 ideje fölgyorsulnunk. 0:13:24.600,0:13:27.240 Technológiánk pompásan boldogul 0:13:29.200,0:13:32.560 életünk nehézségeinek[br]s kockázatainak leküzdésével, 0:13:35.000,0:13:37.816 ezért még bonyolultabb, 0:13:37.840,0:13:39.696 még kockázatosabb feladatokat 0:13:39.720,0:13:43.800 kell találnunk magunknak. 0:13:48.200,0:13:49.400 A gépek 0:13:51.880,0:13:53.630 tudnak számolni. 0:13:53.630,0:13:55.396 Nekünk megvan[br]az értelmi képességünk. 0:13:55.396,0:13:57.360 A gépek utasításokat kapnak. 0:13:58.840,0:14:00.696 Nekünk célunk van. 0:14:00.720,0:14:03.000 A gépek 0:14:05.080,0:14:06.296 objektívak. 0:14:06.320,0:14:07.730 Mi szenvedélyesek vagyunk. 0:14:08.600,0:14:14.576 Ne izguljunk amiatt,[br]amire gépeink ma képesek. 0:14:14.600,0:14:19.176 Inkább azon izguljunk,[br]amire ma még nem képesek, 0:14:19.200,0:14:24.696 mert szükségünk lesz új, [br]intelligens gépek segítségére 0:14:24.720,0:14:28.800 legmerészebb álmaink valóra váltásához. 0:14:30.000,0:14:31.320 Ha kudarcot vallunk, 0:14:32.240,0:14:36.896 ha mégis kudarcot vallunk, nem azért lesz,[br]mert gépeink túl intelligensek, 0:14:36.920,0:14:38.320 vagy nem elég intelligensek. 0:14:39.200,0:14:42.280 Ha kudarcot vallunk, annak oka,[br]hogy önteltté váltunk, 0:14:43.680,0:14:45.240 és fékeztük becsvágyunkat. 0:14:46.520,0:14:49.560 Emberi mivoltunkat nem[br]készségeink határozzák meg, 0:14:51.280,0:14:53.960 mint pl. a pörölycsapás vagy a sakkozás. 0:14:54.560,0:14:57.576 Egy dologra csak ember képes. 0:14:57.600,0:14:58.800 Ez az álmodozás. 0:15:00.120,0:15:02.656 Álmodjunk nagyot! 0:15:02.680,0:15:03.896 Köszönöm. 0:15:03.920,0:15:07.807 (Taps)