WEBVTT 00:00:00.960 --> 00:00:03.936 Acestă poveste începe în 1985, 00:00:03.960 --> 00:00:05.936 când la vârsta de 22 de ani 00:00:05.960 --> 00:00:08.336 am devenit campion mondial la șah 00:00:08.360 --> 00:00:11.560 după ce l-am învins pe Anatoly Karpov. 00:00:12.480 --> 00:00:13.736 Mai devreme în acel an 00:00:13.760 --> 00:00:17.376 am jucat ceea ce se numește un simultan de șah 00:00:17.400 --> 00:00:21.696 împotriva celor mai performante 32 computere capabile să joace șah, 00:00:21.720 --> 00:00:23.080 în Hamburg, Germania. 00:00:24.160 --> 00:00:25.660 Am câștigat toate partidele, 00:00:26.560 --> 00:00:29.736 dar atunci nu era considerată o surpriză prea mare 00:00:29.760 --> 00:00:33.800 faptul că am putut să înving 32 de computere în același timp. 00:00:34.480 --> 00:00:37.056 Pentru mine, aceea era epoca de aur. NOTE Paragraph 00:00:37.080 --> 00:00:39.176 (Râsete) NOTE Paragraph 00:00:39.200 --> 00:00:40.720 Computerele erau slabe, 00:00:41.680 --> 00:00:43.016 iar părul meu era puternic. NOTE Paragraph 00:00:43.040 --> 00:00:45.240 (Râsete) NOTE Paragraph 00:00:46.720 --> 00:00:48.776 Doar 12 ani mai târziu 00:00:48.800 --> 00:00:53.416 luptam să supraviețuiesc împotriva unui singur computer 00:00:53.440 --> 00:00:54.640 într-un meci 00:00:55.360 --> 00:00:57.416 numit de coperta revistei „Newsweek” 00:00:57.440 --> 00:00:59.216 „Ultima redută a creierului.” 00:00:59.240 --> 00:01:00.456 Nicio presiune. NOTE Paragraph 00:01:00.480 --> 00:01:02.000 (Râsete) NOTE Paragraph 00:01:03.040 --> 00:01:05.616 De la mitologie, la domeniul științifico-fantastic, 00:01:05.640 --> 00:01:08.376 omul împotriva mașinăriilor 00:01:08.400 --> 00:01:11.160 a fost mereu descris ca o luptă pe viață și pe moarte. 00:01:11.960 --> 00:01:13.536 John Henry, 00:01:13.560 --> 00:01:15.256 numit „omul ce conduce oțelul” 00:01:15.280 --> 00:01:19.056 în folclorul afro-american din secolul al XIX-lea, 00:01:19.080 --> 00:01:20.456 a fost pus să concureze 00:01:20.480 --> 00:01:23.216 împotriva unui ciocan mecanic alimentat cu aburi, 00:01:23.240 --> 00:01:25.600 să sape un tunel prin rocă montană. 00:01:26.800 --> 00:01:31.000 Legenda lui John Henry face parte dintr-o narațiune istorică lungă 00:01:31.680 --> 00:01:34.760 în care oamenii înfruntă tehnologia. 00:01:36.200 --> 00:01:39.080 Iar această retorică competitivă e o normă astăzi. 00:01:39.560 --> 00:01:41.720 Suntem într-o cursă împotriva mașinăriilor, 00:01:42.360 --> 00:01:44.440 într-o luptă sau chiar într-un război. 00:01:45.880 --> 00:01:47.496 Slujbele dispar. 00:01:47.520 --> 00:01:51.080 Oamenii sunt înlocuiți de parcă au dispărut de pe fața pământului. 00:01:52.240 --> 00:01:55.736 E de-ajuns ca să crezi că filmele precum „Terminatorul” sau „Matrix” 00:01:55.760 --> 00:01:56.960 sunt non-ficțiune. NOTE Paragraph 00:01:59.640 --> 00:02:03.960 Sunt foarte puține cazurile 00:02:05.360 --> 00:02:09.616 în care corpul și mintea umană pot concura de la egal la egal 00:02:09.639 --> 00:02:11.480 cu un computer sau un robot. 00:02:12.280 --> 00:02:14.138 De fapt, mi-aș dori să fie mai multe. 00:02:15.760 --> 00:02:16.960 În schimb, 00:02:17.840 --> 00:02:22.496 a fost binecuvântarea, dar și blestemul meu 00:02:22.520 --> 00:02:25.216 să devin proverbialul om 00:02:25.240 --> 00:02:28.336 din întrecerea omului împotriva mașinăriilor 00:02:28.360 --> 00:02:30.530 despre care încă vorbește toată lumea. 00:02:33.120 --> 00:02:38.136 În cea mai faimoasă întrecere om-mașină de la John Henry încoace, 00:02:38.160 --> 00:02:40.736 am jucat două meciuri 00:02:40.760 --> 00:02:44.200 împotriva supercomputerului IBM, Deep Blue. 00:02:46.890 --> 00:02:49.336 Nimeni nu-și amintește că am câștigat primul meci. NOTE Paragraph 00:02:49.336 --> 00:02:51.576 (Râsete) NOTE Paragraph 00:02:51.600 --> 00:02:55.000 (Aplauze) NOTE Paragraph 00:02:55.920 --> 00:03:00.896 În Philadelphia, înainte să pierd meciul din New York în anul următor. 00:03:00.920 --> 00:03:02.680 Dar cred că e just. 00:03:04.320 --> 00:03:09.416 Nu există nicio zi în istorie sau registru în calendar 00:03:09.440 --> 00:03:12.936 pentru toți cei care n-au reușit să urce pe Everest 00:03:12.960 --> 00:03:15.696 înainte ca Sir Edmund Hillary și Tenzin Norgay 00:03:15.720 --> 00:03:16.920 să ajungă în vârf. 00:03:17.960 --> 00:03:21.720 Iar în 1997 încă eram campion mondial, 00:03:24.520 --> 00:03:28.720 iar computerele care joacă șah s-au maturizat. 00:03:29.520 --> 00:03:31.496 Eu eram muntele Everest, 00:03:31.520 --> 00:03:33.120 iar Deep Blue a ajuns în vârf. 00:03:34.600 --> 00:03:38.656 Ar trebui să spun bineînțeles că nu Deep Blue a reușit, 00:03:38.680 --> 00:03:40.816 ci creatorii săi umani, 00:03:40.840 --> 00:03:44.176 Anantharaman, Campbell, Hoane, Hsu. 00:03:44.200 --> 00:03:45.400 Jos pălăria pentru ei. 00:03:46.840 --> 00:03:51.256 Ca de obicei, triumful mașinii a fost un triumf uman, 00:03:51.280 --> 00:03:56.040 lucru pe care îl cam uităm când oamenii sunt depășiți de propriile creații. NOTE Paragraph 00:03:58.360 --> 00:03:59.800 Deep Blue a câștigat, 00:04:01.400 --> 00:04:02.650 dar era el inteligent? 00:04:03.360 --> 00:04:05.120 Nu, nu era, 00:04:06.200 --> 00:04:11.256 nu în sensul în care Alan Turing și alți fondatori ai informaticii 00:04:11.280 --> 00:04:12.480 au sperat. 00:04:13.240 --> 00:04:18.016 Se pare că șahul a putut fi descifrat de forța brută, 00:04:18.040 --> 00:04:22.296 odată ce procesoarele au devenit destul de rapide, 00:04:22.320 --> 00:04:25.280 iar algoritmii au devenit destul de deștepți. 00:04:26.760 --> 00:04:30.456 Deși prin definiția titlului 00:04:30.480 --> 00:04:33.696 de mare maestru al șahului, 00:04:33.720 --> 00:04:35.000 Deep Blue era inteligent. 00:04:37.320 --> 00:04:39.720 Dar chiar și la acea viteză incredibilă 00:04:40.560 --> 00:04:43.760 de 200 de milioane de mutări pe secundă, 00:04:45.360 --> 00:04:46.560 metoda lui Deep Blue 00:04:47.360 --> 00:04:53.960 nu a oferit înțelegerea mult-visată a misterelor inteligenței umane. NOTE Paragraph 00:04:56.960 --> 00:04:58.776 Curând, 00:04:58.800 --> 00:05:01.376 mașinăriile vor fi șoferi de taxi, 00:05:01.400 --> 00:05:03.816 doctori și profesori, 00:05:03.840 --> 00:05:06.440 dar vor fi ele „inteligente”? 00:05:07.840 --> 00:05:10.336 Aș lăsa mai degrabă aceste definiții 00:05:10.360 --> 00:05:13.920 în seama filozofilor și a dicționarelor. 00:05:15.440 --> 00:05:19.320 Ce contează de fapt e cum ne simțim 00:05:20.320 --> 00:05:23.920 noi oamenii, trăind și lucrând cu aceste mașinării. NOTE Paragraph 00:05:26.160 --> 00:05:31.416 Când l-am cunoscut prima dată pe Deep Blue în februarie 1996, 00:05:31.440 --> 00:05:34.040 eram campion mondial de mai bine de zece ani 00:05:36.080 --> 00:05:40.096 și jucasem 182 de partide pentru titlul mondial 00:05:40.120 --> 00:05:45.216 și sute de partide împotriva altor jucători de top în diverse competiții. 00:05:45.240 --> 00:05:50.296 Știam la ce să mă aștept de la adversari 00:05:50.320 --> 00:05:52.000 și la ce să mă aștept de la mine. 00:05:52.680 --> 00:05:57.856 Eram obișnuit să le măsor mutările 00:05:57.880 --> 00:06:01.496 și să le apreciez starea emoțională 00:06:01.520 --> 00:06:05.360 observându-le limbajul corpului și privindu-i în ochi. NOTE Paragraph 00:06:05.880 --> 00:06:09.880 Apoi am stat în fața lui Deep Blue. 00:06:12.960 --> 00:06:15.816 Am simțit imediat ceva nou, 00:06:15.840 --> 00:06:17.160 ceva neliniștitor. 00:06:19.440 --> 00:06:22.240 Ați putea experimenta un sentiment asemănător 00:06:23.320 --> 00:06:25.856 când vă urcați prima oară într-o mașină fără șofer 00:06:25.880 --> 00:06:30.720 sau prima dată când noul vostru manager-computer vă dă ordine la lucru. 00:06:33.800 --> 00:06:36.920 Dar când m-am așezat la acea primă partidă, 00:06:38.080 --> 00:06:40.216 nu puteam fi sigur 00:06:40.240 --> 00:06:43.920 de ce e capabilă chestia aia. 00:06:44.920 --> 00:06:48.080 Tehnologia poate avansa în salturi, iar IBM a investit masiv. 00:06:48.680 --> 00:06:49.880 Am pierdut acea partidă. 00:06:52.320 --> 00:06:54.096 Și m-am întrebat: 00:06:54.120 --> 00:06:55.680 ar putea fi invincibil? 00:06:56.600 --> 00:06:58.960 S-a terminat cu mult-iubitul meu joc de șah? 00:07:00.800 --> 00:07:04.936 Acestea erau îndoieli umane, frici umane, 00:07:04.960 --> 00:07:06.640 iar lucrul de care eram sigur 00:07:07.400 --> 00:07:10.296 era că adversarul meu Deep Blue nu are astfel de temeri. NOTE Paragraph 00:07:10.320 --> 00:07:12.080 (Râsete) NOTE Paragraph 00:07:13.920 --> 00:07:15.320 Am contraatacat 00:07:16.400 --> 00:07:18.080 după acea lovitură devastatoare 00:07:19.000 --> 00:07:20.380 și am câștigat primul meci, 00:07:20.960 --> 00:07:22.600 dar știam ce va urma. 00:07:24.400 --> 00:07:26.536 În final am pierdut în fața computerului, 00:07:26.560 --> 00:07:29.616 dar nu am avut soarta lui John Henry 00:07:29.640 --> 00:07:32.680 care a câștigat, dar a murit cu ciocanul în mână. 00:07:37.720 --> 00:07:40.256 S-a dovedit că lumea șahului 00:07:40.280 --> 00:07:43.520 încă își dorea să aibă un campion uman. 00:07:44.920 --> 00:07:46.600 Chiar și azi, 00:07:48.080 --> 00:07:51.536 când o aplicație gratuită pentru mobil 00:07:51.560 --> 00:07:53.576 e mai puternică decât Deep Blue, 00:07:53.600 --> 00:07:55.080 oamenii încă joacă șah, 00:07:56.680 --> 00:07:58.920 chiar mai mult decât înainte. 00:07:59.800 --> 00:08:03.016 Pesimiștii spuneau că nimeni nu se va mai atinge de joc 00:08:03.040 --> 00:08:05.296 odată ce putea fi câștigat de o mașinărie, 00:08:05.320 --> 00:08:07.536 dar s-a dovedit că n-au avut dreptate. 00:08:07.560 --> 00:08:11.016 Dar pesimismul a fost mereu atitudinea preferată 00:08:11.040 --> 00:08:12.400 când e vorba de tehnologie. NOTE Paragraph 00:08:14.360 --> 00:08:17.096 Ce am învățat din propria experiență 00:08:17.120 --> 00:08:21.776 e că trebuie să ne înfruntăm fricile 00:08:21.800 --> 00:08:25.520 dacă vrem să obținem cât mai multe din tehnologie, 00:08:26.360 --> 00:08:28.736 și trebuie să ne învingem fricile 00:08:28.760 --> 00:08:34.000 dacă vrem să obținem ce-i mai bun de la umanitate. 00:08:36.120 --> 00:08:37.895 Pe când îmi lingeam rănile, 00:08:37.919 --> 00:08:39.880 am fost inspirat foarte mult 00:08:41.080 --> 00:08:43.775 de bătăliile mele cu Deep Blue. 00:08:43.799 --> 00:08:47.330 O zicală veche rusească spune: „Dacă nu-i poți învinge, alătură-te lor.” 00:08:48.880 --> 00:08:50.256 Apoi m-am gândit, 00:08:50.280 --> 00:08:52.616 dacă aș putea juca cu un computer, 00:08:52.640 --> 00:08:55.800 cu un computer de partea mea, combinându-ne abilitățile, 00:08:57.160 --> 00:09:00.936 intuiția umană și calculele mașinăriei, 00:09:00.960 --> 00:09:03.656 strategia umană cu tactica mașinăriei, 00:09:03.680 --> 00:09:06.096 experiența umană cu memoria mașinăriei. 00:09:06.120 --> 00:09:08.560 Ar putea fi cea mai bună partidă jucată vreodată? NOTE Paragraph 00:09:10.000 --> 00:09:11.680 Ideea mea a luat ființă 00:09:12.920 --> 00:09:16.296 în 1998 sub numele de „Advanced Chess”, 00:09:16.320 --> 00:09:22.000 când am jucat împotriva altui jucător de elită în formula om plus mașină. 00:09:23.280 --> 00:09:25.176 Dar în primul experiment 00:09:25.200 --> 00:09:31.560 nu am reușit să îmbinăm eficient abilitățile umane și tehnologice. 00:09:34.920 --> 00:09:37.160 „Advanced Chess” și-a găsit casa pe internet, 00:09:38.160 --> 00:09:43.016 iar în 2005, un așa-numit turneu de șah „freestyle”, 00:09:43.040 --> 00:09:44.400 a produs o revelație. 00:09:47.240 --> 00:09:50.776 Au participat o echipă de mari maeștri și computere de top, 00:09:50.800 --> 00:09:53.536 dar câștigătorii nu au fost maeștrii, 00:09:53.560 --> 00:09:54.920 nici supercomputerul. 00:09:55.680 --> 00:10:00.016 Câștigătorii au fost o pereche de jucători amatori de șah din America 00:10:00.040 --> 00:10:03.200 operând trei computere normale în același timp. 00:10:05.560 --> 00:10:08.576 Abilitatea lor de a-și antrena computerele 00:10:08.600 --> 00:10:14.376 a contracarat cunoștințele superioare de șah 00:10:14.400 --> 00:10:15.976 ale marilor maeștri 00:10:16.000 --> 00:10:20.160 și puterea de calcul mult superioară a calculatoarelor. 00:10:21.600 --> 00:10:23.560 Astfel am ajuns la această formulare: 00:10:24.560 --> 00:10:27.936 un jucător de șah slab și un computer 00:10:27.960 --> 00:10:31.216 plus un proces mai bun sunt superiori 00:10:31.240 --> 00:10:33.656 unui computer de unul singur, 00:10:33.680 --> 00:10:37.576 dar și mai remarcabil, e superior unui jucător bun 00:10:37.600 --> 00:10:39.560 plus un computer, 00:10:41.120 --> 00:10:43.520 dar cu un proces mai slab. 00:10:46.360 --> 00:10:48.480 Asta m-a convins că vom avea nevoie 00:10:50.000 --> 00:10:53.680 de interfețe mai bune pentru a ne antrena computerele 00:10:54.520 --> 00:10:56.240 spre o inteligență mai folositoare. NOTE Paragraph 00:10:58.320 --> 00:11:01.616 Oamenii plus computerele nu sunt viitorul, 00:11:01.640 --> 00:11:02.856 sunt prezentul. 00:11:02.880 --> 00:11:07.016 Oricine a folosit traducerile online 00:11:07.040 --> 00:11:11.336 pentru a înțelege un articol dintr-un ziar străin. 00:11:11.360 --> 00:11:13.000 Știind că nu sunt perfecte, 00:11:13.680 --> 00:11:15.776 dar ne folosim de experiența umană 00:11:15.800 --> 00:11:17.896 pentru a deduce sensul, 00:11:17.920 --> 00:11:20.696 apoi computerul învață din corectările noastre. 00:11:20.720 --> 00:11:25.680 Modelul se propagă și apare în diagnostice medicale, analize de securitate, 00:11:26.440 --> 00:11:28.560 computerele adună datele, 00:11:29.320 --> 00:11:31.056 calculează probabilitățile, 00:11:31.080 --> 00:11:34.736 face 80-90% din treabă, 00:11:34.760 --> 00:11:39.136 făcându-le mai ușor de analizat 00:11:39.160 --> 00:11:41.760 și facilitând procesul decizional uman. 00:11:42.280 --> 00:11:48.060 Dar nu-ți vei trimite copiii la școală 00:11:48.080 --> 00:11:51.560 într-o mașină automată fără șofer, care are o acuratețe de 90%, 00:11:52.600 --> 00:11:54.200 și chiar 99%. 00:11:55.560 --> 00:11:58.416 Așa că avem nevoie de un salt înainte 00:11:58.440 --> 00:12:04.600 ca să mai adăugăm ceva după virgulă. NOTE Paragraph 00:12:07.160 --> 00:12:11.200 Douăzeci de ani după meciul meu cu Deep Blue, 00:12:12.200 --> 00:12:13.816 al doilea meci, 00:12:13.840 --> 00:12:20.136 acest titlu „Ultima redută a creierului” 00:12:20.160 --> 00:12:21.736 a devenit ceva normal, 00:12:21.760 --> 00:12:24.296 când mașinăriile inteligente 00:12:24.320 --> 00:12:25.520 avansează 00:12:26.560 --> 00:12:28.760 în fiecare sector, aproape în fiecare zi. 00:12:30.160 --> 00:12:33.286 Dar spre deosebire de trecut, 00:12:33.286 --> 00:12:34.920 când mașinăriile înlocuiau 00:12:36.480 --> 00:12:38.856 animalele, munca manuală, 00:12:38.880 --> 00:12:41.376 acum vin peste oamenii cu diplome universitare 00:12:41.400 --> 00:12:42.680 și cu influență politică. 00:12:44.120 --> 00:12:46.216 Pentru cineva care s-a luptat și a pierdut, 00:12:46.240 --> 00:12:48.880 vă spun că acestea sunt vești foarte, foarte bune. 00:12:51.000 --> 00:12:53.216 În final toate profesiile 00:12:53.240 --> 00:12:55.336 vor simți aceste presiuni, 00:12:55.360 --> 00:13:00.960 altfel ar însemna că umanitatea a încetat să progreseze. 00:13:02.760 --> 00:13:03.960 Nu putem 00:13:05.440 --> 00:13:07.160 să alegem 00:13:08.480 --> 00:13:11.200 când și unde se oprește progresul tehnologic. 00:13:13.160 --> 00:13:14.520 Nu putem 00:13:15.960 --> 00:13:17.456 încetini. 00:13:17.480 --> 00:13:19.296 De fapt, 00:13:19.320 --> 00:13:21.240 trebuie să accelerăm. 00:13:24.600 --> 00:13:27.240 Tehnologia excelează în eliminarea 00:13:29.200 --> 00:13:32.560 dificultăților și incertitudinilor din viețile noastre, 00:13:35.000 --> 00:13:37.846 astfel că trebuie să căutăm 00:13:37.846 --> 00:13:39.726 provocări tot mai dificile, 00:13:39.726 --> 00:13:43.800 tot mai nesigure. 00:13:48.200 --> 00:13:49.400 Mașinăriile 00:13:51.880 --> 00:13:53.696 au calcule. 00:13:53.720 --> 00:13:55.296 Noi avem înțelegere. 00:13:55.320 --> 00:13:57.360 Mașinăriile au instrucțiuni. 00:13:58.840 --> 00:14:00.696 Noi avem scop. 00:14:00.720 --> 00:14:03.000 Mașinăriile 00:14:05.080 --> 00:14:06.296 au obiectivitate. 00:14:06.320 --> 00:14:07.520 Noi avem pasiune. 00:14:08.600 --> 00:14:14.576 N-ar trebuie să ne îngrijoreze ce pot face mașinăriile azi. 00:14:14.600 --> 00:14:19.176 De fapt, ar trebui să ne îngrijoreze ceea ce nu pot face încă, 00:14:19.200 --> 00:14:24.696 pentru că ne trebuie ajutorul mașinăriilor noi, inteligente, 00:14:24.720 --> 00:14:28.800 pentru a ne transpune cele mai mari vise în realitate. 00:14:30.000 --> 00:14:31.320 Iar dacă dăm greș, 00:14:32.240 --> 00:14:36.896 dacă dăm greș, nu e pentru că mașinăriile noastre sunt prea inteligente, 00:14:36.920 --> 00:14:38.550 sau nu îndeajuns de inteligente. 00:14:39.200 --> 00:14:42.280 Dacă dăm greș, e pentru că am devenit leneși 00:14:43.680 --> 00:14:45.240 și ne limităm ambițiile. 00:14:46.520 --> 00:14:49.560 Umanitatea nu e definită de nicio abilitate, 00:14:51.280 --> 00:14:53.960 precum lovirea cu ciocanul sau jocul de șah. NOTE Paragraph 00:14:54.560 --> 00:14:57.576 Există un singur lucru pe care-l poate face numai un om: 00:14:57.600 --> 00:14:58.800 să viseze. 00:15:00.120 --> 00:15:02.656 Așa că haideți să avem vise mărețe. NOTE Paragraph 00:15:02.680 --> 00:15:03.896 Mulțumesc. NOTE Paragraph 00:15:03.920 --> 00:15:07.807 (Aplauze)