1 00:00:00,960 --> 00:00:03,936 Acestă poveste începe în 1985, 2 00:00:03,960 --> 00:00:05,936 când la vârsta de 22 de ani 3 00:00:05,960 --> 00:00:08,336 am devenit campion mondial la șah 4 00:00:08,360 --> 00:00:11,560 după ce l-am învins pe Anatoly Karpov. 5 00:00:12,480 --> 00:00:13,736 Mai devreme în acel an 6 00:00:13,760 --> 00:00:17,376 am jucat ceea ce se numește un simultan de șah 7 00:00:17,400 --> 00:00:21,696 împotriva celor mai performante 32 computere capabile să joace șah, 8 00:00:21,720 --> 00:00:23,080 în Hamburg, Germania. 9 00:00:24,160 --> 00:00:25,660 Am câștigat toate partidele, 10 00:00:26,560 --> 00:00:29,736 dar atunci nu era considerată o surpriză prea mare 11 00:00:29,760 --> 00:00:33,800 faptul că am putut să înving 32 de computere în același timp. 12 00:00:34,480 --> 00:00:37,056 Pentru mine, aceea era epoca de aur. 13 00:00:37,080 --> 00:00:39,176 (Râsete) 14 00:00:39,200 --> 00:00:40,720 Computerele erau slabe, 15 00:00:41,680 --> 00:00:43,016 iar părul meu era puternic. 16 00:00:43,040 --> 00:00:45,240 (Râsete) 17 00:00:46,720 --> 00:00:48,776 Doar 12 ani mai târziu 18 00:00:48,800 --> 00:00:53,416 luptam să supraviețuiesc împotriva unui singur computer 19 00:00:53,440 --> 00:00:54,640 într-un meci 20 00:00:55,360 --> 00:00:57,416 numit de coperta revistei „Newsweek” 21 00:00:57,440 --> 00:00:59,216 „Ultima redută a creierului.” 22 00:00:59,240 --> 00:01:00,456 Nicio presiune. 23 00:01:00,480 --> 00:01:02,000 (Râsete) 24 00:01:03,040 --> 00:01:05,616 De la mitologie, la domeniul științifico-fantastic, 25 00:01:05,640 --> 00:01:08,376 omul împotriva mașinăriilor 26 00:01:08,400 --> 00:01:11,160 a fost mereu descris ca o luptă pe viață și pe moarte. 27 00:01:11,960 --> 00:01:13,536 John Henry, 28 00:01:13,560 --> 00:01:15,256 numit „omul ce conduce oțelul” 29 00:01:15,280 --> 00:01:19,056 în folclorul afro-american din secolul al XIX-lea, 30 00:01:19,080 --> 00:01:20,456 a fost pus să concureze 31 00:01:20,480 --> 00:01:23,216 împotriva unui ciocan mecanic alimentat cu aburi, 32 00:01:23,240 --> 00:01:25,600 să sape un tunel prin rocă montană. 33 00:01:26,800 --> 00:01:31,000 Legenda lui John Henry face parte dintr-o narațiune istorică lungă 34 00:01:31,680 --> 00:01:34,760 în care oamenii înfruntă tehnologia. 35 00:01:36,200 --> 00:01:39,080 Iar această retorică competitivă e o normă astăzi. 36 00:01:39,560 --> 00:01:41,720 Suntem într-o cursă împotriva mașinăriilor, 37 00:01:42,360 --> 00:01:44,440 într-o luptă sau chiar într-un război. 38 00:01:45,880 --> 00:01:47,496 Slujbele dispar. 39 00:01:47,520 --> 00:01:51,080 Oamenii sunt înlocuiți de parcă au dispărut de pe fața pământului. 40 00:01:52,240 --> 00:01:55,736 E de-ajuns ca să crezi că filmele precum „Terminatorul” sau „Matrix” 41 00:01:55,760 --> 00:01:56,960 sunt non-ficțiune. 42 00:01:59,640 --> 00:02:03,960 Sunt foarte puține cazurile 43 00:02:05,360 --> 00:02:09,616 în care corpul și mintea umană pot concura de la egal la egal 44 00:02:09,639 --> 00:02:11,480 cu un computer sau un robot. 45 00:02:12,280 --> 00:02:14,138 De fapt, mi-aș dori să fie mai multe. 46 00:02:15,760 --> 00:02:16,960 În schimb, 47 00:02:17,840 --> 00:02:22,496 a fost binecuvântarea, dar și blestemul meu 48 00:02:22,520 --> 00:02:25,216 să devin proverbialul om 49 00:02:25,240 --> 00:02:28,336 din întrecerea omului împotriva mașinăriilor 50 00:02:28,360 --> 00:02:30,530 despre care încă vorbește toată lumea. 51 00:02:33,120 --> 00:02:38,136 În cea mai faimoasă întrecere om-mașină de la John Henry încoace, 52 00:02:38,160 --> 00:02:40,736 am jucat două meciuri 53 00:02:40,760 --> 00:02:44,200 împotriva supercomputerului IBM, Deep Blue. 54 00:02:46,890 --> 00:02:49,336 Nimeni nu-și amintește că am câștigat primul meci. 55 00:02:49,336 --> 00:02:51,576 (Râsete) 56 00:02:51,600 --> 00:02:55,000 (Aplauze) 57 00:02:55,920 --> 00:03:00,896 În Philadelphia, înainte să pierd meciul din New York în anul următor. 58 00:03:00,920 --> 00:03:02,680 Dar cred că e just. 59 00:03:04,320 --> 00:03:09,416 Nu există nicio zi în istorie sau registru în calendar 60 00:03:09,440 --> 00:03:12,936 pentru toți cei care n-au reușit să urce pe Everest 61 00:03:12,960 --> 00:03:15,696 înainte ca Sir Edmund Hillary și Tenzin Norgay 62 00:03:15,720 --> 00:03:16,920 să ajungă în vârf. 63 00:03:17,960 --> 00:03:21,720 Iar în 1997 încă eram campion mondial, 64 00:03:24,520 --> 00:03:28,720 iar computerele care joacă șah s-au maturizat. 65 00:03:29,520 --> 00:03:31,496 Eu eram muntele Everest, 66 00:03:31,520 --> 00:03:33,120 iar Deep Blue a ajuns în vârf. 67 00:03:34,600 --> 00:03:38,656 Ar trebui să spun bineînțeles că nu Deep Blue a reușit, 68 00:03:38,680 --> 00:03:40,816 ci creatorii săi umani, 69 00:03:40,840 --> 00:03:44,176 Anantharaman, Campbell, Hoane, Hsu. 70 00:03:44,200 --> 00:03:45,400 Jos pălăria pentru ei. 71 00:03:46,840 --> 00:03:51,256 Ca de obicei, triumful mașinii a fost un triumf uman, 72 00:03:51,280 --> 00:03:56,040 lucru pe care îl cam uităm când oamenii sunt depășiți de propriile creații. 73 00:03:58,360 --> 00:03:59,800 Deep Blue a câștigat, 74 00:04:01,400 --> 00:04:02,650 dar era el inteligent? 75 00:04:03,360 --> 00:04:05,120 Nu, nu era, 76 00:04:06,200 --> 00:04:11,256 nu în sensul în care Alan Turing și alți fondatori ai informaticii 77 00:04:11,280 --> 00:04:12,480 au sperat. 78 00:04:13,240 --> 00:04:18,016 Se pare că șahul a putut fi descifrat de forța brută, 79 00:04:18,040 --> 00:04:22,296 odată ce procesoarele au devenit destul de rapide, 80 00:04:22,320 --> 00:04:25,280 iar algoritmii au devenit destul de deștepți. 81 00:04:26,760 --> 00:04:30,456 Deși prin definiția titlului 82 00:04:30,480 --> 00:04:33,696 de mare maestru al șahului, 83 00:04:33,720 --> 00:04:35,000 Deep Blue era inteligent. 84 00:04:37,320 --> 00:04:39,720 Dar chiar și la acea viteză incredibilă 85 00:04:40,560 --> 00:04:43,760 de 200 de milioane de mutări pe secundă, 86 00:04:45,360 --> 00:04:46,560 metoda lui Deep Blue 87 00:04:47,360 --> 00:04:53,960 nu a oferit înțelegerea mult-visată a misterelor inteligenței umane. 88 00:04:56,960 --> 00:04:58,776 Curând, 89 00:04:58,800 --> 00:05:01,376 mașinăriile vor fi șoferi de taxi, 90 00:05:01,400 --> 00:05:03,816 doctori și profesori, 91 00:05:03,840 --> 00:05:06,440 dar vor fi ele „inteligente”? 92 00:05:07,840 --> 00:05:10,336 Aș lăsa mai degrabă aceste definiții 93 00:05:10,360 --> 00:05:13,920 în seama filozofilor și a dicționarelor. 94 00:05:15,440 --> 00:05:19,320 Ce contează de fapt e cum ne simțim 95 00:05:20,320 --> 00:05:23,920 noi oamenii, trăind și lucrând cu aceste mașinării. 96 00:05:26,160 --> 00:05:31,416 Când l-am cunoscut prima dată pe Deep Blue în februarie 1996, 97 00:05:31,440 --> 00:05:34,040 eram campion mondial de mai bine de zece ani 98 00:05:36,080 --> 00:05:40,096 și jucasem 182 de partide pentru titlul mondial 99 00:05:40,120 --> 00:05:45,216 și sute de partide împotriva altor jucători de top în diverse competiții. 100 00:05:45,240 --> 00:05:50,296 Știam la ce să mă aștept de la adversari 101 00:05:50,320 --> 00:05:52,000 și la ce să mă aștept de la mine. 102 00:05:52,680 --> 00:05:57,856 Eram obișnuit să le măsor mutările 103 00:05:57,880 --> 00:06:01,496 și să le apreciez starea emoțională 104 00:06:01,520 --> 00:06:05,360 observându-le limbajul corpului și privindu-i în ochi. 105 00:06:05,880 --> 00:06:09,880 Apoi am stat în fața lui Deep Blue. 106 00:06:12,960 --> 00:06:15,816 Am simțit imediat ceva nou, 107 00:06:15,840 --> 00:06:17,160 ceva neliniștitor. 108 00:06:19,440 --> 00:06:22,240 Ați putea experimenta un sentiment asemănător 109 00:06:23,320 --> 00:06:25,856 când vă urcați prima oară într-o mașină fără șofer 110 00:06:25,880 --> 00:06:30,720 sau prima dată când noul vostru manager-computer vă dă ordine la lucru. 111 00:06:33,800 --> 00:06:36,920 Dar când m-am așezat la acea primă partidă, 112 00:06:38,080 --> 00:06:40,216 nu puteam fi sigur 113 00:06:40,240 --> 00:06:43,920 de ce e capabilă chestia aia. 114 00:06:44,920 --> 00:06:48,080 Tehnologia poate avansa în salturi, iar IBM a investit masiv. 115 00:06:48,680 --> 00:06:49,880 Am pierdut acea partidă. 116 00:06:52,320 --> 00:06:54,096 Și m-am întrebat: 117 00:06:54,120 --> 00:06:55,680 ar putea fi invincibil? 118 00:06:56,600 --> 00:06:58,960 S-a terminat cu mult-iubitul meu joc de șah? 119 00:07:00,800 --> 00:07:04,936 Acestea erau îndoieli umane, frici umane, 120 00:07:04,960 --> 00:07:06,640 iar lucrul de care eram sigur 121 00:07:07,400 --> 00:07:10,296 era că adversarul meu Deep Blue nu are astfel de temeri. 122 00:07:10,320 --> 00:07:12,080 (Râsete) 123 00:07:13,920 --> 00:07:15,320 Am contraatacat 124 00:07:16,400 --> 00:07:18,080 după acea lovitură devastatoare 125 00:07:19,000 --> 00:07:20,380 și am câștigat primul meci, 126 00:07:20,960 --> 00:07:22,600 dar știam ce va urma. 127 00:07:24,400 --> 00:07:26,536 În final am pierdut în fața computerului, 128 00:07:26,560 --> 00:07:29,616 dar nu am avut soarta lui John Henry 129 00:07:29,640 --> 00:07:32,680 care a câștigat, dar a murit cu ciocanul în mână. 130 00:07:37,720 --> 00:07:40,256 S-a dovedit că lumea șahului 131 00:07:40,280 --> 00:07:43,520 încă își dorea să aibă un campion uman. 132 00:07:44,920 --> 00:07:46,600 Chiar și azi, 133 00:07:48,080 --> 00:07:51,536 când o aplicație gratuită pentru mobil 134 00:07:51,560 --> 00:07:53,576 e mai puternică decât Deep Blue, 135 00:07:53,600 --> 00:07:55,080 oamenii încă joacă șah, 136 00:07:56,680 --> 00:07:58,920 chiar mai mult decât înainte. 137 00:07:59,800 --> 00:08:03,016 Pesimiștii spuneau că nimeni nu se va mai atinge de joc 138 00:08:03,040 --> 00:08:05,296 odată ce putea fi câștigat de o mașinărie, 139 00:08:05,320 --> 00:08:07,536 dar s-a dovedit că n-au avut dreptate. 140 00:08:07,560 --> 00:08:11,016 Dar pesimismul a fost mereu atitudinea preferată 141 00:08:11,040 --> 00:08:12,400 când e vorba de tehnologie. 142 00:08:14,360 --> 00:08:17,096 Ce am învățat din propria experiență 143 00:08:17,120 --> 00:08:21,776 e că trebuie să ne înfruntăm fricile 144 00:08:21,800 --> 00:08:25,520 dacă vrem să obținem cât mai multe din tehnologie, 145 00:08:26,360 --> 00:08:28,736 și trebuie să ne învingem fricile 146 00:08:28,760 --> 00:08:34,000 dacă vrem să obținem ce-i mai bun de la umanitate. 147 00:08:36,120 --> 00:08:37,895 Pe când îmi lingeam rănile, 148 00:08:37,919 --> 00:08:39,880 am fost inspirat foarte mult 149 00:08:41,080 --> 00:08:43,775 de bătăliile mele cu Deep Blue. 150 00:08:43,799 --> 00:08:47,330 O zicală veche rusească spune: „Dacă nu-i poți învinge, alătură-te lor.” 151 00:08:48,880 --> 00:08:50,256 Apoi m-am gândit, 152 00:08:50,280 --> 00:08:52,616 dacă aș putea juca cu un computer, 153 00:08:52,640 --> 00:08:55,800 cu un computer de partea mea, combinându-ne abilitățile, 154 00:08:57,160 --> 00:09:00,936 intuiția umană și calculele mașinăriei, 155 00:09:00,960 --> 00:09:03,656 strategia umană cu tactica mașinăriei, 156 00:09:03,680 --> 00:09:06,096 experiența umană cu memoria mașinăriei. 157 00:09:06,120 --> 00:09:08,560 Ar putea fi cea mai bună partidă jucată vreodată? 158 00:09:10,000 --> 00:09:11,680 Ideea mea a luat ființă 159 00:09:12,920 --> 00:09:16,296 în 1998 sub numele de „Advanced Chess”, 160 00:09:16,320 --> 00:09:22,000 când am jucat împotriva altui jucător de elită în formula om plus mașină. 161 00:09:23,280 --> 00:09:25,176 Dar în primul experiment 162 00:09:25,200 --> 00:09:31,560 nu am reușit să îmbinăm eficient abilitățile umane și tehnologice. 163 00:09:34,920 --> 00:09:37,160 „Advanced Chess” și-a găsit casa pe internet, 164 00:09:38,160 --> 00:09:43,016 iar în 2005, un așa-numit turneu de șah „freestyle”, 165 00:09:43,040 --> 00:09:44,400 a produs o revelație. 166 00:09:47,240 --> 00:09:50,776 Au participat o echipă de mari maeștri și computere de top, 167 00:09:50,800 --> 00:09:53,536 dar câștigătorii nu au fost maeștrii, 168 00:09:53,560 --> 00:09:54,920 nici supercomputerul. 169 00:09:55,680 --> 00:10:00,016 Câștigătorii au fost o pereche de jucători amatori de șah din America 170 00:10:00,040 --> 00:10:03,200 operând trei computere normale în același timp. 171 00:10:05,560 --> 00:10:08,576 Abilitatea lor de a-și antrena computerele 172 00:10:08,600 --> 00:10:14,376 a contracarat cunoștințele superioare de șah 173 00:10:14,400 --> 00:10:15,976 ale marilor maeștri 174 00:10:16,000 --> 00:10:20,160 și puterea de calcul mult superioară a calculatoarelor. 175 00:10:21,600 --> 00:10:23,560 Astfel am ajuns la această formulare: 176 00:10:24,560 --> 00:10:27,936 un jucător de șah slab și un computer 177 00:10:27,960 --> 00:10:31,216 plus un proces mai bun sunt superiori 178 00:10:31,240 --> 00:10:33,656 unui computer de unul singur, 179 00:10:33,680 --> 00:10:37,576 dar și mai remarcabil, e superior unui jucător bun 180 00:10:37,600 --> 00:10:39,560 plus un computer, 181 00:10:41,120 --> 00:10:43,520 dar cu un proces mai slab. 182 00:10:46,360 --> 00:10:48,480 Asta m-a convins că vom avea nevoie 183 00:10:50,000 --> 00:10:53,680 de interfețe mai bune pentru a ne antrena computerele 184 00:10:54,520 --> 00:10:56,240 spre o inteligență mai folositoare. 185 00:10:58,320 --> 00:11:01,616 Oamenii plus computerele nu sunt viitorul, 186 00:11:01,640 --> 00:11:02,856 sunt prezentul. 187 00:11:02,880 --> 00:11:07,016 Oricine a folosit traducerile online 188 00:11:07,040 --> 00:11:11,336 pentru a înțelege un articol dintr-un ziar străin. 189 00:11:11,360 --> 00:11:13,000 Știind că nu sunt perfecte, 190 00:11:13,680 --> 00:11:15,776 dar ne folosim de experiența umană 191 00:11:15,800 --> 00:11:17,896 pentru a deduce sensul, 192 00:11:17,920 --> 00:11:20,696 apoi computerul învață din corectările noastre. 193 00:11:20,720 --> 00:11:25,680 Modelul se propagă și apare în diagnostice medicale, analize de securitate, 194 00:11:26,440 --> 00:11:28,560 computerele adună datele, 195 00:11:29,320 --> 00:11:31,056 calculează probabilitățile, 196 00:11:31,080 --> 00:11:34,736 face 80-90% din treabă, 197 00:11:34,760 --> 00:11:39,136 făcându-le mai ușor de analizat 198 00:11:39,160 --> 00:11:41,760 și facilitând procesul decizional uman. 199 00:11:42,280 --> 00:11:48,060 Dar nu-ți vei trimite copiii la școală 200 00:11:48,080 --> 00:11:51,560 într-o mașină automată fără șofer, care are o acuratețe de 90%, 201 00:11:52,600 --> 00:11:54,200 și chiar 99%. 202 00:11:55,560 --> 00:11:58,416 Așa că avem nevoie de un salt înainte 203 00:11:58,440 --> 00:12:04,600 ca să mai adăugăm ceva după virgulă. 204 00:12:07,160 --> 00:12:11,200 Douăzeci de ani după meciul meu cu Deep Blue, 205 00:12:12,200 --> 00:12:13,816 al doilea meci, 206 00:12:13,840 --> 00:12:20,136 acest titlu „Ultima redută a creierului” 207 00:12:20,160 --> 00:12:21,736 a devenit ceva normal, 208 00:12:21,760 --> 00:12:24,296 când mașinăriile inteligente 209 00:12:24,320 --> 00:12:25,520 avansează 210 00:12:26,560 --> 00:12:28,760 în fiecare sector, aproape în fiecare zi. 211 00:12:30,160 --> 00:12:33,286 Dar spre deosebire de trecut, 212 00:12:33,286 --> 00:12:34,920 când mașinăriile înlocuiau 213 00:12:36,480 --> 00:12:38,856 animalele, munca manuală, 214 00:12:38,880 --> 00:12:41,376 acum vin peste oamenii cu diplome universitare 215 00:12:41,400 --> 00:12:42,680 și cu influență politică. 216 00:12:44,120 --> 00:12:46,216 Pentru cineva care s-a luptat și a pierdut, 217 00:12:46,240 --> 00:12:48,880 vă spun că acestea sunt vești foarte, foarte bune. 218 00:12:51,000 --> 00:12:53,216 În final toate profesiile 219 00:12:53,240 --> 00:12:55,336 vor simți aceste presiuni, 220 00:12:55,360 --> 00:13:00,960 altfel ar însemna că umanitatea a încetat să progreseze. 221 00:13:02,760 --> 00:13:03,960 Nu putem 222 00:13:05,440 --> 00:13:07,160 să alegem 223 00:13:08,480 --> 00:13:11,200 când și unde se oprește progresul tehnologic. 224 00:13:13,160 --> 00:13:14,520 Nu putem 225 00:13:15,960 --> 00:13:17,456 încetini. 226 00:13:17,480 --> 00:13:19,296 De fapt, 227 00:13:19,320 --> 00:13:21,240 trebuie să accelerăm. 228 00:13:24,600 --> 00:13:27,240 Tehnologia excelează în eliminarea 229 00:13:29,200 --> 00:13:32,560 dificultăților și incertitudinilor din viețile noastre, 230 00:13:35,000 --> 00:13:37,846 astfel că trebuie să căutăm 231 00:13:37,846 --> 00:13:39,726 provocări tot mai dificile, 232 00:13:39,726 --> 00:13:43,800 tot mai nesigure. 233 00:13:48,200 --> 00:13:49,400 Mașinăriile 234 00:13:51,880 --> 00:13:53,696 au calcule. 235 00:13:53,720 --> 00:13:55,296 Noi avem înțelegere. 236 00:13:55,320 --> 00:13:57,360 Mașinăriile au instrucțiuni. 237 00:13:58,840 --> 00:14:00,696 Noi avem scop. 238 00:14:00,720 --> 00:14:03,000 Mașinăriile 239 00:14:05,080 --> 00:14:06,296 au obiectivitate. 240 00:14:06,320 --> 00:14:07,520 Noi avem pasiune. 241 00:14:08,600 --> 00:14:14,576 N-ar trebuie să ne îngrijoreze ce pot face mașinăriile azi. 242 00:14:14,600 --> 00:14:19,176 De fapt, ar trebui să ne îngrijoreze ceea ce nu pot face încă, 243 00:14:19,200 --> 00:14:24,696 pentru că ne trebuie ajutorul mașinăriilor noi, inteligente, 244 00:14:24,720 --> 00:14:28,800 pentru a ne transpune cele mai mari vise în realitate. 245 00:14:30,000 --> 00:14:31,320 Iar dacă dăm greș, 246 00:14:32,240 --> 00:14:36,896 dacă dăm greș, nu e pentru că mașinăriile noastre sunt prea inteligente, 247 00:14:36,920 --> 00:14:38,550 sau nu îndeajuns de inteligente. 248 00:14:39,200 --> 00:14:42,280 Dacă dăm greș, e pentru că am devenit leneși 249 00:14:43,680 --> 00:14:45,240 și ne limităm ambițiile. 250 00:14:46,520 --> 00:14:49,560 Umanitatea nu e definită de nicio abilitate, 251 00:14:51,280 --> 00:14:53,960 precum lovirea cu ciocanul sau jocul de șah. 252 00:14:54,560 --> 00:14:57,576 Există un singur lucru pe care-l poate face numai un om: 253 00:14:57,600 --> 00:14:58,800 să viseze. 254 00:15:00,120 --> 00:15:02,656 Așa că haideți să avem vise mărețe. 255 00:15:02,680 --> 00:15:03,896 Mulțumesc. 256 00:15:03,920 --> 00:15:07,807 (Aplauze)