1 00:00:01,000 --> 00:00:03,246 Voi vorbi despre o greșeală de intuiție 2 00:00:03,246 --> 00:00:04,840 de care mulți dintre noi suferim. 3 00:00:05,480 --> 00:00:08,520 E greșeala de a detecta un anumit tip de pericol. 4 00:00:09,360 --> 00:00:11,126 Voi descrie un scenariu 5 00:00:11,126 --> 00:00:14,406 care cred că e înfricoșător 6 00:00:14,406 --> 00:00:16,160 și probabil să se întâmple, 7 00:00:16,840 --> 00:00:18,536 iar asta nu e o combinație bună 8 00:00:18,536 --> 00:00:20,086 după cum se pare. 9 00:00:20,086 --> 00:00:22,686 Totuși, în loc să fiți speriați, majoritatea dintre voi 10 00:00:22,686 --> 00:00:24,640 vor considera că e interesant. 11 00:00:25,200 --> 00:00:28,206 Voi descrie cum progresele pe care le facem 12 00:00:28,206 --> 00:00:29,996 în inteligența artificială (IA) 13 00:00:29,996 --> 00:00:31,816 ne-ar putea distruge în final. 14 00:00:31,816 --> 00:00:35,286 De fapt, cred că e foarte greu să vedem cum nu ne vor distruge 15 00:00:35,286 --> 00:00:36,960 sau să ne inspire să ne distrugem. 16 00:00:37,400 --> 00:00:39,286 Dar dacă sunteți ca mine, 17 00:00:39,286 --> 00:00:42,096 veți crede că e amuzant să te gândești la astfel de lucruri. 18 00:00:42,096 --> 00:00:45,366 Acest răspuns e parte din problemă. 19 00:00:45,366 --> 00:00:47,620 Această reacție ar trebui să vă îngrijoreze. 20 00:00:47,920 --> 00:00:50,626 Dacă v-aș convinge cu discursul meu 21 00:00:50,626 --> 00:00:54,046 că ar fi probabil să suferim o foamete globală, 22 00:00:54,046 --> 00:00:57,126 fie din cauza schimbării climatice ori a altei catastrofe, 23 00:00:57,126 --> 00:01:00,576 și că nepoții voștri sau nepoții lor 24 00:01:00,576 --> 00:01:02,360 foarte probabil vor trăi așa, 25 00:01:03,200 --> 00:01:04,400 nu v-ați gândi: 26 00:01:05,440 --> 00:01:06,806 „Interesant. 27 00:01:06,806 --> 00:01:08,290 Îmi place discursul ăsta.” 28 00:01:09,200 --> 00:01:10,720 Foametea nu e amuzantă. 29 00:01:11,800 --> 00:01:15,206 Moartea cauzată de science-fiction, pe de altă parte, e amuzantă, 30 00:01:15,206 --> 00:01:19,196 iar ce mă îngrijorează cel mai mult despre dezvoltarea IA în prezent 31 00:01:19,200 --> 00:01:23,326 e că părem incapabili să avem o reacție emoțională adecvată 32 00:01:23,326 --> 00:01:25,166 pentru pericolului din fața noastră. 33 00:01:25,166 --> 00:01:28,360 Eu nu pot avea un răspuns adecvat, și țin acest discurs. 34 00:01:30,120 --> 00:01:32,846 E ca și cum am avea două uși în față. 35 00:01:32,846 --> 00:01:34,126 În spatele primei uși 36 00:01:34,126 --> 00:01:37,456 încetăm să progresăm în construirea mașinăriilor inteligente. 37 00:01:37,456 --> 00:01:41,486 Software-ul și hardware-ul nu se mai îmbunătățesc. 38 00:01:41,486 --> 00:01:44,480 Acum gândiți-vă de ce s-ar întâmpla asta. 39 00:01:45,080 --> 00:01:48,766 Știind cât de importante sunt inteligența și automatizarea, 40 00:01:48,766 --> 00:01:52,280 vom continua să îmbunătățim tehnologia cât putem. 41 00:01:53,200 --> 00:01:54,867 Ce ne-ar opri să facem asta? 42 00:01:55,800 --> 00:01:57,600 Un război nuclear la scară mare? 43 00:01:59,000 --> 00:02:00,560 O pandemie globală? 44 00:02:02,320 --> 00:02:03,640 Un impact cu un asteroid? 45 00:02:05,640 --> 00:02:08,246 Justin Bieber devenind președintele SUA? 46 00:02:08,246 --> 00:02:10,520 (Râsete) 47 00:02:12,760 --> 00:02:16,680 Ideea e că ceva ar trebui să distrugă civilizația pe care o știm noi. 48 00:02:17,360 --> 00:02:21,676 Imaginați-vă cât de rău ar trebui să fie 49 00:02:21,680 --> 00:02:25,036 încât să ne împiedice să mai facem îmbunătățiri în tehnologie 50 00:02:25,040 --> 00:02:26,286 permanent, 51 00:02:26,286 --> 00:02:28,316 generație după generație. 52 00:02:28,320 --> 00:02:30,566 Aproape prin definiție, ăsta e cel mai rău lucru 53 00:02:30,566 --> 00:02:32,536 care s-a întâmplat în istoria umană. 54 00:02:32,536 --> 00:02:33,816 Deci singura alternativă, 55 00:02:33,840 --> 00:02:36,170 și asta e după a doua ușă, 56 00:02:36,170 --> 00:02:39,336 e să îmbunătățim în continuare mașinăriile inteligente 57 00:02:39,340 --> 00:02:40,960 an după an după an. 58 00:02:41,720 --> 00:02:45,360 La un moment dat, vom construi mașinării mai inteligente decât noi 59 00:02:46,080 --> 00:02:48,640 și odată ce avem mașinării mai inteligente decât noi, 60 00:02:48,640 --> 00:02:50,726 ele vor începe să se îmbunătățească. 61 00:02:50,726 --> 00:02:53,476 Apoi există riscul numit de matematicianul IJ Good 62 00:02:53,480 --> 00:02:55,256 o „explozie de inteligență”, 63 00:02:55,256 --> 00:02:57,280 procesul ne-ar putea scăpa de sub control. 64 00:02:58,120 --> 00:03:00,966 Scenariul ăsta e caricaturizat adesea 65 00:03:00,966 --> 00:03:04,206 ca o frică față de o armată de roboți răzbunători 66 00:03:04,206 --> 00:03:05,496 care ne vor ataca. 67 00:03:05,496 --> 00:03:08,186 Dar nu ăsta e scenariul cel mai probabil. 68 00:03:08,200 --> 00:03:13,054 Mașinăriile noastre nu vor deveni brusc răzbunătoare. 69 00:03:13,054 --> 00:03:15,720 Îngrijorarea e că vom construi mașinării 70 00:03:15,720 --> 00:03:17,806 care sunt mult mai competente decât noi 71 00:03:17,806 --> 00:03:21,626 astfel că cea mai mică divergență între scopurile lor și ale noastre 72 00:03:21,626 --> 00:03:22,800 ne-ar putea distruge. 73 00:03:23,960 --> 00:03:26,040 Gândiți-vă cum ne purtăm cu furnicile. 74 00:03:26,600 --> 00:03:28,286 Nu le urâm. 75 00:03:28,286 --> 00:03:30,366 Nu ne străduim să le rănim. 76 00:03:30,366 --> 00:03:32,776 De fapt, uneori ne străduim să nu le rănim. 77 00:03:32,776 --> 00:03:34,806 Le ocolim pe trotuar. 78 00:03:34,806 --> 00:03:36,966 Dar oricând prezența lor 79 00:03:36,966 --> 00:03:39,476 intră în conflict cu un scop de-al nostru, 80 00:03:39,480 --> 00:03:41,987 să zicem să construim o clădire ca asta, 81 00:03:41,987 --> 00:03:43,941 le anihilăm fără remușcări. 82 00:03:44,480 --> 00:03:47,436 Îngrijorarea e că într-o zi vom construi mașinării 83 00:03:47,440 --> 00:03:50,206 care, conștiente sau nu, 84 00:03:50,206 --> 00:03:52,760 ne-ar putea trata cu o nepăsare asemănătoare. 85 00:03:53,760 --> 00:03:56,520 Cred că asta vi se pare exagerat, 86 00:03:57,360 --> 00:04:03,716 pariez că unii dintre voi se îndoiesc că IA superinteligentă e posibilă, 87 00:04:03,720 --> 00:04:05,426 cu atât mai puțin inevitabilă. 88 00:04:05,426 --> 00:04:09,040 Dar atunci trebuie să găsiți ceva greșit în una din următoarele presupuneri. 89 00:04:09,044 --> 00:04:10,616 Sunt doar trei. 90 00:04:11,800 --> 00:04:16,519 Inteligența e o problemă de procesare a informației în sisteme fizice. 91 00:04:17,320 --> 00:04:19,955 De fapt, asta e mai mult decât o presupunere. 92 00:04:19,959 --> 00:04:23,476 Deja am construit inteligență îngustă în mașinăriile noastre 93 00:04:23,476 --> 00:04:25,486 și multe dintre ele funcționează deja 94 00:04:25,486 --> 00:04:28,120 la un nivel de inteligență suprauman. 95 00:04:28,840 --> 00:04:31,446 Știm că simpla materie 96 00:04:31,446 --> 00:04:34,086 poate da naștere așa-numitei „inteligență generală”, 97 00:04:34,086 --> 00:04:37,766 o abilitate de a gândi flexibil în diverse domenii 98 00:04:37,766 --> 00:04:40,916 deoarece creierele noastre sunt capabile de asta. Corect? 99 00:04:42,950 --> 00:04:44,896 Sunt doar atomi aici 100 00:04:44,896 --> 00:04:49,396 și atâta vreme cât continuăm să construim sisteme de atomi 101 00:04:49,400 --> 00:04:52,126 care prezintă comportament din ce în ce mai inteligent, 102 00:04:52,126 --> 00:04:54,996 într-un final, dacă nu suntem întrerupți, 103 00:04:54,996 --> 00:04:58,086 vom construi inteligență generală 104 00:04:58,086 --> 00:04:59,636 în mașinăriile noastre. 105 00:04:59,636 --> 00:05:03,066 E crucial să realizăm că rata progresului nu contează 106 00:05:03,080 --> 00:05:06,310 deoarece orice progres e îndeajuns să ne aducă la capăt de drum. 107 00:05:06,310 --> 00:05:10,080 Nu ne trebuie legea lui Moore să continuăm, nici progres exponențial. 108 00:05:10,080 --> 00:05:11,680 Trebuie doar să continuăm. 109 00:05:13,480 --> 00:05:16,400 A doua presupunere e că vom continua. 110 00:05:17,000 --> 00:05:19,760 Vom continua să îmbunătățim mașinăriile inteligente. 111 00:05:22,710 --> 00:05:25,406 Dată fiind valoarea inteligenței -- 112 00:05:25,406 --> 00:05:28,956 inteligența fie e sursa a tot ce valorăm, 113 00:05:28,960 --> 00:05:31,776 fie ne trebuie ca să protejăm tot ce prețuim. 114 00:05:31,776 --> 00:05:34,036 E resursa noastră cea mai prețioasă. 115 00:05:34,040 --> 00:05:35,584 Deci asta vrem să facem. 116 00:05:35,584 --> 00:05:38,960 Avem probleme pe care trebuie să le rezolvăm urgent. 117 00:05:38,960 --> 00:05:42,160 Vrem să vindecăm boli ca Alzheimer și cancer. 118 00:05:42,960 --> 00:05:46,916 Vrem să înțelegem sisteme economice. Vrem să îmbunătățim știința climatică. 119 00:05:46,920 --> 00:05:49,196 Vom face asta dacă putem. 120 00:05:49,196 --> 00:05:52,486 Trenul a plecat deja din stație și nu are frâne. 121 00:05:53,880 --> 00:05:59,386 În final, nu stăm în vârful inteligenței 122 00:05:59,386 --> 00:06:01,160 sau oriunde lângă el. 123 00:06:01,640 --> 00:06:03,566 Asta e o informație crucială. 124 00:06:03,566 --> 00:06:05,996 Asta ne face situația atât de precară 125 00:06:06,000 --> 00:06:10,040 și de aceea nu ne putem baza pe intuițiile noastre despre risc. 126 00:06:11,120 --> 00:06:13,840 Acum gândiți-vă la persoana cea mai deșteaptă. 127 00:06:14,640 --> 00:06:18,096 În topul tuturor e John von Neumann. 128 00:06:18,096 --> 00:06:21,426 Impresia pe care a lăsat-o von Neumann celor din jurul său, 129 00:06:21,440 --> 00:06:25,546 inclusiv celor mai mari matematicieni și fizicieni, 130 00:06:25,546 --> 00:06:27,466 e bine documentată. 131 00:06:27,480 --> 00:06:31,276 Dacă doar jumătate din poveștile despre el sunt pe jumătate adevărate, 132 00:06:31,280 --> 00:06:32,546 nu încape îndoială 133 00:06:32,546 --> 00:06:35,036 că e unul din cei mai deștepți oameni vreodată. 134 00:06:35,036 --> 00:06:37,520 Gândiți-vă la spectrul inteligenței. 135 00:06:38,320 --> 00:06:39,749 Îl avem pe John von Neumann, 136 00:06:41,560 --> 00:06:42,894 apoi suntem eu și voi, 137 00:06:44,120 --> 00:06:45,456 apoi o găină. 138 00:06:45,456 --> 00:06:47,386 (Râsete) 139 00:06:47,400 --> 00:06:48,666 Scuze, o găină. 140 00:06:48,666 --> 00:06:49,926 (Râsete) 141 00:06:49,926 --> 00:06:53,696 Nu e nevoie să fac discursul mai deprimant decât e deja. 142 00:06:53,696 --> 00:06:55,280 (Râsete) 143 00:06:56,339 --> 00:06:59,846 E copleșitor de probabil că spectrul inteligenței 144 00:06:59,846 --> 00:07:02,960 se extinde mult după cât putem noi percepe 145 00:07:03,880 --> 00:07:07,146 și dacă construim mașinării mai inteligente decât noi, 146 00:07:07,146 --> 00:07:09,426 probabil vor explora acest spectru 147 00:07:09,440 --> 00:07:11,336 în moduri pe care nu le putem imagina 148 00:07:11,336 --> 00:07:13,840 și ne depășesc în moduri inimaginabile. 149 00:07:15,000 --> 00:07:19,376 E important să recunoaștem că e adevărat în virtutea vitezei. 150 00:07:19,376 --> 00:07:24,436 Imaginați-vă dacă am construi o IA superinteligentă 151 00:07:24,440 --> 00:07:27,946 care n-ar fi mai inteligentă decât echipa medie de cercetători 152 00:07:27,946 --> 00:07:30,090 de la Stanford sau MIT. 153 00:07:30,090 --> 00:07:33,246 Circuitele electronice funcționează de un milion de ori mai rapid 154 00:07:33,246 --> 00:07:34,536 decât cele biochimice, 155 00:07:34,536 --> 00:07:37,726 deci mașinăria ar trebui să gândească de un milion de ori mai rapid 156 00:07:37,726 --> 00:07:39,506 decât mințile care au construit-o. 157 00:07:39,520 --> 00:07:41,206 Dacă o pornești pentru o săptămână 158 00:07:41,206 --> 00:07:45,760 va face 20.000 de ani de muncă intelectuală la nivel uman, 159 00:07:46,400 --> 00:07:48,360 săptămână după săptămână. 160 00:07:49,640 --> 00:07:52,756 Cum am putea să înțelegem, darămite să constrângem 161 00:07:52,760 --> 00:07:55,040 o minte care face astfel de progrese? 162 00:07:56,840 --> 00:07:59,126 Celălalt lucru îngrijorător e următorul: 163 00:07:59,126 --> 00:08:04,026 imaginați-vă cel mai bun scenariu posibil. 164 00:08:04,026 --> 00:08:07,890 Imaginați-vă că dăm peste un design de IA superinteligentă 165 00:08:07,890 --> 00:08:09,626 care nu are probleme de siguranță. 166 00:08:09,626 --> 00:08:12,886 Avem designul perfect din prima încercare. 167 00:08:12,886 --> 00:08:15,104 E ca și cum ne-ar fi dat un oracol 168 00:08:15,104 --> 00:08:17,160 care se comportă așa cum vrem. 169 00:08:17,950 --> 00:08:21,690 Această mașinărie ar fi aparatul perfect de economisire a forței de muncă. 170 00:08:21,690 --> 00:08:24,129 Poate crea mașinăria care poate construi mașinăria 171 00:08:24,133 --> 00:08:25,916 care poate face orice muncă fizică, 172 00:08:25,920 --> 00:08:27,406 folosind energie solară, 173 00:08:27,406 --> 00:08:30,136 aproape la costul materiilor prime. 174 00:08:30,136 --> 00:08:33,396 Vorbim despre sfârșitul corvoadei umane. 175 00:08:33,400 --> 00:08:36,200 E și despre sfârșitul majorității muncii intelectuale. 176 00:08:37,200 --> 00:08:40,316 Ce ar face maimuțe ca noi în aceste circumstanțe? 177 00:08:40,316 --> 00:08:44,360 Am fi liberi să jucăm frisbee și să ne facem masaje. 178 00:08:45,840 --> 00:08:48,736 Adăugați niște LSD și niște haine ciudate 179 00:08:48,736 --> 00:08:50,906 și toată lumea ar putea fi ca la Burning Man. 180 00:08:50,920 --> 00:08:52,560 (Râsete) 181 00:08:54,320 --> 00:08:56,320 Asta sună destul de bine, 182 00:08:57,280 --> 00:08:59,676 dar întrebați-vă ce s-ar întâmpla 183 00:08:59,680 --> 00:09:02,436 în ordinea economică și politică actuală? 184 00:09:02,440 --> 00:09:04,896 Pare probabil că vom fi martorii 185 00:09:04,896 --> 00:09:10,576 unui nivel de inegalitate de avere și șomaj nemaivăzut. 186 00:09:10,576 --> 00:09:13,196 Fără voința de a pune această nouă avere 187 00:09:13,200 --> 00:09:14,680 în serviciul umanității, 188 00:09:15,640 --> 00:09:19,306 câțiva miliardari ar zâmbi pe copertele revistelor de afaceri 189 00:09:19,306 --> 00:09:21,720 în timp ce restul lumii ar muri de foame. 190 00:09:22,320 --> 00:09:24,656 Și ce ar face rușii sau chinezii 191 00:09:24,656 --> 00:09:27,266 dacă ar auzi că o companie din Silicon Valley 192 00:09:27,280 --> 00:09:30,046 ar fi pe cale să lanseze o IA superinteligentă? 193 00:09:30,046 --> 00:09:32,926 Această mașinărie ar fi capabilă să ducă un război, 194 00:09:32,926 --> 00:09:35,166 terestru sau cibernetic, 195 00:09:35,166 --> 00:09:36,840 cu o putere nemaivăzută. 196 00:09:37,900 --> 00:09:39,996 E un scenariu în care câștigătorul ia tot. 197 00:09:40,000 --> 00:09:43,166 Să fii cu șase luni înaintea competiției 198 00:09:43,166 --> 00:09:45,956 înseamnă să fii cu 500.000 de ani înainte, 199 00:09:45,960 --> 00:09:47,476 cel puțin. 200 00:09:47,480 --> 00:09:52,246 Se pare că doar zvonurile despre acest fel de descoperire 201 00:09:52,246 --> 00:09:54,656 ar putea să înnebunească specia noastră. 202 00:09:54,656 --> 00:09:57,556 Unul din cele mai înfricoșătoare lucruri 203 00:09:57,560 --> 00:10:00,376 în acest moment, după părerea mea, 204 00:10:00,376 --> 00:10:04,686 sunt lucrurile pe care le spun cercetătorii IA 205 00:10:04,686 --> 00:10:06,240 când vor să ne liniștească. 206 00:10:07,000 --> 00:10:10,496 Cel mai comun motiv să nu ne îngrijorăm e timpul. 207 00:10:10,496 --> 00:10:12,556 Se va întâmpla peste mult timp. 208 00:10:12,560 --> 00:10:15,000 Probabil peste 50 sau 100 de ani. 209 00:10:15,720 --> 00:10:16,996 Un cercetător a spus: 210 00:10:17,000 --> 00:10:18,616 „Să vă îngrijorați din cauza IA 211 00:10:18,616 --> 00:10:21,520 e ca și cum v-ați îngrijora de suprapopulare pe Marte.” 212 00:10:22,116 --> 00:10:23,746 Asta e versiunea de Silicon Valley 213 00:10:23,760 --> 00:10:26,176 de „nu-ți bate căpșorul cu asta”. 214 00:10:26,176 --> 00:10:27,516 (Râsete) 215 00:10:27,520 --> 00:10:29,466 Nimeni nu pare să observe 216 00:10:29,466 --> 00:10:32,086 că referința la acea perioadă de timp 217 00:10:32,086 --> 00:10:34,676 nu e logică. 218 00:10:34,680 --> 00:10:37,966 Dacă inteligența e doar o problemă de procesare a informației 219 00:10:37,966 --> 00:10:40,666 și noi continuăm să îmbunătățim mașinăriile, 220 00:10:40,666 --> 00:10:43,520 vom produce o formă de superinteligență. 221 00:10:44,320 --> 00:10:48,006 Nu avem idee cât ne va lua 222 00:10:48,006 --> 00:10:50,400 să creăm condițiile de siguranță pentru asta. 223 00:10:52,200 --> 00:10:53,536 Lăsați-mă să repet. 224 00:10:53,536 --> 00:10:57,356 Nu avem idee cât ne va lua 225 00:10:57,360 --> 00:10:59,600 să creăm condițiile de siguranță pentru asta. 226 00:11:00,920 --> 00:11:04,396 Dacă nu ați observat, 50 de ani nu mai sunt ce-au fost. 227 00:11:04,400 --> 00:11:06,876 Iată 50 de ani în luni. 228 00:11:06,880 --> 00:11:08,720 De atâta timp avem iPhone. 229 00:11:09,440 --> 00:11:12,040 De atâta timp The Simpsons rulează la televizor. 230 00:11:12,680 --> 00:11:15,096 50 de ani nu e un timp lung 231 00:11:15,096 --> 00:11:18,590 pentru a rezolva una din cele mai mari provocări ale speciei noastre. 232 00:11:19,640 --> 00:11:23,696 Încă o dată, se pare că eșuăm să avem o reacție emoțională adecvată 233 00:11:23,696 --> 00:11:26,436 la ce va veni, foarte probabil. 234 00:11:26,436 --> 00:11:30,466 Informaticianul Stuart Russell are o analogie bună. 235 00:11:30,466 --> 00:11:35,346 A spus: să ne imaginăm că am primit un mesaj de la o civilizație extraterestră 236 00:11:35,346 --> 00:11:37,046 care zice: 237 00:11:37,046 --> 00:11:38,626 „Oameni de pe Pământ, 238 00:11:38,626 --> 00:11:40,960 vom veni pe planeta voastră în 50 de ani. 239 00:11:41,800 --> 00:11:43,436 Pregătiți-vă.” 240 00:11:43,436 --> 00:11:47,686 Acum rămânem să numărăm lunile până aterizează nava? 241 00:11:47,686 --> 00:11:51,300 Am simți nevoia să facem ceva mai urgent. 242 00:11:52,120 --> 00:11:54,656 Alt motiv pentru care ni se spune să nu ne îngrijorăm 243 00:11:54,656 --> 00:11:57,616 e că aceste mașinării pot să aibă doar aceleași valori ca noi 244 00:11:57,616 --> 00:12:00,236 deoarece vor fi practic extensiile noastre. 245 00:12:00,240 --> 00:12:02,076 Vor fi în creierele noastre 246 00:12:02,080 --> 00:12:04,440 și noi vom deveni practic sistemele lor limbice. 247 00:12:05,120 --> 00:12:06,596 Să ne gândim un moment 248 00:12:06,596 --> 00:12:09,756 la calea de viitor cea mai sigură și prudentă, 249 00:12:09,760 --> 00:12:11,166 recomandată, 250 00:12:11,166 --> 00:12:13,920 e să implantăm tehnologia direct în creierele noastre. 251 00:12:14,600 --> 00:12:17,970 Asta ar fi calea de viitor cea mai sigură și prudentă, 252 00:12:17,970 --> 00:12:21,106 dar de obicei măsurile de siguranță ale unei tehnologii 253 00:12:21,106 --> 00:12:24,776 trebuie să fie clarificate înainte de a ți-o pune în creier. 254 00:12:24,776 --> 00:12:26,836 (Râsete) 255 00:12:26,836 --> 00:12:32,186 Problema mai delicată e că construcția unei IA superinteligente 256 00:12:32,186 --> 00:12:33,926 pare mai ușoară 257 00:12:33,926 --> 00:12:35,836 decât a unei IA superinteligente 258 00:12:35,836 --> 00:12:37,596 și neuroștiința completă 259 00:12:37,600 --> 00:12:40,280 care ne ajută să ne integrăm mintea cu aceasta. 260 00:12:40,800 --> 00:12:44,006 Dat fiind că guvernele și companiile care lucrează la asta 261 00:12:44,006 --> 00:12:47,686 probabil se cred într-o cursă împotriva tuturor, 262 00:12:47,686 --> 00:12:50,976 și câștigarea cursei înseamnă câștigarea lumii, 263 00:12:50,976 --> 00:12:53,456 dacă nu o distrugem în clipa următoare, 264 00:12:53,460 --> 00:12:56,080 pare probabil că ce e mai ușor de făcut 265 00:12:56,080 --> 00:12:57,550 va fi făcut mai întâi. 266 00:12:58,560 --> 00:13:01,466 Din păcate, nu am o soluție la această problemă, 267 00:13:01,466 --> 00:13:04,076 alta decât să vă recomand să vă gândiți la asta. 268 00:13:04,080 --> 00:13:06,496 Cred că ne trebuie un fel de Manhattan Project 269 00:13:06,496 --> 00:13:08,526 pe subiectul IA. 270 00:13:08,526 --> 00:13:11,286 Nu s-o construim, deoarece cred că inevitabil o vom face, 271 00:13:11,286 --> 00:13:14,646 ci să înțelegem cum să evităm cursa înarmărilor 272 00:13:14,646 --> 00:13:18,156 și să o construim într-un fel corespunzător valorilor noastre. 273 00:13:18,160 --> 00:13:20,316 Când vorbiți despre IA superinteligentă, 274 00:13:20,320 --> 00:13:22,616 care se poate schimba pe sine, 275 00:13:22,616 --> 00:13:27,246 se pare că avem doar o șansă să alegem condițiile inițiale corecte 276 00:13:27,246 --> 00:13:29,316 și chiar și atunci va trebui să absorbim 277 00:13:29,320 --> 00:13:32,360 consecințele economice și politice ale alegerii corecte. 278 00:13:33,760 --> 00:13:35,846 Dar momentul în care admitem 279 00:13:35,846 --> 00:13:39,840 că procesarea informației e sursa inteligenței, 280 00:13:40,720 --> 00:13:45,520 că un sistem computațional adecvat e baza inteligenței, 281 00:13:46,360 --> 00:13:50,120 și admitem că vom îmbunătăți continuu aceste sisteme 282 00:13:51,280 --> 00:13:55,776 și admitem că orizontul cogniției foarte probabil depășește 283 00:13:55,776 --> 00:13:56,960 ce știm noi acum, 284 00:13:58,120 --> 00:13:59,386 atunci trebuie să admitem 285 00:13:59,386 --> 00:14:02,000 că suntem în procesul de creare a unui fel de zeu. 286 00:14:03,400 --> 00:14:05,016 Acum ar fi momentul potrivit 287 00:14:05,016 --> 00:14:07,353 să ne asigurăm că e un zeu cu care putem trăi. 288 00:14:08,120 --> 00:14:09,686 Vă mulțumesc mult. 289 00:14:09,686 --> 00:14:12,513 (Aplauze)