WEBVTT 00:00:01.000 --> 00:00:03.246 Voi vorbi despre o greșeală de intuiție 00:00:03.246 --> 00:00:04.840 de care mulți dintre noi suferim. 00:00:05.480 --> 00:00:08.520 E greșeala de a detecta un anumit tip de pericol. 00:00:09.360 --> 00:00:11.126 Voi descrie un scenariu 00:00:11.126 --> 00:00:14.406 care cred că e înfricoșător 00:00:14.406 --> 00:00:16.160 și probabil să se întâmple, 00:00:16.840 --> 00:00:18.536 iar asta nu e o combinație bună 00:00:18.536 --> 00:00:20.086 după cum se pare. 00:00:20.086 --> 00:00:22.686 Totuși, în loc să fiți speriați, majoritatea dintre voi 00:00:22.686 --> 00:00:24.640 vor considera că e interesant. NOTE Paragraph 00:00:25.200 --> 00:00:28.206 Voi descrie cum progresele pe care le facem 00:00:28.206 --> 00:00:29.996 în inteligența artificială (IA) 00:00:29.996 --> 00:00:31.816 ne-ar putea distruge în final. 00:00:31.816 --> 00:00:35.286 De fapt, cred că e foarte greu să vedem cum nu ne vor distruge 00:00:35.286 --> 00:00:36.960 sau să ne inspire să ne distrugem. 00:00:37.400 --> 00:00:39.286 Dar dacă sunteți ca mine, 00:00:39.286 --> 00:00:42.096 veți crede că e amuzant să te gândești la astfel de lucruri. 00:00:42.096 --> 00:00:45.366 Acest răspuns e parte din problemă. 00:00:45.366 --> 00:00:47.620 Această reacție ar trebui să vă îngrijoreze. 00:00:47.920 --> 00:00:50.626 Dacă v-aș convinge cu discursul meu 00:00:50.626 --> 00:00:54.046 că ar fi probabil să suferim o foamete globală, 00:00:54.046 --> 00:00:57.126 fie din cauza schimbării climatice ori a altei catastrofe, 00:00:57.126 --> 00:01:00.576 și că nepoții voștri sau nepoții lor 00:01:00.576 --> 00:01:02.360 foarte probabil vor trăi așa, 00:01:03.200 --> 00:01:04.400 nu v-ați gândi: 00:01:05.440 --> 00:01:06.806 „Interesant. 00:01:06.806 --> 00:01:08.290 Îmi place discursul ăsta.” NOTE Paragraph 00:01:09.200 --> 00:01:10.720 Foametea nu e amuzantă. 00:01:11.800 --> 00:01:15.206 Moartea cauzată de science-fiction, pe de altă parte, e amuzantă, 00:01:15.206 --> 00:01:19.196 iar ce mă îngrijorează cel mai mult despre dezvoltarea IA în prezent 00:01:19.200 --> 00:01:23.326 e că părem incapabili să avem o reacție emoțională adecvată 00:01:23.326 --> 00:01:25.166 pentru pericolului din fața noastră. 00:01:25.166 --> 00:01:28.360 Eu nu pot avea un răspuns adecvat, și țin acest discurs. NOTE Paragraph 00:01:30.120 --> 00:01:32.846 E ca și cum am avea două uși în față. 00:01:32.846 --> 00:01:34.126 În spatele primei uși 00:01:34.126 --> 00:01:37.456 încetăm să progresăm în construirea mașinăriilor inteligente. 00:01:37.456 --> 00:01:41.486 Software-ul și hardware-ul nu se mai îmbunătățesc. 00:01:41.486 --> 00:01:44.480 Acum gândiți-vă de ce s-ar întâmpla asta. 00:01:45.080 --> 00:01:48.766 Știind cât de importante sunt inteligența și automatizarea, 00:01:48.766 --> 00:01:52.280 vom continua să îmbunătățim tehnologia cât putem. 00:01:53.200 --> 00:01:54.867 Ce ne-ar opri să facem asta? 00:01:55.800 --> 00:01:57.600 Un război nuclear la scară mare? 00:01:59.000 --> 00:02:00.560 O pandemie globală? 00:02:02.320 --> 00:02:03.640 Un impact cu un asteroid? 00:02:05.640 --> 00:02:08.246 Justin Bieber devenind președintele SUA? NOTE Paragraph 00:02:08.246 --> 00:02:10.520 (Râsete) NOTE Paragraph 00:02:12.760 --> 00:02:16.680 Ideea e că ceva ar trebui să distrugă civilizația pe care o știm noi. 00:02:17.360 --> 00:02:21.676 Imaginați-vă cât de rău ar trebui să fie 00:02:21.680 --> 00:02:25.036 încât să ne împiedice să mai facem îmbunătățiri în tehnologie 00:02:25.040 --> 00:02:26.286 permanent, 00:02:26.286 --> 00:02:28.316 generație după generație. 00:02:28.320 --> 00:02:30.566 Aproape prin definiție, ăsta e cel mai rău lucru 00:02:30.566 --> 00:02:32.536 care s-a întâmplat în istoria umană. NOTE Paragraph 00:02:32.536 --> 00:02:33.816 Deci singura alternativă, 00:02:33.840 --> 00:02:36.170 și asta e după a doua ușă, 00:02:36.170 --> 00:02:39.336 e să îmbunătățim în continuare mașinăriile inteligente 00:02:39.340 --> 00:02:40.960 an după an după an. 00:02:41.720 --> 00:02:45.360 La un moment dat, vom construi mașinării mai inteligente decât noi 00:02:46.080 --> 00:02:48.640 și odată ce avem mașinării mai inteligente decât noi, 00:02:48.640 --> 00:02:50.726 ele vor începe să se îmbunătățească. 00:02:50.726 --> 00:02:53.476 Apoi există riscul numit de matematicianul IJ Good 00:02:53.480 --> 00:02:55.256 o „explozie de inteligență”, 00:02:55.256 --> 00:02:57.280 procesul ne-ar putea scăpa de sub control. NOTE Paragraph 00:02:58.120 --> 00:03:00.966 Scenariul ăsta e caricaturizat adesea 00:03:00.966 --> 00:03:04.206 ca o frică față de o armată de roboți răzbunători 00:03:04.206 --> 00:03:05.496 care ne vor ataca. 00:03:05.496 --> 00:03:08.186 Dar nu ăsta e scenariul cel mai probabil. 00:03:08.200 --> 00:03:13.054 Mașinăriile noastre nu vor deveni brusc răzbunătoare. 00:03:13.054 --> 00:03:15.720 Îngrijorarea e că vom construi mașinării 00:03:15.720 --> 00:03:17.806 care sunt mult mai competente decât noi 00:03:17.806 --> 00:03:21.626 astfel că cea mai mică divergență între scopurile lor și ale noastre 00:03:21.626 --> 00:03:22.800 ne-ar putea distruge. NOTE Paragraph 00:03:23.960 --> 00:03:26.040 Gândiți-vă cum ne purtăm cu furnicile. 00:03:26.600 --> 00:03:28.286 Nu le urâm. 00:03:28.286 --> 00:03:30.366 Nu ne străduim să le rănim. 00:03:30.366 --> 00:03:32.776 De fapt, uneori ne străduim să nu le rănim. 00:03:32.776 --> 00:03:34.806 Le ocolim pe trotuar. 00:03:34.806 --> 00:03:36.966 Dar oricând prezența lor 00:03:36.966 --> 00:03:39.476 intră în conflict cu un scop de-al nostru, 00:03:39.480 --> 00:03:41.987 să zicem să construim o clădire ca asta, 00:03:41.987 --> 00:03:43.941 le anihilăm fără remușcări. 00:03:44.480 --> 00:03:47.436 Îngrijorarea e că într-o zi vom construi mașinării 00:03:47.440 --> 00:03:50.206 care, conștiente sau nu, 00:03:50.206 --> 00:03:52.760 ne-ar putea trata cu o nepăsare asemănătoare. NOTE Paragraph 00:03:53.760 --> 00:03:56.520 Cred că asta vi se pare exagerat, 00:03:57.360 --> 00:04:03.716 pariez că unii dintre voi se îndoiesc că IA superinteligentă e posibilă, 00:04:03.720 --> 00:04:05.426 cu atât mai puțin inevitabilă. 00:04:05.426 --> 00:04:09.040 Dar atunci trebuie să găsiți ceva greșit în una din următoarele presupuneri. 00:04:09.044 --> 00:04:10.616 Sunt doar trei. NOTE Paragraph 00:04:11.800 --> 00:04:16.519 Inteligența e o problemă de procesare a informației în sisteme fizice. 00:04:17.320 --> 00:04:19.955 De fapt, asta e mai mult decât o presupunere. 00:04:19.959 --> 00:04:23.476 Deja am construit inteligență îngustă în mașinăriile noastre 00:04:23.476 --> 00:04:25.486 și multe dintre ele funcționează deja 00:04:25.486 --> 00:04:28.120 la un nivel de inteligență suprauman. 00:04:28.840 --> 00:04:31.446 Știm că simpla materie 00:04:31.446 --> 00:04:34.086 poate da naștere așa-numitei „inteligență generală”, 00:04:34.086 --> 00:04:37.766 o abilitate de a gândi flexibil în diverse domenii 00:04:37.766 --> 00:04:40.916 deoarece creierele noastre sunt capabile de asta. Corect? 00:04:42.950 --> 00:04:44.896 Sunt doar atomi aici 00:04:44.896 --> 00:04:49.396 și atâta vreme cât continuăm să construim sisteme de atomi 00:04:49.400 --> 00:04:52.126 care prezintă comportament din ce în ce mai inteligent, 00:04:52.126 --> 00:04:54.996 într-un final, dacă nu suntem întrerupți, 00:04:54.996 --> 00:04:58.086 vom construi inteligență generală 00:04:58.086 --> 00:04:59.636 în mașinăriile noastre. NOTE Paragraph 00:04:59.636 --> 00:05:03.066 E crucial să realizăm că rata progresului nu contează 00:05:03.080 --> 00:05:06.310 deoarece orice progres e îndeajuns să ne aducă la capăt de drum. 00:05:06.310 --> 00:05:10.080 Nu ne trebuie legea lui Moore să continuăm, nici progres exponențial. 00:05:10.080 --> 00:05:11.680 Trebuie doar să continuăm. NOTE Paragraph 00:05:13.480 --> 00:05:16.400 A doua presupunere e că vom continua. 00:05:17.000 --> 00:05:19.760 Vom continua să îmbunătățim mașinăriile inteligente. 00:05:22.710 --> 00:05:25.406 Dată fiind valoarea inteligenței -- 00:05:25.406 --> 00:05:28.956 inteligența fie e sursa a tot ce valorăm, 00:05:28.960 --> 00:05:31.776 fie ne trebuie ca să protejăm tot ce prețuim. 00:05:31.776 --> 00:05:34.036 E resursa noastră cea mai prețioasă. 00:05:34.040 --> 00:05:35.584 Deci asta vrem să facem. 00:05:35.584 --> 00:05:38.960 Avem probleme pe care trebuie să le rezolvăm urgent. 00:05:38.960 --> 00:05:42.160 Vrem să vindecăm boli ca Alzheimer și cancer. 00:05:42.960 --> 00:05:46.916 Vrem să înțelegem sisteme economice. Vrem să îmbunătățim știința climatică. 00:05:46.920 --> 00:05:49.196 Vom face asta dacă putem. 00:05:49.196 --> 00:05:52.486 Trenul a plecat deja din stație și nu are frâne. NOTE Paragraph 00:05:53.880 --> 00:05:59.386 În final, nu stăm în vârful inteligenței 00:05:59.386 --> 00:06:01.160 sau oriunde lângă el. 00:06:01.640 --> 00:06:03.566 Asta e o informație crucială. 00:06:03.566 --> 00:06:05.996 Asta ne face situația atât de precară 00:06:06.000 --> 00:06:10.040 și de aceea nu ne putem baza pe intuițiile noastre despre risc. NOTE Paragraph 00:06:11.120 --> 00:06:13.840 Acum gândiți-vă la persoana cea mai deșteaptă. 00:06:14.640 --> 00:06:18.096 În topul tuturor e John von Neumann. 00:06:18.096 --> 00:06:21.426 Impresia pe care a lăsat-o von Neumann celor din jurul său, 00:06:21.440 --> 00:06:25.546 inclusiv celor mai mari matematicieni și fizicieni, 00:06:25.546 --> 00:06:27.466 e bine documentată. 00:06:27.480 --> 00:06:31.276 Dacă doar jumătate din poveștile despre el sunt pe jumătate adevărate, 00:06:31.280 --> 00:06:32.546 nu încape îndoială 00:06:32.546 --> 00:06:35.036 că e unul din cei mai deștepți oameni vreodată. 00:06:35.036 --> 00:06:37.520 Gândiți-vă la spectrul inteligenței. 00:06:38.320 --> 00:06:39.749 Îl avem pe John von Neumann, 00:06:41.560 --> 00:06:42.894 apoi suntem eu și voi, 00:06:44.120 --> 00:06:45.456 apoi o găină. NOTE Paragraph 00:06:45.456 --> 00:06:47.386 (Râsete) NOTE Paragraph 00:06:47.400 --> 00:06:48.666 Scuze, o găină. NOTE Paragraph 00:06:48.666 --> 00:06:49.926 (Râsete) NOTE Paragraph 00:06:49.926 --> 00:06:53.696 Nu e nevoie să fac discursul mai deprimant decât e deja. NOTE Paragraph 00:06:53.696 --> 00:06:55.280 (Râsete) NOTE Paragraph 00:06:56.339 --> 00:06:59.846 E copleșitor de probabil că spectrul inteligenței 00:06:59.846 --> 00:07:02.960 se extinde mult după cât putem noi percepe 00:07:03.880 --> 00:07:07.146 și dacă construim mașinării mai inteligente decât noi, 00:07:07.146 --> 00:07:09.426 probabil vor explora acest spectru 00:07:09.440 --> 00:07:11.336 în moduri pe care nu le putem imagina 00:07:11.336 --> 00:07:13.840 și ne depășesc în moduri inimaginabile. NOTE Paragraph 00:07:15.000 --> 00:07:19.376 E important să recunoaștem că e adevărat în virtutea vitezei. 00:07:19.376 --> 00:07:24.436 Imaginați-vă dacă am construi o IA superinteligentă 00:07:24.440 --> 00:07:27.946 care n-ar fi mai inteligentă decât echipa medie de cercetători 00:07:27.946 --> 00:07:30.090 de la Stanford sau MIT. 00:07:30.090 --> 00:07:33.246 Circuitele electronice funcționează de un milion de ori mai rapid 00:07:33.246 --> 00:07:34.536 decât cele biochimice, 00:07:34.536 --> 00:07:37.726 deci mașinăria ar trebui să gândească de un milion de ori mai rapid 00:07:37.726 --> 00:07:39.506 decât mințile care au construit-o. 00:07:39.520 --> 00:07:41.206 Dacă o pornești pentru o săptămână 00:07:41.206 --> 00:07:45.760 va face 20.000 de ani de muncă intelectuală la nivel uman, 00:07:46.400 --> 00:07:48.360 săptămână după săptămână. 00:07:49.640 --> 00:07:52.756 Cum am putea să înțelegem, darămite să constrângem 00:07:52.760 --> 00:07:55.040 o minte care face astfel de progrese? NOTE Paragraph 00:07:56.840 --> 00:07:59.126 Celălalt lucru îngrijorător e următorul: 00:07:59.126 --> 00:08:04.026 imaginați-vă cel mai bun scenariu posibil. 00:08:04.026 --> 00:08:07.890 Imaginați-vă că dăm peste un design de IA superinteligentă 00:08:07.890 --> 00:08:09.626 care nu are probleme de siguranță. 00:08:09.626 --> 00:08:12.886 Avem designul perfect din prima încercare. 00:08:12.886 --> 00:08:15.104 E ca și cum ne-ar fi dat un oracol 00:08:15.104 --> 00:08:17.160 care se comportă așa cum vrem. 00:08:17.950 --> 00:08:21.690 Această mașinărie ar fi aparatul perfect de economisire a forței de muncă. 00:08:21.690 --> 00:08:24.129 Poate crea mașinăria care poate construi mașinăria 00:08:24.133 --> 00:08:25.916 care poate face orice muncă fizică, 00:08:25.920 --> 00:08:27.406 folosind energie solară, 00:08:27.406 --> 00:08:30.136 aproape la costul materiilor prime. 00:08:30.136 --> 00:08:33.396 Vorbim despre sfârșitul corvoadei umane. 00:08:33.400 --> 00:08:36.200 E și despre sfârșitul majorității muncii intelectuale. NOTE Paragraph 00:08:37.200 --> 00:08:40.316 Ce ar face maimuțe ca noi în aceste circumstanțe? 00:08:40.316 --> 00:08:44.360 Am fi liberi să jucăm frisbee și să ne facem masaje. 00:08:45.840 --> 00:08:48.736 Adăugați niște LSD și niște haine ciudate 00:08:48.736 --> 00:08:50.906 și toată lumea ar putea fi ca la Burning Man. NOTE Paragraph 00:08:50.920 --> 00:08:52.560 (Râsete) NOTE Paragraph 00:08:54.320 --> 00:08:56.320 Asta sună destul de bine, 00:08:57.280 --> 00:08:59.676 dar întrebați-vă ce s-ar întâmpla 00:08:59.680 --> 00:09:02.436 în ordinea economică și politică actuală? 00:09:02.440 --> 00:09:04.896 Pare probabil că vom fi martorii 00:09:04.896 --> 00:09:10.576 unui nivel de inegalitate de avere și șomaj nemaivăzut. 00:09:10.576 --> 00:09:13.196 Fără voința de a pune această nouă avere 00:09:13.200 --> 00:09:14.680 în serviciul umanității, 00:09:15.640 --> 00:09:19.306 câțiva miliardari ar zâmbi pe copertele revistelor de afaceri 00:09:19.306 --> 00:09:21.720 în timp ce restul lumii ar muri de foame. NOTE Paragraph 00:09:22.320 --> 00:09:24.656 Și ce ar face rușii sau chinezii 00:09:24.656 --> 00:09:27.266 dacă ar auzi că o companie din Silicon Valley 00:09:27.280 --> 00:09:30.046 ar fi pe cale să lanseze o IA superinteligentă? 00:09:30.046 --> 00:09:32.926 Această mașinărie ar fi capabilă să ducă un război, 00:09:32.926 --> 00:09:35.166 terestru sau cibernetic, 00:09:35.166 --> 00:09:36.840 cu o putere nemaivăzută. 00:09:37.900 --> 00:09:39.996 E un scenariu în care câștigătorul ia tot. 00:09:40.000 --> 00:09:43.166 Să fii cu șase luni înaintea competiției 00:09:43.166 --> 00:09:45.956 înseamnă să fii cu 500.000 de ani înainte, 00:09:45.960 --> 00:09:47.476 cel puțin. 00:09:47.480 --> 00:09:52.246 Se pare că doar zvonurile despre acest fel de descoperire 00:09:52.246 --> 00:09:54.656 ar putea să înnebunească specia noastră. NOTE Paragraph 00:09:54.656 --> 00:09:57.556 Unul din cele mai înfricoșătoare lucruri 00:09:57.560 --> 00:10:00.376 în acest moment, după părerea mea, 00:10:00.376 --> 00:10:04.686 sunt lucrurile pe care le spun cercetătorii IA 00:10:04.686 --> 00:10:06.240 când vor să ne liniștească. 00:10:07.000 --> 00:10:10.496 Cel mai comun motiv să nu ne îngrijorăm e timpul. 00:10:10.496 --> 00:10:12.556 Se va întâmpla peste mult timp. 00:10:12.560 --> 00:10:15.000 Probabil peste 50 sau 100 de ani. 00:10:15.720 --> 00:10:16.996 Un cercetător a spus: 00:10:17.000 --> 00:10:18.616 „Să vă îngrijorați din cauza IA 00:10:18.616 --> 00:10:21.520 e ca și cum v-ați îngrijora de suprapopulare pe Marte.” 00:10:22.116 --> 00:10:23.746 Asta e versiunea de Silicon Valley 00:10:23.760 --> 00:10:26.176 de „nu-ți bate căpșorul cu asta”. NOTE Paragraph 00:10:26.176 --> 00:10:27.516 (Râsete) NOTE Paragraph 00:10:27.520 --> 00:10:29.466 Nimeni nu pare să observe 00:10:29.466 --> 00:10:32.086 că referința la acea perioadă de timp 00:10:32.086 --> 00:10:34.676 nu e logică. 00:10:34.680 --> 00:10:37.966 Dacă inteligența e doar o problemă de procesare a informației 00:10:37.966 --> 00:10:40.666 și noi continuăm să îmbunătățim mașinăriile, 00:10:40.666 --> 00:10:43.520 vom produce o formă de superinteligență. 00:10:44.320 --> 00:10:48.006 Nu avem idee cât ne va lua 00:10:48.006 --> 00:10:50.400 să creăm condițiile de siguranță pentru asta. 00:10:52.200 --> 00:10:53.536 Lăsați-mă să repet. 00:10:53.536 --> 00:10:57.356 Nu avem idee cât ne va lua 00:10:57.360 --> 00:10:59.600 să creăm condițiile de siguranță pentru asta. NOTE Paragraph 00:11:00.920 --> 00:11:04.396 Dacă nu ați observat, 50 de ani nu mai sunt ce-au fost. 00:11:04.400 --> 00:11:06.876 Iată 50 de ani în luni. 00:11:06.880 --> 00:11:08.720 De atâta timp avem iPhone. 00:11:09.440 --> 00:11:12.040 De atâta timp The Simpsons rulează la televizor. 00:11:12.680 --> 00:11:15.096 50 de ani nu e un timp lung 00:11:15.096 --> 00:11:18.590 pentru a rezolva una din cele mai mari provocări ale speciei noastre. 00:11:19.640 --> 00:11:23.696 Încă o dată, se pare că eșuăm să avem o reacție emoțională adecvată 00:11:23.696 --> 00:11:26.436 la ce va veni, foarte probabil. NOTE Paragraph 00:11:26.436 --> 00:11:30.466 Informaticianul Stuart Russell are o analogie bună. 00:11:30.466 --> 00:11:35.346 A spus: să ne imaginăm că am primit un mesaj de la o civilizație extraterestră 00:11:35.346 --> 00:11:37.046 care zice: 00:11:37.046 --> 00:11:38.626 „Oameni de pe Pământ, 00:11:38.626 --> 00:11:40.960 vom veni pe planeta voastră în 50 de ani. 00:11:41.800 --> 00:11:43.436 Pregătiți-vă.” 00:11:43.436 --> 00:11:47.686 Acum rămânem să numărăm lunile până aterizează nava? 00:11:47.686 --> 00:11:51.300 Am simți nevoia să facem ceva mai urgent. NOTE Paragraph 00:11:52.120 --> 00:11:54.656 Alt motiv pentru care ni se spune să nu ne îngrijorăm 00:11:54.656 --> 00:11:57.616 e că aceste mașinării pot să aibă doar aceleași valori ca noi 00:11:57.616 --> 00:12:00.236 deoarece vor fi practic extensiile noastre. 00:12:00.240 --> 00:12:02.076 Vor fi în creierele noastre 00:12:02.080 --> 00:12:04.440 și noi vom deveni practic sistemele lor limbice. 00:12:05.120 --> 00:12:06.596 Să ne gândim un moment 00:12:06.596 --> 00:12:09.756 la calea de viitor cea mai sigură și prudentă, 00:12:09.760 --> 00:12:11.166 recomandată, 00:12:11.166 --> 00:12:13.920 e să implantăm tehnologia direct în creierele noastre. 00:12:14.600 --> 00:12:17.970 Asta ar fi calea de viitor cea mai sigură și prudentă, 00:12:17.970 --> 00:12:21.106 dar de obicei măsurile de siguranță ale unei tehnologii 00:12:21.106 --> 00:12:24.776 trebuie să fie clarificate înainte de a ți-o pune în creier. NOTE Paragraph 00:12:24.776 --> 00:12:26.836 (Râsete) NOTE Paragraph 00:12:26.836 --> 00:12:32.186 Problema mai delicată e că construcția unei IA superinteligente 00:12:32.186 --> 00:12:33.926 pare mai ușoară 00:12:33.926 --> 00:12:35.836 decât a unei IA superinteligente 00:12:35.836 --> 00:12:37.596 și neuroștiința completă 00:12:37.600 --> 00:12:40.280 care ne ajută să ne integrăm mintea cu aceasta. 00:12:40.800 --> 00:12:44.006 Dat fiind că guvernele și companiile care lucrează la asta 00:12:44.006 --> 00:12:47.686 probabil se cred într-o cursă împotriva tuturor, 00:12:47.686 --> 00:12:50.976 și câștigarea cursei înseamnă câștigarea lumii, 00:12:50.976 --> 00:12:53.456 dacă nu o distrugem în clipa următoare, 00:12:53.460 --> 00:12:56.080 pare probabil că ce e mai ușor de făcut 00:12:56.080 --> 00:12:57.550 va fi făcut mai întâi. NOTE Paragraph 00:12:58.560 --> 00:13:01.466 Din păcate, nu am o soluție la această problemă, 00:13:01.466 --> 00:13:04.076 alta decât să vă recomand să vă gândiți la asta. 00:13:04.080 --> 00:13:06.496 Cred că ne trebuie un fel de Manhattan Project 00:13:06.496 --> 00:13:08.526 pe subiectul IA. 00:13:08.526 --> 00:13:11.286 Nu s-o construim, deoarece cred că inevitabil o vom face, 00:13:11.286 --> 00:13:14.646 ci să înțelegem cum să evităm cursa înarmărilor 00:13:14.646 --> 00:13:18.156 și să o construim într-un fel corespunzător valorilor noastre. 00:13:18.160 --> 00:13:20.316 Când vorbiți despre IA superinteligentă, 00:13:20.320 --> 00:13:22.616 care se poate schimba pe sine, 00:13:22.616 --> 00:13:27.246 se pare că avem doar o șansă să alegem condițiile inițiale corecte 00:13:27.246 --> 00:13:29.316 și chiar și atunci va trebui să absorbim 00:13:29.320 --> 00:13:32.360 consecințele economice și politice ale alegerii corecte. NOTE Paragraph 00:13:33.760 --> 00:13:35.846 Dar momentul în care admitem 00:13:35.846 --> 00:13:39.840 că procesarea informației e sursa inteligenței, 00:13:40.720 --> 00:13:45.520 că un sistem computațional adecvat e baza inteligenței, 00:13:46.360 --> 00:13:50.120 și admitem că vom îmbunătăți continuu aceste sisteme 00:13:51.280 --> 00:13:55.776 și admitem că orizontul cogniției foarte probabil depășește 00:13:55.776 --> 00:13:56.960 ce știm noi acum, 00:13:58.120 --> 00:13:59.386 atunci trebuie să admitem 00:13:59.386 --> 00:14:02.000 că suntem în procesul de creare a unui fel de zeu. 00:14:03.400 --> 00:14:05.016 Acum ar fi momentul potrivit 00:14:05.016 --> 00:14:07.353 să ne asigurăm că e un zeu cu care putem trăi. NOTE Paragraph 00:14:08.120 --> 00:14:09.686 Vă mulțumesc mult. NOTE Paragraph 00:14:09.686 --> 00:14:12.513 (Aplauze)