0:00:00.760,0:00:04.600 Când eram copil,[br]eram tocilar prin chintesență. 0:00:05.320,0:00:07.496 Cred că și unii dintre voi[br]ați fost la fel. 0:00:07.520,0:00:08.736 (Râsete) 0:00:08.760,0:00:11.244 Și dumneavoastră domnule,[br]care ați râs cel mai tare, 0:00:11.269,0:00:12.776 probabil că încă mai sunteți. 0:00:12.800,0:00:14.256 (Râsete) 0:00:14.280,0:00:17.776 Am crescut într-un mic oraș[br]în câmpiile prăfuite din nordul Texasului, 0:00:17.800,0:00:21.136 fiu de șerif care a fost fiul unui pastor. 0:00:21.160,0:00:23.080 A intra în belele nu era o opțiune. 0:00:24.040,0:00:27.396 Așa că am început să citesc cărți[br]cu calcule ca sursă de distracție. 0:00:27.420,0:00:28.856 (Râsete) 0:00:28.880,0:00:30.576 Și tu la fel. 0:00:30.600,0:00:34.436 Și asta m-a făcut să construiesc un laser[br]și un computer și să modelez rachete, 0:00:34.460,0:00:38.059 iar apoi să fac combustibil[br]pentru rachete în dormitorul meu. 0:00:38.060,0:00:44.896 Acum, în termeni științifici,[br]numim asta o idee foarte proastă. 0:00:44.920,0:00:45.940 (Râsete) 0:00:45.980,0:00:49.241 Cam pe atunci, „2001: Odiseea spațială”[br]a lui Stanley Kubrick 0:00:49.241,0:00:51.176 apăruse în cinematografe, 0:00:51.600,0:00:53.800 iar viața mi s-a schimbat[br]pentru totdeauna. 0:00:54.280,0:00:58.896 Am iubit absolut totul legat de acel film,[br]în special pe HAL 9000. 0:00:58.920,0:01:00.976 HAL era un computer dotat cu conștiință, 0:01:01.000,0:01:03.456 conceput pentru a ghida[br]nava spațială Discovery 0:01:03.480,0:01:06.016 de la Pământ până la Jupiter. 0:01:06.040,0:01:08.096 HAL avea de asemenea[br]un caracter imperfect, 0:01:08.120,0:01:12.400 întrucât a ales să prețuiască mai mult [br]misiunea, în defavoarea vieții umane. 0:01:12.840,0:01:14.936 HAL a fost un personaj fictiv, 0:01:14.960,0:01:16.039 dar cu toate acestea, 0:01:16.064,0:01:19.736 el vorbește despre temerile noastre,[br]temerile noastre de a fi subjugați 0:01:19.760,0:01:22.776 de o inteligență artificială[br]fără sentimente, 0:01:22.800,0:01:25.060 care este indiferentă în fața omenirii. 0:01:25.880,0:01:28.456 Cred că astfel de temeri sunt nefondate. 0:01:28.480,0:01:32.736 Într-adevăr, ne aflăm într-un moment[br]remarcabil în istoria omenirii, 0:01:32.760,0:01:37.736 când, motivați de refuzul de a accepta[br]limitele corpurilor și minților noastre, 0:01:37.760,0:01:43.096 construim mașinării de un rafinament[br]și o grație frumoasă și complexă 0:01:43.120,0:01:45.176 care va extinde cunoașterea umană 0:01:45.200,0:01:47.110 dincolo de imaginația noastră. 0:01:47.110,0:01:50.466 După o carieră care mi-a purtat pașii[br]de la Academia Forțelor Aeriene 0:01:50.466,0:01:52.596 la Space Command în prezent, 0:01:52.596,0:01:54.096 am devenit inginer de sisteme 0:01:54.096,0:01:56.736 și recent am fost implicat[br]într-o problemă de inginerie 0:01:56.760,0:01:59.336 în legătură cu misiunea NASA către Marte. 0:01:59.360,0:02:01.856 În zborurile spațiale către Lună 0:02:01.880,0:02:05.116 ne putem baza că cei de la controlul[br]misiunii din Houston 0:02:05.140,0:02:07.016 urmăresc toate aspectele unui zbor. 0:02:07.040,0:02:10.576 Însă Marte e de 200 de ori mai departe 0:02:10.600,0:02:13.816 și în consecință, e nevoie[br]în medie de 13 minute 0:02:13.840,0:02:16.976 ca un sunet să parcurgă distanța[br]dintre Pământ și Marte. 0:02:17.000,0:02:20.400 Dacă apare o problemă,[br]nu există suficient timp. 0:02:20.840,0:02:23.336 Astfel, o soluție rezonabilă de inginerie 0:02:23.360,0:02:28.976 ne determină să punem controlul misiunii[br]între pereții navetei spațiale Orion. 0:02:29.000,0:02:31.896 O altă idee fascinantă[br]din profilul misiunii 0:02:31.920,0:02:34.816 e plasarea de roboți humanoizi[br]pe suprafața planetei Marte 0:02:34.840,0:02:36.696 înaintea sosirii oamenilor, 0:02:36.720,0:02:39.276 mai întâi pentru a construi[br]echipamente și instalații 0:02:39.300,0:02:42.960 și apoi pentru a servi ca membri[br]colaboratori ai echipei științifice. 0:02:43.400,0:02:46.236 Pe măsură ce priveam asta[br]dintr-o perspectivă inginerească, 0:02:46.260,0:02:49.736 devenea foarte clar pentru mine[br]că ceea ce aveam nevoie să creez 0:02:49.760,0:02:51.536 era o inteligență artificială 0:02:51.560,0:02:54.436 abilă, cooperantă și dotată [br]cu inteligență socială. 0:02:54.460,0:02:58.256 Cu alte cuvinte, aveam nevoie[br]să construiesc ceva asemănător lui HAL, 0:02:58.280,0:03:00.696 dar fără tendințele sale ucigătoare. 0:03:00.720,0:03:02.080 (Râsete) 0:03:02.920,0:03:04.736 Să facem o mică pauză. 0:03:04.760,0:03:08.656 Este oare posibil să construim[br]o asemenea inteligență artificială? 0:03:08.680,0:03:10.136 De fapt, chiar este. 0:03:10.160,0:03:13.416 În multe feluri, aceasta este[br]o problemă grea de inginerie 0:03:13.440,0:03:15.380 cu elemente de inteligență artificială, 0:03:15.380,0:03:19.626 și nu o problemă inextricabilă [br]de IA care necesită inginerie.[br] 0:03:19.646,0:03:22.070 Ca să-l parafrazez pe Alan Turing: 0:03:22.070,0:03:25.436 „Nu sunt interesat să construiesc [br]o mașinărie dotată cu conștiință”. 0:03:25.436,0:03:26.496 Nu construiesc un HAL. 0:03:26.496,0:03:31.880 Tot ce vreau este un creier simplu,[br]ceva ce oferă iluzia inteligenței. 0:03:33.000,0:03:36.070 Arta și știința informatică[br]au parcurs un drum lung 0:03:36.070,0:03:37.700 de când HAL a fost adus pe ecran 0:03:37.700,0:03:41.496 și-mi imaginez că dacă inventatorul său,[br]Dr. Chandra, ar fi fost aici azi, 0:03:41.546,0:03:44.046 ar fi avut o listă întreagă[br]de întrebări pentru noi. 0:03:44.046,0:03:45.676 E într-adevăr posibil pentru noi 0:03:45.676,0:03:49.316 să folosim un sistem de milioane[br]și milioane de dispozitive, 0:03:49.440,0:03:51.296 ca să citim în fluxurile lor de date, 0:03:51.320,0:03:53.776 pentru a le prezice erorile[br]și a acționa înainte? 0:03:53.800,0:03:54.816 Da. 0:03:54.840,0:03:58.416 Putem construi sisteme care să converseze[br]cu oamenii în limba lor naturală? 0:03:58.440,0:03:59.456 Da. 0:03:59.480,0:04:02.956 Putem construi sisteme care să recunoască[br]obiecte, să identifice emoții, 0:04:02.980,0:04:06.056 să arate emoții, să joace jocuri[br]și chiar să citească de pe buze? 0:04:06.080,0:04:07.096 Da. 0:04:07.120,0:04:09.756 Putem construi sisteme[br]care să stabilească obiective, 0:04:09.780,0:04:13.796 să realizeze planuri pentru îndeplinirea[br]acestor obiective și să învețe pe parcurs? 0:04:13.820,0:04:14.836 Da. 0:04:14.960,0:04:17.596 Putem construi sisteme[br]care să aibă o gândire empatică? 0:04:17.620,0:04:18.716 Asta învățăm să facem. 0:04:18.740,0:04:22.120 Putem construi sisteme care să aibă[br]o baza etică și morală? 0:04:22.480,0:04:24.520 Asta trebuie să învățăm cum se face. 0:04:25.360,0:04:27.336 Așa că haideți să acceptăm pentru moment 0:04:27.360,0:04:30.456 că este posibil să construim[br]o astfel de inteligență artificială 0:04:30.480,0:04:32.716 pentru acest tip de misiuni[br]și pentru altele. 0:04:32.740,0:04:35.476 Următoarea întrebare[br]pe care trebuie să v-o puneți e: 0:04:35.500,0:04:37.256 ar trebui să ne fie frică de ea? 0:04:37.280,0:04:38.840 Ei bine, fiecare tehnologie nouă 0:04:38.840,0:04:40.970 ne dă palpitații[br]într-o anumită măsură. 0:04:40.970,0:04:43.096 Când au apărut [br]pentru prima oară automobilele, 0:04:43.120,0:04:46.646 oamenii s-au lamentat că vom asista[br]la destrămarea familiei. 0:04:46.646,0:04:49.256 Când au apărut [br]pentru prima oară telefoanele, 0:04:49.280,0:04:52.576 oamenii erau îngrijorați[br]că vor distruge complet conversația. 0:04:52.600,0:04:56.040 La un moment dat am văzut[br]cum cuvântul scris a devenit omniprezent, 0:04:56.060,0:04:58.926 iar oamenii au crezut că vom pierde[br]abilitatea de a memora. 0:04:58.926,0:05:01.436 Toate acestea sunt adevărate[br]până la un anumit punct, 0:05:01.460,0:05:04.176 dar de asemenea este adevărat[br]și că aceste tehnologii 0:05:04.200,0:05:06.876 ne-au adus lucruri care ne-au lărgit[br]cunoașterea umană 0:05:06.900,0:05:08.680 în câteva moduri profunde. 0:05:09.840,0:05:12.120 Așa că hai să mergem un pic mai departe. 0:05:13.120,0:05:17.856 Eu nu mă tem de crearea[br]unei astfel de inteligențe artificiale 0:05:17.880,0:05:21.696 pentru că în final ea va îngloba[br]câteva dintre valorile noastre. 0:05:21.720,0:05:23.331 Luați în considerare acest lucru: 0:05:23.356,0:05:26.216 construirea unui sistem cognitiv[br]este fundamental diferită 0:05:26.240,0:05:29.536 de construirea unui sistem[br]software-intensiv tradițional, din trecut. 0:05:29.560,0:05:31.016 Nu le programăm. Le învățăm. 0:05:31.040,0:05:33.696 Pentru a învăța un sistem[br]cum să recunoască florile, 0:05:33.720,0:05:36.736 îi arăt mii de flori[br]din diverse tipuri care-mi plac. 0:05:36.760,0:05:39.116 Pentru a învăța un sistem[br]cum să joace un joc... 0:05:39.140,0:05:41.400 Ei bine, eu aș face-o. Și tu la fel. 0:05:42.600,0:05:44.640 Îmi plac florile. Pe bune! 0:05:45.440,0:05:48.296 Ca să înveți un sistem[br]cum se joacă un joc de GO, 0:05:48.320,0:05:50.376 ar trebui să joc mii de partide de GO, 0:05:50.400,0:05:52.356 dar în acest proces aș învăța de asemenea 0:05:52.380,0:05:54.596 cum să discern[br]între un joc bun și unul prost. 0:05:54.620,0:05:58.116 Dacă vreau să creez IA[br]care să ofere asistență juridică, 0:05:58.240,0:06:02.896 o s-o învăț corpusul legislativ,[br]dar în același timp voi integra 0:06:02.920,0:06:06.530 și simțul clemenței și al dreptății[br]ca parte a legii respective. 0:06:06.560,0:06:09.736 În termeni științifici, asta este[br]ceea ce numim adevărul de bază, 0:06:09.760,0:06:13.056 și asta e ce contează cu adevărat:[br]când producem aceste mașinării, 0:06:13.080,0:06:16.496 le învățăm o parte din valorile noastre. 0:06:16.520,0:06:19.656 În acest scop, mă încred[br]în inteligență artificială 0:06:19.680,0:06:23.320 la fel, dacă nu și mai mult[br]decât într-un om care este bine instruit. 0:06:24.080,0:06:27.936 Dar ați putea întreba: ce ne facem [br]cu agenții necinstiți, 0:06:27.960,0:06:31.296 cu anumite ONG-uri bine finanțate? 0:06:31.320,0:06:35.136 Nu mă tem de o inteligență artificială[br]aflată în mâinile unui lup singuratic. 0:06:35.160,0:06:37.586 Cu certitudine, nu ne putem proteja 0:06:37.611,0:06:39.996 împotriva tuturor actelor[br]aleatorii de violență, 0:06:40.020,0:06:42.056 dar realitatea e că un asemenea sistem 0:06:42.080,0:06:44.876 necesită o instruire[br]substanțială și subtilă, 0:06:45.000,0:06:47.296 cu mult peste resursele[br]unui singur individ. 0:06:47.320,0:06:49.320 În plus, înseamnă mult mai mult 0:06:49.380,0:06:51.936 decât să introduci[br]un virus informatic în societate, 0:06:51.976,0:06:55.346 unde apeși pe un buton deodată[br]și se răspândește în milioane de locuri 0:06:55.396,0:06:57.416 și laptopurile explodează pretutindeni. 0:06:57.440,0:07:00.256 Ei bine, acest fel de conținut[br]este mult mai amplu 0:07:00.280,0:07:01.995 și cu siguranță ne așteptam la el. 0:07:02.520,0:07:05.576 Să mă tem că o astfel[br]de inteligență artificială 0:07:05.600,0:07:07.560 ar putea amenința întreaga umanitate? 0:07:08.280,0:07:10.110 Dacă vă uitați la filme 0:07:10.135,0:07:15.856 precum „Matrix”, „Metropolis”[br]„Terminatorul”, seriale ca „Westworld” 0:07:15.880,0:07:18.016 toate vorbesc despre acest tip de teamă. 0:07:18.040,0:07:22.336 Într-adevăr, în cartea „Superinteligență”,[br]filozoful Nick Bostrom 0:07:22.360,0:07:23.896 abordează această temă 0:07:23.920,0:07:27.936 și observă că superinteligența[br]poate fi nu doar periculoasă, 0:07:27.960,0:07:31.816 ci poate reprezenta o amenințare[br]existențială la adresa întregii omeniri. 0:07:31.840,0:07:34.056 Argumentul de bază al Dr. Bostrom 0:07:34.080,0:07:36.816 este că astfel de sisteme vor sfârși 0:07:36.840,0:07:40.096 prin a avea o nestăvilită[br]sete de informație 0:07:40.120,0:07:43.016 așa încât, probabil,[br]vor învăța cum să învețe 0:07:43.040,0:07:45.656 și în final să descopere[br]că pot avea interese 0:07:45.680,0:07:47.976 care sunt contrarii nevoilor umanității. 0:07:48.000,0:07:50.556 Dr. Bostrom are un număr[br]de persoane care-l urmăresc. 0:07:50.580,0:07:54.500 El este sprijinit de persoane[br]ca Elon Musk și Stephen Hawking. 0:07:54.880,0:08:00.176 Cu tot respectul[br]pentru aceste minți luminate, 0:08:00.200,0:08:02.456 cred că greșesc fundamental. 0:08:02.480,0:08:05.552 Există numeroase aspecte de disecat[br]la argumentul Dr. Bostrom 0:08:06.180,0:08:07.916 și nu am timp să le expun pe toate, 0:08:07.940,0:08:10.536 dar foarte pe scurt, [br]luați în considerare asta: 0:08:10.560,0:08:14.296 super cunoașterea este[br]foarte diferită de super acțiunea. 0:08:14.320,0:08:16.716 HAL a fost o amenințare[br]pentru echipajul Discovery 0:08:16.740,0:08:20.656 doar în măsura în care HAL avea comanda[br]tuturor aspectelor legate de Discovery. 0:08:20.680,0:08:23.176 Așa ar trebui să fie [br]și în cazul unei superinteligențe.??? 0:08:23.200,0:08:25.696 ar trebui să stăpânească[br]toată lumea noastră. 0:08:25.720,0:08:28.836 Aceste idei provin de la Skynet [br]din filmul „Terminatorul” 0:08:28.860,0:08:31.816 în care avem o superinteligență[br]care comanda voința umană, 0:08:31.840,0:08:35.696 care controla fiecare dispozitiv[br]aflat în orice colț al lumii. 0:08:35.720,0:08:39.296 Practic vorbind, asta nu se va întâmpla. 0:08:39.320,0:08:42.476 Nu vom construi inteligențe artificiale[br]care să controleze vremea, 0:08:42.500,0:08:43.736 să direcționeze valurile, 0:08:43.760,0:08:47.136 care să ne comande pe noi,[br]oameni capricioși și haotici. 0:08:47.160,0:08:51.056 Și mai mult decât atât, dacă astfel[br]de inteligență artificială ar exista, 0:08:51.080,0:08:54.016 ar trebui să concureze[br]cu economiile oamenilor, 0:08:54.040,0:08:56.560 și astfel să concureze[br]pentru resurse cu noi. 0:08:57.200,0:08:59.680 Și la sfârșit...[br]Nu-i spuneți asta lui Siri... 0:09:00.440,0:09:02.516 Noi putem oricând să-i scoatem din priză. 0:09:02.540,0:09:03.960 (Râsete) 0:09:05.360,0:09:10.336 Suntem într-o incredibilă călătorie[br]de evoluție comună cu mașinăriile noastre. 0:09:10.360,0:09:15.416 Oamenii de azi[br]nu sunt oamenii de mâine. 0:09:15.440,0:09:18.576 Să îți faci griji acum[br]de ascensiunea superinteligenței 0:09:18.600,0:09:21.756 este într-o mulțime de feluri,[br]o periculoasă distragere a atenției, 0:09:21.780,0:09:24.016 deoarece însăși ascensiunea computerelor 0:09:24.040,0:09:27.056 ne aduce o serie de probleme[br]umane și sociale 0:09:27.080,0:09:28.820 la care trebuie să participăm acum. 0:09:29.360,0:09:32.176 Cum să organizez societatea cel mai bine 0:09:32.200,0:09:34.836 când nevoia de munci executate[br]de oameni se diminuează? 0:09:34.860,0:09:38.376 Cum să aduc înțelegere și educație[br]de-a lungul globului 0:09:38.400,0:09:40.576 și totuși să respect[br]diferențele dintre noi? 0:09:40.600,0:09:42.797 Cum aș putea să prelungesc[br]și să îmbunătățesc 0:09:42.822,0:09:44.856 viața prin asistență medicală cognitivă? 0:09:44.880,0:09:49.120 Cum aș putea utiliza informatica[br]pentru a ne ajuta să ajungem la stele? 0:09:49.760,0:09:51.800 Și acesta este lucrul interesant. 0:09:52.400,0:09:54.736 Oportunitățile de a utiliza[br]informatica 0:09:54.760,0:09:57.736 pentru a îmbunătăți cunoașterea umană[br]stă în puterea noastră, 0:09:57.760,0:10:01.320 aici și acum și suntem doar la început. 0:10:02.280,0:10:03.496 Vă mulțumesc foarte mult. 0:10:03.520,0:10:07.806 (Aplauze)