[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.76,0:00:04.60,Default,,0000,0000,0000,,Când eram copil,\Neram tocilar prin chintesență. Dialogue: 0,0:00:05.32,0:00:07.50,Default,,0000,0000,0000,,Cred că și unii dintre voi\Nați fost la fel. Dialogue: 0,0:00:07.52,0:00:08.74,Default,,0000,0000,0000,,(Râsete) Dialogue: 0,0:00:08.76,0:00:11.24,Default,,0000,0000,0000,,Și dumneavoastră domnule,\Ncare ați râs cel mai tare, Dialogue: 0,0:00:11.27,0:00:12.78,Default,,0000,0000,0000,,probabil că încă mai sunteți. Dialogue: 0,0:00:12.80,0:00:14.26,Default,,0000,0000,0000,,(Râsete) Dialogue: 0,0:00:14.28,0:00:17.78,Default,,0000,0000,0000,,Am crescut într-un mic oraș\Nîn câmpiile prăfuite din nordul Texasului, Dialogue: 0,0:00:17.80,0:00:21.14,Default,,0000,0000,0000,,fiu de șerif care a fost fiul unui pastor. Dialogue: 0,0:00:21.16,0:00:23.08,Default,,0000,0000,0000,,A intra în belele nu era o opțiune. Dialogue: 0,0:00:24.04,0:00:27.40,Default,,0000,0000,0000,,Așa că am început să citesc cărți\Ncu calcule ca sursă de distracție. Dialogue: 0,0:00:27.42,0:00:28.86,Default,,0000,0000,0000,,(Râsete) Dialogue: 0,0:00:28.88,0:00:30.58,Default,,0000,0000,0000,,Și tu la fel. Dialogue: 0,0:00:30.60,0:00:34.44,Default,,0000,0000,0000,,Și asta m-a făcut să construiesc un laser\Nși un computer și să modelez rachete, Dialogue: 0,0:00:34.46,0:00:38.06,Default,,0000,0000,0000,,iar apoi să fac combustibil\Npentru rachete în dormitorul meu. Dialogue: 0,0:00:38.06,0:00:44.90,Default,,0000,0000,0000,,Acum, în termeni științifici,\Nnumim asta o idee foarte proastă. Dialogue: 0,0:00:44.92,0:00:45.94,Default,,0000,0000,0000,,(Râsete) Dialogue: 0,0:00:45.98,0:00:49.24,Default,,0000,0000,0000,,Cam pe atunci, „2001: Odiseea spațială”\Na lui Stanley Kubrick Dialogue: 0,0:00:49.24,0:00:51.18,Default,,0000,0000,0000,,apăruse în cinematografe, Dialogue: 0,0:00:51.60,0:00:53.80,Default,,0000,0000,0000,,iar viața mi s-a schimbat\Npentru totdeauna. Dialogue: 0,0:00:54.28,0:00:58.90,Default,,0000,0000,0000,,Am iubit absolut totul legat de acel film,\Nîn special pe HAL 9000. Dialogue: 0,0:00:58.92,0:01:00.98,Default,,0000,0000,0000,,HAL era un computer dotat cu conștiință, Dialogue: 0,0:01:01.00,0:01:03.46,Default,,0000,0000,0000,,conceput pentru a ghida\Nnava spațială Discovery Dialogue: 0,0:01:03.48,0:01:06.02,Default,,0000,0000,0000,,de la Pământ până la Jupiter. Dialogue: 0,0:01:06.04,0:01:08.10,Default,,0000,0000,0000,,HAL avea de asemenea\Nun caracter imperfect, Dialogue: 0,0:01:08.12,0:01:12.40,Default,,0000,0000,0000,,întrucât a ales să prețuiască mai mult \Nmisiunea, în defavoarea vieții umane. Dialogue: 0,0:01:12.84,0:01:14.94,Default,,0000,0000,0000,,HAL a fost un personaj fictiv, Dialogue: 0,0:01:14.96,0:01:16.04,Default,,0000,0000,0000,,dar cu toate acestea, Dialogue: 0,0:01:16.06,0:01:19.74,Default,,0000,0000,0000,,el vorbește despre temerile noastre,\Ntemerile noastre de a fi subjugați Dialogue: 0,0:01:19.76,0:01:22.78,Default,,0000,0000,0000,,de o inteligență artificială\Nfără sentimente, Dialogue: 0,0:01:22.80,0:01:25.06,Default,,0000,0000,0000,,care este indiferentă în fața omenirii. Dialogue: 0,0:01:25.88,0:01:28.46,Default,,0000,0000,0000,,Cred că astfel de temeri sunt nefondate. Dialogue: 0,0:01:28.48,0:01:32.74,Default,,0000,0000,0000,,Într-adevăr, ne aflăm într-un moment\Nremarcabil în istoria omenirii, Dialogue: 0,0:01:32.76,0:01:37.74,Default,,0000,0000,0000,,când, motivați de refuzul de a accepta\Nlimitele corpurilor și minților noastre, Dialogue: 0,0:01:37.76,0:01:43.10,Default,,0000,0000,0000,,construim mașinării de un rafinament\Nși o grație frumoasă și complexă Dialogue: 0,0:01:43.12,0:01:45.18,Default,,0000,0000,0000,,care va extinde cunoașterea umană Dialogue: 0,0:01:45.20,0:01:47.11,Default,,0000,0000,0000,,dincolo de imaginația noastră. Dialogue: 0,0:01:47.11,0:01:50.47,Default,,0000,0000,0000,,După o carieră care mi-a purtat pașii\Nde la Academia Forțelor Aeriene Dialogue: 0,0:01:50.47,0:01:52.60,Default,,0000,0000,0000,,la Space Command în prezent, Dialogue: 0,0:01:52.60,0:01:54.10,Default,,0000,0000,0000,,am devenit inginer de sisteme Dialogue: 0,0:01:54.10,0:01:56.74,Default,,0000,0000,0000,,și recent am fost implicat\Nîntr-o problemă de inginerie Dialogue: 0,0:01:56.76,0:01:59.34,Default,,0000,0000,0000,,în legătură cu misiunea NASA către Marte. Dialogue: 0,0:01:59.36,0:02:01.86,Default,,0000,0000,0000,,În zborurile spațiale către Lună Dialogue: 0,0:02:01.88,0:02:05.12,Default,,0000,0000,0000,,ne putem baza că cei de la controlul\Nmisiunii din Houston Dialogue: 0,0:02:05.14,0:02:07.02,Default,,0000,0000,0000,,urmăresc toate aspectele unui zbor. Dialogue: 0,0:02:07.04,0:02:10.58,Default,,0000,0000,0000,,Însă Marte e de 200 de ori mai departe Dialogue: 0,0:02:10.60,0:02:13.82,Default,,0000,0000,0000,,și în consecință, e nevoie\Nîn medie de 13 minute Dialogue: 0,0:02:13.84,0:02:16.98,Default,,0000,0000,0000,,ca un sunet să parcurgă distanța\Ndintre Pământ și Marte. Dialogue: 0,0:02:17.00,0:02:20.40,Default,,0000,0000,0000,,Dacă apare o problemă,\Nnu există suficient timp. Dialogue: 0,0:02:20.84,0:02:23.34,Default,,0000,0000,0000,,Astfel, o soluție rezonabilă de inginerie Dialogue: 0,0:02:23.36,0:02:28.98,Default,,0000,0000,0000,,ne determină să punem controlul misiunii\Nîntre pereții navetei spațiale Orion. Dialogue: 0,0:02:29.00,0:02:31.90,Default,,0000,0000,0000,,O altă idee fascinantă\Ndin profilul misiunii Dialogue: 0,0:02:31.92,0:02:34.82,Default,,0000,0000,0000,,e plasarea de roboți humanoizi\Npe suprafața planetei Marte Dialogue: 0,0:02:34.84,0:02:36.70,Default,,0000,0000,0000,,înaintea sosirii oamenilor, Dialogue: 0,0:02:36.72,0:02:39.28,Default,,0000,0000,0000,,mai întâi pentru a construi\Nechipamente și instalații Dialogue: 0,0:02:39.30,0:02:42.96,Default,,0000,0000,0000,,și apoi pentru a servi ca membri\Ncolaboratori ai echipei științifice. Dialogue: 0,0:02:43.40,0:02:46.24,Default,,0000,0000,0000,,Pe măsură ce priveam asta\Ndintr-o perspectivă inginerească, Dialogue: 0,0:02:46.26,0:02:49.74,Default,,0000,0000,0000,,devenea foarte clar pentru mine\Ncă ceea ce aveam nevoie să creez Dialogue: 0,0:02:49.76,0:02:51.54,Default,,0000,0000,0000,,era o inteligență artificială Dialogue: 0,0:02:51.56,0:02:54.44,Default,,0000,0000,0000,,abilă, cooperantă și dotată \Ncu inteligență socială. Dialogue: 0,0:02:54.46,0:02:58.26,Default,,0000,0000,0000,,Cu alte cuvinte, aveam nevoie\Nsă construiesc ceva asemănător lui HAL, Dialogue: 0,0:02:58.28,0:03:00.70,Default,,0000,0000,0000,,dar fără tendințele sale ucigătoare. Dialogue: 0,0:03:00.72,0:03:02.08,Default,,0000,0000,0000,,(Râsete) Dialogue: 0,0:03:02.92,0:03:04.74,Default,,0000,0000,0000,,Să facem o mică pauză. Dialogue: 0,0:03:04.76,0:03:08.66,Default,,0000,0000,0000,,Este oare posibil să construim\No asemenea inteligență artificială? Dialogue: 0,0:03:08.68,0:03:10.14,Default,,0000,0000,0000,,De fapt, chiar este. Dialogue: 0,0:03:10.16,0:03:13.42,Default,,0000,0000,0000,,În multe feluri, aceasta este\No problemă grea de inginerie Dialogue: 0,0:03:13.44,0:03:15.38,Default,,0000,0000,0000,,cu elemente de inteligență artificială, Dialogue: 0,0:03:15.38,0:03:19.63,Default,,0000,0000,0000,,și nu o problemă inextricabilă \Nde IA care necesită inginerie.\N Dialogue: 0,0:03:19.65,0:03:22.07,Default,,0000,0000,0000,,Ca să-l parafrazez pe Alan Turing: Dialogue: 0,0:03:22.07,0:03:25.44,Default,,0000,0000,0000,,„Nu sunt interesat să construiesc \No mașinărie dotată cu conștiință”. Dialogue: 0,0:03:25.44,0:03:26.50,Default,,0000,0000,0000,,Nu construiesc un HAL. Dialogue: 0,0:03:26.50,0:03:31.88,Default,,0000,0000,0000,,Tot ce vreau este un creier simplu,\Nceva ce oferă iluzia inteligenței. Dialogue: 0,0:03:33.00,0:03:36.07,Default,,0000,0000,0000,,Arta și știința informatică\Nau parcurs un drum lung Dialogue: 0,0:03:36.07,0:03:37.70,Default,,0000,0000,0000,,de când HAL a fost adus pe ecran Dialogue: 0,0:03:37.70,0:03:41.50,Default,,0000,0000,0000,,și-mi imaginez că dacă inventatorul său,\NDr. Chandra, ar fi fost aici azi, Dialogue: 0,0:03:41.55,0:03:44.05,Default,,0000,0000,0000,,ar fi avut o listă întreagă\Nde întrebări pentru noi. Dialogue: 0,0:03:44.05,0:03:45.68,Default,,0000,0000,0000,,E într-adevăr posibil pentru noi Dialogue: 0,0:03:45.68,0:03:49.32,Default,,0000,0000,0000,,să folosim un sistem de milioane\Nși milioane de dispozitive, Dialogue: 0,0:03:49.44,0:03:51.30,Default,,0000,0000,0000,,ca să citim în fluxurile lor de date, Dialogue: 0,0:03:51.32,0:03:53.78,Default,,0000,0000,0000,,pentru a le prezice erorile\Nși a acționa înainte? Dialogue: 0,0:03:53.80,0:03:54.82,Default,,0000,0000,0000,,Da. Dialogue: 0,0:03:54.84,0:03:58.42,Default,,0000,0000,0000,,Putem construi sisteme care să converseze\Ncu oamenii în limba lor naturală? Dialogue: 0,0:03:58.44,0:03:59.46,Default,,0000,0000,0000,,Da. Dialogue: 0,0:03:59.48,0:04:02.96,Default,,0000,0000,0000,,Putem construi sisteme care să recunoască\Nobiecte, să identifice emoții, Dialogue: 0,0:04:02.98,0:04:06.06,Default,,0000,0000,0000,,să arate emoții, să joace jocuri\Nși chiar să citească de pe buze? Dialogue: 0,0:04:06.08,0:04:07.10,Default,,0000,0000,0000,,Da. Dialogue: 0,0:04:07.12,0:04:09.76,Default,,0000,0000,0000,,Putem construi sisteme\Ncare să stabilească obiective, Dialogue: 0,0:04:09.78,0:04:13.80,Default,,0000,0000,0000,,să realizeze planuri pentru îndeplinirea\Nacestor obiective și să învețe pe parcurs? Dialogue: 0,0:04:13.82,0:04:14.84,Default,,0000,0000,0000,,Da. Dialogue: 0,0:04:14.96,0:04:17.60,Default,,0000,0000,0000,,Putem construi sisteme\Ncare să aibă o gândire empatică? Dialogue: 0,0:04:17.62,0:04:18.72,Default,,0000,0000,0000,,Asta învățăm să facem. Dialogue: 0,0:04:18.74,0:04:22.12,Default,,0000,0000,0000,,Putem construi sisteme care să aibă\No baza etică și morală? Dialogue: 0,0:04:22.48,0:04:24.52,Default,,0000,0000,0000,,Asta trebuie să învățăm cum se face. Dialogue: 0,0:04:25.36,0:04:27.34,Default,,0000,0000,0000,,Așa că haideți să acceptăm pentru moment Dialogue: 0,0:04:27.36,0:04:30.46,Default,,0000,0000,0000,,că este posibil să construim\No astfel de inteligență artificială Dialogue: 0,0:04:30.48,0:04:32.72,Default,,0000,0000,0000,,pentru acest tip de misiuni\Nși pentru altele. Dialogue: 0,0:04:32.74,0:04:35.48,Default,,0000,0000,0000,,Următoarea întrebare\Npe care trebuie să v-o puneți e: Dialogue: 0,0:04:35.50,0:04:37.26,Default,,0000,0000,0000,,ar trebui să ne fie frică de ea? Dialogue: 0,0:04:37.28,0:04:38.84,Default,,0000,0000,0000,,Ei bine, fiecare tehnologie nouă Dialogue: 0,0:04:38.84,0:04:40.97,Default,,0000,0000,0000,,ne dă palpitații\Nîntr-o anumită măsură. Dialogue: 0,0:04:40.97,0:04:43.10,Default,,0000,0000,0000,,Când au apărut \Npentru prima oară automobilele, Dialogue: 0,0:04:43.12,0:04:46.65,Default,,0000,0000,0000,,oamenii s-au lamentat că vom asista\Nla destrămarea familiei. Dialogue: 0,0:04:46.65,0:04:49.26,Default,,0000,0000,0000,,Când au apărut \Npentru prima oară telefoanele, Dialogue: 0,0:04:49.28,0:04:52.58,Default,,0000,0000,0000,,oamenii erau îngrijorați\Ncă vor distruge complet conversația. Dialogue: 0,0:04:52.60,0:04:56.04,Default,,0000,0000,0000,,La un moment dat am văzut\Ncum cuvântul scris a devenit omniprezent, Dialogue: 0,0:04:56.06,0:04:58.93,Default,,0000,0000,0000,,iar oamenii au crezut că vom pierde\Nabilitatea de a memora. Dialogue: 0,0:04:58.93,0:05:01.44,Default,,0000,0000,0000,,Toate acestea sunt adevărate\Npână la un anumit punct, Dialogue: 0,0:05:01.46,0:05:04.18,Default,,0000,0000,0000,,dar de asemenea este adevărat\Nși că aceste tehnologii Dialogue: 0,0:05:04.20,0:05:06.88,Default,,0000,0000,0000,,ne-au adus lucruri care ne-au lărgit\Ncunoașterea umană Dialogue: 0,0:05:06.90,0:05:08.68,Default,,0000,0000,0000,,în câteva moduri profunde. Dialogue: 0,0:05:09.84,0:05:12.12,Default,,0000,0000,0000,,Așa că hai să mergem un pic mai departe. Dialogue: 0,0:05:13.12,0:05:17.86,Default,,0000,0000,0000,,Eu nu mă tem de crearea\Nunei astfel de inteligențe artificiale Dialogue: 0,0:05:17.88,0:05:21.70,Default,,0000,0000,0000,,pentru că în final ea va îngloba\Ncâteva dintre valorile noastre. Dialogue: 0,0:05:21.72,0:05:23.33,Default,,0000,0000,0000,,Luați în considerare acest lucru: Dialogue: 0,0:05:23.36,0:05:26.22,Default,,0000,0000,0000,,construirea unui sistem cognitiv\Neste fundamental diferită Dialogue: 0,0:05:26.24,0:05:29.54,Default,,0000,0000,0000,,de construirea unui sistem\Nsoftware-intensiv tradițional, din trecut. Dialogue: 0,0:05:29.56,0:05:31.02,Default,,0000,0000,0000,,Nu le programăm. Le învățăm. Dialogue: 0,0:05:31.04,0:05:33.70,Default,,0000,0000,0000,,Pentru a învăța un sistem\Ncum să recunoască florile, Dialogue: 0,0:05:33.72,0:05:36.74,Default,,0000,0000,0000,,îi arăt mii de flori\Ndin diverse tipuri care-mi plac. Dialogue: 0,0:05:36.76,0:05:39.12,Default,,0000,0000,0000,,Pentru a învăța un sistem\Ncum să joace un joc... Dialogue: 0,0:05:39.14,0:05:41.40,Default,,0000,0000,0000,,Ei bine, eu aș face-o. Și tu la fel. Dialogue: 0,0:05:42.60,0:05:44.64,Default,,0000,0000,0000,,Îmi plac florile. Pe bune! Dialogue: 0,0:05:45.44,0:05:48.30,Default,,0000,0000,0000,,Ca să înveți un sistem\Ncum se joacă un joc de GO, Dialogue: 0,0:05:48.32,0:05:50.38,Default,,0000,0000,0000,,ar trebui să joc mii de partide de GO, Dialogue: 0,0:05:50.40,0:05:52.36,Default,,0000,0000,0000,,dar în acest proces aș învăța de asemenea Dialogue: 0,0:05:52.38,0:05:54.60,Default,,0000,0000,0000,,cum să discern\Nîntre un joc bun și unul prost. Dialogue: 0,0:05:54.62,0:05:58.12,Default,,0000,0000,0000,,Dacă vreau să creez IA\Ncare să ofere asistență juridică, Dialogue: 0,0:05:58.24,0:06:02.90,Default,,0000,0000,0000,,o s-o învăț corpusul legislativ,\Ndar în același timp voi integra Dialogue: 0,0:06:02.92,0:06:06.53,Default,,0000,0000,0000,,și simțul clemenței și al dreptății\Nca parte a legii respective. Dialogue: 0,0:06:06.56,0:06:09.74,Default,,0000,0000,0000,,În termeni științifici, asta este\Nceea ce numim adevărul de bază, Dialogue: 0,0:06:09.76,0:06:13.06,Default,,0000,0000,0000,,și asta e ce contează cu adevărat:\Ncând producem aceste mașinării, Dialogue: 0,0:06:13.08,0:06:16.50,Default,,0000,0000,0000,,le învățăm o parte din valorile noastre. Dialogue: 0,0:06:16.52,0:06:19.66,Default,,0000,0000,0000,,În acest scop, mă încred\Nîn inteligență artificială Dialogue: 0,0:06:19.68,0:06:23.32,Default,,0000,0000,0000,,la fel, dacă nu și mai mult\Ndecât într-un om care este bine instruit. Dialogue: 0,0:06:24.08,0:06:27.94,Default,,0000,0000,0000,,Dar ați putea întreba: ce ne facem \Ncu agenții necinstiți, Dialogue: 0,0:06:27.96,0:06:31.30,Default,,0000,0000,0000,,cu anumite ONG-uri bine finanțate? Dialogue: 0,0:06:31.32,0:06:35.14,Default,,0000,0000,0000,,Nu mă tem de o inteligență artificială\Naflată în mâinile unui lup singuratic. Dialogue: 0,0:06:35.16,0:06:37.59,Default,,0000,0000,0000,,Cu certitudine, nu ne putem proteja Dialogue: 0,0:06:37.61,0:06:39.100,Default,,0000,0000,0000,,împotriva tuturor actelor\Naleatorii de violență, Dialogue: 0,0:06:40.02,0:06:42.06,Default,,0000,0000,0000,,dar realitatea e că un asemenea sistem Dialogue: 0,0:06:42.08,0:06:44.88,Default,,0000,0000,0000,,necesită o instruire\Nsubstanțială și subtilă, Dialogue: 0,0:06:45.00,0:06:47.30,Default,,0000,0000,0000,,cu mult peste resursele\Nunui singur individ. Dialogue: 0,0:06:47.32,0:06:49.32,Default,,0000,0000,0000,,În plus, înseamnă mult mai mult Dialogue: 0,0:06:49.38,0:06:51.94,Default,,0000,0000,0000,,decât să introduci\Nun virus informatic în societate, Dialogue: 0,0:06:51.98,0:06:55.35,Default,,0000,0000,0000,,unde apeși pe un buton deodată\Nși se răspândește în milioane de locuri Dialogue: 0,0:06:55.40,0:06:57.42,Default,,0000,0000,0000,,și laptopurile explodează pretutindeni. Dialogue: 0,0:06:57.44,0:07:00.26,Default,,0000,0000,0000,,Ei bine, acest fel de conținut\Neste mult mai amplu Dialogue: 0,0:07:00.28,0:07:01.100,Default,,0000,0000,0000,,și cu siguranță ne așteptam la el. Dialogue: 0,0:07:02.52,0:07:05.58,Default,,0000,0000,0000,,Să mă tem că o astfel\Nde inteligență artificială Dialogue: 0,0:07:05.60,0:07:07.56,Default,,0000,0000,0000,,ar putea amenința întreaga umanitate? Dialogue: 0,0:07:08.28,0:07:10.11,Default,,0000,0000,0000,,Dacă vă uitați la filme Dialogue: 0,0:07:10.14,0:07:15.86,Default,,0000,0000,0000,,precum „Matrix”, „Metropolis”\N„Terminatorul”, seriale ca „Westworld” Dialogue: 0,0:07:15.88,0:07:18.02,Default,,0000,0000,0000,,toate vorbesc despre acest tip de teamă. Dialogue: 0,0:07:18.04,0:07:22.34,Default,,0000,0000,0000,,Într-adevăr, în cartea „Superinteligență”,\Nfilozoful Nick Bostrom Dialogue: 0,0:07:22.36,0:07:23.90,Default,,0000,0000,0000,,abordează această temă Dialogue: 0,0:07:23.92,0:07:27.94,Default,,0000,0000,0000,,și observă că superinteligența\Npoate fi nu doar periculoasă, Dialogue: 0,0:07:27.96,0:07:31.82,Default,,0000,0000,0000,,ci poate reprezenta o amenințare\Nexistențială la adresa întregii omeniri. Dialogue: 0,0:07:31.84,0:07:34.06,Default,,0000,0000,0000,,Argumentul de bază al Dr. Bostrom Dialogue: 0,0:07:34.08,0:07:36.82,Default,,0000,0000,0000,,este că astfel de sisteme vor sfârși Dialogue: 0,0:07:36.84,0:07:40.10,Default,,0000,0000,0000,,prin a avea o nestăvilită\Nsete de informație Dialogue: 0,0:07:40.12,0:07:43.02,Default,,0000,0000,0000,,așa încât, probabil,\Nvor învăța cum să învețe Dialogue: 0,0:07:43.04,0:07:45.66,Default,,0000,0000,0000,,și în final să descopere\Ncă pot avea interese Dialogue: 0,0:07:45.68,0:07:47.98,Default,,0000,0000,0000,,care sunt contrarii nevoilor umanității. Dialogue: 0,0:07:48.00,0:07:50.56,Default,,0000,0000,0000,,Dr. Bostrom are un număr\Nde persoane care-l urmăresc. Dialogue: 0,0:07:50.58,0:07:54.50,Default,,0000,0000,0000,,El este sprijinit de persoane\Nca Elon Musk și Stephen Hawking. Dialogue: 0,0:07:54.88,0:08:00.18,Default,,0000,0000,0000,,Cu tot respectul\Npentru aceste minți luminate, Dialogue: 0,0:08:00.20,0:08:02.46,Default,,0000,0000,0000,,cred că greșesc fundamental. Dialogue: 0,0:08:02.48,0:08:05.55,Default,,0000,0000,0000,,Există numeroase aspecte de disecat\Nla argumentul Dr. Bostrom Dialogue: 0,0:08:06.18,0:08:07.92,Default,,0000,0000,0000,,și nu am timp să le expun pe toate, Dialogue: 0,0:08:07.94,0:08:10.54,Default,,0000,0000,0000,,dar foarte pe scurt, \Nluați în considerare asta: Dialogue: 0,0:08:10.56,0:08:14.30,Default,,0000,0000,0000,,super cunoașterea este\Nfoarte diferită de super acțiunea. Dialogue: 0,0:08:14.32,0:08:16.72,Default,,0000,0000,0000,,HAL a fost o amenințare\Npentru echipajul Discovery Dialogue: 0,0:08:16.74,0:08:20.66,Default,,0000,0000,0000,,doar în măsura în care HAL avea comanda\Ntuturor aspectelor legate de Discovery. Dialogue: 0,0:08:20.68,0:08:23.18,Default,,0000,0000,0000,,Așa ar trebui să fie \Nși în cazul unei superinteligențe.??? Dialogue: 0,0:08:23.20,0:08:25.70,Default,,0000,0000,0000,,ar trebui să stăpânească\Ntoată lumea noastră. Dialogue: 0,0:08:25.72,0:08:28.84,Default,,0000,0000,0000,,Aceste idei provin de la Skynet \Ndin filmul „Terminatorul” Dialogue: 0,0:08:28.86,0:08:31.82,Default,,0000,0000,0000,,în care avem o superinteligență\Ncare comanda voința umană, Dialogue: 0,0:08:31.84,0:08:35.70,Default,,0000,0000,0000,,care controla fiecare dispozitiv\Naflat în orice colț al lumii. Dialogue: 0,0:08:35.72,0:08:39.30,Default,,0000,0000,0000,,Practic vorbind, asta nu se va întâmpla. Dialogue: 0,0:08:39.32,0:08:42.48,Default,,0000,0000,0000,,Nu vom construi inteligențe artificiale\Ncare să controleze vremea, Dialogue: 0,0:08:42.50,0:08:43.74,Default,,0000,0000,0000,,să direcționeze valurile, Dialogue: 0,0:08:43.76,0:08:47.14,Default,,0000,0000,0000,,care să ne comande pe noi,\Noameni capricioși și haotici. Dialogue: 0,0:08:47.16,0:08:51.06,Default,,0000,0000,0000,,Și mai mult decât atât, dacă astfel\Nde inteligență artificială ar exista, Dialogue: 0,0:08:51.08,0:08:54.02,Default,,0000,0000,0000,,ar trebui să concureze\Ncu economiile oamenilor, Dialogue: 0,0:08:54.04,0:08:56.56,Default,,0000,0000,0000,,și astfel să concureze\Npentru resurse cu noi. Dialogue: 0,0:08:57.20,0:08:59.68,Default,,0000,0000,0000,,Și la sfârșit...\NNu-i spuneți asta lui Siri... Dialogue: 0,0:09:00.44,0:09:02.52,Default,,0000,0000,0000,,Noi putem oricând să-i scoatem din priză. Dialogue: 0,0:09:02.54,0:09:03.96,Default,,0000,0000,0000,,(Râsete) Dialogue: 0,0:09:05.36,0:09:10.34,Default,,0000,0000,0000,,Suntem într-o incredibilă călătorie\Nde evoluție comună cu mașinăriile noastre. Dialogue: 0,0:09:10.36,0:09:15.42,Default,,0000,0000,0000,,Oamenii de azi\Nnu sunt oamenii de mâine. Dialogue: 0,0:09:15.44,0:09:18.58,Default,,0000,0000,0000,,Să îți faci griji acum\Nde ascensiunea superinteligenței Dialogue: 0,0:09:18.60,0:09:21.76,Default,,0000,0000,0000,,este într-o mulțime de feluri,\No periculoasă distragere a atenției, Dialogue: 0,0:09:21.78,0:09:24.02,Default,,0000,0000,0000,,deoarece însăși ascensiunea computerelor Dialogue: 0,0:09:24.04,0:09:27.06,Default,,0000,0000,0000,,ne aduce o serie de probleme\Numane și sociale Dialogue: 0,0:09:27.08,0:09:28.82,Default,,0000,0000,0000,,la care trebuie să participăm acum. Dialogue: 0,0:09:29.36,0:09:32.18,Default,,0000,0000,0000,,Cum să organizez societatea cel mai bine Dialogue: 0,0:09:32.20,0:09:34.84,Default,,0000,0000,0000,,când nevoia de munci executate\Nde oameni se diminuează? Dialogue: 0,0:09:34.86,0:09:38.38,Default,,0000,0000,0000,,Cum să aduc înțelegere și educație\Nde-a lungul globului Dialogue: 0,0:09:38.40,0:09:40.58,Default,,0000,0000,0000,,și totuși să respect\Ndiferențele dintre noi? Dialogue: 0,0:09:40.60,0:09:42.80,Default,,0000,0000,0000,,Cum aș putea să prelungesc\Nși să îmbunătățesc Dialogue: 0,0:09:42.82,0:09:44.86,Default,,0000,0000,0000,,viața prin asistență medicală cognitivă? Dialogue: 0,0:09:44.88,0:09:49.12,Default,,0000,0000,0000,,Cum aș putea utiliza informatica\Npentru a ne ajuta să ajungem la stele? Dialogue: 0,0:09:49.76,0:09:51.80,Default,,0000,0000,0000,,Și acesta este lucrul interesant. Dialogue: 0,0:09:52.40,0:09:54.74,Default,,0000,0000,0000,,Oportunitățile de a utiliza\Ninformatica Dialogue: 0,0:09:54.76,0:09:57.74,Default,,0000,0000,0000,,pentru a îmbunătăți cunoașterea umană\Nstă în puterea noastră, Dialogue: 0,0:09:57.76,0:10:01.32,Default,,0000,0000,0000,,aici și acum și suntem doar la început. Dialogue: 0,0:10:02.28,0:10:03.50,Default,,0000,0000,0000,,Vă mulțumesc foarte mult. Dialogue: 0,0:10:03.52,0:10:07.81,Default,,0000,0000,0000,,(Aplauze)