0:00:00.760,0:00:04.600 Kad sam bio klinac,[br]bio sam onaj pravi štreber. 0:00:05.320,0:00:07.496 MIslim kako su i neki od vas bili, [br]također. 0:00:07.520,0:00:08.736 (Smijeh) 0:00:08.760,0:00:11.976 A vi, gospodine, koji ste se najglasnije [br]nasmijali,vjerojatno to i dalje jeste. 0:00:12.000,0:00:14.256 (Smijeh) 0:00:14.280,0:00:17.776 Odrastao sam u malenom gradu[br]na prašnjavim ravnicama sjevernog Teksasa, 0:00:17.800,0:00:21.136 sin šerifa [br]koji je bio sin pastora. 0:00:21.160,0:00:23.080 Upadanje u nevolje nije bila mogućnost. 0:00:24.040,0:00:27.296 I tako sam počeo čitati[br]knjige iz (*infinitezimalnog) računa za zabavu. 0:00:27.320,0:00:28.856 (Smijeh) 0:00:28.880,0:00:30.576 I vi ste, također. 0:00:30.600,0:00:34.336 To me dovelo do izgradnje lasera[br]i računala i modelarskih raketa, 0:00:34.360,0:00:37.360 a to me dovelo do izrade[br]raketnog goriva u mojoj spavaćoj sobi. 0:00:37.960,0:00:41.616 Sad, u znanstvenim terminima, 0:00:41.640,0:00:44.896 to nazivamo vrlo lošom idejom. 0:00:44.920,0:00:46.136 (Smijeh) 0:00:46.160,0:00:48.336 Nekako oko tog doba, 0:00:48.360,0:00:51.576 Kubrick-ova "2001: Odiseja u Svemiru"[br]je došla u kina, 0:00:51.600,0:00:53.800 i moj se život zauvijek promijenio. 0:00:54.280,0:00:56.336 Volio sam sve oko tog filma, 0:00:56.360,0:00:58.896 posebno HAL 9000. 0:00:58.920,0:01:00.976 Sad, HAL je bio svjesno računalo 0:01:01.000,0:01:03.456 osmišljeno da vodi svemirsku [br]letjelicu Discovery 0:01:03.480,0:01:06.016 od Zemlje do Jupitera. 0:01:06.040,0:01:08.096 HAL je također bio manjkav lik, 0:01:08.120,0:01:12.400 jer je na kraju birao vrednovati[br]misiju više od ljudskog života. 0:01:12.840,0:01:14.936 Sad, HAL je bio izmišljeni lik, 0:01:14.960,0:01:17.616 ali ipak se obraćao našim strahovima, 0:01:17.640,0:01:19.736 našim strahovima o bivanju podčinjenim 0:01:19.760,0:01:22.776 od strane neke[br]bezosjećajne, umjetne inteligencije 0:01:22.800,0:01:24.760 koja je ravnodušna spram naše ljudskosti. 0:01:25.880,0:01:28.456 Vjerujem kako su takvi strahovi [br]neutemeljeni. 0:01:28.480,0:01:31.176 Zbilja, stojimo na upečatljivom mjestu 0:01:31.200,0:01:32.736 u ljudskoj povijesti, 0:01:32.760,0:01:37.736 gdje, potaknuti odbijanjem prihvaćanja[br]granica naših tijela i naših umova, 0:01:37.760,0:01:39.456 gradimo strojeve, 0:01:39.480,0:01:43.096 fine, prekrasne[br]složenosti i ljepote 0:01:43.120,0:01:45.176 koji će proširiti ljudsko iskustvo 0:01:45.200,0:01:46.880 na načine onkraj naše mašte. 0:01:47.720,0:01:50.296 Nakon karijere koja me vodila[br]od Akademije zračnih snaga 0:01:50.320,0:01:52.256 preko Svemirskog zapovjedništva do sada, 0:01:52.280,0:01:53.976 postao sam sistemski inženjer, 0:01:54.000,0:01:56.736 i nedavno sam uvučen[br]u inženjerski problem 0:01:56.760,0:01:59.336 vezan uz NASA-inu misiju na Mars. 0:01:59.360,0:02:01.856 Sad, u svemirskim letovima do Mjeseca, 0:02:01.880,0:02:05.016 možemo se osloniti[br]na kontrolu misije u Houstonu 0:02:05.040,0:02:07.016 kako će paziti na sve aspekte leta. 0:02:07.040,0:02:10.576 Međutim, Mars je 200 puta udaljeniji, 0:02:10.600,0:02:13.816 te kao rezultat treba[br]prosječno 13 minuta 0:02:13.840,0:02:16.976 signalu da otputuje[br]od Zemlje do Marsa. 0:02:17.000,0:02:20.400 Ako ima nevolje,[br]nema dovoljno vremena. 0:02:20.840,0:02:23.336 I tako razumno inženjersko rješenje 0:02:23.360,0:02:25.936 kaže nam neka stavimo kontrolu misije 0:02:25.960,0:02:28.976 unutar zidova svemirske letjelice Orion. 0:02:29.000,0:02:31.896 Druga očaravajuća ideja[br]u profilu misije 0:02:31.920,0:02:34.816 stavlja humanoidne robote[br]na površinu Marsa 0:02:34.840,0:02:36.696 prije nego sami ljudi doputuju, 0:02:36.720,0:02:38.376 prvo kako bi sagradili postrojenja 0:02:38.400,0:02:41.760 a kasnije kako bi služili kao[br]pomoćni članovi znanstvenog tima. 0:02:43.400,0:02:46.136 Sad, kad sam gledao na ovo[br]iz inženjerskog kuta, 0:02:46.160,0:02:49.336 postalo mi je vrlo jasno[br]kako je ono što trebam osmisliti 0:02:49.360,0:02:51.536 bila pametna, uslužna, 0:02:51.560,0:02:53.936 društveno inteligentna[br]umjetna inteligencija. 0:02:53.960,0:02:58.256 Drugim riječima, trebao sam složiti[br]nešto vrlo slično HAL-u 0:02:58.280,0:03:00.696 ali bez ubilačkih sklonosti. 0:03:00.720,0:03:02.080 (Smijeh) 0:03:02.920,0:03:04.736 Zaustavimo se na trenutak. 0:03:04.760,0:03:08.656 Je li stvarno moguće sagraditi[br]umjetnu inteligenciju poput ove? 0:03:08.680,0:03:10.136 Zapravo, jest. 0:03:10.160,0:03:11.416 Na puno načina, 0:03:11.440,0:03:13.416 ovo je tvrdi inženjerski problem 0:03:13.440,0:03:14.896 s elementima UI, 0:03:14.920,0:03:19.616 ne neki UI problem mokre lopte kose[br]kojeg treba osmisliti. 0:03:19.640,0:03:22.296 Da parafraziram Alana Turinga: 0:03:22.320,0:03:24.696 Ne zanima me[br]izgradnja svjesnog stroja. 0:03:24.720,0:03:26.296 Ne gradim HAL-a. 0:03:26.320,0:03:28.736 Sve za čime idem je[br]jednostavan mozak, 0:03:28.760,0:03:31.880 nešto što nudi privid inteligencije. 0:03:33.000,0:03:36.136 Umjetnost i znanost računarstva[br]je prošla dalek put 0:03:36.160,0:03:37.656 otkad je HAL bio na ekranu, 0:03:37.680,0:03:40.896 i mogu zamisliti kad bi njegov izumitelj[br]dr. Chandra bio ovdje danas,[br] 0:03:40.920,0:03:43.256 imao bi cijeli niz pitanja za nas. 0:03:43.280,0:03:45.376 Je li nam zbilja moguće 0:03:45.400,0:03:49.416 uzeti sustav od milijuna[br]i milijuna uređaja, 0:03:49.440,0:03:50.896 čitati njihove tokove podataka, 0:03:50.920,0:03:53.176 predviđati njihove kvarove[br]te djelovati unaprijed? 0:03:53.200,0:03:54.416 Da. 0:03:54.440,0:03:57.616 Možemo li graditi sustave koji[br]razgovaraju s ljudima prirodnim jezikom? 0:03:57.640,0:03:58.856 Da. 0:03:58.880,0:04:01.856 Možemo li graditi sustave[br]koji prepoznaju objekte, identificiraju osjećaje, 0:04:01.880,0:04:05.256 sami izražavaju emocije,[br]igraju igre i čak čitaju s usana? 0:04:05.280,0:04:06.496 Da. 0:04:06.520,0:04:08.656 Možemo li sagraditi sustav[br]koji postavlja ciljeve, 0:04:08.680,0:04:12.296 potom izvršava planove[br]prema tim ciljevima te usput uči? 0:04:12.320,0:04:13.536 Da. 0:04:13.560,0:04:16.896 Možemo li sagraditi sustave[br]koji imaju teoriju uma? 0:04:16.920,0:04:18.416 To upravo učimo. 0:04:18.440,0:04:21.920 Možemo li sagraditi sustave[br]koji imaju etičke i moralne temelje? 0:04:22.480,0:04:24.520 Ovo moramo naučiti kako. 0:04:25.360,0:04:26.736 Pa prihvatimo na trenutak 0:04:26.760,0:04:29.656 kako je moguće sagraditi[br]takvu umjetnu inteligenciju 0:04:29.680,0:04:31.816 za ovu vrstu misije i slično. 0:04:31.840,0:04:34.376 Slijedeće pitanje[br]koje biste se trebali pitati je, 0:04:34.400,0:04:35.856 bismo li je se trebali bojati? 0:04:35.880,0:04:37.856 Sad, svaka nova tehnologija 0:04:37.880,0:04:40.776 sa sobom donosi[br]neku mjeru strepnje. 0:04:40.800,0:04:42.496 Kad smo prvo vidjeli aute, 0:04:42.520,0:04:46.536 ljudi su se žalili kako ćemo vidjeti[br]uništenje obitelji. 0:04:46.560,0:04:49.256 Kad smo prvo vidjeli telefone kako dolaze, 0:04:49.280,0:04:52.176 ljudi su brinuli kako će uništiti[br]sav uljudan razgovor. 0:04:52.200,0:04:56.136 U točci vremena kad smo vidjeli[br]kako pisana riječ sve više prožima, 0:04:56.160,0:04:58.656 ljudi su mislili kako ćemo izgubiti[br]našu sposobnost pamćenja. 0:04:58.680,0:05:00.736 Sve su te stvari točne do nekog stupnja, 0:05:00.760,0:05:03.176 ali je također slučaj[br]kako su nam te tehnologije 0:05:03.200,0:05:06.576 dovele stvari koje su[br]proširile ljudsko iskustvo 0:05:06.600,0:05:08.480 na neke duboke načine. 0:05:09.840,0:05:12.120 Pa hajdemo s ovim još malo dalje. 0:05:13.120,0:05:17.856 Ne bojim se[br]stvaranje UI poput ove, 0:05:17.880,0:05:21.696 jer će s vremenom[br]utjeloviti neke od naših vrijednosti. 0:05:21.720,0:05:25.216 Uzmite u obzir ovo: izgradnja[br]spoznajnog sustava je iz temelja različita 0:05:25.240,0:05:28.536 od izgradnje tradicionalnog softverski [br]intenzivnog sustava u prošlosti. 0:05:28.560,0:05:31.016 Ne programiramo ih. Učimo ih. 0:05:31.040,0:05:33.696 Kako bismo sustav naučili[br]prepoznavati cvijeće, 0:05:33.720,0:05:36.736 pokazujem mu tisuće vrsta cvjetova[br]koje mi se sviđaju. 0:05:36.760,0:05:39.016 Kako bismo sustav naučili[br]igrati igru -- 0:05:39.040,0:05:41.000 Dobro, ja bih. I vi bi. 0:05:42.600,0:05:44.640 Sviđa mi se cvijeće. Hajde. 0:05:45.440,0:05:48.296 Naučiti sustav kako[br]igrati igru kakva je Go, 0:05:48.320,0:05:50.376 pustit ću ga neka odigra [br]tisuće partija Go-a, 0:05:50.400,0:05:52.056 ali ću ga u postupku[br]također naučiti i 0:05:52.080,0:05:54.496 kako razaznati[br]dobru partiju od loše partije. 0:05:54.520,0:05:58.216 Ako želim stvoriti umjetno[br]inteligentnog pravnog savjetnika, 0:05:58.240,0:06:00.016 naučit ću ga neki korpus zakona 0:06:00.040,0:06:02.896 ali ću u isto vrijeme spojiti s njim 0:06:02.920,0:06:05.800 osjećaj milosti i pravde[br]koji je dio tog zakona. 0:06:06.560,0:06:09.536 Znanstvenim rječnikom, to je[br]ono što zovemo neposredna informacija, 0:06:09.560,0:06:11.576 a evo važnog momenta: 0:06:11.600,0:06:13.056 u stvaranju svih tih strojeva, 0:06:13.080,0:06:16.496 mi ih dakle učimo[br]smislu naših vrijednosti. 0:06:16.520,0:06:19.656 Stoga, vjerujem[br]umjetnoj inteligenciji 0:06:19.680,0:06:23.320 isto, ako ne i više,[br]koliko i čovjeku koji je dobro obučen. 0:06:24.080,0:06:25.296 Ali, možete pitati, 0:06:25.320,0:06:27.936 što sa nevaljalim igračima, 0:06:27.960,0:06:31.296 nekom dobro financiranom[br]nevladinom organizacijom? 0:06:31.320,0:06:35.136 Ne bojim se umjetne inteligencije[br]u rukama vuka samotnjaka. 0:06:35.160,0:06:39.696 Jasno, ne možemo se zaštititi[br]od svih nasumičnih činova nasilja, 0:06:39.720,0:06:41.856 ali stvarnost je da takav sustav 0:06:41.880,0:06:44.976 traži znatnu obuku[br]i finu obuku 0:06:45.000,0:06:47.296 daleko onkraj resursa pojedinca. 0:06:47.320,0:06:48.536 I nadalje, 0:06:48.560,0:06:51.816 to je daleko više nego[br]samo ubaciti internetski virus u svijet, 0:06:51.840,0:06:54.936 gdje pritisnete tipku,[br]odjednom je na milijun mjesta 0:06:54.960,0:06:57.416 i laptopi posvuda[br]krenu eksplodirati. 0:06:57.440,0:07:00.256 Sad, ove su vrste stvari[br]puno veće, 0:07:00.280,0:07:01.995 i sigurno ćemo ih vidjeti kako dolaze. 0:07:02.520,0:07:05.576 Bojim li se kako bi takva [br]umjetna inteligencija 0:07:05.600,0:07:07.560 mogla zaprijetiti cijelom čovječanstvu? 0:07:08.280,0:07:12.656 Ako pogledate filmove[br]kao što su "Matrix" ili "Metropolis," 0:07:12.680,0:07:15.856 "Terminator,"[br]serije kao što je "Westworld," 0:07:15.880,0:07:18.016 svi oni pričaju o ovom tipu straha. 0:07:18.040,0:07:22.336 Zbilja, u knjizi "Superinteligencija"[br]filozofa Nicka Bostroma, 0:07:22.360,0:07:23.896 on polazi od ove teme 0:07:23.920,0:07:27.936 te uočava kako superinteligencija[br]može biti ne samo opasna, 0:07:27.960,0:07:31.816 mogla bi predstavljati egzistencijalnu [br]opasnost svom čovječanstvu. 0:07:31.840,0:07:34.056 Dr. Bostromov temeljni argument 0:07:34.080,0:07:36.816 je kako će takvi sustavi s vremenom 0:07:36.840,0:07:40.096 imati tako neutaživu žeđ[br]za informacijom 0:07:40.120,0:07:43.016 da će možda naučiti kako učiti 0:07:43.040,0:07:45.656 te s vremenom otkriti[br]kako mogu imati ciljeve 0:07:45.680,0:07:47.976 koji su suprotni ljudskim potrebama. 0:07:48.000,0:07:49.856 Dr. Bostrom ima neki broj sljedbenika. 0:07:49.880,0:07:54.200 Podržavaju ga ljudi[br]poput Elona Muska i Stephena Hawkinga. 0:07:54.880,0:07:57.280 Sa svim dužnim poštovanjem 0:07:58.160,0:08:00.176 prema tim briljantnim umovima, 0:08:00.200,0:08:02.456 vjerujem kako su oni[br]iz temelja u krivu. 0:08:02.480,0:08:05.656 Sad, ima puno dijelova[br]dr. Bostromovog argumenta za maknuti, 0:08:05.680,0:08:07.816 a nemam vremena kako bih ih maknuo sve, 0:08:07.840,0:08:10.536 ali vrlo kratko, razmislite o ovome: 0:08:10.560,0:08:14.296 super znanje je vrlo različito[br]od super djelovanja. 0:08:14.320,0:08:16.216 HAL je bio prijetnja posadi Discoveryja 0:08:16.240,0:08:20.656 samo stoga što je HAL[br]upravljao svime u Discoveryju. 0:08:20.680,0:08:23.176 Tako bi trebalo biti[br]i sa superinteligencijom. 0:08:23.200,0:08:25.696 Morala bi imati vlast[br]nad cijelim našim svijetom. 0:08:25.720,0:08:28.536 Tako je sastavljen Skynet[br]iz filma "Terminator" 0:08:28.560,0:08:30.416 u kojem smo imali superinteligenciju 0:08:30.440,0:08:31.816 koja je upravljala ljudskom voljom, 0:08:31.840,0:08:35.696 koja je vodila svaki uređaj[br]koji je bio u svakom kutku svijeta. 0:08:35.720,0:08:37.176 Praktično govoreći, 0:08:37.200,0:08:39.296 to se neće dogoditi. 0:08:39.320,0:08:42.376 Ne gradimo UI-e[br]koji kontroliraju vrijeme, 0:08:42.400,0:08:43.736 koji upravljaju plimom, 0:08:43.760,0:08:47.136 koji upravljaju nama[br]jogunastima, kaotičnim ljudima. 0:08:47.160,0:08:51.056 I nadalje, ako bi takva[br]umjetna superinteligencija postojala, 0:08:51.080,0:08:54.016 morala bi se nadmetati[br]sa ljudskim ekonomijama, 0:08:54.040,0:08:56.560 i time se nadmetati za resurse sa nama. 0:08:57.200,0:08:58.416 I na kraju -- 0:08:58.440,0:08:59.680 nemojte reći Siri ovo -- 0:09:00.440,0:09:01.816 uvijek ih možemo ištekati. 0:09:01.840,0:09:03.960 (Smijeh) 0:09:05.360,0:09:07.816 Mi smo na nevjerojatnom putovanju 0:09:07.840,0:09:10.336 koevolucije sa našim strojevima. 0:09:10.360,0:09:12.856 Ljudi koji smo danas 0:09:12.880,0:09:15.416 nisu ljudi koji ćemo biti tada. 0:09:15.440,0:09:18.576 Brinuti sada o usponu[br]superinteligencije 0:09:18.600,0:09:21.656 je na puno načina[br]opasno odvraćanje pažnje 0:09:21.680,0:09:24.016 stoga što nam već uspon računarstva sam 0:09:24.040,0:09:27.056 donosi brojna[br]ljudska i društvena pitanja 0:09:27.080,0:09:28.720 kojima se moramo pozabaviti sada. 0:09:29.360,0:09:32.176 Kako ću najbolje organizirati društvo 0:09:32.200,0:09:34.536 kad se potreba za radom smanji? 0:09:34.560,0:09:38.376 Kako mogu donijeti razumijevanje[br]i obrazovanje širom svijeta 0:09:38.400,0:09:40.176 a i dalje uvažavati razlike? 0:09:40.200,0:09:44.456 Kako mogu produljiti i poboljšati ljudski [br]život kroz kognitivnu zdravstvenu skrb? 0:09:44.480,0:09:47.336 Kako mogu koristiti računarstvo 0:09:47.360,0:09:49.120 za pomoć kako bi došli do zvijezda? 0:09:49.760,0:09:51.800 A to je uzbudljiva stvar. 0:09:52.400,0:09:54.736 Prilike za korištenje računarstva 0:09:54.760,0:09:56.296 kako bi unaprijedili ljudsko iskustvo 0:09:56.320,0:09:57.736 su nam unutar dosega, 0:09:57.760,0:09:59.616 sada i ovdje, 0:09:59.640,0:10:01.320 a tek smo na početku. 0:10:02.280,0:10:03.496 Hvala vam puno. 0:10:03.520,0:10:07.806 (Pljesak)