0:00:01.000,0:00:03.216 Pričat ću vam[br]o neuspjehu intuicije 0:00:03.240,0:00:04.840 koji pogađa brojne među nama. 0:00:05.480,0:00:08.520 To je zapravo neuspjeh[br]uočavanja određene vrste opasnosti. 0:00:09.360,0:00:11.096 Opisat ću scenarij 0:00:11.120,0:00:14.376 za koji smatram kako je jednako zastrašujuć 0:00:14.400,0:00:16.160 koliko i vjerojatan da se dogodi, 0:00:16.840,0:00:18.496 a to nije dobra kombinacija, 0:00:18.520,0:00:20.056 kako se ispostavlja. 0:00:20.080,0:00:22.536 A ipak umjesto da budete prestrašeni,[br]većina će vas osjećati 0:00:22.560,0:00:24.640 kako je ono o čemu govorim[br]nekako fora. 0:00:25.200,0:00:28.176 Opisat ću kako bi nas[br]dobici koje stvaramo 0:00:28.200,0:00:29.976 u umjetnoj inteligenciji (dalje: AI) 0:00:30.000,0:00:31.776 na kraju mogli uništiti. 0:00:31.800,0:00:35.256 I zapravo, mislim ako je jako teško[br]vidjeti kako nas oni neće uništiti 0:00:35.280,0:00:36.960 ili nas nadahnuti da se sami uništimo. 0:00:37.400,0:00:39.256 Pa ipak ako ste imalo poput mene, 0:00:39.280,0:00:41.936 naći ćete kako je zabavno[br]razmišljati o ovim stvarima. 0:00:41.960,0:00:45.336 A taj je odgovor dio problema. 0:00:45.360,0:00:47.080 Ok? Taj bi vas odgovor trebao brinuti. 0:00:47.920,0:00:50.576 A ako bih vas uvjeravao[br]ovim govorom 0:00:50.600,0:00:54.016 kako ćemo vjerojatno[br]doživjeti globalnu glad, 0:00:54.040,0:00:57.096 bilo zbog klimatskih promjena[br]ili neke druge katastrofe, 0:00:57.120,0:01:00.536 te kako će vaši unuci,[br]ili njihovi unuci, 0:01:00.560,0:01:02.360 vrlo vjerojatno živjeti ovako, 0:01:03.200,0:01:04.400 ne biste mislili: 0:01:05.440,0:01:06.776 "Zanimljivo. 0:01:06.800,0:01:08.000 Sviđa mi se ovaj TED govor." 0:01:09.200,0:01:10.720 Glad nije zabavna. 0:01:11.800,0:01:15.176 Smrt znanstvenom fantastikom,[br]s druge strane, jest zabavna, 0:01:15.200,0:01:19.176 a jedna od stvari koje me najviše brinu[br]oko razvoja AI u ovom trenutku 0:01:19.200,0:01:23.296 je kako se činimo nesposobnim[br]stvoriti prikladan emotivni odgovor 0:01:23.320,0:01:25.136 na opasnosti pred kojima se nalazimo. 0:01:25.160,0:01:28.360 Ja sam nesposoban stvorti taj odgovor,[br]a držim ovaj govor. 0:01:30.120,0:01:32.816 Ovo je kao da stojimo[br]pred dvama vratima. 0:01:32.840,0:01:34.096 Iza vrata broj jedan, 0:01:34.120,0:01:37.416 prestanemo stvarati napredak[br]u izgradnji inteligentnih strojeva. 0:01:37.440,0:01:41.456 Hardver se i softver naših računala[br]samo iz nekog razloga prestane poboljšavati. 0:01:41.480,0:01:44.480 Sad uzmite trenutak,[br]razmislite zašto bi se to moglo dogoditi. 0:01:45.080,0:01:48.736 MIslim, uzevši kako su vrijedne[br]inteligencija i automatizacija, 0:01:48.760,0:01:52.280 nastavit ćemo unaprijeđivati tehnologiju[br]ako smo to ikako sposobni. 0:01:53.200,0:01:54.867 Što bi nas moglo zaustaviti u tome? 0:01:55.800,0:01:57.600 Potpuni nuklearni rat? 0:01:59.000,0:02:00.560 Globalna pandemija? 0:02:02.320,0:02:03.640 Udar asteroida? 0:02:05.640,0:02:08.216 Da Justin Bieber postane[br]predsjednik Sjedinjenih država? 0:02:08.240,0:02:10.520 (Smijeh) 0:02:12.760,0:02:16.680 Poanta je, nešto bi moralo[br]uništiti civilizaciju kakvu znamo. 0:02:17.360,0:02:21.656 Morate zamisliti[br]kako bi loše to moralo biti 0:02:21.680,0:02:25.016 da nas spriječi od pravljenja[br]poboljšanja u našoj tehnologiji 0:02:25.040,0:02:26.256 trajno, 0:02:26.280,0:02:28.296 generaciju za generacijom. 0:02:28.320,0:02:30.456 Skoro po definiciji,[br]to je najgora stvar 0:02:30.480,0:02:32.496 koja se ikad dogodila u ljudskoj povijesti. 0:02:32.520,0:02:33.816 Dakle jedina alternativa, 0:02:33.840,0:02:36.176 a to je ono što leži[br]iza vrata broj dva,[br] 0:02:36.200,0:02:39.336 je da nastavimo poboljšavati[br]naše inteligentne strojeve 0:02:39.360,0:02:40.960 godinu za godinom za godinom. 0:02:41.720,0:02:45.360 U nekom trenutku, sagradit ćemo[br]strojeve koji su pametniji od nas, 0:02:46.080,0:02:48.696 a jednom kad imamo strojeve[br]koji su pametniji od nas, 0:02:48.720,0:02:50.696 oni će početi poboljšavati sami sebe. 0:02:50.720,0:02:53.456 A tada risikiramo što je[br]matematičar I.J. Good nazvao 0:02:53.480,0:02:55.256 "eksplozijom inteligencije," 0:02:55.280,0:02:57.280 da bi nam se proces mogao izmaknuti. 0:02:58.120,0:03:00.936 Sad, to je često karikirano,[br]kako imam ovdje, 0:03:00.960,0:03:04.176 kao strah da će[br]vojske zloćudnih robota 0:03:04.200,0:03:05.456 udariti na nas. 0:03:05.480,0:03:08.176 Ali to nije najvjerojatniji scenarij. 0:03:08.200,0:03:13.056 Nije da će naši strojevi[br]spontano postati zloćudnim. 0:03:13.080,0:03:15.696 Zapravo je briga[br]kako ćemo izraditi strojeve 0:03:15.720,0:03:17.776 koji su toliko[br]sposobniji od nas 0:03:17.800,0:03:21.576 da bi nas najmanje razmimoilaženje[br]između njihovih i naših ciljeva 0:03:21.600,0:03:22.800 moglo uništiti. 0:03:23.960,0:03:26.040 Samo pomislite kako se odnosimo prema mravima. 0:03:26.600,0:03:28.256 Ne mrzimo ih. 0:03:28.280,0:03:30.336 Ne silazimo sa svog puta[br]kako bismo im naudili. 0:03:30.360,0:03:32.736 Zapravo, ponekad[br]se baš i trudimo kako im ne bismo naudili. 0:03:32.760,0:03:34.776 Prekoračimo ih na pločniku. 0:03:34.800,0:03:36.936 Ali kad god sje njihova prisutnost 0:03:36.960,0:03:39.456 ozbiljno sukobi s nekim od naših ciljeva, 0:03:39.480,0:03:41.957 recimo kad dižemo[br]građevinu poput ove, 0:03:41.981,0:03:43.941 uništavamo ih bez pol muke. 0:03:44.480,0:03:47.416 Briga je kako ćemo[br]jednog dana sagraditi strojeve 0:03:47.440,0:03:50.176 koji, bili oni svjesni ili ne, 0:03:50.200,0:03:52.200 bi se mogli odnositi spram nas[br]sa sličnim nehajem. 0:03:53.760,0:03:56.520 Sad, pretpostavljam kako[br]vam se ovo doima nategnutim. 0:03:57.360,0:04:03.696 Kladim se kako vas ima koji sumnjate[br]kako je superinteligentan AI moguć, 0:04:03.720,0:04:05.376 a još manje neizbježan. 0:04:05.400,0:04:09.020 Ali onda morate naći nešto krivo[br]s nekom od slijedeći pretpostavki. 0:04:09.044,0:04:10.616 A samo ih je tri. 0:04:11.800,0:04:16.519 Inteligencija je stvar obrade[br]informacija u fizičkim sustavima. 0:04:17.320,0:04:19.935 Zapravo, ovo je [br]malo više od pretpostavke. 0:04:19.959,0:04:23.416 Već smo ugradili[br]usku inteligenciju u naše strojeve, 0:04:23.440,0:04:25.456 i puno tih strojeva imaju izvedbu 0:04:25.480,0:04:28.120 na razini nadljudske [br]inteligencije već sada. 0:04:28.840,0:04:31.416 I znamo kako puka materija 0:04:31.440,0:04:34.056 može omogućiti nastanak [br]onog što nazivamo "opća inteligencija," 0:04:34.080,0:04:37.736 sposobnost razmišljanja[br]rastezljivog na višestruka područja, 0:04:37.760,0:04:40.896 jer to mogu naši mozgovi. U redu? 0:04:40.920,0:04:44.856 Mislim, ovdje su samo atomi, 0:04:44.880,0:04:49.376 i sve dok nastavimo[br]graditi sustave atoma 0:04:49.400,0:04:52.096 koji pokazuju sve više[br]inteligentnog ponašanja 0:04:52.120,0:04:54.656 s vremenom ćemo,[br]osim ako ne budemo ometeni, 0:04:54.680,0:04:58.056 s vremenom ćemo[br]ugraditi opću inteligenciju 0:04:58.080,0:04:59.376 u naše strojeve. 0:04:59.400,0:05:03.056 Ključno je shvatiti[br]kako stopa napretka nije bitna, 0:05:03.080,0:05:06.256 jer će nas bilo kakav[br]napredak dovesti u krajnju zonu.[br] 0:05:06.280,0:05:10.056 Ne trebamo nastavak Mooreovog zakona.[br]Ne trebamo eksponencijalni rast. 0:05:10.080,0:05:11.680 Samo trebamo nastaviti napredovati. 0:05:13.480,0:05:16.400 Druga je pretpostavka[br]kako ćemo nastaviti napredovati. 0:05:17.000,0:05:19.760 Nastavit ćemo unapređivati[br]naše inteligentne strojeve.[br] 0:05:21.000,0:05:25.376 A uzevši vrijednost inteligencije -- 0:05:25.400,0:05:28.936 Mislim, inteligencija je ili[br]izvor svega što držimo vrijednim 0:05:28.960,0:05:31.736 ili je trebamo kako bi zaštitili[br]sve što smatramo vrijednim. 0:05:31.760,0:05:34.016 Ona je naš najvredniji resurs. 0:05:34.040,0:05:35.576 Pa želimo to raditi. 0:05:35.600,0:05:38.936 Imamo probleme[br]koje očajnički trebamo riješiti. 0:05:38.960,0:05:42.160 Želimo liječiti bolesti[br]poput Alzheimera ili raka. 0:05:42.960,0:05:46.896 Želimo razumjeti ekonomske sustave.[br]Želimo unaprijediti naše klimatske znanosti. 0:05:46.920,0:05:49.176 Pa ćemo to učiniti, ako možemo. 0:05:49.200,0:05:52.486 Vlak je već napustio postaju[br]a nema kočnice za povući. 0:05:53.880,0:05:59.336 Konačno, ne stojimo[br]na vrhuncu inteligencije, 0:05:59.360,0:06:01.160 ili igdje blizu njega, vjerojatno. 0:06:01.640,0:06:03.536 A to je zbilja ključan uvid. 0:06:03.560,0:06:05.976 To je ono što čini[br]našu situaciju tako neizvjesnom, 0:06:06.000,0:06:10.040 i to je ono što čini[br]naše intuicije o riziku tako nepouzdanim. 0:06:11.120,0:06:13.840 Sad, samo razmotrite najpametniju osobu[br]koja je ikad živjela. 0:06:14.640,0:06:18.056 U gotovo svačijem užem izboru[br]ovdje je John von Neumann. 0:06:18.080,0:06:21.416 Mislim, utisak koji je von Neumann[br]ostavljao na ljude oko sebe, 0:06:21.440,0:06:25.496 a ti uključuju najveće matematičare[br]i fizičare njegovog doba, 0:06:25.520,0:06:27.456 je dobro dokumentirana. 0:06:27.480,0:06:31.256 Ako je samo pola priča[br]o njemu na pola istinito, 0:06:31.280,0:06:32.496 nema pitanja 0:06:32.520,0:06:34.976 on je jedna od najpametnijih[br]osoba koje su ikad živjele. 0:06:35.000,0:06:37.520 Pa razmotrite spektar inteligencije. 0:06:38.320,0:06:39.749 Ovdje imamo John von Neumanna. 0:06:41.560,0:06:42.894 A onda imamo vas i mene. 0:06:44.120,0:06:45.416 A onda imamo piceka. 0:06:45.440,0:06:47.376 (Smijeh) 0:06:47.400,0:06:48.616 Pardon, piceka. 0:06:48.640,0:06:49.896 (Smijeh) 0:06:49.920,0:06:53.656 Nema razloga da učinim ovaj govor[br]depresivnijem nego što mora biti. 0:06:53.680,0:06:55.280 (Smijeh) 0:06:56.339,0:06:59.816 Izgleda premoćno vjerojatno,[br]međutim, kako se spektar inteligencije 0:06:59.840,0:07:02.960 proteže puno dalje[br]nego što trenutno poimamo, 0:07:03.880,0:07:07.096 i ako sagradimo strojeve[br]koji su inteligentniji od nas, 0:07:07.120,0:07:09.416 oni će vrlo vjerojatno[br]istražiti ovaj spektar 0:07:09.440,0:07:11.296 na načine koje ne možemo zamisliti, 0:07:11.320,0:07:13.840 te nas nadmašiti na načine[br]koje ne možemo zamisliti. 0:07:15.000,0:07:19.336 A bitno je prepoznati kako je[br]to istinito već po samom svojstvu brzine. 0:07:19.360,0:07:24.416 U redu? Zamislite kako smo[br]upravo sagradili superinteligentan AI 0:07:24.440,0:07:27.896 koji nije pametniji od[br]vašeg prosječnog tima istraživača 0:07:27.920,0:07:30.216 na Stanfordu ili MIT-u. 0:07:30.240,0:07:33.216 Dobro, elektronički krugovi[br]rade oko milijun puta brže 0:07:33.240,0:07:34.496 od onih biokemijskih, 0:07:34.520,0:07:37.656 pa bi ovaj stroj trebao[br]razmišljati oko milijun puta brže 0:07:37.680,0:07:39.496 od umova koji su ga sagradili. 0:07:39.520,0:07:41.176 Pa ga pustite raditi tjedan dana, 0:07:41.200,0:07:45.760 a on će izvesti 20.000 godina[br]intelektualnog rada ljudske razine, 0:07:46.400,0:07:48.360 tjedan za tjednom za tjednom. 0:07:49.640,0:07:52.736 Kako bi uopće mogli razumjeti,[br]puno manje ograničiti, 0:07:52.760,0:07:55.040 um koji stvara ovu vrst napretka? 0:07:56.840,0:07:58.976 Druga stvar koja je[br]zabrinjavajuća, iskreno, 0:07:59.000,0:08:03.976 je kako, zamislite najbolji scenarij. 0:08:04.000,0:08:08.176 dakle zamislite kako pogodimo[br]dizajn superinteligentne AI 0:08:08.200,0:08:09.576 koji nema sigurnosnih problema. 0:08:09.600,0:08:12.856 Imamo savršen dizajn[br]iz prve. 0:08:12.880,0:08:15.096 Kao da nam je dano proročanstvo 0:08:15.120,0:08:17.136 koje se ponaša posve kako bi i trebalo. 0:08:17.160,0:08:20.880 Dobro, taj bi stroj bio[br]savršena naprava za uštedu rada. 0:08:21.680,0:08:24.109 Može dizajnirati stroj[br]koji može izraditi stroj[br] 0:08:24.133,0:08:25.896 koji može obavljati[br]svaki fizički rad, 0:08:25.920,0:08:27.376 pogonjen sunčanom svjetlošću, 0:08:27.400,0:08:30.096 manje ili više po cijeni[br]sirovog materijala. 0:08:30.120,0:08:33.376 Dakle pričamo o[br]kraju ljudske tlake.[br] 0:08:33.400,0:08:36.200 Također pričamo o kraju[br]većine intelektualnog rada. 0:08:37.200,0:08:40.256 Pa što bi majmuni poput nas[br]činili u takvim okolnostima? 0:08:40.280,0:08:44.360 Ok, bili bi slobodni[br]igrati frizbi i masirati se međusobno. 0:08:45.840,0:08:48.696 Dodajte nešto LSD i nešto[br]upitnih odluka oko odjeće, 0:08:48.720,0:08:50.896 i cijeli bi svijet mogao[br]biti poput Burning Mana. 0:08:50.920,0:08:52.560 (Smijeh) 0:08:54.320,0:08:56.320 Sad, to može zvučati prilično dobro, 0:08:57.280,0:08:59.656 ali pitajte se što bi se dogodilo 0:08:59.680,0:09:02.416 pod našim trenutnim[br]ekonomskim i političkim poretkom? 0:09:02.440,0:09:04.856 Čini se vjerojatnim[br]kako bismo svjedočili 0:09:04.880,0:09:09.016 razini nejednakosti u bogatstvu[br]te nezaposlenosti 0:09:09.040,0:09:10.536 kakvu nismo vidjeli nikad prije. 0:09:10.560,0:09:13.176 Bez volje za trenutnim[br]stavljanjem tog novog bogatstva 0:09:13.200,0:09:14.680 u službu svog čovječanstva, 0:09:15.640,0:09:19.256 nekoliko bi trilijunaša moglo[br]resiti naslovnice naših poslovni časopisa 0:09:19.280,0:09:21.720 dok bi ostatak svijeta[br]bio slobodan gladovati. 0:09:22.320,0:09:24.616 A što bi Rusi[br]ili Kinezi učinili 0:09:24.640,0:09:27.256 ako bi čuli kako se[br]neka kompanija u Silicijskoj dolini 0:09:27.280,0:09:30.016 upravo sprema izbaciti[br]superinteligentnu AI? 0:09:30.040,0:09:32.896 Taj bi stroj bio[br]sposoban voditi rat, 0:09:32.920,0:09:35.136 bilo zemaljski ili cyber, 0:09:35.160,0:09:36.840 sa neviđenom moći. 0:09:38.120,0:09:39.976 Ovo je scenarij gdje pobjednik dobija sve. 0:09:40.000,0:09:43.136 Biti šest mjeseci ispred[br]konkurencije ovdje 0:09:43.160,0:09:45.936 je biti 500.000 godina ispred, 0:09:45.960,0:09:47.456 minimalno. 0:09:47.480,0:09:52.216 Pa se čini kako bi čak i puke glasine[br]o ovakvoj vrsti probitka 0:09:52.240,0:09:54.616 mogle prouzročiti našu vrstu da poludi. 0:09:54.640,0:09:57.536 Sad, jedna od najviše[br]zastrašujućih stvari, 0:09:57.560,0:10:00.336 kako ja to vidim, u ovom trenutku, 0:10:00.360,0:10:04.656 su stvari koje istraživači AI govore 0:10:04.680,0:10:06.240 kada žele biti ohrabrujući. 0:10:07.000,0:10:10.456 A najčešći razlog za bezbrižnost[br]koji navode je vrijeme. 0:10:10.480,0:10:12.536 To je sve daleko,[br]ne znaš li? 0:10:12.560,0:10:15.000 To je vjerojatno 50 ili 100 godina od nas. 0:10:15.720,0:10:16.976 Jedan je istraživač rekao: 0:10:17.000,0:10:18.576 "Brinuti se oko sigurnosti AI 0:10:18.600,0:10:20.880 je poput brige[br]o prekomjernoj populaciji na Marsu." 0:10:22.116,0:10:23.736 To je verzija iz Silicijske doline 0:10:23.760,0:10:26.136 one: "nemoj brinuti[br]svoju lijepu malu glavu sa time." 0:10:26.160,0:10:27.496 (Smijeh) 0:10:27.520,0:10:29.416 Izgleda kako nitko ne primjećuje 0:10:29.440,0:10:32.056 kako je oslanjanje na vremenski horizont 0:10:32.080,0:10:34.656 potpuni non sequitur. 0:10:34.680,0:10:37.936 Ako je inteligencija samo pitanje[br]procesiranja informacija, 0:10:37.960,0:10:40.616 te ako nastavimo[br]unapređivati naše strojeve, 0:10:40.640,0:10:43.520 stvorit ćemo[br]neki oblik superinteligencije. 0:10:44.320,0:10:47.976 A nemamo pojma[br]koliko će nam dugo trebati 0:10:48.000,0:10:50.400 stvoriti uvjete[br]kako bismo to učinili sigurno. 0:10:52.200,0:10:53.496 Dajte da to kažem ponovo. 0:10:53.520,0:10:57.336 Nemamo pojma[br]koliko će nam dugo trebati 0:10:57.360,0:10:59.600 stvoriti uvjete[br]kako bismo to učinili sigurno. 0:11:00.920,0:11:04.376 A ako niste primijetili,[br]50 godina nije što je nekad bilo. 0:11:04.400,0:11:06.856 Ovo je 50 godina u mjesecima. 0:11:06.880,0:11:08.720 Ovo je koliko dugo imamo iPhone. 0:11:09.440,0:11:12.040 Ovo je koliko dugo su[br]"Simpsoni" na televiziji. 0:11:12.680,0:11:15.056 Pedeset godina nije tako puno vremena 0:11:15.080,0:11:18.240 za sučeliti se sa jednim od[br]najvećih izazova koje će naša vrsta ikad imati. 0:11:19.640,0:11:23.656 Još jednom, izgleda da ne uspijevamo[br]imati prikladan emotivni odgovor 0:11:23.680,0:11:26.376 za što imamo[br]svaki razlog vjerovati kako dolazi. 0:11:26.400,0:11:30.376 Računalni znanstvenik Stuart Russell[br]ovdje pravi zgodnu analogiju. 0:11:30.400,0:11:35.296 On kaže, zamislite kako smo primili[br]poruku od vanzemaljske civilizacije, 0:11:35.320,0:11:37.016 koja piše: 0:11:37.040,0:11:38.576 "Ljudi Zemlje, 0:11:38.600,0:11:40.960 stići ćemo na vaš planet za 50 godina. 0:11:41.800,0:11:43.376 Pripremite se." 0:11:43.400,0:11:47.656 I sad mi samo brojimo[br]mjesece dok matični brod ne sleti? 0:11:47.680,0:11:50.680 Osjećali bismo malo veću[br]hitnost nego što osjećamo. 0:11:52.680,0:11:54.536 Još jedan razlog[br]što nam govore da ne brinemo 0:11:54.560,0:11:57.576 je kako si ti strojevi[br]ne mogu pomoći da ne dijele naše vrijednosti 0:11:57.600,0:12:00.216 jer će doslovno biti[br]produžeci nas samih. 0:12:00.240,0:12:02.056 Bit će usađeni u naše mozgove, 0:12:02.080,0:12:04.440 a mi ćemo u biti[br]postati njihov limbički sustav. 0:12:05.120,0:12:06.536 sad uzmite trenutak pa razmislite 0:12:06.560,0:12:09.736 kako je najsigurniji[br]i jedini razborit put naprijed, 0:12:09.760,0:12:11.096 preporučeno, 0:12:11.120,0:12:13.920 ugraditi tu tehnologiju[br]izravno u naše mozgove. 0:12:14.600,0:12:17.976 Sad, to može zapravo biti najsigurniji[br]i jedini razborit put nparijed, 0:12:18.000,0:12:21.056 ali obično sigurnosni problemi[br]oko tehnologije 0:12:21.080,0:12:24.736 moraju biti manje više izglađeni[br]prije nego ju zabijete u vlastitu glavu. 0:12:24.760,0:12:26.776 (Smijeh) 0:12:26.800,0:12:32.136 Dublji je problem što se[br]izgradnja superinteligentne AI 0:12:32.160,0:12:33.896 čini vjerojatno lakšim 0:12:33.920,0:12:35.776 nego izgradnja superinteligentne AI 0:12:35.800,0:12:37.576 i imanje zaokružene neuroznanosti 0:12:37.600,0:12:40.280 koja nam omogućuje da ju glatko[br]integriramo s našim umovima. 0:12:40.800,0:12:43.976 A uzevši kako će kompanije[br]i vlade koje se bave ovim poslom 0:12:44.000,0:12:47.656 vjerojatno percipirati[br]kako su u utrci protiv svih ostalih, 0:12:47.680,0:12:50.936 uzevši kako je osvojiti ovu utrku[br]isto što i osvojiti svijet, 0:12:50.960,0:12:53.416 pod pretpostavkom kako ga[br]nećete uništiti u slijedećem trenutku, 0:12:53.440,0:12:56.056 onda se čini vjerojatnim[br]kako će što god je lakše učiniti 0:12:56.080,0:12:57.280 biti učinjeno prvo. 0:12:58.560,0:13:01.416 Sad, na nesreću,[br]nemam rješenje za ovaj problem, 0:13:01.440,0:13:04.056 osim preporučiti kako bi više nas[br]trebalo razmišljati o njemu. 0:13:04.080,0:13:06.456 Mislim kako trebamo nešto[br]poput Manhattan Projecta 0:13:06.480,0:13:08.496 po pitanju umjetne inteligencije. 0:13:08.520,0:13:11.256 Ne kako bismo je stvorili, jer[br]ćemo to neizbježno napraviti, 0:13:11.280,0:13:14.616 već kako bismo razumjeli[br]kako izbjeći utrku u naoružanju 0:13:14.640,0:13:18.136 te kako ju sagraditi na način[br]koji se podudara s našim interesima. 0:13:18.160,0:13:20.296 Kad pričate o [br]superinteligentnoj AI 0:13:20.320,0:13:22.576 koja može raditi preinake sebi samoj, 0:13:22.600,0:13:27.216 čini se kako imamo samo jednu priliku[br]za posložiti ispravne početne uvjete, 0:13:27.240,0:13:29.296 a čak i tada ćemo trebati upiti 0:13:29.320,0:13:32.360 ekonomske i političke [br]posljedice slaganja takvih uvjeta. 0:13:33.760,0:13:35.816 Ali trenutak u kojem priznamo 0:13:35.840,0:13:39.840 kako je obrada informacija[br]izvor inteligencije, 0:13:40.720,0:13:45.520 kako je neki prikladan račualni sustav[br]ono na čemu se inteligencija temelji, 0:13:46.360,0:13:50.120 te priznamo kako ćemo[br]trajno unaprijeđivati te sustave, 0:13:51.280,0:13:55.736 te priznamo kako horizont[br]spoznaje vrlo vjerojatno daleko premašuje 0:13:55.760,0:13:56.960 što trenutno znamo, 0:13:58.120,0:13:59.336 onda moramo priznati 0:13:59.360,0:14:02.000 kako smo u postupku[br]izgradnje neke vrste boga. 0:14:03.400,0:14:04.976 Sad bi bilo dobro vrijeme 0:14:05.000,0:14:06.953 osigurati da to bude bog[br]s kakvim možemo živjeti. 0:14:08.120,0:14:09.656 Hvala Vam puno. 0:14:09.680,0:14:14.773 (Pljesak)