WEBVTT 00:00:01.000 --> 00:00:03.216 Pričaću vam o porazu intuicije 00:00:03.240 --> 00:00:04.840 od koga mnogi patimo. 00:00:05.480 --> 00:00:08.520 Zista je porazno opaziti određenu vrstu opasnosti. 00:00:09.360 --> 00:00:11.096 Opisaću vam jedan scenario 00:00:11.120 --> 00:00:14.376 za koji mislim da je i zastrašujuć 00:00:14.400 --> 00:00:16.160 i koji se realno može dogoditi, 00:00:16.840 --> 00:00:18.496 a to, kako se čini, 00:00:18.520 --> 00:00:20.056 nije dobra kombinacija. 00:00:20.080 --> 00:00:22.536 A opet umesto da se uplaše, mnogi od vas će misliti 00:00:22.560 --> 00:00:24.640 da je ono o čemu pričam nešto kul. NOTE Paragraph 00:00:25.200 --> 00:00:28.176 Opisaću vam kako bi napredak koji pravimo 00:00:28.200 --> 00:00:29.976 u veštačkoj inteligenciji 00:00:30.000 --> 00:00:31.776 mogao na kraju da nas uništi. 00:00:31.800 --> 00:00:35.256 Zapravo, mislim da je jako teško zamisliti kako nas neće uništiti, 00:00:35.280 --> 00:00:36.960 ili navesti da se samouništimo. 00:00:37.400 --> 00:00:39.256 A opet ako ste imalo kao ja, 00:00:39.280 --> 00:00:41.936 shvatićete da je zabavno razmišljati o ovim stvarima. 00:00:41.960 --> 00:00:45.336 I taj odgovor je deo ovog problema. 00:00:45.360 --> 00:00:47.080 OK? Taj odgovor treba da vas brine. 00:00:47.920 --> 00:00:50.576 Kad bih vas u ovom govoru ubedio 00:00:50.600 --> 00:00:54.016 da ćemo vrlo verovatno globalno gladovati, 00:00:54.040 --> 00:00:57.096 bilo zbog klimatskih promena ili neke druge katastrofe, 00:00:57.120 --> 00:01:00.536 i da će vaši unuci, ili njihovi unuci, 00:01:00.560 --> 00:01:02.360 vrlo verovatno živeti ovako, 00:01:03.200 --> 00:01:04.400 ne biste mislili: 00:01:05.440 --> 00:01:06.776 "Zanimljivo. 00:01:06.800 --> 00:01:08.251 Dobar ovaj TED Talk." NOTE Paragraph 00:01:09.200 --> 00:01:10.720 Glad nije zabavna. 00:01:11.800 --> 00:01:15.176 Smrt u naučnoj fantastici, sa druge strane, jeste zabavna, 00:01:15.200 --> 00:01:19.176 i nešto što me najviše brine u ovom trenutku u vezi sa razvojem VI 00:01:19.200 --> 00:01:23.296 je što izgleda da ne možemo da pružimo odgovarajući emocionalni odgovor 00:01:23.320 --> 00:01:25.136 na opasnosti koje dolaze. 00:01:25.160 --> 00:01:28.360 Ni ja ne mogu da pružim ovaj odgovor, a držim ovaj govor. NOTE Paragraph 00:01:30.120 --> 00:01:32.816 To je kao da stojimo ispred dvoja vrata. 00:01:32.840 --> 00:01:34.096 Iza vrata broj jedan, 00:01:34.120 --> 00:01:37.416 zaustavljamo napredak u pravljenju inteligentnih mašina. 00:01:37.440 --> 00:01:41.456 Kompjuterski hardver i softver prosto prestaju da budu bolji iz nekog razloga. 00:01:41.480 --> 00:01:44.480 Sada na trenutak razmislite zašto bi se ovo moglo desiti. 00:01:45.080 --> 00:01:48.736 Mislim, s obzirom koliku vrednost imaju inteligencija i automatizacija, 00:01:48.760 --> 00:01:52.280 nastavićemo da unapređujemo tehnologiju ako smo uopšte kadri za to. 00:01:53.200 --> 00:01:54.867 Šta bi nas moglo sprečiti u tome? 00:01:55.800 --> 00:01:57.600 Svetski nuklearni rat? 00:01:59.000 --> 00:02:00.560 Globalna pandemija? 00:02:02.320 --> 00:02:03.640 Pad asteroida? 00:02:05.640 --> 00:02:08.216 Ako Džastin Biber postane predsednik Amerike? NOTE Paragraph 00:02:08.240 --> 00:02:10.520 (Smeh) NOTE Paragraph 00:02:12.760 --> 00:02:16.680 Poenta je u tome, da bi nešto moralo da uništi civilizaciju ovakvu kakva je. 00:02:17.360 --> 00:02:21.656 Morate zamisliti kako bi zaista loše moralo biti to 00:02:21.680 --> 00:02:25.016 što bi nas trajno sprečilo da unapređujemo, 00:02:25.040 --> 00:02:26.256 tehnologiju, 00:02:26.280 --> 00:02:28.296 generaciju za generacijom. 00:02:28.320 --> 00:02:30.456 Skoro po definiciji, ovo je najgora stvar 00:02:30.480 --> 00:02:32.496 koja se ikada desila u ljudskoj istoriji. NOTE Paragraph 00:02:32.520 --> 00:02:33.816 Pa je jedina alternativa, 00:02:33.840 --> 00:02:36.176 a ovo se nalazi iza vrata broj dva, 00:02:36.200 --> 00:02:39.336 da nastavimo da unapređujemo naše inteligentne mašine 00:02:39.360 --> 00:02:40.960 bez prestanka. 00:02:41.720 --> 00:02:45.360 U jednom trenutku, napravićemo mašine koje su pametnije od nas, 00:02:46.080 --> 00:02:48.696 i tad kad budemo imali mašine koje su pametnije od nas, 00:02:48.720 --> 00:02:50.696 one će same početi da se razvijaju. 00:02:50.720 --> 00:02:53.456 I onda rizikujemo ono što je matematičar I.Dž. Gud nazvao 00:02:53.480 --> 00:02:55.256 "eksplozija inteligencije", 00:02:55.280 --> 00:02:57.280 da proces može da nam pobegne. NOTE Paragraph 00:02:58.120 --> 00:03:00.936 E, sad, ovo se često karikira, kao što ću i ja uraditi, 00:03:00.960 --> 00:03:04.176 kao strah od napada armije 00:03:04.200 --> 00:03:05.456 zlih robota. 00:03:05.480 --> 00:03:08.176 Ali to nije najverovatniji scenario. 00:03:08.200 --> 00:03:13.056 Nije kao da će naše mašine spontano postati zle. 00:03:13.080 --> 00:03:15.696 Brine nas, zapravo, da ćemo mi napraviti mašine 00:03:15.720 --> 00:03:17.776 koje su mnogo, mnogo kompetentnije od nas, 00:03:17.800 --> 00:03:21.576 brinemo da će nas uništiti i najmanja razlika između 00:03:21.600 --> 00:03:22.800 naših i njihovih ciljeva. NOTE Paragraph 00:03:23.960 --> 00:03:26.040 Zamislite kakvi smo mi prema mravima. 00:03:26.600 --> 00:03:28.256 Ne mrzimo ih. 00:03:28.280 --> 00:03:30.336 Ne povređujemo ih namerno. 00:03:30.360 --> 00:03:32.736 Zapravo, ponekad se trudimo se da ih ne povredimo. 00:03:32.760 --> 00:03:34.776 Preskačemo ih na trotoaru. 00:03:34.800 --> 00:03:36.936 Ali kada god njihovo prisustvo 00:03:36.960 --> 00:03:39.456 ozbiljno ugrozi neke naše ciljeve, 00:03:39.480 --> 00:03:41.957 recimo kada konstruišemo neku zgradu poput ove, 00:03:41.981 --> 00:03:43.941 bez po muke ih istrebimo. 00:03:44.480 --> 00:03:47.416 Brine nas da ćemo jednog dana napraviti mašine 00:03:47.440 --> 00:03:50.176 koje će, bilo da su svesne ili ne, 00:03:50.200 --> 00:03:52.200 nas tretirati na isti način. NOTE Paragraph 00:03:53.760 --> 00:03:56.520 E, sad, cenim da većini vas ovo zvuči kao daleka budućnost. 00:03:57.360 --> 00:04:03.696 Kladim se da ima onih koji ne veruju da je superinteligentna VI moguća, 00:04:03.720 --> 00:04:05.376 a kamoli neizbežna. 00:04:05.400 --> 00:04:09.020 Ali onda morate naći neku grešku u sledećim pretpostavkama. 00:04:09.044 --> 00:04:10.616 A samo ih je tri. NOTE Paragraph 00:04:11.800 --> 00:04:16.519 Inteligencija je stvar obrade informacija u fizičkim sistemima. 00:04:17.320 --> 00:04:19.935 U stvari, ovo je malo više od neke pretpostavke. 00:04:19.959 --> 00:04:23.416 Već smo ugradili specifičnu inteligenciju u naše mašine, 00:04:23.440 --> 00:04:25.456 i mnoge od ovih mašina već 00:04:25.480 --> 00:04:28.120 imaju performanse na nivou superljudske inteligencije. 00:04:28.840 --> 00:04:31.416 I znamo da sama materija 00:04:31.440 --> 00:04:34.056 može da omogući takozvanu "uopštenu inteligenciju", 00:04:34.080 --> 00:04:37.736 sposobnost da se fleksibilno razmišlja u različitim domenima, 00:04:37.760 --> 00:04:40.896 jer to može i naš mozak. Je l' tako? 00:04:40.920 --> 00:04:44.856 Mislim, ovde postoje samo atomi, 00:04:44.880 --> 00:04:49.376 i sve dok mi nastavljamo da gradimo sisteme atoma 00:04:49.400 --> 00:04:52.096 koji su sve inteligentniji i inteligentniji, 00:04:52.120 --> 00:04:54.656 mi ćemo na kraju, osim ako nas prekinu, 00:04:54.680 --> 00:04:58.056 mi ćemo na kraju ugraditi uopštenu inteligenciju 00:04:58.080 --> 00:04:59.376 u naše mašine. NOTE Paragraph 00:04:59.400 --> 00:05:03.056 Od suštinske je važnosti da shvatimo da stopa napretka nije važna, 00:05:03.080 --> 00:05:06.256 jer bilo kakav napredak je dovoljan da nas dovede do cilja. 00:05:06.280 --> 00:05:10.056 Ne treba nam Murov zakon. Ne treba nam eksponencijalni napredak. 00:05:10.080 --> 00:05:11.680 Samo treba da nastavimo dalje. NOTE Paragraph 00:05:13.480 --> 00:05:16.400 Druga pretpostavka je da ćemo nastaviti dalje. 00:05:17.000 --> 00:05:19.760 Nastavićemo da poboljšavamo naše inteligentne mašine. 00:05:21.000 --> 00:05:25.376 I uz postojeću vrednost inteligencije - 00:05:25.400 --> 00:05:28.936 mislim, inteligencija je ili izvor svega što je vredno 00:05:28.960 --> 00:05:31.736 ili nam treba da sačuvamo sve ono što nam je vredno. 00:05:31.760 --> 00:05:34.016 To je naš najvredniji resurs. 00:05:34.040 --> 00:05:35.576 I zato želimo da uradimo ovo. 00:05:35.600 --> 00:05:38.936 Imamo probleme koje očajnički moramo da rešimo. 00:05:38.960 --> 00:05:42.160 Želimo da izlečimo bolesti poput Alchajmera i raka. 00:05:42.960 --> 00:05:46.896 Želimo da shvatimo ekonomske sisteme. Želimo da poboljšamo nauku o klimi. 00:05:46.920 --> 00:05:49.176 Tako da, ako možemo, to ćemo i uraditi. 00:05:49.200 --> 00:05:52.486 Voz je već napustio stanicu, i nema kočnice. NOTE Paragraph 00:05:53.880 --> 00:05:59.336 Konačno, mi ne stojimo na vrhuncu inteligencije, 00:05:59.360 --> 00:06:01.160 a verovatno ni blizu toga. 00:06:01.640 --> 00:06:03.536 I ovo je zaista suštinski uvid. 00:06:03.560 --> 00:06:05.976 Zbog ovoga je naša situacija tako nepouzdana, 00:06:06.000 --> 00:06:10.040 i zbog toga je naša intuicija o riziku tako nepouzdana. NOTE Paragraph 00:06:11.120 --> 00:06:13.840 E, sad, samo razmislite o najpametnijoj osobi ikada. 00:06:14.640 --> 00:06:18.056 Na skoro svačijem užem spisku ovde je Džon fon Nojman. 00:06:18.080 --> 00:06:21.416 Mislim, utisak koji je Nojman ostavio na ljude oko sebe, 00:06:21.440 --> 00:06:25.496 uključujući tu najveće matematičare i fizičare tog vremena, 00:06:25.520 --> 00:06:27.456 je prilično dobro dokumentovan. 00:06:27.480 --> 00:06:31.256 I ako je samo pola onih priča o njemu polutačna, 00:06:31.280 --> 00:06:32.496 nema dileme da je on 00:06:32.520 --> 00:06:34.976 jedan od najpametnijih ljudi koji su ikada živeli. 00:06:35.000 --> 00:06:37.520 Samo zamislite opseg inteligencije. 00:06:38.320 --> 00:06:39.749 Ovde imamo Džona fon Nojmana. 00:06:41.560 --> 00:06:42.894 Onda smo tu vi i ja. 00:06:44.120 --> 00:06:45.416 I onda imamo neko pile. NOTE Paragraph 00:06:45.440 --> 00:06:47.376 (Smeh) NOTE Paragraph 00:06:47.400 --> 00:06:48.616 Pardon, neko pile. NOTE Paragraph 00:06:48.640 --> 00:06:49.896 (Smeh) NOTE Paragraph 00:06:49.920 --> 00:06:53.656 Nema potrebe da idem dalje u dubiozu u ovom govoru nego što treba. NOTE Paragraph 00:06:53.680 --> 00:06:55.280 (Smeh) NOTE Paragraph 00:06:56.339 --> 00:06:59.816 Međutim, čini se da je više nego verovatno da se spektar inteligencije 00:06:59.840 --> 00:07:02.960 proteže mnogo više nego što trenutno možemo da shvatimo, 00:07:03.880 --> 00:07:07.096 i ako napravimo mašine koje su mnogo inteligentnije od nas, 00:07:07.120 --> 00:07:09.416 one će skoro sigurno istražiti ovaj spektar 00:07:09.440 --> 00:07:11.296 onako kako to ne možemo ni zamisliti, 00:07:11.320 --> 00:07:13.840 i preteći nas na načine koje ne možemo ni zamisliti. NOTE Paragraph 00:07:15.000 --> 00:07:19.336 I važno je shvatiti da je ovo moguće samo putem brzine. 00:07:19.360 --> 00:07:24.416 U redu? Zamislite samo da napravimo jednu superinteligentnu VI 00:07:24.440 --> 00:07:27.896 koja nije ništa pametnija od vašeg prosečnog tima istraživača 00:07:27.920 --> 00:07:30.216 na Stanfordu ili MIT-u. 00:07:30.240 --> 00:07:33.216 Pa, električna kola funkcionišu oko milion puta brže 00:07:33.240 --> 00:07:34.496 od biohemijskih, 00:07:34.520 --> 00:07:37.656 tako da bi ove mašine razmišljale oko milion puta brže 00:07:37.680 --> 00:07:39.496 od umova koje su ih sastavile. 00:07:39.520 --> 00:07:41.176 Pustite ih da rade nedelju dana, 00:07:41.200 --> 00:07:45.760 i izvešće 20.000 godina ljudskog intelektualnog rada, 00:07:46.400 --> 00:07:48.360 nedelju za nedeljom. 00:07:49.640 --> 00:07:52.736 Kako čak možemo i razumeti, a kamoli ograničiti 00:07:52.760 --> 00:07:55.040 um koji bi mogao ovo da uradi? NOTE Paragraph 00:07:56.840 --> 00:07:58.976 Iskreno, ono drugo što je zabrinjavajuće 00:07:59.000 --> 00:08:03.976 je da, zamislite najbolji mogući scenario. 00:08:04.000 --> 00:08:08.176 Zamislite da nabasamo na neki dizajn superinteligentne VI 00:08:08.200 --> 00:08:09.576 čija nas sigurnost ne brine. 00:08:09.600 --> 00:08:12.856 Po prvi put imamo savršeni dizajn. 00:08:12.880 --> 00:08:15.096 To je kao da nam je dato proročanstvo 00:08:15.120 --> 00:08:17.136 koje se odvija baš kako je zapisano. 00:08:17.160 --> 00:08:20.880 Ta mašina bi bila savršeni uređaj za uštedu radne snage. 00:08:21.680 --> 00:08:24.109 Dizajnirala bi mašinu koja može napraviti mašine 00:08:24.133 --> 00:08:25.896 za bilo kakav fizički posao, 00:08:25.920 --> 00:08:27.376 a koje bi napajalo sunce, 00:08:27.400 --> 00:08:30.096 manje-više po ceni sirovina. 00:08:30.120 --> 00:08:33.376 Pričamo o kraju teškog ljudskog rada. 00:08:33.400 --> 00:08:36.200 Takođe pričamo o kraju većeg dela intelektualnog rada. NOTE Paragraph 00:08:37.200 --> 00:08:40.256 Pa šta će onda majmuni poput nas da rade u takvim okolnostima? 00:08:40.280 --> 00:08:44.360 Pa, imali bismo vremena za frizbi i da masiramo jedni druga. 00:08:45.840 --> 00:08:48.696 Dodajmo malo LSD-a i neke diskutabilne garderobe, 00:08:48.720 --> 00:08:51.366 i ceo svet bi mogao biti poput festivala Burning Man. NOTE Paragraph 00:08:51.390 --> 00:08:53.030 (Smeh) NOTE Paragraph 00:08:54.320 --> 00:08:56.320 E, sad, to možda zvuči kao dobra ideja, 00:08:57.280 --> 00:08:59.656 ali zapitajte se šta bi se desilo 00:08:59.680 --> 00:09:02.416 pod našim trenutnim ekonomskim i političkim poretkom? 00:09:02.440 --> 00:09:04.856 Čini se verovatnim da bismo bili svedoci 00:09:04.880 --> 00:09:09.016 određenog nivoa novčane nejednakosti i nezaposlenosti 00:09:09.040 --> 00:09:10.536 koji ranije nismo viđali. 00:09:10.560 --> 00:09:13.176 Uz odsustvo volje da se odmah ovo novo bogatstvo stavi 00:09:13.200 --> 00:09:14.680 na raspolaganje čovečanstvu, 00:09:15.640 --> 00:09:19.256 nekoliko bilionera bi poziralo na omotima biznis magazina 00:09:19.280 --> 00:09:21.720 dok bi ostatak sveta slobodno mogao umreti od gladi. NOTE Paragraph 00:09:22.320 --> 00:09:24.616 I šta bi radili Rusi ili Kinezi 00:09:24.640 --> 00:09:27.256 kada bi čuli da tamo neka firma iz Silicijumske doline 00:09:27.280 --> 00:09:30.016 treba da izbaci superinteligentnu VI? 00:09:30.040 --> 00:09:32.896 Ova mašina bi bila sposobna da vodi rat, 00:09:32.920 --> 00:09:35.136 bilo klasični, bilo sajber rat, 00:09:35.160 --> 00:09:36.840 nadmoćna bez presedana. 00:09:38.120 --> 00:09:39.976 Ovo je scenario pobednik nosi sve. 00:09:40.000 --> 00:09:43.136 Biti šest meseci ispred konkurencije ovde 00:09:43.160 --> 00:09:45.936 je isto biti 500 000 godina ispred, 00:09:45.960 --> 00:09:47.456 u najmanju ruku. 00:09:47.480 --> 00:09:52.216 Tako se čini da bi čak i samo glasina o proboju ovog tipa 00:09:52.240 --> 00:09:54.616 izazvala ludnicu među ljudima. NOTE Paragraph 00:09:54.640 --> 00:09:57.536 I, sad, jedna od najstarašnijih stvari, 00:09:57.560 --> 00:10:00.336 prema mom mišljenju, trenutno, 00:10:00.360 --> 00:10:04.656 su one stvari koje istraživači VI kažu 00:10:04.680 --> 00:10:06.240 kada žele da vas ohrabre. 00:10:07.000 --> 00:10:10.456 I najuobičajeniji razlog zbog koga nam kažu da ne brinemo jeste vreme. 00:10:10.480 --> 00:10:12.536 Sve je to daleko, znate. 00:10:12.560 --> 00:10:15.000 To je verovatno 50 ili 100 godina daleko. 00:10:15.720 --> 00:10:16.976 Jedan istraživač je rekao: 00:10:17.000 --> 00:10:18.576 "Briga o bezbednosti VI 00:10:18.600 --> 00:10:20.880 je kao briga o prenaseljenosti Marsa." 00:10:21.486 --> 00:10:23.736 Ovo je kao kada vam iz Silicijumske doline kažu: 00:10:23.760 --> 00:10:26.136 "Nemojte vi zamarati vaše glavice time." NOTE Paragraph 00:10:26.160 --> 00:10:27.496 (Smeh) NOTE Paragraph 00:10:27.520 --> 00:10:29.416 Izgleda da niko ne primećuje 00:10:29.440 --> 00:10:32.056 da je odnos prema vremenu 00:10:32.080 --> 00:10:34.656 potpuni non sequitur. 00:10:34.680 --> 00:10:37.936 Ako je inteligencija samo stvar procesuiranja informacija, 00:10:37.960 --> 00:10:40.616 i mi nastavimo da poboljšavamo mašine, 00:10:40.640 --> 00:10:43.520 proizvešćemo neki oblik superinteligencije. 00:10:44.320 --> 00:10:47.976 I nemamo pojma koliko će nam trebati vremena 00:10:48.000 --> 00:10:50.400 da stvorimo uslove da to uradimo bezbedno. 00:10:52.200 --> 00:10:53.496 Dozvolite mi da ponovim. 00:10:53.520 --> 00:10:57.336 Nemamo pojma koliko vremena će nam trebati 00:10:57.360 --> 00:10:59.600 da stvorimo uslove da to uradimo bezbedno. NOTE Paragraph 00:11:00.920 --> 00:11:04.376 Ako niste primetili, 50 godina nije kao što je bilo ranije. 00:11:04.400 --> 00:11:06.856 Ovo je 50 godina u mesecima. 00:11:06.880 --> 00:11:08.720 Ovoliko dugo već imamo iPhone. 00:11:09.440 --> 00:11:12.040 Ovoliko se već prikazuju "Simpsonovi". 00:11:12.680 --> 00:11:15.056 Pedeset godina nije mnogo vremena 00:11:15.080 --> 00:11:18.240 da se ostvari jedan od najvećih izazova naše vrste. 00:11:19.640 --> 00:11:23.656 Još jedanput, izgleda da nam nedostaje odgovarajući emocionalni odgovor 00:11:23.680 --> 00:11:26.376 na ono na šta imamo svako pravo da verujemo da dolazi. NOTE Paragraph 00:11:26.400 --> 00:11:30.376 Kompjuterski naučnik Stjuart Rasel ima lepu analogiju za ovo. 00:11:30.400 --> 00:11:35.296 On kaže, zamislite da smo primili neku poruku od vanzemaljaca, 00:11:35.320 --> 00:11:37.016 u kojoj stoji: 00:11:37.040 --> 00:11:38.576 "Zemljani, 00:11:38.600 --> 00:11:40.960 stižemo na vašu planetu za 50 godina. 00:11:41.800 --> 00:11:43.376 Spremite se." 00:11:43.400 --> 00:11:47.656 I mi ćemo samo da odbrojavamo mesece dok se njihov brod ne spusti? 00:11:47.680 --> 00:11:50.680 Osetili bismo malo više straha nego obično. NOTE Paragraph 00:11:52.680 --> 00:11:54.536 Drugo zbog čega kažu da ne brinemo 00:11:54.560 --> 00:11:57.576 je da ove mašine ne mogu drugačije nego da dele naše vrednosti 00:11:57.600 --> 00:12:00.216 zato što će one bukvalno biti produžeci nas samih. 00:12:00.240 --> 00:12:02.056 One će biti nakalamljene na naš mozak 00:12:02.080 --> 00:12:04.440 i mi ćemo suštinski postati limbički sistem. 00:12:05.120 --> 00:12:06.536 Sad na trenutak razmislite 00:12:06.560 --> 00:12:09.736 da je najbezbednija i jedina razborita i preporučena, 00:12:09.760 --> 00:12:11.096 putanja napred, 00:12:11.120 --> 00:12:13.920 da ovu tehnologiju implementiramo direktno u naš mozak. 00:12:14.600 --> 00:12:17.976 Sad, ovo može biti najbezbednija i jedina razborita putanja napred, 00:12:18.000 --> 00:12:21.056 ali obično se bezbednost neke tehnologije 00:12:21.080 --> 00:12:24.736 mora baš dobro razmotriti pre nego što vam se zabode u mozak. NOTE Paragraph 00:12:24.760 --> 00:12:26.776 (Smeh) NOTE Paragraph 00:12:26.800 --> 00:12:32.136 Veći problem je što pravljenje superinteligentne VI same od sebe 00:12:32.160 --> 00:12:33.896 izgleda lakše 00:12:33.920 --> 00:12:35.776 od pravljenja superinteligentne VI 00:12:35.800 --> 00:12:37.576 i kompletiranja neuronauke 00:12:37.600 --> 00:12:40.280 koja nam omogućava da integrišemo naše umove sa njom. 00:12:40.800 --> 00:12:43.976 I ako imamo to da kompanije i vlade rade ovaj posao, 00:12:44.000 --> 00:12:47.656 one će verovatno to shvatiti kao da se takmiče protiv svih drugih, 00:12:47.680 --> 00:12:50.936 jer pobediti u ovoj trci znači osvojiti svet, 00:12:50.960 --> 00:12:53.416 uz uslov da ga sledećeg trenutka ne uništite, 00:12:53.440 --> 00:12:56.056 a onda će verovatno prvo biti urađeno 00:12:56.080 --> 00:12:57.280 ono što je najlakše. NOTE Paragraph 00:12:58.560 --> 00:13:01.416 E, sad, nažalost, ja nemam rešenje za ovaj problem, 00:13:01.440 --> 00:13:04.056 osim toga da preporučim da više nas promisli o tome. 00:13:04.080 --> 00:13:06.696 Smatram da nam je potrebno nešto poput Projekta Menhetn 00:13:06.696 --> 00:13:08.496 na temu veštačke inteligencije. 00:13:08.520 --> 00:13:11.256 Ne da bismo je izgradili, jer mislim da je to neizbežno, 00:13:11.280 --> 00:13:14.616 već da razumemo kako da izbegnemo trku naoružanja 00:13:14.640 --> 00:13:18.136 i da je napravimo na način koji je u skladu sa našim interesima. 00:13:18.160 --> 00:13:20.296 Kada se razgovara o superinteligentnoj VI 00:13:20.320 --> 00:13:22.576 koja sama sebe može da menja, 00:13:22.600 --> 00:13:27.216 čini se da imamo samo jednu šansu da početne uslove postavimo kako treba, 00:13:27.240 --> 00:13:29.296 a čak i onda ćemo morati da prihvatimo 00:13:29.320 --> 00:13:32.360 ekonomske i političke posledice pravilne upotrebe. NOTE Paragraph 00:13:33.760 --> 00:13:35.816 Ali trenutak kada priznamo 00:13:35.840 --> 00:13:39.840 da je obrada informacija izvor inteligencije, 00:13:40.720 --> 00:13:45.520 da je neki odgovarajući računarski sistem osnova onoga što je inteligencija, 00:13:46.360 --> 00:13:50.120 i prihvatimo da ćemo stalno unapređivati ove sisteme, 00:13:51.280 --> 00:13:55.736 i prihvatimo da će horizont shvatanja vrlo verovatno daleko nadmašiti 00:13:55.760 --> 00:13:56.960 ono što trenutno znamo, 00:13:58.120 --> 00:13:59.336 onda moramo da prihvatimo 00:13:59.360 --> 00:14:02.000 da smo u procesu pravljenja neke vrste božanstva. 00:14:03.400 --> 00:14:04.976 Sada bi bilo dobro vreme 00:14:05.000 --> 00:14:08.113 da se postaramo da je to božanstvo sa kojim bismo mogli živeti. NOTE Paragraph 00:14:08.120 --> 00:14:09.656 Hvala vam mnogo. NOTE Paragraph 00:14:09.680 --> 00:14:13.779 (Aplauz)