1 00:00:01,000 --> 00:00:03,216 Pričaću vam o porazu intuicije 2 00:00:03,240 --> 00:00:04,840 od koga mnogi patimo. 3 00:00:05,480 --> 00:00:08,520 Zista je porazno opaziti određenu vrstu opasnosti. 4 00:00:09,360 --> 00:00:11,096 Opisaću vam jedan scenario 5 00:00:11,120 --> 00:00:14,376 za koji mislim da je i zastrašujuć 6 00:00:14,400 --> 00:00:16,160 i koji se realno može dogoditi, 7 00:00:16,840 --> 00:00:18,496 a to, kako se čini, 8 00:00:18,520 --> 00:00:20,056 nije dobra kombinacija. 9 00:00:20,080 --> 00:00:22,536 A opet umesto da se uplaše, mnogi od vas će misliti 10 00:00:22,560 --> 00:00:24,640 da je ono o čemu pričam nešto kul. 11 00:00:25,200 --> 00:00:28,176 Opisaću vam kako bi napredak koji pravimo 12 00:00:28,200 --> 00:00:29,976 u veštačkoj inteligenciji 13 00:00:30,000 --> 00:00:31,776 mogao na kraju da nas uništi. 14 00:00:31,800 --> 00:00:35,256 Zapravo, mislim da je jako teško zamisliti kako nas neće uništiti, 15 00:00:35,280 --> 00:00:36,960 ili navesti da se samouništimo. 16 00:00:37,400 --> 00:00:39,256 A opet ako ste imalo kao ja, 17 00:00:39,280 --> 00:00:41,936 shvatićete da je zabavno razmišljati o ovim stvarima. 18 00:00:41,960 --> 00:00:45,336 I taj odgovor je deo ovog problema. 19 00:00:45,360 --> 00:00:47,080 OK? Taj odgovor treba da vas brine. 20 00:00:47,920 --> 00:00:50,576 Kad bih vas u ovom govoru ubedio 21 00:00:50,600 --> 00:00:54,016 da ćemo vrlo verovatno globalno gladovati, 22 00:00:54,040 --> 00:00:57,096 bilo zbog klimatskih promena ili neke druge katastrofe, 23 00:00:57,120 --> 00:01:00,536 i da će vaši unuci, ili njihovi unuci, 24 00:01:00,560 --> 00:01:02,360 vrlo verovatno živeti ovako, 25 00:01:03,200 --> 00:01:04,400 ne biste mislili: 26 00:01:05,440 --> 00:01:06,776 "Zanimljivo. 27 00:01:06,800 --> 00:01:08,251 Dobar ovaj TED Talk." 28 00:01:09,200 --> 00:01:10,720 Glad nije zabavna. 29 00:01:11,800 --> 00:01:15,176 Smrt u naučnoj fantastici, sa druge strane, jeste zabavna, 30 00:01:15,200 --> 00:01:19,176 i nešto što me najviše brine u ovom trenutku u vezi sa razvojem VI 31 00:01:19,200 --> 00:01:23,296 je što izgleda da ne možemo da pružimo odgovarajući emocionalni odgovor 32 00:01:23,320 --> 00:01:25,136 na opasnosti koje dolaze. 33 00:01:25,160 --> 00:01:28,360 Ni ja ne mogu da pružim ovaj odgovor, a držim ovaj govor. 34 00:01:30,120 --> 00:01:32,816 To je kao da stojimo ispred dvoja vrata. 35 00:01:32,840 --> 00:01:34,096 Iza vrata broj jedan, 36 00:01:34,120 --> 00:01:37,416 zaustavljamo napredak u pravljenju inteligentnih mašina. 37 00:01:37,440 --> 00:01:41,456 Kompjuterski hardver i softver prosto prestaju da budu bolji iz nekog razloga. 38 00:01:41,480 --> 00:01:44,480 Sada na trenutak razmislite zašto bi se ovo moglo desiti. 39 00:01:45,080 --> 00:01:48,736 Mislim, s obzirom koliku vrednost imaju inteligencija i automatizacija, 40 00:01:48,760 --> 00:01:52,280 nastavićemo da unapređujemo tehnologiju ako smo uopšte kadri za to. 41 00:01:53,200 --> 00:01:54,867 Šta bi nas moglo sprečiti u tome? 42 00:01:55,800 --> 00:01:57,600 Svetski nuklearni rat? 43 00:01:59,000 --> 00:02:00,560 Globalna pandemija? 44 00:02:02,320 --> 00:02:03,640 Pad asteroida? 45 00:02:05,640 --> 00:02:08,216 Ako Džastin Biber postane predsednik Amerike? 46 00:02:08,240 --> 00:02:10,520 (Smeh) 47 00:02:12,760 --> 00:02:16,680 Poenta je u tome, da bi nešto moralo da uništi civilizaciju ovakvu kakva je. 48 00:02:17,360 --> 00:02:21,656 Morate zamisliti kako bi zaista loše moralo biti to 49 00:02:21,680 --> 00:02:25,016 što bi nas trajno sprečilo da unapređujemo, 50 00:02:25,040 --> 00:02:26,256 tehnologiju, 51 00:02:26,280 --> 00:02:28,296 generaciju za generacijom. 52 00:02:28,320 --> 00:02:30,456 Skoro po definiciji, ovo je najgora stvar 53 00:02:30,480 --> 00:02:32,496 koja se ikada desila u ljudskoj istoriji. 54 00:02:32,520 --> 00:02:33,816 Pa je jedina alternativa, 55 00:02:33,840 --> 00:02:36,176 a ovo se nalazi iza vrata broj dva, 56 00:02:36,200 --> 00:02:39,336 da nastavimo da unapređujemo naše inteligentne mašine 57 00:02:39,360 --> 00:02:40,960 bez prestanka. 58 00:02:41,720 --> 00:02:45,360 U jednom trenutku, napravićemo mašine koje su pametnije od nas, 59 00:02:46,080 --> 00:02:48,696 i tad kad budemo imali mašine koje su pametnije od nas, 60 00:02:48,720 --> 00:02:50,696 one će same početi da se razvijaju. 61 00:02:50,720 --> 00:02:53,456 I onda rizikujemo ono što je matematičar I.Dž. Gud nazvao 62 00:02:53,480 --> 00:02:55,256 "eksplozija inteligencije", 63 00:02:55,280 --> 00:02:57,280 da proces može da nam pobegne. 64 00:02:58,120 --> 00:03:00,936 E, sad, ovo se često karikira, kao što ću i ja uraditi, 65 00:03:00,960 --> 00:03:04,176 kao strah od napada armije 66 00:03:04,200 --> 00:03:05,456 zlih robota. 67 00:03:05,480 --> 00:03:08,176 Ali to nije najverovatniji scenario. 68 00:03:08,200 --> 00:03:13,056 Nije kao da će naše mašine spontano postati zle. 69 00:03:13,080 --> 00:03:15,696 Brine nas, zapravo, da ćemo mi napraviti mašine 70 00:03:15,720 --> 00:03:17,776 koje su mnogo, mnogo kompetentnije od nas, 71 00:03:17,800 --> 00:03:21,576 brinemo da će nas uništiti i najmanja razlika između 72 00:03:21,600 --> 00:03:22,800 naših i njihovih ciljeva. 73 00:03:23,960 --> 00:03:26,040 Zamislite kakvi smo mi prema mravima. 74 00:03:26,600 --> 00:03:28,256 Ne mrzimo ih. 75 00:03:28,280 --> 00:03:30,336 Ne povređujemo ih namerno. 76 00:03:30,360 --> 00:03:32,736 Zapravo, ponekad se trudimo se da ih ne povredimo. 77 00:03:32,760 --> 00:03:34,776 Preskačemo ih na trotoaru. 78 00:03:34,800 --> 00:03:36,936 Ali kada god njihovo prisustvo 79 00:03:36,960 --> 00:03:39,456 ozbiljno ugrozi neke naše ciljeve, 80 00:03:39,480 --> 00:03:41,957 recimo kada konstruišemo neku zgradu poput ove, 81 00:03:41,981 --> 00:03:43,941 bez po muke ih istrebimo. 82 00:03:44,480 --> 00:03:47,416 Brine nas da ćemo jednog dana napraviti mašine 83 00:03:47,440 --> 00:03:50,176 koje će, bilo da su svesne ili ne, 84 00:03:50,200 --> 00:03:52,200 nas tretirati na isti način. 85 00:03:53,760 --> 00:03:56,520 E, sad, cenim da većini vas ovo zvuči kao daleka budućnost. 86 00:03:57,360 --> 00:04:03,696 Kladim se da ima onih koji ne veruju da je superinteligentna VI moguća, 87 00:04:03,720 --> 00:04:05,376 a kamoli neizbežna. 88 00:04:05,400 --> 00:04:09,020 Ali onda morate naći neku grešku u sledećim pretpostavkama. 89 00:04:09,044 --> 00:04:10,616 A samo ih je tri. 90 00:04:11,800 --> 00:04:16,519 Inteligencija je stvar obrade informacija u fizičkim sistemima. 91 00:04:17,320 --> 00:04:19,935 U stvari, ovo je malo više od neke pretpostavke. 92 00:04:19,959 --> 00:04:23,416 Već smo ugradili specifičnu inteligenciju u naše mašine, 93 00:04:23,440 --> 00:04:25,456 i mnoge od ovih mašina već 94 00:04:25,480 --> 00:04:28,120 imaju performanse na nivou superljudske inteligencije. 95 00:04:28,840 --> 00:04:31,416 I znamo da sama materija 96 00:04:31,440 --> 00:04:34,056 može da omogući takozvanu "uopštenu inteligenciju", 97 00:04:34,080 --> 00:04:37,736 sposobnost da se fleksibilno razmišlja u različitim domenima, 98 00:04:37,760 --> 00:04:40,896 jer to može i naš mozak. Je l' tako? 99 00:04:40,920 --> 00:04:44,856 Mislim, ovde postoje samo atomi, 100 00:04:44,880 --> 00:04:49,376 i sve dok mi nastavljamo da gradimo sisteme atoma 101 00:04:49,400 --> 00:04:52,096 koji su sve inteligentniji i inteligentniji, 102 00:04:52,120 --> 00:04:54,656 mi ćemo na kraju, osim ako nas prekinu, 103 00:04:54,680 --> 00:04:58,056 mi ćemo na kraju ugraditi uopštenu inteligenciju 104 00:04:58,080 --> 00:04:59,376 u naše mašine. 105 00:04:59,400 --> 00:05:03,056 Od suštinske je važnosti da shvatimo da stopa napretka nije važna, 106 00:05:03,080 --> 00:05:06,256 jer bilo kakav napredak je dovoljan da nas dovede do cilja. 107 00:05:06,280 --> 00:05:10,056 Ne treba nam Murov zakon. Ne treba nam eksponencijalni napredak. 108 00:05:10,080 --> 00:05:11,680 Samo treba da nastavimo dalje. 109 00:05:13,480 --> 00:05:16,400 Druga pretpostavka je da ćemo nastaviti dalje. 110 00:05:17,000 --> 00:05:19,760 Nastavićemo da poboljšavamo naše inteligentne mašine. 111 00:05:21,000 --> 00:05:25,376 I uz postojeću vrednost inteligencije - 112 00:05:25,400 --> 00:05:28,936 mislim, inteligencija je ili izvor svega što je vredno 113 00:05:28,960 --> 00:05:31,736 ili nam treba da sačuvamo sve ono što nam je vredno. 114 00:05:31,760 --> 00:05:34,016 To je naš najvredniji resurs. 115 00:05:34,040 --> 00:05:35,576 I zato želimo da uradimo ovo. 116 00:05:35,600 --> 00:05:38,936 Imamo probleme koje očajnički moramo da rešimo. 117 00:05:38,960 --> 00:05:42,160 Želimo da izlečimo bolesti poput Alchajmera i raka. 118 00:05:42,960 --> 00:05:46,896 Želimo da shvatimo ekonomske sisteme. Želimo da poboljšamo nauku o klimi. 119 00:05:46,920 --> 00:05:49,176 Tako da, ako možemo, to ćemo i uraditi. 120 00:05:49,200 --> 00:05:52,486 Voz je već napustio stanicu, i nema kočnice. 121 00:05:53,880 --> 00:05:59,336 Konačno, mi ne stojimo na vrhuncu inteligencije, 122 00:05:59,360 --> 00:06:01,160 a verovatno ni blizu toga. 123 00:06:01,640 --> 00:06:03,536 I ovo je zaista suštinski uvid. 124 00:06:03,560 --> 00:06:05,976 Zbog ovoga je naša situacija tako nepouzdana, 125 00:06:06,000 --> 00:06:10,040 i zbog toga je naša intuicija o riziku tako nepouzdana. 126 00:06:11,120 --> 00:06:13,840 E, sad, samo razmislite o najpametnijoj osobi ikada. 127 00:06:14,640 --> 00:06:18,056 Na skoro svačijem užem spisku ovde je Džon fon Nojman. 128 00:06:18,080 --> 00:06:21,416 Mislim, utisak koji je Nojman ostavio na ljude oko sebe, 129 00:06:21,440 --> 00:06:25,496 uključujući tu najveće matematičare i fizičare tog vremena, 130 00:06:25,520 --> 00:06:27,456 je prilično dobro dokumentovan. 131 00:06:27,480 --> 00:06:31,256 I ako je samo pola onih priča o njemu polutačna, 132 00:06:31,280 --> 00:06:32,496 nema dileme da je on 133 00:06:32,520 --> 00:06:34,976 jedan od najpametnijih ljudi koji su ikada živeli. 134 00:06:35,000 --> 00:06:37,520 Samo zamislite opseg inteligencije. 135 00:06:38,320 --> 00:06:39,749 Ovde imamo Džona fon Nojmana. 136 00:06:41,560 --> 00:06:42,894 Onda smo tu vi i ja. 137 00:06:44,120 --> 00:06:45,416 I onda imamo neko pile. 138 00:06:45,440 --> 00:06:47,376 (Smeh) 139 00:06:47,400 --> 00:06:48,616 Pardon, neko pile. 140 00:06:48,640 --> 00:06:49,896 (Smeh) 141 00:06:49,920 --> 00:06:53,656 Nema potrebe da idem dalje u dubiozu u ovom govoru nego što treba. 142 00:06:53,680 --> 00:06:55,280 (Smeh) 143 00:06:56,339 --> 00:06:59,816 Međutim, čini se da je više nego verovatno da se spektar inteligencije 144 00:06:59,840 --> 00:07:02,960 proteže mnogo više nego što trenutno možemo da shvatimo, 145 00:07:03,880 --> 00:07:07,096 i ako napravimo mašine koje su mnogo inteligentnije od nas, 146 00:07:07,120 --> 00:07:09,416 one će skoro sigurno istražiti ovaj spektar 147 00:07:09,440 --> 00:07:11,296 onako kako to ne možemo ni zamisliti, 148 00:07:11,320 --> 00:07:13,840 i preteći nas na načine koje ne možemo ni zamisliti. 149 00:07:15,000 --> 00:07:19,336 I važno je shvatiti da je ovo moguće samo putem brzine. 150 00:07:19,360 --> 00:07:24,416 U redu? Zamislite samo da napravimo jednu superinteligentnu VI 151 00:07:24,440 --> 00:07:27,896 koja nije ništa pametnija od vašeg prosečnog tima istraživača 152 00:07:27,920 --> 00:07:30,216 na Stanfordu ili MIT-u. 153 00:07:30,240 --> 00:07:33,216 Pa, električna kola funkcionišu oko milion puta brže 154 00:07:33,240 --> 00:07:34,496 od biohemijskih, 155 00:07:34,520 --> 00:07:37,656 tako da bi ove mašine razmišljale oko milion puta brže 156 00:07:37,680 --> 00:07:39,496 od umova koje su ih sastavile. 157 00:07:39,520 --> 00:07:41,176 Pustite ih da rade nedelju dana, 158 00:07:41,200 --> 00:07:45,760 i izvešće 20.000 godina ljudskog intelektualnog rada, 159 00:07:46,400 --> 00:07:48,360 nedelju za nedeljom. 160 00:07:49,640 --> 00:07:52,736 Kako čak možemo i razumeti, a kamoli ograničiti 161 00:07:52,760 --> 00:07:55,040 um koji bi mogao ovo da uradi? 162 00:07:56,840 --> 00:07:58,976 Iskreno, ono drugo što je zabrinjavajuće 163 00:07:59,000 --> 00:08:03,976 je da, zamislite najbolji mogući scenario. 164 00:08:04,000 --> 00:08:08,176 Zamislite da nabasamo na neki dizajn superinteligentne VI 165 00:08:08,200 --> 00:08:09,576 čija nas sigurnost ne brine. 166 00:08:09,600 --> 00:08:12,856 Po prvi put imamo savršeni dizajn. 167 00:08:12,880 --> 00:08:15,096 To je kao da nam je dato proročanstvo 168 00:08:15,120 --> 00:08:17,136 koje se odvija baš kako je zapisano. 169 00:08:17,160 --> 00:08:20,880 Ta mašina bi bila savršeni uređaj za uštedu radne snage. 170 00:08:21,680 --> 00:08:24,109 Dizajnirala bi mašinu koja može napraviti mašine 171 00:08:24,133 --> 00:08:25,896 za bilo kakav fizički posao, 172 00:08:25,920 --> 00:08:27,376 a koje bi napajalo sunce, 173 00:08:27,400 --> 00:08:30,096 manje-više po ceni sirovina. 174 00:08:30,120 --> 00:08:33,376 Pričamo o kraju teškog ljudskog rada. 175 00:08:33,400 --> 00:08:36,200 Takođe pričamo o kraju većeg dela intelektualnog rada. 176 00:08:37,200 --> 00:08:40,256 Pa šta će onda majmuni poput nas da rade u takvim okolnostima? 177 00:08:40,280 --> 00:08:44,360 Pa, imali bismo vremena za frizbi i da masiramo jedni druga. 178 00:08:45,840 --> 00:08:48,696 Dodajmo malo LSD-a i neke diskutabilne garderobe, 179 00:08:48,720 --> 00:08:51,366 i ceo svet bi mogao biti poput festivala Burning Man. 180 00:08:51,390 --> 00:08:53,030 (Smeh) 181 00:08:54,320 --> 00:08:56,320 E, sad, to možda zvuči kao dobra ideja, 182 00:08:57,280 --> 00:08:59,656 ali zapitajte se šta bi se desilo 183 00:08:59,680 --> 00:09:02,416 pod našim trenutnim ekonomskim i političkim poretkom? 184 00:09:02,440 --> 00:09:04,856 Čini se verovatnim da bismo bili svedoci 185 00:09:04,880 --> 00:09:09,016 određenog nivoa novčane nejednakosti i nezaposlenosti 186 00:09:09,040 --> 00:09:10,536 koji ranije nismo viđali. 187 00:09:10,560 --> 00:09:13,176 Uz odsustvo volje da se odmah ovo novo bogatstvo stavi 188 00:09:13,200 --> 00:09:14,680 na raspolaganje čovečanstvu, 189 00:09:15,640 --> 00:09:19,256 nekoliko bilionera bi poziralo na omotima biznis magazina 190 00:09:19,280 --> 00:09:21,720 dok bi ostatak sveta slobodno mogao umreti od gladi. 191 00:09:22,320 --> 00:09:24,616 I šta bi radili Rusi ili Kinezi 192 00:09:24,640 --> 00:09:27,256 kada bi čuli da tamo neka firma iz Silicijumske doline 193 00:09:27,280 --> 00:09:30,016 treba da izbaci superinteligentnu VI? 194 00:09:30,040 --> 00:09:32,896 Ova mašina bi bila sposobna da vodi rat, 195 00:09:32,920 --> 00:09:35,136 bilo klasični, bilo sajber rat, 196 00:09:35,160 --> 00:09:36,840 nadmoćna bez presedana. 197 00:09:38,120 --> 00:09:39,976 Ovo je scenario pobednik nosi sve. 198 00:09:40,000 --> 00:09:43,136 Biti šest meseci ispred konkurencije ovde 199 00:09:43,160 --> 00:09:45,936 je isto biti 500 000 godina ispred, 200 00:09:45,960 --> 00:09:47,456 u najmanju ruku. 201 00:09:47,480 --> 00:09:52,216 Tako se čini da bi čak i samo glasina o proboju ovog tipa 202 00:09:52,240 --> 00:09:54,616 izazvala ludnicu među ljudima. 203 00:09:54,640 --> 00:09:57,536 I, sad, jedna od najstarašnijih stvari, 204 00:09:57,560 --> 00:10:00,336 prema mom mišljenju, trenutno, 205 00:10:00,360 --> 00:10:04,656 su one stvari koje istraživači VI kažu 206 00:10:04,680 --> 00:10:06,240 kada žele da vas ohrabre. 207 00:10:07,000 --> 00:10:10,456 I najuobičajeniji razlog zbog koga nam kažu da ne brinemo jeste vreme. 208 00:10:10,480 --> 00:10:12,536 Sve je to daleko, znate. 209 00:10:12,560 --> 00:10:15,000 To je verovatno 50 ili 100 godina daleko. 210 00:10:15,720 --> 00:10:16,976 Jedan istraživač je rekao: 211 00:10:17,000 --> 00:10:18,576 "Briga o bezbednosti VI 212 00:10:18,600 --> 00:10:20,880 je kao briga o prenaseljenosti Marsa." 213 00:10:21,486 --> 00:10:23,736 Ovo je kao kada vam iz Silicijumske doline kažu: 214 00:10:23,760 --> 00:10:26,136 "Nemojte vi zamarati vaše glavice time." 215 00:10:26,160 --> 00:10:27,496 (Smeh) 216 00:10:27,520 --> 00:10:29,416 Izgleda da niko ne primećuje 217 00:10:29,440 --> 00:10:32,056 da je odnos prema vremenu 218 00:10:32,080 --> 00:10:34,656 potpuni non sequitur. 219 00:10:34,680 --> 00:10:37,936 Ako je inteligencija samo stvar procesuiranja informacija, 220 00:10:37,960 --> 00:10:40,616 i mi nastavimo da poboljšavamo mašine, 221 00:10:40,640 --> 00:10:43,520 proizvešćemo neki oblik superinteligencije. 222 00:10:44,320 --> 00:10:47,976 I nemamo pojma koliko će nam trebati vremena 223 00:10:48,000 --> 00:10:50,400 da stvorimo uslove da to uradimo bezbedno. 224 00:10:52,200 --> 00:10:53,496 Dozvolite mi da ponovim. 225 00:10:53,520 --> 00:10:57,336 Nemamo pojma koliko vremena će nam trebati 226 00:10:57,360 --> 00:10:59,600 da stvorimo uslove da to uradimo bezbedno. 227 00:11:00,920 --> 00:11:04,376 Ako niste primetili, 50 godina nije kao što je bilo ranije. 228 00:11:04,400 --> 00:11:06,856 Ovo je 50 godina u mesecima. 229 00:11:06,880 --> 00:11:08,720 Ovoliko dugo već imamo iPhone. 230 00:11:09,440 --> 00:11:12,040 Ovoliko se već prikazuju "Simpsonovi". 231 00:11:12,680 --> 00:11:15,056 Pedeset godina nije mnogo vremena 232 00:11:15,080 --> 00:11:18,240 da se ostvari jedan od najvećih izazova naše vrste. 233 00:11:19,640 --> 00:11:23,656 Još jedanput, izgleda da nam nedostaje odgovarajući emocionalni odgovor 234 00:11:23,680 --> 00:11:26,376 na ono na šta imamo svako pravo da verujemo da dolazi. 235 00:11:26,400 --> 00:11:30,376 Kompjuterski naučnik Stjuart Rasel ima lepu analogiju za ovo. 236 00:11:30,400 --> 00:11:35,296 On kaže, zamislite da smo primili neku poruku od vanzemaljaca, 237 00:11:35,320 --> 00:11:37,016 u kojoj stoji: 238 00:11:37,040 --> 00:11:38,576 "Zemljani, 239 00:11:38,600 --> 00:11:40,960 stižemo na vašu planetu za 50 godina. 240 00:11:41,800 --> 00:11:43,376 Spremite se." 241 00:11:43,400 --> 00:11:47,656 I mi ćemo samo da odbrojavamo mesece dok se njihov brod ne spusti? 242 00:11:47,680 --> 00:11:50,680 Osetili bismo malo više straha nego obično. 243 00:11:52,680 --> 00:11:54,536 Drugo zbog čega kažu da ne brinemo 244 00:11:54,560 --> 00:11:57,576 je da ove mašine ne mogu drugačije nego da dele naše vrednosti 245 00:11:57,600 --> 00:12:00,216 zato što će one bukvalno biti produžeci nas samih. 246 00:12:00,240 --> 00:12:02,056 One će biti nakalamljene na naš mozak 247 00:12:02,080 --> 00:12:04,440 i mi ćemo suštinski postati limbički sistem. 248 00:12:05,120 --> 00:12:06,536 Sad na trenutak razmislite 249 00:12:06,560 --> 00:12:09,736 da je najbezbednija i jedina razborita i preporučena, 250 00:12:09,760 --> 00:12:11,096 putanja napred, 251 00:12:11,120 --> 00:12:13,920 da ovu tehnologiju implementiramo direktno u naš mozak. 252 00:12:14,600 --> 00:12:17,976 Sad, ovo može biti najbezbednija i jedina razborita putanja napred, 253 00:12:18,000 --> 00:12:21,056 ali obično se bezbednost neke tehnologije 254 00:12:21,080 --> 00:12:24,736 mora baš dobro razmotriti pre nego što vam se zabode u mozak. 255 00:12:24,760 --> 00:12:26,776 (Smeh) 256 00:12:26,800 --> 00:12:32,136 Veći problem je što pravljenje superinteligentne VI same od sebe 257 00:12:32,160 --> 00:12:33,896 izgleda lakše 258 00:12:33,920 --> 00:12:35,776 od pravljenja superinteligentne VI 259 00:12:35,800 --> 00:12:37,576 i kompletiranja neuronauke 260 00:12:37,600 --> 00:12:40,280 koja nam omogućava da integrišemo naše umove sa njom. 261 00:12:40,800 --> 00:12:43,976 I ako imamo to da kompanije i vlade rade ovaj posao, 262 00:12:44,000 --> 00:12:47,656 one će verovatno to shvatiti kao da se takmiče protiv svih drugih, 263 00:12:47,680 --> 00:12:50,936 jer pobediti u ovoj trci znači osvojiti svet, 264 00:12:50,960 --> 00:12:53,416 uz uslov da ga sledećeg trenutka ne uništite, 265 00:12:53,440 --> 00:12:56,056 a onda će verovatno prvo biti urađeno 266 00:12:56,080 --> 00:12:57,280 ono što je najlakše. 267 00:12:58,560 --> 00:13:01,416 E, sad, nažalost, ja nemam rešenje za ovaj problem, 268 00:13:01,440 --> 00:13:04,056 osim toga da preporučim da više nas promisli o tome. 269 00:13:04,080 --> 00:13:06,696 Smatram da nam je potrebno nešto poput Projekta Menhetn 270 00:13:06,696 --> 00:13:08,496 na temu veštačke inteligencije. 271 00:13:08,520 --> 00:13:11,256 Ne da bismo je izgradili, jer mislim da je to neizbežno, 272 00:13:11,280 --> 00:13:14,616 već da razumemo kako da izbegnemo trku naoružanja 273 00:13:14,640 --> 00:13:18,136 i da je napravimo na način koji je u skladu sa našim interesima. 274 00:13:18,160 --> 00:13:20,296 Kada se razgovara o superinteligentnoj VI 275 00:13:20,320 --> 00:13:22,576 koja sama sebe može da menja, 276 00:13:22,600 --> 00:13:27,216 čini se da imamo samo jednu šansu da početne uslove postavimo kako treba, 277 00:13:27,240 --> 00:13:29,296 a čak i onda ćemo morati da prihvatimo 278 00:13:29,320 --> 00:13:32,360 ekonomske i političke posledice pravilne upotrebe. 279 00:13:33,760 --> 00:13:35,816 Ali trenutak kada priznamo 280 00:13:35,840 --> 00:13:39,840 da je obrada informacija izvor inteligencije, 281 00:13:40,720 --> 00:13:45,520 da je neki odgovarajući računarski sistem osnova onoga što je inteligencija, 282 00:13:46,360 --> 00:13:50,120 i prihvatimo da ćemo stalno unapređivati ove sisteme, 283 00:13:51,280 --> 00:13:55,736 i prihvatimo da će horizont shvatanja vrlo verovatno daleko nadmašiti 284 00:13:55,760 --> 00:13:56,960 ono što trenutno znamo, 285 00:13:58,120 --> 00:13:59,336 onda moramo da prihvatimo 286 00:13:59,360 --> 00:14:02,000 da smo u procesu pravljenja neke vrste božanstva. 287 00:14:03,400 --> 00:14:04,976 Sada bi bilo dobro vreme 288 00:14:05,000 --> 00:14:08,113 da se postaramo da je to božanstvo sa kojim bismo mogli živeti. 289 00:14:08,120 --> 00:14:09,656 Hvala vam mnogo. 290 00:14:09,680 --> 00:14:13,779 (Aplauz)