1 00:00:01,000 --> 00:00:03,216 Budem hovoriť o zlyhaní intuície, 2 00:00:03,240 --> 00:00:04,840 ktorým trpí mnoho z nás. 3 00:00:05,480 --> 00:00:08,520 Vlastne ide o zlyhanie odhalenia určitého druhu nebezpečia. 4 00:00:09,360 --> 00:00:11,096 Popíšem vám situáciu, 5 00:00:11,120 --> 00:00:14,376 o ktorej si myslím, že je desivá 6 00:00:14,400 --> 00:00:16,160 a zároveň pravdepodobná, 7 00:00:16,840 --> 00:00:18,496 čo, ako vieme, 8 00:00:18,520 --> 00:00:20,056 nie je dobrá kombinácia. 9 00:00:20,080 --> 00:00:22,536 A aj tak, mnohí z vás nebudú vystrašení, ale budú 10 00:00:22,560 --> 00:00:24,640 si myslieť, že to, o čom hovorím, je cool. 11 00:00:25,200 --> 00:00:28,176 Budem hovoriť o tom, ako nás pokrok, 12 00:00:28,200 --> 00:00:30,076 ktorý dosahujeme v umelej inteligencii, 13 00:00:30,076 --> 00:00:31,776 môže nakoniec úplne zničiť. 14 00:00:31,800 --> 00:00:35,256 A vskutku si myslím, že je ťažké nevidieť, že nás zničí, alebo nás 15 00:00:35,280 --> 00:00:36,960 inšpiruje, aby sme sa zničili sami. 16 00:00:37,400 --> 00:00:39,256 A pokiaľ ste ako ja, 17 00:00:39,280 --> 00:00:41,936 je pre vás zábavou zamýšľať sa nad tým. 18 00:00:41,960 --> 00:00:45,336 Naše reakcie sú súčasťou toho problému. 19 00:00:45,360 --> 00:00:47,080 Tieto reakcie by vás mali trápiť. 20 00:00:47,920 --> 00:00:50,576 Ak by som vás teraz presvedčoval, 21 00:00:50,600 --> 00:00:54,016 že ľudstvo pravdepodobne zasiahne globálny hladomor, 22 00:00:54,040 --> 00:00:57,096 buď kvôli klimatickým zmenám, alebo z dôvodu inej katastrofy, 23 00:00:57,120 --> 00:01:00,536 a že vaše vnúčatá a ich vnúčatá 24 00:01:00,560 --> 00:01:02,360 budú pravdepodobne žiť takto, 25 00:01:03,200 --> 00:01:04,400 určite si nepomyslíte, 26 00:01:05,440 --> 00:01:06,776 "Zaujímavé. 27 00:01:06,800 --> 00:01:08,000 To je pekná prednáška." 28 00:01:09,200 --> 00:01:10,720 Hladomor nie je zábava. 29 00:01:11,800 --> 00:01:15,176 Na druhú stranu, smrť v sci-fi zábavná je, 30 00:01:15,200 --> 00:01:19,176 jedna z vecí, ktorá ma na vývoji umelej inteligencie trápi najviac, je, že nie sme 31 00:01:19,200 --> 00:01:23,296 schopní primerane emocionálne reagovať 32 00:01:23,320 --> 00:01:25,136 na nebezpečie, ktoré leží pred nami. 33 00:01:25,160 --> 00:01:28,360 Ja sám nie som toho schopný a sám o tom teraz prednášam. 34 00:01:30,120 --> 00:01:32,816 Pomyslite si, že stojíme pred dvoma dvermi. 35 00:01:32,840 --> 00:01:34,096 Za dvermi číslo jedna 36 00:01:34,120 --> 00:01:37,416 zastavíme vývoj a budovanie inteligentných strojov. 37 00:01:37,440 --> 00:01:41,456 Počítačový software a hardware sa prosto z nejakého dôvodu prestane vylepšovať. 38 00:01:41,480 --> 00:01:44,480 Zastavme sa na chvíľu a premýšľajme, prečo by toto mohlo nastať. 39 00:01:45,080 --> 00:01:48,736 S ohľadom nato, akým prínosom inteligencia a automatizácia pre nás je, 40 00:01:48,760 --> 00:01:52,280 budeme technológie stále zlepšovať, pokiaľ toho budeme vôbec schopní. 41 00:01:53,200 --> 00:01:54,867 Čo by nás mohlo v tomto zastaviť? 42 00:01:55,800 --> 00:01:57,600 Celosvetová nukleárna vojna? 43 00:01:59,000 --> 00:02:00,560 Globálna pandémia? 44 00:02:02,320 --> 00:02:03,640 Dopad asteroidu? 45 00:02:05,640 --> 00:02:08,216 Justin Bieber prezidentom USA? 46 00:02:08,240 --> 00:02:10,520 (smiech) 47 00:02:12,760 --> 00:02:16,680 Ide o to, že by našu súčasnú civilizáciu, tak ako ju poznáme, muselo niečo zničiť. 48 00:02:17,360 --> 00:02:21,656 Predstavte si, ako zlé by to muselo byť, 49 00:02:21,680 --> 00:02:25,016 aby sme neboli schopní ďalej vylepšovať naše technológie, 50 00:02:25,040 --> 00:02:26,256 neustále, 51 00:02:26,280 --> 00:02:28,296 generáciu za generáciou. 52 00:02:28,320 --> 00:02:30,456 V zásade je to tá najhoršia vec, 53 00:02:30,480 --> 00:02:32,496 aká by mohla v ľudských dejinách nastať. 54 00:02:32,520 --> 00:02:33,816 Takže jedinou alternatívou, 55 00:02:33,840 --> 00:02:36,176 ktorá je za dvermi číslo dva, 56 00:02:36,200 --> 00:02:39,336 je pokračovať v zdokonaľovaní našich inteligentných strojov, 57 00:02:39,360 --> 00:02:40,960 postupne rok za rokom. 58 00:02:41,720 --> 00:02:45,360 A v určitom okamžiku postavíme stroje, ktoré budú chytrejšie než my sami, 59 00:02:46,080 --> 00:02:48,696 a keď budeme mať stroje, ktoré budú chytrejšie od nás, 60 00:02:48,720 --> 00:02:50,696 tak sa začnú zdokonaľovať samy. 61 00:02:50,720 --> 00:02:53,456 A v tom okamihu hrozí situácia, ktorú matematik I.J.Good 62 00:02:53,480 --> 00:02:55,256 nazval "inteligenčná explózia," 63 00:02:55,280 --> 00:02:57,280 a vtedy by sa to mohlo vymknúť z rúk. 64 00:02:58,120 --> 00:03:00,936 Ako vidíte napríklad tu, táto téma sa často karikuje, 65 00:03:00,960 --> 00:03:04,176 ako obava z armád zlých robotov, 66 00:03:04,200 --> 00:03:05,456 ktoré na nás zaútočia. 67 00:03:05,480 --> 00:03:08,176 Ale toto nie je najpravdepodobnejší scenár. 68 00:03:08,200 --> 00:03:13,056 Nie je to tak, že by stroje zrazu začali byť zlé. 69 00:03:13,080 --> 00:03:15,696 Problém je v tom, že vytvoríme stroje, 70 00:03:15,720 --> 00:03:17,776 ktoré budú oveľa schopnejšie než sme my, 71 00:03:17,800 --> 00:03:21,576 takže aj tá najjemnejšia odchýlka medzi ich a našimi cieľmi, 72 00:03:21,600 --> 00:03:22,800 by nás mohla zničiť. 73 00:03:23,960 --> 00:03:26,040 Zamyslite sa, ako sa chováme k mravcom. 74 00:03:26,600 --> 00:03:28,256 Nemáme nič proti nim. 75 00:03:28,280 --> 00:03:30,336 Neubližujeme im cielene. 76 00:03:30,360 --> 00:03:32,736 Dokonca občas znesieme bolesť a neubližujeme im. 77 00:03:32,760 --> 00:03:34,776 Prekračujeme ich na chodníku. 78 00:03:34,800 --> 00:03:36,936 Ale kedykoľvek je ich prítomnosť 79 00:03:36,960 --> 00:03:39,456 vo vážnom konflikte s našimi cieľmi, 80 00:03:39,480 --> 00:03:41,957 povedzme, keď staviame budovu ako táto, 81 00:03:41,981 --> 00:03:43,941 tak ich bez mihnutia oka zničíme. 82 00:03:44,480 --> 00:03:47,416 Obávam sa, že jedného dňa vytvoríme stroje, 83 00:03:47,440 --> 00:03:50,176 ktoré, vedome alebo nevedome, budú s nami 84 00:03:50,200 --> 00:03:52,200 zachádzať s podobnou ľahostajnosťou. 85 00:03:53,760 --> 00:03:56,520 Mnohím z vás to príde pritiahnuté za vlasy. 86 00:03:57,360 --> 00:04:03,696 Vsadím sa, že mnohí z vás pochybujú, že super inteligentné stroje sú možné, 87 00:04:03,720 --> 00:04:05,436 tobôž, že by to nevyhnutne nastalo. 88 00:04:05,436 --> 00:04:09,020 Potom však musíte nájsť niečo nesprávne v nasledujúcich predpokladoch. 89 00:04:09,044 --> 00:04:10,616 A v podstate sú len tri. 90 00:04:11,800 --> 00:04:16,519 Inteligencia je výsledkom spracovania informácie v hmotných systémoch. 91 00:04:17,320 --> 00:04:19,935 Vlastne, toto je trochu viac než len predpoklad. 92 00:04:19,959 --> 00:04:23,416 Do strojov sme už obmedzenú inteligenciu zabudovali 93 00:04:23,440 --> 00:04:25,456 a veľa z týchto strojov už pracuje 94 00:04:25,480 --> 00:04:28,120 na úrovni super inteligentných ľudí. 95 00:04:28,840 --> 00:04:31,416 A vieme, že bežná hmota 96 00:04:31,440 --> 00:04:34,056 môže byť vznikom takzvanej "všeobecnej inteligencie", 97 00:04:34,080 --> 00:04:37,736 teda schopnosti flexibilne myslieť naprieč rôznymi oblasťami, 98 00:04:37,760 --> 00:04:40,896 pretože naše mozgy to už dokázali, však? 99 00:04:40,920 --> 00:04:44,856 Mám na mysli, že naše mozgy sa skladajú len z atómov, 100 00:04:44,880 --> 00:04:49,376 a pokiaľ budeme pokračovať v budovaní systémov z atómov, 101 00:04:49,400 --> 00:04:52,096 ktoré vykazujú čoraz inteligentnejšie správanie, 102 00:04:52,120 --> 00:04:54,656 tak nakoniec, pokiaľ nás niečo nezastaví, 103 00:04:54,680 --> 00:04:58,056 zabudujeme všeobecnú inteligenciu 104 00:04:58,080 --> 00:04:59,376 do našich strojov. 105 00:04:59,400 --> 00:05:03,056 Kľúčové je si uvedomiť, že na rýchlosti pokroku nezáleží, 106 00:05:03,080 --> 00:05:06,256 pretože k dosiahnutiu cieľa stačí akékoľvek tempo. 107 00:05:06,280 --> 00:05:10,056 Nepotrebujeme Mooreov zákon, nie je nutný exponenciálny vývoj. 108 00:05:10,080 --> 00:05:11,680 Jednoducho stačí pokračovať. 109 00:05:13,480 --> 00:05:16,400 Druhým predpokladom je, že budeme pokračovať. 110 00:05:17,000 --> 00:05:19,760 Budeme naďalej zlepšovať naše inteligentné stroje. 111 00:05:21,000 --> 00:05:25,376 A keďže inteligencia je pre nás dôležitá - 112 00:05:25,400 --> 00:05:28,936 mám na mysli, že inteligencia je buď zdrojom všetkého, čo si ceníme, 113 00:05:28,960 --> 00:05:31,736 alebo ju potrebujeme na ochranu všetkého, čo si ceníme. 114 00:05:31,760 --> 00:05:34,016 Je to náš najhodnotnejší zdroj. 115 00:05:34,040 --> 00:05:35,576 Takže v tom chceme pokračovať. 116 00:05:35,600 --> 00:05:38,936 Máme problémy, ktoré zúfalo musíme vyriešiť. 117 00:05:38,960 --> 00:05:42,160 Chceme liečiť choroby ako Alzheimer a rakovina. 118 00:05:42,960 --> 00:05:46,896 Chceme porozumieť ekonomickým systémom. Chceme zlepšiť náš klimatický výskum. 119 00:05:46,920 --> 00:05:49,176 Takže, pokiaľ to pôjde, budeme pokračovať. 120 00:05:49,200 --> 00:05:52,486 Tento vlak je už rozbehnutý a nejde ho zastaviť. 121 00:05:53,880 --> 00:05:59,336 A, nakoniec, my nestojíme na vrchole inteligencie a pravdepodobne 122 00:05:59,360 --> 00:06:01,160 ani niekde blízko vrcholu. 123 00:06:01,640 --> 00:06:03,536 Toto je skutočne kľúčový pohľad. 124 00:06:03,560 --> 00:06:05,976 To je dôvod, prečo je naša situácia taká prekérna, 125 00:06:06,000 --> 00:06:10,040 a dôvod, prečo je naša intuícia taká nespoľahlivá pri posudzovaní rizík. 126 00:06:11,120 --> 00:06:13,840 Vezmite si trebárs najmúdrejšiu osobu, ktorá kedy žila. 127 00:06:14,640 --> 00:06:18,056 Takmer každý by do najužšieho výberu zaradil Johna von Neumanna. 128 00:06:18,080 --> 00:06:21,416 To, akým dojmom pôsobil van Neumann na ľudí okolo seba, 129 00:06:21,440 --> 00:06:25,496 medzi ktorých patrili najlepší matematici a fyzici tej doby, 130 00:06:25,520 --> 00:06:27,456 je veľmi dobre zdokumentované. 131 00:06:27,480 --> 00:06:31,256 Ak by len polovica historiek o ňom bola aspoň z polovice pravdivá, 132 00:06:31,280 --> 00:06:32,496 tak nie je pochýb, 133 00:06:32,520 --> 00:06:34,976 že patril medzi najmúdrejších ľudí v histórii. 134 00:06:35,000 --> 00:06:37,520 Takže zvážme spektrum inteligencie. 135 00:06:38,320 --> 00:06:39,749 Tu máme John von Neumanna. 136 00:06:41,560 --> 00:06:42,894 A tu ste vy a ja. 137 00:06:44,120 --> 00:06:45,416 A tu máme kura. 138 00:06:45,440 --> 00:06:47,376 (smiech) 139 00:06:47,400 --> 00:06:48,616 Pardon, kura. 140 00:06:48,640 --> 00:06:49,896 (smiech) 141 00:06:49,920 --> 00:06:53,656 Nie je dôvod, aby bola táto prednáška depresívnejšia, než je nutné. 142 00:06:53,680 --> 00:06:55,280 (smiech) 143 00:06:56,339 --> 00:06:59,816 Zdá sa nanajvýš pravdepodobné, že rozsah inteligencie 144 00:06:59,840 --> 00:07:02,960 je oveľa širší, než ako ho v súčasnosti vnímame, 145 00:07:03,880 --> 00:07:07,096 a keď postavíme stroje, ktoré budú inteligentnejšie než sme my, 146 00:07:07,120 --> 00:07:09,416 tak budú veľmi pravdepodobne skúmať to spektrum 147 00:07:09,440 --> 00:07:11,296 spôsobom, ktorý si nevieme predstaviť, 148 00:07:11,320 --> 00:07:13,840 a presiahnu nás spôsobom, ktorý si nevieme predstaviť. 149 00:07:15,000 --> 00:07:19,336 A je dôležité rozoznať, že je tomu tak už vďaka samotnej rýchlosti. 150 00:07:19,360 --> 00:07:24,416 Predstavte si, že sme vytvorili super inteligentnú umelú inteligenciu (AI), 151 00:07:24,440 --> 00:07:27,896 ktorá je rovnako chytrá ako priemerný tím vedcov 152 00:07:27,920 --> 00:07:30,216 na Stanforde alebo MIT. 153 00:07:30,240 --> 00:07:33,216 Lenže elektronické obvody fungujú asi miliónkrát rýchlejšie 154 00:07:33,240 --> 00:07:34,496 než biochemické, 155 00:07:34,520 --> 00:07:37,656 takže, takýto stroj by mohol myslieť asi miliónkrát rýchlejšie 156 00:07:37,680 --> 00:07:39,496 ako myseľ, ktorá ho zostrojila. 157 00:07:39,520 --> 00:07:41,176 Takže, keď ho spustíte na týždeň, 158 00:07:41,200 --> 00:07:45,760 tak vykoná rovnakú intelektuálnu prácu, ktorá by ľuďom trvala 20 000 rokov, 159 00:07:46,400 --> 00:07:48,360 týždeň za týždňom. 160 00:07:49,640 --> 00:07:52,736 Ako by sme vôbec mohli pochopiť, či snáď nejako obmedziť 161 00:07:52,760 --> 00:07:55,040 myseľ schopnú takéhoto pokroku? 162 00:07:56,840 --> 00:07:58,976 Úprimne, je tu ďalšia znepokojivá vec - 163 00:07:59,000 --> 00:08:03,976 predstavte si najlepší možný scenár. 164 00:08:04,000 --> 00:08:08,176 Predstavte si, že sa nám podarí navrhnúť super inteligentnú AI, ktorá nebude mať 165 00:08:08,200 --> 00:08:09,576 žiadne bezpečnostné hrozby. 166 00:08:09,600 --> 00:08:12,856 Budeme mať perfektnú verziu hneď na prvý pokus. 167 00:08:12,880 --> 00:08:15,096 Ako keby sa naplnila veštba a všetko 168 00:08:15,120 --> 00:08:17,136 by fungovalo, tak ako bolo zamýšľané. 169 00:08:17,160 --> 00:08:20,880 Takýto stroj by ľuďom perfektne uľahčoval prácu. 170 00:08:21,530 --> 00:08:24,109 Dokázal by navrhnúť stroj, ktorý by zostrojil stroje, 171 00:08:24,133 --> 00:08:25,896 čo vykonajú akúkoľvek fyzickú prácu, 172 00:08:25,920 --> 00:08:27,376 napájané slnečným žiarením, 173 00:08:27,400 --> 00:08:30,096 viac-menej za cenu vstupných materiálov. 174 00:08:30,120 --> 00:08:33,376 Takže, hovoríme o konci ľudskej driny. 175 00:08:33,400 --> 00:08:36,200 Hovoríme taktiež o konci väčšiny intelektuálnej práce. 176 00:08:37,200 --> 00:08:40,256 Ale čo by také opice ako sme my robili za takýchto okolností? 177 00:08:40,280 --> 00:08:44,360 No, mali by sme čas hrať Frisbee a vzájomne sa masírovať. 178 00:08:45,840 --> 00:08:48,696 Pridali by sme nejaké to LSD a pochybné oblečenie 179 00:08:48,720 --> 00:08:50,896 a celý svet by mohol byť ako "Burning Man". 180 00:08:50,920 --> 00:08:52,560 (smiech) 181 00:08:54,320 --> 00:08:56,320 Teraz, aj keď to znie lákavo, 182 00:08:57,280 --> 00:08:59,656 ale spýtajte sa sami seba, čo by mohlo nastať, 183 00:08:59,680 --> 00:09:02,416 keby ekonomika a politika fungovali tak ako dnes? 184 00:09:02,440 --> 00:09:04,856 Zdá sa pravdepodobné, že by sme boli svedkami 185 00:09:04,880 --> 00:09:09,016 takej sociálnej nerovnosti a nezamestnanosti, 186 00:09:09,040 --> 00:09:10,536 ako nikdy predtým. 187 00:09:10,560 --> 00:09:13,176 Absencia ochoty poskytnúť toto nové bohatstvo 188 00:09:13,200 --> 00:09:14,680 do služieb celého ľudstva. 189 00:09:15,640 --> 00:09:19,256 Niekoľko miliardárov by zdobilo titulky obchodných magazínov, 190 00:09:19,280 --> 00:09:21,720 zatiaľčo zbytok sveta by pokojne hladoval. 191 00:09:22,320 --> 00:09:24,616 A čo by urobili Rusi a Číňania, ak by sa 192 00:09:24,640 --> 00:09:27,256 dozvedeli, že nejaká spoločnosť v Silicon Valley 193 00:09:27,280 --> 00:09:30,016 sa chystá nasadiť super inteligentnú AI? 194 00:09:30,040 --> 00:09:32,896 Takýto stroj by bol schopný viesť vojnu, 195 00:09:32,920 --> 00:09:35,136 či už pozemnú alebo kybernetickú 196 00:09:35,160 --> 00:09:36,840 s nebývalou silou. 197 00:09:38,120 --> 00:09:39,976 To je scenár, kde víťaz berie všetko. 198 00:09:40,000 --> 00:09:43,136 Šesťmesačný náskok pred konkurenciou 199 00:09:43,160 --> 00:09:45,936 by znamenal minimálne náskok 200 00:09:45,960 --> 00:09:47,456 500 000 rokov. 201 00:09:47,480 --> 00:09:52,216 Zdá sa, že číre fámy o prelome v tejto oblasti 202 00:09:52,240 --> 00:09:54,616 by nás mohli priviesť k nepríčetnosti. 203 00:09:54,640 --> 00:09:57,536 Jedna z najdesivejších vecí 204 00:09:57,560 --> 00:10:00,336 v tejto chvíli z môjho pohľadu 205 00:10:00,360 --> 00:10:04,656 je to, čo hovoria vedci, ktorí vyvíjajú umelú inteligenciu, 206 00:10:04,680 --> 00:10:06,240 keď nás chcú upokojiť. 207 00:10:07,000 --> 00:10:10,456 Najčastejším dôvodom, prečo sa vraj nemáme obávať, je čas. 208 00:10:10,480 --> 00:10:12,536 Toto všetko je ešte ďaleko, všakže. 209 00:10:12,560 --> 00:10:15,000 Ešte to potrvá pravdepodobne 50 alebo 100 rokov. 210 00:10:15,720 --> 00:10:16,976 Jeden výskumník povedal: 211 00:10:17,000 --> 00:10:18,576 "Obávať sa bezpečnosti AI 212 00:10:18,600 --> 00:10:20,880 je ako báť sa preľudnenia Marsu." 213 00:10:22,116 --> 00:10:23,736 Toto je je verzia Silicon Valley: 214 00:10:23,760 --> 00:10:26,136 "Nechaj to koňovi, ten má väčšiu hlavu." 215 00:10:26,160 --> 00:10:27,496 (smiech) 216 00:10:27,520 --> 00:10:29,416 Zdá sa, že nikto nezaznamenal, 217 00:10:29,440 --> 00:10:32,056 že odvolávať sa na časový horizont 218 00:10:32,080 --> 00:10:34,656 je totálne nelogické. 219 00:10:34,680 --> 00:10:37,936 Ak je inteligencia len spôsob spracovania informácií 220 00:10:37,960 --> 00:10:40,616 a my budeme pokračovať v zlepšovaní našich strojov, 221 00:10:40,640 --> 00:10:43,520 tak vytvoríme nejakú formu super inteligencie. 222 00:10:44,320 --> 00:10:47,976 A nemáme poňatia, ako dlho nám bude trvať, 223 00:10:48,000 --> 00:10:50,400 než ju vytvoríme za bezpečných podmienok. 224 00:10:52,200 --> 00:10:53,496 Poviem to ešte raz. 225 00:10:53,520 --> 00:10:57,336 Nemáme poňatia, ako dlho nám bude trvať, 226 00:10:57,360 --> 00:10:59,600 než ju vytvoríme za bezpečných podmienok. 227 00:11:00,920 --> 00:11:04,376 A možno ste si nevšimli, že 50 rokov už nie je to, čo bývalo. 228 00:11:04,400 --> 00:11:06,856 Toto je 50 rokov v mesiacoch. 229 00:11:06,880 --> 00:11:08,720 Takto dlho máme iPhone. 230 00:11:09,440 --> 00:11:12,040 Takto dlho sa vysielajú Simpsonovci. 231 00:11:12,680 --> 00:11:15,056 50 rokov nie je tak veľa času, 232 00:11:15,080 --> 00:11:18,240 aby si náš druh poradil s najväčšou výzvou, pred ktorou kedy stál. 233 00:11:19,640 --> 00:11:23,656 Ešte raz - zdá sa, že nemáme primeranú emocionálnu odpoveď 234 00:11:23,680 --> 00:11:26,376 na niečo, čo podľa všetkého nastane. 235 00:11:26,400 --> 00:11:30,376 Počítačový vedec Stuart Russell má nato peknú analógiu. 236 00:11:30,400 --> 00:11:35,296 Povedal, predstavte si, že dostaneme správu od mimozemskej civilizácie, 237 00:11:35,320 --> 00:11:37,016 v ktorej bude: 238 00:11:37,040 --> 00:11:38,576 "Pozemšťania, 239 00:11:38,600 --> 00:11:40,960 za 50 rokov dorazíme na vašu planétu. 240 00:11:41,800 --> 00:11:43,376 Pripravte sa." 241 00:11:43,400 --> 00:11:47,656 A teraz budeme len počítať mesiace do pristátia mimozemskej lode? 242 00:11:47,680 --> 00:11:50,680 Asi by sme cítili trochu viac naliehavosti ako teraz. 243 00:11:52,680 --> 00:11:54,536 Ďalší dôvod, prečo sa nemáme obávať, je, 244 00:11:54,560 --> 00:11:57,576 že týmto strojom nezostane nič iné, len zdieľať naše hodnoty, 245 00:11:57,600 --> 00:12:00,216 pretože budú doslovne naším vlastným rozšírením. 246 00:12:00,240 --> 00:12:02,056 Budú zabudované do našich mozgov 247 00:12:02,080 --> 00:12:04,440 a my budeme v podstate ich limbickým systémom. 248 00:12:05,120 --> 00:12:06,536 Zamyslite sa a zvážte, 249 00:12:06,560 --> 00:12:09,736 že tou najbezpečnejšou a jedinou rozvážnou cestou, 250 00:12:09,760 --> 00:12:11,096 ktorá sa odporúča, 251 00:12:11,120 --> 00:12:13,920 je nasadiť tieto technológie priamo do našich mozgov. 252 00:12:14,600 --> 00:12:17,976 Fakticky, ona to môže byť najbezpečnejšia a jediná rozvážna cesta vpred, 253 00:12:18,000 --> 00:12:21,056 ale zvyčajne je dobré obávať sa bezpečnosti technológií, 254 00:12:21,080 --> 00:12:24,736 pretože by to malo byť celkom dobre vyladené, než si to vložíte do hlavy. 255 00:12:24,760 --> 00:12:26,776 (smiech) 256 00:12:26,800 --> 00:12:32,136 Hlbším problémom je, že budovanie samotnej super inteligentnej AI sa zdá byť 257 00:12:32,160 --> 00:12:33,896 pravdepodobne jednoduchšie, 258 00:12:33,920 --> 00:12:35,776 než budovanie super inteligentnej AI 259 00:12:35,800 --> 00:12:37,576 a mať vyriešenú neurovedu, ktorá nám 260 00:12:37,600 --> 00:12:40,280 dovolí bezproblémovú integráciu našich myslí s ňou. 261 00:12:40,800 --> 00:12:43,976 A keďže firmy a vlády, ktoré sa na tom podieľajú, 262 00:12:44,000 --> 00:12:47,656 to pravdepodobne vnímajú ako závod so všetkými ostatnými, 263 00:12:47,680 --> 00:12:50,936 pretože vyhrať tento závod znamená dobyť svet, 264 00:12:50,960 --> 00:12:53,416 za predpokladu, že ho hneď vzápätí nezničíte, 265 00:12:53,440 --> 00:12:56,056 tak potom je pravdepodobné, že to, čo bude jednoduchšie, 266 00:12:56,080 --> 00:12:57,280 sa urobí ako prvé. 267 00:12:58,560 --> 00:13:01,416 Bohužiaľ, teraz nemám riešenie tohto problému, 268 00:13:01,440 --> 00:13:04,056 okrem odporúčania, že by sme o tom mali viac premýšľať. 269 00:13:04,080 --> 00:13:06,456 Myslím, že je nutné niečo ako "Manhattan Projekt" 270 00:13:06,480 --> 00:13:08,496 na tému umelej inteligencie. 271 00:13:08,520 --> 00:13:11,256 Nie ako ju vytvoriť, pretože si myslím, že to nevyhnutne 272 00:13:11,280 --> 00:13:14,616 nastane, ale v pochopení ako sa vyhnúť závodom v zbrojení 273 00:13:14,640 --> 00:13:18,136 a ako ju vytvoriť spôsobom, ktorý je v súlade s našimi záujmami. 274 00:13:18,160 --> 00:13:20,296 Keď hovoríme o super inteligentnej AI, 275 00:13:20,320 --> 00:13:22,576 ktorá dokáže meniť samu seba, 276 00:13:22,600 --> 00:13:27,216 tak sa zdá, že máme len jednu šancu, ako nastaviť východiskové podmienky správne, 277 00:13:27,240 --> 00:13:29,296 a aj vtedy budeme musieť tlmiť 278 00:13:29,320 --> 00:13:32,360 ekonomické a politické následky. 279 00:13:33,760 --> 00:13:35,816 Ale vo chvíli, keď pripustíme, 280 00:13:35,840 --> 00:13:39,840 že spracovanie informácií je zdrojom inteligencie, 281 00:13:40,720 --> 00:13:45,520 že nejaký vhodný počítačový systém je to, čo môže byť základom inteligencie, 282 00:13:46,360 --> 00:13:50,120 a keď pripustíme, že budeme tieto systémy neustále zdokonaľovať, 283 00:13:51,280 --> 00:13:55,736 a keď pripustíme, že horizont poznania veľmi pravdepodobne prekročí to, 284 00:13:55,760 --> 00:13:56,960 čo v súčasnosti vieme, 285 00:13:58,120 --> 00:13:59,336 tak si musíme pripustiť, 286 00:13:59,360 --> 00:14:02,000 že sme v procese budovania istého druhu boha. 287 00:14:03,400 --> 00:14:04,976 Teraz by bolo dobré sa uistiť, 288 00:14:05,000 --> 00:14:06,953 že to bude boh, s ktorým budeme môcť žiť. 289 00:14:08,120 --> 00:14:09,656 Ďakujem veľmi pekne. 290 00:14:09,680 --> 00:14:14,773 (potlesk)