0:00:01.000,0:00:03.216 Budem hovoriť o zlyhaní intuície, 0:00:03.240,0:00:04.840 ktorým trpí mnoho z nás. 0:00:05.480,0:00:08.520 Vlastne ide o zlyhanie odhalenia[br]určitého druhu nebezpečia. 0:00:09.360,0:00:11.096 Popíšem vám situáciu, 0:00:11.120,0:00:14.376 o ktorej si myslím, že je desivá 0:00:14.400,0:00:16.160 a zároveň pravdepodobná, 0:00:16.840,0:00:18.496 čo, ako vieme, 0:00:18.520,0:00:20.056 nie je dobrá kombinácia. 0:00:20.080,0:00:22.536 A aj tak, mnohí z vás nebudú[br]vystrašení, ale budú 0:00:22.560,0:00:24.640 si myslieť, že to,[br]o čom hovorím, je cool. 0:00:25.200,0:00:28.176 Budem hovoriť o tom, ako nás pokrok, 0:00:28.200,0:00:30.076 ktorý dosahujeme[br]v umelej inteligencii, 0:00:30.076,0:00:31.776 môže nakoniec úplne zničiť. 0:00:31.800,0:00:35.256 A vskutku si myslím, že je ťažké[br]nevidieť, že nás zničí, alebo nás 0:00:35.280,0:00:36.960 inšpiruje, aby sme sa zničili sami. 0:00:37.400,0:00:39.256 A pokiaľ ste ako ja, 0:00:39.280,0:00:41.936 je pre vás zábavou zamýšľať sa nad tým. 0:00:41.960,0:00:45.336 Naše reakcie sú súčasťou toho problému. 0:00:45.360,0:00:47.080 Tieto reakcie by vás mali trápiť. 0:00:47.920,0:00:50.576 Ak by som vás teraz presvedčoval, 0:00:50.600,0:00:54.016 že ľudstvo pravdepodobne [br]zasiahne globálny hladomor, 0:00:54.040,0:00:57.096 buď kvôli klimatickým zmenám,[br]alebo z dôvodu inej katastrofy, 0:00:57.120,0:01:00.536 a že vaše vnúčatá a ich vnúčatá 0:01:00.560,0:01:02.360 budú pravdepodobne žiť takto, 0:01:03.200,0:01:04.400 určite si nepomyslíte, 0:01:05.440,0:01:06.776 "Zaujímavé. 0:01:06.800,0:01:08.000 To je pekná prednáška." 0:01:09.200,0:01:10.720 Hladomor nie je zábava. 0:01:11.800,0:01:15.176 Na druhú stranu, smrť v sci-fi zábavná je, 0:01:15.200,0:01:19.176 jedna z vecí, ktorá ma na vývoji umelej [br]inteligencie trápi najviac, je, že nie sme 0:01:19.200,0:01:23.296 schopní primerane emocionálne reagovať 0:01:23.320,0:01:25.136 na nebezpečie, ktoré leží pred nami. 0:01:25.160,0:01:28.360 Ja sám nie som toho schopný [br]a sám o tom teraz prednášam. 0:01:30.120,0:01:32.816 Pomyslite si, že stojíme[br]pred dvoma dvermi. 0:01:32.840,0:01:34.096 Za dvermi číslo jedna 0:01:34.120,0:01:37.416 zastavíme vývoj a budovanie [br]inteligentných strojov. 0:01:37.440,0:01:41.456 Počítačový software a hardware sa prosto[br]z nejakého dôvodu prestane vylepšovať. 0:01:41.480,0:01:44.480 Zastavme sa na chvíľu a premýšľajme,[br]prečo by toto mohlo nastať. 0:01:45.080,0:01:48.736 S ohľadom nato, akým prínosom [br]inteligencia a automatizácia pre nás je, 0:01:48.760,0:01:52.280 budeme technológie stále zlepšovať,[br]pokiaľ toho budeme vôbec schopní. 0:01:53.200,0:01:54.867 Čo by nás mohlo v tomto zastaviť? 0:01:55.800,0:01:57.600 Celosvetová nukleárna vojna? 0:01:59.000,0:02:00.560 Globálna pandémia? 0:02:02.320,0:02:03.640 Dopad asteroidu? 0:02:05.640,0:02:08.216 Justin Bieber prezidentom USA? 0:02:08.240,0:02:10.520 (smiech) 0:02:12.760,0:02:16.680 Ide o to, že by našu súčasnú civilizáciu,[br]tak ako ju poznáme, muselo niečo zničiť. 0:02:17.360,0:02:21.656 Predstavte si, ako zlé[br]by to muselo byť, 0:02:21.680,0:02:25.016 aby sme neboli schopní ďalej[br]vylepšovať naše technológie, 0:02:25.040,0:02:26.256 neustále, 0:02:26.280,0:02:28.296 generáciu za generáciou. 0:02:28.320,0:02:30.456 V zásade je to tá najhoršia vec, 0:02:30.480,0:02:32.496 aká by mohla v ľudských dejinách nastať. 0:02:32.520,0:02:33.816 Takže jedinou alternatívou, 0:02:33.840,0:02:36.176 ktorá je za dvermi číslo dva, 0:02:36.200,0:02:39.336 je pokračovať v zdokonaľovaní[br]našich inteligentných strojov, 0:02:39.360,0:02:40.960 postupne rok za rokom. 0:02:41.720,0:02:45.360 A v určitom okamžiku postavíme stroje,[br]ktoré budú chytrejšie než my sami, 0:02:46.080,0:02:48.696 a keď budeme mať stroje, ktoré[br]budú chytrejšie od nás, 0:02:48.720,0:02:50.696 tak sa začnú zdokonaľovať samy. 0:02:50.720,0:02:53.456 A v tom okamihu hrozí situácia,[br]ktorú matematik I.J.Good 0:02:53.480,0:02:55.256 nazval "inteligenčná explózia," 0:02:55.280,0:02:57.280 a vtedy by sa to mohlo vymknúť z rúk. 0:02:58.120,0:03:00.936 Ako vidíte napríklad tu,[br]táto téma sa často karikuje, 0:03:00.960,0:03:04.176 ako obava z armád zlých robotov, 0:03:04.200,0:03:05.456 ktoré na nás zaútočia. 0:03:05.480,0:03:08.176 Ale toto nie je [br]najpravdepodobnejší scenár. 0:03:08.200,0:03:13.056 Nie je to tak,[br]že by stroje zrazu začali byť zlé. 0:03:13.080,0:03:15.696 Problém je v tom, že vytvoríme stroje, 0:03:15.720,0:03:17.776 ktoré budú oveľa schopnejšie než sme my, 0:03:17.800,0:03:21.576 takže aj tá najjemnejšia odchýlka[br]medzi ich a našimi cieľmi, 0:03:21.600,0:03:22.800 by nás mohla zničiť. 0:03:23.960,0:03:26.040 Zamyslite sa, ako sa [br]chováme k mravcom. 0:03:26.600,0:03:28.256 Nemáme nič proti nim. 0:03:28.280,0:03:30.336 Neubližujeme im cielene. 0:03:30.360,0:03:32.736 Dokonca občas znesieme bolesť[br]a neubližujeme im. 0:03:32.760,0:03:34.776 Prekračujeme ich na chodníku. 0:03:34.800,0:03:36.936 Ale kedykoľvek je ich prítomnosť 0:03:36.960,0:03:39.456 vo vážnom konflikte s našimi cieľmi, 0:03:39.480,0:03:41.957 povedzme, keď staviame budovu ako táto, 0:03:41.981,0:03:43.941 tak ich bez mihnutia oka zničíme. 0:03:44.480,0:03:47.416 Obávam sa, že jedného dňa[br]vytvoríme stroje, 0:03:47.440,0:03:50.176 ktoré, vedome alebo nevedome,[br]budú s nami 0:03:50.200,0:03:52.200 zachádzať s podobnou ľahostajnosťou. 0:03:53.760,0:03:56.520 Mnohím z vás to príde [br]pritiahnuté za vlasy. 0:03:57.360,0:04:03.696 Vsadím sa, že mnohí z vás pochybujú,[br]že super inteligentné stroje sú možné, 0:04:03.720,0:04:05.436 tobôž, že by to nevyhnutne nastalo. 0:04:05.436,0:04:09.020 Potom však musíte nájsť niečo nesprávne[br]v nasledujúcich predpokladoch. 0:04:09.044,0:04:10.616 A v podstate sú len tri. 0:04:11.800,0:04:16.519 Inteligencia je výsledkom spracovania[br]informácie v hmotných systémoch. 0:04:17.320,0:04:19.935 Vlastne, toto je trochu viac[br]než len predpoklad. 0:04:19.959,0:04:23.416 Do strojov sme už obmedzenú [br]inteligenciu zabudovali 0:04:23.440,0:04:25.456 a veľa z týchto strojov už pracuje 0:04:25.480,0:04:28.120 na úrovni super inteligentných ľudí. 0:04:28.840,0:04:31.416 A vieme, že bežná hmota 0:04:31.440,0:04:34.056 môže byť vznikom takzvanej[br]"všeobecnej inteligencie", 0:04:34.080,0:04:37.736 teda schopnosti flexibilne myslieť[br]naprieč rôznymi oblasťami, 0:04:37.760,0:04:40.896 pretože naše mozgy to už dokázali, však? 0:04:40.920,0:04:44.856 Mám na mysli, že naše mozgy[br]sa skladajú len z atómov, 0:04:44.880,0:04:49.376 a pokiaľ budeme pokračovať [br]v budovaní systémov z atómov, 0:04:49.400,0:04:52.096 ktoré vykazujú čoraz[br]inteligentnejšie správanie, 0:04:52.120,0:04:54.656 tak nakoniec, pokiaľ nás niečo nezastaví, 0:04:54.680,0:04:58.056 zabudujeme všeobecnú inteligenciu 0:04:58.080,0:04:59.376 do našich strojov. 0:04:59.400,0:05:03.056 Kľúčové je si uvedomiť,[br]že na rýchlosti pokroku nezáleží, 0:05:03.080,0:05:06.256 pretože k dosiahnutiu cieľa[br]stačí akékoľvek tempo. 0:05:06.280,0:05:10.056 Nepotrebujeme Mooreov zákon,[br]nie je nutný exponenciálny vývoj. 0:05:10.080,0:05:11.680 Jednoducho stačí pokračovať. 0:05:13.480,0:05:16.400 Druhým predpokladom je,[br]že budeme pokračovať. 0:05:17.000,0:05:19.760 Budeme naďalej zlepšovať naše[br]inteligentné stroje. 0:05:21.000,0:05:25.376 A keďže inteligencia je pre nás dôležitá - 0:05:25.400,0:05:28.936 mám na mysli, že inteligencia je [br]buď zdrojom všetkého, čo si ceníme, 0:05:28.960,0:05:31.736 alebo ju potrebujeme [br]na ochranu všetkého, čo si ceníme. 0:05:31.760,0:05:34.016 Je to náš najhodnotnejší zdroj. 0:05:34.040,0:05:35.576 Takže v tom chceme pokračovať. 0:05:35.600,0:05:38.936 Máme problémy,[br]ktoré zúfalo musíme vyriešiť. 0:05:38.960,0:05:42.160 Chceme liečiť choroby [br]ako Alzheimer a rakovina. 0:05:42.960,0:05:46.896 Chceme porozumieť ekonomickým systémom.[br]Chceme zlepšiť náš klimatický výskum. 0:05:46.920,0:05:49.176 Takže, pokiaľ to pôjde, budeme pokračovať. 0:05:49.200,0:05:52.486 Tento vlak je už rozbehnutý[br]a nejde ho zastaviť. 0:05:53.880,0:05:59.336 A, nakoniec, my nestojíme na vrchole[br]inteligencie a pravdepodobne 0:05:59.360,0:06:01.160 ani niekde blízko vrcholu. 0:06:01.640,0:06:03.536 Toto je skutočne kľúčový pohľad. 0:06:03.560,0:06:05.976 To je dôvod, prečo je naša situácia[br]taká prekérna, 0:06:06.000,0:06:10.040 a dôvod, prečo je naša intuícia [br]taká nespoľahlivá pri posudzovaní rizík. 0:06:11.120,0:06:13.840 Vezmite si trebárs najmúdrejšiu osobu,[br]ktorá kedy žila. 0:06:14.640,0:06:18.056 Takmer každý by do najužšieho výberu[br]zaradil Johna von Neumanna. 0:06:18.080,0:06:21.416 To, akým dojmom pôsobil van Neumann[br]na ľudí okolo seba, 0:06:21.440,0:06:25.496 medzi ktorých patrili najlepší matematici[br]a fyzici tej doby, 0:06:25.520,0:06:27.456 je veľmi dobre zdokumentované. 0:06:27.480,0:06:31.256 Ak by len polovica historiek o ňom[br]bola aspoň z polovice pravdivá, 0:06:31.280,0:06:32.496 tak nie je pochýb, 0:06:32.520,0:06:34.976 že patril medzi najmúdrejších ľudí[br]v histórii. 0:06:35.000,0:06:37.520 Takže zvážme spektrum inteligencie. 0:06:38.320,0:06:39.749 Tu máme John von Neumanna. 0:06:41.560,0:06:42.894 A tu ste vy a ja. 0:06:44.120,0:06:45.416 A tu máme kura. 0:06:45.440,0:06:47.376 (smiech) 0:06:47.400,0:06:48.616 Pardon, kura. 0:06:48.640,0:06:49.896 (smiech) 0:06:49.920,0:06:53.656 Nie je dôvod, aby bola táto prednáška[br]depresívnejšia, než je nutné. 0:06:53.680,0:06:55.280 (smiech) 0:06:56.339,0:06:59.816 Zdá sa nanajvýš pravdepodobné,[br]že rozsah inteligencie 0:06:59.840,0:07:02.960 je oveľa širší, než ako ho [br]v súčasnosti vnímame, 0:07:03.880,0:07:07.096 a keď postavíme stroje,[br]ktoré budú inteligentnejšie než sme my, 0:07:07.120,0:07:09.416 tak budú veľmi pravdepodobne[br]skúmať to spektrum 0:07:09.440,0:07:11.296 spôsobom, ktorý si nevieme predstaviť, 0:07:11.320,0:07:13.840 a presiahnu nás spôsobom,[br]ktorý si nevieme predstaviť. 0:07:15.000,0:07:19.336 A je dôležité rozoznať, že je tomu tak[br]už vďaka samotnej rýchlosti. 0:07:19.360,0:07:24.416 Predstavte si, že sme vytvorili super[br]inteligentnú umelú inteligenciu (AI), 0:07:24.440,0:07:27.896 ktorá je rovnako chytrá ako[br]priemerný tím vedcov 0:07:27.920,0:07:30.216 na Stanforde alebo MIT. 0:07:30.240,0:07:33.216 Lenže elektronické obvody fungujú asi[br]miliónkrát rýchlejšie 0:07:33.240,0:07:34.496 než biochemické, 0:07:34.520,0:07:37.656 takže, takýto stroj by mohol myslieť[br]asi miliónkrát rýchlejšie 0:07:37.680,0:07:39.496 ako myseľ, ktorá ho zostrojila. 0:07:39.520,0:07:41.176 Takže, keď ho spustíte na týždeň, 0:07:41.200,0:07:45.760 tak vykoná rovnakú intelektuálnu prácu,[br]ktorá by ľuďom trvala 20 000 rokov, 0:07:46.400,0:07:48.360 týždeň za týždňom. 0:07:49.640,0:07:52.736 Ako by sme vôbec mohli pochopiť,[br]či snáď nejako obmedziť 0:07:52.760,0:07:55.040 myseľ schopnú takéhoto pokroku? 0:07:56.840,0:07:58.976 Úprimne, je tu ďalšia znepokojivá vec - 0:07:59.000,0:08:03.976 predstavte si najlepší možný scenár. 0:08:04.000,0:08:08.176 Predstavte si, že sa nám podarí navrhnúť[br]super inteligentnú AI, ktorá nebude mať 0:08:08.200,0:08:09.576 žiadne bezpečnostné hrozby. 0:08:09.600,0:08:12.856 Budeme mať perfektnú verziu[br]hneď na prvý pokus. 0:08:12.880,0:08:15.096 Ako keby sa naplnila veštba a všetko 0:08:15.120,0:08:17.136 by fungovalo, tak ako bolo zamýšľané. 0:08:17.160,0:08:20.880 Takýto stroj by ľuďom perfektne [br]uľahčoval prácu. 0:08:21.530,0:08:24.109 Dokázal by navrhnúť stroj,[br]ktorý by zostrojil stroje, 0:08:24.133,0:08:25.896 čo vykonajú akúkoľvek fyzickú prácu, 0:08:25.920,0:08:27.376 napájané slnečným žiarením, 0:08:27.400,0:08:30.096 viac-menej za cenu vstupných materiálov. 0:08:30.120,0:08:33.376 Takže, hovoríme o konci ľudskej driny. 0:08:33.400,0:08:36.200 Hovoríme taktiež o konci väčšiny[br]intelektuálnej práce. 0:08:37.200,0:08:40.256 Ale čo by také opice ako sme my [br]robili za takýchto okolností? 0:08:40.280,0:08:44.360 No, mali by sme čas hrať Frisbee a [br]vzájomne sa masírovať. 0:08:45.840,0:08:48.696 Pridali by sme nejaké to LSD[br]a pochybné oblečenie 0:08:48.720,0:08:50.896 a celý svet by mohol byť [br]ako "Burning Man". 0:08:50.920,0:08:52.560 (smiech) 0:08:54.320,0:08:56.320 Teraz, aj keď to znie lákavo, 0:08:57.280,0:08:59.656 ale spýtajte sa sami seba,[br]čo by mohlo nastať, 0:08:59.680,0:09:02.416 keby ekonomika a politika fungovali[br]tak ako dnes? 0:09:02.440,0:09:04.856 Zdá sa pravdepodobné, [br]že by sme boli svedkami 0:09:04.880,0:09:09.016 takej sociálnej nerovnosti [br]a nezamestnanosti, 0:09:09.040,0:09:10.536 ako nikdy predtým. 0:09:10.560,0:09:13.176 Absencia ochoty poskytnúť[br]toto nové bohatstvo 0:09:13.200,0:09:14.680 do služieb celého ľudstva. 0:09:15.640,0:09:19.256 Niekoľko miliardárov by zdobilo [br]titulky obchodných magazínov, 0:09:19.280,0:09:21.720 zatiaľčo zbytok sveta by pokojne hladoval. 0:09:22.320,0:09:24.616 A čo by urobili Rusi a Číňania, ak by sa 0:09:24.640,0:09:27.256 dozvedeli, že nejaká spoločnosť[br]v Silicon Valley 0:09:27.280,0:09:30.016 sa chystá nasadiť super inteligentnú AI? 0:09:30.040,0:09:32.896 Takýto stroj by bol schopný viesť vojnu, 0:09:32.920,0:09:35.136 či už pozemnú alebo kybernetickú 0:09:35.160,0:09:36.840 s nebývalou silou. 0:09:38.120,0:09:39.976 To je scenár, kde víťaz berie všetko. 0:09:40.000,0:09:43.136 Šesťmesačný náskok pred konkurenciou 0:09:43.160,0:09:45.936 by znamenal minimálne náskok 0:09:45.960,0:09:47.456 500 000 rokov. 0:09:47.480,0:09:52.216 Zdá sa, že číre fámy o prelome[br]v tejto oblasti 0:09:52.240,0:09:54.616 by nás mohli priviesť k nepríčetnosti. 0:09:54.640,0:09:57.536 Jedna z najdesivejších vecí 0:09:57.560,0:10:00.336 v tejto chvíli z môjho pohľadu 0:10:00.360,0:10:04.656 je to, čo hovoria vedci, ktorí vyvíjajú[br]umelú inteligenciu, 0:10:04.680,0:10:06.240 keď nás chcú upokojiť. 0:10:07.000,0:10:10.456 Najčastejším dôvodom, prečo sa vraj nemáme[br]obávať, je čas. 0:10:10.480,0:10:12.536 Toto všetko je ešte ďaleko, všakže. 0:10:12.560,0:10:15.000 Ešte to potrvá pravdepodobne[br]50 alebo 100 rokov. 0:10:15.720,0:10:16.976 Jeden výskumník povedal: 0:10:17.000,0:10:18.576 "Obávať sa bezpečnosti AI 0:10:18.600,0:10:20.880 je ako báť sa preľudnenia Marsu." 0:10:22.116,0:10:23.736 Toto je je verzia Silicon Valley: 0:10:23.760,0:10:26.136 "Nechaj to koňovi, ten má väčšiu hlavu." 0:10:26.160,0:10:27.496 (smiech) 0:10:27.520,0:10:29.416 Zdá sa, že nikto nezaznamenal, 0:10:29.440,0:10:32.056 že odvolávať sa na časový horizont 0:10:32.080,0:10:34.656 je totálne nelogické. 0:10:34.680,0:10:37.936 Ak je inteligencia len spôsob [br]spracovania informácií 0:10:37.960,0:10:40.616 a my budeme pokračovať v zlepšovaní[br]našich strojov, 0:10:40.640,0:10:43.520 tak vytvoríme nejakú formu[br]super inteligencie. 0:10:44.320,0:10:47.976 A nemáme poňatia,[br]ako dlho nám bude trvať, 0:10:48.000,0:10:50.400 než ju vytvoríme za bezpečných podmienok. 0:10:52.200,0:10:53.496 Poviem to ešte raz. 0:10:53.520,0:10:57.336 Nemáme poňatia,[br]ako dlho nám bude trvať, 0:10:57.360,0:10:59.600 než ju vytvoríme za bezpečných podmienok. 0:11:00.920,0:11:04.376 A možno ste si nevšimli,[br]že 50 rokov už nie je to, čo bývalo. 0:11:04.400,0:11:06.856 Toto je 50 rokov v mesiacoch. 0:11:06.880,0:11:08.720 Takto dlho máme iPhone. 0:11:09.440,0:11:12.040 Takto dlho sa vysielajú Simpsonovci. 0:11:12.680,0:11:15.056 50 rokov nie je tak veľa času, 0:11:15.080,0:11:18.240 aby si náš druh poradil s najväčšou[br]výzvou, pred ktorou kedy stál. 0:11:19.640,0:11:23.656 Ešte raz - zdá sa, že nemáme primeranú[br]emocionálnu odpoveď 0:11:23.680,0:11:26.376 na niečo, čo podľa všetkého nastane. 0:11:26.400,0:11:30.376 Počítačový vedec Stuart Russell má nato[br]peknú analógiu. 0:11:30.400,0:11:35.296 Povedal, predstavte si, že dostaneme [br]správu od mimozemskej civilizácie, 0:11:35.320,0:11:37.016 v ktorej bude: 0:11:37.040,0:11:38.576 "Pozemšťania, 0:11:38.600,0:11:40.960 za 50 rokov dorazíme na vašu planétu. 0:11:41.800,0:11:43.376 Pripravte sa." 0:11:43.400,0:11:47.656 A teraz budeme len počítať mesiace[br]do pristátia mimozemskej lode? 0:11:47.680,0:11:50.680 Asi by sme cítili trochu viac[br]naliehavosti ako teraz. 0:11:52.680,0:11:54.536 Ďalší dôvod, prečo sa [br]nemáme obávať, je, 0:11:54.560,0:11:57.576 že týmto strojom nezostane nič iné,[br]len zdieľať naše hodnoty, 0:11:57.600,0:12:00.216 pretože budú doslovne naším[br]vlastným rozšírením. 0:12:00.240,0:12:02.056 Budú zabudované do našich mozgov 0:12:02.080,0:12:04.440 a my budeme v podstate ich [br]limbickým systémom. 0:12:05.120,0:12:06.536 Zamyslite sa a zvážte, 0:12:06.560,0:12:09.736 že tou najbezpečnejšou a[br]jedinou rozvážnou cestou, 0:12:09.760,0:12:11.096 ktorá sa odporúča, 0:12:11.120,0:12:13.920 je nasadiť tieto technológie[br]priamo do našich mozgov. 0:12:14.600,0:12:17.976 Fakticky, ona to môže byť najbezpečnejšia[br]a jediná rozvážna cesta vpred, 0:12:18.000,0:12:21.056 ale zvyčajne je dobré obávať sa[br]bezpečnosti technológií, 0:12:21.080,0:12:24.736 pretože by to malo byť celkom dobre[br]vyladené, než si to vložíte do hlavy. 0:12:24.760,0:12:26.776 (smiech) 0:12:26.800,0:12:32.136 Hlbším problémom je, že budovanie[br]samotnej super inteligentnej AI sa zdá byť 0:12:32.160,0:12:33.896 pravdepodobne jednoduchšie, 0:12:33.920,0:12:35.776 než budovanie super inteligentnej AI 0:12:35.800,0:12:37.576 a mať vyriešenú neurovedu, ktorá nám 0:12:37.600,0:12:40.280 dovolí bezproblémovú integráciu[br]našich myslí s ňou. 0:12:40.800,0:12:43.976 A keďže firmy a vlády,[br]ktoré sa na tom podieľajú, 0:12:44.000,0:12:47.656 to pravdepodobne vnímajú[br]ako závod so všetkými ostatnými, 0:12:47.680,0:12:50.936 pretože vyhrať tento závod[br]znamená dobyť svet, 0:12:50.960,0:12:53.416 za predpokladu, že ho hneď[br]vzápätí nezničíte, 0:12:53.440,0:12:56.056 tak potom je pravdepodobné,[br]že to, čo bude jednoduchšie, 0:12:56.080,0:12:57.280 sa urobí ako prvé. 0:12:58.560,0:13:01.416 Bohužiaľ, teraz nemám riešenie[br]tohto problému, 0:13:01.440,0:13:04.056 okrem odporúčania, že by sme o tom[br]mali viac premýšľať. 0:13:04.080,0:13:06.456 Myslím, že je nutné niečo ako[br]"Manhattan Projekt" 0:13:06.480,0:13:08.496 na tému umelej inteligencie. 0:13:08.520,0:13:11.256 Nie ako ju vytvoriť, pretože si[br]myslím, že to nevyhnutne 0:13:11.280,0:13:14.616 nastane, ale v pochopení ako sa[br]vyhnúť závodom v zbrojení 0:13:14.640,0:13:18.136 a ako ju vytvoriť spôsobom, ktorý je[br]v súlade s našimi záujmami. 0:13:18.160,0:13:20.296 Keď hovoríme o super inteligentnej AI, 0:13:20.320,0:13:22.576 ktorá dokáže meniť samu seba, 0:13:22.600,0:13:27.216 tak sa zdá, že máme len jednu šancu, ako[br]nastaviť východiskové podmienky správne, 0:13:27.240,0:13:29.296 a aj vtedy budeme musieť tlmiť 0:13:29.320,0:13:32.360 ekonomické a politické následky. 0:13:33.760,0:13:35.816 Ale vo chvíli, keď pripustíme, 0:13:35.840,0:13:39.840 že spracovanie informácií[br]je zdrojom inteligencie, 0:13:40.720,0:13:45.520 že nejaký vhodný počítačový systém[br]je to, čo môže byť základom inteligencie, 0:13:46.360,0:13:50.120 a keď pripustíme, že budeme tieto[br]systémy neustále zdokonaľovať, 0:13:51.280,0:13:55.736 a keď pripustíme, že horizont poznania[br]veľmi pravdepodobne prekročí to, 0:13:55.760,0:13:56.960 čo v súčasnosti vieme, 0:13:58.120,0:13:59.336 tak si musíme pripustiť, 0:13:59.360,0:14:02.000 že sme v procese budovania[br]istého druhu boha. 0:14:03.400,0:14:04.976 Teraz by bolo dobré sa uistiť, 0:14:05.000,0:14:06.953 že to bude boh, s ktorým budeme môcť žiť. 0:14:08.120,0:14:09.656 Ďakujem veľmi pekne. 0:14:09.680,0:14:14.773 (potlesk)