0:00:00.760,0:00:04.600 V dětství jsem byl typickým nerdem, 0:00:05.320,0:00:07.496 myslím, že pár z vás taky. 0:00:07.520,0:00:08.736 (smích) 0:00:08.760,0:00:11.976 A vy, pane, který se smějete nejhlasitěji,[br]jím ještě možná jste. 0:00:12.000,0:00:14.256 (smích) 0:00:14.280,0:00:17.776 Vyrůstal jsem v malém městě [br]na prašných pláních severního Texasu, 0:00:17.800,0:00:21.136 syn šerifa, který byl synem kněze. 0:00:21.160,0:00:23.080 Moc rošťáren jsem provádět nemohl. 0:00:24.040,0:00:27.296 A tak jsem si z nudy [br]začal číst o integrálech. 0:00:27.320,0:00:28.856 (smích) 0:00:28.880,0:00:30.576 Vy také, že? 0:00:30.600,0:00:34.336 To mě dovedlo k postavení modelu[br]laseru a počítače a rakety 0:00:34.360,0:00:37.360 a to zase k vytvoření raketového paliva[br]v mé ložnici. 0:00:37.960,0:00:41.616 Ve vědeckých termínech tomu říkáme 0:00:41.640,0:00:44.896 velmi špatný nápad. 0:00:44.920,0:00:46.136 (smích) 0:00:46.160,0:00:48.336 Ve stejném čase se do kin dostala 0:00:48.360,0:00:51.576 "2001: Vesmírná odysea" Stanleyho Kubricka 0:00:51.600,0:00:53.800 a můj život se navždy změnil. 0:00:54.280,0:00:56.336 Miloval jsem vše o tom filmu, 0:00:56.360,0:00:58.896 zejména Hala 9000. 0:00:58.920,0:01:00.976 HAL byl cítícím počítačem, 0:01:01.000,0:01:03.456 navrženým k navádění [br]vesmírné lodě Discovery 0:01:03.480,0:01:06.016 ze Země na Jupiter. 0:01:06.040,0:01:08.096 HAL měl také charakterovou vadu, 0:01:08.120,0:01:12.400 protože na konci si cenil více mise [br]než lidského života. 0:01:12.840,0:01:14.936 HAL byl fiktivní postavou, 0:01:14.960,0:01:17.616 nicméně hovoří k našemu strachu, 0:01:17.640,0:01:19.736 strachu z podřízení se 0:01:19.760,0:01:22.776 nějaké necítící, umělé inteligenci, 0:01:22.800,0:01:24.760 která je lhostejná k našemu lidství. 0:01:25.880,0:01:28.456 Věřím, že tento strach je neopodstatněný. 0:01:28.480,0:01:31.176 Nalézáme se vskutku 0:01:31.200,0:01:32.736 v pozoruhodném období, 0:01:32.760,0:01:37.736 odmítnutí omezení našich těl a mysli 0:01:37.760,0:01:39.456 nás vede ke stavbě výjimečných 0:01:39.480,0:01:43.096 nádherně komplexních a půvabných strojů, 0:01:43.120,0:01:45.176 které rozšíří lidskou zkušenost 0:01:45.200,0:01:47.420 způsoby přesahujícími naši představivost. 0:01:47.720,0:01:50.296 Po kariéře, která mne zavedla [br]z letecké akademie 0:01:50.320,0:01:52.256 přes Vesmírné velení až do dnešního dne, 0:01:52.280,0:01:53.976 jsem se stal systémovým inženýrem 0:01:54.000,0:01:56.736 a nedávno se nechal vtáhnout [br]do inženýrského problému, 0:01:56.760,0:01:59.336 souvisejícího s misí NASA na Mars. 0:01:59.360,0:02:01.856 Ve vesmírných letech na Měsíc, 0:02:01.880,0:02:05.016 můžeme spoléhat [br]na řídicí středisko v Houstonu, 0:02:05.040,0:02:07.016 které dohlíží na všechny aspekty letu. 0:02:07.040,0:02:10.576 Nicméně Mars je 200krát dále 0:02:10.600,0:02:13.816 a signálu průměrně trvá 13 minut 0:02:13.840,0:02:16.976 cestovat ze Země na Mars. 0:02:17.000,0:02:20.400 Pokud se objeví problém,[br]není zde dost času. 0:02:20.840,0:02:23.336 A rozumné inženýrské řešení 0:02:23.360,0:02:25.936 nám navrhuje umístit kontrolu mise 0:02:25.960,0:02:28.976 mezi stěny vesmírné lodi Orion. 0:02:29.000,0:02:31.896 Další fascinující myšlenka v profilu mise 0:02:31.920,0:02:34.816 umisťuje humanoidní roboty na povrch Marsu 0:02:34.840,0:02:36.696 před příletem samotných lidí, 0:02:36.720,0:02:38.376 aby nejprve postavili zařízení 0:02:38.400,0:02:41.760 a později sloužili jako členové[br]vědeckého týmu. 0:02:43.400,0:02:46.136 Když se na to dívám pohledem inženýra, 0:02:46.160,0:02:49.336 zdálo se mi jasné, že potřebuji navrhnout 0:02:49.360,0:02:51.536 malou, spolupracující, 0:02:51.560,0:02:53.936 sociálně inteligentní umělou inteligenci. 0:02:53.960,0:02:58.256 Jinými slovy jsem potřeboval postavit[br]něco velmi podobného HALovi, 0:02:58.280,0:03:00.696 ale bez vražedných tendencí. 0:03:00.720,0:03:02.080 (smích) 0:03:02.920,0:03:04.736 Zastavme se na chvilku. 0:03:04.760,0:03:08.656 Je možné postavit [br]takovou umělou inteligenci? 0:03:08.680,0:03:10.136 Vlastně ano. 0:03:10.160,0:03:11.416 Z mnoha pohledů 0:03:11.440,0:03:13.416 je to složitý inženýrský problém 0:03:13.440,0:03:14.896 s prvky AI, 0:03:14.920,0:03:19.616 není to žádný otravný AI problém,[br]který potřebuje být vyřešen. 0:03:19.640,0:03:22.296 Abych parafrázoval Alana Turinga, 0:03:22.320,0:03:24.696 nezajímá mne postavení [br]cítícího stroje. 0:03:24.720,0:03:26.296 Nestavím HALa. 0:03:26.320,0:03:28.736 Chci jen jednoduchý mozek, 0:03:28.760,0:03:31.880 který poskytuje iluzi inteligence. 0:03:33.000,0:03:35.510 Umění a věda o počítačích [br]podstoupila dlouhou cestu 0:03:35.510,0:03:37.656 od doby, kdy se HAL objevil [br]na obrazovce 0:03:37.680,0:03:40.896 a kdyby zde byl jeho tvůrce, Dr. Chandra, 0:03:40.920,0:03:43.256 měl by pro nás mnoho otázek. 0:03:43.280,0:03:45.376 Je pro nás opravdu možné 0:03:45.400,0:03:49.416 číst datové toky v systému 0:03:49.440,0:03:50.896 s miliony zařízení, 0:03:50.920,0:03:53.176 předvídat jejich selhání [br]a jednat v předstihu? 0:03:53.200,0:03:54.330 Ano. 0:03:54.330,0:03:57.616 Můžeme postavit systém, který[br]komunikuje s lidmi přirozeným jazykem? 0:03:57.640,0:03:58.640 Ano. 0:03:58.640,0:04:01.946 Můžeme postavit systém, který[br]rozlišuje objekty, identifikuje emoce, 0:04:01.946,0:04:05.256 emoce samotné, hraje hry[br]a dokonce odečítá ze rtů? 0:04:05.280,0:04:06.424 Ano. 0:04:06.424,0:04:08.680 Můžeme postavit systém, [br]který stanovuje cíle, 0:04:08.680,0:04:12.296 provádí plány ve vztahu k těm cílům[br]a průběžně se učí? 0:04:12.320,0:04:13.536 Ano. 0:04:13.560,0:04:16.896 Můžeme postavit systémy,[br]které mají teorii mysli? 0:04:16.920,0:04:18.416 Toto se učíme udělat. 0:04:18.440,0:04:21.920 Můžeme postavit systémy, které[br]mají etické a morální základy? 0:04:22.480,0:04:24.520 To se musíme naučit. 0:04:25.360,0:04:26.736 Přijměme na okamžik to, 0:04:26.760,0:04:29.656 že je možné postavit takovou[br]umělou inteligenci 0:04:29.680,0:04:31.816 pro tento typ mise a další. 0:04:31.840,0:04:34.376 Další otázka, kterou si musíme položit, 0:04:34.400,0:04:35.856 zní, měli bychom se jí bát? 0:04:35.880,0:04:37.856 Každá technologie sebou přináší 0:04:37.880,0:04:40.776 určitou míru očekávání. 0:04:40.800,0:04:42.496 Když jsme poprvé spatřili auta, 0:04:42.520,0:04:46.536 lidé lamentovali, že uvidíme[br]rozpad rodiny. 0:04:46.560,0:04:49.256 Když se objevily telefony, 0:04:49.280,0:04:52.176 lidé se obávali, že to zničí[br]obyčejnou konverzaci. 0:04:52.200,0:04:56.136 V určitém období jsme viděli[br]všudypřítomné psané slovo, 0:04:56.160,0:04:58.656 lidé se obávali ztráty[br]schopnosti pamatovat si. 0:04:58.680,0:05:00.736 Vše v sobě má zrnko pravdy, 0:05:00.784,0:05:03.200 ale je také pravdou, že tyto technologie 0:05:03.200,0:05:06.576 nám přinesly věci významným způsobem 0:05:06.600,0:05:08.480 rozšiřující lidskou zkušenost. 0:05:09.840,0:05:12.120 Pokročme trochu dále. 0:05:13.120,0:05:17.856 Nebojím se vytvoření takové AI, 0:05:17.880,0:05:21.696 protože bude ztělesňovat naše hodnoty. 0:05:21.720,0:05:25.216 Zvažte: vytvoření kognitivního systému[br]je zcela odlišné 0:05:25.240,0:05:28.536 od vytvoření tradičního softwarového[br]systému minulosti. 0:05:28.560,0:05:31.016 Neprogramujeme je. [br]Učíme je. 0:05:31.040,0:05:33.696 Aby se systém naučil rozpoznávat květiny, 0:05:33.696,0:05:36.712 ukážeme mu tisíce květin, které máme rádi. 0:05:36.712,0:05:38.968 Abychom naučili systém hrát hru -- 0:05:39.040,0:05:41.000 Já bych to udělal. Vy taky. 0:05:42.600,0:05:44.640 Mám rád květiny. No tak. 0:05:45.440,0:05:48.296 Abychom naučili hrát systém hru jako Go, 0:05:48.320,0:05:50.376 musel bych hrát tisíce her Go, 0:05:50.400,0:05:52.056 ale v průběhu je také učím, 0:05:52.080,0:05:54.496 jak rozpoznat dobrou hru od špatné. 0:05:54.520,0:05:58.216 Pokud chci stvořit uměle inteligentního [br]právního asistenta, 0:05:58.240,0:06:00.016 naučím jej část práva, 0:06:00.040,0:06:02.896 ale současně mu dávám 0:06:02.920,0:06:05.800 smysl pro soucit a spravedlnost,[br]které jsou součástí práva. 0:06:06.560,0:06:09.536 Terminologií vědy to nazýváme [br]základní pravda 0:06:09.560,0:06:11.576 a zde je to důležité: 0:06:11.600,0:06:13.056 při vytváření těchto strojů 0:06:13.080,0:06:16.496 jim učením dáváme smysl pro hodnoty. 0:06:16.520,0:06:19.656 Věřím umělé inteligenci stejně, 0:06:19.680,0:06:23.320 ne-li více, jako dobře vyškolené osobě. 0:06:24.080,0:06:25.296 Můžete se ale zeptat, 0:06:25.320,0:06:27.936 a co nezávislí agenti, 0:06:27.960,0:06:31.296 třeba dobře financované[br]nevládní organizace? 0:06:31.320,0:06:35.136 Nebojím se umělé inteligence[br]v rukou osamělého vlka. 0:06:35.160,0:06:39.696 Je zřejmé, že se nemůžeme chránit[br]proti všem náhodným násilným činům, 0:06:39.720,0:06:41.856 ale realita je systém, vyžadující 0:06:41.880,0:06:44.976 hodně a přesný trénink, 0:06:45.000,0:06:47.296 který je mimo možnosti jednotlivců. 0:06:47.320,0:06:48.536 A navíc, 0:06:48.560,0:06:51.816 je to mnohem více než jen vypustit[br]do světa internetový virus, 0:06:51.840,0:06:54.936 který se stisknutím tlačítka ihned [br]objeví na milionech míst 0:06:54.960,0:06:57.416 a laptopy začnou všude vybuchovat. 0:06:57.440,0:07:00.256 Tento typ prostředků je mnohem větší 0:07:00.280,0:07:01.995 a určitě je uvidíme přicházet. 0:07:02.520,0:07:05.576 Bojím se, že by takováto umělá inteligence 0:07:05.600,0:07:07.560 mohla ohrozit celé lidstvo? 0:07:08.280,0:07:12.656 Když shlédnete filmy [br]jako "Matrix", "Metropolis" 0:07:12.680,0:07:15.856 "Terminátor", seriály jako "Westworld," 0:07:15.880,0:07:18.016 všechny hovoří o tomto typu strachu. 0:07:18.040,0:07:22.336 V knize "Superinteligence" [br]filozofa Nicka Bostroma 0:07:22.360,0:07:23.896 vyzvedává toto téma 0:07:23.920,0:07:27.936 a poznamenává, že superinteligence[br]může být nejenom nebezpečná, 0:07:27.960,0:07:31.816 ale může znamenat existenční hrozbu[br]celému lidstvu. 0:07:31.840,0:07:34.056 Základním argumentem Dr. Bostroma je, 0:07:34.080,0:07:36.816 že takový systém bude nakonec mít 0:07:36.840,0:07:40.096 neukojitelný hlad po informacích, 0:07:40.120,0:07:43.016 že se nakonec naučí jak se učit 0:07:43.040,0:07:45.656 a zjistí, že mohou mít cíle, 0:07:45.680,0:07:47.976 které jsou v protikladu [br]s potřebami člověka. 0:07:48.000,0:07:49.856 Dr. Bostrom má mnoho následovníků. 0:07:49.880,0:07:54.200 Podporují jej lidé jako[br]Elon Musk a Stephen Hawking. 0:07:54.880,0:07:57.280 Se vší úctou 0:07:58.160,0:08:00.176 k těmto brilantním mozkům věřím, 0:08:00.200,0:08:02.456 že se zásadně mýlí. 0:08:02.480,0:08:05.656 Je zde mnoho částí argumentů[br]dr. Bostroma k diskusi 0:08:05.680,0:08:07.816 a já nemám čas se jim všem věnovat, 0:08:07.840,0:08:10.536 ale jen stručně zvažte toto: 0:08:10.560,0:08:14.296 super vědění je velmi odlišné [br]od super konání. 0:08:14.320,0:08:16.216 HAL byl hrozbou posádce Discovery 0:08:16.240,0:08:20.656 jen dokud ovládal všechny části Discovery. 0:08:20.680,0:08:23.176 Tak by to mohlo být i se superinteligencí. 0:08:23.200,0:08:25.696 Musel by to být vládce[br]celého našeho světa. 0:08:25.720,0:08:28.536 To je Skynet z filmu "Terminátor", 0:08:28.560,0:08:30.416 ve kterém byla superinteligence, 0:08:30.440,0:08:31.816 která velela lidské vůli, 0:08:31.840,0:08:35.696 která řídila každé zařízení,[br]v každém koutku světa. 0:08:35.720,0:08:37.176 Prakticky, 0:08:37.200,0:08:39.296 to se prostě nestane. 0:08:39.320,0:08:42.376 Nestavíme AI, které ovládají počasí, 0:08:42.400,0:08:43.736 řídí vlny, 0:08:43.760,0:08:47.136 které řídí nás, rozmarné, chaotické lidi. 0:08:47.160,0:08:51.056 Navíc pokud by taková [br]umělá inteligence existovala, 0:08:51.080,0:08:54.016 bude muset soupeřit [br]s lidskými ekonomikami 0:08:54.040,0:08:56.560 a soupeřit s námi o zdroje. 0:08:57.200,0:08:58.416 Nakonec -- 0:08:58.440,0:08:59.680 neříkejte to Siri -- 0:09:00.120,0:09:01.886 vždycky je můžeme [br]odpojit ze zásuvky. 0:09:01.886,0:09:03.960 (smích) 0:09:05.360,0:09:07.816 Jsme na neuvěřitelné cestě 0:09:07.840,0:09:10.336 koevoluce s našimi stroji. 0:09:10.360,0:09:12.856 Lidé dneška 0:09:12.880,0:09:15.416 nejsou lidé, kteří budou v budoucnu. 0:09:15.440,0:09:18.576 Obávat se nyní vzestupu superinteligence 0:09:18.600,0:09:21.656 je v mnoha ohledech nebezpečné rozptýlení, 0:09:21.680,0:09:24.016 protože sám vzestup počítačů 0:09:24.040,0:09:27.056 sebou přináší mnohé [br]lidské a společenské otázky, 0:09:27.080,0:09:28.720 kterým se nyní musíme věnovat. 0:09:29.360,0:09:32.176 Jak nejlépe zorganizovat společnost, 0:09:32.200,0:09:34.536 když se zmenší potřeba lidské práce? 0:09:34.560,0:09:38.376 Jak mohu přinést porozumění[br]a vzdělávání napříč zeměkoulí 0:09:38.400,0:09:40.176 a stále respektovat naše odlišnosti? 0:09:40.200,0:09:44.456 Jak mohu rozšířit a podpořit lidský život[br]pomocí kognitivní zdravotní péče? 0:09:44.480,0:09:47.336 Jak mohu použít počítače, 0:09:47.360,0:09:49.120 aby nám pomohly dostat se ke hvězdám? 0:09:49.760,0:09:51.800 A to je vzrušující. 0:09:52.400,0:09:54.736 Příležitosti využít počítače 0:09:54.760,0:09:56.296 k lidskému pokroku 0:09:56.320,0:09:57.736 jsou v našem dosahu, 0:09:57.760,0:09:59.616 zde a nyní, 0:09:59.640,0:10:01.320 a to jsme teprve na začátku. 0:10:02.280,0:10:03.496 Děkuji. 0:10:03.520,0:10:07.806 (potlesk)