Můžeme vytvořit umělou inteligenci, aniž bychom nad ní ztratili kontrolu?
-
0:01 - 0:05Budu mluvit o selhání intuice,
kterým trpí mnozí z nás. -
0:05 - 0:09Vlastně jde o neschopnost
odhalit určitý typ nebezpečí. -
0:09 - 0:11Popíšu vám situaci,
-
0:11 - 0:14kterou považuji za děsivou
-
0:14 - 0:16a zároveň pravděpodobnou.
-
0:17 - 0:20A jak se ukazuje,
tohle není dobrá kombinace. -
0:20 - 0:22Ovšem i přesto si bude
většina z vás myslet, -
0:22 - 0:25že mluvím spíš o zajímavých
než o děsivých věcech. -
0:25 - 0:28Popíšu vám, jak nás pokroky
-
0:28 - 0:30v umělé inteligenci
-
0:30 - 0:32mohou nakonec úplně vyhubit.
-
0:32 - 0:35Vlastně myslím, že lze jen
stěží nevidět, že nás vyhubí -
0:35 - 0:37nebo že nás k sebezničení navedou.
-
0:37 - 0:39A pokud jste na tom podobně jako já,
-
0:39 - 0:42bude vám připadat zábavné
o těchto věcech přemýšlet. -
0:42 - 0:45Naše reakce je součástí toho problému.
-
0:45 - 0:48Tahle reakce by nás měla znepokojovat.
-
0:48 - 0:50Kdybych vás teď přesvědčoval,
-
0:51 - 0:54že lidstvo pravděpodobně
zasáhne globální hladomor, -
0:54 - 0:57buď kvůli klimatickým změnám
nebo kvůli jiné katastrofě, -
0:57 - 1:00a že vaše vnoučata
či jejich vnoučata -
1:01 - 1:03budou nejspíš žít takhle,
-
1:03 - 1:05určitě si neřeknete:
-
1:05 - 1:09„Zajímavé! To je ale hezká přednáška.“
-
1:09 - 1:11Hladomor není legrace.
-
1:12 - 1:15Na druhou stranu,
smrt ve sci-fi zábavná je. -
1:15 - 1:19Jednou z věcí, které se teď na vývoji
umělé inteligence nejvíc obávám, -
1:19 - 1:23je to, že zřejmě nejsme schopní
přiměřeně emocionálně reagovat -
1:23 - 1:25na nebezpečí ležící před námi.
-
1:25 - 1:29Já sám toho nejsem schopný,
i když o tom právě přednáším. -
1:30 - 1:33Je to jako volit cestu na rozcestí.
-
1:33 - 1:37Vstoupit prvními dveřmi znamená
zastavit rozvoj inteligentních strojů. -
1:38 - 1:41Počítačový software a hardware se prostě
z nějakého důvodu přestane rozvíjet. -
1:42 - 1:45Zastavme se chvilku nad tím,
kdy by taková situace mohla nastat. -
1:45 - 1:49S ohledem na to, jakým jsou pro nás
inteligence a automatizace přínosem, -
1:49 - 1:52budeme technologie stále zlepšovat,
pokud toho vůbec budeme schopni. -
1:53 - 1:55Co by nás mohlo zastavit?
-
1:56 - 1:58Celosvětová nukleární válka?
-
1:59 - 2:01Globální pandemie?
-
2:02 - 2:04Dopad asteroidu?
-
2:06 - 2:08Justin Bieber prezidentem USA?
-
2:08 - 2:11(smích)
-
2:13 - 2:17Jde o to, že by naši současnou
civilizaci muselo něco zničit. -
2:17 - 2:21Představte si,
co hrozného by se muselo stát, -
2:22 - 2:25abychom nebyli schopni dále
zdokonalovat naše technologie, -
2:25 - 2:28neustále, generaci za generací.
-
2:28 - 2:32V podstatě je to ta nejhorší věc,
jaká by v dějinách mohla nastat. -
2:33 - 2:36Čili jedinou alternativou, tou,
která nás čeká za druhými dveřmi, -
2:36 - 2:39je postupně každým rokem
pokračovat ve zdokonalování -
2:39 - 2:41inteligentních strojů.
-
2:42 - 2:46V určitém okamžiku vytvoříme stroje,
které budou chytřejší než my, -
2:46 - 2:48a až budeme mít stroje,
které budou chytřejší, -
2:48 - 2:50začnou se zdokonalovat samy.
-
2:51 - 2:54A potom nám hrozí situace,
kterou matematik I. J. Good nazval -
2:54 - 2:55„inteligenční explozí“,
-
2:55 - 2:58tedy, že by se nám to
mohlo vymknout z rukou. -
2:58 - 3:01Jak vidíte třeba tady,
toto téma se často zpodobňuje -
3:01 - 3:05jako obava z armád zlovolných robotů,
kteří na nás zaútočí. -
3:05 - 3:08Ale to není moc pravděpodobný scénář.
-
3:08 - 3:13Není to tak, že by stroje
najednou začaly být zlé. -
3:13 - 3:18Problém je v tom, že vytvoříme stroje,
které budou o tolik schopnější než my, -
3:18 - 3:23že i ta nejjemnější odchylka mezi
jejich a našimi cíli by nás mohla zničit. -
3:24 - 3:26Vezměte si, jak se chováme k mravencům.
-
3:27 - 3:28Nic proti nim nemáme.
-
3:28 - 3:30Nechceme jim cíleně ubližovat.
-
3:30 - 3:33Necháme se i poštípat,
abychom jim neublížili. -
3:33 - 3:34Na chodníku je překračujeme.
-
3:35 - 3:37Ale kdykoliv jejich přítomnost
-
3:37 - 3:39vážně narušuje naše zájmy,
-
3:39 - 3:42například při stavbě budov, jako je tahle,
-
3:42 - 3:44bez mrknutí oka je zlikvidujeme.
-
3:44 - 3:47Panuje obava, že jednou vytvoříme stroje,
-
3:47 - 3:50které by s námi mohly, vědomě či nevědomě,
-
3:50 - 3:52zacházet podobně lhostejně.
-
3:54 - 3:57Mnohým z vás to nejspíš
přijde přitažené za vlasy. -
3:57 - 4:00Vsadím se, že někteří
z vás určitě pochybují, -
4:00 - 4:03že je možné superinteligentní AI vytvořit,
-
4:04 - 4:05natož, že to nevyhnutelně nastane.
-
4:05 - 4:09Pak ale musíte v následujících
předpokladech najít nějaký omyl. -
4:09 - 4:11Ty předpoklady jsou jen tři.
-
4:12 - 4:17Inteligence je výsledkem zpracování
informací ve hmotných systémech. -
4:17 - 4:20Toto je vlastně víc než předpoklad.
-
4:20 - 4:23Do našich strojů jsme už
omezenou inteligenci zabudovali -
4:23 - 4:28a mnohé z nich už operují
na úrovni superinteligentních lidí. -
4:29 - 4:31A víme, že pouhá hmota
-
4:31 - 4:34může dát vzniknout
takzvané „všeobecné inteligenci“, -
4:34 - 4:37tedy schopnosti flexibilně
se orientovat v různých oblastech. -
4:38 - 4:41Protože náš mozek už to zvládl, že?
-
4:43 - 4:45Mozek se skládá jenom z atomů,
-
4:45 - 4:49a pokud budeme pokračovat
v budování systémů z atomů, -
4:49 - 4:53které budou vykazovat čím dál
inteligentnější chování, tak nakonec, -
4:54 - 4:56pokud nás něco nezastaví,
-
4:56 - 4:59zabudujeme do našich strojů
všeobecnou inteligenci. -
4:59 - 5:03Klíčové je uvědomit si,
že na rychlosti pokroku nezáleží, -
5:03 - 5:06protože k dosažení cílové pásky
stačí jakékoli tempo. -
5:06 - 5:10Nepotřebujeme Mooreův zákon,
není zapotřebí exponenciální vývoj. -
5:10 - 5:12Prostě stačí pokračovat.
-
5:13 - 5:16Druhým předpokladem je,
že budeme pokračovat. -
5:17 - 5:20Budeme naše inteligentní stroje
nadále zdokonalovat. -
5:21 - 5:25Protože inteligence je důležitá –
-
5:25 - 5:29myslím tím to, že inteligence je buď
zdrojem všeho, čeho si ceníme, -
5:29 - 5:32nebo že ji potřebujeme
k zabezpečení všeho, čeho si ceníme. -
5:32 - 5:34Je to náš nejcennější zdroj.
-
5:34 - 5:36Takže v tom chceme pokračovat.
-
5:36 - 5:39Máme problémy, které zoufale
potřebujeme vyřešit. -
5:39 - 5:42Chceme například vyléčit
Alzheimerovu chorobu nebo rakovinu. -
5:43 - 5:47Chceme rozumět ekonomickým systémům.
Chceme zlepšit výzkum klimatu. -
5:47 - 5:49Takže budeme pokračovat,
pokud to půjde. -
5:49 - 5:52Je to rozjetý vlak, který nejde zastavit.
-
5:54 - 5:59Posledním předpokladem je,
že lidé nestojí na vrcholu inteligence -
5:59 - 6:01a pravděpodobně nejsou ani pod vrcholem.
-
6:02 - 6:06To je opravdu zásadní pohled.
Kvůli tomu jsme v tak prekérní situaci. -
6:06 - 6:10Kvůli tomu je naše intuice
při posuzování rizik tak nespolehlivá. -
6:11 - 6:14Vezměte si třeba
nejchytřejší lidi v dějinách. -
6:15 - 6:18Do užšího výběru by téměř každý
zařadil Johna von Neumanna. -
6:18 - 6:21To, jakým dojmem von Neumann
působil na lidi kolem sebe, -
6:21 - 6:25mezi něž patřili nejlepší
matematici a fyzici té doby, -
6:26 - 6:27je celkem dobře zdokumentováno.
-
6:27 - 6:31Kdyby jen polovina historek o něm
byla aspoň z poloviny pravdivá, -
6:31 - 6:34tak není pochyb,
že patřil mezi nejchytřejší lidi historie. -
6:35 - 6:38Pojďme se teď zamyslet
nad rozsahem inteligence. -
6:38 - 6:40Tady je John von Neumann.
-
6:42 - 6:43Tady jsou lidé jako vy a já.
-
6:44 - 6:45A tady máme kuře.
-
6:46 - 6:47(smích)
-
6:47 - 6:49Pardon, kuře.
-
6:49 - 6:50(smích)
-
6:50 - 6:53Není důvod, aby tahle přednáška
byla víc depresivní, než je potřeba. -
6:53 - 6:55(smích)
-
6:56 - 7:02Ovšem zdá se navýsost pravděpodobné,
že rozsah inteligence je mnohem širší, -
7:02 - 7:03než jak ho v současnosti vnímáme.
-
7:04 - 7:07A pokud vytvoříme stroje
inteligentnější než jsme my, -
7:07 - 7:10tak budou velmi pravděpodobně
zkoumat toto spektrum způsobem, -
7:10 - 7:11který si neumíme představit,
-
7:11 - 7:14a předčí nás způsobem,
který si neumíme představit. -
7:15 - 7:19A je důležité připustit,
že je tomu tak už díky samotné rychlosti. -
7:19 - 7:24Představte si, že jsme
vytvořili superinteligentní AI, -
7:24 - 7:30která je stejně chytrá jako průměrný
tým vědců na Stanfordu nebo MIT. -
7:30 - 7:34Víme, že elektronické obvody pracují
asi milionkrát rychleji než biochemické, -
7:34 - 7:38takže takový stroj
by přemýšlel milionkrát rychleji -
7:38 - 7:39než lidé, kteří ho postavili.
-
7:40 - 7:41Takže ho na týden pustíte
-
7:41 - 7:46a on vykoná stejnou intelektuální práci,
jaká by lidem trvala 20 000 let. -
7:46 - 7:49Týden za týdnem, pořád dokola.
-
7:50 - 7:53Jak bychom vůbec mohli pochopit,
tím spíš nějak omezovat, -
7:53 - 7:55inteligenci schopnou takového pokroku?
-
7:57 - 8:00Je tu i další znepokojivá věc –
-
8:00 - 8:04představte si optimální situaci.
-
8:04 - 8:08Představte si, že se nám podaří
navrhnout superinteligentní AI, -
8:08 - 8:10která nebude dbát na bezpečnost.
-
8:10 - 8:12Hned napoprvé budeme mít dokonalou verzi.
-
8:13 - 8:17Jako kdyby se naplnila nějaká věštba,
která by fungovala tak, jak bylo určeno. -
8:17 - 8:21Takový stroj by lidem
dokonale usnadňoval práci. -
8:22 - 8:24Dokázal by navrhnout stroj,
který by uměl stavět stroje -
8:24 - 8:26schopné jakékoli manuální práce,
-
8:26 - 8:29napájené sluneční energií,
víceméně za cenu surovin. -
8:31 - 8:33Takže mluvíme o konci lidské dřiny.
-
8:33 - 8:36Mluvíme také o konci
většiny intelektuální práce. -
8:37 - 8:40Ale co by takové opice jako my
v téhle situaci dělaly? -
8:41 - 8:45No, měli bychom čas hrát frisbee
a vzájemně se masírovat. -
8:46 - 8:49Přidali bychom nějaké to LSD
a kontroverzní oblečení -
8:49 - 8:51a svět by mohl vypadat jako „Burning Man“.
-
8:51 - 8:54(smích)
-
8:54 - 8:57Asi to zní krásně.
-
8:57 - 9:00Ale zeptejte se sami sebe, co by se stalo,
-
9:00 - 9:02kdyby ekonomika a politika
fungovaly tak jako dnes. -
9:02 - 9:05Pravděpodobně bychom zažili
-
9:05 - 9:09takovou sociální nerovnost
a nezaměstnanost -
9:09 - 9:11jako nikdy předtím.
-
9:11 - 9:15Zavládla by neochota dát okamžitě
toto bohatství do služeb lidstvu. -
9:16 - 9:19Několik bilionářů by zdobilo
obálky obchodních časopisů, -
9:19 - 9:22zatímco zbytek světa
by mohl v klidu hladovět. -
9:22 - 9:24A co by udělali Rusové nebo Číňani,
-
9:25 - 9:27kdyby se doslechli, že se v Silicon Valley
-
9:27 - 9:30někdo chystá zapojit superinteligentní AI?
-
9:30 - 9:32Takový stroj by byl schopný vést válku,
-
9:33 - 9:35ať už pozemní nebo kybernetickou,
-
9:35 - 9:37s nebývalou silou.
-
9:38 - 9:40V této situaci by „vítěz bral vše“.
-
9:40 - 9:43Šestiměsíční náskok před konkurencí
-
9:43 - 9:47by znamenal náskok minimálně 500 000 let,
-
9:47 - 9:52Zdá se, že i pouhé fámy
o průlomu v této oblasti -
9:52 - 9:54by mohly náš druh dovést k nepříčetnosti.
-
9:55 - 9:57Myslím si, že jednou z nejděsivějších věcí
-
9:58 - 10:00je momentálně to,
-
10:00 - 10:05co vědci zabývající se
vývojem umělé inteligence říkají, -
10:05 - 10:06když nás chtějí uklidnit.
-
10:07 - 10:10Nejčastěji uváděným důvodem,
proč se prý nemáme obávat, je čas. -
10:10 - 10:13Všechno je to ještě daleko, nemyslíte?
-
10:13 - 10:15Přijde to až tak za 50 nebo 100 let.
-
10:16 - 10:19Jeden vědec řekl:
„Bát se o bezpečnost umělé inteligence -
10:19 - 10:21je stejné, jako bát se přelidnění Marsu.“
-
10:22 - 10:24Pro Silicon Valley je to jen jiná verze:
-
10:24 - 10:26„Nech to koňovi, ten má větší hlavu.“
-
10:26 - 10:27(smích)
-
10:28 - 10:29Nikdo si nejspíš nevšímá toho,
-
10:29 - 10:34že odvolávat se na časový horizont
je naprosto nelogické. -
10:34 - 10:38Pokud inteligence spočívá
pouze ve zpracování informací -
10:38 - 10:41a pokud budeme dál zlepšovat své stroje,
-
10:41 - 10:44tak nějakou formu
superinteligence vytvoříme. -
10:44 - 10:48Ale nemáme ani ponětí,
jak dlouho nám bude trvat, -
10:48 - 10:51abychom ji vytvořili
za bezpečných podmínek. -
10:52 - 10:53Řeknu to ještě jednou.
-
10:54 - 10:57Nemáme ani ponětí,
jak dlouho nám bude trvat, -
10:57 - 11:00abychom ji vytvořili
za bezpečných podmínek. -
11:01 - 11:05A možná jste si nevšimli,
že 50 let už není, co bývalo. -
11:05 - 11:07Tohle je 50 let v měsících.
-
11:07 - 11:09Takhle dlouho máme iPhone.
-
11:09 - 11:12A takhle dlouho se vysílají Simpsonovi.
-
11:13 - 11:15Padesát let není moc času na to,
-
11:15 - 11:18aby se náš druh vypořádal s jedním
z nejtěžších úkolů všech dob. -
11:20 - 11:24Ještě jednou – zdá se, že nejsme schopni
adekvátní emocionální reakce na to, -
11:24 - 11:26co podle všeho nepochybně nastane.
-
11:26 - 11:30Odborník na počítače, Stuart Russell,
má pro tuto situaci hezké přirovnání. -
11:31 - 11:35Máme si představit, že dostaneme
zprávu od mimozemské civilizace, -
11:35 - 11:37ve které stojí:
-
11:37 - 11:38„Pozemšťané,
-
11:39 - 11:41za 50 let dorazíme na vaši planetu.
-
11:42 - 11:43Připravte se.“
-
11:43 - 11:47To bychom jen počítali, kolik měsíců
zbývá do přistání vlajkové lodi? -
11:48 - 11:51Cítili bychom o něco
naléhavější potřebu než teď. -
11:53 - 11:55Dalším důvodem, proč se prý nemáme bát,
-
11:55 - 11:58je, že těmto strojům nezbude než
se držet našich hodnot, -
11:58 - 12:00protože se stanou doslova naší nadstavbou.
-
12:00 - 12:02Budou implantované do našich mozků
-
12:02 - 12:05a my se v podstatě staneme
jejich limbickým systémem. -
12:05 - 12:06Chvilku se zamyslete nad tím,
-
12:06 - 12:09že tou nejbezpečnější
a nejuváženější cestou, -
12:10 - 12:11která se doporučuje,
-
12:11 - 12:14by měla být implantace této
technologie do našich mozků. -
12:15 - 12:18Ona to vskutku může být
nejbezpečnější a nejuváženější cesta, -
12:18 - 12:21ale obvykle se všichni obávají
o bezpečnost technologií, -
12:21 - 12:25protože když máte nosit něco natrvalo,
musí to být dost dobře vyladěné. -
12:25 - 12:27(smích)
-
12:27 - 12:32Hlubším problémem je to,
že vytvořit samotnou superinteligentní AI -
12:32 - 12:36je pravděpodobně snazší,
než vytvářet takovou inteligenci -
12:36 - 12:38společně s kompletní neurobiologií,
-
12:38 - 12:40která umožní bezproblémovou
integraci do naší mysli. -
12:41 - 12:44A jelikož firmy a vlády budou tuto práci
-
12:44 - 12:47nejspíše vnímat jako
závod se všem ostatními, -
12:48 - 12:51protože vyhrát tenhle závod
znamená dobýt svět ‒ -
12:51 - 12:53tedy za předpokladu,
že ho hned nato nezničíte ‒ -
12:54 - 12:58tak se dá čekat, že jako první se
udělá to, co bude nejjednodušší. -
12:59 - 13:01Já bohužel nevidím
pro tento problém žádné řešení, -
13:01 - 13:04kromě doporučení,
abychom o tom více přemýšleli. -
13:04 - 13:06Myslím, že potřebujeme
něco jako projekt Manhattan -
13:06 - 13:08na téma umělé inteligence.
-
13:09 - 13:11Ne kvůli jejímu vytvoření,
protože to nevyhnutelně nastane, -
13:11 - 13:14ale abychom přišli na to,
jak se vyhnout závodům ve zbrojení -
13:15 - 13:18a jak ji vytvořit způsobem,
který vyhoví našim zájmům. -
13:18 - 13:22Když se bavíme o superinteligentní AI,
která se dokáže sama měnit, -
13:23 - 13:27vypadá to, že máme jen jednu šanci,
jak správně nastavit výchozí podmínky, -
13:27 - 13:30i když budeme muset tlumit
-
13:30 - 13:33ekonomické a politické důsledky
takto nastavených podmínek. -
13:34 - 13:36Nicméně ve chvíli, kdy si přiznáme,
-
13:36 - 13:40že inteligence pramení
ze zpracování informací, -
13:41 - 13:46že vhodně navržený počítačový systém
je podstatou inteligence, -
13:46 - 13:50a až přistoupíme na to, že budeme
tyto systémy neustále vylepšovat -
13:51 - 13:57a že horizont poznání nejspíš daleko
přesahuje vše, co v současnosti známe, -
13:58 - 14:02pak si musíme přiznat, že jsme uprostřed
procesu vytváření jakéhosi boha. -
14:03 - 14:07Teď by bylo dobré se ujistit,
že s tímto bohem budeme moci žít. -
14:08 - 14:09Díky moc.
-
14:09 - 14:13(potlesk)
- Title:
- Můžeme vytvořit umělou inteligenci, aniž bychom nad ní ztratili kontrolu?
- Speaker:
- Sam Harris
- Description:
-
Bojíte se superinteligetní umělé inteligence? Ne? Měli byste, říká neurověděc a filosof Sam Harris ‒ a nejen v teoretické rovině. Chceme stavět stroje s vlastnostmi, které předčí ty lidské, ale ještě jsme se nevyrovnali s otázkami spojenými s vytvořením něčeho, co se k lidem může chovat tak, jako se lidé chovají například k mravencům.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Kateřina Jabůrková approved Czech subtitles for Can we build AI without losing control over it? | |
![]() |
Vladimír Harašta accepted Czech subtitles for Can we build AI without losing control over it? | |
![]() |
Vladimír Harašta edited Czech subtitles for Can we build AI without losing control over it? | |
![]() |
Vladimír Harašta edited Czech subtitles for Can we build AI without losing control over it? | |
![]() |
Vladimír Harašta edited Czech subtitles for Can we build AI without losing control over it? | |
![]() |
Vladimír Harašta edited Czech subtitles for Can we build AI without losing control over it? | |
![]() |
Vladimír Harašta edited Czech subtitles for Can we build AI without losing control over it? | |
![]() |
Martin Bureš edited Czech subtitles for Can we build AI without losing control over it? |