Nebojte se superinteligentní AI
-
0:01 - 0:05V dětství jsem byl typickým nerdem,
-
0:05 - 0:07myslím, že pár z vás taky.
-
0:08 - 0:09(smích)
-
0:09 - 0:12A vy, pane, který se smějete nejhlasitěji,
jím ještě možná jste. -
0:12 - 0:14(smích)
-
0:14 - 0:18Vyrůstal jsem v malém městě
na prašných pláních severního Texasu, -
0:18 - 0:21syn šerifa, který byl synem kněze.
-
0:21 - 0:23Moc rošťáren jsem provádět nemohl.
-
0:24 - 0:27A tak jsem si z nudy
začal číst o integrálech. -
0:27 - 0:29(smích)
-
0:29 - 0:31Vy také, že?
-
0:31 - 0:34To mě dovedlo k postavení modelu
laseru a počítače a rakety -
0:34 - 0:37a to zase k vytvoření raketového paliva
v mé ložnici. -
0:38 - 0:42Ve vědeckých termínech tomu říkáme
-
0:42 - 0:45velmi špatný nápad.
-
0:45 - 0:46(smích)
-
0:46 - 0:48Ve stejném čase se do kin dostala
-
0:48 - 0:52"2001: Vesmírná odysea" Stanleyho Kubricka
-
0:52 - 0:54a můj život se navždy změnil.
-
0:54 - 0:56Miloval jsem vše o tom filmu,
-
0:56 - 0:59zejména Hala 9000.
-
0:59 - 1:01HAL byl cítícím počítačem,
-
1:01 - 1:03navrženým k navádění
vesmírné lodě Discovery -
1:03 - 1:06ze Země na Jupiter.
-
1:06 - 1:08HAL měl také charakterovou vadu,
-
1:08 - 1:12protože na konci si cenil více mise
než lidského života. -
1:13 - 1:15HAL byl fiktivní postavou,
-
1:15 - 1:18nicméně hovoří k našemu strachu,
-
1:18 - 1:20strachu z podřízení se
-
1:20 - 1:23nějaké necítící, umělé inteligenci,
-
1:23 - 1:25která je lhostejná k našemu lidství.
-
1:26 - 1:28Věřím, že tento strach je neopodstatněný.
-
1:28 - 1:31Nalézáme se vskutku
-
1:31 - 1:33v pozoruhodném období,
-
1:33 - 1:38odmítnutí omezení našich těl a mysli
-
1:38 - 1:39nás vede ke stavbě výjimečných
-
1:39 - 1:43nádherně komplexních a půvabných strojů,
-
1:43 - 1:45které rozšíří lidskou zkušenost
-
1:45 - 1:47způsoby přesahujícími naši představivost.
-
1:48 - 1:50Po kariéře, která mne zavedla
z letecké akademie -
1:50 - 1:52přes Vesmírné velení až do dnešního dne,
-
1:52 - 1:54jsem se stal systémovým inženýrem
-
1:54 - 1:57a nedávno se nechal vtáhnout
do inženýrského problému, -
1:57 - 1:59souvisejícího s misí NASA na Mars.
-
1:59 - 2:02Ve vesmírných letech na Měsíc,
-
2:02 - 2:05můžeme spoléhat
na řídicí středisko v Houstonu, -
2:05 - 2:07které dohlíží na všechny aspekty letu.
-
2:07 - 2:11Nicméně Mars je 200krát dále
-
2:11 - 2:14a signálu průměrně trvá 13 minut
-
2:14 - 2:17cestovat ze Země na Mars.
-
2:17 - 2:20Pokud se objeví problém,
není zde dost času. -
2:21 - 2:23A rozumné inženýrské řešení
-
2:23 - 2:26nám navrhuje umístit kontrolu mise
-
2:26 - 2:29mezi stěny vesmírné lodi Orion.
-
2:29 - 2:32Další fascinující myšlenka v profilu mise
-
2:32 - 2:35umisťuje humanoidní roboty na povrch Marsu
-
2:35 - 2:37před příletem samotných lidí,
-
2:37 - 2:38aby nejprve postavili zařízení
-
2:38 - 2:42a později sloužili jako členové
vědeckého týmu. -
2:43 - 2:46Když se na to dívám pohledem inženýra,
-
2:46 - 2:49zdálo se mi jasné, že potřebuji navrhnout
-
2:49 - 2:52malou, spolupracující,
-
2:52 - 2:54sociálně inteligentní umělou inteligenci.
-
2:54 - 2:58Jinými slovy jsem potřeboval postavit
něco velmi podobného HALovi, -
2:58 - 3:01ale bez vražedných tendencí.
-
3:01 - 3:02(smích)
-
3:03 - 3:05Zastavme se na chvilku.
-
3:05 - 3:09Je možné postavit
takovou umělou inteligenci? -
3:09 - 3:10Vlastně ano.
-
3:10 - 3:11Z mnoha pohledů
-
3:11 - 3:13je to složitý inženýrský problém
-
3:13 - 3:15s prvky AI,
-
3:15 - 3:20není to žádný otravný AI problém,
který potřebuje být vyřešen. -
3:20 - 3:22Abych parafrázoval Alana Turinga,
-
3:22 - 3:25nezajímá mne postavení
cítícího stroje. -
3:25 - 3:26Nestavím HALa.
-
3:26 - 3:29Chci jen jednoduchý mozek,
-
3:29 - 3:32který poskytuje iluzi inteligence.
-
3:33 - 3:36Umění a věda o počítačích
podstoupila dlouhou cestu -
3:36 - 3:38od doby, kdy se HAL objevil
na obrazovce -
3:38 - 3:41a kdyby zde byl jeho tvůrce, Dr. Chandra,
-
3:41 - 3:43měl by pro nás mnoho otázek.
-
3:43 - 3:45Je pro nás opravdu možné
-
3:45 - 3:49číst datové toky v systému
-
3:49 - 3:51s miliony zařízení,
-
3:51 - 3:53předvídat jejich selhání
a jednat v předstihu? -
3:53 - 3:54Ano.
-
3:54 - 3:58Můžeme postavit systém, který
komunikuje s lidmi přirozeným jazykem? -
3:58 - 3:59Ano.
-
3:59 - 4:02Můžeme postavit systém, který
rozlišuje objekty, identifikuje emoce, -
4:02 - 4:05emoce samotné, hraje hry
a dokonce odečítá ze rtů? -
4:05 - 4:06Ano.
-
4:06 - 4:09Můžeme postavit systém,
který stanovuje cíle, -
4:09 - 4:12provádí plány ve vztahu k těm cílům
a průběžně se učí? -
4:12 - 4:14Ano.
-
4:14 - 4:17Můžeme postavit systémy,
které mají teorii mysli? -
4:17 - 4:18Toto se učíme udělat.
-
4:18 - 4:22Můžeme postavit systémy, které
mají etické a morální základy? -
4:22 - 4:25To se musíme naučit.
-
4:25 - 4:27Přijměme na okamžik to,
-
4:27 - 4:30že je možné postavit takovou
umělou inteligenci -
4:30 - 4:32pro tento typ mise a další.
-
4:32 - 4:34Další otázka, kterou si musíme položit,
-
4:34 - 4:36zní, měli bychom se jí bát?
-
4:36 - 4:38Každá technologie sebou přináší
-
4:38 - 4:41určitou míru očekávání.
-
4:41 - 4:42Když jsme poprvé spatřili auta,
-
4:43 - 4:47lidé lamentovali, že uvidíme
rozpad rodiny. -
4:47 - 4:49Když se objevily telefony,
-
4:49 - 4:52lidé se obávali, že to zničí
obyčejnou konverzaci. -
4:52 - 4:56V určitém období jsme viděli
všudypřítomné psané slovo, -
4:56 - 4:59lidé se obávali ztráty
schopnosti pamatovat si. -
4:59 - 5:01Vše v sobě má zrnko pravdy,
-
5:01 - 5:03ale je také pravdou, že tyto technologie
-
5:03 - 5:07nám přinesly věci významným způsobem
-
5:07 - 5:08rozšiřující lidskou zkušenost.
-
5:10 - 5:12Pokročme trochu dále.
-
5:13 - 5:18Nebojím se vytvoření takové AI,
-
5:18 - 5:22protože bude ztělesňovat naše hodnoty.
-
5:22 - 5:25Zvažte: vytvoření kognitivního systému
je zcela odlišné -
5:25 - 5:29od vytvoření tradičního softwarového
systému minulosti. -
5:29 - 5:31Neprogramujeme je.
Učíme je. -
5:31 - 5:34Aby se systém naučil rozpoznávat květiny,
-
5:34 - 5:37ukážeme mu tisíce květin, které máme rádi.
-
5:37 - 5:39Abychom naučili systém hrát hru --
-
5:39 - 5:41Já bych to udělal. Vy taky.
-
5:43 - 5:45Mám rád květiny. No tak.
-
5:45 - 5:48Abychom naučili hrát systém hru jako Go,
-
5:48 - 5:50musel bych hrát tisíce her Go,
-
5:50 - 5:52ale v průběhu je také učím,
-
5:52 - 5:54jak rozpoznat dobrou hru od špatné.
-
5:55 - 5:58Pokud chci stvořit uměle inteligentního
právního asistenta, -
5:58 - 6:00naučím jej část práva,
-
6:00 - 6:03ale současně mu dávám
-
6:03 - 6:06smysl pro soucit a spravedlnost,
které jsou součástí práva. -
6:07 - 6:10Terminologií vědy to nazýváme
základní pravda -
6:10 - 6:12a zde je to důležité:
-
6:12 - 6:13při vytváření těchto strojů
-
6:13 - 6:16jim učením dáváme smysl pro hodnoty.
-
6:17 - 6:20Věřím umělé inteligenci stejně,
-
6:20 - 6:23ne-li více, jako dobře vyškolené osobě.
-
6:24 - 6:25Můžete se ale zeptat,
-
6:25 - 6:28a co nezávislí agenti,
-
6:28 - 6:31třeba dobře financované
nevládní organizace? -
6:31 - 6:35Nebojím se umělé inteligence
v rukou osamělého vlka. -
6:35 - 6:40Je zřejmé, že se nemůžeme chránit
proti všem náhodným násilným činům, -
6:40 - 6:42ale realita je systém, vyžadující
-
6:42 - 6:45hodně a přesný trénink,
-
6:45 - 6:47který je mimo možnosti jednotlivců.
-
6:47 - 6:49A navíc,
-
6:49 - 6:52je to mnohem více než jen vypustit
do světa internetový virus, -
6:52 - 6:55který se stisknutím tlačítka ihned
objeví na milionech míst -
6:55 - 6:57a laptopy začnou všude vybuchovat.
-
6:57 - 7:00Tento typ prostředků je mnohem větší
-
7:00 - 7:02a určitě je uvidíme přicházet.
-
7:03 - 7:06Bojím se, že by takováto umělá inteligence
-
7:06 - 7:08mohla ohrozit celé lidstvo?
-
7:08 - 7:13Když shlédnete filmy
jako "Matrix", "Metropolis" -
7:13 - 7:16"Terminátor", seriály jako "Westworld,"
-
7:16 - 7:18všechny hovoří o tomto typu strachu.
-
7:18 - 7:22V knize "Superinteligence"
filozofa Nicka Bostroma -
7:22 - 7:24vyzvedává toto téma
-
7:24 - 7:28a poznamenává, že superinteligence
může být nejenom nebezpečná, -
7:28 - 7:32ale může znamenat existenční hrozbu
celému lidstvu. -
7:32 - 7:34Základním argumentem Dr. Bostroma je,
-
7:34 - 7:37že takový systém bude nakonec mít
-
7:37 - 7:40neukojitelný hlad po informacích,
-
7:40 - 7:43že se nakonec naučí jak se učit
-
7:43 - 7:46a zjistí, že mohou mít cíle,
-
7:46 - 7:48které jsou v protikladu
s potřebami člověka. -
7:48 - 7:50Dr. Bostrom má mnoho následovníků.
-
7:50 - 7:54Podporují jej lidé jako
Elon Musk a Stephen Hawking. -
7:55 - 7:57Se vší úctou
-
7:58 - 8:00k těmto brilantním mozkům věřím,
-
8:00 - 8:02že se zásadně mýlí.
-
8:02 - 8:06Je zde mnoho částí argumentů
dr. Bostroma k diskusi -
8:06 - 8:08a já nemám čas se jim všem věnovat,
-
8:08 - 8:11ale jen stručně zvažte toto:
-
8:11 - 8:14super vědění je velmi odlišné
od super konání. -
8:14 - 8:16HAL byl hrozbou posádce Discovery
-
8:16 - 8:21jen dokud ovládal všechny části Discovery.
-
8:21 - 8:23Tak by to mohlo být i se superinteligencí.
-
8:23 - 8:26Musel by to být vládce
celého našeho světa. -
8:26 - 8:29To je Skynet z filmu "Terminátor",
-
8:29 - 8:30ve kterém byla superinteligence,
-
8:30 - 8:32která velela lidské vůli,
-
8:32 - 8:36která řídila každé zařízení,
v každém koutku světa. -
8:36 - 8:37Prakticky,
-
8:37 - 8:39to se prostě nestane.
-
8:39 - 8:42Nestavíme AI, které ovládají počasí,
-
8:42 - 8:44řídí vlny,
-
8:44 - 8:47které řídí nás, rozmarné, chaotické lidi.
-
8:47 - 8:51Navíc pokud by taková
umělá inteligence existovala, -
8:51 - 8:54bude muset soupeřit
s lidskými ekonomikami -
8:54 - 8:57a soupeřit s námi o zdroje.
-
8:57 - 8:58Nakonec --
-
8:58 - 9:00neříkejte to Siri --
-
9:00 - 9:02vždycky je můžeme
odpojit ze zásuvky. -
9:02 - 9:04(smích)
-
9:05 - 9:08Jsme na neuvěřitelné cestě
-
9:08 - 9:10koevoluce s našimi stroji.
-
9:10 - 9:13Lidé dneška
-
9:13 - 9:15nejsou lidé, kteří budou v budoucnu.
-
9:15 - 9:19Obávat se nyní vzestupu superinteligence
-
9:19 - 9:22je v mnoha ohledech nebezpečné rozptýlení,
-
9:22 - 9:24protože sám vzestup počítačů
-
9:24 - 9:27sebou přináší mnohé
lidské a společenské otázky, -
9:27 - 9:29kterým se nyní musíme věnovat.
-
9:29 - 9:32Jak nejlépe zorganizovat společnost,
-
9:32 - 9:35když se zmenší potřeba lidské práce?
-
9:35 - 9:38Jak mohu přinést porozumění
a vzdělávání napříč zeměkoulí -
9:38 - 9:40a stále respektovat naše odlišnosti?
-
9:40 - 9:44Jak mohu rozšířit a podpořit lidský život
pomocí kognitivní zdravotní péče? -
9:44 - 9:47Jak mohu použít počítače,
-
9:47 - 9:49aby nám pomohly dostat se ke hvězdám?
-
9:50 - 9:52A to je vzrušující.
-
9:52 - 9:55Příležitosti využít počítače
-
9:55 - 9:56k lidskému pokroku
-
9:56 - 9:58jsou v našem dosahu,
-
9:58 - 10:00zde a nyní,
-
10:00 - 10:01a to jsme teprve na začátku.
-
10:02 - 10:03Děkuji.
-
10:04 - 10:08(potlesk)
- Title:
- Nebojte se superinteligentní AI
- Speaker:
- Grady Booch
- Description:
-
Nová technologie plodí nové obavy, říká vědec a filozof Grady Blooch, ale my se nemusíme obávat všemocné, bezcitné AI. Brooch spojuje naše nejhorší (sci-fi vyvolané) obavy o superinteligentních počítačích vysvětlení, jak je učíme sdílet naše hodnoty, nikoli programujeme. Spíše než se obávat neexistující hrozby nás ponouká ke zvážení možností, jakými umělá inteligence vylepší lidský život.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Jan Kadlec approved Czech subtitles for Don't fear superintelligent AI | ||
Jan Kadlec edited Czech subtitles for Don't fear superintelligent AI | ||
Richard Cvach accepted Czech subtitles for Don't fear superintelligent AI | ||
Richard Cvach edited Czech subtitles for Don't fear superintelligent AI | ||
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI | ||
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI | ||
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI | ||
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI |