Return to Video

Můžeme vytvořit umělou inteligenci, aniž bychom nad ní ztratili kontrolu?

  • 0:01 - 0:05
    Budu mluvit o selhání intuice,
    kterým trpí mnozí z nás.
  • 0:05 - 0:09
    Vlastně jde o neschopnost
    odhalit určitý typ nebezpečí.
  • 0:09 - 0:11
    Popíšu vám situaci,
  • 0:11 - 0:14
    kterou považuji za děsivou
  • 0:14 - 0:16
    a zároveň pravděpodobnou.
  • 0:17 - 0:20
    A jak se ukazuje,
    tohle není dobrá kombinace.
  • 0:20 - 0:22
    Ovšem i přesto si bude
    většina z vás myslet,
  • 0:22 - 0:25
    že mluvím spíš o zajímavých
    než o děsivých věcech.
  • 0:25 - 0:28
    Popíšu vám, jak nás pokroky
  • 0:28 - 0:30
    v umělé inteligenci
  • 0:30 - 0:32
    mohou nakonec úplně vyhubit.
  • 0:32 - 0:35
    Vlastně myslím, že lze jen
    stěží nevidět, že nás vyhubí
  • 0:35 - 0:37
    nebo že nás k sebezničení navedou.
  • 0:37 - 0:39
    A pokud jste na tom podobně jako já,
  • 0:39 - 0:42
    bude vám připadat zábavné
    o těchto věcech přemýšlet.
  • 0:42 - 0:45
    Naše reakce je součástí toho problému.
  • 0:45 - 0:48
    Tahle reakce by nás měla znepokojovat.
  • 0:48 - 0:50
    Kdybych vás teď přesvědčoval,
  • 0:51 - 0:54
    že lidstvo pravděpodobně
    zasáhne globální hladomor,
  • 0:54 - 0:57
    buď kvůli klimatickým změnám
    nebo kvůli jiné katastrofě,
  • 0:57 - 1:00
    a že vaše vnoučata
    či jejich vnoučata
  • 1:01 - 1:03
    budou nejspíš žít takhle,
  • 1:03 - 1:05
    určitě si neřeknete:
  • 1:05 - 1:09
    „Zajímavé! To je ale hezká přednáška.“
  • 1:09 - 1:11
    Hladomor není legrace.
  • 1:12 - 1:15
    Na druhou stranu,
    smrt ve sci-fi zábavná je.
  • 1:15 - 1:19
    Jednou z věcí, které se teď na vývoji
    umělé inteligence nejvíc obávám,
  • 1:19 - 1:23
    je to, že zřejmě nejsme schopní
    přiměřeně emocionálně reagovat
  • 1:23 - 1:25
    na nebezpečí ležící před námi.
  • 1:25 - 1:29
    Já sám toho nejsem schopný,
    i když o tom právě přednáším.
  • 1:30 - 1:33
    Je to jako volit cestu na rozcestí.
  • 1:33 - 1:37
    Vstoupit prvními dveřmi znamená
    zastavit rozvoj inteligentních strojů.
  • 1:38 - 1:41
    Počítačový software a hardware se prostě
    z nějakého důvodu přestane rozvíjet.
  • 1:42 - 1:45
    Zastavme se chvilku nad tím,
    kdy by taková situace mohla nastat.
  • 1:45 - 1:49
    S ohledem na to, jakým jsou pro nás
    inteligence a automatizace přínosem,
  • 1:49 - 1:52
    budeme technologie stále zlepšovat,
    pokud toho vůbec budeme schopni.
  • 1:53 - 1:55
    Co by nás mohlo zastavit?
  • 1:56 - 1:58
    Celosvětová nukleární válka?
  • 1:59 - 2:01
    Globální pandemie?
  • 2:02 - 2:04
    Dopad asteroidu?
  • 2:06 - 2:08
    Justin Bieber prezidentem USA?
  • 2:08 - 2:11
    (smích)
  • 2:13 - 2:17
    Jde o to, že by naši současnou
    civilizaci muselo něco zničit.
  • 2:17 - 2:21
    Představte si,
    co hrozného by se muselo stát,
  • 2:22 - 2:25
    abychom nebyli schopni dále
    zdokonalovat naše technologie,
  • 2:25 - 2:28
    neustále, generaci za generací.
  • 2:28 - 2:32
    V podstatě je to ta nejhorší věc,
    jaká by v dějinách mohla nastat.
  • 2:33 - 2:36
    Čili jedinou alternativou, tou,
    která nás čeká za druhými dveřmi,
  • 2:36 - 2:39
    je postupně každým rokem
    pokračovat ve zdokonalování
  • 2:39 - 2:41
    inteligentních strojů.
  • 2:42 - 2:46
    V určitém okamžiku vytvoříme stroje,
    které budou chytřejší než my,
  • 2:46 - 2:48
    a až budeme mít stroje,
    které budou chytřejší,
  • 2:48 - 2:50
    začnou se zdokonalovat samy.
  • 2:51 - 2:54
    A potom nám hrozí situace,
    kterou matematik I. J. Good nazval
  • 2:54 - 2:55
    „inteligenční explozí“,
  • 2:55 - 2:58
    tedy, že by se nám to
    mohlo vymknout z rukou.
  • 2:58 - 3:01
    Jak vidíte třeba tady,
    toto téma se často zpodobňuje
  • 3:01 - 3:05
    jako obava z armád zlovolných robotů,
    kteří na nás zaútočí.
  • 3:05 - 3:08
    Ale to není moc pravděpodobný scénář.
  • 3:08 - 3:13
    Není to tak, že by stroje
    najednou začaly být zlé.
  • 3:13 - 3:18
    Problém je v tom, že vytvoříme stroje,
    které budou o tolik schopnější než my,
  • 3:18 - 3:23
    že i ta nejjemnější odchylka mezi
    jejich a našimi cíli by nás mohla zničit.
  • 3:24 - 3:26
    Vezměte si, jak se chováme k mravencům.
  • 3:27 - 3:28
    Nic proti nim nemáme.
  • 3:28 - 3:30
    Nechceme jim cíleně ubližovat.
  • 3:30 - 3:33
    Necháme se i poštípat,
    abychom jim neublížili.
  • 3:33 - 3:34
    Na chodníku je překračujeme.
  • 3:35 - 3:37
    Ale kdykoliv jejich přítomnost
  • 3:37 - 3:39
    vážně narušuje naše zájmy,
  • 3:39 - 3:42
    například při stavbě budov, jako je tahle,
  • 3:42 - 3:44
    bez mrknutí oka je zlikvidujeme.
  • 3:44 - 3:47
    Panuje obava, že jednou vytvoříme stroje,
  • 3:47 - 3:50
    které by s námi mohly, vědomě či nevědomě,
  • 3:50 - 3:52
    zacházet podobně lhostejně.
  • 3:54 - 3:57
    Mnohým z vás to nejspíš
    přijde přitažené za vlasy.
  • 3:57 - 4:00
    Vsadím se, že někteří
    z vás určitě pochybují,
  • 4:00 - 4:03
    že je možné superinteligentní AI vytvořit,
  • 4:04 - 4:05
    natož, že to nevyhnutelně nastane.
  • 4:05 - 4:09
    Pak ale musíte v následujících
    předpokladech najít nějaký omyl.
  • 4:09 - 4:11
    Ty předpoklady jsou jen tři.
  • 4:12 - 4:17
    Inteligence je výsledkem zpracování
    informací ve hmotných systémech.
  • 4:17 - 4:20
    Toto je vlastně víc než předpoklad.
  • 4:20 - 4:23
    Do našich strojů jsme už
    omezenou inteligenci zabudovali
  • 4:23 - 4:28
    a mnohé z nich už operují
    na úrovni superinteligentních lidí.
  • 4:29 - 4:31
    A víme, že pouhá hmota
  • 4:31 - 4:34
    může dát vzniknout
    takzvané „všeobecné inteligenci“,
  • 4:34 - 4:37
    tedy schopnosti flexibilně
    se orientovat v různých oblastech.
  • 4:38 - 4:41
    Protože náš mozek už to zvládl, že?
  • 4:43 - 4:45
    Mozek se skládá jenom z atomů,
  • 4:45 - 4:49
    a pokud budeme pokračovat
    v budování systémů z atomů,
  • 4:49 - 4:53
    které budou vykazovat čím dál
    inteligentnější chování, tak nakonec,
  • 4:54 - 4:56
    pokud nás něco nezastaví,
  • 4:56 - 4:59
    zabudujeme do našich strojů
    všeobecnou inteligenci.
  • 4:59 - 5:03
    Klíčové je uvědomit si,
    že na rychlosti pokroku nezáleží,
  • 5:03 - 5:06
    protože k dosažení cílové pásky
    stačí jakékoli tempo.
  • 5:06 - 5:10
    Nepotřebujeme Mooreův zákon,
    není zapotřebí exponenciální vývoj.
  • 5:10 - 5:12
    Prostě stačí pokračovat.
  • 5:13 - 5:16
    Druhým předpokladem je,
    že budeme pokračovat.
  • 5:17 - 5:20
    Budeme naše inteligentní stroje
    nadále zdokonalovat.
  • 5:21 - 5:25
    Protože inteligence je důležitá –
  • 5:25 - 5:29
    myslím tím to, že inteligence je buď
    zdrojem všeho, čeho si ceníme,
  • 5:29 - 5:32
    nebo že ji potřebujeme
    k zabezpečení všeho, čeho si ceníme.
  • 5:32 - 5:34
    Je to náš nejcennější zdroj.
  • 5:34 - 5:36
    Takže v tom chceme pokračovat.
  • 5:36 - 5:39
    Máme problémy, které zoufale
    potřebujeme vyřešit.
  • 5:39 - 5:42
    Chceme například vyléčit
    Alzheimerovu chorobu nebo rakovinu.
  • 5:43 - 5:47
    Chceme rozumět ekonomickým systémům.
    Chceme zlepšit výzkum klimatu.
  • 5:47 - 5:49
    Takže budeme pokračovat,
    pokud to půjde.
  • 5:49 - 5:52
    Je to rozjetý vlak, který nejde zastavit.
  • 5:54 - 5:59
    Posledním předpokladem je,
    že lidé nestojí na vrcholu inteligence
  • 5:59 - 6:01
    a pravděpodobně nejsou ani pod vrcholem.
  • 6:02 - 6:06
    To je opravdu zásadní pohled.
    Kvůli tomu jsme v tak prekérní situaci.
  • 6:06 - 6:10
    Kvůli tomu je naše intuice
    při posuzování rizik tak nespolehlivá.
  • 6:11 - 6:14
    Vezměte si třeba
    nejchytřejší lidi v dějinách.
  • 6:15 - 6:18
    Do užšího výběru by téměř každý
    zařadil Johna von Neumanna.
  • 6:18 - 6:21
    To, jakým dojmem von Neumann
    působil na lidi kolem sebe,
  • 6:21 - 6:25
    mezi něž patřili nejlepší
    matematici a fyzici té doby,
  • 6:26 - 6:27
    je celkem dobře zdokumentováno.
  • 6:27 - 6:31
    Kdyby jen polovina historek o něm
    byla aspoň z poloviny pravdivá,
  • 6:31 - 6:34
    tak není pochyb,
    že patřil mezi nejchytřejší lidi historie.
  • 6:35 - 6:38
    Pojďme se teď zamyslet
    nad rozsahem inteligence.
  • 6:38 - 6:40
    Tady je John von Neumann.
  • 6:42 - 6:43
    Tady jsou lidé jako vy a já.
  • 6:44 - 6:45
    A tady máme kuře.
  • 6:46 - 6:47
    (smích)
  • 6:47 - 6:49
    Pardon, kuře.
  • 6:49 - 6:50
    (smích)
  • 6:50 - 6:53
    Není důvod, aby tahle přednáška
    byla víc depresivní, než je potřeba.
  • 6:53 - 6:55
    (smích)
  • 6:56 - 7:02
    Ovšem zdá se navýsost pravděpodobné,
    že rozsah inteligence je mnohem širší,
  • 7:02 - 7:03
    než jak ho v současnosti vnímáme.
  • 7:04 - 7:07
    A pokud vytvoříme stroje
    inteligentnější než jsme my,
  • 7:07 - 7:10
    tak budou velmi pravděpodobně
    zkoumat toto spektrum způsobem,
  • 7:10 - 7:11
    který si neumíme představit,
  • 7:11 - 7:14
    a předčí nás způsobem,
    který si neumíme představit.
  • 7:15 - 7:19
    A je důležité připustit,
    že je tomu tak už díky samotné rychlosti.
  • 7:19 - 7:24
    Představte si, že jsme
    vytvořili superinteligentní AI,
  • 7:24 - 7:30
    která je stejně chytrá jako průměrný
    tým vědců na Stanfordu nebo MIT.
  • 7:30 - 7:34
    Víme, že elektronické obvody pracují
    asi milionkrát rychleji než biochemické,
  • 7:34 - 7:38
    takže takový stroj
    by přemýšlel milionkrát rychleji
  • 7:38 - 7:39
    než lidé, kteří ho postavili.
  • 7:40 - 7:41
    Takže ho na týden pustíte
  • 7:41 - 7:46
    a on vykoná stejnou intelektuální práci,
    jaká by lidem trvala 20 000 let.
  • 7:46 - 7:49
    Týden za týdnem, pořád dokola.
  • 7:50 - 7:53
    Jak bychom vůbec mohli pochopit,
    tím spíš nějak omezovat,
  • 7:53 - 7:55
    inteligenci schopnou takového pokroku?
  • 7:57 - 8:00
    Je tu i další znepokojivá věc –
  • 8:00 - 8:04
    představte si optimální situaci.
  • 8:04 - 8:08
    Představte si, že se nám podaří
    navrhnout superinteligentní AI,
  • 8:08 - 8:10
    která nebude dbát na bezpečnost.
  • 8:10 - 8:12
    Hned napoprvé budeme mít dokonalou verzi.
  • 8:13 - 8:17
    Jako kdyby se naplnila nějaká věštba,
    která by fungovala tak, jak bylo určeno.
  • 8:17 - 8:21
    Takový stroj by lidem
    dokonale usnadňoval práci.
  • 8:22 - 8:24
    Dokázal by navrhnout stroj,
    který by uměl stavět stroje
  • 8:24 - 8:26
    schopné jakékoli manuální práce,
  • 8:26 - 8:29
    napájené sluneční energií,
    víceméně za cenu surovin.
  • 8:31 - 8:33
    Takže mluvíme o konci lidské dřiny.
  • 8:33 - 8:36
    Mluvíme také o konci
    většiny intelektuální práce.
  • 8:37 - 8:40
    Ale co by takové opice jako my
    v téhle situaci dělaly?
  • 8:41 - 8:45
    No, měli bychom čas hrát frisbee
    a vzájemně se masírovat.
  • 8:46 - 8:49
    Přidali bychom nějaké to LSD
    a kontroverzní oblečení
  • 8:49 - 8:51
    a svět by mohl vypadat jako „Burning Man“.
  • 8:51 - 8:54
    (smích)
  • 8:54 - 8:57
    Asi to zní krásně.
  • 8:57 - 9:00
    Ale zeptejte se sami sebe, co by se stalo,
  • 9:00 - 9:02
    kdyby ekonomika a politika
    fungovaly tak jako dnes.
  • 9:02 - 9:05
    Pravděpodobně bychom zažili
  • 9:05 - 9:09
    takovou sociální nerovnost
    a nezaměstnanost
  • 9:09 - 9:11
    jako nikdy předtím.
  • 9:11 - 9:15
    Zavládla by neochota dát okamžitě
    toto bohatství do služeb lidstvu.
  • 9:16 - 9:19
    Několik bilionářů by zdobilo
    obálky obchodních časopisů,
  • 9:19 - 9:22
    zatímco zbytek světa
    by mohl v klidu hladovět.
  • 9:22 - 9:24
    A co by udělali Rusové nebo Číňani,
  • 9:25 - 9:27
    kdyby se doslechli, že se v Silicon Valley
  • 9:27 - 9:30
    někdo chystá zapojit superinteligentní AI?
  • 9:30 - 9:32
    Takový stroj by byl schopný vést válku,
  • 9:33 - 9:35
    ať už pozemní nebo kybernetickou,
  • 9:35 - 9:37
    s nebývalou silou.
  • 9:38 - 9:40
    V této situaci by „vítěz bral vše“.
  • 9:40 - 9:43
    Šestiměsíční náskok před konkurencí
  • 9:43 - 9:47
    by znamenal náskok minimálně 500 000 let,
  • 9:47 - 9:52
    Zdá se, že i pouhé fámy
    o průlomu v této oblasti
  • 9:52 - 9:54
    by mohly náš druh dovést k nepříčetnosti.
  • 9:55 - 9:57
    Myslím si, že jednou z nejděsivějších věcí
  • 9:58 - 10:00
    je momentálně to,
  • 10:00 - 10:05
    co vědci zabývající se
    vývojem umělé inteligence říkají,
  • 10:05 - 10:06
    když nás chtějí uklidnit.
  • 10:07 - 10:10
    Nejčastěji uváděným důvodem,
    proč se prý nemáme obávat, je čas.
  • 10:10 - 10:13
    Všechno je to ještě daleko, nemyslíte?
  • 10:13 - 10:15
    Přijde to až tak za 50 nebo 100 let.
  • 10:16 - 10:19
    Jeden vědec řekl:
    „Bát se o bezpečnost umělé inteligence
  • 10:19 - 10:21
    je stejné, jako bát se přelidnění Marsu.“
  • 10:22 - 10:24
    Pro Silicon Valley je to jen jiná verze:
  • 10:24 - 10:26
    „Nech to koňovi, ten má větší hlavu.“
  • 10:26 - 10:27
    (smích)
  • 10:28 - 10:29
    Nikdo si nejspíš nevšímá toho,
  • 10:29 - 10:34
    že odvolávat se na časový horizont
    je naprosto nelogické.
  • 10:34 - 10:38
    Pokud inteligence spočívá
    pouze ve zpracování informací
  • 10:38 - 10:41
    a pokud budeme dál zlepšovat své stroje,
  • 10:41 - 10:44
    tak nějakou formu
    superinteligence vytvoříme.
  • 10:44 - 10:48
    Ale nemáme ani ponětí,
    jak dlouho nám bude trvat,
  • 10:48 - 10:51
    abychom ji vytvořili
    za bezpečných podmínek.
  • 10:52 - 10:53
    Řeknu to ještě jednou.
  • 10:54 - 10:57
    Nemáme ani ponětí,
    jak dlouho nám bude trvat,
  • 10:57 - 11:00
    abychom ji vytvořili
    za bezpečných podmínek.
  • 11:01 - 11:05
    A možná jste si nevšimli,
    že 50 let už není, co bývalo.
  • 11:05 - 11:07
    Tohle je 50 let v měsících.
  • 11:07 - 11:09
    Takhle dlouho máme iPhone.
  • 11:09 - 11:12
    A takhle dlouho se vysílají Simpsonovi.
  • 11:13 - 11:15
    Padesát let není moc času na to,
  • 11:15 - 11:18
    aby se náš druh vypořádal s jedním
    z nejtěžších úkolů všech dob.
  • 11:20 - 11:24
    Ještě jednou – zdá se, že nejsme schopni
    adekvátní emocionální reakce na to,
  • 11:24 - 11:26
    co podle všeho nepochybně nastane.
  • 11:26 - 11:30
    Odborník na počítače, Stuart Russell,
    má pro tuto situaci hezké přirovnání.
  • 11:31 - 11:35
    Máme si představit, že dostaneme
    zprávu od mimozemské civilizace,
  • 11:35 - 11:37
    ve které stojí:
  • 11:37 - 11:38
    „Pozemšťané,
  • 11:39 - 11:41
    za 50 let dorazíme na vaši planetu.
  • 11:42 - 11:43
    Připravte se.“
  • 11:43 - 11:47
    To bychom jen počítali, kolik měsíců
    zbývá do přistání vlajkové lodi?
  • 11:48 - 11:51
    Cítili bychom o něco
    naléhavější potřebu než teď.
  • 11:53 - 11:55
    Dalším důvodem, proč se prý nemáme bát,
  • 11:55 - 11:58
    je, že těmto strojům nezbude než
    se držet našich hodnot,
  • 11:58 - 12:00
    protože se stanou doslova naší nadstavbou.
  • 12:00 - 12:02
    Budou implantované do našich mozků
  • 12:02 - 12:05
    a my se v podstatě staneme
    jejich limbickým systémem.
  • 12:05 - 12:06
    Chvilku se zamyslete nad tím,
  • 12:06 - 12:09
    že tou nejbezpečnější
    a nejuváženější cestou,
  • 12:10 - 12:11
    která se doporučuje,
  • 12:11 - 12:14
    by měla být implantace této
    technologie do našich mozků.
  • 12:15 - 12:18
    Ona to vskutku může být
    nejbezpečnější a nejuváženější cesta,
  • 12:18 - 12:21
    ale obvykle se všichni obávají
    o bezpečnost technologií,
  • 12:21 - 12:25
    protože když máte nosit něco natrvalo,
    musí to být dost dobře vyladěné.
  • 12:25 - 12:27
    (smích)
  • 12:27 - 12:32
    Hlubším problémem je to,
    že vytvořit samotnou superinteligentní AI
  • 12:32 - 12:36
    je pravděpodobně snazší,
    než vytvářet takovou inteligenci
  • 12:36 - 12:38
    společně s kompletní neurobiologií,
  • 12:38 - 12:40
    která umožní bezproblémovou
    integraci do naší mysli.
  • 12:41 - 12:44
    A jelikož firmy a vlády budou tuto práci
  • 12:44 - 12:47
    nejspíše vnímat jako
    závod se všem ostatními,
  • 12:48 - 12:51
    protože vyhrát tenhle závod
    znamená dobýt svět ‒
  • 12:51 - 12:53
    tedy za předpokladu,
    že ho hned nato nezničíte ‒
  • 12:54 - 12:58
    tak se dá čekat, že jako první se
    udělá to, co bude nejjednodušší.
  • 12:59 - 13:01
    Já bohužel nevidím
    pro tento problém žádné řešení,
  • 13:01 - 13:04
    kromě doporučení,
    abychom o tom více přemýšleli.
  • 13:04 - 13:06
    Myslím, že potřebujeme
    něco jako projekt Manhattan
  • 13:06 - 13:08
    na téma umělé inteligence.
  • 13:09 - 13:11
    Ne kvůli jejímu vytvoření,
    protože to nevyhnutelně nastane,
  • 13:11 - 13:14
    ale abychom přišli na to,
    jak se vyhnout závodům ve zbrojení
  • 13:15 - 13:18
    a jak ji vytvořit způsobem,
    který vyhoví našim zájmům.
  • 13:18 - 13:22
    Když se bavíme o superinteligentní AI,
    která se dokáže sama měnit,
  • 13:23 - 13:27
    vypadá to, že máme jen jednu šanci,
    jak správně nastavit výchozí podmínky,
  • 13:27 - 13:30
    i když budeme muset tlumit
  • 13:30 - 13:33
    ekonomické a politické důsledky
    takto nastavených podmínek.
  • 13:34 - 13:36
    Nicméně ve chvíli, kdy si přiznáme,
  • 13:36 - 13:40
    že inteligence pramení
    ze zpracování informací,
  • 13:41 - 13:46
    že vhodně navržený počítačový systém
    je podstatou inteligence,
  • 13:46 - 13:50
    a až přistoupíme na to, že budeme
    tyto systémy neustále vylepšovat
  • 13:51 - 13:57
    a že horizont poznání nejspíš daleko
    přesahuje vše, co v současnosti známe,
  • 13:58 - 14:02
    pak si musíme přiznat, že jsme uprostřed
    procesu vytváření jakéhosi boha.
  • 14:03 - 14:07
    Teď by bylo dobré se ujistit,
    že s tímto bohem budeme moci žít.
  • 14:08 - 14:09
    Díky moc.
  • 14:09 - 14:13
    (potlesk)
Title:
Můžeme vytvořit umělou inteligenci, aniž bychom nad ní ztratili kontrolu?
Speaker:
Sam Harris
Description:

Bojíte se superinteligetní umělé inteligence? Ne? Měli byste, říká neurověděc a filosof Sam Harris ‒ a nejen v teoretické rovině. Chceme stavět stroje s vlastnostmi, které předčí ty lidské, ale ještě jsme se nevyrovnali s otázkami spojenými s vytvořením něčeho, co se k lidem může chovat tak, jako se lidé chovají například k mravencům.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Czech subtitles

Revisions