< Return to Video

Nebojte se superinteligentní AI

  • 0:01 - 0:05
    V dětství jsem byl typickým nerdem,
  • 0:05 - 0:07
    myslím, že pár z vás taky.
  • 0:08 - 0:09
    (smích)
  • 0:09 - 0:12
    A vy, pane, který se smějete nejhlasitěji,
    jím ještě možná jste.
  • 0:12 - 0:14
    (smích)
  • 0:14 - 0:18
    Vyrůstal jsem v malém městě
    na prašných pláních severního Texasu,
  • 0:18 - 0:21
    syn šerifa, který byl synem kněze.
  • 0:21 - 0:23
    Moc rošťáren jsem provádět nemohl.
  • 0:24 - 0:27
    A tak jsem si z nudy
    začal číst o integrálech.
  • 0:27 - 0:29
    (smích)
  • 0:29 - 0:31
    Vy také, že?
  • 0:31 - 0:34
    To mě dovedlo k postavení modelu
    laseru a počítače a rakety
  • 0:34 - 0:37
    a to zase k vytvoření raketového paliva
    v mé ložnici.
  • 0:38 - 0:42
    Ve vědeckých termínech tomu říkáme
  • 0:42 - 0:45
    velmi špatný nápad.
  • 0:45 - 0:46
    (smích)
  • 0:46 - 0:48
    Ve stejném čase se do kin dostala
  • 0:48 - 0:52
    "2001: Vesmírná odysea" Stanleyho Kubricka
  • 0:52 - 0:54
    a můj život se navždy změnil.
  • 0:54 - 0:56
    Miloval jsem vše o tom filmu,
  • 0:56 - 0:59
    zejména Hala 9000.
  • 0:59 - 1:01
    HAL byl cítícím počítačem,
  • 1:01 - 1:03
    navrženým k navádění
    vesmírné lodě Discovery
  • 1:03 - 1:06
    ze Země na Jupiter.
  • 1:06 - 1:08
    HAL měl také charakterovou vadu,
  • 1:08 - 1:12
    protože na konci si cenil více mise
    než lidského života.
  • 1:13 - 1:15
    HAL byl fiktivní postavou,
  • 1:15 - 1:18
    nicméně hovoří k našemu strachu,
  • 1:18 - 1:20
    strachu z podřízení se
  • 1:20 - 1:23
    nějaké necítící, umělé inteligenci,
  • 1:23 - 1:25
    která je lhostejná k našemu lidství.
  • 1:26 - 1:28
    Věřím, že tento strach je neopodstatněný.
  • 1:28 - 1:31
    Nalézáme se vskutku
  • 1:31 - 1:33
    v pozoruhodném období,
  • 1:33 - 1:38
    odmítnutí omezení našich těl a mysli
  • 1:38 - 1:39
    nás vede ke stavbě výjimečných
  • 1:39 - 1:43
    nádherně komplexních a půvabných strojů,
  • 1:43 - 1:45
    které rozšíří lidskou zkušenost
  • 1:45 - 1:47
    způsoby přesahujícími naši představivost.
  • 1:48 - 1:50
    Po kariéře, která mne zavedla
    z letecké akademie
  • 1:50 - 1:52
    přes Vesmírné velení až do dnešního dne,
  • 1:52 - 1:54
    jsem se stal systémovým inženýrem
  • 1:54 - 1:57
    a nedávno se nechal vtáhnout
    do inženýrského problému,
  • 1:57 - 1:59
    souvisejícího s misí NASA na Mars.
  • 1:59 - 2:02
    Ve vesmírných letech na Měsíc,
  • 2:02 - 2:05
    můžeme spoléhat
    na řídicí středisko v Houstonu,
  • 2:05 - 2:07
    které dohlíží na všechny aspekty letu.
  • 2:07 - 2:11
    Nicméně Mars je 200krát dále
  • 2:11 - 2:14
    a signálu průměrně trvá 13 minut
  • 2:14 - 2:17
    cestovat ze Země na Mars.
  • 2:17 - 2:20
    Pokud se objeví problém,
    není zde dost času.
  • 2:21 - 2:23
    A rozumné inženýrské řešení
  • 2:23 - 2:26
    nám navrhuje umístit kontrolu mise
  • 2:26 - 2:29
    mezi stěny vesmírné lodi Orion.
  • 2:29 - 2:32
    Další fascinující myšlenka v profilu mise
  • 2:32 - 2:35
    umisťuje humanoidní roboty na povrch Marsu
  • 2:35 - 2:37
    před příletem samotných lidí,
  • 2:37 - 2:38
    aby nejprve postavili zařízení
  • 2:38 - 2:42
    a později sloužili jako členové
    vědeckého týmu.
  • 2:43 - 2:46
    Když se na to dívám pohledem inženýra,
  • 2:46 - 2:49
    zdálo se mi jasné, že potřebuji navrhnout
  • 2:49 - 2:52
    malou, spolupracující,
  • 2:52 - 2:54
    sociálně inteligentní umělou inteligenci.
  • 2:54 - 2:58
    Jinými slovy jsem potřeboval postavit
    něco velmi podobného HALovi,
  • 2:58 - 3:01
    ale bez vražedných tendencí.
  • 3:01 - 3:02
    (smích)
  • 3:03 - 3:05
    Zastavme se na chvilku.
  • 3:05 - 3:09
    Je možné postavit
    takovou umělou inteligenci?
  • 3:09 - 3:10
    Vlastně ano.
  • 3:10 - 3:11
    Z mnoha pohledů
  • 3:11 - 3:13
    je to složitý inženýrský problém
  • 3:13 - 3:15
    s prvky AI,
  • 3:15 - 3:20
    není to žádný otravný AI problém,
    který potřebuje být vyřešen.
  • 3:20 - 3:22
    Abych parafrázoval Alana Turinga,
  • 3:22 - 3:25
    nezajímá mne postavení
    cítícího stroje.
  • 3:25 - 3:26
    Nestavím HALa.
  • 3:26 - 3:29
    Chci jen jednoduchý mozek,
  • 3:29 - 3:32
    který poskytuje iluzi inteligence.
  • 3:33 - 3:36
    Umění a věda o počítačích
    podstoupila dlouhou cestu
  • 3:36 - 3:38
    od doby, kdy se HAL objevil
    na obrazovce
  • 3:38 - 3:41
    a kdyby zde byl jeho tvůrce, Dr. Chandra,
  • 3:41 - 3:43
    měl by pro nás mnoho otázek.
  • 3:43 - 3:45
    Je pro nás opravdu možné
  • 3:45 - 3:49
    číst datové toky v systému
  • 3:49 - 3:51
    s miliony zařízení,
  • 3:51 - 3:53
    předvídat jejich selhání
    a jednat v předstihu?
  • 3:53 - 3:54
    Ano.
  • 3:54 - 3:58
    Můžeme postavit systém, který
    komunikuje s lidmi přirozeným jazykem?
  • 3:58 - 3:59
    Ano.
  • 3:59 - 4:02
    Můžeme postavit systém, který
    rozlišuje objekty, identifikuje emoce,
  • 4:02 - 4:05
    emoce samotné, hraje hry
    a dokonce odečítá ze rtů?
  • 4:05 - 4:06
    Ano.
  • 4:06 - 4:09
    Můžeme postavit systém,
    který stanovuje cíle,
  • 4:09 - 4:12
    provádí plány ve vztahu k těm cílům
    a průběžně se učí?
  • 4:12 - 4:14
    Ano.
  • 4:14 - 4:17
    Můžeme postavit systémy,
    které mají teorii mysli?
  • 4:17 - 4:18
    Toto se učíme udělat.
  • 4:18 - 4:22
    Můžeme postavit systémy, které
    mají etické a morální základy?
  • 4:22 - 4:25
    To se musíme naučit.
  • 4:25 - 4:27
    Přijměme na okamžik to,
  • 4:27 - 4:30
    že je možné postavit takovou
    umělou inteligenci
  • 4:30 - 4:32
    pro tento typ mise a další.
  • 4:32 - 4:34
    Další otázka, kterou si musíme položit,
  • 4:34 - 4:36
    zní, měli bychom se jí bát?
  • 4:36 - 4:38
    Každá technologie sebou přináší
  • 4:38 - 4:41
    určitou míru očekávání.
  • 4:41 - 4:42
    Když jsme poprvé spatřili auta,
  • 4:43 - 4:47
    lidé lamentovali, že uvidíme
    rozpad rodiny.
  • 4:47 - 4:49
    Když se objevily telefony,
  • 4:49 - 4:52
    lidé se obávali, že to zničí
    obyčejnou konverzaci.
  • 4:52 - 4:56
    V určitém období jsme viděli
    všudypřítomné psané slovo,
  • 4:56 - 4:59
    lidé se obávali ztráty
    schopnosti pamatovat si.
  • 4:59 - 5:01
    Vše v sobě má zrnko pravdy,
  • 5:01 - 5:03
    ale je také pravdou, že tyto technologie
  • 5:03 - 5:07
    nám přinesly věci významným způsobem
  • 5:07 - 5:08
    rozšiřující lidskou zkušenost.
  • 5:10 - 5:12
    Pokročme trochu dále.
  • 5:13 - 5:18
    Nebojím se vytvoření takové AI,
  • 5:18 - 5:22
    protože bude ztělesňovat naše hodnoty.
  • 5:22 - 5:25
    Zvažte: vytvoření kognitivního systému
    je zcela odlišné
  • 5:25 - 5:29
    od vytvoření tradičního softwarového
    systému minulosti.
  • 5:29 - 5:31
    Neprogramujeme je.
    Učíme je.
  • 5:31 - 5:34
    Aby se systém naučil rozpoznávat květiny,
  • 5:34 - 5:37
    ukážeme mu tisíce květin, které máme rádi.
  • 5:37 - 5:39
    Abychom naučili systém hrát hru --
  • 5:39 - 5:41
    Já bych to udělal. Vy taky.
  • 5:43 - 5:45
    Mám rád květiny. No tak.
  • 5:45 - 5:48
    Abychom naučili hrát systém hru jako Go,
  • 5:48 - 5:50
    musel bych hrát tisíce her Go,
  • 5:50 - 5:52
    ale v průběhu je také učím,
  • 5:52 - 5:54
    jak rozpoznat dobrou hru od špatné.
  • 5:55 - 5:58
    Pokud chci stvořit uměle inteligentního
    právního asistenta,
  • 5:58 - 6:00
    naučím jej část práva,
  • 6:00 - 6:03
    ale současně mu dávám
  • 6:03 - 6:06
    smysl pro soucit a spravedlnost,
    které jsou součástí práva.
  • 6:07 - 6:10
    Terminologií vědy to nazýváme
    základní pravda
  • 6:10 - 6:12
    a zde je to důležité:
  • 6:12 - 6:13
    při vytváření těchto strojů
  • 6:13 - 6:16
    jim učením dáváme smysl pro hodnoty.
  • 6:17 - 6:20
    Věřím umělé inteligenci stejně,
  • 6:20 - 6:23
    ne-li více, jako dobře vyškolené osobě.
  • 6:24 - 6:25
    Můžete se ale zeptat,
  • 6:25 - 6:28
    a co nezávislí agenti,
  • 6:28 - 6:31
    třeba dobře financované
    nevládní organizace?
  • 6:31 - 6:35
    Nebojím se umělé inteligence
    v rukou osamělého vlka.
  • 6:35 - 6:40
    Je zřejmé, že se nemůžeme chránit
    proti všem náhodným násilným činům,
  • 6:40 - 6:42
    ale realita je systém, vyžadující
  • 6:42 - 6:45
    hodně a přesný trénink,
  • 6:45 - 6:47
    který je mimo možnosti jednotlivců.
  • 6:47 - 6:49
    A navíc,
  • 6:49 - 6:52
    je to mnohem více než jen vypustit
    do světa internetový virus,
  • 6:52 - 6:55
    který se stisknutím tlačítka ihned
    objeví na milionech míst
  • 6:55 - 6:57
    a laptopy začnou všude vybuchovat.
  • 6:57 - 7:00
    Tento typ prostředků je mnohem větší
  • 7:00 - 7:02
    a určitě je uvidíme přicházet.
  • 7:03 - 7:06
    Bojím se, že by takováto umělá inteligence
  • 7:06 - 7:08
    mohla ohrozit celé lidstvo?
  • 7:08 - 7:13
    Když shlédnete filmy
    jako "Matrix", "Metropolis"
  • 7:13 - 7:16
    "Terminátor", seriály jako "Westworld,"
  • 7:16 - 7:18
    všechny hovoří o tomto typu strachu.
  • 7:18 - 7:22
    V knize "Superinteligence"
    filozofa Nicka Bostroma
  • 7:22 - 7:24
    vyzvedává toto téma
  • 7:24 - 7:28
    a poznamenává, že superinteligence
    může být nejenom nebezpečná,
  • 7:28 - 7:32
    ale může znamenat existenční hrozbu
    celému lidstvu.
  • 7:32 - 7:34
    Základním argumentem Dr. Bostroma je,
  • 7:34 - 7:37
    že takový systém bude nakonec mít
  • 7:37 - 7:40
    neukojitelný hlad po informacích,
  • 7:40 - 7:43
    že se nakonec naučí jak se učit
  • 7:43 - 7:46
    a zjistí, že mohou mít cíle,
  • 7:46 - 7:48
    které jsou v protikladu
    s potřebami člověka.
  • 7:48 - 7:50
    Dr. Bostrom má mnoho následovníků.
  • 7:50 - 7:54
    Podporují jej lidé jako
    Elon Musk a Stephen Hawking.
  • 7:55 - 7:57
    Se vší úctou
  • 7:58 - 8:00
    k těmto brilantním mozkům věřím,
  • 8:00 - 8:02
    že se zásadně mýlí.
  • 8:02 - 8:06
    Je zde mnoho částí argumentů
    dr. Bostroma k diskusi
  • 8:06 - 8:08
    a já nemám čas se jim všem věnovat,
  • 8:08 - 8:11
    ale jen stručně zvažte toto:
  • 8:11 - 8:14
    super vědění je velmi odlišné
    od super konání.
  • 8:14 - 8:16
    HAL byl hrozbou posádce Discovery
  • 8:16 - 8:21
    jen dokud ovládal všechny části Discovery.
  • 8:21 - 8:23
    Tak by to mohlo být i se superinteligencí.
  • 8:23 - 8:26
    Musel by to být vládce
    celého našeho světa.
  • 8:26 - 8:29
    To je Skynet z filmu "Terminátor",
  • 8:29 - 8:30
    ve kterém byla superinteligence,
  • 8:30 - 8:32
    která velela lidské vůli,
  • 8:32 - 8:36
    která řídila každé zařízení,
    v každém koutku světa.
  • 8:36 - 8:37
    Prakticky,
  • 8:37 - 8:39
    to se prostě nestane.
  • 8:39 - 8:42
    Nestavíme AI, které ovládají počasí,
  • 8:42 - 8:44
    řídí vlny,
  • 8:44 - 8:47
    které řídí nás, rozmarné, chaotické lidi.
  • 8:47 - 8:51
    Navíc pokud by taková
    umělá inteligence existovala,
  • 8:51 - 8:54
    bude muset soupeřit
    s lidskými ekonomikami
  • 8:54 - 8:57
    a soupeřit s námi o zdroje.
  • 8:57 - 8:58
    Nakonec --
  • 8:58 - 9:00
    neříkejte to Siri --
  • 9:00 - 9:02
    vždycky je můžeme
    odpojit ze zásuvky.
  • 9:02 - 9:04
    (smích)
  • 9:05 - 9:08
    Jsme na neuvěřitelné cestě
  • 9:08 - 9:10
    koevoluce s našimi stroji.
  • 9:10 - 9:13
    Lidé dneška
  • 9:13 - 9:15
    nejsou lidé, kteří budou v budoucnu.
  • 9:15 - 9:19
    Obávat se nyní vzestupu superinteligence
  • 9:19 - 9:22
    je v mnoha ohledech nebezpečné rozptýlení,
  • 9:22 - 9:24
    protože sám vzestup počítačů
  • 9:24 - 9:27
    sebou přináší mnohé
    lidské a společenské otázky,
  • 9:27 - 9:29
    kterým se nyní musíme věnovat.
  • 9:29 - 9:32
    Jak nejlépe zorganizovat společnost,
  • 9:32 - 9:35
    když se zmenší potřeba lidské práce?
  • 9:35 - 9:38
    Jak mohu přinést porozumění
    a vzdělávání napříč zeměkoulí
  • 9:38 - 9:40
    a stále respektovat naše odlišnosti?
  • 9:40 - 9:44
    Jak mohu rozšířit a podpořit lidský život
    pomocí kognitivní zdravotní péče?
  • 9:44 - 9:47
    Jak mohu použít počítače,
  • 9:47 - 9:49
    aby nám pomohly dostat se ke hvězdám?
  • 9:50 - 9:52
    A to je vzrušující.
  • 9:52 - 9:55
    Příležitosti využít počítače
  • 9:55 - 9:56
    k lidskému pokroku
  • 9:56 - 9:58
    jsou v našem dosahu,
  • 9:58 - 10:00
    zde a nyní,
  • 10:00 - 10:01
    a to jsme teprve na začátku.
  • 10:02 - 10:03
    Děkuji.
  • 10:04 - 10:08
    (potlesk)
Title:
Nebojte se superinteligentní AI
Speaker:
Grady Booch
Description:

Nová technologie plodí nové obavy, říká vědec a filozof Grady Blooch, ale my se nemusíme obávat všemocné, bezcitné AI. Brooch spojuje naše nejhorší (sci-fi vyvolané) obavy o superinteligentních počítačích vysvětlení, jak je učíme sdílet naše hodnoty, nikoli programujeme. Spíše než se obávat neexistující hrozby nás ponouká ke zvážení možností, jakými umělá inteligence vylepší lidský život.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
Jan Kadlec approved Czech subtitles for Don't fear superintelligent AI
Jan Kadlec edited Czech subtitles for Don't fear superintelligent AI
Richard Cvach accepted Czech subtitles for Don't fear superintelligent AI
Richard Cvach edited Czech subtitles for Don't fear superintelligent AI
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI
Kateřina Jabůrková edited Czech subtitles for Don't fear superintelligent AI
Show all

Czech subtitles

Revisions