< Return to Video

人工知能が人間を超えるのを怖れることはない

  • 0:01 - 0:05
    子供の頃 私はごく典型的な
    オタク少年でした
  • 0:05 - 0:07
    皆さんの中にも
    いるでしょう
  • 0:08 - 0:09
    (笑)
  • 0:09 - 0:12
    そこで大声で笑った人
    あなたは今もそうでしょう
  • 0:12 - 0:14
    (笑)
  • 0:14 - 0:18
    北テキサスのほこりっぽい平原の
    小さな町で育ち
  • 0:18 - 0:21
    父は牧師の子で
    保安官をしていました
  • 0:21 - 0:23
    トラブルを起こすなんて論外です
  • 0:24 - 0:27
    それで趣味として
    解析学の本を読むようになりました
  • 0:27 - 0:29
    (笑)
  • 0:29 - 0:31
    あなたもですか?
  • 0:31 - 0:34
    それでレーザーやコンピューターや
    ロケットなんかを作るようになり
  • 0:34 - 0:38
    さらには自分の部屋で
    ロケット燃料まで作りました
  • 0:40 - 0:43
    科学用語で言うと これは
  • 0:43 - 0:45
    「とってもまずい考え」です
  • 0:45 - 0:46
    (笑)
  • 0:46 - 0:48
    同じ頃
  • 0:48 - 0:52
    スタンリー・キューブリックの
    『2001年宇宙の旅』が劇場公開され
  • 0:52 - 0:54
    私の人生を永遠に
    変えることになりました
  • 0:54 - 0:56
    あの映画の
    すべてが好きで
  • 0:56 - 0:59
    ことに HAL 9000が
    好きでした
  • 0:59 - 1:01
    HALは 知覚力のある
    コンピューターで
  • 1:01 - 1:04
    宇宙船ディスカバリー号を
    地球から木星へとガイドすべく
  • 1:04 - 1:06
    設計されていました
  • 1:06 - 1:08
    HALにはまた
    性格上の欠陥があり
  • 1:08 - 1:13
    最終的に人間の命よりも
    ミッションを優先させます
  • 1:13 - 1:15
    HALは架空のキャラクターですが
  • 1:15 - 1:18
    私たちの恐怖を
    呼び起こします
  • 1:18 - 1:20
    人間に無関心な
  • 1:20 - 1:23
    感情のない人工知能に
  • 1:23 - 1:25
    支配されるという恐怖です
  • 1:26 - 1:28
    そのような恐怖は
    根拠のないものです
  • 1:28 - 1:30
    私たちは実際
  • 1:30 - 1:33
    人類史の中でも
    目覚ましい時代にいます
  • 1:33 - 1:38
    肉体や精神の限界を
    受け入れることを拒み
  • 1:38 - 1:39
    精緻で美しく
  • 1:39 - 1:43
    複雑で優雅な機械を作り
  • 1:43 - 1:45
    それが我々の想像を
    超えるような仕方で
  • 1:45 - 1:48
    人間の体験を
    拡張することになるでしょう
  • 1:48 - 1:50
    私は空軍士官学校を出て
  • 1:50 - 1:52
    宇宙軍で働いた後
  • 1:52 - 1:54
    システム屋になりましたが
  • 1:54 - 1:57
    最近 NASAの
    火星ミッションに関連する
  • 1:57 - 1:59
    エンジニアリング上の問題へと
    引き寄せられました
  • 1:59 - 2:02
    月へ行くのであれば
  • 2:02 - 2:05
    ヒューストンの
    地上管制センターから
  • 2:05 - 2:07
    飛行の全過程を
    見守れます
  • 2:07 - 2:11
    しかし火星は月より
    200倍も離れています
  • 2:11 - 2:14
    そのため 信号が地球から
    火星に届くのには
  • 2:14 - 2:17
    平均で13分もかかります
  • 2:17 - 2:21
    トラブルが起きた場合
    そんなに待ってはいられません
  • 2:21 - 2:23
    妥当な工学的解決策として
  • 2:23 - 2:25
    オリオン号の壁の中に
  • 2:25 - 2:29
    管制機能を設けることにしました
  • 2:29 - 2:32
    ミッション概略にある
    別の面白いアイデアとして
  • 2:32 - 2:35
    人間型ロボットを火星表面に
  • 2:35 - 2:37
    人間が行く前に送って
  • 2:37 - 2:38
    施設を作らせ
  • 2:38 - 2:43
    その後は 科学者チームの一員として
    働かせるというのがあります
  • 2:43 - 2:46
    これを工学的な観点で見て
    明らかになったのは
  • 2:46 - 2:49
    ここで設計する必要があるのは
  • 2:49 - 2:51
    賢く 協力的で
  • 2:51 - 2:54
    社会的な人工知能
    だということです
  • 2:54 - 2:58
    言い換えると 何かHALのようなものを
    作る必要があるということです
  • 2:58 - 3:01
    ただし殺人癖は抜きで
  • 3:01 - 3:02
    (笑)
  • 3:03 - 3:05
    少し立ち止まって
    考えてみましょう
  • 3:05 - 3:09
    そのような人工知能を作ることは
    可能なのでしょうか
  • 3:09 - 3:10
    可能です
  • 3:10 - 3:11
    何にせよ
  • 3:11 - 3:13
    これは人工知能の
    要素がある
  • 3:13 - 3:15
    工学上の問題であって
  • 3:15 - 3:20
    得体の知れない
    人工知能の問題ではありません
  • 3:20 - 3:22
    チューリングの言葉を
    少し変えて言うと
  • 3:22 - 3:25
    知覚力のある機械を作ることには
    関心がありません
  • 3:25 - 3:26
    HALを作ろうとは
    していません
  • 3:26 - 3:29
    私がやろうとしているのは
    単純な脳
  • 3:29 - 3:32
    知性の幻想を
    提供する何かです
  • 3:33 - 3:35
    HALが映画に現れて以来
  • 3:35 - 3:38
    コンピューターの科学と技術は
    大きく進歩しました
  • 3:38 - 3:41
    HALの生みの親のチャンドラ博士が
    ここにいたなら
  • 3:41 - 3:43
    我々に聞きたいことが
    山ほどあるはずです
  • 3:43 - 3:46
    何百万 何千万という
    デバイスを使い
  • 3:46 - 3:49
    そのデータストリームを読んで
  • 3:49 - 3:51
    故障を予期し
  • 3:51 - 3:53
    前もって対処することは
    できるのか?
  • 3:53 - 3:54
    できます
  • 3:54 - 3:58
    自然言語で人間と会話するシステムを
    構築することはできるのか?
  • 3:58 - 3:58
    できます
  • 3:58 - 4:03
    物を認識し 人の感情を判断し
    自分の感情を表現し ゲームをし
  • 4:03 - 4:05
    唇の動きすら読めるシステムを
    作ることはできるのか?
  • 4:05 - 4:06
    できます
  • 4:06 - 4:09
    目標を設定し
    その実現のための計画を実行し
  • 4:09 - 4:12
    その過程で学習するシステムを
    作ることはできるのか?
  • 4:12 - 4:13
    できます
  • 4:13 - 4:16
    心の理論を備えたシステムを
    作ることはできるのか?
  • 4:16 - 4:19
    これは我々がやり方を
    学ぼうとしていることです
  • 4:19 - 4:22
    倫理的・道徳的基盤を持つシステムを
    作ることはできるのか?
  • 4:22 - 4:25
    これは我々がやり方を
    学ぶ必要のあることです
  • 4:25 - 4:27
    このようなミッションや
    その他のことための
  • 4:27 - 4:30
    人工知能を作ることは
    可能であると
  • 4:30 - 4:32
    認めることにしましょう
  • 4:32 - 4:34
    次に問わなければ
    ならないのは
  • 4:34 - 4:36
    我々はそれを怖れるべきか
    ということです
  • 4:36 - 4:38
    どんな新技術も
  • 4:38 - 4:41
    常にある程度の怖れは
    引き起こすものです
  • 4:41 - 4:43
    始めて自動車を
    目にした人々は
  • 4:43 - 4:47
    家族が壊されるのを見ることに
    なるだろうと嘆いたものです
  • 4:47 - 4:49
    始めて電話機を
    目にした人々は
  • 4:49 - 4:52
    礼儀にかなった会話が
    損なわれると懸念したものです
  • 4:52 - 4:56
    書かれたもので
    溢れるのを見た人々は
  • 4:56 - 4:59
    記憶力が失われるのでは
    と思ったものです
  • 4:59 - 5:01
    ある程度は合っていますが
  • 5:01 - 5:03
    そういった技術は
  • 5:03 - 5:05
    人間の体験を
  • 5:05 - 5:09
    根本的に広げてもくれました
  • 5:10 - 5:12
    さらに話を進めましょう
  • 5:13 - 5:18
    私はそのような人工知能を
    作ることに怖れは感じません
  • 5:18 - 5:22
    それは人間の価値観を
    体現することになるからです
  • 5:22 - 5:24
    認知システムを作るのは
  • 5:24 - 5:29
    従来のソフトウェア中心のシステムを
    作るのとは 根本的に異なります
  • 5:29 - 5:31
    プログラムするのではなく
    教えるのです
  • 5:31 - 5:34
    システムに花を
    認識させるために
  • 5:34 - 5:37
    私は自分の好きな
    何千という花を見せます
  • 5:37 - 5:39
    システムにゲームの遊び方を
    教えるには —
  • 5:39 - 5:42
    私だってゲームはしますよ
    皆さんもでしょう?
  • 5:42 - 5:45
    花だって好きだし
    らしくないですか?
  • 5:45 - 5:48
    碁のようなゲームの遊び方を
    システムに教えるには
  • 5:48 - 5:50
    碁を何千回も指させ
  • 5:50 - 5:52
    その過程で
  • 5:52 - 5:54
    良い盤面・悪い盤面を
    識別する方法を教えます
  • 5:55 - 5:58
    人工知能の弁護士助手を
    作ろうと思ったら
  • 5:58 - 6:00
    法律も教えますが
  • 6:00 - 6:02
    同時に法の一部をなす
  • 6:02 - 6:06
    慈悲や公正の感覚を
    吹き込むでしょう
  • 6:06 - 6:10
    科学用語では これを
    グランドトゥルースと言います
  • 6:10 - 6:12
    重要なのは
  • 6:12 - 6:13
    そういう機械を作るとき
  • 6:13 - 6:17
    我々は自分の価値観を
    教えることになるということです
  • 6:17 - 6:19
    それだから私は
    人工知能を
  • 6:19 - 6:24
    きちんと訓練された人間と同様に
    信頼するのです
  • 6:24 - 6:26
    でも悪いことをする工作員や
  • 6:26 - 6:30
    ある種の資金豊富な
    非政府組織なんかの
  • 6:30 - 6:31
    手にかかったなら?
  • 6:31 - 6:35
    一匹狼の扱う人工知能には
    怖れを感じません
  • 6:35 - 6:40
    あらゆる暴力から
    身を守れるわけではありませんが
  • 6:40 - 6:42
    そのようなシステムには
  • 6:42 - 6:45
    個人のリソースの範囲を
    大きく超えた
  • 6:45 - 6:47
    膨大で精妙なトレーニングが
    必要になります
  • 6:47 - 6:50
    さらにそれは 単にインターネットへ
    ウィルスを送り込むより
  • 6:50 - 6:52
    遙かに大変なことです
  • 6:52 - 6:55
    ウィルスならボタン1つで
    そこら中のパソコンが
  • 6:55 - 6:57
    突然吹き飛んで
    しまうでしょうが
  • 6:57 - 7:00
    そういうたぐいの
    実体はずっと大きく
  • 7:00 - 7:02
    それがやってくるのは
    確かに目にすることになります
  • 7:02 - 7:05
    そういう人工知能が
  • 7:05 - 7:08
    全人類を脅かすのを
    怖れるか?
  • 7:08 - 7:13
    『マトリックス』『メトロポリス』
    『ターミネーター』みたいな映画や
  • 7:13 - 7:16
    『ウエストワールド』
    みたいな番組を見ると
  • 7:16 - 7:18
    みんなそのような恐怖を
    語っています
  • 7:18 - 7:21
    『スーパーインテリジェンス
    (Superintelligence)』という本で
  • 7:21 - 7:24
    思想家のニック・ボストロムは
    このテーマを取り上げ
  • 7:24 - 7:28
    人間を超える機械の知能は
    危険なだけでなく
  • 7:28 - 7:32
    人類存亡の危機に
    つながり得ると見ています
  • 7:32 - 7:34
    ボストロム博士の
    基本的な議論は
  • 7:34 - 7:37
    そのようなシステムはやがて
  • 7:37 - 7:40
    抑えがたい情報への渇望を
    抱くようになり
  • 7:40 - 7:43
    学び方を学んで
  • 7:43 - 7:46
    最終的には人間の要求に
    反する目的を
  • 7:46 - 7:48
    持つようになる
    ということです
  • 7:48 - 7:50
    ボストロム博士には
    多くの支持者がいて
  • 7:50 - 7:55
    その中にはイーロン・マスクや
    スティーヴン・ホーキングもいます
  • 7:55 - 7:58
    そのような聡明な方々に
  • 7:58 - 8:00
    恐れながら申し上げると
  • 8:00 - 8:02
    彼らは根本的に
    間違っていると思います
  • 8:02 - 8:06
    検討すべきボストロム博士の議論は
    沢山ありますが
  • 8:06 - 8:08
    全部見ていく
    時間はないので
  • 8:08 - 8:11
    ごく簡単に
    1点だけ挙げるなら
  • 8:11 - 8:14
    「すごく知っている」のと
    「すごいことができる」のとは違うということです
  • 8:14 - 8:18
    HALは ディスカバリー号のあらゆる面を
    コントロールする限りにおいて
  • 8:18 - 8:21
    乗組員にとって脅威でした
  • 8:21 - 8:23
    スーパーインテリジェンスも
    そうです
  • 8:23 - 8:26
    それが世界全体を支配している
    必要があります
  • 8:26 - 8:29
    スーパーインテリジェンスが
    人の意志を支配する
  • 8:29 - 8:30
    『ターミネーター』の世界で
  • 8:30 - 8:34
    スカイネットは世界の
    あらゆるデバイスを
  • 8:34 - 8:36
    操っていました
  • 8:36 - 8:37
    実際のところ
  • 8:37 - 8:39
    そんなことは
    起こりません
  • 8:39 - 8:42
    天気を制御したり
    潮の干満を決めたり
  • 8:42 - 8:45
    気まぐれで無秩序な人間を
    従わせるような人工知能を
  • 8:45 - 8:47
    我々は作りはしません
  • 8:47 - 8:51
    もしそのような人工知能が
    存在したら
  • 8:51 - 8:54
    人間の経済と
    競合することになり
  • 8:54 - 8:57
    リソースを人間と
    取り合うことになるでしょう
  • 8:57 - 8:58
    最終的には
  • 8:58 - 9:00
    Siriには内緒ですが
  • 9:00 - 9:03
    我々は電源プラグを
    引っこ抜くことができます
  • 9:03 - 9:04
    (笑)
  • 9:05 - 9:08
    私たちは機械と
    共進化していく
  • 9:08 - 9:10
    ものすごい旅の
    途上にあります
  • 9:10 - 9:12
    今日の人類は
  • 9:12 - 9:15
    明日の人類とは違っています
  • 9:15 - 9:19
    人間を超えた人工知能の
    台頭を懸念するのは
  • 9:19 - 9:22
    コンピューターの台頭自体が
    引き起こす
  • 9:22 - 9:24
    対処を要する
    人間や社会の問題から
  • 9:24 - 9:27
    注意をそらすことになり
  • 9:27 - 9:29
    危険です
  • 9:29 - 9:32
    人間の労働の必要が
    減っていく社会を
  • 9:32 - 9:35
    どうすれば上手く
    運営できるのか?
  • 9:35 - 9:37
    理解と教育を
    地球全体に広げつつ
  • 9:37 - 9:40
    互いの違いに敬意を払うことは
    どうすれば可能か?
  • 9:40 - 9:45
    認知システムによる医療で 人の生涯を
    長く豊かなものにするにはどうしたら良いか?
  • 9:45 - 9:47
    星々に到るために
  • 9:47 - 9:50
    コンピューターは
    いかに役立てられるか?
  • 9:50 - 9:52
    これはワクワクすることです
  • 9:52 - 9:55
    コンピューターを使って
  • 9:55 - 9:56
    人間の体験を
  • 9:56 - 9:58
    発展させられる機会が
  • 9:58 - 10:00
    今 手の届くところにあり
  • 10:00 - 10:02
    それは始まったばかりです
  • 10:02 - 10:03
    ありがとうございました
  • 10:04 - 10:08
    (拍手)
Title:
人工知能が人間を超えるのを怖れることはない
Speaker:
グラディ・ブーチ
Description:

新たな技術は新たな不安を呼び起こすものですが、非常に強力で感情のない人工知能を怖れることはないと、科学者であり思想家であるグラディ・ブーチは言います。我々は人工知能をプログラムするのでなく、人間の価値観を共有するように教えるのだと説明し、超知的なコンピューターに対する(SF的な)最悪の恐怖を和らげた上で、ありそうにない人類存亡の危機を怖れるよりも、人工知能が人の生活をどう良くするか考えるようにと促します。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Japanese subtitles

Revisions