人工知能が人間を超えるのを怖れることはない
-
0:01 - 0:05子供の頃 私はごく典型的な
オタク少年でした -
0:05 - 0:07皆さんの中にも
いるでしょう -
0:08 - 0:09(笑)
-
0:09 - 0:12そこで大声で笑った人
あなたは今もそうでしょう -
0:12 - 0:14(笑)
-
0:14 - 0:18北テキサスのほこりっぽい平原の
小さな町で育ち -
0:18 - 0:21父は牧師の子で
保安官をしていました -
0:21 - 0:23トラブルを起こすなんて論外です
-
0:24 - 0:27それで趣味として
解析学の本を読むようになりました -
0:27 - 0:29(笑)
-
0:29 - 0:31あなたもですか?
-
0:31 - 0:34それでレーザーやコンピューターや
ロケットなんかを作るようになり -
0:34 - 0:38さらには自分の部屋で
ロケット燃料まで作りました -
0:40 - 0:43科学用語で言うと これは
-
0:43 - 0:45「とってもまずい考え」です
-
0:45 - 0:46(笑)
-
0:46 - 0:48同じ頃
-
0:48 - 0:52スタンリー・キューブリックの
『2001年宇宙の旅』が劇場公開され -
0:52 - 0:54私の人生を永遠に
変えることになりました -
0:54 - 0:56あの映画の
すべてが好きで -
0:56 - 0:59ことに HAL 9000が
好きでした -
0:59 - 1:01HALは 知覚力のある
コンピューターで -
1:01 - 1:04宇宙船ディスカバリー号を
地球から木星へとガイドすべく -
1:04 - 1:06設計されていました
-
1:06 - 1:08HALにはまた
性格上の欠陥があり -
1:08 - 1:13最終的に人間の命よりも
ミッションを優先させます -
1:13 - 1:15HALは架空のキャラクターですが
-
1:15 - 1:18私たちの恐怖を
呼び起こします -
1:18 - 1:20人間に無関心な
-
1:20 - 1:23感情のない人工知能に
-
1:23 - 1:25支配されるという恐怖です
-
1:26 - 1:28そのような恐怖は
根拠のないものです -
1:28 - 1:30私たちは実際
-
1:30 - 1:33人類史の中でも
目覚ましい時代にいます -
1:33 - 1:38肉体や精神の限界を
受け入れることを拒み -
1:38 - 1:39精緻で美しく
-
1:39 - 1:43複雑で優雅な機械を作り
-
1:43 - 1:45それが我々の想像を
超えるような仕方で -
1:45 - 1:48人間の体験を
拡張することになるでしょう -
1:48 - 1:50私は空軍士官学校を出て
-
1:50 - 1:52宇宙軍で働いた後
-
1:52 - 1:54システム屋になりましたが
-
1:54 - 1:57最近 NASAの
火星ミッションに関連する -
1:57 - 1:59エンジニアリング上の問題へと
引き寄せられました -
1:59 - 2:02月へ行くのであれば
-
2:02 - 2:05ヒューストンの
地上管制センターから -
2:05 - 2:07飛行の全過程を
見守れます -
2:07 - 2:11しかし火星は月より
200倍も離れています -
2:11 - 2:14そのため 信号が地球から
火星に届くのには -
2:14 - 2:17平均で13分もかかります
-
2:17 - 2:21トラブルが起きた場合
そんなに待ってはいられません -
2:21 - 2:23妥当な工学的解決策として
-
2:23 - 2:25オリオン号の壁の中に
-
2:25 - 2:29管制機能を設けることにしました
-
2:29 - 2:32ミッション概略にある
別の面白いアイデアとして -
2:32 - 2:35人間型ロボットを火星表面に
-
2:35 - 2:37人間が行く前に送って
-
2:37 - 2:38施設を作らせ
-
2:38 - 2:43その後は 科学者チームの一員として
働かせるというのがあります -
2:43 - 2:46これを工学的な観点で見て
明らかになったのは -
2:46 - 2:49ここで設計する必要があるのは
-
2:49 - 2:51賢く 協力的で
-
2:51 - 2:54社会的な人工知能
だということです -
2:54 - 2:58言い換えると 何かHALのようなものを
作る必要があるということです -
2:58 - 3:01ただし殺人癖は抜きで
-
3:01 - 3:02(笑)
-
3:03 - 3:05少し立ち止まって
考えてみましょう -
3:05 - 3:09そのような人工知能を作ることは
可能なのでしょうか -
3:09 - 3:10可能です
-
3:10 - 3:11何にせよ
-
3:11 - 3:13これは人工知能の
要素がある -
3:13 - 3:15工学上の問題であって
-
3:15 - 3:20得体の知れない
人工知能の問題ではありません -
3:20 - 3:22チューリングの言葉を
少し変えて言うと -
3:22 - 3:25知覚力のある機械を作ることには
関心がありません -
3:25 - 3:26HALを作ろうとは
していません -
3:26 - 3:29私がやろうとしているのは
単純な脳 -
3:29 - 3:32知性の幻想を
提供する何かです -
3:33 - 3:35HALが映画に現れて以来
-
3:35 - 3:38コンピューターの科学と技術は
大きく進歩しました -
3:38 - 3:41HALの生みの親のチャンドラ博士が
ここにいたなら -
3:41 - 3:43我々に聞きたいことが
山ほどあるはずです -
3:43 - 3:46何百万 何千万という
デバイスを使い -
3:46 - 3:49そのデータストリームを読んで
-
3:49 - 3:51故障を予期し
-
3:51 - 3:53前もって対処することは
できるのか? -
3:53 - 3:54できます
-
3:54 - 3:58自然言語で人間と会話するシステムを
構築することはできるのか? -
3:58 - 3:58できます
-
3:58 - 4:03物を認識し 人の感情を判断し
自分の感情を表現し ゲームをし -
4:03 - 4:05唇の動きすら読めるシステムを
作ることはできるのか? -
4:05 - 4:06できます
-
4:06 - 4:09目標を設定し
その実現のための計画を実行し -
4:09 - 4:12その過程で学習するシステムを
作ることはできるのか? -
4:12 - 4:13できます
-
4:13 - 4:16心の理論を備えたシステムを
作ることはできるのか? -
4:16 - 4:19これは我々がやり方を
学ぼうとしていることです -
4:19 - 4:22倫理的・道徳的基盤を持つシステムを
作ることはできるのか? -
4:22 - 4:25これは我々がやり方を
学ぶ必要のあることです -
4:25 - 4:27このようなミッションや
その他のことための -
4:27 - 4:30人工知能を作ることは
可能であると -
4:30 - 4:32認めることにしましょう
-
4:32 - 4:34次に問わなければ
ならないのは -
4:34 - 4:36我々はそれを怖れるべきか
ということです -
4:36 - 4:38どんな新技術も
-
4:38 - 4:41常にある程度の怖れは
引き起こすものです -
4:41 - 4:43始めて自動車を
目にした人々は -
4:43 - 4:47家族が壊されるのを見ることに
なるだろうと嘆いたものです -
4:47 - 4:49始めて電話機を
目にした人々は -
4:49 - 4:52礼儀にかなった会話が
損なわれると懸念したものです -
4:52 - 4:56書かれたもので
溢れるのを見た人々は -
4:56 - 4:59記憶力が失われるのでは
と思ったものです -
4:59 - 5:01ある程度は合っていますが
-
5:01 - 5:03そういった技術は
-
5:03 - 5:05人間の体験を
-
5:05 - 5:09根本的に広げてもくれました
-
5:10 - 5:12さらに話を進めましょう
-
5:13 - 5:18私はそのような人工知能を
作ることに怖れは感じません -
5:18 - 5:22それは人間の価値観を
体現することになるからです -
5:22 - 5:24認知システムを作るのは
-
5:24 - 5:29従来のソフトウェア中心のシステムを
作るのとは 根本的に異なります -
5:29 - 5:31プログラムするのではなく
教えるのです -
5:31 - 5:34システムに花を
認識させるために -
5:34 - 5:37私は自分の好きな
何千という花を見せます -
5:37 - 5:39システムにゲームの遊び方を
教えるには — -
5:39 - 5:42私だってゲームはしますよ
皆さんもでしょう? -
5:42 - 5:45花だって好きだし
らしくないですか? -
5:45 - 5:48碁のようなゲームの遊び方を
システムに教えるには -
5:48 - 5:50碁を何千回も指させ
-
5:50 - 5:52その過程で
-
5:52 - 5:54良い盤面・悪い盤面を
識別する方法を教えます -
5:55 - 5:58人工知能の弁護士助手を
作ろうと思ったら -
5:58 - 6:00法律も教えますが
-
6:00 - 6:02同時に法の一部をなす
-
6:02 - 6:06慈悲や公正の感覚を
吹き込むでしょう -
6:06 - 6:10科学用語では これを
グランドトゥルースと言います -
6:10 - 6:12重要なのは
-
6:12 - 6:13そういう機械を作るとき
-
6:13 - 6:17我々は自分の価値観を
教えることになるということです -
6:17 - 6:19それだから私は
人工知能を -
6:19 - 6:24きちんと訓練された人間と同様に
信頼するのです -
6:24 - 6:26でも悪いことをする工作員や
-
6:26 - 6:30ある種の資金豊富な
非政府組織なんかの -
6:30 - 6:31手にかかったなら?
-
6:31 - 6:35一匹狼の扱う人工知能には
怖れを感じません -
6:35 - 6:40あらゆる暴力から
身を守れるわけではありませんが -
6:40 - 6:42そのようなシステムには
-
6:42 - 6:45個人のリソースの範囲を
大きく超えた -
6:45 - 6:47膨大で精妙なトレーニングが
必要になります -
6:47 - 6:50さらにそれは 単にインターネットへ
ウィルスを送り込むより -
6:50 - 6:52遙かに大変なことです
-
6:52 - 6:55ウィルスならボタン1つで
そこら中のパソコンが -
6:55 - 6:57突然吹き飛んで
しまうでしょうが -
6:57 - 7:00そういうたぐいの
実体はずっと大きく -
7:00 - 7:02それがやってくるのは
確かに目にすることになります -
7:02 - 7:05そういう人工知能が
-
7:05 - 7:08全人類を脅かすのを
怖れるか? -
7:08 - 7:13『マトリックス』『メトロポリス』
『ターミネーター』みたいな映画や -
7:13 - 7:16『ウエストワールド』
みたいな番組を見ると -
7:16 - 7:18みんなそのような恐怖を
語っています -
7:18 - 7:21『スーパーインテリジェンス
(Superintelligence)』という本で -
7:21 - 7:24思想家のニック・ボストロムは
このテーマを取り上げ -
7:24 - 7:28人間を超える機械の知能は
危険なだけでなく -
7:28 - 7:32人類存亡の危機に
つながり得ると見ています -
7:32 - 7:34ボストロム博士の
基本的な議論は -
7:34 - 7:37そのようなシステムはやがて
-
7:37 - 7:40抑えがたい情報への渇望を
抱くようになり -
7:40 - 7:43学び方を学んで
-
7:43 - 7:46最終的には人間の要求に
反する目的を -
7:46 - 7:48持つようになる
ということです -
7:48 - 7:50ボストロム博士には
多くの支持者がいて -
7:50 - 7:55その中にはイーロン・マスクや
スティーヴン・ホーキングもいます -
7:55 - 7:58そのような聡明な方々に
-
7:58 - 8:00恐れながら申し上げると
-
8:00 - 8:02彼らは根本的に
間違っていると思います -
8:02 - 8:06検討すべきボストロム博士の議論は
沢山ありますが -
8:06 - 8:08全部見ていく
時間はないので -
8:08 - 8:11ごく簡単に
1点だけ挙げるなら -
8:11 - 8:14「すごく知っている」のと
「すごいことができる」のとは違うということです -
8:14 - 8:18HALは ディスカバリー号のあらゆる面を
コントロールする限りにおいて -
8:18 - 8:21乗組員にとって脅威でした
-
8:21 - 8:23スーパーインテリジェンスも
そうです -
8:23 - 8:26それが世界全体を支配している
必要があります -
8:26 - 8:29スーパーインテリジェンスが
人の意志を支配する -
8:29 - 8:30『ターミネーター』の世界で
-
8:30 - 8:34スカイネットは世界の
あらゆるデバイスを -
8:34 - 8:36操っていました
-
8:36 - 8:37実際のところ
-
8:37 - 8:39そんなことは
起こりません -
8:39 - 8:42天気を制御したり
潮の干満を決めたり -
8:42 - 8:45気まぐれで無秩序な人間を
従わせるような人工知能を -
8:45 - 8:47我々は作りはしません
-
8:47 - 8:51もしそのような人工知能が
存在したら -
8:51 - 8:54人間の経済と
競合することになり -
8:54 - 8:57リソースを人間と
取り合うことになるでしょう -
8:57 - 8:58最終的には
-
8:58 - 9:00Siriには内緒ですが
-
9:00 - 9:03我々は電源プラグを
引っこ抜くことができます -
9:03 - 9:04(笑)
-
9:05 - 9:08私たちは機械と
共進化していく -
9:08 - 9:10ものすごい旅の
途上にあります -
9:10 - 9:12今日の人類は
-
9:12 - 9:15明日の人類とは違っています
-
9:15 - 9:19人間を超えた人工知能の
台頭を懸念するのは -
9:19 - 9:22コンピューターの台頭自体が
引き起こす -
9:22 - 9:24対処を要する
人間や社会の問題から -
9:24 - 9:27注意をそらすことになり
-
9:27 - 9:29危険です
-
9:29 - 9:32人間の労働の必要が
減っていく社会を -
9:32 - 9:35どうすれば上手く
運営できるのか? -
9:35 - 9:37理解と教育を
地球全体に広げつつ -
9:37 - 9:40互いの違いに敬意を払うことは
どうすれば可能か? -
9:40 - 9:45認知システムによる医療で 人の生涯を
長く豊かなものにするにはどうしたら良いか? -
9:45 - 9:47星々に到るために
-
9:47 - 9:50コンピューターは
いかに役立てられるか? -
9:50 - 9:52これはワクワクすることです
-
9:52 - 9:55コンピューターを使って
-
9:55 - 9:56人間の体験を
-
9:56 - 9:58発展させられる機会が
-
9:58 - 10:00今 手の届くところにあり
-
10:00 - 10:02それは始まったばかりです
-
10:02 - 10:03ありがとうございました
-
10:04 - 10:08(拍手)
- Title:
- 人工知能が人間を超えるのを怖れることはない
- Speaker:
- グラディ・ブーチ
- Description:
-
新たな技術は新たな不安を呼び起こすものですが、非常に強力で感情のない人工知能を怖れることはないと、科学者であり思想家であるグラディ・ブーチは言います。我々は人工知能をプログラムするのでなく、人間の価値観を共有するように教えるのだと説明し、超知的なコンピューターに対する(SF的な)最悪の恐怖を和らげた上で、ありそうにない人類存亡の危機を怖れるよりも、人工知能が人の生活をどう良くするか考えるようにと促します。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Yasushi Aoki edited Japanese subtitles for Don't fear superintelligent AI | ||
Misaki Sato accepted Japanese subtitles for Don't fear superintelligent AI | ||
Misaki Sato edited Japanese subtitles for Don't fear superintelligent AI | ||
Misaki Sato edited Japanese subtitles for Don't fear superintelligent AI | ||
Misaki Sato edited Japanese subtitles for Don't fear superintelligent AI | ||
Yasushi Aoki edited Japanese subtitles for Don't fear superintelligent AI | ||
Yasushi Aoki edited Japanese subtitles for Don't fear superintelligent AI | ||
Yasushi Aoki edited Japanese subtitles for Don't fear superintelligent AI |