WEBVTT 00:00:00.760 --> 00:00:04.960 子供の頃 私はごく典型的な オタク少年でした 00:00:05.320 --> 00:00:07.496 皆さんの中にも いるでしょう NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (笑) NOTE Paragraph 00:00:08.760 --> 00:00:12.106 そこで大声で笑った人 あなたは今もそうでしょう NOTE Paragraph 00:00:12.106 --> 00:00:14.256 (笑) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 北テキサスのほこりっぽい平原の 小さな町で育ち 00:00:17.800 --> 00:00:21.136 父は牧師の子で 保安官をしていました 00:00:21.160 --> 00:00:23.450 トラブルを起こすなんて論外です 00:00:24.040 --> 00:00:27.296 それで趣味として 解析学の本を読むようになりました NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (笑) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 あなたもですか? 00:00:30.600 --> 00:00:34.336 それでレーザーやコンピューターや ロケットなんかを作るようになり 00:00:34.360 --> 00:00:38.040 さらには自分の部屋で ロケット燃料まで作りました 00:00:39.520 --> 00:00:42.626 科学用語で言うと これは 00:00:42.626 --> 00:00:44.896 「とってもまずい考え」です NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (笑) NOTE Paragraph 00:00:46.160 --> 00:00:48.220 同じ頃 00:00:48.220 --> 00:00:51.646 スタンリー・キューブリックの 『2001年宇宙の旅』が劇場公開され 00:00:51.646 --> 00:00:54.330 私の人生を永遠に 変えることになりました 00:00:54.330 --> 00:00:56.336 あの映画の すべてが好きで 00:00:56.360 --> 00:00:58.896 ことに HAL 9000が 好きでした 00:00:58.920 --> 00:01:00.976 HALは 知覚力のある コンピューターで 00:01:01.000 --> 00:01:03.866 宇宙船ディスカバリー号を 地球から木星へとガイドすべく 00:01:03.866 --> 00:01:06.016 設計されていました 00:01:06.040 --> 00:01:08.236 HALにはまた 性格上の欠陥があり 00:01:08.236 --> 00:01:12.760 最終的に人間の命よりも ミッションを優先させます 00:01:12.760 --> 00:01:14.986 HALは架空のキャラクターですが 00:01:14.986 --> 00:01:17.616 私たちの恐怖を 呼び起こします 00:01:17.640 --> 00:01:19.736 人間に無関心な 00:01:19.760 --> 00:01:22.680 感情のない人工知能に 00:01:22.680 --> 00:01:25.160 支配されるという恐怖です NOTE Paragraph 00:01:25.880 --> 00:01:28.456 そのような恐怖は 根拠のないものです 00:01:28.480 --> 00:01:29.850 私たちは実際 00:01:29.850 --> 00:01:32.736 人類史の中でも 目覚ましい時代にいます 00:01:32.760 --> 00:01:37.736 肉体や精神の限界を 受け入れることを拒み 00:01:37.760 --> 00:01:39.456 精緻で美しく 00:01:39.480 --> 00:01:43.096 複雑で優雅な機械を作り 00:01:43.120 --> 00:01:45.486 それが我々の想像を 超えるような仕方で 00:01:45.486 --> 00:01:47.710 人間の体験を 拡張することになるでしょう NOTE Paragraph 00:01:47.720 --> 00:01:50.296 私は空軍士官学校を出て 00:01:50.320 --> 00:01:52.256 宇宙軍で働いた後 00:01:52.280 --> 00:01:53.976 システム屋になりましたが 00:01:54.000 --> 00:01:56.680 最近 NASAの 火星ミッションに関連する 00:01:56.680 --> 00:01:59.336 エンジニアリング上の問題へと 引き寄せられました 00:01:59.360 --> 00:02:01.856 月へ行くのであれば 00:02:01.880 --> 00:02:04.780 ヒューストンの 地上管制センターから 00:02:04.780 --> 00:02:07.176 飛行の全過程を 見守れます 00:02:07.176 --> 00:02:10.576 しかし火星は月より 200倍も離れています 00:02:10.600 --> 00:02:14.136 そのため 信号が地球から 火星に届くのには 00:02:14.136 --> 00:02:16.976 平均で13分もかかります 00:02:17.000 --> 00:02:20.810 トラブルが起きた場合 そんなに待ってはいられません 00:02:20.840 --> 00:02:23.336 妥当な工学的解決策として 00:02:23.360 --> 00:02:25.150 オリオン号の壁の中に 00:02:25.150 --> 00:02:28.976 管制機能を設けることにしました 00:02:29.000 --> 00:02:31.896 ミッション概略にある 別の面白いアイデアとして 00:02:31.920 --> 00:02:34.816 人間型ロボットを火星表面に 00:02:34.840 --> 00:02:36.696 人間が行く前に送って 00:02:36.720 --> 00:02:38.300 施設を作らせ 00:02:38.300 --> 00:02:42.660 その後は 科学者チームの一員として 働かせるというのがあります NOTE Paragraph 00:02:43.400 --> 00:02:46.466 これを工学的な観点で見て 明らかになったのは 00:02:46.466 --> 00:02:49.040 ここで設計する必要があるのは 00:02:49.040 --> 00:02:51.430 賢く 協力的で 00:02:51.430 --> 00:02:54.036 社会的な人工知能 だということです 00:02:54.036 --> 00:02:58.256 言い換えると 何かHALのようなものを 作る必要があるということです 00:02:58.280 --> 00:03:00.696 ただし殺人癖は抜きで NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (笑) NOTE Paragraph 00:03:02.770 --> 00:03:04.736 少し立ち止まって 考えてみましょう 00:03:04.760 --> 00:03:08.656 そのような人工知能を作ることは 可能なのでしょうか 00:03:08.680 --> 00:03:10.136 可能です 00:03:10.160 --> 00:03:11.416 何にせよ 00:03:11.440 --> 00:03:13.250 これは人工知能の 要素がある 00:03:13.250 --> 00:03:14.966 工学上の問題であって 00:03:14.966 --> 00:03:19.616 得体の知れない 人工知能の問題ではありません 00:03:19.640 --> 00:03:22.290 チューリングの言葉を 少し変えて言うと 00:03:22.290 --> 00:03:24.840 知覚力のある機械を作ることには 関心がありません 00:03:24.840 --> 00:03:26.440 HALを作ろうとは していません 00:03:26.440 --> 00:03:28.736 私がやろうとしているのは 単純な脳 00:03:28.760 --> 00:03:32.260 知性の幻想を 提供する何かです NOTE Paragraph 00:03:33.000 --> 00:03:34.690 HALが映画に現れて以来 00:03:34.690 --> 00:03:37.766 コンピューターの科学と技術は 大きく進歩しました 00:03:37.766 --> 00:03:40.896 HALの生みの親のチャンドラ博士が ここにいたなら 00:03:40.920 --> 00:03:43.256 我々に聞きたいことが 山ほどあるはずです 00:03:43.280 --> 00:03:45.606 何百万 何千万という デバイスを使い 00:03:45.606 --> 00:03:48.550 そのデータストリームを読んで 00:03:48.550 --> 00:03:50.510 故障を予期し 00:03:50.510 --> 00:03:53.176 前もって対処することは できるのか? 00:03:53.200 --> 00:03:54.350 できます 00:03:54.350 --> 00:03:57.570 自然言語で人間と会話するシステムを 構築することはできるのか? 00:03:57.570 --> 00:03:58.420 できます 00:03:58.420 --> 00:04:02.616 物を認識し 人の感情を判断し 自分の感情を表現し ゲームをし 00:04:02.616 --> 00:04:05.386 唇の動きすら読めるシステムを 作ることはできるのか? 00:04:05.386 --> 00:04:06.280 できます 00:04:06.280 --> 00:04:09.046 目標を設定し その実現のための計画を実行し 00:04:09.046 --> 00:04:12.296 その過程で学習するシステムを 作ることはできるのか? 00:04:12.320 --> 00:04:13.490 できます 00:04:13.490 --> 00:04:16.420 心の理論を備えたシステムを 作ることはできるのか? 00:04:16.420 --> 00:04:18.686 これは我々がやり方を 学ぼうとしていることです 00:04:18.686 --> 00:04:22.410 倫理的・道徳的基盤を持つシステムを 作ることはできるのか? 00:04:22.410 --> 00:04:25.050 これは我々がやり方を 学ぶ必要のあることです 00:04:25.050 --> 00:04:27.016 このようなミッションや その他のことための 00:04:27.016 --> 00:04:29.640 人工知能を作ることは 可能であると 00:04:29.640 --> 00:04:31.810 認めることにしましょう NOTE Paragraph 00:04:31.810 --> 00:04:33.850 次に問わなければ ならないのは 00:04:33.850 --> 00:04:36.226 我々はそれを怖れるべきか ということです 00:04:36.226 --> 00:04:37.770 どんな新技術も 00:04:37.770 --> 00:04:40.776 常にある程度の怖れは 引き起こすものです 00:04:40.800 --> 00:04:43.036 始めて自動車を 目にした人々は 00:04:43.036 --> 00:04:46.536 家族が壊されるのを見ることに なるだろうと嘆いたものです 00:04:46.560 --> 00:04:49.180 始めて電話機を 目にした人々は 00:04:49.180 --> 00:04:52.456 礼儀にかなった会話が 損なわれると懸念したものです 00:04:52.456 --> 00:04:56.136 書かれたもので 溢れるのを見た人々は 00:04:56.160 --> 00:04:58.656 記憶力が失われるのでは と思ったものです 00:04:58.680 --> 00:05:00.736 ある程度は合っていますが 00:05:00.760 --> 00:05:03.176 そういった技術は 00:05:03.200 --> 00:05:04.770 人間の体験を 00:05:04.770 --> 00:05:08.770 根本的に広げてもくれました NOTE Paragraph 00:05:09.840 --> 00:05:12.120 さらに話を進めましょう 00:05:13.120 --> 00:05:17.856 私はそのような人工知能を 作ることに怖れは感じません 00:05:17.880 --> 00:05:21.696 それは人間の価値観を 体現することになるからです 00:05:21.720 --> 00:05:24.250 認知システムを作るのは 00:05:24.250 --> 00:05:28.536 従来のソフトウェア中心のシステムを 作るのとは 根本的に異なります 00:05:28.560 --> 00:05:31.016 プログラムするのではなく 教えるのです 00:05:31.040 --> 00:05:33.696 システムに花を 認識させるために 00:05:33.720 --> 00:05:36.736 私は自分の好きな 何千という花を見せます 00:05:36.760 --> 00:05:39.016 システムにゲームの遊び方を 教えるには — 00:05:39.040 --> 00:05:41.990 私だってゲームはしますよ 皆さんもでしょう? 00:05:42.420 --> 00:05:45.380 花だって好きだし らしくないですか? 00:05:45.380 --> 00:05:48.466 碁のようなゲームの遊び方を システムに教えるには 00:05:48.466 --> 00:05:50.376 碁を何千回も指させ 00:05:50.400 --> 00:05:51.560 その過程で 00:05:51.560 --> 00:05:54.496 良い盤面・悪い盤面を 識別する方法を教えます 00:05:54.520 --> 00:05:58.216 人工知能の弁護士助手を 作ろうと思ったら 00:05:58.240 --> 00:06:00.016 法律も教えますが 00:06:00.040 --> 00:06:02.460 同時に法の一部をなす 00:06:02.460 --> 00:06:06.090 慈悲や公正の感覚を 吹き込むでしょう 00:06:06.430 --> 00:06:09.536 科学用語では これを グランドトゥルースと言います 00:06:09.560 --> 00:06:11.500 重要なのは 00:06:11.500 --> 00:06:13.236 そういう機械を作るとき 00:06:13.236 --> 00:06:16.636 我々は自分の価値観を 教えることになるということです 00:06:16.636 --> 00:06:18.680 それだから私は 人工知能を 00:06:18.680 --> 00:06:23.570 きちんと訓練された人間と同様に 信頼するのです NOTE Paragraph 00:06:24.080 --> 00:06:26.126 でも悪いことをする工作員や 00:06:26.126 --> 00:06:29.556 ある種の資金豊富な 非政府組織なんかの 00:06:29.556 --> 00:06:31.296 手にかかったなら? 00:06:31.320 --> 00:06:35.136 一匹狼の扱う人工知能には 怖れを感じません 00:06:35.160 --> 00:06:39.696 あらゆる暴力から 身を守れるわけではありませんが 00:06:39.720 --> 00:06:41.856 そのようなシステムには 00:06:41.880 --> 00:06:44.976 個人のリソースの範囲を 大きく超えた 00:06:45.000 --> 00:06:47.240 膨大で精妙なトレーニングが 必要になります 00:06:47.240 --> 00:06:50.326 さらにそれは 単にインターネットへ ウィルスを送り込むより 00:06:50.326 --> 00:06:51.866 遙かに大変なことです 00:06:51.866 --> 00:06:54.936 ウィルスならボタン1つで そこら中のパソコンが 00:06:54.960 --> 00:06:57.416 突然吹き飛んで しまうでしょうが 00:06:57.440 --> 00:07:00.020 そういうたぐいの 実体はずっと大きく 00:07:00.020 --> 00:07:02.445 それがやってくるのは 確かに目にすることになります NOTE Paragraph 00:07:02.450 --> 00:07:05.240 そういう人工知能が 00:07:05.240 --> 00:07:08.170 全人類を脅かすのを 怖れるか? 00:07:08.170 --> 00:07:12.656 『マトリックス』『メトロポリス』 『ターミネーター』みたいな映画や 00:07:12.680 --> 00:07:15.856 『ウエストワールド』 みたいな番組を見ると 00:07:15.880 --> 00:07:18.016 みんなそのような恐怖を 語っています 00:07:18.040 --> 00:07:20.910 『スーパーインテリジェンス (Superintelligence)』という本で 00:07:20.910 --> 00:07:23.896 思想家のニック・ボストロムは このテーマを取り上げ 00:07:23.920 --> 00:07:27.936 人間を超える機械の知能は 危険なだけでなく 00:07:27.960 --> 00:07:31.816 人類存亡の危機に つながり得ると見ています 00:07:31.840 --> 00:07:34.056 ボストロム博士の 基本的な議論は 00:07:34.080 --> 00:07:36.816 そのようなシステムはやがて 00:07:36.840 --> 00:07:40.096 抑えがたい情報への渇望を 抱くようになり 00:07:40.120 --> 00:07:43.016 学び方を学んで 00:07:43.040 --> 00:07:45.656 最終的には人間の要求に 反する目的を 00:07:45.680 --> 00:07:47.930 持つようになる ということです 00:07:47.930 --> 00:07:49.966 ボストロム博士には 多くの支持者がいて 00:07:49.966 --> 00:07:54.610 その中にはイーロン・マスクや スティーヴン・ホーキングもいます 00:07:54.880 --> 00:07:57.890 そのような聡明な方々に 00:07:57.890 --> 00:08:00.176 恐れながら申し上げると 00:08:00.200 --> 00:08:02.456 彼らは根本的に 間違っていると思います 00:08:02.480 --> 00:08:05.656 検討すべきボストロム博士の議論は 沢山ありますが 00:08:05.680 --> 00:08:07.816 全部見ていく 時間はないので 00:08:07.840 --> 00:08:10.536 ごく簡単に 1点だけ挙げるなら 00:08:10.560 --> 00:08:14.200 「すごく知っている」のと 「すごいことができる」のとは違うということです 00:08:14.200 --> 00:08:18.246 HALは ディスカバリー号のあらゆる面を コントロールする限りにおいて 00:08:18.246 --> 00:08:20.656 乗組員にとって脅威でした 00:08:20.680 --> 00:08:23.176 スーパーインテリジェンスも そうです 00:08:23.200 --> 00:08:25.696 それが世界全体を支配している 必要があります 00:08:25.720 --> 00:08:28.536 スーパーインテリジェンスが 人の意志を支配する 00:08:28.560 --> 00:08:30.416 『ターミネーター』の世界で 00:08:30.440 --> 00:08:33.716 スカイネットは世界の あらゆるデバイスを 00:08:33.716 --> 00:08:35.696 操っていました 00:08:35.720 --> 00:08:37.176 実際のところ 00:08:37.200 --> 00:08:39.296 そんなことは 起こりません 00:08:39.320 --> 00:08:42.360 天気を制御したり 潮の干満を決めたり 00:08:42.360 --> 00:08:45.266 気まぐれで無秩序な人間を 従わせるような人工知能を 00:08:45.266 --> 00:08:47.136 我々は作りはしません 00:08:47.160 --> 00:08:51.056 もしそのような人工知能が 存在したら 00:08:51.080 --> 00:08:54.016 人間の経済と 競合することになり 00:08:54.040 --> 00:08:56.990 リソースを人間と 取り合うことになるでしょう 00:08:57.200 --> 00:08:58.416 最終的には 00:08:58.440 --> 00:09:00.280 Siriには内緒ですが 00:09:00.280 --> 00:09:02.616 我々は電源プラグを 引っこ抜くことができます NOTE Paragraph 00:09:02.616 --> 00:09:03.960 (笑) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 私たちは機械と 共進化していく 00:09:07.840 --> 00:09:10.336 ものすごい旅の 途上にあります 00:09:10.360 --> 00:09:11.840 今日の人類は 00:09:11.840 --> 00:09:15.416 明日の人類とは違っています 00:09:15.440 --> 00:09:18.576 人間を超えた人工知能の 台頭を懸念するのは 00:09:18.600 --> 00:09:21.510 コンピューターの台頭自体が 引き起こす 00:09:21.510 --> 00:09:24.426 対処を要する 人間や社会の問題から 00:09:24.426 --> 00:09:27.056 注意をそらすことになり 00:09:27.080 --> 00:09:28.630 危険です 00:09:29.360 --> 00:09:32.176 人間の労働の必要が 減っていく社会を 00:09:32.200 --> 00:09:34.536 どうすれば上手く 運営できるのか? 00:09:34.560 --> 00:09:36.920 理解と教育を 地球全体に広げつつ 00:09:36.920 --> 00:09:40.336 互いの違いに敬意を払うことは どうすれば可能か? 00:09:40.336 --> 00:09:44.766 認知システムによる医療で 人の生涯を 長く豊かなものにするにはどうしたら良いか? 00:09:44.766 --> 00:09:47.130 星々に到るために 00:09:47.130 --> 00:09:49.680 コンピューターは いかに役立てられるか? NOTE Paragraph 00:09:49.760 --> 00:09:52.160 これはワクワクすることです 00:09:52.400 --> 00:09:54.736 コンピューターを使って 00:09:54.760 --> 00:09:56.296 人間の体験を 00:09:56.320 --> 00:09:58.016 発展させられる機会が 00:09:58.016 --> 00:09:59.616 今 手の届くところにあり 00:09:59.640 --> 00:10:01.960 それは始まったばかりです NOTE Paragraph 00:10:02.280 --> 00:10:03.496 ありがとうございました NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (拍手)