0:00:00.760,0:00:04.960 子供の頃 私はごく典型的な[br]オタク少年でした 0:00:05.320,0:00:07.496 皆さんの中にも[br]いるでしょう 0:00:07.520,0:00:08.736 (笑) 0:00:08.760,0:00:12.106 そこで大声で笑った人 [br]あなたは今もそうでしょう 0:00:12.106,0:00:14.256 (笑) 0:00:14.280,0:00:17.776 北テキサスのほこりっぽい平原の[br]小さな町で育ち 0:00:17.800,0:00:21.136 父は牧師の子で[br]保安官をしていました 0:00:21.160,0:00:23.450 トラブルを起こすなんて論外です 0:00:24.040,0:00:27.296 それで趣味として[br]解析学の本を読むようになりました 0:00:27.320,0:00:28.856 (笑) 0:00:28.880,0:00:30.576 あなたもですか? 0:00:30.600,0:00:34.336 それでレーザーやコンピューターや[br]ロケットなんかを作るようになり 0:00:34.360,0:00:38.040 さらには自分の部屋で[br]ロケット燃料まで作りました 0:00:39.520,0:00:42.626 科学用語で言うと これは 0:00:42.626,0:00:44.896 「とってもまずい考え」です 0:00:44.920,0:00:46.136 (笑) 0:00:46.160,0:00:48.220 同じ頃 0:00:48.220,0:00:51.646 スタンリー・キューブリックの[br]『2001年宇宙の旅』が劇場公開され 0:00:51.646,0:00:54.330 私の人生を永遠に[br]変えることになりました 0:00:54.330,0:00:56.336 あの映画の[br]すべてが好きで 0:00:56.360,0:00:58.896 ことに HAL 9000が[br]好きでした 0:00:58.920,0:01:00.976 HALは 知覚力のある[br]コンピューターで 0:01:01.000,0:01:03.866 宇宙船ディスカバリー号を[br]地球から木星へとガイドすべく 0:01:03.866,0:01:06.016 設計されていました 0:01:06.040,0:01:08.236 HALにはまた[br]性格上の欠陥があり 0:01:08.236,0:01:12.760 最終的に人間の命よりも[br]ミッションを優先させます 0:01:12.760,0:01:14.986 HALは架空のキャラクターですが 0:01:14.986,0:01:17.616 私たちの恐怖を[br]呼び起こします 0:01:17.640,0:01:19.736 人間に無関心な 0:01:19.760,0:01:22.680 感情のない人工知能に 0:01:22.680,0:01:25.160 支配されるという恐怖です 0:01:25.880,0:01:28.456 そのような恐怖は[br]根拠のないものです 0:01:28.480,0:01:29.850 私たちは実際 0:01:29.850,0:01:32.736 人類史の中でも[br]目覚ましい時代にいます 0:01:32.760,0:01:37.736 肉体や精神の限界を[br]受け入れることを拒み 0:01:37.760,0:01:39.456 精緻で美しく 0:01:39.480,0:01:43.096 複雑で優雅な機械を作り 0:01:43.120,0:01:45.486 それが我々の想像を[br]超えるような仕方で 0:01:45.486,0:01:47.710 人間の体験を[br]拡張することになるでしょう 0:01:47.720,0:01:50.296 私は空軍士官学校を出て 0:01:50.320,0:01:52.256 宇宙軍で働いた後 0:01:52.280,0:01:53.976 システム屋になりましたが 0:01:54.000,0:01:56.680 最近 NASAの[br]火星ミッションに関連する 0:01:56.680,0:01:59.336 エンジニアリング上の問題へと[br]引き寄せられました 0:01:59.360,0:02:01.856 月へ行くのであれば 0:02:01.880,0:02:04.780 ヒューストンの[br]地上管制センターから 0:02:04.780,0:02:07.176 飛行の全過程を[br]見守れます 0:02:07.176,0:02:10.576 しかし火星は月より[br]200倍も離れています 0:02:10.600,0:02:14.136 そのため 信号が地球から[br]火星に届くのには 0:02:14.136,0:02:16.976 平均で13分もかかります 0:02:17.000,0:02:20.810 トラブルが起きた場合 [br]そんなに待ってはいられません 0:02:20.840,0:02:23.336 妥当な工学的解決策として 0:02:23.360,0:02:25.150 オリオン号の壁の中に 0:02:25.150,0:02:28.976 管制機能を設けることにしました 0:02:29.000,0:02:31.896 ミッション概略にある[br]別の面白いアイデアとして 0:02:31.920,0:02:34.816 人間型ロボットを火星表面に 0:02:34.840,0:02:36.696 人間が行く前に送って 0:02:36.720,0:02:38.300 施設を作らせ 0:02:38.300,0:02:42.660 その後は 科学者チームの一員として[br]働かせるというのがあります 0:02:43.400,0:02:46.466 これを工学的な観点で見て [br]明らかになったのは 0:02:46.466,0:02:49.040 ここで設計する必要があるのは 0:02:49.040,0:02:51.430 賢く 協力的で 0:02:51.430,0:02:54.036 社会的な人工知能[br]だということです 0:02:54.036,0:02:58.256 言い換えると 何かHALのようなものを[br]作る必要があるということです 0:02:58.280,0:03:00.696 ただし殺人癖は抜きで 0:03:00.720,0:03:02.080 (笑) 0:03:02.770,0:03:04.736 少し立ち止まって[br]考えてみましょう 0:03:04.760,0:03:08.656 そのような人工知能を作ることは[br]可能なのでしょうか 0:03:08.680,0:03:10.136 可能です 0:03:10.160,0:03:11.416 何にせよ 0:03:11.440,0:03:13.250 これは人工知能の[br]要素がある 0:03:13.250,0:03:14.966 工学上の問題であって 0:03:14.966,0:03:19.616 得体の知れない[br]人工知能の問題ではありません 0:03:19.640,0:03:22.290 チューリングの言葉を[br]少し変えて言うと 0:03:22.290,0:03:24.840 知覚力のある機械を作ることには[br]関心がありません 0:03:24.840,0:03:26.440 HALを作ろうとは[br]していません 0:03:26.440,0:03:28.736 私がやろうとしているのは[br]単純な脳 0:03:28.760,0:03:32.260 知性の幻想を[br]提供する何かです 0:03:33.000,0:03:34.690 HALが映画に現れて以来 0:03:34.690,0:03:37.766 コンピューターの科学と技術は[br]大きく進歩しました 0:03:37.766,0:03:40.896 HALの生みの親のチャンドラ博士が[br]ここにいたなら 0:03:40.920,0:03:43.256 我々に聞きたいことが[br]山ほどあるはずです 0:03:43.280,0:03:45.606 何百万 何千万という[br]デバイスを使い 0:03:45.606,0:03:48.550 そのデータストリームを読んで 0:03:48.550,0:03:50.510 故障を予期し 0:03:50.510,0:03:53.176 前もって対処することは[br]できるのか? 0:03:53.200,0:03:54.350 できます 0:03:54.350,0:03:57.570 自然言語で人間と会話するシステムを[br]構築することはできるのか? 0:03:57.570,0:03:58.420 できます 0:03:58.420,0:04:02.616 物を認識し 人の感情を判断し [br]自分の感情を表現し ゲームをし 0:04:02.616,0:04:05.386 唇の動きすら読めるシステムを[br]作ることはできるのか? 0:04:05.386,0:04:06.280 できます 0:04:06.280,0:04:09.046 目標を設定し [br]その実現のための計画を実行し 0:04:09.046,0:04:12.296 その過程で学習するシステムを[br]作ることはできるのか? 0:04:12.320,0:04:13.490 できます 0:04:13.490,0:04:16.420 心の理論を備えたシステムを[br]作ることはできるのか? 0:04:16.420,0:04:18.686 これは我々がやり方を[br]学ぼうとしていることです 0:04:18.686,0:04:22.410 倫理的・道徳的基盤を持つシステムを[br]作ることはできるのか? 0:04:22.410,0:04:25.050 これは我々がやり方を[br]学ぶ必要のあることです 0:04:25.050,0:04:27.016 このようなミッションや[br]その他のことための 0:04:27.016,0:04:29.640 人工知能を作ることは[br]可能であると 0:04:29.640,0:04:31.810 認めることにしましょう 0:04:31.810,0:04:33.850 次に問わなければ[br]ならないのは 0:04:33.850,0:04:36.226 我々はそれを怖れるべきか[br]ということです 0:04:36.226,0:04:37.770 どんな新技術も 0:04:37.770,0:04:40.776 常にある程度の怖れは[br]引き起こすものです 0:04:40.800,0:04:43.036 始めて自動車を[br]目にした人々は 0:04:43.036,0:04:46.536 家族が壊されるのを見ることに[br]なるだろうと嘆いたものです 0:04:46.560,0:04:49.180 始めて電話機を[br]目にした人々は 0:04:49.180,0:04:52.456 礼儀にかなった会話が[br]損なわれると懸念したものです 0:04:52.456,0:04:56.136 書かれたもので[br]溢れるのを見た人々は 0:04:56.160,0:04:58.656 記憶力が失われるのでは[br]と思ったものです 0:04:58.680,0:05:00.736 ある程度は合っていますが 0:05:00.760,0:05:03.176 そういった技術は 0:05:03.200,0:05:04.770 人間の体験を 0:05:04.770,0:05:08.770 根本的に広げてもくれました 0:05:09.840,0:05:12.120 さらに話を進めましょう 0:05:13.120,0:05:17.856 私はそのような人工知能を[br]作ることに怖れは感じません 0:05:17.880,0:05:21.696 それは人間の価値観を[br]体現することになるからです 0:05:21.720,0:05:24.250 認知システムを作るのは 0:05:24.250,0:05:28.536 従来のソフトウェア中心のシステムを[br]作るのとは 根本的に異なります 0:05:28.560,0:05:31.016 プログラムするのではなく [br]教えるのです 0:05:31.040,0:05:33.696 システムに花を[br]認識させるために 0:05:33.720,0:05:36.736 私は自分の好きな[br]何千という花を見せます 0:05:36.760,0:05:39.016 システムにゲームの遊び方を[br]教えるには — 0:05:39.040,0:05:41.990 私だってゲームはしますよ[br]皆さんもでしょう? 0:05:42.420,0:05:45.380 花だって好きだし[br]らしくないですか? 0:05:45.380,0:05:48.466 碁のようなゲームの遊び方を[br]システムに教えるには 0:05:48.466,0:05:50.376 碁を何千回も指させ 0:05:50.400,0:05:51.560 その過程で 0:05:51.560,0:05:54.496 良い盤面・悪い盤面を[br]識別する方法を教えます 0:05:54.520,0:05:58.216 人工知能の弁護士助手を[br]作ろうと思ったら 0:05:58.240,0:06:00.016 法律も教えますが 0:06:00.040,0:06:02.460 同時に法の一部をなす 0:06:02.460,0:06:06.090 慈悲や公正の感覚を[br]吹き込むでしょう 0:06:06.430,0:06:09.536 科学用語では これを[br]グランドトゥルースと言います 0:06:09.560,0:06:11.500 重要なのは 0:06:11.500,0:06:13.236 そういう機械を作るとき 0:06:13.236,0:06:16.636 我々は自分の価値観を[br]教えることになるということです 0:06:16.636,0:06:18.680 それだから私は [br]人工知能を 0:06:18.680,0:06:23.570 きちんと訓練された人間と同様に[br]信頼するのです 0:06:24.080,0:06:26.126 でも悪いことをする工作員や 0:06:26.126,0:06:29.556 ある種の資金豊富な[br]非政府組織なんかの 0:06:29.556,0:06:31.296 手にかかったなら? 0:06:31.320,0:06:35.136 一匹狼の扱う人工知能には[br]怖れを感じません 0:06:35.160,0:06:39.696 あらゆる暴力から[br]身を守れるわけではありませんが 0:06:39.720,0:06:41.856 そのようなシステムには 0:06:41.880,0:06:44.976 個人のリソースの範囲を[br]大きく超えた 0:06:45.000,0:06:47.240 膨大で精妙なトレーニングが[br]必要になります 0:06:47.240,0:06:50.326 さらにそれは 単にインターネットへ[br]ウィルスを送り込むより 0:06:50.326,0:06:51.866 遙かに大変なことです 0:06:51.866,0:06:54.936 ウィルスならボタン1つで[br]そこら中のパソコンが 0:06:54.960,0:06:57.416 突然吹き飛んで[br]しまうでしょうが 0:06:57.440,0:07:00.020 そういうたぐいの[br]実体はずっと大きく 0:07:00.020,0:07:02.445 それがやってくるのは[br]確かに目にすることになります 0:07:02.450,0:07:05.240 そういう人工知能が 0:07:05.240,0:07:08.170 全人類を脅かすのを[br]怖れるか? 0:07:08.170,0:07:12.656 『マトリックス』『メトロポリス』[br]『ターミネーター』みたいな映画や 0:07:12.680,0:07:15.856 『ウエストワールド』[br]みたいな番組を見ると 0:07:15.880,0:07:18.016 みんなそのような恐怖を[br]語っています 0:07:18.040,0:07:20.910 『スーパーインテリジェンス[br](Superintelligence)』という本で 0:07:20.910,0:07:23.896 思想家のニック・ボストロムは[br]このテーマを取り上げ 0:07:23.920,0:07:27.936 人間を超える機械の知能は[br]危険なだけでなく 0:07:27.960,0:07:31.816 人類存亡の危機に[br]つながり得ると見ています 0:07:31.840,0:07:34.056 ボストロム博士の[br]基本的な議論は 0:07:34.080,0:07:36.816 そのようなシステムはやがて 0:07:36.840,0:07:40.096 抑えがたい情報への渇望を[br]抱くようになり 0:07:40.120,0:07:43.016 学び方を学んで 0:07:43.040,0:07:45.656 最終的には人間の要求に[br]反する目的を 0:07:45.680,0:07:47.930 持つようになる[br]ということです 0:07:47.930,0:07:49.966 ボストロム博士には[br]多くの支持者がいて 0:07:49.966,0:07:54.610 その中にはイーロン・マスクや[br]スティーヴン・ホーキングもいます 0:07:54.880,0:07:57.890 そのような聡明な方々に 0:07:57.890,0:08:00.176 恐れながら申し上げると 0:08:00.200,0:08:02.456 彼らは根本的に[br]間違っていると思います 0:08:02.480,0:08:05.656 検討すべきボストロム博士の議論は[br]沢山ありますが 0:08:05.680,0:08:07.816 全部見ていく[br]時間はないので 0:08:07.840,0:08:10.536 ごく簡単に[br]1点だけ挙げるなら 0:08:10.560,0:08:14.200 「すごく知っている」のと [br]「すごいことができる」のとは違うということです 0:08:14.200,0:08:18.246 HALは ディスカバリー号のあらゆる面を[br]コントロールする限りにおいて 0:08:18.246,0:08:20.656 乗組員にとって脅威でした 0:08:20.680,0:08:23.176 スーパーインテリジェンスも[br]そうです 0:08:23.200,0:08:25.696 それが世界全体を支配している[br]必要があります 0:08:25.720,0:08:28.536 スーパーインテリジェンスが[br]人の意志を支配する 0:08:28.560,0:08:30.416 『ターミネーター』の世界で 0:08:30.440,0:08:33.716 スカイネットは世界の[br]あらゆるデバイスを 0:08:33.716,0:08:35.696 操っていました 0:08:35.720,0:08:37.176 実際のところ 0:08:37.200,0:08:39.296 そんなことは[br]起こりません 0:08:39.320,0:08:42.360 天気を制御したり[br]潮の干満を決めたり 0:08:42.360,0:08:45.266 気まぐれで無秩序な人間を[br]従わせるような人工知能を 0:08:45.266,0:08:47.136 我々は作りはしません 0:08:47.160,0:08:51.056 もしそのような人工知能が[br]存在したら 0:08:51.080,0:08:54.016 人間の経済と[br]競合することになり 0:08:54.040,0:08:56.990 リソースを人間と[br]取り合うことになるでしょう 0:08:57.200,0:08:58.416 最終的には 0:08:58.440,0:09:00.280 Siriには内緒ですが 0:09:00.280,0:09:02.616 我々は電源プラグを[br]引っこ抜くことができます 0:09:02.616,0:09:03.960 (笑) 0:09:05.360,0:09:07.816 私たちは機械と[br]共進化していく 0:09:07.840,0:09:10.336 ものすごい旅の[br]途上にあります 0:09:10.360,0:09:11.840 今日の人類は 0:09:11.840,0:09:15.416 明日の人類とは違っています 0:09:15.440,0:09:18.576 人間を超えた人工知能の[br]台頭を懸念するのは 0:09:18.600,0:09:21.510 コンピューターの台頭自体が[br]引き起こす 0:09:21.510,0:09:24.426 対処を要する[br]人間や社会の問題から 0:09:24.426,0:09:27.056 注意をそらすことになり 0:09:27.080,0:09:28.630 危険です 0:09:29.360,0:09:32.176 人間の労働の必要が[br]減っていく社会を 0:09:32.200,0:09:34.536 どうすれば上手く[br]運営できるのか? 0:09:34.560,0:09:36.920 理解と教育を[br]地球全体に広げつつ 0:09:36.920,0:09:40.336 互いの違いに敬意を払うことは [br]どうすれば可能か? 0:09:40.336,0:09:44.766 認知システムによる医療で 人の生涯を[br]長く豊かなものにするにはどうしたら良いか? 0:09:44.766,0:09:47.130 星々に到るために 0:09:47.130,0:09:49.680 コンピューターは[br]いかに役立てられるか? 0:09:49.760,0:09:52.160 これはワクワクすることです 0:09:52.400,0:09:54.736 コンピューターを使って 0:09:54.760,0:09:56.296 人間の体験を 0:09:56.320,0:09:58.016 発展させられる機会が 0:09:58.016,0:09:59.616 今 手の届くところにあり 0:09:59.640,0:10:01.960 それは始まったばかりです 0:10:02.280,0:10:03.496 ありがとうございました 0:10:03.520,0:10:07.806 (拍手)