1 00:00:00,760 --> 00:00:04,960 子供の頃 私はごく典型的な オタク少年でした 2 00:00:05,320 --> 00:00:07,496 皆さんの中にも いるでしょう 3 00:00:07,520 --> 00:00:08,736 (笑) 4 00:00:08,760 --> 00:00:12,106 そこで大声で笑った人 あなたは今もそうでしょう 5 00:00:12,106 --> 00:00:14,256 (笑) 6 00:00:14,280 --> 00:00:17,776 北テキサスのほこりっぽい平原の 小さな町で育ち 7 00:00:17,800 --> 00:00:21,136 父は牧師の子で 保安官をしていました 8 00:00:21,160 --> 00:00:23,450 トラブルを起こすなんて論外です 9 00:00:24,040 --> 00:00:27,296 それで趣味として 解析学の本を読むようになりました 10 00:00:27,320 --> 00:00:28,856 (笑) 11 00:00:28,880 --> 00:00:30,576 あなたもですか? 12 00:00:30,600 --> 00:00:34,336 それでレーザーやコンピューターや ロケットなんかを作るようになり 13 00:00:34,360 --> 00:00:38,040 さらには自分の部屋で ロケット燃料まで作りました 14 00:00:39,520 --> 00:00:42,626 科学用語で言うと これは 15 00:00:42,626 --> 00:00:44,896 「とってもまずい考え」です 16 00:00:44,920 --> 00:00:46,136 (笑) 17 00:00:46,160 --> 00:00:48,220 同じ頃 18 00:00:48,220 --> 00:00:51,646 スタンリー・キューブリックの 『2001年宇宙の旅』が劇場公開され 19 00:00:51,646 --> 00:00:54,330 私の人生を永遠に 変えることになりました 20 00:00:54,330 --> 00:00:56,336 あの映画の すべてが好きで 21 00:00:56,360 --> 00:00:58,896 ことに HAL 9000が 好きでした 22 00:00:58,920 --> 00:01:00,976 HALは 知覚力のある コンピューターで 23 00:01:01,000 --> 00:01:03,866 宇宙船ディスカバリー号を 地球から木星へとガイドすべく 24 00:01:03,866 --> 00:01:06,016 設計されていました 25 00:01:06,040 --> 00:01:08,236 HALにはまた 性格上の欠陥があり 26 00:01:08,236 --> 00:01:12,760 最終的に人間の命よりも ミッションを優先させます 27 00:01:12,760 --> 00:01:14,986 HALは架空のキャラクターですが 28 00:01:14,986 --> 00:01:17,616 私たちの恐怖を 呼び起こします 29 00:01:17,640 --> 00:01:19,736 人間に無関心な 30 00:01:19,760 --> 00:01:22,680 感情のない人工知能に 31 00:01:22,680 --> 00:01:25,160 支配されるという恐怖です 32 00:01:25,880 --> 00:01:28,456 そのような恐怖は 根拠のないものです 33 00:01:28,480 --> 00:01:29,850 私たちは実際 34 00:01:29,850 --> 00:01:32,736 人類史の中でも 目覚ましい時代にいます 35 00:01:32,760 --> 00:01:37,736 肉体や精神の限界を 受け入れることを拒み 36 00:01:37,760 --> 00:01:39,456 精緻で美しく 37 00:01:39,480 --> 00:01:43,096 複雑で優雅な機械を作り 38 00:01:43,120 --> 00:01:45,486 それが我々の想像を 超えるような仕方で 39 00:01:45,486 --> 00:01:47,710 人間の体験を 拡張することになるでしょう 40 00:01:47,720 --> 00:01:50,296 私は空軍士官学校を出て 41 00:01:50,320 --> 00:01:52,256 宇宙軍で働いた後 42 00:01:52,280 --> 00:01:53,976 システム屋になりましたが 43 00:01:54,000 --> 00:01:56,680 最近 NASAの 火星ミッションに関連する 44 00:01:56,680 --> 00:01:59,336 エンジニアリング上の問題へと 引き寄せられました 45 00:01:59,360 --> 00:02:01,856 月へ行くのであれば 46 00:02:01,880 --> 00:02:04,780 ヒューストンの 地上管制センターから 47 00:02:04,780 --> 00:02:07,176 飛行の全過程を 見守れます 48 00:02:07,176 --> 00:02:10,576 しかし火星は月より 200倍も離れています 49 00:02:10,600 --> 00:02:14,136 そのため 信号が地球から 火星に届くのには 50 00:02:14,136 --> 00:02:16,976 平均で13分もかかります 51 00:02:17,000 --> 00:02:20,810 トラブルが起きた場合 そんなに待ってはいられません 52 00:02:20,840 --> 00:02:23,336 妥当な工学的解決策として 53 00:02:23,360 --> 00:02:25,150 オリオン号の壁の中に 54 00:02:25,150 --> 00:02:28,976 管制機能を設けることにしました 55 00:02:29,000 --> 00:02:31,896 ミッション概略にある 別の面白いアイデアとして 56 00:02:31,920 --> 00:02:34,816 人間型ロボットを火星表面に 57 00:02:34,840 --> 00:02:36,696 人間が行く前に送って 58 00:02:36,720 --> 00:02:38,300 施設を作らせ 59 00:02:38,300 --> 00:02:42,660 その後は 科学者チームの一員として 働かせるというのがあります 60 00:02:43,400 --> 00:02:46,466 これを工学的な観点で見て 明らかになったのは 61 00:02:46,466 --> 00:02:49,040 ここで設計する必要があるのは 62 00:02:49,040 --> 00:02:51,430 賢く 協力的で 63 00:02:51,430 --> 00:02:54,036 社会的な人工知能 だということです 64 00:02:54,036 --> 00:02:58,256 言い換えると 何かHALのようなものを 作る必要があるということです 65 00:02:58,280 --> 00:03:00,696 ただし殺人癖は抜きで 66 00:03:00,720 --> 00:03:02,080 (笑) 67 00:03:02,770 --> 00:03:04,736 少し立ち止まって 考えてみましょう 68 00:03:04,760 --> 00:03:08,656 そのような人工知能を作ることは 可能なのでしょうか 69 00:03:08,680 --> 00:03:10,136 可能です 70 00:03:10,160 --> 00:03:11,416 何にせよ 71 00:03:11,440 --> 00:03:13,250 これは人工知能の 要素がある 72 00:03:13,250 --> 00:03:14,966 工学上の問題であって 73 00:03:14,966 --> 00:03:19,616 得体の知れない 人工知能の問題ではありません 74 00:03:19,640 --> 00:03:22,290 チューリングの言葉を 少し変えて言うと 75 00:03:22,290 --> 00:03:24,840 知覚力のある機械を作ることには 関心がありません 76 00:03:24,840 --> 00:03:26,440 HALを作ろうとは していません 77 00:03:26,440 --> 00:03:28,736 私がやろうとしているのは 単純な脳 78 00:03:28,760 --> 00:03:32,260 知性の幻想を 提供する何かです 79 00:03:33,000 --> 00:03:34,690 HALが映画に現れて以来 80 00:03:34,690 --> 00:03:37,766 コンピューターの科学と技術は 大きく進歩しました 81 00:03:37,766 --> 00:03:40,896 HALの生みの親のチャンドラ博士が ここにいたなら 82 00:03:40,920 --> 00:03:43,256 我々に聞きたいことが 山ほどあるはずです 83 00:03:43,280 --> 00:03:45,606 何百万 何千万という デバイスを使い 84 00:03:45,606 --> 00:03:48,550 そのデータストリームを読んで 85 00:03:48,550 --> 00:03:50,510 故障を予期し 86 00:03:50,510 --> 00:03:53,176 前もって対処することは できるのか? 87 00:03:53,200 --> 00:03:54,350 できます 88 00:03:54,350 --> 00:03:57,570 自然言語で人間と会話するシステムを 構築することはできるのか? 89 00:03:57,570 --> 00:03:58,420 できます 90 00:03:58,420 --> 00:04:02,616 物を認識し 人の感情を判断し 自分の感情を表現し ゲームをし 91 00:04:02,616 --> 00:04:05,386 唇の動きすら読めるシステムを 作ることはできるのか? 92 00:04:05,386 --> 00:04:06,280 できます 93 00:04:06,280 --> 00:04:09,046 目標を設定し その実現のための計画を実行し 94 00:04:09,046 --> 00:04:12,296 その過程で学習するシステムを 作ることはできるのか? 95 00:04:12,320 --> 00:04:13,490 できます 96 00:04:13,490 --> 00:04:16,420 心の理論を備えたシステムを 作ることはできるのか? 97 00:04:16,420 --> 00:04:18,686 これは我々がやり方を 学ぼうとしていることです 98 00:04:18,686 --> 00:04:22,410 倫理的・道徳的基盤を持つシステムを 作ることはできるのか? 99 00:04:22,410 --> 00:04:25,050 これは我々がやり方を 学ぶ必要のあることです 100 00:04:25,050 --> 00:04:27,016 このようなミッションや その他のことための 101 00:04:27,016 --> 00:04:29,640 人工知能を作ることは 可能であると 102 00:04:29,640 --> 00:04:31,810 認めることにしましょう 103 00:04:31,810 --> 00:04:33,850 次に問わなければ ならないのは 104 00:04:33,850 --> 00:04:36,226 我々はそれを怖れるべきか ということです 105 00:04:36,226 --> 00:04:37,770 どんな新技術も 106 00:04:37,770 --> 00:04:40,776 常にある程度の怖れは 引き起こすものです 107 00:04:40,800 --> 00:04:43,036 始めて自動車を 目にした人々は 108 00:04:43,036 --> 00:04:46,536 家族が壊されるのを見ることに なるだろうと嘆いたものです 109 00:04:46,560 --> 00:04:49,180 始めて電話機を 目にした人々は 110 00:04:49,180 --> 00:04:52,456 礼儀にかなった会話が 損なわれると懸念したものです 111 00:04:52,456 --> 00:04:56,136 書かれたもので 溢れるのを見た人々は 112 00:04:56,160 --> 00:04:58,656 記憶力が失われるのでは と思ったものです 113 00:04:58,680 --> 00:05:00,736 ある程度は合っていますが 114 00:05:00,760 --> 00:05:03,176 そういった技術は 115 00:05:03,200 --> 00:05:04,770 人間の体験を 116 00:05:04,770 --> 00:05:08,770 根本的に広げてもくれました 117 00:05:09,840 --> 00:05:12,120 さらに話を進めましょう 118 00:05:13,120 --> 00:05:17,856 私はそのような人工知能を 作ることに怖れは感じません 119 00:05:17,880 --> 00:05:21,696 それは人間の価値観を 体現することになるからです 120 00:05:21,720 --> 00:05:24,250 認知システムを作るのは 121 00:05:24,250 --> 00:05:28,536 従来のソフトウェア中心のシステムを 作るのとは 根本的に異なります 122 00:05:28,560 --> 00:05:31,016 プログラムするのではなく 教えるのです 123 00:05:31,040 --> 00:05:33,696 システムに花を 認識させるために 124 00:05:33,720 --> 00:05:36,736 私は自分の好きな 何千という花を見せます 125 00:05:36,760 --> 00:05:39,016 システムにゲームの遊び方を 教えるには — 126 00:05:39,040 --> 00:05:41,990 私だってゲームはしますよ 皆さんもでしょう? 127 00:05:42,420 --> 00:05:45,380 花だって好きだし らしくないですか? 128 00:05:45,380 --> 00:05:48,466 碁のようなゲームの遊び方を システムに教えるには 129 00:05:48,466 --> 00:05:50,376 碁を何千回も指させ 130 00:05:50,400 --> 00:05:51,560 その過程で 131 00:05:51,560 --> 00:05:54,496 良い盤面・悪い盤面を 識別する方法を教えます 132 00:05:54,520 --> 00:05:58,216 人工知能の弁護士助手を 作ろうと思ったら 133 00:05:58,240 --> 00:06:00,016 法律も教えますが 134 00:06:00,040 --> 00:06:02,460 同時に法の一部をなす 135 00:06:02,460 --> 00:06:06,090 慈悲や公正の感覚を 吹き込むでしょう 136 00:06:06,430 --> 00:06:09,536 科学用語では これを グランドトゥルースと言います 137 00:06:09,560 --> 00:06:11,500 重要なのは 138 00:06:11,500 --> 00:06:13,236 そういう機械を作るとき 139 00:06:13,236 --> 00:06:16,636 我々は自分の価値観を 教えることになるということです 140 00:06:16,636 --> 00:06:18,680 それだから私は 人工知能を 141 00:06:18,680 --> 00:06:23,570 きちんと訓練された人間と同様に 信頼するのです 142 00:06:24,080 --> 00:06:26,126 でも悪いことをする工作員や 143 00:06:26,126 --> 00:06:29,556 ある種の資金豊富な 非政府組織なんかの 144 00:06:29,556 --> 00:06:31,296 手にかかったなら? 145 00:06:31,320 --> 00:06:35,136 一匹狼の扱う人工知能には 怖れを感じません 146 00:06:35,160 --> 00:06:39,696 あらゆる暴力から 身を守れるわけではありませんが 147 00:06:39,720 --> 00:06:41,856 そのようなシステムには 148 00:06:41,880 --> 00:06:44,976 個人のリソースの範囲を 大きく超えた 149 00:06:45,000 --> 00:06:47,240 膨大で精妙なトレーニングが 必要になります 150 00:06:47,240 --> 00:06:50,326 さらにそれは 単にインターネットへ ウィルスを送り込むより 151 00:06:50,326 --> 00:06:51,866 遙かに大変なことです 152 00:06:51,866 --> 00:06:54,936 ウィルスならボタン1つで そこら中のパソコンが 153 00:06:54,960 --> 00:06:57,416 突然吹き飛んで しまうでしょうが 154 00:06:57,440 --> 00:07:00,020 そういうたぐいの 実体はずっと大きく 155 00:07:00,020 --> 00:07:02,445 それがやってくるのは 確かに目にすることになります 156 00:07:02,450 --> 00:07:05,240 そういう人工知能が 157 00:07:05,240 --> 00:07:08,170 全人類を脅かすのを 怖れるか? 158 00:07:08,170 --> 00:07:12,656 『マトリックス』『メトロポリス』 『ターミネーター』みたいな映画や 159 00:07:12,680 --> 00:07:15,856 『ウエストワールド』 みたいな番組を見ると 160 00:07:15,880 --> 00:07:18,016 みんなそのような恐怖を 語っています 161 00:07:18,040 --> 00:07:20,910 『スーパーインテリジェンス (Superintelligence)』という本で 162 00:07:20,910 --> 00:07:23,896 思想家のニック・ボストロムは このテーマを取り上げ 163 00:07:23,920 --> 00:07:27,936 人間を超える機械の知能は 危険なだけでなく 164 00:07:27,960 --> 00:07:31,816 人類存亡の危機に つながり得ると見ています 165 00:07:31,840 --> 00:07:34,056 ボストロム博士の 基本的な議論は 166 00:07:34,080 --> 00:07:36,816 そのようなシステムはやがて 167 00:07:36,840 --> 00:07:40,096 抑えがたい情報への渇望を 抱くようになり 168 00:07:40,120 --> 00:07:43,016 学び方を学んで 169 00:07:43,040 --> 00:07:45,656 最終的には人間の要求に 反する目的を 170 00:07:45,680 --> 00:07:47,930 持つようになる ということです 171 00:07:47,930 --> 00:07:49,966 ボストロム博士には 多くの支持者がいて 172 00:07:49,966 --> 00:07:54,610 その中にはイーロン・マスクや スティーヴン・ホーキングもいます 173 00:07:54,880 --> 00:07:57,890 そのような聡明な方々に 174 00:07:57,890 --> 00:08:00,176 恐れながら申し上げると 175 00:08:00,200 --> 00:08:02,456 彼らは根本的に 間違っていると思います 176 00:08:02,480 --> 00:08:05,656 検討すべきボストロム博士の議論は 沢山ありますが 177 00:08:05,680 --> 00:08:07,816 全部見ていく 時間はないので 178 00:08:07,840 --> 00:08:10,536 ごく簡単に 1点だけ挙げるなら 179 00:08:10,560 --> 00:08:14,200 「すごく知っている」のと 「すごいことができる」のとは違うということです 180 00:08:14,200 --> 00:08:18,246 HALは ディスカバリー号のあらゆる面を コントロールする限りにおいて 181 00:08:18,246 --> 00:08:20,656 乗組員にとって脅威でした 182 00:08:20,680 --> 00:08:23,176 スーパーインテリジェンスも そうです 183 00:08:23,200 --> 00:08:25,696 それが世界全体を支配している 必要があります 184 00:08:25,720 --> 00:08:28,536 スーパーインテリジェンスが 人の意志を支配する 185 00:08:28,560 --> 00:08:30,416 『ターミネーター』の世界で 186 00:08:30,440 --> 00:08:33,716 スカイネットは世界の あらゆるデバイスを 187 00:08:33,716 --> 00:08:35,696 操っていました 188 00:08:35,720 --> 00:08:37,176 実際のところ 189 00:08:37,200 --> 00:08:39,296 そんなことは 起こりません 190 00:08:39,320 --> 00:08:42,360 天気を制御したり 潮の干満を決めたり 191 00:08:42,360 --> 00:08:45,266 気まぐれで無秩序な人間を 従わせるような人工知能を 192 00:08:45,266 --> 00:08:47,136 我々は作りはしません 193 00:08:47,160 --> 00:08:51,056 もしそのような人工知能が 存在したら 194 00:08:51,080 --> 00:08:54,016 人間の経済と 競合することになり 195 00:08:54,040 --> 00:08:56,990 リソースを人間と 取り合うことになるでしょう 196 00:08:57,200 --> 00:08:58,416 最終的には 197 00:08:58,440 --> 00:09:00,280 Siriには内緒ですが 198 00:09:00,280 --> 00:09:02,616 我々は電源プラグを 引っこ抜くことができます 199 00:09:02,616 --> 00:09:03,960 (笑) 200 00:09:05,360 --> 00:09:07,816 私たちは機械と 共進化していく 201 00:09:07,840 --> 00:09:10,336 ものすごい旅の 途上にあります 202 00:09:10,360 --> 00:09:11,840 今日の人類は 203 00:09:11,840 --> 00:09:15,416 明日の人類とは違っています 204 00:09:15,440 --> 00:09:18,576 人間を超えた人工知能の 台頭を懸念するのは 205 00:09:18,600 --> 00:09:21,510 コンピューターの台頭自体が 引き起こす 206 00:09:21,510 --> 00:09:24,426 対処を要する 人間や社会の問題から 207 00:09:24,426 --> 00:09:27,056 注意をそらすことになり 208 00:09:27,080 --> 00:09:28,630 危険です 209 00:09:29,360 --> 00:09:32,176 人間の労働の必要が 減っていく社会を 210 00:09:32,200 --> 00:09:34,536 どうすれば上手く 運営できるのか? 211 00:09:34,560 --> 00:09:36,920 理解と教育を 地球全体に広げつつ 212 00:09:36,920 --> 00:09:40,336 互いの違いに敬意を払うことは どうすれば可能か? 213 00:09:40,336 --> 00:09:44,766 認知システムによる医療で 人の生涯を 長く豊かなものにするにはどうしたら良いか? 214 00:09:44,766 --> 00:09:47,130 星々に到るために 215 00:09:47,130 --> 00:09:49,680 コンピューターは いかに役立てられるか? 216 00:09:49,760 --> 00:09:52,160 これはワクワクすることです 217 00:09:52,400 --> 00:09:54,736 コンピューターを使って 218 00:09:54,760 --> 00:09:56,296 人間の体験を 219 00:09:56,320 --> 00:09:58,016 発展させられる機会が 220 00:09:58,016 --> 00:09:59,616 今 手の届くところにあり 221 00:09:59,640 --> 00:10:01,960 それは始まったばかりです 222 00:10:02,280 --> 00:10:03,496 ありがとうございました 223 00:10:03,520 --> 00:10:07,806 (拍手)