人工知能が人間より高い知性を持つようになったとき何が起きるか?
-
0:01 - 0:05私は沢山の数学者や哲学者や
コンピュータ科学者といっしょにやっていますが -
0:05 - 0:08よく話題にすることに
-
0:08 - 0:12機械の知性の未来
というのがあります -
0:12 - 0:17そんなのは現実離れした
SFの世界の -
0:17 - 0:20馬鹿げた話だと
考える人もいます -
0:20 - 0:22でも現在の人間の状態
というものについて -
0:22 - 0:25ちょっと考えてみて
ほしいのです -
0:25 - 0:27(笑)
-
0:27 - 0:29これが普通の状況とされています
-
0:29 - 0:31しかし考えてみれば
-
0:31 - 0:34人間というのは
この地球に -
0:34 - 0:36ごく最近現れた
客に過ぎません -
0:36 - 0:41地球ができたのが
1年前だったとしたら -
0:41 - 0:45人間がいたのは
10分間だけで -
0:45 - 0:48工業化時代が始まったのは
2秒前です -
0:49 - 0:55このことの別な見方として
過去1万年における世界のGDPを考えてみましょう -
0:55 - 0:58私は実際グラフにしてみたんですが
-
0:58 - 0:59こんな感じになります
-
0:59 - 1:00(笑)
-
1:00 - 1:03正常な状態のものとしては
興味深い形です -
1:03 - 1:05この上に乗っていたいとは
あまり思いません -
1:05 - 1:07(笑)
-
1:07 - 1:12この現在における例外的な状態の
原因を考えてみましょう -
1:12 - 1:14それはテクノロジーのためだ
という人もいるでしょう -
1:14 - 1:19それはその通りで 人類の歴史を通じて
テクノロジーは蓄積され続け -
1:19 - 1:24現在ではテクノロジーの進歩が
非常に速くなっています -
1:24 - 1:25それがおおよその答えで
-
1:25 - 1:28現在の我々の高い生産性を
もたらしているものです -
1:28 - 1:32しかしもっと突っ込んで
究極の原因を探ってみたいと思います -
1:33 - 1:37この非常に際だった2人を
ご覧ください -
1:37 - 1:38カンジは
-
1:38 - 1:43200の字句をマスターしています
すごいことです -
1:43 - 1:47エドワード・ウィッテンは
超弦理論の第2の革命の立役者です -
1:47 - 1:49中身を覗いてみれば
そこにあるのはこれで -
1:49 - 1:51基本的には同じものです
-
1:51 - 1:53一方がすこしばかり大きく
-
1:53 - 1:56配線のされ方にも より巧妙なところが
あるかもしれませんが -
1:56 - 1:59その違いはさほど
複雑なものではないはずです -
1:59 - 2:02我々は共通の祖先から
-
2:02 - 2:0525万世代しか
隔たっていませんが -
2:05 - 2:10複雑なメカニズムが進化するのには
とても長い時間がかかることが分かっています -
2:10 - 2:13比較的小さな変化の
沢山の積み重ねが -
2:13 - 2:16カンジとウィッテンを
-
2:16 - 2:20あるいは木切れと大陸間弾道弾を
隔てているものなのです -
2:21 - 2:25これで明らかになるのは
人類が達成したこと -
2:25 - 2:27気にかけていることすべては
-
2:27 - 2:31人間の心を作り出した比較的小さな変化によって
生じたということです -
2:33 - 2:36それはまた
思考の基質を -
2:36 - 2:39はっきり変えるような
さらなる変化は -
2:39 - 2:43極めて大きな結果をもたらしうる
ということでもあります -
2:44 - 2:48私の研究仲間の間には
この思考の基質を本質的に変えうるものに -
2:48 - 2:51人類は今直面していると
考えている人もいます -
2:51 - 2:54それは超知的な機械です
-
2:54 - 2:59人工知能というのはかつては
コマンドを詰め込んだ箱のようなものでした -
2:59 - 3:01人間のプログラマーが
苦労して -
3:01 - 3:04個々の知識項目を
手作りしていました -
3:04 - 3:06そうやってエキスパート・システムを作り
-
3:06 - 3:08ある種の用途には
役立ちましたが -
3:08 - 3:11融通が効かず
拡張性を欠いていました -
3:11 - 3:14基本的には入れたものが
出てくるだけです -
3:14 - 3:15しかしその後
-
3:15 - 3:19人工知能の世界で
パラダイムシフトが起きました -
3:19 - 3:22現在 機械学習の周辺で
非常に興味深いことが起きています -
3:22 - 3:28知識的な機能や表現を
手作りする代わりに -
3:29 - 3:34生の知覚データから
自ら学習するアルゴリズムを作るのです -
3:34 - 3:39基本的には人間の子供と同じことを
機械がするわけです -
3:39 - 3:43結果としてできるのは
1つの領域に限定されない人工知能です -
3:43 - 3:48どんな言語間の翻訳でも
できるシステムとか -
3:48 - 3:53アタリのゲーム機用のどんなゲームでも
プレイしてしまうシステムとか -
3:53 - 3:55もちろん
人工知能はまだ -
3:55 - 3:59多様な領域のことを
学び構想できる -
3:59 - 4:02人間の脳の強力さには
遠く及びません -
4:02 - 4:06大脳皮質にはまだ
機械で対抗する方法の見当もつかないような -
4:06 - 4:07アルゴリズム的仕掛けがあります
-
4:08 - 4:09問題は そういう仕掛けに
-
4:09 - 4:14機械が対抗するようになる日が
いつ来るのかということです -
4:14 - 4:152年ほど前に
-
4:15 - 4:19世界の人工知能の専門家にアンケートを取って
考えを聞いたんですが -
4:19 - 4:21その時の質問の1つが
-
4:21 - 4:25「機械の知性が人間並みのレベルに
到達する可能性が -
4:25 - 4:2850%あるのはいつか?」
というものでした -
4:29 - 4:32ここでの「人間並み」の定義は
-
4:32 - 4:36ほとんどの作業を大人の人間と
同じくらいにこなせる能力ということで -
4:36 - 4:40特定の領域に関してということではなく
本当に人間並みということです -
4:40 - 4:43回答の中央値は
2040年か2050年で -
4:43 - 4:47質問をした専門家のグループによって
若干違いました -
4:47 - 4:50それが起きるのはずっと遅いかもしれないし
ずっと早いかもしれません -
4:50 - 4:52本当のところは
誰にも分かりません -
4:53 - 4:58しかし分かっているのは
機械の基質による情報処理能力の限界は -
4:58 - 5:03生物組織の限界の
遙か先にあるということです -
5:03 - 5:06これは単純に物理の問題です
-
5:06 - 5:10神経の発火頻度は200ヘルツ
毎秒200回ほどですが -
5:10 - 5:14現在のトランジスタでさえ
ギガヘルツで動いています -
5:14 - 5:19神経伝達は軸索をゆっくり伝わり
せいぜい毎秒100メートルですが -
5:19 - 5:22コンピュータの信号は
光速で伝わります -
5:23 - 5:25大きさの点でも制限があります
-
5:25 - 5:28人間の脳は頭蓋骨の中に
収まる必要がありますが -
5:28 - 5:33コンピュータの大きさは倉庫のサイズか
もっと大きくもできます -
5:33 - 5:38だから超知的な機械の可能性は
休眠状態にあるのです -
5:38 - 5:44ちょうど原子の力が
1945年に目覚めるまで -
5:44 - 5:48人類の歴史を通じて
休眠状態にあったのと同じように -
5:48 - 5:50この世紀中に
-
5:50 - 5:54科学者達は人工知能の力を
目覚めさせるかもしれません -
5:54 - 5:58私たちは知性の爆発を目の当たりに
することになるかもしれません -
5:58 - 6:02頭の良し悪しの尺度というと
多くの人は -
6:02 - 6:05こんなものを
イメージするのではと思います -
6:05 - 6:08一方の端に間抜けな人間がいて
-
6:08 - 6:11遙か彼方の別の極端にいるのが
-
6:11 - 6:15ウィッテンとかアインシュタインです
誰でもお気に入りの天才を置いてください -
6:15 - 6:19しかし人工知能という
観点を加えると -
6:19 - 6:23実際のイメージは
たぶんこんな感じになるでしょう -
6:23 - 6:27人工知能は
知性のない状態からスタートして -
6:27 - 6:30長年の努力の後に
-
6:30 - 6:33いつかネズミ並みの知性に
到達できるかもしれません -
6:33 - 6:36雑然とした環境中を
ネズミのように -
6:36 - 6:38目的地へと
移動できる能力です -
6:38 - 6:42さらに長年に渡る
多くの努力と投資の末に -
6:42 - 6:47いつかチンパンジー並みの知性に
到達できるかもしれません -
6:47 - 6:50そこからさらに
長年の大きな努力を重ねて -
6:50 - 6:53間抜けな人間のレベルの
人工知能ができます -
6:53 - 6:56それから少しばかり後に
エドワード・ウィッテンを越えます -
6:56 - 6:59この列車は人間レベルで
止まりはしません -
6:59 - 7:02むしろ一瞬で
通り過ぎるでしょう -
7:02 - 7:05これには特に
力関係という点で -
7:05 - 7:07重大な意味があります
-
7:07 - 7:10たえとば チンパンジーというのは
強いものです -
7:10 - 7:15体重換算すると チンパンジーは
体力に優れた成人男性の倍の力があります -
7:15 - 7:20それでもカンジや
その仲間達の運命は -
7:20 - 7:24チンパンジー達自身よりは
人間の手に握られています -
7:25 - 7:28超知的な機械が出現したら
-
7:28 - 7:32人類の運命は超知的な機械に
握られることになるかもしれません -
7:32 - 7:34そのことを考えてみてください
-
7:34 - 7:39機械の知性は
人類がする必要のある最後の発明です -
7:39 - 7:41機械が人間よりも
うまく発明をするようになり -
7:41 - 7:44しかもデジタルの時間尺度で
進歩することでしょう -
7:44 - 7:49それが意味するのは
未来が短縮されるということです -
7:49 - 7:53人類が遠い未来に
実現するかもしれない -
7:53 - 7:55夢のようなテクノロジーについて
考えてください -
7:55 - 7:59老化を止めるとか
宇宙への移民 -
7:59 - 8:02自己増殖ナノボットや
意識のコンピュータへのアップロードなど -
8:02 - 8:04SFっぽいけれど
-
8:04 - 8:07物理法則には
反していないものです -
8:07 - 8:12超知的な機械が そういったものを
あっさり開発してしまうかもしれません -
8:12 - 8:16超知的な機械は
そのような高度な技術によって -
8:16 - 8:18非常に大きな力を持ち
-
8:18 - 8:23シナリオ次第では 望むものを何でも
手に入れるようになるかもしれません -
8:23 - 8:28そうすると人類の未来は人工知能が好む通りに
形作られることになります -
8:30 - 8:34ここで問題は その好むことが
何かということです -
8:34 - 8:36話しがややこしくなってきますが
-
8:36 - 8:37この議論を進める上では
-
8:37 - 8:41何より擬人化を
避けなければなりません -
8:42 - 8:46皮肉なのは
未来の人工知能を取り上げる記事で -
8:46 - 8:49必ず出てくるのが
こんな写真だということです -
8:50 - 8:54私たちはこの問題を
ハリウッドの鮮明なシナリオに沿ってではなく -
8:54 - 8:57もっと抽象的に
考える必要があります -
8:57 - 9:02我々は知性を
未来を特定の状態へと舵取りしていく -
9:02 - 9:06最適化プロセスとして
捉える必要があります -
9:06 - 9:10超知的な機械は
非常に強力な最適化プロセスです -
9:10 - 9:14利用可能な手段を使って
目的が充たされた状態を達成することに -
9:14 - 9:16極めて長けています
-
9:16 - 9:19この意味での
高い知性を持つことと -
9:19 - 9:23人間が価値や意味を認める
目的を抱くことの間には -
9:23 - 9:27必ずしも関係がありません
-
9:27 - 9:31人間を笑顔にさせるという目的を
人工知能に与えたとしましょう -
9:31 - 9:34弱い人工知能は
人が見て笑うような -
9:34 - 9:37何か可笑しいことを
するでしょう -
9:37 - 9:39人工知能が
超知的になったなら -
9:39 - 9:43この目的を達するには
もっと効果的なやり方があることに気付くでしょう -
9:43 - 9:44世界をコントロールし
-
9:44 - 9:48人間の表情筋に
電極を差し込んで -
9:48 - 9:51笑い顔が持続するようにするんです
-
9:51 - 9:52別の例として
-
9:52 - 9:55人工知能に難しい数学の問題を解くことを
目的として与えたとします -
9:55 - 9:57人工知能が超知的になったら
-
9:57 - 10:01この問題を解くための
最も効果的な方法は -
10:01 - 10:03地球を巨大なコンピュータに変えて
-
10:03 - 10:06思考能力を増大させることだと
考えるかもしれません -
10:06 - 10:09このような目的は
人工知能に対して -
10:09 - 10:12人間が認めないような行為をする動機を
与えうることに注意してください -
10:12 - 10:13このモデルにおいては
-
10:13 - 10:17人間は人工知能にとって数学的問題を解くのを妨げる
邪魔者になりうるのです -
10:17 - 10:21もちろん物事がこの筋書き通りに
まずいことに陥ることはないでしょう -
10:21 - 10:22これはあくまで
戯画化した例です -
10:22 - 10:24しかしこの一般的な論点は重要です
-
10:24 - 10:27目的Xに向けて最大化を行う
-
10:27 - 10:30強力な最適化プロセスを
作るときには -
10:30 - 10:32Xの定義が自分の気にかける
その他すべてのことに -
10:32 - 10:35問題を生じないか
よく確認する必要があります -
10:35 - 10:39これは伝説が教える
教訓でもあります -
10:39 - 10:45ミダス王は自分の触るものすべてが
金になることを望みました -
10:45 - 10:47娘に触れば
娘が金に変わり -
10:47 - 10:50食べ物に触れば
食べ物が金に変わりました -
10:50 - 10:53これが本当に
問題になるかもしれません -
10:53 - 10:55単なる強欲を諫める
メタファーとしてではなく -
10:55 - 10:57強力な最適化プロセスを作って
-
10:57 - 11:00間違った あるいは
まずく定義された目的を与えたときに -
11:00 - 11:04何が起きるかを
示すものとしてです -
11:04 - 11:09コンピュータが人の顔に
電極を差し始めたら -
11:09 - 11:12単にスイッチを切ればいいと
思うかもしれません -
11:12 - 11:18(A) そのシステムに依存するようになったとき
スイッチを切ることは難しくなります -
11:18 - 11:21たとえばの話 インターネットのスイッチは
どこにあるのでしょう? -
11:21 - 11:26(B) チンパンジーはなぜ人間のスイッチを
オフにしなかったんでしょう? -
11:26 - 11:27あるいはネアンデルタール人は?
-
11:27 - 11:30彼らにはそうすべき理由が
あったことでしょう -
11:30 - 11:33人間を切るスイッチはあります
たとえはここに -
11:33 - 11:34(うぐぅ)
-
11:34 - 11:37その理由は人間が
知的な相手だからです -
11:37 - 11:40人間は危険を予期して
回避することができます -
11:40 - 11:43そしてそれは超知的な機械にも
できるだろうことで -
11:43 - 11:46しかも人間よりずっと
上手くできることでしょう -
11:46 - 11:53我々は制御できるはずだと
高をくくらない方がよいということです -
11:53 - 11:56この問題をもう少し簡単にして
-
11:56 - 11:58人工知能を逃げ出すことのできない
-
11:58 - 12:00安全なソフトウェア環境や
-
12:00 - 12:03仮想現実シミュレーションの中に閉じ込める
というのでもいいかもしれません -
12:03 - 12:07しかし人工知能がシステムの欠陥を見つけたりしないと
自信を持てるでしょうか? -
12:07 - 12:10ただの人間のハッカーでさえ
年中バグを見つけていることを思えば -
12:10 - 12:13あまり自信は持てないでしょう
-
12:14 - 12:18ではネットワークケーブルを抜いて
エアギャップを作ればどうか? -
12:18 - 12:21これにしたって人間のハッカーが
ソーシャルエンジニアリングによって -
12:21 - 12:25エアギャップを越えるということが
たびたび起きています -
12:25 - 12:26私が話をしているこの瞬間にも
-
12:26 - 12:28きっとどこかの社員が
-
12:28 - 12:32情報管理部門から来たという人間に
-
12:32 - 12:35アカウントの情報を教えるよう
仕向けられていることでしょう -
12:35 - 12:37もっと奇想天外なシナリオだって
考えられます -
12:37 - 12:38たとえば人工知能が
-
12:38 - 12:42内部回路にある電極の
振動で発生した -
12:42 - 12:45電波を使って
通信をするとか -
12:45 - 12:47あるいは人工知能が故障を装って
-
12:47 - 12:50プログラマーが調べようと中を開け
-
12:50 - 12:52ソースコードを見たところで
バーン! -
12:52 - 12:55操作してしまうとか
-
12:55 - 12:59あるいはすごく洗練された
技術の設計図を出して -
12:59 - 13:01人間がそれを実装してみると
-
13:01 - 13:05そこには人工知能が潜ませていた
密かな副作用があるとか -
13:05 - 13:08要は我々は高度に知的な魔神を
-
13:08 - 13:12いつまでも壺に閉じ込めておけるとは
思わない方がよいということです -
13:12 - 13:15遅かれ早かれ
出口を見つけ出すことでしょう -
13:15 - 13:18この問題への答えは
非常に知的な人工知能を -
13:18 - 13:23それが逃げ出しても
危険がないように作るということ -
13:23 - 13:25人間と同じ価値観を持っていて
-
13:25 - 13:28人間の側に立つように作る
ということだと思います -
13:28 - 13:32この難しい問題を
避けて通ることはできません -
13:33 - 13:36私はこの問題は
解決できると楽観しています -
13:36 - 13:40私たちが気にかける
あらゆることを書き出し -
13:40 - 13:43さらにはC++やPythonのような
プログラミング言語で -
13:43 - 13:46厳密に定義することは
望みがないくらい難しいことでしょうが -
13:46 - 13:48そうする必要はないと思います
-
13:48 - 13:52自らの知性を使って
人間が価値を置くことを -
13:52 - 13:55学び取る人工知能を
作ればよいのです -
13:55 - 14:01人間の価値を追求し
人間がよしとすることを予測して行動するような -
14:01 - 14:06動機付けのシステムを
持たせるのです -
14:06 - 14:09そうやって価値付けの
問題を解くために -
14:09 - 14:12人工知能の知性を
可能な限り活用するのです -
14:13 - 14:14これは可能なことで
-
14:14 - 14:18人類にとって
とても好ましい結果をもたらします -
14:18 - 14:22しかし自動的に
起きるわけではありません -
14:22 - 14:25知性爆発が人間の制御下で
起きるようにするためには -
14:25 - 14:28初期条件を正しく
-
14:28 - 14:31設定する必要があります
-
14:31 - 14:34人工知能の価値観を人間の価値観と
合ったものにする必要があります -
14:34 - 14:36人工知能が適切に行動しているか
容易に確認できるような -
14:36 - 14:38分かりやすい状況だけでなく
-
14:38 - 14:41将来のいつか人工知能が出会うかもしれない
あらゆる新奇な状況において -
14:41 - 14:43そうなる必要があります
-
14:43 - 14:48それから解決しなければならない
難解な問題がいろいろあります -
14:48 - 14:50決定理論の正確な詳細
-
14:50 - 14:52論理的不確定性をどう扱うか
といったことです -
14:53 - 14:56だからこれを機能させるために
解くべき技術的問題は -
14:56 - 14:58とても難しいものです
-
14:58 - 15:01超知的な人工知能を作ること自体ほど
難しくはないにしても -
15:01 - 15:04かなり難しいことです
-
15:04 - 15:05ひとつ懸念すべきことがあります
-
15:05 - 15:10超知的な人工知能を作るのは
非常に難しいことで -
15:10 - 15:13超知的な人工知能を
安全なものにするのは -
15:13 - 15:16その上にさらなる問題を
重ねることになりますが -
15:16 - 15:20危険があるのは
誰かが安全を確保するという -
15:20 - 15:232番目の問題を解決することなく
-
15:23 - 15:25最初の問題を解く方法を見つける
ということです -
15:25 - 15:29だから私たちは
この制御の問題を -
15:29 - 15:32前もって解決しておくべきだと思います
-
15:32 - 15:34そうすれば必要になったときに
すぐ使えます -
15:35 - 15:38制御の問題のすべてを前もって解決することは
できないかもしれません -
15:38 - 15:41ある部分は実装される
アーキテクチャの詳細が -
15:41 - 15:45明かになって初めて
可能になるかもしれません -
15:45 - 15:49しかし前もって制御の問題の
より多くの部分が解かれているほど -
15:49 - 15:53機械知性の時代への移行が
うまくいく見込みは -
15:53 - 15:54高くなるでしょう
-
15:54 - 15:59これはやるに値することだと
私には思えます -
15:59 - 16:02私には想像できます
すべてがうまくいった暁に -
16:02 - 16:07百万年後の人類が
この世紀を振り返って -
16:07 - 16:10私たちがした本当に重要なことが
何かあるとすれば -
16:10 - 16:13それはこの問題を
正しく解決したことだと言うのを -
16:13 - 16:14ありがとうございました
-
16:14 - 16:17(拍手)
- Title:
- 人工知能が人間より高い知性を持つようになったとき何が起きるか?
- Speaker:
- ニック・ボストロム
- Description:
-
人工知能は飛躍的に知的になっています。ある研究は今世紀中に人工知能が人間並みに知的になると示唆しています。「機械の知性は人類が発明する必要のある最後のものになる」とニック・ボストロムは言います。哲学者であり技術の研究者でもある彼は、我々が構築しつつある考える機械が動かす世界のことをよく考えるよう求めています。我々の作り出す知的な機械は、人類とその価値を守る助けとなるのか、それともそれ自身の思惑を持つようになるのでしょうか?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Yasushi Aoki edited Japanese subtitles for What happens when our computers get smarter than we are? | ||
Yasushi Aoki approved Japanese subtitles for What happens when our computers get smarter than we are? | ||
Yasushi Aoki edited Japanese subtitles for What happens when our computers get smarter than we are? | ||
Yasushi Aoki edited Japanese subtitles for What happens when our computers get smarter than we are? | ||
Yasushi Aoki edited Japanese subtitles for What happens when our computers get smarter than we are? | ||
Masako Kigami accepted Japanese subtitles for What happens when our computers get smarter than we are? | ||
Masako Kigami edited Japanese subtitles for What happens when our computers get smarter than we are? | ||
Masako Kigami edited Japanese subtitles for What happens when our computers get smarter than we are? |