人間より優れた人工知能を作って制御を失わずにいることは可能か?
-
0:01 - 0:03我々の多くが抱えている―
-
0:03 - 0:05直感の誤りについて
お話しします -
0:05 - 0:09正確には ある種の危険を
察知し損なうということです -
0:09 - 0:11これから説明するシナリオは
-
0:11 - 0:14私の考えでは
恐ろしいと同時に -
0:14 - 0:17起こりそうなこと
でもあります -
0:17 - 0:19ありがたくない
組み合わせですね -
0:19 - 0:20考えてみたら
-
0:20 - 0:23しかも 多くの人が
それを恐れるよりは -
0:23 - 0:25素敵なことのように
感じています -
0:25 - 0:28人工知能によって
我々がどのように利益を得 -
0:28 - 0:32そして最終的には
破滅を招きかねないか お話しします -
0:32 - 0:34人工知能が
人類を破滅させたり -
0:34 - 0:36自滅に追い込んだりしない
シナリオは -
0:36 - 0:37実際 考えにくい気がします
-
0:37 - 0:39それでも皆さんが
私と同じなら -
0:39 - 0:42そういったことについて考えるのは
楽しいことでしょう -
0:42 - 0:45その反応自体が問題なのです
-
0:45 - 0:48そういう反応は
懸念すべきです -
0:48 - 0:50仮にこの講演で
私の訴えていることが -
0:50 - 0:54地球温暖化や
何かの大異変のため -
0:54 - 0:57世界的な飢饉がやってくる
ということだったとしましょう -
0:57 - 1:01私たちの孫や
その孫の世代は -
1:01 - 1:03この写真のような
有様になるんだと -
1:03 - 1:05その場合
こうは思わないでしょう -
1:05 - 1:07「やあ 面白いな
-
1:07 - 1:09このTEDトーク気に入ったよ」
-
1:09 - 1:12飢饉は楽しいもの
ではありません -
1:12 - 1:15一方で SFの中の破滅は
楽しいものなのです -
1:15 - 1:19今の時点で AIの発展について
私が最も懸念するのは -
1:19 - 1:21将来に待ち受けている
危険に対して -
1:21 - 1:25我々が感情的に適切な反応を
できずにいることです -
1:25 - 1:29こう話している私自身
そういう反応をできずにいます -
1:30 - 1:33我々は2つの扉を前に
立っているようなものです -
1:33 - 1:341つ目の扉の先には
-
1:34 - 1:37知的な機械の開発をやめるという
道があります -
1:37 - 1:41ハードウェアやソフトウェアの進歩が
何らかの理由で止まるのです -
1:41 - 1:45そういうことが起きうる要因を
ちょっと考えてみましょう -
1:45 - 1:49自動化やインテリジェント化によって
得られる価値を考えれば -
1:49 - 1:53人間は可能な限り
テクノロジーを進歩させ続けるはずです -
1:53 - 1:56それが止まるとしたら
理由は何でしょう? -
1:56 - 1:58全面核戦争とか
-
1:59 - 2:01世界的な疫病の大流行とか
-
2:02 - 2:04小惑星の衝突とか
-
2:06 - 2:08ジャスティン・ビーバーの
大統領就任とか -
2:08 - 2:11(笑)
-
2:13 - 2:17要は 何かで現在の文明が
崩壊する必要があるということです -
2:17 - 2:21それがどんなに ひどい事態であるはずか
考えてみてください -
2:21 - 2:24技術の進歩を
-
2:24 - 2:25幾世代にもわたり
-
2:25 - 2:28半永久的に妨げるようなことです
-
2:28 - 2:30ほぼ間違いなく
-
2:30 - 2:32人類史上
最悪の出来事でしょう -
2:32 - 2:34もう1つの選択肢
-
2:34 - 2:362番目の扉の
向こうにあるのは -
2:36 - 2:39知的な機械の進歩が
-
2:39 - 2:42ずっと続いていく未来です
-
2:42 - 2:46するとどこかの時点で 人間よりも
知的な機械を作ることになるでしょう -
2:46 - 2:48そしてひとたび
人間より知的な機械が生まれたなら -
2:48 - 2:51機械は自分で
進化していくでしょう -
2:51 - 2:53そうなると我々は 数学者
I・J・グッドが言うところの -
2:53 - 2:55「知能爆発」の
リスクに直面します -
2:55 - 2:58進歩のプロセスが
人間の手を離れてしまうのです -
2:58 - 3:00それはこの絵のような
-
3:00 - 3:04悪意を持つロボットの大群に
襲われる恐怖として -
3:04 - 3:05よく戯画化されています
-
3:05 - 3:08でもそれは ごくありそうな
シナリオではないでしょう -
3:08 - 3:13別に機械が悪意に目覚めるという
わけではありません -
3:13 - 3:15本当に 心配すべきなのは
-
3:15 - 3:18人間よりもはるかに優れた
機械を作ってしまうと -
3:18 - 3:21人間と機械の目的の
ほんのわずかなズレによって -
3:21 - 3:24人類が破滅しかねないと
いうことです -
3:24 - 3:26人類がアリのような存在になると
考えるといいです -
3:27 - 3:28我々は アリが
嫌いなわけではなく -
3:28 - 3:30わざわざ 潰しに
行きはしません -
3:30 - 3:33潰してしまわないように
気を遣いさえして -
3:33 - 3:35アリを避けて歩きます
-
3:35 - 3:36でもアリの存在が
-
3:36 - 3:39我々の目的と衝突した時—
-
3:39 - 3:42たとえばこんな建造物を
作るという場合には -
3:42 - 3:44良心の呵責なしに
アリを全滅させてしまいます -
3:44 - 3:46私が懸念するのは
-
3:46 - 3:49意識的にせよ無意識にせよ
-
3:49 - 3:54人類をそのように軽く扱う機械を
我々がいつか作ってしまうことです -
3:54 - 3:57考えすぎだと 多くの方は
思っていることでしょう -
3:57 - 4:01超知的AIの実現可能性を
疑問視し -
4:01 - 4:05ましてや不可避などとは
思わない人もいるでしょう -
4:05 - 4:09でも それなら これから挙げる仮定に
間違いを見つけてほしいものです -
4:09 - 4:11仮定は3つだけです
-
4:12 - 4:17知性とは物質的なシステムにおける
情報処理である -
4:17 - 4:20実際これは
仮定以上のものです -
4:20 - 4:23狭い意味での知性なら
もう機械で作り出されており -
4:23 - 4:25そのような機械はすでに
-
4:25 - 4:29人間を超える水準に
達しています -
4:29 - 4:31そして様々な分野にわたって
-
4:31 - 4:34柔軟に思考できる能力である
「汎用知能」は -
4:34 - 4:38物質で構成可能なことを
我々は知っています -
4:38 - 4:41なぜなら人間の脳が
そうだからです -
4:41 - 4:45ここにあるのは
ただの原子の塊です -
4:45 - 4:49より知的な振る舞いをする
-
4:49 - 4:52原子でできたシステムの構築を
続けていくなら -
4:52 - 4:55何かで中断させられない限りは
-
4:55 - 4:57いつか汎用知能を
-
4:57 - 4:59機械で作り出すことに
なるでしょう -
4:59 - 5:03重要なのは ここで進歩のスピードは
問題ではないことです -
5:03 - 5:06どんな進歩であれ
そこに至るのに十分だからです -
5:06 - 5:10ムーアの法則の持続も
指数爆発的な進歩も必要ありません -
5:10 - 5:13ただ続けていくだけで
いいのです -
5:13 - 5:17第2の仮定は
人間が進み続けていくこと -
5:17 - 5:20我々が知的な機械の
改良を続けていくことです -
5:21 - 5:25知性の価値を考えてください
-
5:25 - 5:29知性は 我々が価値を置くもの
すべての源泉 -
5:29 - 5:32価値を置くものを守るために
必要なものです -
5:32 - 5:34我々が持つ
最も貴重なリソースです -
5:34 - 5:36我々は それを必要としています
-
5:36 - 5:39我々は解決すべき問題を
抱えています -
5:39 - 5:43アルツハイマーやガンのような病気を
治したいと思っています -
5:43 - 5:47経済の仕組みを理解したい
気象科学をもっと良くしたいと思っています -
5:47 - 5:50だから 可能であれば
やるはずです -
5:50 - 5:53列車はすでに駅を出発していて
ブレーキはありません -
5:54 - 5:593番目は 人間は知性の
頂点にはおらず -
5:59 - 6:02その近くにすら
いないということ -
6:02 - 6:03これは重要な洞察であり
-
6:03 - 6:06我々の状況を
危うくするものです -
6:06 - 6:11これはまた リスクについての我々の勘が
当てにならない理由でもあります -
6:11 - 6:14史上最も頭の良い人間について
考えてみましょう -
6:15 - 6:18ほぼ必ず上がってくる名前に
フォン・ノイマンがあります -
6:18 - 6:20ノイマンの周囲には
-
6:20 - 6:23当時の 最も優れた数学者や
物理学者がいたわけですが -
6:23 - 6:28人々がノイマンから受けた印象については
いろいろ記述されています -
6:28 - 6:31ノイマンにまつわる話で 半分でも
正しいものが 半分だけだったとしても -
6:31 - 6:32疑いなく彼は
-
6:32 - 6:35これまでに生きた最も頭の良い
人間の1人です -
6:35 - 6:38知能の分布を考えてみましょう
-
6:38 - 6:41ここにフォン・ノイマンがいて
-
6:41 - 6:44この辺に私や皆さんがいて
-
6:44 - 6:46この辺にニワトリがいます
-
6:46 - 6:47(笑)
-
6:47 - 6:49失敬 ニワトリはこの辺です
-
6:49 - 6:50(笑)
-
6:50 - 6:54元々滅入る話をさらに滅入るものに
することもないでしょう -
6:54 - 6:55(笑)
-
6:56 - 7:00知能の分布には
今の我々に想像できるよりも -
7:00 - 7:03はるかに大きな広がりが
あることでしょう -
7:04 - 7:07そして我々が
人間よりも知的な機械を作ったなら -
7:07 - 7:09それはこの知能の地平を
-
7:09 - 7:12我々の想像が
及ばないくらい遠くまで -
7:12 - 7:14進んでいくことでしょう
-
7:15 - 7:19重要なのは スピードの点だけを取っても
それは確かだということです -
7:19 - 7:22スタンフォードやMITの
-
7:22 - 7:25平均的な研究者並みの
知能を持つ -
7:25 - 7:30超知的AIができたとしましょう
-
7:30 - 7:33電子回路は
生化学的回路より -
7:33 - 7:35100万倍も高速に稼働します
-
7:35 - 7:37その機械は
それを作り出した頭脳よりも -
7:37 - 7:39100万倍速く
働くということです -
7:39 - 7:42だから1週間稼働させておくと
-
7:42 - 7:46人間並みの知的作業を
2万年分こなすことになります -
7:46 - 7:48毎週毎週です
-
7:50 - 7:52そのような進歩をする頭脳は
-
7:52 - 7:56抑えるどころか理解することすら
おぼつかないでしょう -
7:56 - 8:00正直言って 心配なことが
他にもあります -
8:00 - 8:04それなら最良のシナリオは
どんなものでしょう? -
8:04 - 8:08安全性について心配のない
超知的AIのデザインを -
8:08 - 8:10思い付いたとします
-
8:10 - 8:13完璧なデザインを
最初に手にすることができた -
8:13 - 8:15神のお告げで
与えられたかのように -
8:15 - 8:17まったく意図したとおりに
振る舞います -
8:17 - 8:22その機械は人間の労働を不要にする
完璧な装置になります -
8:22 - 8:24どんな肉体労働もこなす
機械を作るための -
8:24 - 8:26機械をデザインでき
-
8:26 - 8:27太陽光で稼働し
-
8:27 - 8:30原材料費くらいしか
かかりません -
8:30 - 8:33人間は苦役から
解放されます -
8:33 - 8:37知的な仕事の多くすら
不要になります -
8:37 - 8:40そのような状況で 我々のようなサルは
何をするのでしょう? -
8:40 - 8:45気ままにフリスビーしたり
マッサージし合ったりでしょうか -
8:46 - 8:49それにLSDと
奇抜な服を加えるなら -
8:49 - 8:52世界中がバーニングマンの
お祭りのようになるかもしれません -
8:52 - 8:53(笑)
-
8:54 - 8:57それも結構かもしれませんが
-
8:57 - 9:00現在の政治経済状況の元で
-
9:00 - 9:03どんなことが起きるだろうか
考えてみてください -
9:03 - 9:05経済格差や失業が
-
9:05 - 9:08かつてない規模で生じる
-
9:08 - 9:11可能性が高いでしょう
-
9:11 - 9:12この新しい富を即座に
-
9:12 - 9:15全人類に進んで
提供する気がなければ -
9:16 - 9:19一握りの兆万長者が
ビジネス誌の表紙を飾る一方で -
9:19 - 9:22残りの人々は
飢えることになるでしょう -
9:22 - 9:25シリコンバレーの会社が
-
9:25 - 9:28超知的AIを展開しようと
していると聞いたら -
9:28 - 9:30ロシアや中国は
どうするでしょう? -
9:30 - 9:32その機械は 地上戦であれ
サイバー戦であれ -
9:32 - 9:34かつてない力でもって
-
9:34 - 9:38戦争を遂行する
能力があります -
9:38 - 9:40勝者がすべてを
手にするシナリオです -
9:40 - 9:43競争で半年
先んじることで -
9:43 - 9:45少なくとも50万年分
-
9:45 - 9:47先を行くことが
できるのです -
9:47 - 9:52そのような技術革新の
噂だけでも -
9:52 - 9:55世界中が大騒ぎに
なるでしょう -
9:55 - 9:57今の時点で私が
-
9:57 - 10:00いちばんゾッとするのは
-
10:00 - 10:04AI研究者が
安心させようとして -
10:04 - 10:07言うたぐいのことです
-
10:07 - 10:10心配すべきでない理由として
よく言われるのは 時間です -
10:10 - 10:13そんなのは ずっと先の話で
-
10:13 - 10:1550年とか100年も先の話だと
-
10:16 - 10:17ある研究者は
-
10:17 - 10:19「AIの安全性を懸念するのは
-
10:19 - 10:22火星の人口過剰を心配するようなものだ」と
言っています -
10:22 - 10:25これは「あなたの小さな頭を
そんなことで悩ませないで」というやつの -
10:25 - 10:26シリコンバレー版です
-
10:26 - 10:27(笑)
-
10:27 - 10:30誰も気付いていない
ように見えるのは -
10:30 - 10:32時間的スケールは
-
10:32 - 10:35この際 無関係だと
いうことです -
10:35 - 10:38知性の実体が
情報処理にすぎず -
10:38 - 10:41人類が 機械の改良を
続けていくなら -
10:41 - 10:44いずれ何らかの形の
超知性を生み出すことになるでしょう -
10:44 - 10:48それを安全に行える
条件を作り出すのに -
10:48 - 10:51どれくらい時間がかかるのか
我々には 見当も付きません -
10:52 - 10:53もう一度言いましょう
-
10:54 - 10:57それを安全に行える
条件を作り出すのに -
10:57 - 11:01どれくらい時間がかかるのか
我々には 見当も付きません -
11:01 - 11:04今の50年というのは
かつての50年とは違っています -
11:04 - 11:07これは 50年を月の数で
表したものです -
11:07 - 11:09これはiPhoneが
登場してからの時間 -
11:09 - 11:13これは『シンプソンズ』の放送が
始まってからの時間 -
11:13 - 11:15人類最大の難問に
取り組む時間としては -
11:15 - 11:1950年というのは
そんなに 長いものではありません -
11:20 - 11:23繰り返しになりますが
必ずやってくると思われるものに対して -
11:23 - 11:27我々は感情的に適切な反応を
できずにいるようです -
11:27 - 11:31コンピューター科学者のスチュワート・
ラッセルが うまい例えをしています -
11:31 - 11:33異星の文明から
-
11:33 - 11:37こんなメッセージを受け取ったと
想像してください -
11:37 - 11:39「地球の諸君
-
11:39 - 11:42あと50年で
我々はそちらに着く -
11:42 - 11:43準備されたし」
-
11:43 - 11:48我々は 彼らの母船が着陸する時を
ただ指折り数えて待つのでしょうか? -
11:48 - 11:52もう少し 切迫感を抱くのでは
ないかと思います -
11:52 - 11:55心配無用だとされる
別の理由は -
11:55 - 11:58そういった機械は
人間の延長であり -
11:58 - 12:00人間と同じ価値観を
持つはずだというものです -
12:00 - 12:02我々の脳に接続され
-
12:02 - 12:05人間はその辺縁系のような
存在になるのだと -
12:05 - 12:07ちょっと考えてほしいんですが
-
12:07 - 12:08最も安全で
-
12:08 - 12:11唯一分別のあるやり方として
勧められているのは -
12:11 - 12:15その技術を直接自分の脳に
埋め込むことだと言うのです -
12:15 - 12:18それは実際に 最も安全で
唯一分別のあるやり方なのかもしれませんが -
12:18 - 12:21テクノロジーに対する安全性の懸念は
ふつうであれば— -
12:21 - 12:25頭に埋め込む前に解消されている
べきではないでしょうか -
12:25 - 12:27(笑)
-
12:27 - 12:32より根深い問題点は
超知的AIを作ること自体は -
12:32 - 12:34超知的AIを作り
-
12:34 - 12:36かつ それを人間の脳に
統合するための -
12:36 - 12:39神経科学を
完成させることよりは -
12:39 - 12:41簡単だろうことです
-
12:41 - 12:44これに取り組む国や企業は
-
12:44 - 12:47他の国や企業と競争を
していると認識しており -
12:47 - 12:51勝者が全世界を
手に入れられるのだとすれば— -
12:51 - 12:54次の瞬間に破滅させて
いたら別ですが— -
12:54 - 12:55そのような状況においては
-
12:55 - 12:58何にせよ簡単な方が
先に成し遂げられることでしょう -
12:58 - 13:01あいにく 私はこの問題への答えを
持ち合わせてはおらず -
13:01 - 13:04ただもっと考えてみるように
お勧めするだけです -
13:04 - 13:07人工知能のための
「マンハッタン計画」のようなものが -
13:07 - 13:08必要なのでは
ないかと思います -
13:08 - 13:11作るためではありません
それは不可避でしょうから -
13:11 - 13:14軍拡競争のようになるのを
いかに避けられるか探り -
13:14 - 13:18人類の利益にかなうように
それが作られるようにするためです -
13:18 - 13:20超知的AIが
-
13:20 - 13:23自身を変えていけることを
考えると -
13:23 - 13:27それを正しく作れるチャンスは
1度しかないでしょう -
13:27 - 13:30しかもその上で
それを正しくやるための -
13:30 - 13:33政治的・経済的な帰結を
受け入れる必要があります -
13:34 - 13:37知性の源は情報処理だと—
-
13:37 - 13:41知性の基礎をなしているのは
-
13:41 - 13:46ある種の計算システムである
ということを認め -
13:46 - 13:51人類がそういうシステムを継続的に
改良していくだろうことを認め -
13:51 - 13:55そして認知の地平は
我々に今分かっているよりも -
13:55 - 13:58はるか遠くまで
続いているであろうことを認めるとき -
13:58 - 14:01我々はある種の神を
作ろうとしていることを -
14:01 - 14:03認めないわけには
いかないでしょう -
14:03 - 14:06その神が一緒にやっていける相手か
確認したいなら -
14:06 - 14:08今がその時です
-
14:08 - 14:10ありがとうございました
-
14:10 - 14:15(拍手)
- Title:
- 人間より優れた人工知能を作って制御を失わずにいることは可能か?
- Speaker:
- サム・ハリス
- Description:
-
高度な知性を持つAI(人工知能)を怖いと感じますか? 神経科学者であり思想家であるサム・ハリスは、単に理論的な可能性としてでなく、実際に怖れるべきだと警告します。人間を超える知力を持つAIがやがて作られることになるが、人間がアリを扱うように人間を扱うAIを作ることの問題に、我々はきちんと向き合っていないと、彼は指摘します。
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Yasushi Aoki approved Japanese subtitles for Can we build AI without losing control over it? | |
![]() |
Kaori Nozaki accepted Japanese subtitles for Can we build AI without losing control over it? | |
![]() |
Yasushi Aoki edited Japanese subtitles for Can we build AI without losing control over it? | |
![]() |
Yasushi Aoki edited Japanese subtitles for Can we build AI without losing control over it? | |
![]() |
Kaori Nozaki declined Japanese subtitles for Can we build AI without losing control over it? | |
![]() |
Kaori Nozaki edited Japanese subtitles for Can we build AI without losing control over it? | |
![]() |
Kaori Nozaki edited Japanese subtitles for Can we build AI without losing control over it? | |
![]() |
Yasushi Aoki edited Japanese subtitles for Can we build AI without losing control over it? |