文明が自らを滅ぼす方法と、それを避ける4つの道
-
0:01 - 0:03(クリス・アンダーソン) ニック・ボストロムさん
-
0:03 - 0:07あなたはこれまで私達に
様々なすごいアイデアを示してきました -
0:07 - 0:0920年ほど前には
-
0:09 - 0:13我々がシミュレーションの中に
生きている可能性を示し -
0:13 - 0:15もっと最近では
-
0:15 - 0:19汎用人工知能が
どのように酷い結果をもたらしうるか -
0:19 - 0:22鮮やかに描き出しています
-
0:22 - 0:26今年は「脆弱世界仮説」なるものを
-
0:26 - 0:29論文で発表しようとしています
-
0:29 - 0:34それを分かりやすく解説してもらおう
というのが今晩の趣旨です -
0:34 - 0:36では始めましょう
-
0:37 - 0:39いったい どんな仮説なんでしょう?
-
0:40 - 0:43(ニック・ボストロム) 現在の人間のあり方の
-
0:43 - 0:46構造的特徴を
考察しようというものです -
0:47 - 0:50壺のメタファーが
お気に召したようなので -
0:50 - 0:52それを使って説明しましょう
-
0:52 - 0:57アイデアや 方法や
存在しうる技術を表す玉が詰まった -
0:57 - 1:00大きな壺を思い描いてください
-
1:01 - 1:05人類の創造性の歴史は
-
1:05 - 1:09この壺に手を入れて
玉を取り出していくことだとみなせ -
1:09 - 1:12その結果はこれまでのところ
全体として とても有益でした -
1:12 - 1:15たくさんの白い玉が取り出され
-
1:15 - 1:18良い面も悪い面もある
灰色の玉もありました -
1:18 - 1:21黒い玉は まだ取り出されていません
-
1:22 - 1:28それを取り出した文明は必然的に滅びるような
テクノロジーということです -
1:28 - 1:31黒い玉として どのようなものが考えられるかを
論文では探っています -
1:31 - 1:33(アンダーソン) 黒い玉は
-
1:33 - 1:37文明の崩壊を必然的にもたらすものと
定義しているんですね -
1:37 - 1:42(ボストロム) 「半無秩序的既定条件」と
呼んでいるものを脱しない限りは -
1:42 - 1:44そうなります
-
1:44 - 1:50(アンダーソン) これまで我々は
幸運だっただけで -
1:50 - 1:56その「死の玉」を そうとは知らずに
取り出していたかもしれないことを -
1:56 - 1:58例を使って示されていますね
-
1:58 - 2:00引用が出ていますが
これは何ですか? -
2:01 - 2:05(ボストロム) 根本的な発見が
何をもたらすか -
2:05 - 2:08予見するのは難しいことを
言っています -
2:08 - 2:11我々にそういう能力はないのです
-
2:11 - 2:15玉を取り出すのは上手くても
-
2:15 - 2:18玉を壺に戻すことは
できないのです -
2:18 - 2:21発明はできても
その逆はできません -
2:22 - 2:24それに対する
我々の戦略といえば -
2:24 - 2:27壺の中に黒い玉がないことを
祈るだけです -
2:27 - 2:30(アンダーソン) 玉を取り出したら
元に戻すことはできず -
2:30 - 2:33我々はこれまで
幸運だっただけだと ― -
2:33 - 2:35例を使って議論しましょう
-
2:35 - 2:38いろいろな種類の危険性を
挙げておられますね -
2:38 - 2:40(ボストロム) 一番分かりやすいのは
-
2:40 - 2:46大規模な破壊を容易に引き起こせる
テクノロジーです -
2:47 - 2:51合成生物学などは そういう黒い玉の
豊かな源になるでしょうが -
2:51 - 2:54他にもいろいろ考えられます
-
2:54 - 2:56地球工学とか
-
2:56 - 2:58地球温暖化への
対抗手段になりますが -
2:58 - 3:01あまり容易にできても困ります
-
3:01 - 3:03そのへんにいる人や
そのおばあちゃんに -
3:03 - 3:06地球の気候を大きく変えられるように
なってほしくはありません -
3:06 - 3:10あるいは自律的暗殺ドローン ―
-
3:10 - 3:13大量生産された蚊ほどの大きさの
殺人ロボットの群れとか -
3:14 - 3:17ナノテクノロジーや
汎用人工知能もそうです -
3:17 - 3:21(アンダーソン) 核エネルギーで爆弾を
作れることが発見されたとき -
3:21 - 3:26それが誰でも容易に
手に入るものでなかったのは -
3:26 - 3:32幸運だっただけという
議論をされていますね -
3:32 - 3:35(ボストロム) 1930年代に
核物理学の発展があったとき -
3:35 - 3:40頭のいい人たちは気づきました
-
3:40 - 3:44連鎖反応を引き起こすことが可能で
-
3:44 - 3:47それは爆弾になり得ると
-
3:47 - 3:49その後研究が進められ
-
3:49 - 3:50核爆弾を作るには
-
3:50 - 3:54高度に濃縮したウランやプルトニウムが
必要だと分かりましたが -
3:54 - 3:56それは入手困難なものです
-
3:56 - 3:59超遠心分離機や
原子炉や -
3:59 - 4:02膨大なエネルギーが
必要になります -
4:02 - 4:05しかし 原子の力を
容易に解き放てる方法が -
4:05 - 4:08もしあったとしたら
どうでしょう -
4:08 - 4:12電子レンジで
砂を焼くみたいなことで -
4:12 - 4:14核爆発を起こせたとしたら
-
4:14 - 4:16物理学的にあり得ないと
今では分かっていますが -
4:16 - 4:19そういう物理学研究をする前に
どんな結果になるか -
4:19 - 4:20どうして分かるでしょう?
-
4:20 - 4:22(アンダーソン) 生命が進化するためには
-
4:22 - 4:27地球が安定した環境である
必要があり -
4:27 - 4:30大規模な核反応が
容易に起こせたとしたら -
4:30 - 4:32地球は安定し得ず
-
4:32 - 4:35我々はそもそも存在しなかったはず
という議論もできるのでは? -
4:35 - 4:38(ボストロム) 意図的になら
簡単にできるけど -
4:38 - 4:41偶然には起きないようなことも
考えられます -
4:41 - 4:45ブロックを10個積み上げるというのは
簡単にできますが -
4:45 - 4:48自然に積みあがった10個のブロックというのは
見つからないでしょう -
4:48 - 4:52(アンダーソン) これは私達の多くが
すごく懸念していることで -
4:52 - 4:55近い将来 そういうことが
最も起きそうに思えるのが -
4:55 - 4:58合成生物学ですね
-
4:58 - 5:01(ボストロム) その意味するところを
考えてみましょう -
5:01 - 5:05誰でも午後にちょっと
台所で作業すると -
5:05 - 5:07都市を壊滅させられる
のだとしたら -
5:07 - 5:10その上で我々の知る現代文明が
どう生き残れるものか -
5:10 - 5:12想像しにくいでしょう
-
5:12 - 5:14どんな集団でも
百万人もいれば -
5:14 - 5:17そういう破壊的な力を
理由はどうあれ -
5:17 - 5:19使おうとする者が
いるだろうからです -
5:20 - 5:23そういう終末論的な人が
-
5:23 - 5:25都市を破壊することに決めたら
-
5:25 - 5:26破壊されることになるでしょう
-
5:26 - 5:29(アンダーソン) こちらは別種の危険性ですが
-
5:29 - 5:31これについて話しましょう
-
5:31 - 5:35(ボストロム) 多くのものを吹き飛ばすことを
可能にする黒い玉という -
5:35 - 5:37分かりやすい危険性に加え
-
5:37 - 5:42人に有害なことを行わせる
まずい動機を生み出すという -
5:42 - 5:44危険性もあります
-
5:44 - 5:48これを 2a型と呼びましょう
-
5:48 - 5:57大きな力を破壊に使うよう動機づけるような
テクノロジーを考えてみてください -
5:57 - 6:00核兵器は実際
これに近かったと思います -
6:02 - 6:08人類は10兆ドルかけて
7万発の核弾頭を作り -
6:08 - 6:10いつでも撃てる
状態にしました -
6:10 - 6:12冷戦中に互いを
吹き飛ばしそうになったことが -
6:12 - 6:14何度かありました
-
6:14 - 6:1710兆ドルかけて
自らを吹き飛ばすのが -
6:17 - 6:19いい考えだと
みんな思ったわけではありません -
6:19 - 6:22そうなった動機というのは ―
-
6:22 - 6:24もっと酷いことにも
なり得ました -
6:24 - 6:26安全に先制攻撃することが
可能だったとしてみましょう -
6:26 - 6:29危機的な状況になったとき
-
6:29 - 6:31核ミサイルの発射を抑えるのは
-
6:31 - 6:33難しかったかもしれません
-
6:33 - 6:36相手がそうする
恐れがあるからです -
6:36 - 6:38(アンダーソン) 双方とも壊滅するのが
確かだったからこそ -
6:38 - 6:41冷戦は比較的安定していたのであって
-
6:41 - 6:43そうでなければ我々はここに
いなかったかもしれないと -
6:43 - 6:44(ボストロム) もっと不安定だった
かもしれません -
6:44 - 6:46テクノロジーには
別の特質もあります -
6:46 - 6:50もし兵器が核ほど
破壊的なものでなかったら -
6:50 - 6:54軍縮協定を結ぶのは
難しかったかもしれません -
6:54 - 6:57(アンダーソン) 強大な勢力が
まずい動機を持つこと同様に -
6:57 - 7:00みんながまずい動機を持つことも
懸念されてますね それがこの2b型です -
7:00 - 7:05(ボストロム) 地球温暖化の場合を
考えてみましょう -
7:07 - 7:09私達がする ちょっとした利便で
-
7:09 - 7:14個々の影響は小さいものが
たくさんあります -
7:14 - 7:16でもそれを何十億という人がやると
-
7:16 - 7:18全体として大きな害を生じてしまう
-
7:18 - 7:21地球温暖化はもっと酷いものでも
あり得ました -
7:21 - 7:24気候感度パラメータというのがあります
-
7:24 - 7:28温室効果ガスをこれだけ出すと
-
7:28 - 7:30温度がどれくらい上がるかを示す
パラメータです -
7:30 - 7:35我々が排出している
温室効果ガスによって起きる -
7:35 - 7:372100年の気温上昇が
-
7:37 - 7:413~4.5度というのではなく
-
7:41 - 7:4415~20度だったとしたら
-
7:44 - 7:47非常にまずい状況でしょう
-
7:47 - 7:50あるいは再生可能エネルギーの実現が
ずっと難しかったとしたら -
7:50 - 7:52あるいは化石燃料がずっと豊富に
存在していたとしたら -
7:52 - 7:59(アンダーソン) このままいくと
近い将来に10度上がるのだとしたら -
7:59 - 8:05人類は重い腰を上げて
何かするのでは? -
8:05 - 8:08我々は愚かですが
そこまで愚かではありません -
8:08 - 8:10いや愚かなのかも
-
8:10 - 8:12(ボストロム) 私はそれに
賭けようとは思いません -
8:12 - 8:13(笑)
-
8:13 - 8:15いろいろなことが
考えられます -
8:15 - 8:20今は再生可能エネルギーに切り替えるのは
ちょっと大変ですが -
8:20 - 8:22可能なことです
-
8:22 - 8:25でも物理的なことが
何か違って -
8:25 - 8:28そういうものがずっと
高くついたかもしれない -
8:28 - 8:30(アンダーソン) どう考えておられますか?
-
8:30 - 8:32そういった可能性を
考え合わせると -
8:32 - 8:38世界は危険だと
言えるのでしょうか? -
8:38 - 8:41人類の未来には
死の玉があるのでしょうか? -
8:44 - 8:45(ボストロム) 難しいですが
-
8:45 - 8:49壺の中には いろんな黒い玉が
-
8:49 - 8:52入っていそうに思えます
-
8:52 - 8:54また黒い玉から守ってくれる
-
8:54 - 8:58金色の玉もあるかもしれません
-
8:58 - 9:01どちらが先に出てくるか
分かりませんが -
9:01 - 9:04(アンダーソン) この考えに対する
哲学的な批判は -
9:04 - 9:10未来が決まっているかのようだ
ということでしょう -
9:10 - 9:13その玉があるかないかしかない
-
9:13 - 9:18未来がそんなものだとは
思いたくありません -
9:18 - 9:20未来というのは
決まっておらず -
9:20 - 9:23我々が今行う決定によって
-
9:23 - 9:26どんな玉を取り出すことになるか
決まるのだと思いたいです -
9:26 - 9:30(ボストロム) 発明を続けていけば
-
9:30 - 9:33やがてすべての玉を
取り出す出すことになるでしょう -
9:33 - 9:38もっともだと思える
弱い形の技術的決定論があり -
9:38 - 9:43たとえば石斧とジェット機を使っている
文明というのは考えにくいです -
9:44 - 9:48テクノロジーは一組のアフォーダンスとして
考えることができます -
9:48 - 9:51テクノロジーは
我々に様々なことができるようにし -
9:51 - 9:54世界にいろいろな効果を
もたらします -
9:54 - 9:56それをどう使うかは
人間が選択することですが -
9:56 - 9:59これら3種の危険性を
考えるとき -
9:59 - 10:02我々がそれをどう使うかについて
確度の高い想定ができます -
10:02 - 10:061型の危険性は
大きな破壊力ですが -
10:06 - 10:10何百万人もいれば 破壊的な仕方で
それを使う者が出てくるというのは -
10:10 - 10:12きわめてありそうなことです
-
10:12 - 10:15(アンダーソン) 私にとって
最も気がかりな議論は -
10:15 - 10:23壺の中を覗いてみる限り
破滅はどうも起こりそうということです -
10:23 - 10:28力が加速的に
増大していくと思うなら ― -
10:28 - 10:30テクノロジーは本質的に
加速するものですが -
10:30 - 10:33我々をより強力にしてくれる
道具を作り続けると -
10:33 - 10:38どこかの時点で1人の人間が
全滅を引き起こせるようになり -
10:38 - 10:41災難は避けがたいと
-
10:41 - 10:44不安になる話ですよね?
-
10:44 - 10:46(ボストロム) まあ確かに
-
10:47 - 10:48(笑)
-
10:48 - 10:52我々はもっと力を手にし
-
10:52 - 10:56その力を使うのは
より簡単になるでしょうが -
10:56 - 11:00そういう力を人々がどう使うかを
コントロールするような技術だって -
11:00 - 11:02作れるでしょう
-
11:02 - 11:05(アンダーソン) それについて話しましょう
-
11:05 - 11:08合成生物学だけでなく
-
11:08 - 11:12サイバー戦争 人工知能など
-
11:12 - 11:17今やあらゆる可能性があり
-
11:17 - 11:21未来には破滅が
待っているように見える -
11:21 - 11:23それに対してどうすべきか?
-
11:23 - 11:28あなたは4種の対応について
議論されてますね -
11:28 - 11:31(ボストロム) 技術開発全般を
まったく止めてしまうような制限というのは -
11:31 - 11:35有望とは思えません
-
11:35 - 11:36不可能か
-
11:36 - 11:38可能だとしても
望ましくないでしょう -
11:38 - 11:42ごく限られた領域について
技術の進歩を遅らせるというのであれば -
11:42 - 11:44ありだと思います
-
11:44 - 11:46生物兵器や
-
11:46 - 11:50核兵器を容易に作れるようにする
同位体分離技術などは -
11:50 - 11:52あまり進歩してほしくないでしょう
-
11:53 - 11:56(アンダーソン) 私も前は
そう考えていましたが -
11:56 - 11:59少し反対の立場を
取ってみましょう -
11:59 - 12:03この20年くらいの歴史を見れば
-
12:03 - 12:07常に全速力で前進していて
-
12:07 - 12:09それが唯一の選択肢でした
-
12:09 - 12:13グローバリゼーションの
急速な展開を見るなら -
12:13 - 12:16「壊しながら速く進む」戦略や
-
12:16 - 12:19それで何が起きたかを見るなら
-
12:19 - 12:21合成生物学の
可能性を考えるなら -
12:21 - 12:27家庭や学校どこにでも
DNAプリンターがあるような世界へと -
12:27 - 12:33何の制限もなく急速に
進んで行くべきなのか疑問です -
12:33 - 12:35制限があるべきでしょう
-
12:35 - 12:38(ボストロム) 第一に可能でないこと
-
12:38 - 12:40開発を止めるのが
望ましいと思ったとしても -
12:40 - 12:42可能なのかという
問題があります -
12:42 - 12:44一個の国がやったところで ―
-
12:44 - 12:46(アンダーソン) 一つの国でやってもだめで
-
12:46 - 12:49条約が必要でしょう
-
12:49 - 12:53そうやって核の危機を乗り越えました
-
12:53 - 12:56苦痛な交渉を通じてです
-
12:56 - 13:00世界の優先事項として
-
13:00 - 13:06合成生物学研究について
厳格なルールづくりをするための交渉を -
13:06 - 13:09始めるべきではないでしょうか
-
13:09 - 13:12誰でもできるように
したくはありません -
13:12 - 13:14(ボストロム) そう思います
-
13:14 - 13:18たとえばDNA合成装置は
-
13:18 - 13:23それぞれ実験室で
所有するのでなく -
13:23 - 13:27サービスとして
提供されるものにするとか -
13:27 - 13:29世界に4、5か所
設備があって -
13:29 - 13:33設計図を送ると
DNAが返ってくるというような -
13:33 - 13:37制限が必要と思えるときには
-
13:37 - 13:39一定の経路を押さえれば済みます
-
13:39 - 13:45コントロールするための
手段ができます -
13:45 - 13:47(アンダーソン) 単に押し留めようとしても
-
13:47 - 13:50上手くいかないと
お考えですね -
13:50 - 13:52北朝鮮のような
どこかの誰かが -
13:52 - 13:57そこへ行って
その知識を手にしたとしたら -
13:57 - 14:00(ボストロム) 現状では
考えられることです -
14:00 - 14:02合成生物学だけでなく
-
14:02 - 14:04どんなものであれ
根本的に世界を変えるものは -
14:04 - 14:06黒い玉になりえます
-
14:06 - 14:08(アンダーソン) 別の対応法を
見てみましょう -
14:08 - 14:10(ボストロム) これも限定的ではありますが
-
14:10 - 14:141型の危険性に対しては
-
14:14 - 14:17そういった技術を扱える人について
-
14:17 - 14:22世界を破壊したいと思うような者の数を
減らすのが望ましいでしょう -
14:22 - 14:24(アンダーソン) この絵は
-
14:24 - 14:28顔認識機能を持つドローンが
世界を飛び回っている図で -
14:28 - 14:31誰か反社会的性向のある人を
見つけると -
14:31 - 14:34愛を降り注いで治してしまうと
-
14:34 - 14:36(ボストロム) 妙な取り合わせですが
-
14:36 - 14:40そういう人間をなくすには
投獄や殺害だけでなく -
14:40 - 14:43世界の見方を変えるよう説得する
という手もあり得ます -
14:43 - 14:45それがうまくいけば
-
14:45 - 14:50そういう人の数を
半分に減らせるかもしれません -
14:50 - 14:52説得という手段を取るなら
-
14:52 - 14:54人を説得しようとする
様々な強い勢力と -
14:54 - 14:56張り合うことになります
-
14:56 - 14:58政党とか 宗教とか 教育システムとか
-
14:58 - 15:02ただ人数を半分にできたとしても
リスクは半分にはならず -
15:02 - 15:045%か10%減るくらいでしょう
-
15:04 - 15:08(アンダーソン) 第2の対応法に
人類の未来を賭けるのは勧めはしないと -
15:08 - 15:11(ボストロム) 説得し思いとどまらせるのは
いいと思いますが -
15:11 - 15:14それを唯一の安全策として
依存すべきではないでしょう -
15:14 - 15:15(アンダーソン) 3番目は何でしょう?
-
15:15 - 15:19(ボストロム) 様々な
ありうる危険性に対して -
15:19 - 15:25世界の安定を実現するのに使える
一般的な方法が2つあると思います -
15:25 - 15:27そして その両方が
必要になるでしょう -
15:27 - 15:331つは非常に効果の高い
予防的警察機能です -
15:33 - 15:35妨害のような
-
15:35 - 15:38誰かが危険なことを始めたら
-
15:38 - 15:40リアルタイムで
妨害し阻止するとか -
15:40 - 15:43そのためには誰もが常に
見張られているような -
15:43 - 15:46偏在的監視が
必要になるでしょう -
15:46 - 15:49(アンダーソン) 『マイノリティ・リポート』の世界ですね
-
15:49 - 15:51(ボストロム) 人工知能アルゴリズムや
-
15:51 - 15:56様々な査察をする自由センターみたいなものが
用いられるかもしれません -
15:57 - 16:01(アンダーソン) 監視社会が
あんまり好かれていないのは ご存じですよね? -
16:01 - 16:02(笑)
-
16:03 - 16:06(ボストロム) 全方向カメラのついたネックレスを
-
16:06 - 16:11いつも身に着けるところを
想像してください -
16:12 - 16:14受け入れやすいように
-
16:14 - 16:16「自由の証」みたいな
ネーミングにするといいかもしれません -
16:16 - 16:18(笑)
-
16:18 - 16:25(アンダーソン) だからびっくりする話だと
言うんですよ 皆さん -
16:25 - 16:29(ボストロム) これに関しては
当然議論があります -
16:29 - 16:32大きな問題やリスクがあります
-
16:32 - 16:33それについては
また話しましょう -
16:33 - 16:344番目の対応法は
-
16:34 - 16:39別のガバナンスの穴を
埋めるということです -
16:39 - 16:43ミクロレベルでは監視は
違法性の高いことを誰もできなくするという -
16:43 - 16:46ガバナンスの穴を埋める手段です
-
16:46 - 16:51それに対しマクロレベル・世界レベルの
ガバナンスの穴があります -
16:51 - 16:57最悪の世界的協力の失敗を防ぐために
この能力を確保しておく必要があります -
16:57 - 17:01大国間の戦争
-
17:01 - 17:03軍拡競争
-
17:04 - 17:06共有資源が破綻する問題
-
17:08 - 17:122a型の危険性への対処です
-
17:12 - 17:14(アンダーソン) グローバル・ガバナンスというのは
-
17:14 - 17:16時代遅れの言葉に聞こえます
-
17:16 - 17:18人類の歴史を通じて
-
17:18 - 17:20技術の力が増大するとき
-
17:20 - 17:25社会を再編し
力を集中させてきたという議論は -
17:25 - 17:29おできになりますか
-
17:29 - 17:34たとえば放浪の犯罪者集団が
社会を牛耳るのに対し -
17:34 - 17:38国家を作り
権力や警察や軍隊をもって -
17:38 - 17:40「そうはさせない」と言うような
-
17:40 - 17:461人の人間や1つの集団が
人類を払拭できるとき -
17:46 - 17:51そういう道を取らざるを
得ないのでしょうか? -
17:51 - 17:53(ボストロム) 人類の歴史を通して
-
17:53 - 17:57政治的組織の規模が
拡大してきたのは確かです -
17:57 - 17:59かつては狩猟採集民の
集団だったのが -
17:59 - 18:02部族や都市国家や国家が現れ
-
18:02 - 18:05今では国際組織があります
-
18:05 - 18:09監視社会にもグローバル・ガバナンスにも
-
18:09 - 18:16大きなマイナス面やリスクは
当然あります -
18:16 - 18:18私が言いたいのは
-
18:18 - 18:22それが黒い玉から世界が生き延びる
唯一の方法かもしれないということです -
18:22 - 18:25(アンダーソン) すべてを
手に入れることはできないと -
18:25 - 18:30認識する必要がある
ということのようですね -
18:30 - 18:34テクノロジーというのは
常に良い力で -
18:34 - 18:40止まることなく 可能な限り速く
進み続けるものと -
18:40 - 18:43私たちの多くは
思っていますが -
18:43 - 18:45結果に注意を払わなくてよいと
考えるのは甘く -
18:45 - 18:47そうはいかないのだと
-
18:47 - 18:50もしそれを得ようとするなら
-
18:50 - 18:54別の嫌なものを
受け入れざるを得ない -
18:54 - 18:56自分自身との
軍拡競争のようなもので -
18:56 - 18:59力が欲しいなら
制限したほうがよく -
18:59 - 19:01どう制限したものか
考えなきゃいけない -
19:01 - 19:04(ボストロム) 魅力的な選択肢です
-
19:04 - 19:09うまくいくかもしれない
最も簡単な選択肢ですが -
19:09 - 19:13本質的に黒い玉を取り出す
危険性があります -
19:13 - 19:16少しばかりの調整をして
-
19:16 - 19:20マクロガバナンスやマイクロガバナンスの
問題を解決したなら -
19:20 - 19:22壺からすべての玉を
取り出して -
19:22 - 19:25大いに恩恵を
受けることができます -
19:25 - 19:28(アンダーソン) 我々がシミュレーションの中に
生きているなら どうでもよいのでは? -
19:28 - 19:29リブートすればいいだけなので
-
19:29 - 19:31(笑)
-
19:31 - 19:33(ボストロム) いやはや
-
19:33 - 19:35(笑)
-
19:35 - 19:37そうくるとは思いませんでした
-
19:38 - 19:39(アンダーソン) どう見ておられますか?
-
19:39 - 19:44すべて考え合わせて
我々がもうおしまいだという見込みは? -
19:44 - 19:46(笑)
-
19:47 - 19:49この質問でみんな笑ってくれるのは
いいですね -
19:49 - 19:51(ボストロム) 個人のレベルでは
-
19:51 - 19:54我々はどの道おしまいです
-
19:54 - 19:57いずれ年を取り衰えていきます
-
19:57 - 19:59(笑)
-
19:59 - 20:01ちょっと難しいのは
-
20:01 - 20:02確率を出すためには
-
20:02 - 20:05まず誰なのかを
問う必要があることです -
20:05 - 20:07高齢なら自然に死ぬでしょうし
-
20:07 - 20:10若いならまだ100年くらい
あるかもしれず -
20:10 - 20:13誰に聞くかで確率は
変わってきます -
20:13 - 20:16文明の崩壊と考えられる
基準は何か? -
20:16 - 20:23論文では 大災害は
必要になりませんでした -
20:23 - 20:25定義の問題で
-
20:25 - 20:2610億人が死ぬとか
-
20:26 - 20:29世界のGDPが50%下がるとか
-
20:29 - 20:31何を閾値とするかで
-
20:31 - 20:33確率的な見込みも
変わりますが -
20:33 - 20:37あなたは私を怯えた楽観主義者と
みなせるでしょう -
20:37 - 20:38(笑)
-
20:38 - 20:40(アンダーソン) 怯えた楽観主義者のあなたは
-
20:40 - 20:46たくさんの怯えた人々を
生み出したところです -
20:46 - 20:46(笑)
-
20:46 - 20:48(ボストロム) シミュレーションの中で
-
20:48 - 20:49(アンダーソン) シミュレーションの中で
-
20:49 - 20:51ニック・ボストロムさん
あなたの頭脳には感服します -
20:51 - 20:54我々を恐怖に陥れてくれて
ありがとうございました -
20:54 - 20:56(拍手)
- Title:
- 文明が自らを滅ぼす方法と、それを避ける4つの道
- Speaker:
- ニック・ボストロム
- Description:
-
人類を破滅させるような技術的発明である「黒い玉」を生み出す瀬戸際に我々はいると、哲学者のニック・ボストロムは言います。TEDのクリス・アンダーソンとの鋭く軽妙なこの対談で、ボストロムは我々の発明が手綱を離れたときに直面することになる危険性を描き出し、人類の終焉を避けるためにできることを探ります。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
Yasushi Aoki approved Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Yasushi Aoki edited Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masako Kigami accepted Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masako Kigami edited Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Masako Kigami edited Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Yasushi Aoki edited Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Yasushi Aoki edited Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Yasushi Aoki edited Japanese subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |