Japanese feliratok

← 文明が自らを滅ぼす方法と、それを避ける4つの道

人類を破滅させるような技術的発明である「黒い玉」を生み出す瀬戸際に我々はいると、哲学者のニック・ボストロムは言います。TEDのクリス・アンダーソンとの鋭く軽妙なこの対談で、ボストロムは我々の発明が手綱を離れたときに直面することになる危険性を描き出し、人類の終焉を避けるためにできることを探ります。

Beágyazókód kérése
23 Languages

Showing Revision 12 created 03/12/2020 by Yasushi Aoki.

  1. (クリス・アンダーソン) ニック・ボストロムさん
  2. あなたはこれまで私達に
    様々なすごいアイデアを示してきました
  3. 20年ほど前には
  4. 我々がシミュレーションの中に
    生きている可能性を示し
  5. もっと最近では
  6. 汎用人工知能が
    どのように酷い結果をもたらしうるか
  7. 鮮やかに描き出しています
  8. 今年は「脆弱世界仮説」なるものを
  9. 論文で発表しようとしています
  10. それを分かりやすく解説してもらおう
    というのが今晩の趣旨です
  11. では始めましょう
  12. いったい どんな仮説なんでしょう?
  13. (ニック・ボストロム) 現在の人間のあり方の

  14. 構造的特徴を
    考察しようというものです
  15. 壺のメタファーが
    お気に召したようなので
  16. それを使って説明しましょう
  17. アイデアや 方法や
    存在しうる技術を表す玉が詰まった
  18. 大きな壺を思い描いてください
  19. 人類の創造性の歴史は
  20. この壺に手を入れて
    玉を取り出していくことだとみなせ
  21. その結果はこれまでのところ
    全体として とても有益でした
  22. たくさんの白い玉が取り出され
  23. 良い面も悪い面もある
    灰色の玉もありました
  24. 黒い玉は まだ取り出されていません
  25. それを取り出した文明は必然的に滅びるような
    テクノロジーということです
  26. 黒い玉として どのようなものが考えられるかを
    論文では探っています
  27. (アンダーソン) 黒い玉は

  28. 文明の崩壊を必然的にもたらすものと
    定義しているんですね
  29. (ボストロム) 「半無秩序的既定条件」と
    呼んでいるものを脱しない限りは

  30. そうなります
  31. (アンダーソン) これまで我々は
    幸運だっただけで

  32. その「死の玉」を そうとは知らずに
    取り出していたかもしれないことを
  33. 例を使って示されていますね
  34. 引用が出ていますが
    これは何ですか?
  35. (ボストロム) 根本的な発見が
    何をもたらすか

  36. 予見するのは難しいことを
    言っています
  37. 我々にそういう能力はないのです
  38. 玉を取り出すのは上手くても
  39. 玉を壺に戻すことは
    できないのです
  40. 発明はできても
    その逆はできません
  41. それに対する
    我々の戦略といえば
  42. 壺の中に黒い玉がないことを
    祈るだけです
  43. (アンダーソン) 玉を取り出したら
    元に戻すことはできず

  44. 我々はこれまで
    幸運だっただけだと ―
  45. 例を使って議論しましょう
  46. いろいろな種類の危険性を
    挙げておられますね
  47. (ボストロム) 一番分かりやすいのは

  48. 大規模な破壊を容易に引き起こせる
    テクノロジーです
  49. 合成生物学などは そういう黒い玉の
    豊かな源になるでしょうが
  50. 他にもいろいろ考えられます
  51. 地球工学とか
  52. 地球温暖化への
    対抗手段になりますが
  53. あまり容易にできても困ります
  54. そのへんにいる人や
    そのおばあちゃんに
  55. 地球の気候を大きく変えられるように
    なってほしくはありません
  56. あるいは自律的暗殺ドローン ―
  57. 大量生産された蚊ほどの大きさの
    殺人ロボットの群れとか
  58. ナノテクノロジーや
    汎用人工知能もそうです
  59. (アンダーソン) 核エネルギーで爆弾を
    作れることが発見されたとき

  60. それが誰でも容易に
    手に入るものでなかったのは
  61. 幸運だっただけという
    議論をされていますね
  62. (ボストロム) 1930年代に
    核物理学の発展があったとき

  63. 頭のいい人たちは気づきました
  64. 連鎖反応を引き起こすことが可能で
  65. それは爆弾になり得ると
  66. その後研究が進められ
  67. 核爆弾を作るには
  68. 高度に濃縮したウランやプルトニウムが
    必要だと分かりましたが
  69. それは入手困難なものです
  70. 超遠心分離機や
    原子炉や
  71. 膨大なエネルギーが
    必要になります
  72. しかし 原子の力を
    容易に解き放てる方法が
  73. もしあったとしたら
    どうでしょう
  74. 電子レンジで
    砂を焼くみたいなことで
  75. 核爆発を起こせたとしたら
  76. 物理学的にあり得ないと
    今では分かっていますが
  77. そういう物理学研究をする前に
    どんな結果になるか
  78. どうして分かるでしょう?
  79. (アンダーソン) 生命が進化するためには

  80. 地球が安定した環境である
    必要があり
  81. 大規模な核反応が
    容易に起こせたとしたら
  82. 地球は安定し得ず
  83. 我々はそもそも存在しなかったはず
    という議論もできるのでは?
  84. (ボストロム) 意図的になら
    簡単にできるけど

  85. 偶然には起きないようなことも
    考えられます
  86. ブロックを10個積み上げるというのは
    簡単にできますが
  87. 自然に積みあがった10個のブロックというのは
    見つからないでしょう
  88. (アンダーソン) これは私達の多くが
    すごく懸念していることで

  89. 近い将来 そういうことが
    最も起きそうに思えるのが
  90. 合成生物学ですね
  91. (ボストロム) その意味するところを
    考えてみましょう

  92. 誰でも午後にちょっと
    台所で作業すると
  93. 都市を壊滅させられる
    のだとしたら
  94. その上で我々の知る現代文明が
    どう生き残れるものか
  95. 想像しにくいでしょう
  96. どんな集団でも
    百万人もいれば
  97. そういう破壊的な力を
    理由はどうあれ
  98. 使おうとする者が
    いるだろうからです
  99. そういう終末論的な人が
  100. 都市を破壊することに決めたら
  101. 破壊されることになるでしょう
  102. (アンダーソン) こちらは別種の危険性ですが

  103. これについて話しましょう
  104. (ボストロム) 多くのものを吹き飛ばすことを
    可能にする黒い玉という

  105. 分かりやすい危険性に加え
  106. 人に有害なことを行わせる
    まずい動機を生み出すという
  107. 危険性もあります
  108. これを 2a型と呼びましょう
  109. 大きな力を破壊に使うよう動機づけるような
    テクノロジーを考えてみてください
  110. 核兵器は実際
    これに近かったと思います
  111. 人類は10兆ドルかけて
    7万発の核弾頭を作り
  112. いつでも撃てる
    状態にしました
  113. 冷戦中に互いを
    吹き飛ばしそうになったことが
  114. 何度かありました
  115. 10兆ドルかけて
    自らを吹き飛ばすのが
  116. いい考えだと
    みんな思ったわけではありません
  117. そうなった動機というのは ―
  118. もっと酷いことにも
    なり得ました
  119. 安全に先制攻撃することが
    可能だったとしてみましょう
  120. 危機的な状況になったとき
  121. 核ミサイルの発射を抑えるのは
  122. 難しかったかもしれません
  123. 相手がそうする
    恐れがあるからです
  124. (アンダーソン) 双方とも壊滅するのが
    確かだったからこそ

  125. 冷戦は比較的安定していたのであって
  126. そうでなければ我々はここに
    いなかったかもしれないと
  127. (ボストロム) もっと不安定だった
    かもしれません

  128. テクノロジーには
    別の特質もあります
  129. もし兵器が核ほど
    破壊的なものでなかったら
  130. 軍縮協定を結ぶのは
    難しかったかもしれません
  131. (アンダーソン) 強大な勢力が
    まずい動機を持つこと同様に

  132. みんながまずい動機を持つことも
    懸念されてますね それがこの2b型です
  133. (ボストロム) 地球温暖化の場合を
    考えてみましょう

  134. 私達がする ちょっとした利便で
  135. 個々の影響は小さいものが
    たくさんあります
  136. でもそれを何十億という人がやると
  137. 全体として大きな害を生じてしまう
  138. 地球温暖化はもっと酷いものでも
    あり得ました
  139. 気候感度パラメータというのがあります
  140. 温室効果ガスをこれだけ出すと
  141. 温度がどれくらい上がるかを示す
    パラメータです
  142. 我々が排出している
    温室効果ガスによって起きる
  143. 2100年の気温上昇が
  144. 3~4.5度というのではなく
  145. 15~20度だったとしたら
  146. 非常にまずい状況でしょう
  147. あるいは再生可能エネルギーの実現が
    ずっと難しかったとしたら
  148. あるいは化石燃料がずっと豊富に
    存在していたとしたら
  149. (アンダーソン) このままいくと
    近い将来に10度上がるのだとしたら

  150. 人類は重い腰を上げて
    何かするのでは?
  151. 我々は愚かですが
    そこまで愚かではありません
  152. いや愚かなのかも
  153. (ボストロム) 私はそれに
    賭けようとは思いません

  154. (笑)

  155. いろいろなことが
    考えられます

  156. 今は再生可能エネルギーに切り替えるのは
    ちょっと大変ですが
  157. 可能なことです
  158. でも物理的なことが
    何か違って
  159. そういうものがずっと
    高くついたかもしれない
  160. (アンダーソン) どう考えておられますか?

  161. そういった可能性を
    考え合わせると
  162. 世界は危険だと
    言えるのでしょうか?
  163. 人類の未来には
    死の玉があるのでしょうか?
  164. (ボストロム) 難しいですが

  165. 壺の中には いろんな黒い玉が
  166. 入っていそうに思えます
  167. また黒い玉から守ってくれる
  168. 金色の玉もあるかもしれません
  169. どちらが先に出てくるか
    分かりませんが
  170. (アンダーソン) この考えに対する
    哲学的な批判は

  171. 未来が決まっているかのようだ
    ということでしょう
  172. その玉があるかないかしかない
  173. 未来がそんなものだとは
    思いたくありません
  174. 未来というのは
    決まっておらず
  175. 我々が今行う決定によって
  176. どんな玉を取り出すことになるか
    決まるのだと思いたいです
  177. (ボストロム) 発明を続けていけば

  178. やがてすべての玉を
    取り出す出すことになるでしょう
  179. もっともだと思える
    弱い形の技術的決定論があり
  180. たとえば石斧とジェット機を使っている
    文明というのは考えにくいです
  181. テクノロジーは一組のアフォーダンスとして
    考えることができます
  182. テクノロジーは
    我々に様々なことができるようにし
  183. 世界にいろいろな効果を
    もたらします
  184. それをどう使うかは
    人間が選択することですが
  185. これら3種の危険性を
    考えるとき
  186. 我々がそれをどう使うかについて
    確度の高い想定ができます
  187. 1型の危険性は
    大きな破壊力ですが
  188. 何百万人もいれば 破壊的な仕方で
    それを使う者が出てくるというのは
  189. きわめてありそうなことです
  190. (アンダーソン) 私にとって
    最も気がかりな議論は

  191. 壺の中を覗いてみる限り
    破滅はどうも起こりそうということです
  192. 力が加速的に
    増大していくと思うなら ―
  193. テクノロジーは本質的に
    加速するものですが
  194. 我々をより強力にしてくれる
    道具を作り続けると
  195. どこかの時点で1人の人間が
    全滅を引き起こせるようになり
  196. 災難は避けがたいと
  197. 不安になる話ですよね?
  198. (ボストロム) まあ確かに

  199. (笑)

  200. 我々はもっと力を手にし

  201. その力を使うのは
    より簡単になるでしょうが
  202. そういう力を人々がどう使うかを
    コントロールするような技術だって
  203. 作れるでしょう
  204. (アンダーソン) それについて話しましょう

  205. 合成生物学だけでなく
  206. サイバー戦争 人工知能など
  207. 今やあらゆる可能性があり
  208. 未来には破滅が
    待っているように見える
  209. それに対してどうすべきか?
  210. あなたは4種の対応について
    議論されてますね
  211. (ボストロム) 技術開発全般を
    まったく止めてしまうような制限というのは

  212. 有望とは思えません
  213. 不可能か
  214. 可能だとしても
    望ましくないでしょう
  215. ごく限られた領域について
    技術の進歩を遅らせるというのであれば
  216. ありだと思います
  217. 生物兵器や
  218. 核兵器を容易に作れるようにする
    同位体分離技術などは
  219. あまり進歩してほしくないでしょう
  220. (アンダーソン) 私も前は
    そう考えていましたが

  221. 少し反対の立場を
    取ってみましょう
  222. この20年くらいの歴史を見れば
  223. 常に全速力で前進していて
  224. それが唯一の選択肢でした
  225. グローバリゼーションの
    急速な展開を見るなら
  226. 「壊しながら速く進む」戦略や
  227. それで何が起きたかを見るなら
  228. 合成生物学の
    可能性を考えるなら
  229. 家庭や学校どこにでも
    DNAプリンターがあるような世界へと
  230. 何の制限もなく急速に
    進んで行くべきなのか疑問です
  231. 制限があるべきでしょう
  232. (ボストロム) 第一に可能でないこと

  233. 開発を止めるのが
    望ましいと思ったとしても
  234. 可能なのかという
    問題があります
  235. 一個の国がやったところで ―
  236. (アンダーソン) 一つの国でやってもだめで

  237. 条約が必要でしょう
  238. そうやって核の危機を乗り越えました
  239. 苦痛な交渉を通じてです
  240. 世界の優先事項として
  241. 合成生物学研究について
    厳格なルールづくりをするための交渉を
  242. 始めるべきではないでしょうか
  243. 誰でもできるように
    したくはありません
  244. (ボストロム) そう思います

  245. たとえばDNA合成装置は
  246. それぞれ実験室で
    所有するのでなく
  247. サービスとして
    提供されるものにするとか
  248. 世界に4、5か所
    設備があって
  249. 設計図を送ると
    DNAが返ってくるというような
  250. 制限が必要と思えるときには
  251. 一定の経路を押さえれば済みます
  252. コントロールするための
    手段ができます
  253. (アンダーソン) 単に押し留めようとしても

  254. 上手くいかないと
    お考えですね
  255. 北朝鮮のような
    どこかの誰かが
  256. そこへ行って
    その知識を手にしたとしたら
  257. (ボストロム) 現状では
    考えられることです

  258. 合成生物学だけでなく
  259. どんなものであれ
    根本的に世界を変えるものは
  260. 黒い玉になりえます
  261. (アンダーソン) 別の対応法を
    見てみましょう

  262. (ボストロム) これも限定的ではありますが

  263. 1型の危険性に対しては
  264. そういった技術を扱える人について
  265. 世界を破壊したいと思うような者の数を
    減らすのが望ましいでしょう
  266. (アンダーソン) この絵は

  267. 顔認識機能を持つドローンが
    世界を飛び回っている図で
  268. 誰か反社会的性向のある人を
    見つけると
  269. 愛を降り注いで治してしまうと
  270. (ボストロム) 妙な取り合わせですが

  271. そういう人間をなくすには
    投獄や殺害だけでなく
  272. 世界の見方を変えるよう説得する
    という手もあり得ます
  273. それがうまくいけば
  274. そういう人の数を
    半分に減らせるかもしれません
  275. 説得という手段を取るなら
  276. 人を説得しようとする
    様々な強い勢力と
  277. 張り合うことになります
  278. 政党とか 宗教とか 教育システムとか
  279. ただ人数を半分にできたとしても
    リスクは半分にはならず
  280. 5%か10%減るくらいでしょう
  281. (アンダーソン) 第2の対応法に
    人類の未来を賭けるのは勧めはしないと

  282. (ボストロム) 説得し思いとどまらせるのは
    いいと思いますが

  283. それを唯一の安全策として
    依存すべきではないでしょう
  284. (アンダーソン) 3番目は何でしょう?

  285. (ボストロム) 様々な
    ありうる危険性に対して

  286. 世界の安定を実現するのに使える
    一般的な方法が2つあると思います
  287. そして その両方が
    必要になるでしょう
  288. 1つは非常に効果の高い
    予防的警察機能です
  289. 妨害のような
  290. 誰かが危険なことを始めたら
  291. リアルタイムで
    妨害し阻止するとか
  292. そのためには誰もが常に
    見張られているような
  293. 偏在的監視が
    必要になるでしょう
  294. (アンダーソン) 『マイノリティ・リポート』の世界ですね

  295. (ボストロム) 人工知能アルゴリズムや

  296. 様々な査察をする自由センターみたいなものが
    用いられるかもしれません
  297. (アンダーソン) 監視社会が
    あんまり好かれていないのは ご存じですよね?

  298. (笑)

  299. (ボストロム) 全方向カメラのついたネックレスを

  300. いつも身に着けるところを
    想像してください
  301. 受け入れやすいように
  302. 「自由の証」みたいな
    ネーミングにするといいかもしれません
  303. (笑)

  304. (アンダーソン) だからびっくりする話だと
    言うんですよ 皆さん

  305. (ボストロム) これに関しては
    当然議論があります

  306. 大きな問題やリスクがあります
  307. それについては
    また話しましょう
  308. 4番目の対応法は
  309. 別のガバナンスの穴を
    埋めるということです
  310. ミクロレベルでは監視は
    違法性の高いことを誰もできなくするという
  311. ガバナンスの穴を埋める手段です
  312. それに対しマクロレベル・世界レベルの
    ガバナンスの穴があります
  313. 最悪の世界的協力の失敗を防ぐために
    この能力を確保しておく必要があります
  314. 大国間の戦争
  315. 軍拡競争
  316. 共有資源が破綻する問題
  317. 2a型の危険性への対処です
  318. (アンダーソン) グローバル・ガバナンスというのは

  319. 時代遅れの言葉に聞こえます
  320. 人類の歴史を通じて
  321. 技術の力が増大するとき
  322. 社会を再編し
    力を集中させてきたという議論は
  323. おできになりますか
  324. たとえば放浪の犯罪者集団が
    社会を牛耳るのに対し
  325. 国家を作り
    権力や警察や軍隊をもって
  326. 「そうはさせない」と言うような
  327. 1人の人間や1つの集団が
    人類を払拭できるとき
  328. そういう道を取らざるを
    得ないのでしょうか?
  329. (ボストロム) 人類の歴史を通して

  330. 政治的組織の規模が
    拡大してきたのは確かです
  331. かつては狩猟採集民の
    集団だったのが
  332. 部族や都市国家や国家が現れ
  333. 今では国際組織があります
  334. 監視社会にもグローバル・ガバナンスにも
  335. 大きなマイナス面やリスクは
    当然あります
  336. 私が言いたいのは
  337. それが黒い玉から世界が生き延びる
    唯一の方法かもしれないということです
  338. (アンダーソン) すべてを
    手に入れることはできないと

  339. 認識する必要がある
    ということのようですね
  340. テクノロジーというのは
    常に良い力で
  341. 止まることなく 可能な限り速く
    進み続けるものと
  342. 私たちの多くは
    思っていますが
  343. 結果に注意を払わなくてよいと
    考えるのは甘く
  344. そうはいかないのだと
  345. もしそれを得ようとするなら
  346. 別の嫌なものを
    受け入れざるを得ない
  347. 自分自身との
    軍拡競争のようなもので
  348. 力が欲しいなら
    制限したほうがよく
  349. どう制限したものか
    考えなきゃいけない
  350. (ボストロム) 魅力的な選択肢です

  351. うまくいくかもしれない
    最も簡単な選択肢ですが
  352. 本質的に黒い玉を取り出す
    危険性があります
  353. 少しばかりの調整をして
  354. マクロガバナンスやマイクロガバナンスの
    問題を解決したなら
  355. 壺からすべての玉を
    取り出して
  356. 大いに恩恵を
    受けることができます
  357. (アンダーソン) 我々がシミュレーションの中に
    生きているなら どうでもよいのでは?

  358. リブートすればいいだけなので
  359. (笑)

  360. (ボストロム) いやはや

  361. (笑)

  362. そうくるとは思いませんでした
  363. (アンダーソン) どう見ておられますか?

  364. すべて考え合わせて
    我々がもうおしまいだという見込みは?
  365. (笑)

  366. この質問でみんな笑ってくれるのは
    いいですね

  367. (ボストロム) 個人のレベルでは

  368. 我々はどの道おしまいです
  369. いずれ年を取り衰えていきます
  370. (笑)

  371. ちょっと難しいのは

  372. 確率を出すためには
  373. まず誰なのかを
    問う必要があることです
  374. 高齢なら自然に死ぬでしょうし
  375. 若いならまだ100年くらい
    あるかもしれず
  376. 誰に聞くかで確率は
    変わってきます
  377. 文明の崩壊と考えられる
    基準は何か?
  378. 論文では 大災害は
    必要になりませんでした
  379. 定義の問題で
  380. 10億人が死ぬとか
  381. 世界のGDPが50%下がるとか
  382. 何を閾値とするかで
  383. 確率的な見込みも
    変わりますが
  384. あなたは私を怯えた楽観主義者と
    みなせるでしょう
  385. (笑)

  386. (アンダーソン) 怯えた楽観主義者のあなたは

  387. たくさんの怯えた人々を
    生み出したところです
  388. (笑)

  389. (ボストロム) シミュレーションの中で

  390. (アンダーソン) シミュレーションの中で

  391. ニック・ボストロムさん
    あなたの頭脳には感服します
  392. 我々を恐怖に陥れてくれて
    ありがとうございました
  393. (拍手)