Return to Video

文明如何自我毀滅 一免於毀滅的四種方法

  • 0:01 - 0:07
    克里斯.安德森:尼克.博斯特倫。
    你已經給了我們好多瘋狂的點子。
  • 0:07 - 0:09
    我想,幾十年前,
  • 0:09 - 0:11
    你提出我們都可能
    生活在模擬世界當中,
  • 0:11 - 0:13
    或者是真的。
  • 0:13 - 0:15
    最近,
  • 0:15 - 0:19
    你利用最生動的例子
    說明了通用人工智慧
  • 0:19 - 0:21
    可能出現嚴重的問題。
  • 0:22 - 0:23
    當前,
  • 0:23 - 0:25
    你準備出版
  • 0:25 - 0:29
    一篇論文,說明所謂
    「脆弱世界的假設」。
  • 0:29 - 0:34
    今晚,我們要跟大家說明它。
  • 0:34 - 0:36
    咱們開始吧!
  • 0:37 - 0:39
    那個假設是什麼?
  • 0:40 - 0:42
    尼克.博斯特倫:它就是嘗試去考慮
  • 0:42 - 0:46
    目前人類狀況的結構性特徵。
  • 0:47 - 0:49
    你喜歡甕的比喻吧,
  • 0:49 - 0:51
    這就讓我用它來說明好了。
  • 0:51 - 0:56
    想像一個大甕,裡面裝滿了小球,
  • 0:56 - 1:00
    小球代表理念、方法、潛在的科技。
  • 1:01 - 1:05
    你可以把人類創意的歷史,
  • 1:05 - 1:09
    想像成將手伸入這個甕,
    把球逐個拿出來的過程,
  • 1:09 - 1:12
    到目前為止的淨效應是非常好。
  • 1:12 - 1:14
    我們已經取出了許多白球,
  • 1:14 - 1:18
    和一些不同深淺灰色的球:
    表示好壞參半。
  • 1:18 - 1:21
    目前我們還沒有拿出黑球來——
  • 1:22 - 1:28
    黑球代表是一種科技,
    無可避免毀滅發明它的文明。
  • 1:28 - 1:31
    所以,這篇論文是在試圖
    思考黑球可能會是什麼。
  • 1:31 - 1:33
    克:所以你把它定義為
  • 1:33 - 1:37
    勢必造成毀滅文明的小球。
  • 1:37 - 1:42
    尼:除非我們能夠離開
    我所謂的默認半無政府狀態。
  • 1:42 - 1:43
    但我們在這常態中。
  • 1:44 - 1:48
    克:所以,你說服大家
  • 1:48 - 1:50
    是提出一些反例,
  • 1:50 - 1:53
    從中你相信我們目前很走運,
  • 1:53 - 1:56
    還未在不知不覺中
  • 1:56 - 1:57
    拿到這個死球。
  • 1:57 - 2:00
    你的一句引述,是什麼?
  • 2:01 - 2:03
    尼:它的本意是要說明
  • 2:03 - 2:08
    很難從基本的發現
    預測將來會導致什麼後果。
  • 2:08 - 2:11
    我們其實就是沒有能力。
  • 2:11 - 2:15
    因為我們很擅長把球拿出來,
  • 2:15 - 2:18
    卻沒有能力把球放回甕中。
  • 2:18 - 2:21
    我們可以發明,但卻無法反發明。
  • 2:21 - 2:24
    看樣子,我們的策略應該是
  • 2:24 - 2:27
    期望甕中沒有黑球。
  • 2:27 - 2:31
    克:所以,一旦把黑球拿出來,
    就是不能放回去,
  • 2:31 - 2:32
    你認為我們運氣很好。
  • 2:32 - 2:35
    就跟我們談幾個例子吧。
  • 2:35 - 2:37
    你曾說過有不同類型的脆弱性。
  • 2:38 - 2:40
    尼:最容易理解的類型,
  • 2:40 - 2:43
    要算容易造成
  • 2:43 - 2:46
    大量破壞的科技。
  • 2:47 - 2:51
    合成生物學新穎的想法
    可能產出許多毀滅性的黑球,
  • 2:51 - 2:54
    但也有許多其他可能性——
  • 2:54 - 2:56
    想想很棒的地球工程吧!
  • 2:56 - 2:58
    我們能夠對抗全球暖化,
  • 2:58 - 3:00
    但也不能太容易,
  • 3:00 - 3:03
    你不想要任何一個人,甚至自己的祖母
  • 3:03 - 3:06
    都可以改變地球的氣候。
  • 3:06 - 3:10
    甚或是致命的自主無人機,
  • 3:10 - 3:13
    在大量生產像蚊子般大小、
    成群的機器殺手。
  • 3:14 - 3:17
    也包括奈米技術和通用人工智慧。
  • 3:17 - 3:19
    克:在論文中,你認為
  • 3:19 - 3:21
    當我們發現可用核能製造炸彈時,
  • 3:22 - 3:25
    那是一場運氣,
  • 3:25 - 3:26
    本來也有可能變成是
  • 3:26 - 3:28
    用唾手可得的簡單資源
  • 3:28 - 3:32
    可製造炸彈。
  • 3:32 - 3:35
    尼:是的,回想 30 年代,
  • 3:35 - 3:40
    我們在核子物理學的領域上,
    第一次有重大的突破,
  • 3:40 - 3:44
    有些天才發現,
    有辦法可以製造核能連鎖反應,
  • 3:44 - 3:47
    接著,他們發現這種技術
    可以用來製作炸彈。
  • 3:47 - 3:49
    我們再盡了一些努力,
  • 3:49 - 3:52
    結果發現,要製造出一顆核彈,
  • 3:52 - 3:54
    需要的是高度濃縮的鈾或鈽,
  • 3:54 - 3:56
    這些是非常難得的材料。
  • 3:56 - 3:58
    你會需要超高速的離心機,
  • 3:58 - 4:02
    也需要反應爐,類似大量的能源。
  • 4:02 - 4:04
    但若果換成
  • 4:04 - 4:08
    用一種簡單的方法
    就可以將原子能量釋放。
  • 4:08 - 4:11
    好像將沙子放到微波爐中加熱,
  • 4:11 - 4:12
    那般容易的方法,
  • 4:12 - 4:14
    你就可以製造核爆炸。
  • 4:14 - 4:16
    現在我們知道那是不可能的。
  • 4:16 - 4:18
    但未經相關物理學驗證之前,
  • 4:18 - 4:20
    你又如何知道結果?
  • 4:21 - 4:22
    克:你為什麼不主張
  • 4:22 - 4:24
    在地球上生命的演化,
  • 4:24 - 4:27
    需要有某種穩定的環境;
  • 4:27 - 4:32
    若相對容易就能
    製造出大規模的核反應,
  • 4:32 - 4:33
    地球就不可能穩定,
  • 4:33 - 4:35
    我們不可能存活至今。
  • 4:35 - 4:38
    尼:是的,除非很容易
    刻意地去做某種事,
  • 4:38 - 4:41
    但那不會偶然發生。
  • 4:41 - 4:43
    我們很容易做一些事,
  • 4:43 - 4:45
    比如可能把十塊積木疊起來,
  • 4:45 - 4:48
    但在大自然中,你不會
    看到十塊東西疊在一起。
  • 4:48 - 4:50
    克:好,那可能是我們許多人
  • 4:50 - 4:52
    最擔心的事,
  • 4:52 - 4:55
    那合成生物學可能是
  • 4:55 - 4:58
    讓我們在不遠的將來
    到達那裡的最快途徑。
  • 4:58 - 5:01
    尼:是的,所以,
    想想這意味著什麼。
  • 5:01 - 5:05
    比如,人人在自己的廚房,
    花上一個下午的時間,
  • 5:05 - 5:07
    就能摧毀一個城市。
  • 5:07 - 5:10
    很難想像我們的現代文明,
  • 5:10 - 5:12
    在這種情況下能存活。
  • 5:12 - 5:14
    因為,在任何一百萬人口中,
  • 5:14 - 5:17
    一定會有些人,
    不論出於什麼理由,
  • 5:17 - 5:19
    選擇使用具毀滅性的力量。
  • 5:20 - 5:23
    如果那末世餘孽
  • 5:23 - 5:25
    選擇摧毀一個城市,糟糕的是
  • 5:25 - 5:26
    那城市真的被摧毀了。
  • 5:26 - 5:29
    克:所以,這是另一種脆弱。
  • 5:29 - 5:31
    跟我們談談這個吧!
  • 5:31 - 5:35
    尼:所以,除了
    這幾類明顯的黑球
  • 5:35 - 5:37
    有可能會把很多東西炸掉之外,
  • 5:37 - 5:42
    其他類型的運作方式
    會創造不良的動機,
  • 5:42 - 5:44
    驅使人類去做有害的事。
  • 5:44 - 5:48
    所以,我們所謂的 2a 類別,
  • 5:48 - 5:53
    就是思想有些科技能夠激勵大國
  • 5:53 - 5:57
    去使用他們強大的力量造成毀滅。
  • 5:57 - 6:00
    核武就非常接近這一類吧﹗
  • 6:02 - 6:05
    我們所做的是花超過十兆美元
  • 6:05 - 6:08
    建造七萬個核子彈頭,
  • 6:08 - 6:10
    全處在一觸即發的警戒狀態。
  • 6:10 - 6:12
    在冷戰期間曾經有好幾次,
  • 6:12 - 6:14
    幾乎就要把彼此毀掉。
  • 6:14 - 6:16
    非因許多人認為這是個好點子,
  • 6:16 - 6:19
    咱們就花十兆美元把自己毀掉,
  • 6:19 - 6:22
    但激勵我們的,是我們發現
  • 6:22 - 6:23
    還未發生更糟糕的事情。
  • 6:23 - 6:26
    想像一下,若有人為自保
    不顧一切先開戰。
  • 6:26 - 6:29
    那就可能會非常難搞了,
  • 6:29 - 6:30
    在危難的情況中,
  • 6:30 - 6:33
    很難阻止他們發射
    所有的核子飛彈。
  • 6:33 - 6:35
    但你也害怕另一方可能會同樣做。
  • 6:35 - 6:38
    克:是的,相互制衡的毀滅
  • 6:38 - 6:41
    讓冷戰狀況變得相對穩定,
  • 6:41 - 6:42
    我們現在才可在這裡。
  • 6:42 - 6:44
    尼:原本的情況是更壞。
  • 6:44 - 6:46
    科技的其他特性,
  • 6:46 - 6:50
    可能影響更難簽定這個武器條約,
  • 6:50 - 6:51
    比如用的不是核武,
  • 6:51 - 6:54
    而是更小或更不顯眼的武器。
  • 6:54 - 6:56
    克:除強大的執行者外、
  • 6:56 - 7:00
    你擔心所有人都會有不良誘因:
    這就是 2b 類型。
  • 7:00 - 7:05
    尼:是的,這方面
    可以用全球暖化當例子。
  • 7:07 - 7:08
    有很多小小的便利,
  • 7:08 - 7:11
    讓我們每個人都很容易做這些事情,
  • 7:11 - 7:14
    單獨來看,並沒有顯著的影響吧﹗
  • 7:14 - 7:16
    但當數十億人都這麼做時,
  • 7:16 - 7:18
    日積月累,就產生破壞性的影響。
  • 7:18 - 7:21
    全球暖化的情況,
    可能比本來的更糟。
  • 7:21 - 7:24
    所以,我們有氣候敏感度參數。
  • 7:24 - 7:28
    這個參數代表的是,
    你釋放的溫室氣體
  • 7:28 - 7:30
    與氣溫上升成正比。
  • 7:30 - 7:33
    但假設發生的狀況是,
  • 7:33 - 7:35
    我們釋放了這麼大量的溫室氣體,
  • 7:35 - 7:41
    比如,溫度並沒有在 2100 年
    預計的範圍內上升 3 ~ 4.5 度,
  • 7:41 - 7:44
    假如是跳升至 15 或 20 度。
  • 7:44 - 7:46
    那我們就糟糕了。
  • 7:46 - 7:49
    又假設可再生能源計劃,
    比預期的更難實現。
  • 7:49 - 7:52
    或者是地底下有更多的化石燃料。
  • 7:52 - 7:55
    克:你可否抗辯以下的情況——
  • 7:55 - 7:57
    如果我們現在的行為
  • 7:57 - 8:02
    在我們能預見的期間
    造成了 10 度的差距,
  • 8:02 - 8:05
    那人類就會醒覺為此做點事。
  • 8:06 - 8:08
    我們是笨的,但也未必那麼笨。
  • 8:08 - 8:10
    克:也許是。
    尼:我就不敢賭。
  • 8:10 - 8:13
    (笑聲)
  • 8:13 - 8:15
    可以想像其他特徵。
  • 8:15 - 8:20
    目前,有點難轉換到
    可再生能源或其它東西,
  • 8:20 - 8:21
    但這是可行的。
  • 8:21 - 8:25
    本來是有可能,
    但若物理學上有些微的不同,
  • 8:25 - 8:27
    要做到這些事,就可能會昂貴許多。
  • 8:28 - 8:32
    克:尼克,你的看法是否認為,
    把這些可能性結合起來,
  • 8:32 - 8:38
    包括這個地球、我們人類,
    就算是個脆弱的世界嗎?
  • 8:38 - 8:41
    也可以算是未來的一顆死亡黑球嗎?
  • 8:44 - 8:45
    尼:這很難說。
  • 8:45 - 8:50
    我認為在甕中會有幾個不同的黑球,
  • 8:50 - 8:51
    看起來是這樣。
  • 8:51 - 8:54
    可能也會有一些金球,
  • 8:54 - 8:58
    能協助保護我們,對抗黑球。
  • 8:58 - 9:01
    我不知道這些球
    會以什麼順序出現。
  • 9:01 - 9:04
    克:對這個想法,
    可能會有一種哲學上的批評,
  • 9:04 - 9:10
    觀點就是,未來的情況,
    基本上是已經定了。
  • 9:10 - 9:13
    黑球有就有,沒有就沒有。
  • 9:13 - 9:16
    在某種意義上,
  • 9:16 - 9:18
    我並不想要相信這種未來的觀點。
  • 9:18 - 9:20
    我相信未來是尚未被決定的,
  • 9:20 - 9:23
    我們現今的取向會決定
  • 9:23 - 9:25
    我們從甕中取出哪種球。
  • 9:26 - 9:30
    尼:如果我們持繼創造和發明,
  • 9:30 - 9:32
    我們最終會把所有的球都取出來。
  • 9:33 - 9:36
    我認為科技決定論有種較弱的形式,
  • 9:36 - 9:37
    是滿有道理的,
  • 9:37 - 9:40
    像是,你不太可能會遇到一個社會
  • 9:40 - 9:43
    會同時使用燧石斧和噴射機。
  • 9:44 - 9:48
    但你幾乎可以把一項科技
    想成是一組功能。
  • 9:48 - 9:52
    所以,科技能讓我們去做各種事,
    在世上達成不同效果。
  • 9:52 - 9:56
    當然,如何使用它
    就是人類的選擇了。
  • 9:56 - 9:59
    但我們想想這三種類型的弱點,
  • 9:59 - 10:02
    苐一個假設的脆弱性,
    是選擇如何使用科技。
  • 10:02 - 10:06
    所以,這個脆弱的地方,
    是在於巨大力量的毀滅性,
  • 10:06 - 10:07
    假設在數百萬人中,
  • 10:07 - 10:09
    有人利用科技作毀滅性用途,
  • 10:09 - 10:13
    這是我們人類相當薄弱的一環。
  • 10:13 - 10:15
    克:對我來說最受不了的論點,
  • 10:15 - 10:20
    就是我們覺得這個甕裡面的東西,
  • 10:20 - 10:23
    很可能意味著我們會完蛋。
  • 10:23 - 10:28
    也就是說,如果你相信科技的加速力,
  • 10:28 - 10:30
    也就是科技加速的本質,
  • 10:30 - 10:33
    我們建造這些讓我們更強大的工具,
  • 10:33 - 10:35
    導致某人某時可能
  • 10:35 - 10:38
    把我們全部拖垮,
  • 10:38 - 10:41
    讓我們陷入已經完蛋的窘境。
  • 10:41 - 10:44
    這樣的論點不是一個警訊嗎?
  • 10:44 - 10:46
    尼:嗯,沒錯。
  • 10:47 - 10:48
    (笑聲)
  • 10:48 - 10:49
    我覺得——
  • 10:51 - 10:54
    沒錯,我們的力量越來越強大,
  • 10:54 - 10:56
    運用這些力量也越容易,
  • 10:56 - 10:58
    但也可發明一些科技,
  • 10:58 - 11:02
    幫助我們控制人們
    如何運用這些力量。
  • 11:02 - 11:04
    克:我們聊聊如何應對吧。
  • 11:04 - 11:10
    假設現有的所有可能性——
  • 11:10 - 11:13
    不只是合成生物學,
    其他像是網路戰、
  • 11:13 - 11:17
    人工智慧等等——
  • 11:17 - 11:21
    在未來可能帶來嚴重性的毀滅。
  • 11:21 - 11:23
    又有哪些應對的方法呢?
  • 11:23 - 11:28
    你也提到了四個可能的應對方法。
  • 11:28 - 11:31
    尼:限制科技發展,似乎用處不大,
  • 11:31 - 11:35
    或無條件停止科技發展。
  • 11:35 - 11:38
    甚至於我們有能力做到,
    都不可能實現。
  • 11:38 - 11:41
    有少數幾個領域,
  • 11:41 - 11:44
    你或許會希望科技的發展
    來得慢一點。
  • 11:44 - 11:47
    我覺得,你不會希望生物武器,
  • 11:47 - 11:49
    或同位素分離技術,
  • 11:49 - 11:52
    促成核子武器的,加快的發展。
  • 11:53 - 11:56
    克:我以前完全支持這個論點。
  • 11:56 - 11:59
    但我想反思一下。
  • 11:59 - 12:03
    首先,就過去至少數十年的歷史來看,
  • 12:03 - 12:07
    科技一直是以全速發展。
  • 12:07 - 12:09
    只是我們的選擇而已。
  • 12:09 - 12:12
    但如果你加速全球化的情形,
  • 12:12 - 12:16
    以「快速行動,
    打破成規」的策略來看,
  • 12:16 - 12:19
    是發生了什麼事,
  • 12:19 - 12:21
    接著再看看合成生物學的潛力,
  • 12:21 - 12:27
    我不知道我們是否應該
    無限制地快速前進,
  • 12:27 - 12:30
    造就每個家庭和高中實驗室
  • 12:30 - 12:33
    都擁有一部 DNA 印表機的世界。
  • 12:33 - 12:35
    限制還是應該存在的。
  • 12:35 - 12:38
    尼:或者第一部分是不可行。
  • 12:38 - 12:40
    如果你認為應該要阻止它,
  • 12:40 - 12:41
    那就存在可行性的問題。
  • 12:42 - 12:44
    所以如果只有一個國家
    是沒有幫助——
  • 12:44 - 12:46
    克:我同意,
  • 12:46 - 12:49
    但我們之前是有條約約束的。
  • 12:49 - 12:53
    經歷了痛苦的談判過程,
  • 12:53 - 12:57
    讓我們在核武的威脅下仍然存活。
  • 12:57 - 13:00
    我只想知道,邏輯是:
  • 13:00 - 13:02
    作為全球的優先事項,
  • 13:02 - 13:04
    我們不是應該試著,
  • 13:04 - 13:09
    比方說,就合成生物研究
    的方向做談判,
  • 13:09 - 13:12
    這不是你想要的民主化東西嗎?
  • 13:12 - 13:14
    尼:我完全同意——
  • 13:14 - 13:18
    可取的方法是,比方說,
  • 13:18 - 13:25
    或許不是每個實驗室
    都有一台 DNA 合成的機器,
  • 13:25 - 13:27
    而是用服務的形式存在。
  • 13:27 - 13:29
    或許你把數位基因模型寄到四五處,
  • 13:29 - 13:33
    就可收到合成的基因圖譜了。
  • 13:33 - 13:37
    這樣一來,你有能力,
    在萬一有需要的話,
  • 13:37 - 13:39
    就可以加以制約。
  • 13:39 - 13:43
    所以我認為應該要找到一些
  • 13:43 - 13:45
    能夠有效控制的特殊方法。
  • 13:45 - 13:47
    克:基本上你的信念是對的,
  • 13:47 - 13:50
    但只用拖後腿的方法,不會成功。
  • 13:50 - 13:52
    某地某人——在北韓——
  • 13:52 - 13:56
    如果在那裡發現一些知識,
  • 13:56 - 13:57
    如果能找到的話。
  • 13:57 - 13:59
    尼:就目前是有可能的。
  • 13:59 - 14:01
    也不單單是合成生物學。
  • 14:01 - 14:04
    出現任何一種深邃的新改變
  • 14:04 - 14:05
    都可能成為黑球。
  • 14:05 - 14:07
    克:且談另一個應對吧﹗
  • 14:07 - 14:10
    尼:這個應對方法的潛力也有限。
  • 14:10 - 14:14
    回到第一型的脆弱去,
  • 14:14 - 14:19
    如果你可以減少毀滅世界的人數,
    那受激動的人,只能接觸
  • 14:19 - 14:22
    良善的方式和通道,
    是不錯的做法。
  • 14:22 - 14:24
    克:你要求我們製作的這張圖,
  • 14:24 - 14:27
    設想是擁有臉部辨識能力的
    無人機在全世界飛行。
  • 14:27 - 14:31
    當它們偵測到某些人
    有反社會行為的跡象,
  • 14:31 - 14:33
    給他們沐浴以愛,
  • 14:33 - 14:34
    導正他們。
  • 14:34 - 14:36
    尼:我想這是一幅混合圖。
  • 14:36 - 14:40
    消除可以意味著監禁,或是殺戮,
  • 14:40 - 14:41
    也可以解釋成說服他們
  • 14:41 - 14:43
    欣賞那美好的世界。
  • 14:43 - 14:47
    重點是,假設這個做法非常成功,
  • 14:47 - 14:50
    把這些人的數量減少了一半。
  • 14:50 - 14:52
    如果你想用說服的方法,
  • 14:52 - 14:54
    那就是抗衡其他強大力量,
  • 14:54 - 14:57
    也同樣嘗試說服民眾、團體、
    宗教和教育體系。
  • 14:57 - 14:59
    假設你能成功減少一半人數,
  • 14:59 - 15:02
    但我也不認為風險會減半。
  • 15:02 - 15:04
    也許只是百分之五或十。
  • 15:04 - 15:06
    克:你不建議我們把人性的未來
  • 15:06 - 15:08
    押在第二個應對方法上。
  • 15:08 - 15:11
    尼:我認為阻止或說服人們
    是沒有問題的,
  • 15:11 - 15:13
    但我們不應該以此
  • 15:13 - 15:14
    作唯一的保障。
  • 15:14 - 15:15
    克:應對三呢?
  • 15:15 - 15:18
    尼:一般來說可有兩種方法,
  • 15:18 - 15:25
    用在穩定世界、
    填補可能發生的漏洞。
  • 15:25 - 15:27
    兩個方法都可能用到。
  • 15:27 - 15:31
    其中一個極度有效地
  • 15:31 - 15:33
    執行防範及維安的任務。
  • 15:33 - 15:35
    這就可以阻止出現差錯。
  • 15:35 - 15:38
    如果有人從事危害的行動,
  • 15:38 - 15:40
    就可以在第一時間阻止他們。
  • 15:40 - 15:43
    這需要全面性的監控,
  • 15:43 - 15:45
    所有人無時無刻都被監視著。
  • 15:46 - 15:49
    克:在某種形式上,
    就像電影『關鍵報告』。
  • 15:49 - 15:51
    尼:你可能用人工智能演算法、
  • 15:51 - 15:55
    在大型的自由中心
    來檢視這些東西等等。
  • 15:57 - 15:59
    克:你知道大規模監控這個詞
  • 15:59 - 16:01
    現在不太受歡迎。
  • 16:01 - 16:03
    (笑聲)
  • 16:03 - 16:05
    尼:這個小型裝置,
  • 16:05 - 16:08
    想像你要一直戴著這種
  • 16:08 - 16:11
    配備多角度攝影機的項鍊。
  • 16:12 - 16:14
    但為了讓它更容易被大眾接受,
  • 16:14 - 16:16
    稱它為「自由標記」之類。
  • 16:16 - 16:18
    (笑聲)
  • 16:18 - 16:19
    克:好的。
  • 16:19 - 16:22
    各位,對談就是這樣,
  • 16:22 - 16:25
    可以出現這段驚嚇的對話。
  • 16:25 - 16:29
    尼:針對這個議題
    明顯地就有一場大討論。
  • 16:29 - 16:32
    有很大的問題跟風險存在吧﹗
  • 16:32 - 16:33
    我們可回頭再談。
  • 16:33 - 16:37
    另外一個穩定世界的方法,
    在某種程度上
  • 16:37 - 16:39
    填補了治理差距。
  • 16:39 - 16:43
    監控治理差距,就是在微觀層面上,
  • 16:43 - 16:46
    防範有人做出極端的違法行為。
  • 16:46 - 16:49
    相對地,在巨觀層面,
    也就是世界層面上,
  • 16:49 - 16:50
    也存在治理差距。
  • 16:50 - 16:55
    你需要有可靠的能力
  • 16:55 - 16:58
    來防止全球最壞的一種——
    協調上的失敗,
  • 16:58 - 17:01
    避免大國的互相爭鬥、
  • 17:01 - 17:06
    軍備競賽、災難性的公共問題,
  • 17:08 - 17:12
    來處理 2a 型的弱點。
  • 17:12 - 17:16
    克:全球治理是個
    已經退流行的名詞了,
  • 17:16 - 17:20
    但你能夠提出充分的理由來說明
  • 17:20 - 17:26
    在人類的歷史上,
    每個提升科技力量的階段
  • 17:26 - 17:29
    人們都會重組及集中權力。
  • 17:29 - 17:32
    比方說,如果有一個四處犯案的集團
  • 17:32 - 17:34
    有機會掌控社會,
  • 17:34 - 17:36
    你有一個民族國家,
  • 17:36 - 17:38
    權力集中在警察或軍隊上,
  • 17:38 - 17:40
    然後說:「你們不能這麼做。」
  • 17:40 - 17:42
    其中的邏輯或許就是,
  • 17:42 - 17:46
    當個人或群體在人性抹滅的時候,
  • 17:46 - 17:49
    意味著在某個時點,
    至少在某個層面上
  • 17:49 - 17:51
    不是得走上這條路嗎?
  • 17:51 - 17:54
    尼:這完全正確,政治組織的規模
  • 17:54 - 17:56
    在人類歷史上是持續成長的。
  • 17:56 - 18:00
    以前是獵人、採集者的群體,
  • 18:00 - 18:02
    然後是酋邦、城邦、國家,
  • 18:02 - 18:05
    現在則有國際組織,諸如此類。
  • 18:06 - 18:09
    我想重申一次,藉著這個機會強調
  • 18:09 - 18:11
    大規模監控和全球治理
  • 18:11 - 18:12
    都有很明顯的缺點,
  • 18:12 - 18:16
    也確實有巨大的風險。
  • 18:16 - 18:17
    我想強調的重點是
  • 18:17 - 18:18
    若夠幸運的話,
  • 18:18 - 18:21
    這些是我們能唯一
  • 18:21 - 18:22
    撐過黑球出現的方法。
  • 18:22 - 18:25
    克:這個理論的邏輯
  • 18:25 - 18:27
    對我來說似乎是
  • 18:27 - 18:30
    我們得認知是我們不能大小通吃。
  • 18:30 - 18:36
    我想說很多人都有
    那些天真的夢,
  • 18:36 - 18:40
    以為科技永遠是股正面的力量,
  • 18:40 - 18:41
    持續向前,永不停歇,
  • 18:41 - 18:43
    可用全速前進,
  • 18:43 - 18:45
    而忽略了造成的後果,
  • 18:45 - 18:46
    這些後果肯定會發生。
  • 18:46 - 18:49
    我們當然可以全力發展科技。
  • 18:49 - 18:54
    但如果我們這麽做的話,
    就得接受一些令人難受的後果。
  • 18:54 - 18:57
    就好比我們的軍備競賽,
  • 18:57 - 19:01
    如果你想要權力,
    就要想辦法,去控制如何使用它。
  • 19:01 - 19:05
    尼:我認為這是一條路,
    一條很誘人的路,
  • 19:05 - 19:08
    某種意義上,是一條最好走
    又容易成功的路,
  • 19:08 - 19:13
    但也表示我們基本上
    可能抽到黑球的脆弱性。
  • 19:13 - 19:16
    好,我覺得透過協調,
  • 19:16 - 19:18
    例如你解決了巨觀治理
  • 19:18 - 19:19
    和微觀治理的問題,
  • 19:19 - 19:22
    我們就可以從甕裡抽出所有的小球,
  • 19:22 - 19:24
    並獲得很大的好處。
  • 19:24 - 19:28
    克:我是說,就算我們生活在
    一個模擬世界當中,也沒關係吧﹗
  • 19:28 - 19:30
    重開機就好了。
  • 19:30 - 19:31
    (笑聲)
  • 19:31 - 19:32
    尼:那 ··· 我 ···
  • 19:32 - 19:34
    (笑聲)
  • 19:35 - 19:37
    我倒是沒想到這個。
  • 19:38 - 19:40
    克:那你的想法是什麼?
  • 19:40 - 19:44
    總括來看,你覺得我們
    完蛋的機率有多大?
  • 19:44 - 19:46
    (笑聲)
  • 19:47 - 19:49
    我喜歡大家對我這問題的笑聲。
  • 19:49 - 19:53
    尼:以單一個體,
    我們無論如何都會完蛋,
  • 19:53 - 19:55
    是早晚的問題罷了。
  • 19:55 - 19:57
    身體凋零、老化和發生其他事情。
  • 19:57 - 19:59
    (笑聲)
  • 19:59 - 20:00
    問題有點棘手。
  • 20:00 - 20:02
    要假設能夠計算機率的情境,
  • 20:02 - 20:04
    首先要問我們是誰?
  • 20:04 - 20:06
    如果你很老的話,很可能自然死亡,
  • 20:06 - 20:10
    如果你很年輕,
    你可能有 100 年生命——
  • 20:10 - 20:11
    機率跟詢問對象有關。
  • 20:11 - 20:16
    然後是閾值,例如怎樣
    才算是文明毀滅了?
  • 20:16 - 20:22
    在我這篇論文裡面,
    不一定要確實的災難,
  • 20:22 - 20:23
    才計算這種情況。
  • 20:23 - 20:27
    這只是定義的問題,
    例如十億人死亡,
  • 20:27 - 20:28
    或是 GDP 下降 50%,
  • 20:28 - 20:33
    但是根據你所設定的閾值,
    你會得到不同的估計機率。
  • 20:33 - 20:37
    我想你可以笑我
    是一個被嚇壞的樂天派。
  • 20:37 - 20:39
    (笑聲)
  • 20:39 - 20:40
    克:的確是,
  • 20:40 - 20:45
    而且你還把另外一大群人嚇壞了。
  • 20:45 - 20:46
    (笑聲)
  • 20:46 - 20:48
    尼:在模擬情境當中。
  • 20:48 - 20:49
    克:在模擬情境當中。
  • 20:49 - 20:51
    尼克.博斯特倫,
    你的想法讓我吃驚。
  • 20:51 - 20:53
    非常感謝你
    把我們嚇得屁滾尿流。
  • 20:53 - 20:56
    (掌聲)
Title:
文明如何自我毀滅 一免於毀滅的四種方法
Speaker:
尼克.博斯特倫
Description:

哲學家尼克.博斯特倫說:「人類正在創造一個『黑球』:一項可能把我們全都摧毀的突破性科技。」在這段和 TED 負責人克里斯.安德森精闢、出人意料輕鬆的談話中,博斯特倫勾勒出如果(或何時)當發明的急劇惡化變得無法控制時,是人類要面臨自身的脆弱性—他探索我們如何可在未來趨避滅亡。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Chinese, Traditional subtitles

Revisions