文明如何自我毀滅 一免於毀滅的四種方法
-
0:01 - 0:07克里斯.安德森:尼克.博斯特倫。
你已經給了我們好多瘋狂的點子。 -
0:07 - 0:09我想,幾十年前,
-
0:09 - 0:11你提出我們都可能
生活在模擬世界當中, -
0:11 - 0:13或者是真的。
-
0:13 - 0:15最近,
-
0:15 - 0:19你利用最生動的例子
說明了通用人工智慧 -
0:19 - 0:21可能出現嚴重的問題。
-
0:22 - 0:23當前,
-
0:23 - 0:25你準備出版
-
0:25 - 0:29一篇論文,說明所謂
「脆弱世界的假設」。 -
0:29 - 0:34今晚,我們要跟大家說明它。
-
0:34 - 0:36咱們開始吧!
-
0:37 - 0:39那個假設是什麼?
-
0:40 - 0:42尼克.博斯特倫:它就是嘗試去考慮
-
0:42 - 0:46目前人類狀況的結構性特徵。
-
0:47 - 0:49你喜歡甕的比喻吧,
-
0:49 - 0:51這就讓我用它來說明好了。
-
0:51 - 0:56想像一個大甕,裡面裝滿了小球,
-
0:56 - 1:00小球代表理念、方法、潛在的科技。
-
1:01 - 1:05你可以把人類創意的歷史,
-
1:05 - 1:09想像成將手伸入這個甕,
把球逐個拿出來的過程, -
1:09 - 1:12到目前為止的淨效應是非常好。
-
1:12 - 1:14我們已經取出了許多白球,
-
1:14 - 1:18和一些不同深淺灰色的球:
表示好壞參半。 -
1:18 - 1:21目前我們還沒有拿出黑球來——
-
1:22 - 1:28黑球代表是一種科技,
無可避免毀滅發明它的文明。 -
1:28 - 1:31所以,這篇論文是在試圖
思考黑球可能會是什麼。 -
1:31 - 1:33克:所以你把它定義為
-
1:33 - 1:37勢必造成毀滅文明的小球。
-
1:37 - 1:42尼:除非我們能夠離開
我所謂的默認半無政府狀態。 -
1:42 - 1:43但我們在這常態中。
-
1:44 - 1:48克:所以,你說服大家
-
1:48 - 1:50是提出一些反例,
-
1:50 - 1:53從中你相信我們目前很走運,
-
1:53 - 1:56還未在不知不覺中
-
1:56 - 1:57拿到這個死球。
-
1:57 - 2:00你的一句引述,是什麼?
-
2:01 - 2:03尼:它的本意是要說明
-
2:03 - 2:08很難從基本的發現
預測將來會導致什麼後果。 -
2:08 - 2:11我們其實就是沒有能力。
-
2:11 - 2:15因為我們很擅長把球拿出來,
-
2:15 - 2:18卻沒有能力把球放回甕中。
-
2:18 - 2:21我們可以發明,但卻無法反發明。
-
2:21 - 2:24看樣子,我們的策略應該是
-
2:24 - 2:27期望甕中沒有黑球。
-
2:27 - 2:31克:所以,一旦把黑球拿出來,
就是不能放回去, -
2:31 - 2:32你認為我們運氣很好。
-
2:32 - 2:35就跟我們談幾個例子吧。
-
2:35 - 2:37你曾說過有不同類型的脆弱性。
-
2:38 - 2:40尼:最容易理解的類型,
-
2:40 - 2:43要算容易造成
-
2:43 - 2:46大量破壞的科技。
-
2:47 - 2:51合成生物學新穎的想法
可能產出許多毀滅性的黑球, -
2:51 - 2:54但也有許多其他可能性——
-
2:54 - 2:56想想很棒的地球工程吧!
-
2:56 - 2:58我們能夠對抗全球暖化,
-
2:58 - 3:00但也不能太容易,
-
3:00 - 3:03你不想要任何一個人,甚至自己的祖母
-
3:03 - 3:06都可以改變地球的氣候。
-
3:06 - 3:10甚或是致命的自主無人機,
-
3:10 - 3:13在大量生產像蚊子般大小、
成群的機器殺手。 -
3:14 - 3:17也包括奈米技術和通用人工智慧。
-
3:17 - 3:19克:在論文中,你認為
-
3:19 - 3:21當我們發現可用核能製造炸彈時,
-
3:22 - 3:25那是一場運氣,
-
3:25 - 3:26本來也有可能變成是
-
3:26 - 3:28用唾手可得的簡單資源
-
3:28 - 3:32可製造炸彈。
-
3:32 - 3:35尼:是的,回想 30 年代,
-
3:35 - 3:40我們在核子物理學的領域上,
第一次有重大的突破, -
3:40 - 3:44有些天才發現,
有辦法可以製造核能連鎖反應, -
3:44 - 3:47接著,他們發現這種技術
可以用來製作炸彈。 -
3:47 - 3:49我們再盡了一些努力,
-
3:49 - 3:52結果發現,要製造出一顆核彈,
-
3:52 - 3:54需要的是高度濃縮的鈾或鈽,
-
3:54 - 3:56這些是非常難得的材料。
-
3:56 - 3:58你會需要超高速的離心機,
-
3:58 - 4:02也需要反應爐,類似大量的能源。
-
4:02 - 4:04但若果換成
-
4:04 - 4:08用一種簡單的方法
就可以將原子能量釋放。 -
4:08 - 4:11好像將沙子放到微波爐中加熱,
-
4:11 - 4:12那般容易的方法,
-
4:12 - 4:14你就可以製造核爆炸。
-
4:14 - 4:16現在我們知道那是不可能的。
-
4:16 - 4:18但未經相關物理學驗證之前,
-
4:18 - 4:20你又如何知道結果?
-
4:21 - 4:22克:你為什麼不主張
-
4:22 - 4:24在地球上生命的演化,
-
4:24 - 4:27需要有某種穩定的環境;
-
4:27 - 4:32若相對容易就能
製造出大規模的核反應, -
4:32 - 4:33地球就不可能穩定,
-
4:33 - 4:35我們不可能存活至今。
-
4:35 - 4:38尼:是的,除非很容易
刻意地去做某種事, -
4:38 - 4:41但那不會偶然發生。
-
4:41 - 4:43我們很容易做一些事,
-
4:43 - 4:45比如可能把十塊積木疊起來,
-
4:45 - 4:48但在大自然中,你不會
看到十塊東西疊在一起。 -
4:48 - 4:50克:好,那可能是我們許多人
-
4:50 - 4:52最擔心的事,
-
4:52 - 4:55那合成生物學可能是
-
4:55 - 4:58讓我們在不遠的將來
到達那裡的最快途徑。 -
4:58 - 5:01尼:是的,所以,
想想這意味著什麼。 -
5:01 - 5:05比如,人人在自己的廚房,
花上一個下午的時間, -
5:05 - 5:07就能摧毀一個城市。
-
5:07 - 5:10很難想像我們的現代文明,
-
5:10 - 5:12在這種情況下能存活。
-
5:12 - 5:14因為,在任何一百萬人口中,
-
5:14 - 5:17一定會有些人,
不論出於什麼理由, -
5:17 - 5:19選擇使用具毀滅性的力量。
-
5:20 - 5:23如果那末世餘孽
-
5:23 - 5:25選擇摧毀一個城市,糟糕的是
-
5:25 - 5:26那城市真的被摧毀了。
-
5:26 - 5:29克:所以,這是另一種脆弱。
-
5:29 - 5:31跟我們談談這個吧!
-
5:31 - 5:35尼:所以,除了
這幾類明顯的黑球 -
5:35 - 5:37有可能會把很多東西炸掉之外,
-
5:37 - 5:42其他類型的運作方式
會創造不良的動機, -
5:42 - 5:44驅使人類去做有害的事。
-
5:44 - 5:48所以,我們所謂的 2a 類別,
-
5:48 - 5:53就是思想有些科技能夠激勵大國
-
5:53 - 5:57去使用他們強大的力量造成毀滅。
-
5:57 - 6:00核武就非常接近這一類吧﹗
-
6:02 - 6:05我們所做的是花超過十兆美元
-
6:05 - 6:08建造七萬個核子彈頭,
-
6:08 - 6:10全處在一觸即發的警戒狀態。
-
6:10 - 6:12在冷戰期間曾經有好幾次,
-
6:12 - 6:14幾乎就要把彼此毀掉。
-
6:14 - 6:16非因許多人認為這是個好點子,
-
6:16 - 6:19咱們就花十兆美元把自己毀掉,
-
6:19 - 6:22但激勵我們的,是我們發現
-
6:22 - 6:23還未發生更糟糕的事情。
-
6:23 - 6:26想像一下,若有人為自保
不顧一切先開戰。 -
6:26 - 6:29那就可能會非常難搞了,
-
6:29 - 6:30在危難的情況中,
-
6:30 - 6:33很難阻止他們發射
所有的核子飛彈。 -
6:33 - 6:35但你也害怕另一方可能會同樣做。
-
6:35 - 6:38克:是的,相互制衡的毀滅
-
6:38 - 6:41讓冷戰狀況變得相對穩定,
-
6:41 - 6:42我們現在才可在這裡。
-
6:42 - 6:44尼:原本的情況是更壞。
-
6:44 - 6:46科技的其他特性,
-
6:46 - 6:50可能影響更難簽定這個武器條約,
-
6:50 - 6:51比如用的不是核武,
-
6:51 - 6:54而是更小或更不顯眼的武器。
-
6:54 - 6:56克:除強大的執行者外、
-
6:56 - 7:00你擔心所有人都會有不良誘因:
這就是 2b 類型。 -
7:00 - 7:05尼:是的,這方面
可以用全球暖化當例子。 -
7:07 - 7:08有很多小小的便利,
-
7:08 - 7:11讓我們每個人都很容易做這些事情,
-
7:11 - 7:14單獨來看,並沒有顯著的影響吧﹗
-
7:14 - 7:16但當數十億人都這麼做時,
-
7:16 - 7:18日積月累,就產生破壞性的影響。
-
7:18 - 7:21全球暖化的情況,
可能比本來的更糟。 -
7:21 - 7:24所以,我們有氣候敏感度參數。
-
7:24 - 7:28這個參數代表的是,
你釋放的溫室氣體 -
7:28 - 7:30與氣溫上升成正比。
-
7:30 - 7:33但假設發生的狀況是,
-
7:33 - 7:35我們釋放了這麼大量的溫室氣體,
-
7:35 - 7:41比如,溫度並沒有在 2100 年
預計的範圍內上升 3 ~ 4.5 度, -
7:41 - 7:44假如是跳升至 15 或 20 度。
-
7:44 - 7:46那我們就糟糕了。
-
7:46 - 7:49又假設可再生能源計劃,
比預期的更難實現。 -
7:49 - 7:52或者是地底下有更多的化石燃料。
-
7:52 - 7:55克:你可否抗辯以下的情況——
-
7:55 - 7:57如果我們現在的行為
-
7:57 - 8:02在我們能預見的期間
造成了 10 度的差距, -
8:02 - 8:05那人類就會醒覺為此做點事。
-
8:06 - 8:08我們是笨的,但也未必那麼笨。
-
8:08 - 8:10克:也許是。
尼:我就不敢賭。 -
8:10 - 8:13(笑聲)
-
8:13 - 8:15可以想像其他特徵。
-
8:15 - 8:20目前,有點難轉換到
可再生能源或其它東西, -
8:20 - 8:21但這是可行的。
-
8:21 - 8:25本來是有可能,
但若物理學上有些微的不同, -
8:25 - 8:27要做到這些事,就可能會昂貴許多。
-
8:28 - 8:32克:尼克,你的看法是否認為,
把這些可能性結合起來, -
8:32 - 8:38包括這個地球、我們人類,
就算是個脆弱的世界嗎? -
8:38 - 8:41也可以算是未來的一顆死亡黑球嗎?
-
8:44 - 8:45尼:這很難說。
-
8:45 - 8:50我認為在甕中會有幾個不同的黑球,
-
8:50 - 8:51看起來是這樣。
-
8:51 - 8:54可能也會有一些金球,
-
8:54 - 8:58能協助保護我們,對抗黑球。
-
8:58 - 9:01我不知道這些球
會以什麼順序出現。 -
9:01 - 9:04克:對這個想法,
可能會有一種哲學上的批評, -
9:04 - 9:10觀點就是,未來的情況,
基本上是已經定了。 -
9:10 - 9:13黑球有就有,沒有就沒有。
-
9:13 - 9:16在某種意義上,
-
9:16 - 9:18我並不想要相信這種未來的觀點。
-
9:18 - 9:20我相信未來是尚未被決定的,
-
9:20 - 9:23我們現今的取向會決定
-
9:23 - 9:25我們從甕中取出哪種球。
-
9:26 - 9:30尼:如果我們持繼創造和發明,
-
9:30 - 9:32我們最終會把所有的球都取出來。
-
9:33 - 9:36我認為科技決定論有種較弱的形式,
-
9:36 - 9:37是滿有道理的,
-
9:37 - 9:40像是,你不太可能會遇到一個社會
-
9:40 - 9:43會同時使用燧石斧和噴射機。
-
9:44 - 9:48但你幾乎可以把一項科技
想成是一組功能。 -
9:48 - 9:52所以,科技能讓我們去做各種事,
在世上達成不同效果。 -
9:52 - 9:56當然,如何使用它
就是人類的選擇了。 -
9:56 - 9:59但我們想想這三種類型的弱點,
-
9:59 - 10:02苐一個假設的脆弱性,
是選擇如何使用科技。 -
10:02 - 10:06所以,這個脆弱的地方,
是在於巨大力量的毀滅性, -
10:06 - 10:07假設在數百萬人中,
-
10:07 - 10:09有人利用科技作毀滅性用途,
-
10:09 - 10:13這是我們人類相當薄弱的一環。
-
10:13 - 10:15克:對我來說最受不了的論點,
-
10:15 - 10:20就是我們覺得這個甕裡面的東西,
-
10:20 - 10:23很可能意味著我們會完蛋。
-
10:23 - 10:28也就是說,如果你相信科技的加速力,
-
10:28 - 10:30也就是科技加速的本質,
-
10:30 - 10:33我們建造這些讓我們更強大的工具,
-
10:33 - 10:35導致某人某時可能
-
10:35 - 10:38把我們全部拖垮,
-
10:38 - 10:41讓我們陷入已經完蛋的窘境。
-
10:41 - 10:44這樣的論點不是一個警訊嗎?
-
10:44 - 10:46尼:嗯,沒錯。
-
10:47 - 10:48(笑聲)
-
10:48 - 10:49我覺得——
-
10:51 - 10:54沒錯,我們的力量越來越強大,
-
10:54 - 10:56運用這些力量也越容易,
-
10:56 - 10:58但也可發明一些科技,
-
10:58 - 11:02幫助我們控制人們
如何運用這些力量。 -
11:02 - 11:04克:我們聊聊如何應對吧。
-
11:04 - 11:10假設現有的所有可能性——
-
11:10 - 11:13不只是合成生物學,
其他像是網路戰、 -
11:13 - 11:17人工智慧等等——
-
11:17 - 11:21在未來可能帶來嚴重性的毀滅。
-
11:21 - 11:23又有哪些應對的方法呢?
-
11:23 - 11:28你也提到了四個可能的應對方法。
-
11:28 - 11:31尼:限制科技發展,似乎用處不大,
-
11:31 - 11:35或無條件停止科技發展。
-
11:35 - 11:38甚至於我們有能力做到,
都不可能實現。 -
11:38 - 11:41有少數幾個領域,
-
11:41 - 11:44你或許會希望科技的發展
來得慢一點。 -
11:44 - 11:47我覺得,你不會希望生物武器,
-
11:47 - 11:49或同位素分離技術,
-
11:49 - 11:52促成核子武器的,加快的發展。
-
11:53 - 11:56克:我以前完全支持這個論點。
-
11:56 - 11:59但我想反思一下。
-
11:59 - 12:03首先,就過去至少數十年的歷史來看,
-
12:03 - 12:07科技一直是以全速發展。
-
12:07 - 12:09只是我們的選擇而已。
-
12:09 - 12:12但如果你加速全球化的情形,
-
12:12 - 12:16以「快速行動,
打破成規」的策略來看, -
12:16 - 12:19是發生了什麼事,
-
12:19 - 12:21接著再看看合成生物學的潛力,
-
12:21 - 12:27我不知道我們是否應該
無限制地快速前進, -
12:27 - 12:30造就每個家庭和高中實驗室
-
12:30 - 12:33都擁有一部 DNA 印表機的世界。
-
12:33 - 12:35限制還是應該存在的。
-
12:35 - 12:38尼:或者第一部分是不可行。
-
12:38 - 12:40如果你認為應該要阻止它,
-
12:40 - 12:41那就存在可行性的問題。
-
12:42 - 12:44所以如果只有一個國家
是沒有幫助—— -
12:44 - 12:46克:我同意,
-
12:46 - 12:49但我們之前是有條約約束的。
-
12:49 - 12:53經歷了痛苦的談判過程,
-
12:53 - 12:57讓我們在核武的威脅下仍然存活。
-
12:57 - 13:00我只想知道,邏輯是:
-
13:00 - 13:02作為全球的優先事項,
-
13:02 - 13:04我們不是應該試著,
-
13:04 - 13:09比方說,就合成生物研究
的方向做談判, -
13:09 - 13:12這不是你想要的民主化東西嗎?
-
13:12 - 13:14尼:我完全同意——
-
13:14 - 13:18可取的方法是,比方說,
-
13:18 - 13:25或許不是每個實驗室
都有一台 DNA 合成的機器, -
13:25 - 13:27而是用服務的形式存在。
-
13:27 - 13:29或許你把數位基因模型寄到四五處,
-
13:29 - 13:33就可收到合成的基因圖譜了。
-
13:33 - 13:37這樣一來,你有能力,
在萬一有需要的話, -
13:37 - 13:39就可以加以制約。
-
13:39 - 13:43所以我認為應該要找到一些
-
13:43 - 13:45能夠有效控制的特殊方法。
-
13:45 - 13:47克:基本上你的信念是對的,
-
13:47 - 13:50但只用拖後腿的方法,不會成功。
-
13:50 - 13:52某地某人——在北韓——
-
13:52 - 13:56如果在那裡發現一些知識,
-
13:56 - 13:57如果能找到的話。
-
13:57 - 13:59尼:就目前是有可能的。
-
13:59 - 14:01也不單單是合成生物學。
-
14:01 - 14:04出現任何一種深邃的新改變
-
14:04 - 14:05都可能成為黑球。
-
14:05 - 14:07克:且談另一個應對吧﹗
-
14:07 - 14:10尼:這個應對方法的潛力也有限。
-
14:10 - 14:14回到第一型的脆弱去,
-
14:14 - 14:19如果你可以減少毀滅世界的人數,
那受激動的人,只能接觸 -
14:19 - 14:22良善的方式和通道,
是不錯的做法。 -
14:22 - 14:24克:你要求我們製作的這張圖,
-
14:24 - 14:27設想是擁有臉部辨識能力的
無人機在全世界飛行。 -
14:27 - 14:31當它們偵測到某些人
有反社會行為的跡象, -
14:31 - 14:33給他們沐浴以愛,
-
14:33 - 14:34導正他們。
-
14:34 - 14:36尼:我想這是一幅混合圖。
-
14:36 - 14:40消除可以意味著監禁,或是殺戮,
-
14:40 - 14:41也可以解釋成說服他們
-
14:41 - 14:43欣賞那美好的世界。
-
14:43 - 14:47重點是,假設這個做法非常成功,
-
14:47 - 14:50把這些人的數量減少了一半。
-
14:50 - 14:52如果你想用說服的方法,
-
14:52 - 14:54那就是抗衡其他強大力量,
-
14:54 - 14:57也同樣嘗試說服民眾、團體、
宗教和教育體系。 -
14:57 - 14:59假設你能成功減少一半人數,
-
14:59 - 15:02但我也不認為風險會減半。
-
15:02 - 15:04也許只是百分之五或十。
-
15:04 - 15:06克:你不建議我們把人性的未來
-
15:06 - 15:08押在第二個應對方法上。
-
15:08 - 15:11尼:我認為阻止或說服人們
是沒有問題的, -
15:11 - 15:13但我們不應該以此
-
15:13 - 15:14作唯一的保障。
-
15:14 - 15:15克:應對三呢?
-
15:15 - 15:18尼:一般來說可有兩種方法,
-
15:18 - 15:25用在穩定世界、
填補可能發生的漏洞。 -
15:25 - 15:27兩個方法都可能用到。
-
15:27 - 15:31其中一個極度有效地
-
15:31 - 15:33執行防範及維安的任務。
-
15:33 - 15:35這就可以阻止出現差錯。
-
15:35 - 15:38如果有人從事危害的行動,
-
15:38 - 15:40就可以在第一時間阻止他們。
-
15:40 - 15:43這需要全面性的監控,
-
15:43 - 15:45所有人無時無刻都被監視著。
-
15:46 - 15:49克:在某種形式上,
就像電影『關鍵報告』。 -
15:49 - 15:51尼:你可能用人工智能演算法、
-
15:51 - 15:55在大型的自由中心
來檢視這些東西等等。 -
15:57 - 15:59克:你知道大規模監控這個詞
-
15:59 - 16:01現在不太受歡迎。
-
16:01 - 16:03(笑聲)
-
16:03 - 16:05尼:這個小型裝置,
-
16:05 - 16:08想像你要一直戴著這種
-
16:08 - 16:11配備多角度攝影機的項鍊。
-
16:12 - 16:14但為了讓它更容易被大眾接受,
-
16:14 - 16:16稱它為「自由標記」之類。
-
16:16 - 16:18(笑聲)
-
16:18 - 16:19克:好的。
-
16:19 - 16:22各位,對談就是這樣,
-
16:22 - 16:25可以出現這段驚嚇的對話。
-
16:25 - 16:29尼:針對這個議題
明顯地就有一場大討論。 -
16:29 - 16:32有很大的問題跟風險存在吧﹗
-
16:32 - 16:33我們可回頭再談。
-
16:33 - 16:37另外一個穩定世界的方法,
在某種程度上 -
16:37 - 16:39填補了治理差距。
-
16:39 - 16:43監控治理差距,就是在微觀層面上,
-
16:43 - 16:46防範有人做出極端的違法行為。
-
16:46 - 16:49相對地,在巨觀層面,
也就是世界層面上, -
16:49 - 16:50也存在治理差距。
-
16:50 - 16:55你需要有可靠的能力
-
16:55 - 16:58來防止全球最壞的一種——
協調上的失敗, -
16:58 - 17:01避免大國的互相爭鬥、
-
17:01 - 17:06軍備競賽、災難性的公共問題,
-
17:08 - 17:12來處理 2a 型的弱點。
-
17:12 - 17:16克:全球治理是個
已經退流行的名詞了, -
17:16 - 17:20但你能夠提出充分的理由來說明
-
17:20 - 17:26在人類的歷史上,
每個提升科技力量的階段 -
17:26 - 17:29人們都會重組及集中權力。
-
17:29 - 17:32比方說,如果有一個四處犯案的集團
-
17:32 - 17:34有機會掌控社會,
-
17:34 - 17:36你有一個民族國家,
-
17:36 - 17:38權力集中在警察或軍隊上,
-
17:38 - 17:40然後說:「你們不能這麼做。」
-
17:40 - 17:42其中的邏輯或許就是,
-
17:42 - 17:46當個人或群體在人性抹滅的時候,
-
17:46 - 17:49意味著在某個時點,
至少在某個層面上 -
17:49 - 17:51不是得走上這條路嗎?
-
17:51 - 17:54尼:這完全正確,政治組織的規模
-
17:54 - 17:56在人類歷史上是持續成長的。
-
17:56 - 18:00以前是獵人、採集者的群體,
-
18:00 - 18:02然後是酋邦、城邦、國家,
-
18:02 - 18:05現在則有國際組織,諸如此類。
-
18:06 - 18:09我想重申一次,藉著這個機會強調
-
18:09 - 18:11大規模監控和全球治理
-
18:11 - 18:12都有很明顯的缺點,
-
18:12 - 18:16也確實有巨大的風險。
-
18:16 - 18:17我想強調的重點是
-
18:17 - 18:18若夠幸運的話,
-
18:18 - 18:21這些是我們能唯一
-
18:21 - 18:22撐過黑球出現的方法。
-
18:22 - 18:25克:這個理論的邏輯
-
18:25 - 18:27對我來說似乎是
-
18:27 - 18:30我們得認知是我們不能大小通吃。
-
18:30 - 18:36我想說很多人都有
那些天真的夢, -
18:36 - 18:40以為科技永遠是股正面的力量,
-
18:40 - 18:41持續向前,永不停歇,
-
18:41 - 18:43可用全速前進,
-
18:43 - 18:45而忽略了造成的後果,
-
18:45 - 18:46這些後果肯定會發生。
-
18:46 - 18:49我們當然可以全力發展科技。
-
18:49 - 18:54但如果我們這麽做的話,
就得接受一些令人難受的後果。 -
18:54 - 18:57就好比我們的軍備競賽,
-
18:57 - 19:01如果你想要權力,
就要想辦法,去控制如何使用它。 -
19:01 - 19:05尼:我認為這是一條路,
一條很誘人的路, -
19:05 - 19:08某種意義上,是一條最好走
又容易成功的路, -
19:08 - 19:13但也表示我們基本上
可能抽到黑球的脆弱性。 -
19:13 - 19:16好,我覺得透過協調,
-
19:16 - 19:18例如你解決了巨觀治理
-
19:18 - 19:19和微觀治理的問題,
-
19:19 - 19:22我們就可以從甕裡抽出所有的小球,
-
19:22 - 19:24並獲得很大的好處。
-
19:24 - 19:28克:我是說,就算我們生活在
一個模擬世界當中,也沒關係吧﹗ -
19:28 - 19:30重開機就好了。
-
19:30 - 19:31(笑聲)
-
19:31 - 19:32尼:那 ··· 我 ···
-
19:32 - 19:34(笑聲)
-
19:35 - 19:37我倒是沒想到這個。
-
19:38 - 19:40克:那你的想法是什麼?
-
19:40 - 19:44總括來看,你覺得我們
完蛋的機率有多大? -
19:44 - 19:46(笑聲)
-
19:47 - 19:49我喜歡大家對我這問題的笑聲。
-
19:49 - 19:53尼:以單一個體,
我們無論如何都會完蛋, -
19:53 - 19:55是早晚的問題罷了。
-
19:55 - 19:57身體凋零、老化和發生其他事情。
-
19:57 - 19:59(笑聲)
-
19:59 - 20:00問題有點棘手。
-
20:00 - 20:02要假設能夠計算機率的情境,
-
20:02 - 20:04首先要問我們是誰?
-
20:04 - 20:06如果你很老的話,很可能自然死亡,
-
20:06 - 20:10如果你很年輕,
你可能有 100 年生命—— -
20:10 - 20:11機率跟詢問對象有關。
-
20:11 - 20:16然後是閾值,例如怎樣
才算是文明毀滅了? -
20:16 - 20:22在我這篇論文裡面,
不一定要確實的災難, -
20:22 - 20:23才計算這種情況。
-
20:23 - 20:27這只是定義的問題,
例如十億人死亡, -
20:27 - 20:28或是 GDP 下降 50%,
-
20:28 - 20:33但是根據你所設定的閾值,
你會得到不同的估計機率。 -
20:33 - 20:37我想你可以笑我
是一個被嚇壞的樂天派。 -
20:37 - 20:39(笑聲)
-
20:39 - 20:40克:的確是,
-
20:40 - 20:45而且你還把另外一大群人嚇壞了。
-
20:45 - 20:46(笑聲)
-
20:46 - 20:48尼:在模擬情境當中。
-
20:48 - 20:49克:在模擬情境當中。
-
20:49 - 20:51尼克.博斯特倫,
你的想法讓我吃驚。 -
20:51 - 20:53非常感謝你
把我們嚇得屁滾尿流。 -
20:53 - 20:56(掌聲)
- Title:
- 文明如何自我毀滅 一免於毀滅的四種方法
- Speaker:
- 尼克.博斯特倫
- Description:
-
哲學家尼克.博斯特倫說:「人類正在創造一個『黑球』:一項可能把我們全都摧毀的突破性科技。」在這段和 TED 負責人克里斯.安德森精闢、出人意料輕鬆的談話中,博斯特倫勾勒出如果(或何時)當發明的急劇惡化變得無法控制時,是人類要面臨自身的脆弱性—他探索我們如何可在未來趨避滅亡。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09