0:00:01.000,0:00:06.833 克里斯.安德森:尼克.博斯特倫。[br]你已經給了我們好多瘋狂的點子。 0:00:06.833,0:00:08.583 我想,幾十年前, 0:00:08.583,0:00:11.368 你提出我們都可能[br]生活在模擬世界當中, 0:00:11.368,0:00:13.375 或者是真的。 0:00:13.375,0:00:14.980 最近, 0:00:14.980,0:00:19.375 你利用最生動的例子[br]說明了通用人工智慧 0:00:19.375,0:00:21.468 可能出現嚴重的問題。 0:00:21.690,0:00:23.143 當前, 0:00:23.167,0:00:25.393 你準備出版 0:00:25.417,0:00:29.351 一篇論文,說明所謂[br]「脆弱世界的假設」。 0:00:29.375,0:00:33.958 今晚,我們要跟大家說明它。 0:00:34.417,0:00:36.250 咱們開始吧! 0:00:36.833,0:00:38.625 那個假設是什麼? 0:00:40.000,0:00:42.458 尼克.博斯特倫:它就是嘗試去考慮 0:00:42.458,0:00:45.542 目前人類狀況的結構性特徵。 0:00:47.125,0:00:49.476 你喜歡甕的比喻吧, 0:00:49.476,0:00:51.393 這就讓我用它來說明好了。 0:00:51.417,0:00:55.768 想像一個大甕,裡面裝滿了小球, 0:00:55.792,0:00:59.750 小球代表理念、方法、潛在的科技。 0:01:00.833,0:01:04.507 你可以把人類創意的歷史, 0:01:04.507,0:01:08.523 想像成將手伸入這個甕,[br]把球逐個拿出來的過程, 0:01:09.163,0:01:11.667 到目前為止的淨效應是非常好。 0:01:11.667,0:01:14.417 我們已經取出了許多白球, 0:01:14.417,0:01:17.592 和一些不同深淺灰色的球:[br]表示好壞參半。 0:01:18.042,0:01:21.150 目前我們還沒有拿出黑球來—— 0:01:22.292,0:01:27.792 黑球代表是一種科技,[br]無可避免毀滅發明它的文明。 0:01:27.792,0:01:31.059 所以,這篇論文是在試圖[br]思考黑球可能會是什麼。 0:01:31.083,0:01:32.917 克:所以你把它定義為 0:01:32.917,0:01:36.601 勢必造成毀滅文明的小球。 0:01:36.625,0:01:41.934 尼:除非我們能夠離開[br]我所謂的默認半無政府狀態。 0:01:41.958,0:01:43.458 但我們在這常態中。 0:01:44.333,0:01:47.851 克:所以,你說服大家 0:01:47.875,0:01:49.533 是提出一些反例, 0:01:49.533,0:01:52.894 從中你相信我們目前很走運, 0:01:52.894,0:01:55.726 還未在不知不覺中 0:01:55.750,0:01:57.309 拿到這個死球。 0:01:57.333,0:01:59.818 你的一句引述,是什麼? 0:02:00.625,0:02:03.309 尼:它的本意是要說明 0:02:03.309,0:02:08.143 很難從基本的發現[br]預測將來會導致什麼後果。 0:02:08.167,0:02:10.755 我們其實就是沒有能力。 0:02:11.250,0:02:14.601 因為我們很擅長把球拿出來, 0:02:14.625,0:02:18.351 卻沒有能力把球放回甕中。 0:02:18.351,0:02:20.892 我們可以發明,但卻無法反發明。 0:02:21.493,0:02:23.931 看樣子,我們的策略應該是 0:02:24.375,0:02:26.809 期望甕中沒有黑球。 0:02:26.809,0:02:30.803 克:所以,一旦把黑球拿出來,[br]就是不能放回去, 0:02:30.803,0:02:32.458 你認為我們運氣很好。 0:02:32.458,0:02:34.684 就跟我們談幾個例子吧。 0:02:34.708,0:02:37.489 你曾說過有不同類型的脆弱性。 0:02:37.833,0:02:40.268 尼:最容易理解的類型, 0:02:40.292,0:02:43.434 要算容易造成 0:02:43.458,0:02:45.583 大量破壞的科技。 0:02:47.195,0:02:50.917 合成生物學新穎的想法[br]可能產出許多毀滅性的黑球, 0:02:50.917,0:02:53.601 但也有許多其他可能性—— 0:02:53.625,0:02:56.143 想想很棒的地球工程吧! 0:02:56.167,0:02:58.253 我們能夠對抗全球暖化, 0:02:58.253,0:03:00.079 但也不能太容易, 0:03:00.093,0:03:02.799 你不想要任何一個人,甚至自己的祖母 0:03:02.799,0:03:06.143 都可以改變地球的氣候。 0:03:06.167,0:03:09.726 甚或是致命的自主無人機, 0:03:09.750,0:03:13.303 在大量生產像蚊子般大小、[br]成群的機器殺手。 0:03:14.500,0:03:17.226 也包括奈米技術和通用人工智慧。 0:03:17.250,0:03:18.559 克:在論文中,你認為 0:03:18.583,0:03:21.476 當我們發現可用核能製造炸彈時, 0:03:21.500,0:03:24.934 那是一場運氣, 0:03:24.958,0:03:26.351 本來也有可能變成是 0:03:26.375,0:03:28.226 用唾手可得的簡單資源 0:03:28.250,0:03:31.809 可製造炸彈。 0:03:31.833,0:03:35.393 尼:是的,回想 30 年代, 0:03:35.417,0:03:40.018 我們在核子物理學的領域上,[br]第一次有重大的突破, 0:03:40.042,0:03:43.726 有些天才發現,[br]有辦法可以製造核能連鎖反應, 0:03:43.750,0:03:46.934 接著,他們發現這種技術[br]可以用來製作炸彈。 0:03:46.958,0:03:48.851 我們再盡了一些努力, 0:03:48.875,0:03:51.601 結果發現,要製造出一顆核彈, 0:03:51.625,0:03:54.018 需要的是高度濃縮的鈾或鈽, 0:03:54.042,0:03:56.059 這些是非常難得的材料。 0:03:56.083,0:03:58.351 你會需要超高速的離心機, 0:03:58.375,0:04:02.143 也需要反應爐,類似大量的能源。 0:04:02.167,0:04:03.976 但若果換成 0:04:04.000,0:04:07.608 用一種簡單的方法[br]就可以將原子能量釋放。 0:04:08.000,0:04:10.768 好像將沙子放到微波爐中加熱, 0:04:10.792,0:04:12.059 那般容易的方法, 0:04:12.083,0:04:14.184 你就可以製造核爆炸。 0:04:14.184,0:04:15.801 現在我們知道那是不可能的。 0:04:15.801,0:04:18.268 但未經相關物理學驗證之前, 0:04:18.292,0:04:20.483 你又如何知道結果? 0:04:20.507,0:04:22.059 克:你為什麼不主張 0:04:22.083,0:04:24.018 在地球上生命的演化, 0:04:24.042,0:04:27.309 需要有某種穩定的環境; 0:04:27.333,0:04:31.518 若相對容易就能[br]製造出大規模的核反應, 0:04:31.542,0:04:33.400 地球就不可能穩定, 0:04:33.424,0:04:34.976 我們不可能存活至今。 0:04:35.000,0:04:38.393 尼:是的,除非很容易[br]刻意地去做某種事, 0:04:38.417,0:04:41.268 但那不會偶然發生。 0:04:41.292,0:04:42.871 我們很容易做一些事, 0:04:42.896,0:04:45.006 比如可能把十塊積木疊起來, 0:04:45.031,0:04:47.998 但在大自然中,你不會[br]看到十塊東西疊在一起。 0:04:47.998,0:04:49.926 克:好,那可能是我們許多人 0:04:49.950,0:04:51.893 最擔心的事, 0:04:51.917,0:04:54.614 那合成生物學可能是 0:04:54.618,0:04:58.476 讓我們在不遠的將來[br]到達那裡的最快途徑。 0:04:58.500,0:05:01.434 尼:是的,所以,[br]想想這意味著什麼。 0:05:01.458,0:05:05.101 比如,人人在自己的廚房,[br]花上一個下午的時間, 0:05:05.101,0:05:06.542 就能摧毀一個城市。 0:05:06.542,0:05:10.101 很難想像我們的現代文明, 0:05:10.125,0:05:11.559 在這種情況下能存活。 0:05:11.583,0:05:14.101 因為,在任何一百萬人口中, 0:05:14.125,0:05:16.809 一定會有些人,[br]不論出於什麼理由, 0:05:16.833,0:05:18.917 選擇使用具毀滅性的力量。 0:05:19.750,0:05:22.893 如果那末世餘孽 0:05:22.917,0:05:24.893 選擇摧毀一個城市,糟糕的是 0:05:24.917,0:05:26.476 那城市真的被摧毀了。 0:05:26.500,0:05:28.851 克:所以,這是另一種脆弱。 0:05:28.875,0:05:30.518 跟我們談談這個吧! 0:05:30.542,0:05:34.518 尼:所以,除了[br]這幾類明顯的黑球 0:05:34.542,0:05:37.352 有可能會把很多東西炸掉之外, 0:05:37.376,0:05:41.809 其他類型的運作方式[br]會創造不良的動機, 0:05:41.833,0:05:44.059 驅使人類去做有害的事。 0:05:44.083,0:05:48.184 所以,我們所謂的 2a 類別, 0:05:48.208,0:05:52.726 就是思想有些科技能夠激勵大國 0:05:52.750,0:05:57.226 去使用他們強大的力量造成毀滅。 0:05:57.250,0:06:00.083 核武就非常接近這一類吧﹗ 0:06:02.083,0:06:05.143 我們所做的是花超過十兆美元 0:06:05.167,0:06:07.684 建造七萬個核子彈頭, 0:06:07.708,0:06:10.143 全處在一觸即發的警戒狀態。 0:06:10.167,0:06:12.424 在冷戰期間曾經有好幾次, 0:06:12.424,0:06:13.937 幾乎就要把彼此毀掉。 0:06:13.937,0:06:16.228 非因許多人認為這是個好點子, 0:06:16.228,0:06:18.656 咱們就花十兆美元把自己毀掉, 0:06:18.656,0:06:21.614 但激勵我們的,是我們發現 0:06:21.614,0:06:23.288 還未發生更糟糕的事情。 0:06:23.288,0:06:26.476 想像一下,若有人為自保[br]不顧一切先開戰。 0:06:26.500,0:06:28.809 那就可能會非常難搞了, 0:06:28.833,0:06:30.101 在危難的情況中, 0:06:30.125,0:06:32.602 很難阻止他們發射[br]所有的核子飛彈。 0:06:32.626,0:06:35.408 但你也害怕另一方可能會同樣做。 0:06:35.408,0:06:37.851 克:是的,相互制衡的毀滅 0:06:37.875,0:06:40.601 讓冷戰狀況變得相對穩定, 0:06:40.625,0:06:42.289 我們現在才可在這裡。 0:06:42.289,0:06:43.993 尼:原本的情況是更壞。 0:06:43.993,0:06:45.918 科技的其他特性, 0:06:45.918,0:06:49.601 可能影響更難簽定這個武器條約, 0:06:49.625,0:06:51.226 比如用的不是核武, 0:06:51.250,0:06:54.268 而是更小或更不顯眼的武器。 0:06:54.268,0:06:55.987 克:除強大的執行者外、 0:06:55.987,0:07:00.297 你擔心所有人都會有不良誘因:[br]這就是 2b 類型。 0:07:00.297,0:07:04.667 尼:是的,這方面[br]可以用全球暖化當例子。 0:07:06.958,0:07:08.331 有很多小小的便利, 0:07:08.331,0:07:11.059 讓我們每個人都很容易做這些事情, 0:07:11.083,0:07:13.934 單獨來看,並沒有顯著的影響吧﹗ 0:07:13.958,0:07:15.824 但當數十億人都這麼做時, 0:07:15.824,0:07:18.152 日積月累,就產生破壞性的影響。 0:07:18.152,0:07:20.781 全球暖化的情況,[br]可能比本來的更糟。 0:07:20.781,0:07:23.851 所以,我們有氣候敏感度參數。 0:07:23.875,0:07:27.518 這個參數代表的是,[br]你釋放的溫室氣體 0:07:27.542,0:07:30.226 與氣溫上升成正比。 0:07:30.250,0:07:32.643 但假設發生的狀況是, 0:07:32.667,0:07:35.184 我們釋放了這麼大量的溫室氣體, 0:07:35.184,0:07:41.038 比如,溫度並沒有在 2100 年[br]預計的範圍內上升 3 ~ 4.5 度, 0:07:41.042,0:07:43.542 假如是跳升至 15 或 20 度。 0:07:44.375,0:07:46.234 那我們就糟糕了。 0:07:46.234,0:07:49.481 又假設可再生能源計劃,[br]比預期的更難實現。 0:07:49.495,0:07:51.848 或者是地底下有更多的化石燃料。 0:07:51.848,0:07:55.434 克:你可否抗辯以下的情況—— 0:07:55.458,0:07:57.184 如果我們現在的行為 0:07:57.208,0:08:01.768 在我們能預見的期間[br]造成了 10 度的差距, 0:08:01.792,0:08:05.476 那人類就會醒覺為此做點事。 0:08:05.500,0:08:08.039 我們是笨的,但也未必那麼笨。 0:08:08.039,0:08:10.137 克:也許是。[br]尼:我就不敢賭。 0:08:10.137,0:08:13.101 (笑聲) 0:08:13.125,0:08:14.809 可以想像其他特徵。 0:08:14.833,0:08:20.351 目前,有點難轉換到[br]可再生能源或其它東西, 0:08:20.375,0:08:21.403 但這是可行的。 0:08:21.417,0:08:24.643 本來是有可能,[br]但若物理學上有些微的不同, 0:08:24.667,0:08:27.458 要做到這些事,就可能會昂貴許多。 0:08:28.195,0:08:32.373 克:尼克,你的看法是否認為,[br]把這些可能性結合起來, 0:08:32.375,0:08:37.900 包括這個地球、我們人類,[br]就算是個脆弱的世界嗎? 0:08:37.900,0:08:40.667 也可以算是未來的一顆死亡黑球嗎? 0:08:43.958,0:08:45.126 尼:這很難說。 0:08:45.126,0:08:50.309 我認為在甕中會有幾個不同的黑球, 0:08:50.333,0:08:51.483 看起來是這樣。 0:08:51.483,0:08:54.059 可能也會有一些金球, 0:08:54.083,0:08:57.559 能協助保護我們,對抗黑球。 0:08:57.583,0:09:00.559 我不知道這些球[br]會以什麼順序出現。 0:09:00.583,0:09:04.434 克:對這個想法,[br]可能會有一種哲學上的批評, 0:09:04.458,0:09:10.101 觀點就是,未來的情況,[br]基本上是已經定了。 0:09:10.125,0:09:12.601 黑球有就有,沒有就沒有。 0:09:12.625,0:09:15.643 在某種意義上, 0:09:15.667,0:09:17.948 我並不想要相信這種未來的觀點。 0:09:17.948,0:09:20.171 我相信未來是尚未被決定的, 0:09:20.171,0:09:22.601 我們現今的取向會決定 0:09:22.625,0:09:24.833 我們從甕中取出哪種球。 0:09:25.917,0:09:29.684 尼:如果我們持繼創造和發明, 0:09:29.708,0:09:32.042 我們最終會把所有的球都取出來。 0:09:32.875,0:09:35.798 我認為科技決定論有種較弱的形式, 0:09:35.798,0:09:36.859 是滿有道理的, 0:09:36.859,0:09:40.226 像是,你不太可能會遇到一個社會 0:09:40.250,0:09:43.083 會同時使用燧石斧和噴射機。 0:09:44.208,0:09:48.268 但你幾乎可以把一項科技[br]想成是一組功能。 0:09:48.268,0:09:52.139 所以,科技能讓我們去做各種事,[br]在世上達成不同效果。 0:09:52.139,0:09:56.143 當然,如何使用它[br]就是人類的選擇了。 0:09:56.167,0:09:58.591 但我們想想這三種類型的弱點, 0:09:58.591,0:10:01.628 苐一個假設的脆弱性,[br]是選擇如何使用科技。 0:10:01.628,0:10:05.684 所以,這個脆弱的地方,[br]是在於巨大力量的毀滅性, 0:10:05.708,0:10:07.143 假設在數百萬人中, 0:10:07.167,0:10:09.229 有人利用科技作毀滅性用途, 0:10:09.229,0:10:12.518 這是我們人類相當薄弱的一環。 0:10:12.518,0:10:15.000 克:對我來說最受不了的論點, 0:10:15.000,0:10:19.559 就是我們覺得這個甕裡面的東西, 0:10:19.583,0:10:23.101 很可能意味著我們會完蛋。 0:10:23.125,0:10:27.768 也就是說,如果你相信科技的加速力, 0:10:27.792,0:10:30.059 也就是科技加速的本質, 0:10:30.083,0:10:32.518 我們建造這些讓我們更強大的工具, 0:10:32.542,0:10:35.184 導致某人某時可能 0:10:35.208,0:10:38.268 把我們全部拖垮, 0:10:38.292,0:10:41.143 讓我們陷入已經完蛋的窘境。 0:10:41.167,0:10:44.101 這樣的論點不是一個警訊嗎? 0:10:44.125,0:10:45.875 尼:嗯,沒錯。 0:10:46.708,0:10:47.976 (笑聲) 0:10:48.000,0:10:49.333 我覺得—— 0:10:50.875,0:10:53.866 沒錯,我們的力量越來越強大, 0:10:53.880,0:10:56.434 運用這些力量也越容易, 0:10:56.458,0:10:58.098 但也可發明一些科技, 0:10:58.098,0:11:02.059 幫助我們控制人們[br]如何運用這些力量。 0:11:02.083,0:11:04.124 克:我們聊聊如何應對吧。 0:11:04.124,0:11:09.592 假設現有的所有可能性—— 0:11:09.592,0:11:13.131 不只是合成生物學,[br]其他像是網路戰、 0:11:13.131,0:11:16.537 人工智慧等等—— 0:11:16.542,0:11:21.003 在未來可能帶來嚴重性的毀滅。 0:11:21.003,0:11:22.708 又有哪些應對的方法呢? 0:11:22.708,0:11:27.601 你也提到了四個可能的應對方法。 0:11:27.625,0:11:31.128 尼:限制科技發展,似乎用處不大, 0:11:31.132,0:11:34.782 或無條件停止科技發展。 0:11:34.782,0:11:38.167 甚至於我們有能力做到,[br]都不可能實現。 0:11:38.167,0:11:41.184 有少數幾個領域, 0:11:41.208,0:11:43.934 你或許會希望科技的發展[br]來得慢一點。 0:11:43.958,0:11:47.351 我覺得,你不會希望生物武器, 0:11:47.351,0:11:49.434 或同位素分離技術, 0:11:49.434,0:11:51.708 促成核子武器的,加快的發展。 0:11:52.583,0:11:55.893 克:我以前完全支持這個論點。 0:11:55.917,0:11:59.184 但我想反思一下。 0:11:59.208,0:12:03.214 首先,就過去至少數十年的歷史來看, 0:12:03.214,0:12:06.908 科技一直是以全速發展。 0:12:06.908,0:12:08.797 只是我們的選擇而已。 0:12:08.797,0:12:11.818 但如果你加速全球化的情形, 0:12:11.818,0:12:16.460 以「快速行動,[br]打破成規」的策略來看, 0:12:16.460,0:12:18.542 是發生了什麼事, 0:12:18.542,0:12:21.309 接著再看看合成生物學的潛力, 0:12:21.333,0:12:27.248 我不知道我們是否應該[br]無限制地快速前進, 0:12:27.248,0:12:30.291 造就每個家庭和高中實驗室 0:12:30.291,0:12:33.167 都擁有一部 DNA 印表機的世界。 0:12:33.167,0:12:34.851 限制還是應該存在的。 0:12:34.875,0:12:37.518 尼:或者第一部分是不可行。 0:12:37.542,0:12:39.726 如果你認為應該要阻止它, 0:12:39.750,0:12:41.476 那就存在可行性的問題。 0:12:41.500,0:12:44.309 所以如果只有一個國家[br]是沒有幫助—— 0:12:44.333,0:12:45.781 克:我同意, 0:12:45.781,0:12:49.309 但我們之前是有條約約束的。 0:12:49.333,0:12:52.684 經歷了痛苦的談判過程, 0:12:52.708,0:12:56.542 讓我們在核武的威脅下仍然存活。 0:12:56.542,0:13:00.216 我只想知道,邏輯是: 0:13:00.216,0:13:02.028 作為全球的優先事項, 0:13:02.028,0:13:03.708 我們不是應該試著, 0:13:03.708,0:13:09.492 比方說,就合成生物研究[br]的方向做談判, 0:13:09.492,0:13:12.056 這不是你想要的民主化東西嗎? 0:13:12.056,0:13:13.809 尼:我完全同意—— 0:13:13.809,0:13:18.003 可取的方法是,比方說, 0:13:18.003,0:13:25.055 或許不是每個實驗室[br]都有一台 DNA 合成的機器, 0:13:25.055,0:13:26.742 而是用服務的形式存在。 0:13:26.742,0:13:29.309 或許你把數位基因模型寄到四五處, 0:13:29.333,0:13:32.851 就可收到合成的基因圖譜了。 0:13:32.875,0:13:36.506 這樣一來,你有能力,[br]在萬一有需要的話, 0:13:36.506,0:13:39.458 就可以加以制約。 0:13:39.458,0:13:42.976 所以我認為應該要找到一些 0:13:43.000,0:13:45.059 能夠有效控制的特殊方法。 0:13:45.083,0:13:46.726 克:基本上你的信念是對的, 0:13:46.750,0:13:49.643 但只用拖後腿的方法,不會成功。 0:13:49.667,0:13:52.393 某地某人——在北韓—— 0:13:52.417,0:13:55.934 如果在那裡發現一些知識, 0:13:55.958,0:13:57.206 如果能找到的話。 0:13:57.206,0:13:58.891 尼:就目前是有可能的。 0:13:58.891,0:14:00.999 也不單單是合成生物學。 0:14:00.999,0:14:03.841 出現任何一種深邃的新改變 0:14:03.841,0:14:05.117 都可能成為黑球。 0:14:05.117,0:14:06.733 克:且談另一個應對吧﹗ 0:14:06.733,0:14:10.226 尼:這個應對方法的潛力也有限。 0:14:10.250,0:14:13.809 回到第一型的脆弱去, 0:14:13.833,0:14:19.116 如果你可以減少毀滅世界的人數,[br]那受激動的人,只能接觸 0:14:19.116,0:14:21.583 良善的方式和通道,[br]是不錯的做法。 0:14:21.583,0:14:24.025 克:你要求我們製作的這張圖, 0:14:24.025,0:14:27.411 設想是擁有臉部辨識能力的[br]無人機在全世界飛行。 0:14:27.411,0:14:30.863 當它們偵測到某些人[br]有反社會行為的跡象, 0:14:30.863,0:14:32.721 給他們沐浴以愛, 0:14:32.721,0:14:33.882 導正他們。 0:14:33.882,0:14:35.739 尼:我想這是一幅混合圖。 0:14:35.739,0:14:39.877 消除可以意味著監禁,或是殺戮, 0:14:39.877,0:14:41.423 也可以解釋成說服他們 0:14:41.423,0:14:42.856 欣賞那美好的世界。 0:14:42.856,0:14:46.795 重點是,假設這個做法非常成功, 0:14:46.795,0:14:49.738 把這些人的數量減少了一半。 0:14:50.102,0:14:51.974 如果你想用說服的方法, 0:14:51.974,0:14:54.228 那就是抗衡其他強大力量, 0:14:54.228,0:14:57.478 也同樣嘗試說服民眾、團體、[br]宗教和教育體系。 0:14:57.478,0:14:59.213 假設你能成功減少一半人數, 0:14:59.213,0:15:01.733 但我也不認為風險會減半。 0:15:01.733,0:15:03.726 也許只是百分之五或十。 0:15:03.750,0:15:06.260 克:你不建議我們把人性的未來 0:15:06.260,0:15:08.173 押在第二個應對方法上。 0:15:08.173,0:15:11.153 尼:我認為阻止或說服人們[br]是沒有問題的, 0:15:11.153,0:15:12.654 但我們不應該以此 0:15:12.654,0:15:14.001 作唯一的保障。 0:15:14.001,0:15:15.079 克:應對三呢? 0:15:15.079,0:15:18.476 尼:一般來說可有兩種方法, 0:15:18.476,0:15:25.351 用在穩定世界、[br]填補可能發生的漏洞。 0:15:25.375,0:15:26.934 兩個方法都可能用到。 0:15:26.958,0:15:30.950 其中一個極度有效地 0:15:30.950,0:15:33.268 執行防範及維安的任務。 0:15:33.292,0:15:34.670 這就可以阻止出現差錯。 0:15:34.670,0:15:37.601 如果有人從事危害的行動, 0:15:37.625,0:15:40.309 就可以在第一時間阻止他們。 0:15:40.333,0:15:42.809 這需要全面性的監控, 0:15:42.833,0:15:45.208 所有人無時無刻都被監視著。 0:15:46.188,0:15:48.515 克:在某種形式上,[br]就像電影『關鍵報告』。 0:15:48.515,0:15:50.875 尼:你可能用人工智能演算法、 0:15:50.875,0:15:55.292 在大型的自由中心[br]來檢視這些東西等等。 0:15:56.583,0:15:58.696 克:你知道大規模監控這個詞 0:15:58.696,0:16:00.810 現在不太受歡迎。 0:16:00.810,0:16:03.250 (笑聲) 0:16:03.422,0:16:05.013 尼:這個小型裝置, 0:16:05.013,0:16:07.537 想像你要一直戴著這種 0:16:07.537,0:16:11.231 配備多角度攝影機的項鍊。 0:16:11.755,0:16:13.889 但為了讓它更容易被大眾接受, 0:16:13.889,0:16:15.804 稱它為「自由標記」之類。 0:16:15.804,0:16:17.592 (笑聲) 0:16:18.220,0:16:19.481 克:好的。 0:16:19.481,0:16:21.514 各位,對談就是這樣, 0:16:21.514,0:16:25.139 可以出現這段驚嚇的對話。 0:16:25.139,0:16:28.653 尼:針對這個議題[br]明顯地就有一場大討論。 0:16:28.653,0:16:31.667 有很大的問題跟風險存在吧﹗ 0:16:31.667,0:16:32.934 我們可回頭再談。 0:16:32.958,0:16:36.904 另外一個穩定世界的方法,[br]在某種程度上 0:16:36.904,0:16:38.965 填補了治理差距。 0:16:38.965,0:16:42.915 監控治理差距,就是在微觀層面上, 0:16:42.915,0:16:46.073 防範有人做出極端的違法行為。 0:16:46.073,0:16:48.888 相對地,在巨觀層面,[br]也就是世界層面上, 0:16:48.888,0:16:50.152 也存在治理差距。 0:16:50.152,0:16:54.531 你需要有可靠的能力 0:16:54.531,0:16:57.869 來防止全球最壞的一種——[br]協調上的失敗, 0:16:57.869,0:17:01.002 避免大國的互相爭鬥、 0:17:01.002,0:17:05.600 軍備競賽、災難性的公共問題, 0:17:07.667,0:17:11.851 來處理 2a 型的弱點。 0:17:11.875,0:17:15.659 克:全球治理是個[br]已經退流行的名詞了, 0:17:15.659,0:17:20.303 但你能夠提出充分的理由來說明 0:17:20.303,0:17:25.521 在人類的歷史上,[br]每個提升科技力量的階段 0:17:25.521,0:17:28.647 人們都會重組及集中權力。 0:17:28.647,0:17:32.059 比方說,如果有一個四處犯案的集團 0:17:32.083,0:17:33.768 有機會掌控社會, 0:17:33.792,0:17:35.771 你有一個民族國家, 0:17:35.771,0:17:38.079 權力集中在警察或軍隊上, 0:17:38.079,0:17:40.143 然後說:「你們不能這麼做。」 0:17:40.143,0:17:42.186 其中的邏輯或許就是, 0:17:42.186,0:17:46.313 當個人或群體在人性抹滅的時候, 0:17:46.313,0:17:48.961 意味著在某個時點,[br]至少在某個層面上 0:17:48.961,0:17:50.522 不是得走上這條路嗎? 0:17:50.522,0:17:53.633 尼:這完全正確,政治組織的規模 0:17:53.633,0:17:56.421 在人類歷史上是持續成長的。 0:17:56.421,0:17:59.705 以前是獵人、採集者的群體, 0:17:59.705,0:18:01.646 然後是酋邦、城邦、國家, 0:18:01.646,0:18:05.490 現在則有國際組織,諸如此類。 0:18:05.552,0:18:08.684 我想重申一次,藉著這個機會強調 0:18:08.708,0:18:10.684 大規模監控和全球治理 0:18:10.708,0:18:12.226 都有很明顯的缺點, 0:18:12.250,0:18:15.691 也確實有巨大的風險。 0:18:15.691,0:18:17.274 我想強調的重點是 0:18:17.274,0:18:18.393 若夠幸運的話, 0:18:18.393,0:18:20.934 這些是我們能唯一 0:18:20.934,0:18:22.456 撐過黑球出現的方法。 0:18:22.456,0:18:25.135 克:這個理論的邏輯 0:18:25.135,0:18:27.136 對我來說似乎是 0:18:27.136,0:18:29.735 我們得認知是我們不能大小通吃。 0:18:29.735,0:18:36.500 我想說很多人都有[br]那些天真的夢, 0:18:36.500,0:18:39.851 以為科技永遠是股正面的力量, 0:18:39.875,0:18:41.471 持續向前,永不停歇, 0:18:41.471,0:18:42.946 可用全速前進, 0:18:42.946,0:18:44.940 而忽略了造成的後果, 0:18:44.940,0:18:46.445 這些後果肯定會發生。 0:18:46.445,0:18:48.982 我們當然可以全力發展科技。 0:18:48.982,0:18:54.025 但如果我們這麽做的話,[br]就得接受一些令人難受的後果。 0:18:54.025,0:18:56.780 就好比我們的軍備競賽, 0:18:56.780,0:19:00.958 如果你想要權力,[br]就要想辦法,去控制如何使用它。 0:19:00.958,0:19:05.366 尼:我認為這是一條路,[br]一條很誘人的路, 0:19:05.366,0:19:08.421 某種意義上,是一條最好走[br]又容易成功的路, 0:19:08.421,0:19:13.440 但也表示我們基本上[br]可能抽到黑球的脆弱性。 0:19:13.440,0:19:15.611 好,我覺得透過協調, 0:19:15.611,0:19:18.400 例如你解決了巨觀治理 0:19:18.400,0:19:19.468 和微觀治理的問題, 0:19:19.468,0:19:22.372 我們就可以從甕裡抽出所有的小球, 0:19:22.372,0:19:24.151 並獲得很大的好處。 0:19:24.403,0:19:28.424 克:我是說,就算我們生活在[br]一個模擬世界當中,也沒關係吧﹗ 0:19:28.424,0:19:29.627 重開機就好了。 0:19:29.627,0:19:30.513 (笑聲) 0:19:30.513,0:19:32.419 尼:那 ··· 我 ··· 0:19:32.419,0:19:33.797 (笑聲) 0:19:34.757,0:19:37.256 我倒是沒想到這個。 0:19:38.220,0:19:39.548 克:那你的想法是什麼? 0:19:39.548,0:19:44.290 總括來看,你覺得我們[br]完蛋的機率有多大? 0:19:44.290,0:19:45.851 (笑聲) 0:19:46.963,0:19:49.004 我喜歡大家對我這問題的笑聲。 0:19:49.004,0:19:52.686 尼:以單一個體,[br]我們無論如何都會完蛋, 0:19:52.686,0:19:54.906 是早晚的問題罷了。 0:19:54.906,0:19:57.421 身體凋零、老化和發生其他事情。 0:19:57.421,0:19:59.018 (笑聲) 0:19:59.018,0:20:00.216 問題有點棘手。 0:20:00.216,0:20:02.242 要假設能夠計算機率的情境, 0:20:02.242,0:20:04.023 首先要問我們是誰? 0:20:04.023,0:20:06.492 如果你很老的話,很可能自然死亡, 0:20:06.492,0:20:09.858 如果你很年輕,[br]你可能有 100 年生命—— 0:20:09.858,0:20:11.340 機率跟詢問對象有關。 0:20:11.340,0:20:16.291 然後是閾值,例如怎樣[br]才算是文明毀滅了? 0:20:16.291,0:20:21.920 在我這篇論文裡面,[br]不一定要確實的災難, 0:20:21.920,0:20:23.287 才計算這種情況。 0:20:23.287,0:20:26.580 這只是定義的問題,[br]例如十億人死亡, 0:20:26.580,0:20:28.242 或是 GDP 下降 50%, 0:20:28.242,0:20:33.174 但是根據你所設定的閾值,[br]你會得到不同的估計機率。 0:20:33.174,0:20:37.192 我想你可以笑我[br]是一個被嚇壞的樂天派。 0:20:37.192,0:20:38.530 (笑聲) 0:20:38.530,0:20:39.822 克:的確是, 0:20:39.822,0:20:45.174 而且你還把另外一大群人嚇壞了。 0:20:45.174,0:20:46.132 (笑聲) 0:20:46.132,0:20:47.706 尼:在模擬情境當中。 0:20:47.706,0:20:48.939 克:在模擬情境當中。 0:20:48.939,0:20:50.744 尼克.博斯特倫,[br]你的想法讓我吃驚。 0:20:50.744,0:20:53.384 非常感謝你[br]把我們嚇得屁滾尿流。 0:20:53.384,0:20:55.604 (掌聲)