WEBVTT 00:00:01.000 --> 00:00:05.166 我要談一種我們很多人 遭受的、直覺上的失誤。 00:00:05.480 --> 00:00:08.520 那其實是一種使你無法察覺到 特定種類危險的失誤。 00:00:09.360 --> 00:00:11.096 我會描述一個情境 00:00:11.120 --> 00:00:14.376 是我認為很可怕 00:00:14.400 --> 00:00:16.160 而且很有機會發生的, 00:00:16.840 --> 00:00:18.496 這不是很好的組合, 00:00:18.520 --> 00:00:20.056 一如預期。 00:00:20.080 --> 00:00:21.620 然而比起感到害怕, 00:00:21.620 --> 00:00:24.640 大部分的人會覺得 我正在說的東西有點酷。 NOTE Paragraph 00:00:25.200 --> 00:00:29.966 我將會描述我們在 人工智能領域的進展 00:00:30.000 --> 00:00:31.776 如何能最終消滅我們。 00:00:31.800 --> 00:00:34.590 事實上,我認為很難看不出 他們為何不會消滅我們, 00:00:34.590 --> 00:00:36.960 或者驅使我們消滅自己。 00:00:37.400 --> 00:00:39.256 如果你是和我類似的人, 00:00:39.280 --> 00:00:41.936 你會發現思考這類事情很有趣。 00:00:41.960 --> 00:00:45.336 那種反應也是問題的一部分。 00:00:45.360 --> 00:00:47.690 對嗎?那種反應應該讓你感到擔心。 00:00:47.920 --> 00:00:50.576 如果我是打算在這個裡演講說服你, 00:00:50.600 --> 00:00:54.016 我們很可能會遭受全球性的飢荒, 00:00:54.040 --> 00:00:57.096 無論是因為氣候變遷或某種大災難, 00:00:57.120 --> 00:01:00.536 而你的孫子們或者孫子的孫子們 00:01:00.560 --> 00:01:02.360 非常可能要這樣生活, 00:01:03.200 --> 00:01:04.400 你不會覺得: 00:01:05.440 --> 00:01:06.776 「有意思, 00:01:06.800 --> 00:01:08.000 我喜歡這個 TED 演講。」 NOTE Paragraph 00:01:09.200 --> 00:01:10.720 飢荒並不有趣。 00:01:11.800 --> 00:01:15.176 另一方面來說, 科幻式的死亡,是有趣的。 00:01:15.200 --> 00:01:19.176 而現階段人工智能的發展 最讓我擔心的是, 00:01:19.200 --> 00:01:23.296 我們似乎無法組織出 一個適當的情緒反應, 00:01:23.320 --> 00:01:25.136 針對眼前的威脅。 00:01:25.160 --> 00:01:28.360 我無法組織出這個回應, 可是我在這裡講這個。 NOTE Paragraph 00:01:30.120 --> 00:01:32.816 就像我們站在兩扇門前面。 00:01:32.840 --> 00:01:34.096 一號門後面, 00:01:34.120 --> 00:01:37.416 我們停止發展製造有智能的機器。 00:01:37.440 --> 00:01:41.456 我們的電腦硬體和軟體 就因故停止變得更好。 00:01:41.480 --> 00:01:44.480 現在花一點時間想想 為什麼這會發生。 00:01:45.080 --> 00:01:48.736 我的意思是,人工智能 和自動化如此有價值, 00:01:48.760 --> 00:01:52.280 我們會持續改善我們的科技, 只要我們有能力做。 00:01:53.200 --> 00:01:54.867 有什麼東西能阻止我們這麼做呢? 00:01:55.800 --> 00:01:57.600 一場全面性的核子戰爭? 00:01:59.000 --> 00:02:00.560 一場全球性的流行病? 00:02:02.320 --> 00:02:03.640 一次小行星撞擊地球? 00:02:05.640 --> 00:02:08.216 小賈斯汀成為美國總統? NOTE Paragraph 00:02:08.240 --> 00:02:10.520 (笑聲) NOTE Paragraph 00:02:12.760 --> 00:02:16.680 重點是:必須有什麼東西 會毀滅我們所知的文明。 00:02:17.360 --> 00:02:21.656 你必須想像到底能有多糟 00:02:21.680 --> 00:02:25.016 才能阻止我們持續改善我們的科技, 00:02:25.040 --> 00:02:26.256 永久地, 00:02:26.280 --> 00:02:28.296 一代又一代人。 00:02:28.320 --> 00:02:29.650 幾乎從定義上,這就是 00:02:29.650 --> 00:02:32.390 人類歷史上發生過的最糟的事。 NOTE Paragraph 00:02:32.390 --> 00:02:33.816 所以唯一的替代選項, 00:02:33.840 --> 00:02:36.070 這是在二號門之後的東西, 00:02:36.070 --> 00:02:39.336 是我們繼續改善我們的智能機器, 00:02:39.360 --> 00:02:41.210 年復一年,年復一年。 00:02:41.720 --> 00:02:45.360 到某個時間點,我們會造出 比我們還聰明的機器, 00:02:46.080 --> 00:02:48.090 而我們一旦造出比我們聰明的機器, 00:02:48.090 --> 00:02:50.696 它們就會開始改善自己。 00:02:50.720 --> 00:02:53.300 然後我們承擔數學家 IJ Good 稱為 00:02:53.300 --> 00:02:55.256 「人工智能爆發」的風險, 00:02:55.280 --> 00:02:57.280 那個過程會脫離我們的掌握。 NOTE Paragraph 00:02:58.120 --> 00:03:00.936 這時常被漫畫化,如我的這張圖, 00:03:00.960 --> 00:03:04.176 一種恐懼:充滿惡意的機械人軍團 00:03:04.200 --> 00:03:05.456 會攻擊我們。 00:03:05.480 --> 00:03:08.176 但這不是最可能發生的情境。 00:03:08.200 --> 00:03:13.056 並不是說我們的機器會變得 自然地帶有敵意。 00:03:13.080 --> 00:03:15.696 問題在於我們將會造出 00:03:15.720 --> 00:03:17.776 遠比我們更有競爭力的機器, 00:03:17.800 --> 00:03:21.576 只要我們和他們的目標 有些微的歧異, 00:03:21.600 --> 00:03:22.800 就會讓我們被毀滅。 NOTE Paragraph 00:03:23.960 --> 00:03:26.040 就想想我們和螞蟻的關係。 00:03:26.600 --> 00:03:28.256 我們不討厭牠們。 00:03:28.280 --> 00:03:30.336 我們不會特別去傷害牠們。 00:03:30.360 --> 00:03:32.736 甚至有時我們為了 不傷害牠們而承受痛苦。 00:03:32.760 --> 00:03:34.776 我們在人行道跨越他們。 00:03:34.800 --> 00:03:36.936 但當牠們的存在 00:03:36.960 --> 00:03:39.456 和我們的目標嚴重衝突, 00:03:39.480 --> 00:03:41.901 譬如當我們要建造一棟 和這裡一樣的建築物, 00:03:41.901 --> 00:03:43.941 我們會毫無不安地除滅牠們。 00:03:44.480 --> 00:03:47.416 問題在於有一天我們會造出機器, 00:03:47.440 --> 00:03:50.176 無論他們是有意識或者沒有意識, 00:03:50.200 --> 00:03:52.200 會對我們如螞蟻般的不予理會。 NOTE Paragraph 00:03:53.760 --> 00:03:56.520 現在,我懷疑這種說法 對這裡大部分的人來說不著邊際。 00:03:57.360 --> 00:04:03.696 我確信你們有些人懷疑 超級人工智能出現的可能, 00:04:03.720 --> 00:04:05.376 更別說它必然出現。 00:04:05.400 --> 00:04:09.020 但接著你一點會發現 接下來其中一個假設有點問題。 00:04:09.044 --> 00:04:10.616 以下只有三個假設。 NOTE Paragraph 00:04:11.800 --> 00:04:16.519 智能是關於資訊 在物質系統裡處理的過程。 00:04:17.320 --> 00:04:19.935 其實這個陳述已經不只是一個假設, 00:04:19.959 --> 00:04:23.416 我們已經在我們的機器裡 安裝了有限的智能, 00:04:23.440 --> 00:04:25.456 而很多這樣的機器已經表現出 00:04:25.480 --> 00:04:28.120 某種程度的超人類智能。 00:04:28.840 --> 00:04:31.416 而我們知道這個現象 00:04:31.440 --> 00:04:34.056 可能導致被稱為「通用智能」的東西, 00:04:34.080 --> 00:04:37.736 一種能跨多個領域靈活思考的能力, 00:04:37.760 --> 00:04:40.896 因為我們的腦 已經掌握了這個,對吧? 00:04:40.920 --> 00:04:44.856 我的意思是,裡面都只是原子, 00:04:44.880 --> 00:04:49.376 只要我們繼續製造基於原子的系統, 00:04:49.400 --> 00:04:52.096 越來越能表現智能的行為, 00:04:52.120 --> 00:04:54.656 我們終究會,除非我們被打斷, 00:04:54.680 --> 00:04:58.056 我們終究會造出通用智能 00:04:58.080 --> 00:04:59.376 裝進我們的機器裡。 NOTE Paragraph 00:04:59.400 --> 00:05:03.056 關鍵是理解到發展的速率無關緊要, 00:05:03.080 --> 00:05:06.256 因為任何進展都足以 帶我們到終結之境。 00:05:06.280 --> 00:05:10.056 我們不需要摩爾定律才能繼續。 我們不需要指數型的發展。 00:05:10.080 --> 00:05:11.680 我們只需要繼續前進。 NOTE Paragraph 00:05:13.480 --> 00:05:16.400 第二個假設是我們會繼續前進。 00:05:17.000 --> 00:05:19.760 我們會持續改善我們的智能機器。 00:05:21.000 --> 00:05:25.376 而因為智能的價值── 00:05:25.400 --> 00:05:28.936 我的意思是,智能是所有 我們珍視的事物的源頭, 00:05:28.960 --> 00:05:31.736 或者我們需要智能 來保護我們珍視的事物。 00:05:31.760 --> 00:05:34.016 智能是我們最珍貴的資源。 00:05:34.040 --> 00:05:35.576 所以我們想要這麼做。 00:05:35.600 --> 00:05:38.936 我們有許多亟需解決的問題。 00:05:38.960 --> 00:05:42.160 我們想要治癒疾病 如阿茲海默症和癌症。 00:05:42.960 --> 00:05:46.896 我們想要了解經濟系統。 我們想要改進我們的氣候科學。 00:05:46.920 --> 00:05:49.176 所以我們會這麼做,只要我們可以。 00:05:49.200 --> 00:05:52.486 火車已經出站,而沒有煞車可以拉。 NOTE Paragraph 00:05:53.880 --> 00:05:59.336 最後一點,我們不站在智能的巔峰, 00:05:59.360 --> 00:06:01.160 或者根本不在那附近。 00:06:01.640 --> 00:06:03.536 而這真的是一種重要的洞察。 00:06:03.560 --> 00:06:05.976 正是這個讓我們的處境如此危險可疑, 00:06:06.000 --> 00:06:10.040 這也讓我們對風險的直覺 變得很不可靠。 NOTE Paragraph 00:06:11.120 --> 00:06:13.840 現在,想想這世界上最聰明的人。 00:06:14.640 --> 00:06:18.056 每個人的清單上幾乎都會有 約翰·馮·諾伊曼。 00:06:18.080 --> 00:06:21.416 我是指, 馮·諾伊曼 對他周圍的人造成的印象, 00:06:21.440 --> 00:06:25.496 而這包括和他同時代 最棒的數學家和物理學家, 00:06:25.520 --> 00:06:27.456 被好好地記錄了。 00:06:27.480 --> 00:06:31.256 只要有一半關於他的故事一半是真的, 00:06:31.280 --> 00:06:32.496 那毫無疑問 00:06:32.520 --> 00:06:34.976 他是世界上活過最聰明的人之一。 00:06:35.000 --> 00:06:37.520 所以考慮智能的頻譜。 00:06:38.320 --> 00:06:39.749 約翰·馮·諾伊曼在這裡。 00:06:41.560 --> 00:06:42.894 然後你和我在這裡。 00:06:44.120 --> 00:06:45.416 然後雞在這裡。 NOTE Paragraph 00:06:45.440 --> 00:06:47.376 (笑聲) NOTE Paragraph 00:06:47.400 --> 00:06:48.616 抱歉,雞應該在那裡。 NOTE Paragraph 00:06:48.640 --> 00:06:49.896 (笑聲) NOTE Paragraph 00:06:49.920 --> 00:06:53.656 我實在無意把這個演講 弄得比它本身更讓人感到沮喪。 NOTE Paragraph 00:06:53.680 --> 00:06:55.280 (笑聲) NOTE Paragraph 00:06:56.339 --> 00:06:59.816 智能的頻譜似乎勢不可擋地 00:06:59.840 --> 00:07:02.960 往比我們能理解的更遠的地方延伸, 00:07:03.880 --> 00:07:07.096 如果我們造出 比我們更有智能的機器, 00:07:07.120 --> 00:07:09.416 他們很可能會探索這個頻譜, 00:07:09.440 --> 00:07:11.296 以我們無法想像的方式, 00:07:11.320 --> 00:07:13.840 然後以我們無法想像的方式超越我們。 NOTE Paragraph 00:07:15.000 --> 00:07:19.336 重要的是認識到這說法 僅因速度的優勢即為真。 00:07:19.360 --> 00:07:24.416 對吧?請想像如果我們造出了 一個超級人工智能, 00:07:24.440 --> 00:07:30.186 它不比你一般在史丹佛或麻省理工 遇到的研究團隊聰明。 00:07:30.210 --> 00:07:34.486 電子電路作用的速率 比起生化作用快一百萬倍, 00:07:34.520 --> 00:07:39.476 所以這個機器思考應該 比製造它的心智快一百萬倍。 00:07:39.520 --> 00:07:41.176 如果你設定讓它運行一星期, 00:07:41.200 --> 00:07:45.760 他會執行人類兩萬年的智能工作, 00:07:46.400 --> 00:07:48.360 一週接著一週接著一週。 00:07:49.640 --> 00:07:52.736 我們如何可能理解,較不嚴格地說, 00:07:52.760 --> 00:07:55.040 一個達成如此進展的心智? NOTE Paragraph 00:07:56.840 --> 00:07:58.976 另一個另人擔心的事,老實說, 00:07:59.000 --> 00:08:03.976 是想像最好的情況。 00:08:04.000 --> 00:08:09.596 想像我們想到一個沒有安全顧慮的 超級人工智能的設計, 00:08:09.600 --> 00:08:12.856 我們第一次就做出了完美的設計。 00:08:12.880 --> 00:08:15.096 如同我們被給予了一個神諭, 00:08:15.120 --> 00:08:17.136 完全照我們的預期地動作。 00:08:17.160 --> 00:08:20.880 這個機器會是完美的人力節約裝置。 00:08:21.680 --> 00:08:22.970 它能設計一個機器, 00:08:22.970 --> 00:08:25.920 那機器能製造出能做任何人工的機器, 00:08:25.920 --> 00:08:27.376 以太陽能驅動, 00:08:27.400 --> 00:08:30.096 幾乎只需要原料的成本。 00:08:30.120 --> 00:08:33.376 所以我們是在談人類苦役的終結。 00:08:33.400 --> 00:08:36.200 我們也是在談大部分 智力工作的終結。 NOTE Paragraph 00:08:37.200 --> 00:08:40.256 像我們一樣的猩猩 在這種情況下會做什麼? 00:08:40.280 --> 00:08:44.360 我們可能可以自由地 玩飛盤和互相按摩。 00:08:45.840 --> 00:08:48.696 加上一點迷幻藥和可議的服裝選擇, 00:08:48.720 --> 00:08:50.896 整個世界都可以像在過火人祭典。 NOTE Paragraph 00:08:50.920 --> 00:08:52.560 (笑聲) NOTE Paragraph 00:08:54.320 --> 00:08:56.320 那聽起來也許很不錯, 00:08:57.280 --> 00:09:02.406 但請問,在我們目前的經濟和政治 秩序下,會發生什麼事情? 00:09:02.440 --> 00:09:04.856 我們很可能會見證 00:09:04.880 --> 00:09:10.216 一種我們從未見過的 財富不均和失業程度。 00:09:10.216 --> 00:09:13.176 缺乏一種意願來把這份新財富馬上 00:09:13.200 --> 00:09:14.680 放在服務全人類, 00:09:15.640 --> 00:09:19.256 少數幾個萬億富翁 能登上我們的財經雜誌, 00:09:19.280 --> 00:09:21.720 而其他人可以自由地選擇挨餓。 NOTE Paragraph 00:09:22.320 --> 00:09:24.616 而俄國和中國會怎麼做? 00:09:24.640 --> 00:09:27.256 當他們聽說矽谷的某個公司 00:09:27.280 --> 00:09:30.016 即將部署一個超級人工智能, 00:09:30.040 --> 00:09:32.896 這個機器能夠發動戰爭, 00:09:32.920 --> 00:09:35.136 無論是領土侵略或者網路電子戰, 00:09:35.160 --> 00:09:36.840 以前所未見的威力。 00:09:38.120 --> 00:09:39.976 這是個贏者全拿的劇本。 00:09:40.000 --> 00:09:43.136 在這個競爭領先六個月 00:09:43.160 --> 00:09:45.936 等於領先五十萬年, 00:09:45.960 --> 00:09:47.456 最少。 00:09:47.480 --> 00:09:52.216 所以即使僅僅是這種突破的謠言 00:09:52.240 --> 00:09:54.616 都能使我們這個種族走向狂暴。 NOTE Paragraph 00:09:54.640 --> 00:09:57.536 現在,最讓人驚恐的事情, 00:09:57.560 --> 00:10:00.336 在我的看法,在這個時刻, 00:10:00.360 --> 00:10:06.586 是人工智慧研究者在試著表現得 讓人安心時說的那類話。 00:10:07.000 --> 00:10:10.456 而最常用來告訴我們 現在不要擔心的理由是時間。 00:10:10.480 --> 00:10:12.536 這還有很長的路要走,你不知道嗎, 00:10:12.560 --> 00:10:15.000 起碼還要 50 到 100 年。 00:10:15.720 --> 00:10:16.976 一個研究人員曾說, 00:10:17.000 --> 00:10:18.576 「憂心人工智慧安全 00:10:18.600 --> 00:10:20.880 如同憂心火星人口爆炸。」 00:10:22.116 --> 00:10:23.736 這是矽谷版本的 00:10:23.760 --> 00:10:25.840 「別杞人憂天。」 NOTE Paragraph 00:10:25.840 --> 00:10:27.496 (笑聲) NOTE Paragraph 00:10:27.520 --> 00:10:29.416 似乎沒人注意到 00:10:29.440 --> 00:10:32.056 以時間當參考 00:10:32.080 --> 00:10:34.656 是一個不合理的推論。 00:10:34.680 --> 00:10:37.936 如果智能只是關於資訊的處理, 00:10:37.960 --> 00:10:40.616 而我們持續改善我們的機器, 00:10:40.640 --> 00:10:43.520 我們會製作出某種形式的超級智能。 00:10:44.320 --> 00:10:47.976 而且我們不知道要花我們多長的時間 00:10:48.000 --> 00:10:50.400 來創造安全地這麼做的條件。 00:10:52.200 --> 00:10:53.496 讓我再說一次, 00:10:53.520 --> 00:10:57.336 我們不知道要花我們多長的時間 00:10:57.360 --> 00:10:59.600 來創造安全地這麼做的條件。 NOTE Paragraph 00:11:00.920 --> 00:11:04.376 而且如果你還沒注意到, 50 年已經不像以前的概念。 00:11:04.400 --> 00:11:06.856 這是 50 年以月來表示。 00:11:06.880 --> 00:11:08.720 這是我們有了 iPhone 的時間。 00:11:09.440 --> 00:11:12.040 這是《辛普森家庭》 在電視上播映的時間。 00:11:12.680 --> 00:11:15.056 50 年不是那麼長的時間 00:11:15.080 --> 00:11:18.240 來面對對我們這個種族來說 最巨大的挑戰之一。 00:11:19.640 --> 00:11:23.656 再一次說,我們似乎 無法產生適當的情緒反應, 00:11:23.680 --> 00:11:26.376 對應我們有所有的理由 相信將發生的事。 NOTE Paragraph 00:11:26.400 --> 00:11:30.376 資訊科學家斯圖亞特·羅素 有個很好的比喻。 00:11:30.400 --> 00:11:35.296 他說,想像我們收到一則 外星文明的訊息, 00:11:35.320 --> 00:11:37.016 寫道: 00:11:37.040 --> 00:11:38.576 「地球的人們, 00:11:38.600 --> 00:11:40.960 我們 50 年內會到達你們的星球。 00:11:41.800 --> 00:11:43.376 作好準備。」 00:11:43.400 --> 00:11:47.656 而現在我們只是在倒數 外星母艦還剩幾個月登陸? 00:11:47.680 --> 00:11:50.680 我們會比我們現在稍微感到緊迫。 NOTE Paragraph 00:11:52.680 --> 00:11:54.536 另一個我們被告知不用擔心的原因 00:11:54.560 --> 00:11:57.576 是這些機器不得不和我們 有一樣的價值觀, 00:11:57.600 --> 00:12:00.216 因為他們實際上只是我們的延伸。 00:12:00.240 --> 00:12:02.056 它們會被植入我們的大腦裡, 00:12:02.080 --> 00:12:04.440 而我們基本上變成 他們大腦的邊緣系統。 00:12:05.120 --> 00:12:06.536 現在用一點時間想想 00:12:06.560 --> 00:12:09.736 這最安全而且唯一謹慎的往前的路, 00:12:09.760 --> 00:12:11.096 被推薦的, 00:12:11.120 --> 00:12:13.920 是將這個科技植入我們的腦內。 00:12:14.600 --> 00:12:17.976 這也許的確是最安全 而且唯一謹慎的往前的路, 00:12:18.000 --> 00:12:21.056 但通常科技的安全性問題 00:12:21.080 --> 00:12:24.736 應該在把東西插到你腦袋裡之前 就該大部分解決了。 NOTE Paragraph 00:12:24.760 --> 00:12:26.776 (笑聲) NOTE Paragraph 00:12:26.800 --> 00:12:32.136 更深層的問題是, 打造超級人工智能本身, 00:12:32.160 --> 00:12:33.896 似乎相對容易於 00:12:33.920 --> 00:12:35.776 打造超級人工智慧 00:12:35.800 --> 00:12:37.576 並擁有完整的神經科學, 00:12:37.600 --> 00:12:40.280 讓我們可以把我們的心智 無縫與之整合。 00:12:40.800 --> 00:12:43.976 而假設正在從事人工智能 研發的許多公司和政府, 00:12:44.000 --> 00:12:47.656 很可能察覺他們 正在和所有其他人競爭, 00:12:47.680 --> 00:12:50.936 假設贏了這個競爭就是贏得世界, 00:12:50.960 --> 00:12:53.416 假設你在下一刻不會毀了世界, 00:12:53.440 --> 00:12:56.056 那麼很可能比較容易做的事 00:12:56.080 --> 00:12:57.280 就會先被做完。 NOTE Paragraph 00:12:58.560 --> 00:13:01.220 現在,很不幸地, 我沒有這個問題的解決方法, 00:13:01.220 --> 00:13:03.640 除了建議我們更多人思考這個問題。 00:13:03.640 --> 00:13:06.270 我想我們需要類似曼哈頓計畫的東西, 00:13:06.270 --> 00:13:08.410 針對人工智能這個課題。 00:13:08.410 --> 00:13:10.790 不是因為我們不可避免地 要這麼做而做, 00:13:10.790 --> 00:13:14.616 而是試著理解如何避免軍備競賽, 00:13:14.640 --> 00:13:18.136 而且用一種符合 我們利益的方式打造之。 00:13:18.160 --> 00:13:22.356 當你在談論能夠對其本身 造成改變的超級人工智能, 00:13:22.600 --> 00:13:27.216 這似乎說明我們只有一次機會 把初始條件做對, 00:13:27.240 --> 00:13:29.296 而且我們會必須承受 00:13:29.320 --> 00:13:32.360 為了將它們做對的經濟和政治後果。 NOTE Paragraph 00:13:33.760 --> 00:13:35.816 但一旦我們承認 00:13:35.840 --> 00:13:39.840 資訊處理是智能的源頭, 00:13:40.720 --> 00:13:45.520 某些適當的電腦系統是智能的基礎, 00:13:46.360 --> 00:13:50.120 而且我們承認我們會 持續改進這些系統, 00:13:51.280 --> 00:13:55.736 而且我們承認認知的極限 有可能遠遠超越 00:13:55.760 --> 00:13:56.960 我們目前所知, 00:13:58.120 --> 00:13:59.336 我們就會承認 00:13:59.360 --> 00:14:02.000 我們正在打造某種神明的過程裡。 00:14:03.400 --> 00:14:04.976 現在是個好時機 00:14:05.000 --> 00:14:06.953 來確保那是個我們能夠 與之共存的神明。 NOTE Paragraph 00:14:08.120 --> 00:14:09.656 謝謝大家。