WEBVTT 00:00:00.760 --> 00:00:04.600 我小時候是個典型的書呆子。 00:00:05.320 --> 00:00:07.496 你們有些人也曾經是書呆子。 NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (笑聲) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 那位笑最大聲的也許現在還是書呆子。 NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (笑聲) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 我在北德州一座塵土飛揚的 平原小鎮長大, 00:00:17.800 --> 00:00:21.136 父親是警長,祖父是牧師。 00:00:21.160 --> 00:00:23.460 所以我「惹上麻煩」是不可能的事。 00:00:24.040 --> 00:00:27.296 因此我開始讀微積分的書當消遣。 NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (笑聲) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 你也讀過。 00:00:30.600 --> 00:00:34.336 這引導我去製作雷射、 電腦和火箭模型, 00:00:34.360 --> 00:00:37.570 然後我在臥室裡製造火箭推進燃料。 00:00:37.960 --> 00:00:41.616 如果用科學上的說法來形容, 00:00:41.640 --> 00:00:44.896 我們把這叫做「糟糕透頂的主意」。 NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (笑聲) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 大概在那段時期, 00:00:48.360 --> 00:00:51.576 史丹利·庫柏力克執導的 《2001 太空漫遊》上映了, 00:00:51.600 --> 00:00:54.190 我的人生也永遠地改變了。 00:00:54.280 --> 00:00:56.336 我愛上了這部電影裡的一切, 00:00:56.360 --> 00:00:58.896 尤其是「豪爾-9000」。 00:00:58.920 --> 00:01:00.976 豪爾是一台知覺電腦, 00:01:01.000 --> 00:01:03.456 設計來引導「發現號」太空船, 00:01:03.480 --> 00:01:06.016 從地球前往木星。 00:01:06.040 --> 00:01:08.096 豪爾也是個有缺陷的角色, 00:01:08.120 --> 00:01:12.730 因為它最終選擇 任務優先、人命其次。 00:01:12.840 --> 00:01:14.936 儘管豪爾只是個虛構的角色, 00:01:14.960 --> 00:01:17.616 卻直指我們內心的恐懼, 00:01:17.640 --> 00:01:19.736 我們害怕被征服的恐懼, 00:01:19.760 --> 00:01:21.296 臣服於某個沒有情感, 00:01:21.320 --> 00:01:24.880 對於人類漠不關心的人工智能電腦。 NOTE Paragraph 00:01:25.880 --> 00:01:28.456 我認為這種恐懼只是杞人憂天。 00:01:28.480 --> 00:01:30.310 沒錯,我們現在處於 00:01:30.310 --> 00:01:32.736 人類史上一個偉大的時代。 00:01:32.760 --> 00:01:37.736 我們拒絕接受肉體和心靈上的限制, 00:01:37.760 --> 00:01:41.250 我們製造細緻、精美,複雜 00:01:41.270 --> 00:01:43.096 又優雅的機器。 00:01:43.120 --> 00:01:45.176 這些機器將透過各種超乎想像的方式, 00:01:45.200 --> 00:01:47.220 拓展人類的經驗範圍。 NOTE Paragraph 00:01:47.720 --> 00:01:50.296 我曾任職於美國空軍學院, 00:01:50.320 --> 00:01:52.256 現在服務於美國空軍太空司令部。 00:01:52.280 --> 00:01:53.976 我成了系統工程師, 00:01:53.976 --> 00:01:55.896 最近我被派去解決一個 00:01:55.940 --> 00:01:59.336 與美國太空總署的 火星任務有關的工程問題。 00:01:59.360 --> 00:02:01.856 目前,前往月球的太空航行, 00:02:01.880 --> 00:02:05.016 我們可以仰賴位於休士頓的控制中心 00:02:05.040 --> 00:02:07.016 來監控這段旅程的所有層面。 00:02:07.040 --> 00:02:10.576 然而,火星的距離比月球遠了200倍, 00:02:10.600 --> 00:02:13.816 一個訊號平均要花 13 分鐘, 00:02:13.840 --> 00:02:16.976 才能從地球傳送到火星。 00:02:17.000 --> 00:02:20.630 如果發生了任何狀況, 根本不夠時間解決。 00:02:20.840 --> 00:02:23.336 所以一個合理的工程解決方案, 00:02:23.360 --> 00:02:25.936 就是把控制中心的位置, 00:02:25.960 --> 00:02:28.976 放在「獵戶座」太空船裡面。 00:02:29.000 --> 00:02:31.896 在任務方面,還有另一個絕妙的點子, 00:02:31.920 --> 00:02:33.800 就是提早在人類之前抵達前, 00:02:33.800 --> 00:02:36.696 先在火星表面部署人型機器人。 00:02:36.720 --> 00:02:38.376 它們首先建造設備, 00:02:38.400 --> 00:02:41.980 以後擔任科學小組的協助角色。 NOTE Paragraph 00:02:43.400 --> 00:02:46.136 當我從工程師的角度來看這件事, 00:02:46.160 --> 00:02:49.336 很明顯我需要做的 00:02:49.360 --> 00:02:51.536 就是製作一個聰明、善於合作、 00:02:51.560 --> 00:02:53.936 具備社交智能的人工智能電腦。 00:02:53.960 --> 00:02:58.256 換句話說,我需要製作一個很像豪爾, 00:02:58.280 --> 00:03:00.696 但是沒有殺人的癖好的電腦。 NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (笑聲) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 讓我們暫停一下。 00:03:04.760 --> 00:03:08.656 真的有可能,製作出那樣的 人工智慧電腦嗎? 00:03:08.680 --> 00:03:10.136 確實有可能。 00:03:10.160 --> 00:03:11.416 就許多方面來說, 00:03:11.440 --> 00:03:13.416 這是一個困難的工程問題, 00:03:13.440 --> 00:03:14.896 其中包含了人工智慧的元素, 00:03:14.920 --> 00:03:19.616 而不是一個難解的人工智能問題。 00:03:19.640 --> 00:03:22.296 就如同艾倫·圖靈所說的, 00:03:22.320 --> 00:03:24.696 我沒有興趣製造一台情識的機器。 00:03:24.720 --> 00:03:26.296 我所製作的並不是豪爾, 00:03:26.320 --> 00:03:28.736 我想要的是一個簡單的大腦, 00:03:28.760 --> 00:03:32.290 它能夠營造出「具備智慧」的錯覺。 NOTE Paragraph 00:03:33.000 --> 00:03:34.880 在豪爾登台亮相之後, 00:03:34.880 --> 00:03:37.656 藝術和計算科學已有了長足的進步。 00:03:37.680 --> 00:03:40.896 我想如果它的發明者 強德拉(Chandra)博士今天也在現場, 00:03:40.920 --> 00:03:43.256 他會有很多問題要問我們。 00:03:43.280 --> 00:03:45.376 我們是否真的有可能 00:03:45.400 --> 00:03:49.416 讓一個擁有無數元件的系統, 00:03:49.440 --> 00:03:50.896 去讀自己的數據流, 00:03:50.920 --> 00:03:53.176 然後預測故障以及提前預防? 00:03:53.200 --> 00:03:54.416 這是可能的。 00:03:54.440 --> 00:03:57.616 我們可否做出可使用自然語言 交談的系統? 00:03:57.640 --> 00:03:58.856 可以。 00:03:58.880 --> 00:04:01.856 我們可否做出能夠 辨別物體、辨識情緒、 00:04:01.880 --> 00:04:05.256 模擬情緒、玩遊戲, 甚至能讀唇語的系統? 00:04:05.280 --> 00:04:06.496 可以。 00:04:06.520 --> 00:04:08.656 我們可否做出一個能夠設定目標, 00:04:08.680 --> 00:04:12.296 並一面執行朝向目標的計劃, 同時在過程中學習的系統? 00:04:12.320 --> 00:04:13.536 可以。 00:04:13.560 --> 00:04:16.896 我們可否做出具備心智理論的系統? 00:04:16.920 --> 00:04:18.416 這個目前我們還在學習做。 00:04:18.440 --> 00:04:22.110 我們可否做出擁有 倫理與道德基礎的系統? 00:04:22.480 --> 00:04:24.520 這個我們必須摸索如何做。 00:04:25.360 --> 00:04:26.736 所以讓我們姑且相信 00:04:26.760 --> 00:04:29.656 建造這樣的人工智能系統有可能成真, 00:04:29.680 --> 00:04:31.816 以用在諸如此類和其他的任務。 NOTE Paragraph 00:04:31.840 --> 00:04:34.376 接下來我們必須捫心自問, 00:04:34.400 --> 00:04:35.856 我們是否應該感到害怕? 00:04:35.880 --> 00:04:37.856 誠然,每一項新的科技 00:04:37.880 --> 00:04:40.776 都會帶來某種程度的擔憂。 00:04:40.800 --> 00:04:42.496 當汽車問世的時候, 00:04:42.520 --> 00:04:46.536 眾人都在哀嘆家庭可能因此而毀滅。 00:04:46.560 --> 00:04:49.256 當電話問世的時候, 00:04:49.280 --> 00:04:52.176 眾人擔心日常的對話會不復存在。 00:04:52.200 --> 00:04:56.136 當書面文字風行的時候, 00:04:56.160 --> 00:04:58.656 眾人以為我們會失去記憶的能力。 00:04:58.680 --> 00:05:00.736 這些擔憂在某種程度上都有所根據, 00:05:00.760 --> 00:05:03.176 但同時這些科技 00:05:03.200 --> 00:05:05.780 以某些深刻的方式, 00:05:05.780 --> 00:05:08.840 帶給我們許多拓展人類經驗的事物。 NOTE Paragraph 00:05:09.840 --> 00:05:12.260 讓我們再繼續探討。 00:05:13.120 --> 00:05:17.856 我並不懼怕創造 像這樣的人工智能系統, 00:05:17.880 --> 00:05:21.696 因為它最終會 體現我們的一些價值觀。 00:05:21.720 --> 00:05:23.916 思考一下:建造認知系統 00:05:23.930 --> 00:05:28.536 與過去建造傳統 軟體密集型的系統根本不同。 00:05:28.560 --> 00:05:31.016 我們不寫電腦程式。我們教它們。 00:05:31.040 --> 00:05:33.696 為了教導系統如何辨識花, 00:05:33.720 --> 00:05:36.736 我給它們看數以千計 我喜歡的花的圖片。 00:05:36.760 --> 00:05:39.016 為了教系統如何玩遊戲-- 00:05:39.040 --> 00:05:41.220 我會,你也會。 00:05:42.600 --> 00:05:44.640 我喜歡花。你也是吧! 00:05:45.440 --> 00:05:48.296 為了教系統如何玩遊戲,例如圍棋, 00:05:48.320 --> 00:05:50.376 我會讓它一面下數千局圍棋, 00:05:50.400 --> 00:05:51.800 也在下棋的過程中 00:05:51.800 --> 00:05:54.496 教它如何分辨好的、不好的棋局。 00:05:54.520 --> 00:05:58.216 如果我要造個人工智能的法律助理, 00:05:58.240 --> 00:06:00.016 我會教它一些法律, 00:06:00.040 --> 00:06:03.600 同時我會將它與憐憫的感覺 00:06:03.600 --> 00:06:06.000 和法律正義融合在一起。 00:06:06.560 --> 00:06:09.786 以科學術語方面, 這就是我們所謂的真理, 00:06:09.786 --> 00:06:11.576 重點來了: 00:06:11.600 --> 00:06:13.056 在製造這些機器時, 00:06:13.080 --> 00:06:16.496 我們因此教它們我們的價值感。 00:06:16.520 --> 00:06:19.656 為此,我相信人工智能 00:06:19.680 --> 00:06:23.530 至少不會輸給訓練有素的人。 NOTE Paragraph 00:06:24.080 --> 00:06:25.296 但是,你可能問, 00:06:25.320 --> 00:06:27.936 那些流氓代理, 00:06:27.960 --> 00:06:31.296 那些資金豐富的非政府組織呢? 00:06:31.320 --> 00:06:35.136 我不擔心獨狼(獨行俠) 手上的人工智能。 00:06:35.160 --> 00:06:39.696 很顯然,我們無法防禦 所有隨機的暴力行為, 00:06:39.720 --> 00:06:41.856 但是現實是這種系統, 00:06:41.880 --> 00:06:45.136 需要大量的訓練和微妙的訓練, 00:06:45.136 --> 00:06:47.456 非個人的資源所能及。 00:06:47.456 --> 00:06:48.536 此外, 00:06:48.560 --> 00:06:51.816 遠遠超出像把互聯網病毒注入世界, 00:06:51.840 --> 00:06:54.936 只要按個按鈕, 頃刻之間病毒就會散播各處, 00:06:54.960 --> 00:06:57.416 所有地方的筆電開始當機。 00:06:57.440 --> 00:07:00.256 這些實質要大得多, 00:07:00.280 --> 00:07:02.125 我們確定會看到它們的到來。 NOTE Paragraph 00:07:02.520 --> 00:07:05.576 我擔心這樣的人工智能 00:07:05.600 --> 00:07:08.010 會威脅全體人類嗎? 00:07:08.280 --> 00:07:13.676 電影如《駭客任務》、 《大都會》、《魔鬼終結者》, 00:07:13.696 --> 00:07:15.856 電視劇像是《西方極樂園》, 00:07:15.880 --> 00:07:18.016 都是在談這種恐懼。 00:07:18.040 --> 00:07:22.336 的確,在哲學家尼克· 博斯特倫 寫的 《超級智能》書裡, 00:07:22.360 --> 00:07:23.896 他以此主題, 00:07:23.920 --> 00:07:27.936 主張超智能不僅危險, 00:07:27.960 --> 00:07:31.816 還可能威脅全人類的存亡。 00:07:31.840 --> 00:07:34.056 博斯特倫博士的基本論點是: 00:07:34.080 --> 00:07:36.816 這種系統最終 00:07:36.840 --> 00:07:40.096 將會不屈不撓地渴望資訊, 00:07:40.120 --> 00:07:43.016 它們或許會學習到如何學習的方法, 00:07:43.040 --> 00:07:44.520 最終發現它們的目標 00:07:44.550 --> 00:07:47.976 可能與人類的背道而馳。 00:07:48.000 --> 00:07:49.856 博斯特倫博士有不少追隨者。 00:07:49.880 --> 00:07:54.200 他得到伊隆·馬斯克和 史蒂芬·霍金等人的支持。 00:07:54.880 --> 00:07:57.610 我非常尊重 00:07:58.160 --> 00:08:00.176 這些非常聰明的人, 00:08:00.200 --> 00:08:02.456 但是我相信他們從根本上就是錯誤的, 00:08:02.480 --> 00:08:05.656 博斯格羅姆博士的許多說法 需要被詳細分析, 00:08:05.680 --> 00:08:07.816 但在此我沒有時間分別解說。 00:08:07.840 --> 00:08:10.536 簡要的說,就考慮這個: 00:08:10.560 --> 00:08:14.296 超智能與超執行完全是兩回事。 00:08:14.320 --> 00:08:17.116 只有當豪爾全面掌控「發現號」時, 00:08:17.150 --> 00:08:20.656 才對「發現號」的組員造成威脅。 00:08:20.680 --> 00:08:23.176 所以它就必須是有超智慧。 00:08:23.200 --> 00:08:25.696 它必須擁有對我們全世界的統治權。 00:08:25.720 --> 00:08:28.536 這是電影《魔鬼終結者》 裡的 「天網」所具有的。 00:08:28.560 --> 00:08:30.416 它有超智能 00:08:30.440 --> 00:08:31.816 來指揮的人的意志, 00:08:31.840 --> 00:08:35.696 來操控世界每一個角落的每個設備。 00:08:35.720 --> 00:08:37.176 實際上, 00:08:37.200 --> 00:08:39.296 這不會發生。 00:08:39.320 --> 00:08:42.376 我們不是製造人工智能來控制氣候、 00:08:42.400 --> 00:08:43.736 控制海潮, 00:08:43.760 --> 00:08:47.136 指揮反覆無常和混亂的人類。 00:08:47.160 --> 00:08:51.056 此外,如果這樣的人工智能真的存在, 00:08:51.080 --> 00:08:54.016 它必須與人類的經濟競爭, 00:08:54.040 --> 00:08:56.560 從而與我們競爭資源。 00:08:57.200 --> 00:08:58.416 最後, 00:08:58.440 --> 00:09:00.080 不要告訴 Siri 這個—— 00:09:00.440 --> 00:09:02.266 我們可以隨時拔掉它們的插頭。 NOTE Paragraph 00:09:02.266 --> 00:09:03.960 (笑聲) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 我們正處於與我們的機器共同演化的 00:09:07.840 --> 00:09:10.336 一個難以置信的旅程。 00:09:10.360 --> 00:09:12.856 今天的人類 00:09:12.880 --> 00:09:15.416 不是屆時的人類。 00:09:15.440 --> 00:09:18.576 現在擔心超級智能的出現, 00:09:18.600 --> 00:09:21.656 會使我們在許多方面危險地分心, 00:09:21.680 --> 00:09:24.016 因為計算機本身的興起, 00:09:24.040 --> 00:09:27.056 帶來的許多人類和社會問題, 00:09:27.080 --> 00:09:28.720 我們現在就必須解決。 00:09:29.360 --> 00:09:32.176 當人力的需要逐漸減少時, 00:09:32.200 --> 00:09:34.536 我們如何重整這個社會? 00:09:34.560 --> 00:09:38.376 我該如何為全球帶來理解和教育 00:09:38.400 --> 00:09:40.176 而仍然尊重我們彼此的分歧? 00:09:40.200 --> 00:09:44.456 我們如何通過認知保健 延伸和增強人的生命? 00:09:44.480 --> 00:09:47.336 我如何使用計算技術 00:09:47.360 --> 00:09:49.430 來幫助我們去到其他星球? NOTE Paragraph 00:09:49.760 --> 00:09:52.050 這是令人興奮的事。 00:09:52.400 --> 00:09:54.736 透過計算技術的運用, 00:09:54.760 --> 00:09:56.296 來拓展人類經驗的機會, 00:09:56.320 --> 00:09:57.736 就在我們眼前。 00:09:57.760 --> 00:09:59.616 此時、此刻, 00:09:59.640 --> 00:10:01.860 我們才正要起步而已。 NOTE Paragraph 00:10:02.280 --> 00:10:03.496 非常感謝各位。 NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (掌聲)