0:00:00.760,0:00:04.600 我小時候是個典型的書呆子。 0:00:05.320,0:00:07.496 你們有些人也曾經是書呆子。 0:00:07.520,0:00:08.736 (笑聲) 0:00:08.760,0:00:11.976 那位笑最大聲的也許現在還是書呆子。 0:00:12.000,0:00:14.256 (笑聲) 0:00:14.280,0:00:17.776 我在北德州一座塵土飛揚的[br]平原小鎮長大, 0:00:17.800,0:00:21.136 父親是警長,祖父是牧師。 0:00:21.160,0:00:23.460 所以我「惹上麻煩」是不可能的事。 0:00:24.040,0:00:27.296 因此我開始讀微積分的書當消遣。 0:00:27.320,0:00:28.856 (笑聲) 0:00:28.880,0:00:30.576 你也讀過。 0:00:30.600,0:00:34.336 這引導我去製作雷射、[br]電腦和火箭模型, 0:00:34.360,0:00:37.570 然後我在臥室裡製造火箭推進燃料。 0:00:37.960,0:00:41.616 如果用科學上的說法來形容, 0:00:41.640,0:00:44.896 我們把這叫做「糟糕透頂的主意」。 0:00:44.920,0:00:46.136 (笑聲) 0:00:46.160,0:00:48.336 大概在那段時期, 0:00:48.360,0:00:51.576 史丹利·庫柏力克執導的[br]《2001 太空漫遊》上映了, 0:00:51.600,0:00:54.190 我的人生也永遠地改變了。 0:00:54.280,0:00:56.336 我愛上了這部電影裡的一切, 0:00:56.360,0:00:58.896 尤其是「豪爾-9000」。 0:00:58.920,0:01:00.976 豪爾是一台知覺電腦, 0:01:01.000,0:01:03.456 設計來引導「發現號」太空船, 0:01:03.480,0:01:06.016 從地球前往木星。 0:01:06.040,0:01:08.096 豪爾也是個有缺陷的角色, 0:01:08.120,0:01:12.730 因為它最終選擇[br]任務優先、人命其次。 0:01:12.840,0:01:14.936 儘管豪爾只是個虛構的角色, 0:01:14.960,0:01:17.616 卻直指我們內心的恐懼, 0:01:17.640,0:01:19.736 我們害怕被征服的恐懼, 0:01:19.760,0:01:21.296 臣服於某個沒有情感, 0:01:21.320,0:01:24.880 對於人類漠不關心的人工智能電腦。 0:01:25.880,0:01:28.456 我認為這種恐懼只是杞人憂天。 0:01:28.480,0:01:30.310 沒錯,我們現在處於 0:01:30.310,0:01:32.736 人類史上一個偉大的時代。 0:01:32.760,0:01:37.736 我們拒絕接受肉體和心靈上的限制, 0:01:37.760,0:01:41.250 我們製造細緻、精美,複雜 0:01:41.270,0:01:43.096 又優雅的機器。 0:01:43.120,0:01:45.176 這些機器將透過各種超乎想像的方式, 0:01:45.200,0:01:47.220 拓展人類的經驗範圍。 0:01:47.720,0:01:50.296 我曾任職於美國空軍學院, 0:01:50.320,0:01:52.256 現在服務於美國空軍太空司令部。 0:01:52.280,0:01:53.976 我成了系統工程師, 0:01:53.976,0:01:55.896 最近我被派去解決一個 0:01:55.940,0:01:59.336 與美國太空總署的[br]火星任務有關的工程問題。 0:01:59.360,0:02:01.856 目前,前往月球的太空航行, 0:02:01.880,0:02:05.016 我們可以仰賴位於休士頓的控制中心 0:02:05.040,0:02:07.016 來監控這段旅程的所有層面。 0:02:07.040,0:02:10.576 然而,火星的距離比月球遠了200倍, 0:02:10.600,0:02:13.816 一個訊號平均要花 13 分鐘, 0:02:13.840,0:02:16.976 才能從地球傳送到火星。 0:02:17.000,0:02:20.630 如果發生了任何狀況,[br]根本不夠時間解決。 0:02:20.840,0:02:23.336 所以一個合理的工程解決方案, 0:02:23.360,0:02:25.936 就是把控制中心的位置, 0:02:25.960,0:02:28.976 放在「獵戶座」太空船裡面。 0:02:29.000,0:02:31.896 在任務方面,還有另一個絕妙的點子, 0:02:31.920,0:02:33.800 就是提早在人類之前抵達前, 0:02:33.800,0:02:36.696 先在火星表面部署人型機器人。 0:02:36.720,0:02:38.376 它們首先建造設備, 0:02:38.400,0:02:41.980 以後擔任科學小組的協助角色。 0:02:43.400,0:02:46.136 當我從工程師的角度來看這件事, 0:02:46.160,0:02:49.336 很明顯我需要做的 0:02:49.360,0:02:51.536 就是製作一個聰明、善於合作、 0:02:51.560,0:02:53.936 具備社交智能的人工智能電腦。 0:02:53.960,0:02:58.256 換句話說,我需要製作一個很像豪爾, 0:02:58.280,0:03:00.696 但是沒有殺人的癖好的電腦。 0:03:00.720,0:03:02.080 (笑聲) 0:03:02.920,0:03:04.736 讓我們暫停一下。 0:03:04.760,0:03:08.656 真的有可能,製作出那樣的[br]人工智慧電腦嗎? 0:03:08.680,0:03:10.136 確實有可能。 0:03:10.160,0:03:11.416 就許多方面來說, 0:03:11.440,0:03:13.416 這是一個困難的工程問題, 0:03:13.440,0:03:14.896 其中包含了人工智慧的元素, 0:03:14.920,0:03:19.616 而不是一個難解的人工智能問題。 0:03:19.640,0:03:22.296 就如同艾倫·圖靈所說的, 0:03:22.320,0:03:24.696 我沒有興趣製造一台情識的機器。 0:03:24.720,0:03:26.296 我所製作的並不是豪爾, 0:03:26.320,0:03:28.736 我想要的是一個簡單的大腦, 0:03:28.760,0:03:32.290 它能夠營造出「具備智慧」的錯覺。 0:03:33.000,0:03:34.880 在豪爾登台亮相之後, 0:03:34.880,0:03:37.656 藝術和計算科學已有了長足的進步。 0:03:37.680,0:03:40.896 我想如果它的發明者[br]強德拉(Chandra)博士今天也在現場, 0:03:40.920,0:03:43.256 他會有很多問題要問我們。 0:03:43.280,0:03:45.376 我們是否真的有可能 0:03:45.400,0:03:49.416 讓一個擁有無數元件的系統, 0:03:49.440,0:03:50.896 去讀自己的數據流, 0:03:50.920,0:03:53.176 然後預測故障以及提前預防? 0:03:53.200,0:03:54.416 這是可能的。 0:03:54.440,0:03:57.616 我們可否做出可使用自然語言[br]交談的系統? 0:03:57.640,0:03:58.856 可以。 0:03:58.880,0:04:01.856 我們可否做出能夠[br]辨別物體、辨識情緒、 0:04:01.880,0:04:05.256 模擬情緒、玩遊戲,[br]甚至能讀唇語的系統? 0:04:05.280,0:04:06.496 可以。 0:04:06.520,0:04:08.656 我們可否做出一個能夠設定目標, 0:04:08.680,0:04:12.296 並一面執行朝向目標的計劃,[br]同時在過程中學習的系統? 0:04:12.320,0:04:13.536 可以。 0:04:13.560,0:04:16.896 我們可否做出具備心智理論的系統? 0:04:16.920,0:04:18.416 這個目前我們還在學習做。 0:04:18.440,0:04:22.110 我們可否做出擁有[br]倫理與道德基礎的系統? 0:04:22.480,0:04:24.520 這個我們必須摸索如何做。 0:04:25.360,0:04:26.736 所以讓我們姑且相信 0:04:26.760,0:04:29.656 建造這樣的人工智能系統有可能成真, 0:04:29.680,0:04:31.816 以用在諸如此類和其他的任務。 0:04:31.840,0:04:34.376 接下來我們必須捫心自問, 0:04:34.400,0:04:35.856 我們是否應該感到害怕? 0:04:35.880,0:04:37.856 誠然,每一項新的科技 0:04:37.880,0:04:40.776 都會帶來某種程度的擔憂。 0:04:40.800,0:04:42.496 當汽車問世的時候, 0:04:42.520,0:04:46.536 眾人都在哀嘆家庭可能因此而毀滅。 0:04:46.560,0:04:49.256 當電話問世的時候, 0:04:49.280,0:04:52.176 眾人擔心日常的對話會不復存在。 0:04:52.200,0:04:56.136 當書面文字風行的時候, 0:04:56.160,0:04:58.656 眾人以為我們會失去記憶的能力。 0:04:58.680,0:05:00.736 這些擔憂在某種程度上都有所根據, 0:05:00.760,0:05:03.176 但同時這些科技 0:05:03.200,0:05:05.780 以某些深刻的方式, 0:05:05.780,0:05:08.840 帶給我們許多拓展人類經驗的事物。 0:05:09.840,0:05:12.260 讓我們再繼續探討。 0:05:13.120,0:05:17.856 我並不懼怕創造[br]像這樣的人工智能系統, 0:05:17.880,0:05:21.696 因為它最終會[br]體現我們的一些價值觀。 0:05:21.720,0:05:23.916 思考一下:建造認知系統 0:05:23.930,0:05:28.536 與過去建造傳統[br]軟體密集型的系統根本不同。 0:05:28.560,0:05:31.016 我們不寫電腦程式。我們教它們。 0:05:31.040,0:05:33.696 為了教導系統如何辨識花, 0:05:33.720,0:05:36.736 我給它們看數以千計[br]我喜歡的花的圖片。 0:05:36.760,0:05:39.016 為了教系統如何玩遊戲-- 0:05:39.040,0:05:41.220 我會,你也會。 0:05:42.600,0:05:44.640 我喜歡花。你也是吧! 0:05:45.440,0:05:48.296 為了教系統如何玩遊戲,例如圍棋, 0:05:48.320,0:05:50.376 我會讓它一面下數千局圍棋, 0:05:50.400,0:05:51.800 也在下棋的過程中 0:05:51.800,0:05:54.496 教它如何分辨好的、不好的棋局。 0:05:54.520,0:05:58.216 如果我要造個人工智能的法律助理, 0:05:58.240,0:06:00.016 我會教它一些法律, 0:06:00.040,0:06:03.600 同時我會將它與憐憫的感覺 0:06:03.600,0:06:06.000 和法律正義融合在一起。 0:06:06.560,0:06:09.786 以科學術語方面,[br]這就是我們所謂的真理, 0:06:09.786,0:06:11.576 重點來了: 0:06:11.600,0:06:13.056 在製造這些機器時, 0:06:13.080,0:06:16.496 我們因此教它們我們的價值感。 0:06:16.520,0:06:19.656 為此,我相信人工智能 0:06:19.680,0:06:23.530 至少不會輸給訓練有素的人。 0:06:24.080,0:06:25.296 但是,你可能問, 0:06:25.320,0:06:27.936 那些流氓代理, 0:06:27.960,0:06:31.296 那些資金豐富的非政府組織呢? 0:06:31.320,0:06:35.136 我不擔心獨狼(獨行俠)[br]手上的人工智能。 0:06:35.160,0:06:39.696 很顯然,我們無法防禦[br]所有隨機的暴力行為, 0:06:39.720,0:06:41.856 但是現實是這種系統, 0:06:41.880,0:06:45.136 需要大量的訓練和微妙的訓練, 0:06:45.136,0:06:47.456 非個人的資源所能及。 0:06:47.456,0:06:48.536 此外, 0:06:48.560,0:06:51.816 遠遠超出像把互聯網病毒注入世界, 0:06:51.840,0:06:54.936 只要按個按鈕,[br]頃刻之間病毒就會散播各處, 0:06:54.960,0:06:57.416 所有地方的筆電開始當機。 0:06:57.440,0:07:00.256 這些實質要大得多, 0:07:00.280,0:07:02.125 我們確定會看到它們的到來。 0:07:02.520,0:07:05.576 我擔心這樣的人工智能 0:07:05.600,0:07:08.010 會威脅全體人類嗎? 0:07:08.280,0:07:13.676 電影如《駭客任務》、[br]《大都會》、《魔鬼終結者》, 0:07:13.696,0:07:15.856 電視劇像是《西方極樂園》, 0:07:15.880,0:07:18.016 都是在談這種恐懼。 0:07:18.040,0:07:22.336 的確,在哲學家尼克· 博斯特倫[br]寫的 《超級智能》書裡, 0:07:22.360,0:07:23.896 他以此主題, 0:07:23.920,0:07:27.936 主張超智能不僅危險, 0:07:27.960,0:07:31.816 還可能威脅全人類的存亡。 0:07:31.840,0:07:34.056 博斯特倫博士的基本論點是: 0:07:34.080,0:07:36.816 這種系統最終 0:07:36.840,0:07:40.096 將會不屈不撓地渴望資訊, 0:07:40.120,0:07:43.016 它們或許會學習到如何學習的方法, 0:07:43.040,0:07:44.520 最終發現它們的目標 0:07:44.550,0:07:47.976 可能與人類的背道而馳。 0:07:48.000,0:07:49.856 博斯特倫博士有不少追隨者。 0:07:49.880,0:07:54.200 他得到伊隆·馬斯克和[br]史蒂芬·霍金等人的支持。 0:07:54.880,0:07:57.610 我非常尊重 0:07:58.160,0:08:00.176 這些非常聰明的人, 0:08:00.200,0:08:02.456 但是我相信他們從根本上就是錯誤的, 0:08:02.480,0:08:05.656 博斯格羅姆博士的許多說法[br]需要被詳細分析, 0:08:05.680,0:08:07.816 但在此我沒有時間分別解說。 0:08:07.840,0:08:10.536 簡要的說,就考慮這個: 0:08:10.560,0:08:14.296 超智能與超執行完全是兩回事。 0:08:14.320,0:08:17.116 只有當豪爾全面掌控「發現號」時, 0:08:17.150,0:08:20.656 才對「發現號」的組員造成威脅。 0:08:20.680,0:08:23.176 所以它就必須是有超智慧。 0:08:23.200,0:08:25.696 它必須擁有對我們全世界的統治權。 0:08:25.720,0:08:28.536 這是電影《魔鬼終結者》 裡的[br]「天網」所具有的。 0:08:28.560,0:08:30.416 它有超智能 0:08:30.440,0:08:31.816 來指揮的人的意志, 0:08:31.840,0:08:35.696 來操控世界每一個角落的每個設備。 0:08:35.720,0:08:37.176 實際上, 0:08:37.200,0:08:39.296 這不會發生。 0:08:39.320,0:08:42.376 我們不是製造人工智能來控制氣候、 0:08:42.400,0:08:43.736 控制海潮, 0:08:43.760,0:08:47.136 指揮反覆無常和混亂的人類。 0:08:47.160,0:08:51.056 此外,如果這樣的人工智能真的存在, 0:08:51.080,0:08:54.016 它必須與人類的經濟競爭, 0:08:54.040,0:08:56.560 從而與我們競爭資源。 0:08:57.200,0:08:58.416 最後, 0:08:58.440,0:09:00.080 不要告訴 Siri 這個—— 0:09:00.440,0:09:02.266 我們可以隨時拔掉它們的插頭。 0:09:02.266,0:09:03.960 (笑聲) 0:09:05.360,0:09:07.816 我們正處於與我們的機器共同演化的 0:09:07.840,0:09:10.336 一個難以置信的旅程。 0:09:10.360,0:09:12.856 今天的人類 0:09:12.880,0:09:15.416 不是屆時的人類。 0:09:15.440,0:09:18.576 現在擔心超級智能的出現, 0:09:18.600,0:09:21.656 會使我們在許多方面危險地分心, 0:09:21.680,0:09:24.016 因為計算機本身的興起, 0:09:24.040,0:09:27.056 帶來的許多人類和社會問題, 0:09:27.080,0:09:28.720 我們現在就必須解決。 0:09:29.360,0:09:32.176 當人力的需要逐漸減少時, 0:09:32.200,0:09:34.536 我們如何重整這個社會? 0:09:34.560,0:09:38.376 我該如何為全球帶來理解和教育 0:09:38.400,0:09:40.176 而仍然尊重我們彼此的分歧? 0:09:40.200,0:09:44.456 我們如何通過認知保健[br]延伸和增強人的生命? 0:09:44.480,0:09:47.336 我如何使用計算技術 0:09:47.360,0:09:49.430 來幫助我們去到其他星球? 0:09:49.760,0:09:52.050 這是令人興奮的事。 0:09:52.400,0:09:54.736 透過計算技術的運用, 0:09:54.760,0:09:56.296 來拓展人類經驗的機會, 0:09:56.320,0:09:57.736 就在我們眼前。 0:09:57.760,0:09:59.616 此時、此刻, 0:09:59.640,0:10:01.860 我們才正要起步而已。 0:10:02.280,0:10:03.496 非常感謝各位。 0:10:03.520,0:10:07.806 (掌聲)