不要害怕超級人工智能
-
0:01 - 0:05我小時候是個典型的書呆子。
-
0:05 - 0:07你們有些人也曾經是書呆子。
-
0:08 - 0:09(笑聲)
-
0:09 - 0:12那位笑最大聲的也許現在還是書呆子。
-
0:12 - 0:14(笑聲)
-
0:14 - 0:18我在北德州一座塵土飛揚的
平原小鎮長大, -
0:18 - 0:21父親是警長,祖父是牧師。
-
0:21 - 0:23所以我「惹上麻煩」是不可能的事。
-
0:24 - 0:27因此我開始讀微積分的書當消遣。
-
0:27 - 0:29(笑聲)
-
0:29 - 0:31你也讀過。
-
0:31 - 0:34這引導我去製作雷射、
電腦和火箭模型, -
0:34 - 0:38然後我在臥室裡製造火箭推進燃料。
-
0:38 - 0:42如果用科學上的說法來形容,
-
0:42 - 0:45我們把這叫做「糟糕透頂的主意」。
-
0:45 - 0:46(笑聲)
-
0:46 - 0:48大概在那段時期,
-
0:48 - 0:52史丹利·庫柏力克執導的
《2001 太空漫遊》上映了, -
0:52 - 0:54我的人生也永遠地改變了。
-
0:54 - 0:56我愛上了這部電影裡的一切,
-
0:56 - 0:59尤其是「豪爾-9000」。
-
0:59 - 1:01豪爾是一台知覺電腦,
-
1:01 - 1:03設計來引導「發現號」太空船,
-
1:03 - 1:06從地球前往木星。
-
1:06 - 1:08豪爾也是個有缺陷的角色,
-
1:08 - 1:13因為它最終選擇
任務優先、人命其次。 -
1:13 - 1:15儘管豪爾只是個虛構的角色,
-
1:15 - 1:18卻直指我們內心的恐懼,
-
1:18 - 1:20我們害怕被征服的恐懼,
-
1:20 - 1:21臣服於某個沒有情感,
-
1:21 - 1:25對於人類漠不關心的人工智能電腦。
-
1:26 - 1:28我認為這種恐懼只是杞人憂天。
-
1:28 - 1:30沒錯,我們現在處於
-
1:30 - 1:33人類史上一個偉大的時代。
-
1:33 - 1:38我們拒絕接受肉體和心靈上的限制,
-
1:38 - 1:41我們製造細緻、精美,複雜
-
1:41 - 1:43又優雅的機器。
-
1:43 - 1:45這些機器將透過各種超乎想像的方式,
-
1:45 - 1:47拓展人類的經驗範圍。
-
1:48 - 1:50我曾任職於美國空軍學院,
-
1:50 - 1:52現在服務於美國空軍太空司令部。
-
1:52 - 1:54我成了系統工程師,
-
1:54 - 1:56最近我被派去解決一個
-
1:56 - 1:59與美國太空總署的
火星任務有關的工程問題。 -
1:59 - 2:02目前,前往月球的太空航行,
-
2:02 - 2:05我們可以仰賴位於休士頓的控制中心
-
2:05 - 2:07來監控這段旅程的所有層面。
-
2:07 - 2:11然而,火星的距離比月球遠了200倍,
-
2:11 - 2:14一個訊號平均要花 13 分鐘,
-
2:14 - 2:17才能從地球傳送到火星。
-
2:17 - 2:21如果發生了任何狀況,
根本不夠時間解決。 -
2:21 - 2:23所以一個合理的工程解決方案,
-
2:23 - 2:26就是把控制中心的位置,
-
2:26 - 2:29放在「獵戶座」太空船裡面。
-
2:29 - 2:32在任務方面,還有另一個絕妙的點子,
-
2:32 - 2:34就是提早在人類之前抵達前,
-
2:34 - 2:37先在火星表面部署人型機器人。
-
2:37 - 2:38它們首先建造設備,
-
2:38 - 2:42以後擔任科學小組的協助角色。
-
2:43 - 2:46當我從工程師的角度來看這件事,
-
2:46 - 2:49很明顯我需要做的
-
2:49 - 2:52就是製作一個聰明、善於合作、
-
2:52 - 2:54具備社交智能的人工智能電腦。
-
2:54 - 2:58換句話說,我需要製作一個很像豪爾,
-
2:58 - 3:01但是沒有殺人的癖好的電腦。
-
3:01 - 3:02(笑聲)
-
3:03 - 3:05讓我們暫停一下。
-
3:05 - 3:09真的有可能,製作出那樣的
人工智慧電腦嗎? -
3:09 - 3:10確實有可能。
-
3:10 - 3:11就許多方面來說,
-
3:11 - 3:13這是一個困難的工程問題,
-
3:13 - 3:15其中包含了人工智慧的元素,
-
3:15 - 3:20而不是一個難解的人工智能問題。
-
3:20 - 3:22就如同艾倫·圖靈所說的,
-
3:22 - 3:25我沒有興趣製造一台情識的機器。
-
3:25 - 3:26我所製作的並不是豪爾,
-
3:26 - 3:29我想要的是一個簡單的大腦,
-
3:29 - 3:32它能夠營造出「具備智慧」的錯覺。
-
3:33 - 3:35在豪爾登台亮相之後,
-
3:35 - 3:38藝術和計算科學已有了長足的進步。
-
3:38 - 3:41我想如果它的發明者
強德拉(Chandra)博士今天也在現場, -
3:41 - 3:43他會有很多問題要問我們。
-
3:43 - 3:45我們是否真的有可能
-
3:45 - 3:49讓一個擁有無數元件的系統,
-
3:49 - 3:51去讀自己的數據流,
-
3:51 - 3:53然後預測故障以及提前預防?
-
3:53 - 3:54這是可能的。
-
3:54 - 3:58我們可否做出可使用自然語言
交談的系統? -
3:58 - 3:59可以。
-
3:59 - 4:02我們可否做出能夠
辨別物體、辨識情緒、 -
4:02 - 4:05模擬情緒、玩遊戲,
甚至能讀唇語的系統? -
4:05 - 4:06可以。
-
4:07 - 4:09我們可否做出一個能夠設定目標,
-
4:09 - 4:12並一面執行朝向目標的計劃,
同時在過程中學習的系統? -
4:12 - 4:14可以。
-
4:14 - 4:17我們可否做出具備心智理論的系統?
-
4:17 - 4:18這個目前我們還在學習做。
-
4:18 - 4:22我們可否做出擁有
倫理與道德基礎的系統? -
4:22 - 4:25這個我們必須摸索如何做。
-
4:25 - 4:27所以讓我們姑且相信
-
4:27 - 4:30建造這樣的人工智能系統有可能成真,
-
4:30 - 4:32以用在諸如此類和其他的任務。
-
4:32 - 4:34接下來我們必須捫心自問,
-
4:34 - 4:36我們是否應該感到害怕?
-
4:36 - 4:38誠然,每一項新的科技
-
4:38 - 4:41都會帶來某種程度的擔憂。
-
4:41 - 4:42當汽車問世的時候,
-
4:43 - 4:47眾人都在哀嘆家庭可能因此而毀滅。
-
4:47 - 4:49當電話問世的時候,
-
4:49 - 4:52眾人擔心日常的對話會不復存在。
-
4:52 - 4:56當書面文字風行的時候,
-
4:56 - 4:59眾人以為我們會失去記憶的能力。
-
4:59 - 5:01這些擔憂在某種程度上都有所根據,
-
5:01 - 5:03但同時這些科技
-
5:03 - 5:06以某些深刻的方式,
-
5:06 - 5:09帶給我們許多拓展人類經驗的事物。
-
5:10 - 5:12讓我們再繼續探討。
-
5:13 - 5:18我並不懼怕創造
像這樣的人工智能系統, -
5:18 - 5:22因為它最終會
體現我們的一些價值觀。 -
5:22 - 5:24思考一下:建造認知系統
-
5:24 - 5:29與過去建造傳統
軟體密集型的系統根本不同。 -
5:29 - 5:31我們不寫電腦程式。我們教它們。
-
5:31 - 5:34為了教導系統如何辨識花,
-
5:34 - 5:37我給它們看數以千計
我喜歡的花的圖片。 -
5:37 - 5:39為了教系統如何玩遊戲--
-
5:39 - 5:41我會,你也會。
-
5:43 - 5:45我喜歡花。你也是吧!
-
5:45 - 5:48為了教系統如何玩遊戲,例如圍棋,
-
5:48 - 5:50我會讓它一面下數千局圍棋,
-
5:50 - 5:52也在下棋的過程中
-
5:52 - 5:54教它如何分辨好的、不好的棋局。
-
5:55 - 5:58如果我要造個人工智能的法律助理,
-
5:58 - 6:00我會教它一些法律,
-
6:00 - 6:04同時我會將它與憐憫的感覺
-
6:04 - 6:06和法律正義融合在一起。
-
6:07 - 6:10以科學術語方面,
這就是我們所謂的真理, -
6:10 - 6:12重點來了:
-
6:12 - 6:13在製造這些機器時,
-
6:13 - 6:16我們因此教它們我們的價值感。
-
6:17 - 6:20為此,我相信人工智能
-
6:20 - 6:24至少不會輸給訓練有素的人。
-
6:24 - 6:25但是,你可能問,
-
6:25 - 6:28那些流氓代理,
-
6:28 - 6:31那些資金豐富的非政府組織呢?
-
6:31 - 6:35我不擔心獨狼(獨行俠)
手上的人工智能。 -
6:35 - 6:40很顯然,我們無法防禦
所有隨機的暴力行為, -
6:40 - 6:42但是現實是這種系統,
-
6:42 - 6:45需要大量的訓練和微妙的訓練,
-
6:45 - 6:47非個人的資源所能及。
-
6:47 - 6:49此外,
-
6:49 - 6:52遠遠超出像把互聯網病毒注入世界,
-
6:52 - 6:55只要按個按鈕,
頃刻之間病毒就會散播各處, -
6:55 - 6:57所有地方的筆電開始當機。
-
6:57 - 7:00這些實質要大得多,
-
7:00 - 7:02我們確定會看到它們的到來。
-
7:03 - 7:06我擔心這樣的人工智能
-
7:06 - 7:08會威脅全體人類嗎?
-
7:08 - 7:14電影如《駭客任務》、
《大都會》、《魔鬼終結者》, -
7:14 - 7:16電視劇像是《西方極樂園》,
-
7:16 - 7:18都是在談這種恐懼。
-
7:18 - 7:22的確,在哲學家尼克· 博斯特倫
寫的 《超級智能》書裡, -
7:22 - 7:24他以此主題,
-
7:24 - 7:28主張超智能不僅危險,
-
7:28 - 7:32還可能威脅全人類的存亡。
-
7:32 - 7:34博斯特倫博士的基本論點是:
-
7:34 - 7:37這種系統最終
-
7:37 - 7:40將會不屈不撓地渴望資訊,
-
7:40 - 7:43它們或許會學習到如何學習的方法,
-
7:43 - 7:45最終發現它們的目標
-
7:45 - 7:48可能與人類的背道而馳。
-
7:48 - 7:50博斯特倫博士有不少追隨者。
-
7:50 - 7:54他得到伊隆·馬斯克和
史蒂芬·霍金等人的支持。 -
7:55 - 7:58我非常尊重
-
7:58 - 8:00這些非常聰明的人,
-
8:00 - 8:02但是我相信他們從根本上就是錯誤的,
-
8:02 - 8:06博斯格羅姆博士的許多說法
需要被詳細分析, -
8:06 - 8:08但在此我沒有時間分別解說。
-
8:08 - 8:11簡要的說,就考慮這個:
-
8:11 - 8:14超智能與超執行完全是兩回事。
-
8:14 - 8:17只有當豪爾全面掌控「發現號」時,
-
8:17 - 8:21才對「發現號」的組員造成威脅。
-
8:21 - 8:23所以它就必須是有超智慧。
-
8:23 - 8:26它必須擁有對我們全世界的統治權。
-
8:26 - 8:29這是電影《魔鬼終結者》 裡的
「天網」所具有的。 -
8:29 - 8:30它有超智能
-
8:30 - 8:32來指揮的人的意志,
-
8:32 - 8:36來操控世界每一個角落的每個設備。
-
8:36 - 8:37實際上,
-
8:37 - 8:39這不會發生。
-
8:39 - 8:42我們不是製造人工智能來控制氣候、
-
8:42 - 8:44控制海潮,
-
8:44 - 8:47指揮反覆無常和混亂的人類。
-
8:47 - 8:51此外,如果這樣的人工智能真的存在,
-
8:51 - 8:54它必須與人類的經濟競爭,
-
8:54 - 8:57從而與我們競爭資源。
-
8:57 - 8:58最後,
-
8:58 - 9:00不要告訴 Siri 這個——
-
9:00 - 9:02我們可以隨時拔掉它們的插頭。
-
9:02 - 9:04(笑聲)
-
9:05 - 9:08我們正處於與我們的機器共同演化的
-
9:08 - 9:10一個難以置信的旅程。
-
9:10 - 9:13今天的人類
-
9:13 - 9:15不是屆時的人類。
-
9:15 - 9:19現在擔心超級智能的出現,
-
9:19 - 9:22會使我們在許多方面危險地分心,
-
9:22 - 9:24因為計算機本身的興起,
-
9:24 - 9:27帶來的許多人類和社會問題,
-
9:27 - 9:29我們現在就必須解決。
-
9:29 - 9:32當人力的需要逐漸減少時,
-
9:32 - 9:35我們如何重整這個社會?
-
9:35 - 9:38我該如何為全球帶來理解和教育
-
9:38 - 9:40而仍然尊重我們彼此的分歧?
-
9:40 - 9:44我們如何通過認知保健
延伸和增強人的生命? -
9:44 - 9:47我如何使用計算技術
-
9:47 - 9:49來幫助我們去到其他星球?
-
9:50 - 9:52這是令人興奮的事。
-
9:52 - 9:55透過計算技術的運用,
-
9:55 - 9:56來拓展人類經驗的機會,
-
9:56 - 9:58就在我們眼前。
-
9:58 - 10:00此時、此刻,
-
10:00 - 10:02我們才正要起步而已。
-
10:02 - 10:03非常感謝各位。
-
10:04 - 10:08(掌聲)
- Title:
- 不要害怕超級人工智能
- Speaker:
- 格雷迪·布啟
- Description:
-
科學家和哲學家格雷迪·布啟(Grady Booch)說,新科技帶來新的焦慮,但我們不需要害怕功能強大,沒有情感的人工智能電腦。布啟解釋我們將教它們,與它們分享我們的價值觀,來消弭我們對超級智能電腦的恐懼。與其擔心不可能存在的威脅,他敦促我們考慮人工智能如何改善人類生活。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Helen Chang approved Chinese, Traditional subtitles for Don't fear superintelligent AI | ||
Helen Chang accepted Chinese, Traditional subtitles for Don't fear superintelligent AI | ||
Helen Chang edited Chinese, Traditional subtitles for Don't fear superintelligent AI | ||
Helen Chang edited Chinese, Traditional subtitles for Don't fear superintelligent AI | ||
Helen Chang rejected Chinese, Traditional subtitles for Don't fear superintelligent AI | ||
绮丽 罗 accepted Chinese, Traditional subtitles for Don't fear superintelligent AI | ||
绮丽 罗 edited Chinese, Traditional subtitles for Don't fear superintelligent AI | ||
Melody Tang edited Chinese, Traditional subtitles for Don't fear superintelligent AI |