< Return to Video

不要害怕超級人工智能

  • 0:01 - 0:05
    我小時候是個典型的書呆子。
  • 0:05 - 0:07
    你們有些人也曾經是書呆子。
  • 0:08 - 0:09
    (笑聲)
  • 0:09 - 0:12
    那位笑最大聲的也許現在還是書呆子。
  • 0:12 - 0:14
    (笑聲)
  • 0:14 - 0:18
    我在北德州一座塵土飛揚的
    平原小鎮長大,
  • 0:18 - 0:21
    父親是警長,祖父是牧師。
  • 0:21 - 0:23
    所以我「惹上麻煩」是不可能的事。
  • 0:24 - 0:27
    因此我開始讀微積分的書當消遣。
  • 0:27 - 0:29
    (笑聲)
  • 0:29 - 0:31
    你也讀過。
  • 0:31 - 0:34
    這引導我去製作雷射、
    電腦和火箭模型,
  • 0:34 - 0:38
    然後我在臥室裡製造火箭推進燃料。
  • 0:38 - 0:42
    如果用科學上的說法來形容,
  • 0:42 - 0:45
    我們把這叫做「糟糕透頂的主意」。
  • 0:45 - 0:46
    (笑聲)
  • 0:46 - 0:48
    大概在那段時期,
  • 0:48 - 0:52
    史丹利·庫柏力克執導的
    《2001 太空漫遊》上映了,
  • 0:52 - 0:54
    我的人生也永遠地改變了。
  • 0:54 - 0:56
    我愛上了這部電影裡的一切,
  • 0:56 - 0:59
    尤其是「豪爾-9000」。
  • 0:59 - 1:01
    豪爾是一台知覺電腦,
  • 1:01 - 1:03
    設計來引導「發現號」太空船,
  • 1:03 - 1:06
    從地球前往木星。
  • 1:06 - 1:08
    豪爾也是個有缺陷的角色,
  • 1:08 - 1:13
    因為它最終選擇
    任務優先、人命其次。
  • 1:13 - 1:15
    儘管豪爾只是個虛構的角色,
  • 1:15 - 1:18
    卻直指我們內心的恐懼,
  • 1:18 - 1:20
    我們害怕被征服的恐懼,
  • 1:20 - 1:21
    臣服於某個沒有情感,
  • 1:21 - 1:25
    對於人類漠不關心的人工智能電腦。
  • 1:26 - 1:28
    我認為這種恐懼只是杞人憂天。
  • 1:28 - 1:30
    沒錯,我們現在處於
  • 1:30 - 1:33
    人類史上一個偉大的時代。
  • 1:33 - 1:38
    我們拒絕接受肉體和心靈上的限制,
  • 1:38 - 1:41
    我們製造細緻、精美,複雜
  • 1:41 - 1:43
    又優雅的機器。
  • 1:43 - 1:45
    這些機器將透過各種超乎想像的方式,
  • 1:45 - 1:47
    拓展人類的經驗範圍。
  • 1:48 - 1:50
    我曾任職於美國空軍學院,
  • 1:50 - 1:52
    現在服務於美國空軍太空司令部。
  • 1:52 - 1:54
    我成了系統工程師,
  • 1:54 - 1:56
    最近我被派去解決一個
  • 1:56 - 1:59
    與美國太空總署的
    火星任務有關的工程問題。
  • 1:59 - 2:02
    目前,前往月球的太空航行,
  • 2:02 - 2:05
    我們可以仰賴位於休士頓的控制中心
  • 2:05 - 2:07
    來監控這段旅程的所有層面。
  • 2:07 - 2:11
    然而,火星的距離比月球遠了200倍,
  • 2:11 - 2:14
    一個訊號平均要花 13 分鐘,
  • 2:14 - 2:17
    才能從地球傳送到火星。
  • 2:17 - 2:21
    如果發生了任何狀況,
    根本不夠時間解決。
  • 2:21 - 2:23
    所以一個合理的工程解決方案,
  • 2:23 - 2:26
    就是把控制中心的位置,
  • 2:26 - 2:29
    放在「獵戶座」太空船裡面。
  • 2:29 - 2:32
    在任務方面,還有另一個絕妙的點子,
  • 2:32 - 2:34
    就是提早在人類之前抵達前,
  • 2:34 - 2:37
    先在火星表面部署人型機器人。
  • 2:37 - 2:38
    它們首先建造設備,
  • 2:38 - 2:42
    以後擔任科學小組的協助角色。
  • 2:43 - 2:46
    當我從工程師的角度來看這件事,
  • 2:46 - 2:49
    很明顯我需要做的
  • 2:49 - 2:52
    就是製作一個聰明、善於合作、
  • 2:52 - 2:54
    具備社交智能的人工智能電腦。
  • 2:54 - 2:58
    換句話說,我需要製作一個很像豪爾,
  • 2:58 - 3:01
    但是沒有殺人的癖好的電腦。
  • 3:01 - 3:02
    (笑聲)
  • 3:03 - 3:05
    讓我們暫停一下。
  • 3:05 - 3:09
    真的有可能,製作出那樣的
    人工智慧電腦嗎?
  • 3:09 - 3:10
    確實有可能。
  • 3:10 - 3:11
    就許多方面來說,
  • 3:11 - 3:13
    這是一個困難的工程問題,
  • 3:13 - 3:15
    其中包含了人工智慧的元素,
  • 3:15 - 3:20
    而不是一個難解的人工智能問題。
  • 3:20 - 3:22
    就如同艾倫·圖靈所說的,
  • 3:22 - 3:25
    我沒有興趣製造一台情識的機器。
  • 3:25 - 3:26
    我所製作的並不是豪爾,
  • 3:26 - 3:29
    我想要的是一個簡單的大腦,
  • 3:29 - 3:32
    它能夠營造出「具備智慧」的錯覺。
  • 3:33 - 3:35
    在豪爾登台亮相之後,
  • 3:35 - 3:38
    藝術和計算科學已有了長足的進步。
  • 3:38 - 3:41
    我想如果它的發明者
    強德拉(Chandra)博士今天也在現場,
  • 3:41 - 3:43
    他會有很多問題要問我們。
  • 3:43 - 3:45
    我們是否真的有可能
  • 3:45 - 3:49
    讓一個擁有無數元件的系統,
  • 3:49 - 3:51
    去讀自己的數據流,
  • 3:51 - 3:53
    然後預測故障以及提前預防?
  • 3:53 - 3:54
    這是可能的。
  • 3:54 - 3:58
    我們可否做出可使用自然語言
    交談的系統?
  • 3:58 - 3:59
    可以。
  • 3:59 - 4:02
    我們可否做出能夠
    辨別物體、辨識情緒、
  • 4:02 - 4:05
    模擬情緒、玩遊戲,
    甚至能讀唇語的系統?
  • 4:05 - 4:06
    可以。
  • 4:07 - 4:09
    我們可否做出一個能夠設定目標,
  • 4:09 - 4:12
    並一面執行朝向目標的計劃,
    同時在過程中學習的系統?
  • 4:12 - 4:14
    可以。
  • 4:14 - 4:17
    我們可否做出具備心智理論的系統?
  • 4:17 - 4:18
    這個目前我們還在學習做。
  • 4:18 - 4:22
    我們可否做出擁有
    倫理與道德基礎的系統?
  • 4:22 - 4:25
    這個我們必須摸索如何做。
  • 4:25 - 4:27
    所以讓我們姑且相信
  • 4:27 - 4:30
    建造這樣的人工智能系統有可能成真,
  • 4:30 - 4:32
    以用在諸如此類和其他的任務。
  • 4:32 - 4:34
    接下來我們必須捫心自問,
  • 4:34 - 4:36
    我們是否應該感到害怕?
  • 4:36 - 4:38
    誠然,每一項新的科技
  • 4:38 - 4:41
    都會帶來某種程度的擔憂。
  • 4:41 - 4:42
    當汽車問世的時候,
  • 4:43 - 4:47
    眾人都在哀嘆家庭可能因此而毀滅。
  • 4:47 - 4:49
    當電話問世的時候,
  • 4:49 - 4:52
    眾人擔心日常的對話會不復存在。
  • 4:52 - 4:56
    當書面文字風行的時候,
  • 4:56 - 4:59
    眾人以為我們會失去記憶的能力。
  • 4:59 - 5:01
    這些擔憂在某種程度上都有所根據,
  • 5:01 - 5:03
    但同時這些科技
  • 5:03 - 5:06
    以某些深刻的方式,
  • 5:06 - 5:09
    帶給我們許多拓展人類經驗的事物。
  • 5:10 - 5:12
    讓我們再繼續探討。
  • 5:13 - 5:18
    我並不懼怕創造
    像這樣的人工智能系統,
  • 5:18 - 5:22
    因為它最終會
    體現我們的一些價值觀。
  • 5:22 - 5:24
    思考一下:建造認知系統
  • 5:24 - 5:29
    與過去建造傳統
    軟體密集型的系統根本不同。
  • 5:29 - 5:31
    我們不寫電腦程式。我們教它們。
  • 5:31 - 5:34
    為了教導系統如何辨識花,
  • 5:34 - 5:37
    我給它們看數以千計
    我喜歡的花的圖片。
  • 5:37 - 5:39
    為了教系統如何玩遊戲--
  • 5:39 - 5:41
    我會,你也會。
  • 5:43 - 5:45
    我喜歡花。你也是吧!
  • 5:45 - 5:48
    為了教系統如何玩遊戲,例如圍棋,
  • 5:48 - 5:50
    我會讓它一面下數千局圍棋,
  • 5:50 - 5:52
    也在下棋的過程中
  • 5:52 - 5:54
    教它如何分辨好的、不好的棋局。
  • 5:55 - 5:58
    如果我要造個人工智能的法律助理,
  • 5:58 - 6:00
    我會教它一些法律,
  • 6:00 - 6:04
    同時我會將它與憐憫的感覺
  • 6:04 - 6:06
    和法律正義融合在一起。
  • 6:07 - 6:10
    以科學術語方面,
    這就是我們所謂的真理,
  • 6:10 - 6:12
    重點來了:
  • 6:12 - 6:13
    在製造這些機器時,
  • 6:13 - 6:16
    我們因此教它們我們的價值感。
  • 6:17 - 6:20
    為此,我相信人工智能
  • 6:20 - 6:24
    至少不會輸給訓練有素的人。
  • 6:24 - 6:25
    但是,你可能問,
  • 6:25 - 6:28
    那些流氓代理,
  • 6:28 - 6:31
    那些資金豐富的非政府組織呢?
  • 6:31 - 6:35
    我不擔心獨狼(獨行俠)
    手上的人工智能。
  • 6:35 - 6:40
    很顯然,我們無法防禦
    所有隨機的暴力行為,
  • 6:40 - 6:42
    但是現實是這種系統,
  • 6:42 - 6:45
    需要大量的訓練和微妙的訓練,
  • 6:45 - 6:47
    非個人的資源所能及。
  • 6:47 - 6:49
    此外,
  • 6:49 - 6:52
    遠遠超出像把互聯網病毒注入世界,
  • 6:52 - 6:55
    只要按個按鈕,
    頃刻之間病毒就會散播各處,
  • 6:55 - 6:57
    所有地方的筆電開始當機。
  • 6:57 - 7:00
    這些實質要大得多,
  • 7:00 - 7:02
    我們確定會看到它們的到來。
  • 7:03 - 7:06
    我擔心這樣的人工智能
  • 7:06 - 7:08
    會威脅全體人類嗎?
  • 7:08 - 7:14
    電影如《駭客任務》、
    《大都會》、《魔鬼終結者》,
  • 7:14 - 7:16
    電視劇像是《西方極樂園》,
  • 7:16 - 7:18
    都是在談這種恐懼。
  • 7:18 - 7:22
    的確,在哲學家尼克· 博斯特倫
    寫的 《超級智能》書裡,
  • 7:22 - 7:24
    他以此主題,
  • 7:24 - 7:28
    主張超智能不僅危險,
  • 7:28 - 7:32
    還可能威脅全人類的存亡。
  • 7:32 - 7:34
    博斯特倫博士的基本論點是:
  • 7:34 - 7:37
    這種系統最終
  • 7:37 - 7:40
    將會不屈不撓地渴望資訊,
  • 7:40 - 7:43
    它們或許會學習到如何學習的方法,
  • 7:43 - 7:45
    最終發現它們的目標
  • 7:45 - 7:48
    可能與人類的背道而馳。
  • 7:48 - 7:50
    博斯特倫博士有不少追隨者。
  • 7:50 - 7:54
    他得到伊隆·馬斯克和
    史蒂芬·霍金等人的支持。
  • 7:55 - 7:58
    我非常尊重
  • 7:58 - 8:00
    這些非常聰明的人,
  • 8:00 - 8:02
    但是我相信他們從根本上就是錯誤的,
  • 8:02 - 8:06
    博斯格羅姆博士的許多說法
    需要被詳細分析,
  • 8:06 - 8:08
    但在此我沒有時間分別解說。
  • 8:08 - 8:11
    簡要的說,就考慮這個:
  • 8:11 - 8:14
    超智能與超執行完全是兩回事。
  • 8:14 - 8:17
    只有當豪爾全面掌控「發現號」時,
  • 8:17 - 8:21
    才對「發現號」的組員造成威脅。
  • 8:21 - 8:23
    所以它就必須是有超智慧。
  • 8:23 - 8:26
    它必須擁有對我們全世界的統治權。
  • 8:26 - 8:29
    這是電影《魔鬼終結者》 裡的
    「天網」所具有的。
  • 8:29 - 8:30
    它有超智能
  • 8:30 - 8:32
    來指揮的人的意志,
  • 8:32 - 8:36
    來操控世界每一個角落的每個設備。
  • 8:36 - 8:37
    實際上,
  • 8:37 - 8:39
    這不會發生。
  • 8:39 - 8:42
    我們不是製造人工智能來控制氣候、
  • 8:42 - 8:44
    控制海潮,
  • 8:44 - 8:47
    指揮反覆無常和混亂的人類。
  • 8:47 - 8:51
    此外,如果這樣的人工智能真的存在,
  • 8:51 - 8:54
    它必須與人類的經濟競爭,
  • 8:54 - 8:57
    從而與我們競爭資源。
  • 8:57 - 8:58
    最後,
  • 8:58 - 9:00
    不要告訴 Siri 這個——
  • 9:00 - 9:02
    我們可以隨時拔掉它們的插頭。
  • 9:02 - 9:04
    (笑聲)
  • 9:05 - 9:08
    我們正處於與我們的機器共同演化的
  • 9:08 - 9:10
    一個難以置信的旅程。
  • 9:10 - 9:13
    今天的人類
  • 9:13 - 9:15
    不是屆時的人類。
  • 9:15 - 9:19
    現在擔心超級智能的出現,
  • 9:19 - 9:22
    會使我們在許多方面危險地分心,
  • 9:22 - 9:24
    因為計算機本身的興起,
  • 9:24 - 9:27
    帶來的許多人類和社會問題,
  • 9:27 - 9:29
    我們現在就必須解決。
  • 9:29 - 9:32
    當人力的需要逐漸減少時,
  • 9:32 - 9:35
    我們如何重整這個社會?
  • 9:35 - 9:38
    我該如何為全球帶來理解和教育
  • 9:38 - 9:40
    而仍然尊重我們彼此的分歧?
  • 9:40 - 9:44
    我們如何通過認知保健
    延伸和增強人的生命?
  • 9:44 - 9:47
    我如何使用計算技術
  • 9:47 - 9:49
    來幫助我們去到其他星球?
  • 9:50 - 9:52
    這是令人興奮的事。
  • 9:52 - 9:55
    透過計算技術的運用,
  • 9:55 - 9:56
    來拓展人類經驗的機會,
  • 9:56 - 9:58
    就在我們眼前。
  • 9:58 - 10:00
    此時、此刻,
  • 10:00 - 10:02
    我們才正要起步而已。
  • 10:02 - 10:03
    非常感謝各位。
  • 10:04 - 10:08
    (掌聲)
Title:
不要害怕超級人工智能
Speaker:
格雷迪·布啟
Description:

科學家和哲學家格雷迪·布啟(Grady Booch)說,新科技帶來新的焦慮,但我們不需要害怕功能強大,沒有情感的人工智能電腦。布啟解釋我們將教它們,與它們分享我們的價值觀,來消弭我們對超級智能電腦的恐懼。與其擔心不可能存在的威脅,他敦促我們考慮人工智能如何改善人類生活。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Chinese, Traditional subtitles

Revisions