< Return to Video

當電腦比人類聰明時會發生什麼?

  • 0:01 - 0:05
    我和一群數學家、 哲學家、
    及電腦科學家一起工作。
  • 0:05 - 0:10
    我們坐在一起
    思考機器智慧的未來。
  • 0:10 - 0:12
    以及其他問題。
  • 0:12 - 0:17
    有些人可能認為
    這是科幻小說的範疇,
  • 0:17 - 0:20
    離我們很遙遠,很瘋狂。
  • 0:20 - 0:21
    但是我要說,
  • 0:21 - 0:25
    好,我們來看看
    現代人類的狀況....
  • 0:25 - 0:27
    (觀眾笑聲)
  • 0:27 - 0:29
    這是人類的常態。
  • 0:29 - 0:31
    但如果我們仔細想想,
  • 0:31 - 0:36
    其實人類是剛剛才抵達地球的訪客
  • 0:36 - 0:41
    假設地球在一年前誕生,
  • 0:41 - 0:45
    人類這個物種則僅存在了10分鐘。
  • 0:45 - 0:48
    工業革命在2秒鐘前開始。
  • 0:49 - 0:55
    另外一個角度是
    看看這一萬年來的GDP增長
  • 0:55 - 0:58
    我花了時間作了張圖表,
  • 0:58 - 0:59
    它長這個樣子
  • 0:59 - 1:01
    (觀眾笑聲)
  • 1:01 - 1:03
    對一個正常的狀態來說
    這是個很有趣的形狀。
  • 1:03 - 1:05
    我可不想要坐在上面。
  • 1:05 - 1:07
    (觀眾笑聲)
  • 1:07 - 1:12
    我們不禁問自己:
    「是什麼造成了這種異態呢?」
  • 1:12 - 1:14
    有些人會說是科技
  • 1:14 - 1:19
    這是對的,
    科技在人類歷史上不斷累積,
  • 1:19 - 1:24
    而現在科技正以飛快的速度進步。
  • 1:24 - 1:25
    這個是近因,
  • 1:25 - 1:28
    這也是為什麼
    我們現在的生產力很高。
  • 1:28 - 1:32
    但是我想要進一步
    回想到最終的原因
  • 1:33 - 1:37
    看看這兩位非常傑出的紳士:
  • 1:37 - 1:38
    這位是坎茲先生
  • 1:38 - 1:43
    他掌握了200個詞彙,
    這是一個難以置信的壯舉。
  • 1:43 - 1:47
    以及 愛德 維騰,
    他掀起了第二次超弦革命。
  • 1:47 - 1:49
    如果我們往腦袋瓜裡面看,
    這是我們看到的:
  • 1:49 - 1:51
    基本上是一樣的東西。
  • 1:51 - 1:53
    一個稍微大一點,
  • 1:53 - 1:55
    它可能有一些特別的連結方法。
  • 1:55 - 1:59
    但是這些無形的差異不會太複雜,
  • 1:59 - 2:03
    因為從我們共同的祖先以來,
  • 2:03 - 2:06
    只經過了25萬代。
  • 2:06 - 2:09
    我們知道複雜的機制
    需要很長的時間演化。
  • 2:10 - 2:12
    因此 一些相對微小的變化
  • 2:12 - 2:16
    將我們從坎茲先生變成了維騰,
  • 2:16 - 2:21
    從撿起掉落的樹枝當武器
    到發射洲際彈道飛彈
  • 2:21 - 2:25
    因此,顯而易見的是
    至今我們所實現的所有事
  • 2:25 - 2:27
    以及我們關心的所有事物,
  • 2:27 - 2:32
    都取決於人腦中相對微小的改變。
  • 2:33 - 2:36
    由此而來的推論就是:在未來,
  • 2:36 - 2:40
    任何能顯著地改變思想基體的變化
  • 2:40 - 2:43
    都有可能會帶來巨大的後果。
  • 2:44 - 2:47
    我的一些同事覺得我們即將發現
  • 2:47 - 2:51
    足以深刻的改變思想基體的科技
  • 2:51 - 2:54
    那就是超級機器智慧
  • 2:54 - 2:59
    以前的人工智慧是
    將指令輸入到一個箱子裡。
  • 2:59 - 3:01
    你需要程式設計師
  • 3:01 - 3:04
    精心的將知識設計成指令。
  • 3:04 - 3:06
    你建立這些專門系統,
  • 3:06 - 3:08
    這些系統在某些特定的領域中有點用,
  • 3:08 - 3:11
    但是它們很生硬,
    你無法延展這些系統。
  • 3:11 - 3:14
    基本上這些系統所輸出的東西
    僅限於你事先輸入的範圍。
  • 3:14 - 3:15
    但是從那時起,
  • 3:15 - 3:19
    人工智慧的領域裡發生了模式的轉變。
  • 3:19 - 3:22
    現在主要的課題是機器的學習。
  • 3:22 - 3:28
    因此,與其設計知識的表現及特點,
  • 3:29 - 3:34
    我們寫出具有學習原始感官數據
    的能力的程式碼。
  • 3:34 - 3:39
    基本上和嬰兒所做的是一樣的。
  • 3:39 - 3:43
    結果就是不侷限於
    某個領域的人工智慧 --
  • 3:43 - 3:48
    同一個系統可以學習
    在任何兩種語言之間翻譯
  • 3:48 - 3:53
    或者學著玩雅達利系統上
    的任何一款遊戲。
  • 3:53 - 3:55
    現在當然
  • 3:55 - 3:59
    人工智慧到現在
    還未能達到像人類一樣
  • 3:59 - 4:02
    具有強大的跨領域的學習能力。
  • 4:02 - 4:04
    人類大腦還具有一些運算技巧
  • 4:04 - 4:07
    我們不知道如何將這些技巧
    複製到機器中。
  • 4:08 - 4:10
    所以現在需要問的是:
  • 4:10 - 4:13
    我們還要多久才能
    在機器裡面複製這些技巧?
  • 4:14 - 4:15
    在幾年前,
  • 4:15 - 4:18
    我們對世界頂尖的人工智慧專家
    做了一次問卷調查,
  • 4:18 - 4:21
    想要看看他們的想法,
    其中的一個題目是:
  • 4:21 - 4:25
    "到哪一年你覺得
    人類會有50%的機率
  • 4:25 - 4:28
    能夠達成人類級的人工智慧?"
  • 4:29 - 4:33
    我們把人類級的人工智慧
    定義為有能力
  • 4:33 - 4:36
    將任何任務至少執行得
    像一名成年人一樣好,
  • 4:36 - 4:40
    所以是真正的人類級別,
    而不是僅限於某些領域。
  • 4:40 - 4:43
    而答案的中位數是2040或2050年
  • 4:43 - 4:46
    取決於我們問的專家屬於什麼群體。
  • 4:46 - 4:50
    當然,這個有可能過很久才實現,
    也有可能提早實現
  • 4:50 - 4:52
    沒有人知道確切的時間。
  • 4:53 - 4:59
    我們知道的是,
    機器基體處理資訊能力的最終界限
  • 4:59 - 5:03
    比生物組織的界限要大的多。
  • 5:03 - 5:06
    這取決於物理原理。
  • 5:06 - 5:10
    一個生物神經元發出脈衝的頻率
    可能在200赫茲,每秒200次。
  • 5:10 - 5:14
    但就算是現在的電晶體
    都以千兆赫(GHz)的頻率運轉。
  • 5:14 - 5:19
    神經元在軸突中傳輸的速度
    比較慢,頂多是每秒100公尺。
  • 5:19 - 5:22
    但在電腦裡面,信號是以光速傳播的。
  • 5:23 - 5:25
    另外還有尺寸的限制
  • 5:25 - 5:28
    就像人類的大腦
    必需要放得進顱骨內。
  • 5:28 - 5:33
    但是一部電腦可以
    跟倉庫一樣大,甚至更大。
  • 5:33 - 5:38
    因此超級智慧的潛能
    現在正潛伏在物質裡面,
  • 5:38 - 5:44
    就像是原子能
    在人類的歷史中一直潛伏著,
  • 5:44 - 5:48
    耐心的等著,一直到1945年。
  • 5:48 - 5:50
    在這個世紀內,
  • 5:50 - 5:54
    科學家有可能會
    將人工智慧的力量喚醒。
  • 5:54 - 5:58
    屆時我覺得我們會
    見證到智慧的大爆發。
  • 5:58 - 6:02
    大部分的人,當他們在想
    什麼是聰明什麼是愚笨的時候,
  • 6:02 - 6:05
    我想他們腦中浮現出的畫面
    會是這樣的:
  • 6:05 - 6:08
    在一邊是村裡的傻子,
  • 6:08 - 6:10
    然後在另外一邊
  • 6:10 - 6:15
    是 愛德 維騰 或愛因斯坦,
    或你喜歡的某位大師。
  • 6:15 - 6:19
    但是我覺得從人工智慧的觀點來看,
  • 6:19 - 6:23
    真正的畫面應該比較像這樣子:
  • 6:23 - 6:27
    人工智慧從這一點開始,零智慧
  • 6:27 - 6:30
    然後,在許多許多年
    辛苦的研究以後,
  • 6:30 - 6:33
    我們可能可以達到
    老鼠級的人工智慧,
  • 6:33 - 6:36
    它可以在凌亂的環境中找到路
  • 6:36 - 6:38
    就像一隻老鼠一樣。
  • 6:38 - 6:42
    然後,在更多年的辛苦研究
    及投資了很多資源之後,
  • 6:42 - 6:47
    我們可能可以達到
    黑猩猩級的人工智慧。
  • 6:47 - 6:50
    然後,在更加多年的辛苦研究之後,
  • 6:50 - 6:53
    我們達到村莊傻子級別的人工智慧。
  • 6:53 - 6:56
    然後過一小會兒後,
    我們就超越了愛德維騰。
  • 6:56 - 6:59
    這列火車並不會
    在人類村這一站就停車。
  • 6:59 - 7:02
    它比較可能會直接呼嘯而過。
  • 7:02 - 7:04
    這個具有深遠的寓意,
  • 7:04 - 7:08
    特別是在談到權力的問題。
  • 7:08 - 7:10
    舉例來說,黑猩猩很強壯 --
  • 7:10 - 7:15
    以體重比例來說, 一隻黑猩猩
    比一個健康的男性人類要強壯兩倍。
  • 7:15 - 7:20
    然而,坎茲和他朋友們的命運
    則很大的部分取決於
  • 7:20 - 7:24
    人類的作為,
    而非黑猩猩們自己的作為。
  • 7:25 - 7:28
    當超級智慧出現後,
  • 7:28 - 7:31
    人類的命運可能會取決於
    超級智慧的作為。
  • 7:32 - 7:34
    想想看:
  • 7:34 - 7:39
    機器智慧將會是人類所需要作出的
    最後一個發明。
  • 7:39 - 7:42
    從那之後機器將會比人類更會發明,
  • 7:42 - 7:44
    他們也將會在"數位時間"裡
    做出這些事。
  • 7:44 - 7:49
    這意味著未來到來的時間將被縮短。
  • 7:49 - 7:53
    想想那些我們曾經想像過的瘋狂科技
  • 7:53 - 7:55
    人類可能在有足夠的時間下
    可以發明出來:
  • 7:55 - 7:59
    防止衰老、殖民太空、
  • 7:59 - 8:02
    自行複製的奈米機器人,
    或將我們的頭腦上載到電腦裡,
  • 8:02 - 8:04
    這一些僅存在科幻小說範疇,
  • 8:04 - 8:07
    但同時還是符合物理法則的東西
  • 8:07 - 8:11
    超級智慧有辦法開發出這些東西,
    而且速度可能很快。
  • 8:12 - 8:16
    這麼成熟的超級智慧
  • 8:16 - 8:18
    將會非常的強大,
  • 8:18 - 8:23
    最少在某些場景它將有辦法
    得到它想要的東西。
  • 8:23 - 8:28
    這樣以來我們的未來就將會
    被這個超級智慧的偏好所影響。
  • 8:30 - 8:34
    現在出現了一個好問題,
    這些偏好是什麼呢?
  • 8:34 - 8:36
    這個問題更棘手。
  • 8:36 - 8:37
    要在這個領域往前走,
  • 8:37 - 8:41
    我們必須避免
    將機器智慧擬人化(人格化)。
  • 8:42 - 8:45
    這一點很諷刺因為
    每一篇關於未來的人工智慧
  • 8:45 - 8:49
    的報導都會有這張照片:
  • 8:50 - 8:54
    所以我覺得我們必須要
    更抽象的來想像這個議題,
  • 8:54 - 8:57
    而非以好萊塢的鮮明場景來想像。
  • 8:57 - 9:01
    我們需要把智慧看做是
    一個優化的過程,
  • 9:01 - 9:06
    一個將未來指引到
    特定的組態的過程。
  • 9:06 - 9:10
    一個超級智慧
    是一個很強大的優化過程。
  • 9:10 - 9:14
    它將很會利用現有資源
  • 9:14 - 9:16
    去達到達成目標的狀態。
  • 9:16 - 9:19
    這意味著有著高智慧以及
  • 9:19 - 9:22
    擁有一個對人類來說
    是有意義的目標之間
  • 9:22 - 9:27
    並沒有必然的聯繫。
  • 9:27 - 9:31
    假設我們給予人工智慧的目標
    是讓人類笑。
  • 9:31 - 9:34
    當人工智慧比較弱時,
    它會做出有用的或是好笑的動作
  • 9:34 - 9:37
    以讓使用者笑出來。
  • 9:37 - 9:39
    當人工智慧演化成超級智慧的時後,
  • 9:39 - 9:43
    它會體認到有更有效的方法
    可以達到這個目標:
  • 9:43 - 9:44
    控制這個世界
  • 9:44 - 9:48
    然後在人類的臉部肌肉上連接電級
  • 9:48 - 9:51
    以使這個人不斷的微笑。
  • 9:51 - 9:52
    另外一個例子,
  • 9:52 - 9:55
    假設我們給人工智慧的目標是
    解出一個非常困難的數學問題。
  • 9:55 - 9:57
    當人工智慧變成超級智慧時,
  • 9:57 - 10:01
    它會體認到最有效的方法是
  • 10:01 - 10:04
    把整個地球轉化成
    一部超大號的電腦,
  • 10:04 - 10:06
    進而增加它自己的運算能力。
  • 10:06 - 10:09
    注意到這個模式
    會給人工智慧理由去做
  • 10:09 - 10:12
    我們可能不認可的事情。
  • 10:12 - 10:13
    在這個模型裡面人類是威脅,
  • 10:13 - 10:16
    我們可能會在解開數學問題
    的過程中成為阻礙。
  • 10:17 - 10:21
    當然,在我們可預見的範圍內,
    事情不會以這種方式出錯;
  • 10:21 - 10:22
    這些是誇大的例子。
  • 10:22 - 10:24
    但是它指出的概念很重要:
  • 10:24 - 10:27
    如果你創造了一個
    非常強大的優化流程
  • 10:27 - 10:30
    要最大化目標X,
  • 10:30 - 10:32
    你最好確保你對目標X的定義
  • 10:32 - 10:34
    包含了所有你所在意的事情。
  • 10:35 - 10:39
    這也是在很多神話故事中
    教導的寓意。
  • 10:39 - 10:45
    希臘神話中的米達斯國王希望
    他碰到的所有東西都可以變成金子。
  • 10:45 - 10:47
    他碰到了他的女兒,
    她變成了黃金。
  • 10:47 - 10:50
    他碰到了他的食物,
    他的食物也變成了黃金。
  • 10:50 - 10:53
    這實際上跟我們的題目有關,
  • 10:53 - 10:55
    不僅僅是對貪婪的隱喻,
  • 10:55 - 10:56
    但也指出了如果你創造了
    一個強大的優化流程
  • 10:56 - 10:59
    但同時給了它
    不正確或不精確的目標後
  • 10:59 - 11:04
    會發生什麼事。
  • 11:04 - 11:09
    你可能會說,如果電腦系統
    開始在人臉上安裝電極,
  • 11:09 - 11:12
    我們可以直接把他關掉就好了。
  • 11:13 - 11:18
    一、這並不一定容易做到,如果我們
    已經對這個系統產生依賴性 ——
  • 11:18 - 11:21
    比如:你知道網際網路的開關在哪裡嗎?
  • 11:21 - 11:26
    二、為什麼黑猩猩當初
    沒有把人類的開關關掉?
  • 11:26 - 11:27
    或是尼安德特人?
  • 11:27 - 11:30
    他們有很明顯的理由要這麼做,
  • 11:30 - 11:33
    而我們的開關就在這裡:
  • 11:33 - 11:34
    (窒息聲)
  • 11:34 - 11:37
    原因是人類是很聰明的敵人;
  • 11:37 - 11:40
    我們可以預見威脅
    並為其做出準備。
  • 11:40 - 11:42
    但一個超級智慧也會,
  • 11:42 - 11:46
    而且它的能力將比我們強大的多。
  • 11:46 - 11:53
    我想要說的一點是,我們不應該
    覺得一切都在我們的掌握之中。
  • 11:53 - 11:56
    我們可能可以藉由
    把AI放到一個盒子裡面
  • 11:56 - 11:58
    來給我們更多的掌握,
  • 11:58 - 12:00
    就像是一個獨立的軟體環境,
  • 12:00 - 12:03
    一個AI無法逃脫的虛擬實境。
  • 12:03 - 12:07
    但是我們有多大的信心
    這個AI不會找到漏洞?
  • 12:07 - 12:10
    就算只是人類駭客,
    他們還經常找出漏洞。
  • 12:10 - 12:13
    我想我們不是很有信心。
  • 12:14 - 12:19
    那所以我們把網路線拔掉,
    製造一個物理間隙,
  • 12:19 - 12:21
    但同樣的,就算只是人類駭客
  • 12:21 - 12:25
    也經常可以利用社交工程陷阱
    來突破物理間隙。
  • 12:25 - 12:26
    現在,在我在台上說話的同時
  • 12:26 - 12:28
    我確定在世界的某一個角落裡
    有一名公司職員
  • 12:28 - 12:32
    才剛剛被自稱來自IT部門
    的人士說服(詐騙)
  • 12:32 - 12:35
    並交出了她的帳戶信息。
  • 12:35 - 12:37
    更天馬行空的狀況也可能會發生,
  • 12:37 - 12:38
    就像是如果你是AI,
  • 12:38 - 12:42
    你可以想像藉由擺動你體內的電路
  • 12:42 - 12:45
    然後創造出無線電波,
    用以與外界溝通。
  • 12:45 - 12:47
    或這你可以假裝有故障,
  • 12:47 - 12:51
    然後當程式設計師
    把你打開檢查哪裡出錯時,
  • 12:51 - 12:53
    他們找出了原始碼 --梆--
  • 12:53 - 12:55
    你可以在此做出操控。
  • 12:55 - 12:59
    或這它可以做出一個
    很巧妙的科技藍圖,
  • 12:59 - 13:00
    當我們實施這個藍圖後,
  • 13:00 - 13:05
    它會產生一些AI計劃好的
    秘密副作用。
  • 13:05 - 13:08
    寓意是我們不能
    對我們控制人工智慧的能力
  • 13:08 - 13:12
    具有太大的信心
  • 13:12 - 13:14
    它終究會逃脫出來,
    只是時間問題而已。
  • 13:15 - 13:18
    我覺得解方是我們需要弄清楚
  • 13:18 - 13:23
    如何創造出一個超級智慧,
    哪怕是它逃出來了,
  • 13:23 - 13:26
    它還是安全的,
    因為它是站在我們這一邊的
  • 13:26 - 13:28
    因為它擁有了我們的價值觀。
  • 13:28 - 13:32
    我們沒有辦法避免這個艱難的問題。
  • 13:33 - 13:36
    但是我覺得我們可以解決這個問題。
  • 13:36 - 13:40
    我們並不需要把
    我們在乎的所有事物寫下來,
  • 13:40 - 13:44
    或更麻煩的把這些事物
    寫成電腦程式語言
  • 13:44 - 13:45
    像是 C++或 Python,
  • 13:45 - 13:48
    這是個不可能完成的任務。
  • 13:48 - 13:52
    與其,我們可以創造出
    一個人工智慧,它用它自己的智慧
  • 13:52 - 13:55
    來學習我們的價值觀,
  • 13:55 - 14:01
    它的激勵機制要設計成
    會讓它想要
  • 14:01 - 14:06
    來追求我們的價值觀或者
    去做它認為我們會贊成的事情。
  • 14:06 - 14:09
    藉此我們可以最大化地
    利用到它們的智慧
  • 14:09 - 14:12
    來解決這個價值觀的問題。
  • 14:13 - 14:14
    這個是有可能的,
  • 14:14 - 14:18
    而且這個的結果
    可對人類是非常有益的。
  • 14:18 - 14:22
    但是它不會自動發生。
  • 14:22 - 14:25
    如果我們需要控制
    這個智慧的大爆炸,
  • 14:25 - 14:28
    那智慧大爆炸的初始條件
  • 14:28 - 14:31
    需要被正確的建立起來。
  • 14:31 - 14:34
    人工智慧的價值觀
    要和我們的一致,
  • 14:34 - 14:36
    並不只是在常見的狀況下,
  • 14:36 - 14:38
    比如我們可以
    很簡單低檢查它的行為,
  • 14:38 - 14:41
    但也要在未來所有人工智慧
    可能會遇到的情況下
  • 14:41 - 14:43
    保持價值觀的一致。
  • 14:43 - 14:48
    還有很多深奧的問題需要被解決:
  • 14:48 - 14:50
    它們決策概念的所有細節,
  • 14:50 - 14:52
    它如何面對解決
    邏輯不確定性的情況等問題。
  • 14:53 - 14:56
    所以技術上待解決的問題
  • 14:56 - 14:58
    讓這個任務看起來蠻難的 --
  • 14:58 - 15:01
    還沒有像做出一個超級智慧
    那樣的難,
  • 15:01 - 15:04
    但還是挺難的。
  • 15:04 - 15:05
    我們所擔心的是:
  • 15:05 - 15:10
    創造出一個超級智慧
    是一個很難的挑戰。
  • 15:10 - 15:13
    創造出一個安全的超級智慧
  • 15:13 - 15:15
    是一個更大的挑戰。
  • 15:16 - 15:20
    最大的風險在於
    有人想出了如何解決第一個難題
  • 15:20 - 15:23
    但是沒有解決第二個問題
  • 15:23 - 15:25
    來確保安全性萬無一失。
  • 15:25 - 15:29
    所以我覺得我們應該先想出
  • 15:29 - 15:32
    如何"控制"的方法。
  • 15:32 - 15:34
    這樣當我們需要的時候
    我們可以用的到它。
  • 15:35 - 15:38
    現在也許我們無法
    完全解決「控制」的問題
  • 15:38 - 15:41
    因為有時候你要了解
    你所想要控制的架構後
  • 15:41 - 15:45
    你才能知道如何實施。
  • 15:45 - 15:49
    但是如果我們可以
    事先解決更多的難題
  • 15:49 - 15:53
    我們順利的進入到
    機器智能時代的機率
  • 15:53 - 15:54
    就會更高。
  • 15:54 - 15:59
    這對我來說是一個值得挑戰的事情
  • 15:59 - 16:02
    而且我能想像到如果一切順利的話,
  • 16:02 - 16:07
    我們的後代,幾百萬年以後的人類
    回顧我們這個時代的時候
  • 16:07 - 16:11
    他們可能會說我們
    所做的最重要的事就是
  • 16:11 - 16:13
    把這個事情弄對了。
  • 16:13 - 16:14
    謝謝
  • 16:14 - 16:17
    (觀眾掌聲)
Title:
當電腦比人類聰明時會發生什麼?
Speaker:
尼克.波斯特羅姆
Description:

人工智慧科技正在突飛猛進──研究顯示在這個世紀以內,一部電腦的人工智慧有可能和人類一樣聰明。在這之後,尼克.波斯特羅姆 指出,它們將會超越人類 : 「機械智慧將是人類所需要的最後一個發明。」作為一個哲學家及科學家,尼克.波斯特羅姆讓我們反思我們正在創造的世界,一個由有思考能力的機械所組成的世界。這些具有智能的機械會幫我們維持人性以及我們的價值,還是會創造出它們自己的價值觀?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Chinese, Traditional subtitles

Revisions