當電腦比人類聰明時會發生什麼?
-
0:01 - 0:05我和一群數學家、 哲學家、
及電腦科學家一起工作。 -
0:05 - 0:10我們坐在一起
思考機器智慧的未來。 -
0:10 - 0:12以及其他問題。
-
0:12 - 0:17有些人可能認為
這是科幻小說的範疇, -
0:17 - 0:20離我們很遙遠,很瘋狂。
-
0:20 - 0:21但是我要說,
-
0:21 - 0:25好,我們來看看
現代人類的狀況.... -
0:25 - 0:27(觀眾笑聲)
-
0:27 - 0:29這是人類的常態。
-
0:29 - 0:31但如果我們仔細想想,
-
0:31 - 0:36其實人類是剛剛才抵達地球的訪客
-
0:36 - 0:41假設地球在一年前誕生,
-
0:41 - 0:45人類這個物種則僅存在了10分鐘。
-
0:45 - 0:48工業革命在2秒鐘前開始。
-
0:49 - 0:55另外一個角度是
看看這一萬年來的GDP增長 -
0:55 - 0:58我花了時間作了張圖表,
-
0:58 - 0:59它長這個樣子
-
0:59 - 1:01(觀眾笑聲)
-
1:01 - 1:03對一個正常的狀態來說
這是個很有趣的形狀。 -
1:03 - 1:05我可不想要坐在上面。
-
1:05 - 1:07(觀眾笑聲)
-
1:07 - 1:12我們不禁問自己:
「是什麼造成了這種異態呢?」 -
1:12 - 1:14有些人會說是科技
-
1:14 - 1:19這是對的,
科技在人類歷史上不斷累積, -
1:19 - 1:24而現在科技正以飛快的速度進步。
-
1:24 - 1:25這個是近因,
-
1:25 - 1:28這也是為什麼
我們現在的生產力很高。 -
1:28 - 1:32但是我想要進一步
回想到最終的原因 -
1:33 - 1:37看看這兩位非常傑出的紳士:
-
1:37 - 1:38這位是坎茲先生
-
1:38 - 1:43他掌握了200個詞彙,
這是一個難以置信的壯舉。 -
1:43 - 1:47以及 愛德 維騰,
他掀起了第二次超弦革命。 -
1:47 - 1:49如果我們往腦袋瓜裡面看,
這是我們看到的: -
1:49 - 1:51基本上是一樣的東西。
-
1:51 - 1:53一個稍微大一點,
-
1:53 - 1:55它可能有一些特別的連結方法。
-
1:55 - 1:59但是這些無形的差異不會太複雜,
-
1:59 - 2:03因為從我們共同的祖先以來,
-
2:03 - 2:06只經過了25萬代。
-
2:06 - 2:09我們知道複雜的機制
需要很長的時間演化。 -
2:10 - 2:12因此 一些相對微小的變化
-
2:12 - 2:16將我們從坎茲先生變成了維騰,
-
2:16 - 2:21從撿起掉落的樹枝當武器
到發射洲際彈道飛彈 -
2:21 - 2:25因此,顯而易見的是
至今我們所實現的所有事 -
2:25 - 2:27以及我們關心的所有事物,
-
2:27 - 2:32都取決於人腦中相對微小的改變。
-
2:33 - 2:36由此而來的推論就是:在未來,
-
2:36 - 2:40任何能顯著地改變思想基體的變化
-
2:40 - 2:43都有可能會帶來巨大的後果。
-
2:44 - 2:47我的一些同事覺得我們即將發現
-
2:47 - 2:51足以深刻的改變思想基體的科技
-
2:51 - 2:54那就是超級機器智慧
-
2:54 - 2:59以前的人工智慧是
將指令輸入到一個箱子裡。 -
2:59 - 3:01你需要程式設計師
-
3:01 - 3:04精心的將知識設計成指令。
-
3:04 - 3:06你建立這些專門系統,
-
3:06 - 3:08這些系統在某些特定的領域中有點用,
-
3:08 - 3:11但是它們很生硬,
你無法延展這些系統。 -
3:11 - 3:14基本上這些系統所輸出的東西
僅限於你事先輸入的範圍。 -
3:14 - 3:15但是從那時起,
-
3:15 - 3:19人工智慧的領域裡發生了模式的轉變。
-
3:19 - 3:22現在主要的課題是機器的學習。
-
3:22 - 3:28因此,與其設計知識的表現及特點,
-
3:29 - 3:34我們寫出具有學習原始感官數據
的能力的程式碼。 -
3:34 - 3:39基本上和嬰兒所做的是一樣的。
-
3:39 - 3:43結果就是不侷限於
某個領域的人工智慧 -- -
3:43 - 3:48同一個系統可以學習
在任何兩種語言之間翻譯 -
3:48 - 3:53或者學著玩雅達利系統上
的任何一款遊戲。 -
3:53 - 3:55現在當然
-
3:55 - 3:59人工智慧到現在
還未能達到像人類一樣 -
3:59 - 4:02具有強大的跨領域的學習能力。
-
4:02 - 4:04人類大腦還具有一些運算技巧
-
4:04 - 4:07我們不知道如何將這些技巧
複製到機器中。 -
4:08 - 4:10所以現在需要問的是:
-
4:10 - 4:13我們還要多久才能
在機器裡面複製這些技巧? -
4:14 - 4:15在幾年前,
-
4:15 - 4:18我們對世界頂尖的人工智慧專家
做了一次問卷調查, -
4:18 - 4:21想要看看他們的想法,
其中的一個題目是: -
4:21 - 4:25"到哪一年你覺得
人類會有50%的機率 -
4:25 - 4:28能夠達成人類級的人工智慧?"
-
4:29 - 4:33我們把人類級的人工智慧
定義為有能力 -
4:33 - 4:36將任何任務至少執行得
像一名成年人一樣好, -
4:36 - 4:40所以是真正的人類級別,
而不是僅限於某些領域。 -
4:40 - 4:43而答案的中位數是2040或2050年
-
4:43 - 4:46取決於我們問的專家屬於什麼群體。
-
4:46 - 4:50當然,這個有可能過很久才實現,
也有可能提早實現 -
4:50 - 4:52沒有人知道確切的時間。
-
4:53 - 4:59我們知道的是,
機器基體處理資訊能力的最終界限 -
4:59 - 5:03比生物組織的界限要大的多。
-
5:03 - 5:06這取決於物理原理。
-
5:06 - 5:10一個生物神經元發出脈衝的頻率
可能在200赫茲,每秒200次。 -
5:10 - 5:14但就算是現在的電晶體
都以千兆赫(GHz)的頻率運轉。 -
5:14 - 5:19神經元在軸突中傳輸的速度
比較慢,頂多是每秒100公尺。 -
5:19 - 5:22但在電腦裡面,信號是以光速傳播的。
-
5:23 - 5:25另外還有尺寸的限制
-
5:25 - 5:28就像人類的大腦
必需要放得進顱骨內。 -
5:28 - 5:33但是一部電腦可以
跟倉庫一樣大,甚至更大。 -
5:33 - 5:38因此超級智慧的潛能
現在正潛伏在物質裡面, -
5:38 - 5:44就像是原子能
在人類的歷史中一直潛伏著, -
5:44 - 5:48耐心的等著,一直到1945年。
-
5:48 - 5:50在這個世紀內,
-
5:50 - 5:54科學家有可能會
將人工智慧的力量喚醒。 -
5:54 - 5:58屆時我覺得我們會
見證到智慧的大爆發。 -
5:58 - 6:02大部分的人,當他們在想
什麼是聰明什麼是愚笨的時候, -
6:02 - 6:05我想他們腦中浮現出的畫面
會是這樣的: -
6:05 - 6:08在一邊是村裡的傻子,
-
6:08 - 6:10然後在另外一邊
-
6:10 - 6:15是 愛德 維騰 或愛因斯坦,
或你喜歡的某位大師。 -
6:15 - 6:19但是我覺得從人工智慧的觀點來看,
-
6:19 - 6:23真正的畫面應該比較像這樣子:
-
6:23 - 6:27人工智慧從這一點開始,零智慧
-
6:27 - 6:30然後,在許多許多年
辛苦的研究以後, -
6:30 - 6:33我們可能可以達到
老鼠級的人工智慧, -
6:33 - 6:36它可以在凌亂的環境中找到路
-
6:36 - 6:38就像一隻老鼠一樣。
-
6:38 - 6:42然後,在更多年的辛苦研究
及投資了很多資源之後, -
6:42 - 6:47我們可能可以達到
黑猩猩級的人工智慧。 -
6:47 - 6:50然後,在更加多年的辛苦研究之後,
-
6:50 - 6:53我們達到村莊傻子級別的人工智慧。
-
6:53 - 6:56然後過一小會兒後,
我們就超越了愛德維騰。 -
6:56 - 6:59這列火車並不會
在人類村這一站就停車。 -
6:59 - 7:02它比較可能會直接呼嘯而過。
-
7:02 - 7:04這個具有深遠的寓意,
-
7:04 - 7:08特別是在談到權力的問題。
-
7:08 - 7:10舉例來說,黑猩猩很強壯 --
-
7:10 - 7:15以體重比例來說, 一隻黑猩猩
比一個健康的男性人類要強壯兩倍。 -
7:15 - 7:20然而,坎茲和他朋友們的命運
則很大的部分取決於 -
7:20 - 7:24人類的作為,
而非黑猩猩們自己的作為。 -
7:25 - 7:28當超級智慧出現後,
-
7:28 - 7:31人類的命運可能會取決於
超級智慧的作為。 -
7:32 - 7:34想想看:
-
7:34 - 7:39機器智慧將會是人類所需要作出的
最後一個發明。 -
7:39 - 7:42從那之後機器將會比人類更會發明,
-
7:42 - 7:44他們也將會在"數位時間"裡
做出這些事。 -
7:44 - 7:49這意味著未來到來的時間將被縮短。
-
7:49 - 7:53想想那些我們曾經想像過的瘋狂科技
-
7:53 - 7:55人類可能在有足夠的時間下
可以發明出來: -
7:55 - 7:59防止衰老、殖民太空、
-
7:59 - 8:02自行複製的奈米機器人,
或將我們的頭腦上載到電腦裡, -
8:02 - 8:04這一些僅存在科幻小說範疇,
-
8:04 - 8:07但同時還是符合物理法則的東西
-
8:07 - 8:11超級智慧有辦法開發出這些東西,
而且速度可能很快。 -
8:12 - 8:16這麼成熟的超級智慧
-
8:16 - 8:18將會非常的強大,
-
8:18 - 8:23最少在某些場景它將有辦法
得到它想要的東西。 -
8:23 - 8:28這樣以來我們的未來就將會
被這個超級智慧的偏好所影響。 -
8:30 - 8:34現在出現了一個好問題,
這些偏好是什麼呢? -
8:34 - 8:36這個問題更棘手。
-
8:36 - 8:37要在這個領域往前走,
-
8:37 - 8:41我們必須避免
將機器智慧擬人化(人格化)。 -
8:42 - 8:45這一點很諷刺因為
每一篇關於未來的人工智慧 -
8:45 - 8:49的報導都會有這張照片:
-
8:50 - 8:54所以我覺得我們必須要
更抽象的來想像這個議題, -
8:54 - 8:57而非以好萊塢的鮮明場景來想像。
-
8:57 - 9:01我們需要把智慧看做是
一個優化的過程, -
9:01 - 9:06一個將未來指引到
特定的組態的過程。 -
9:06 - 9:10一個超級智慧
是一個很強大的優化過程。 -
9:10 - 9:14它將很會利用現有資源
-
9:14 - 9:16去達到達成目標的狀態。
-
9:16 - 9:19這意味著有著高智慧以及
-
9:19 - 9:22擁有一個對人類來說
是有意義的目標之間 -
9:22 - 9:27並沒有必然的聯繫。
-
9:27 - 9:31假設我們給予人工智慧的目標
是讓人類笑。 -
9:31 - 9:34當人工智慧比較弱時,
它會做出有用的或是好笑的動作 -
9:34 - 9:37以讓使用者笑出來。
-
9:37 - 9:39當人工智慧演化成超級智慧的時後,
-
9:39 - 9:43它會體認到有更有效的方法
可以達到這個目標: -
9:43 - 9:44控制這個世界
-
9:44 - 9:48然後在人類的臉部肌肉上連接電級
-
9:48 - 9:51以使這個人不斷的微笑。
-
9:51 - 9:52另外一個例子,
-
9:52 - 9:55假設我們給人工智慧的目標是
解出一個非常困難的數學問題。 -
9:55 - 9:57當人工智慧變成超級智慧時,
-
9:57 - 10:01它會體認到最有效的方法是
-
10:01 - 10:04把整個地球轉化成
一部超大號的電腦, -
10:04 - 10:06進而增加它自己的運算能力。
-
10:06 - 10:09注意到這個模式
會給人工智慧理由去做 -
10:09 - 10:12我們可能不認可的事情。
-
10:12 - 10:13在這個模型裡面人類是威脅,
-
10:13 - 10:16我們可能會在解開數學問題
的過程中成為阻礙。 -
10:17 - 10:21當然,在我們可預見的範圍內,
事情不會以這種方式出錯; -
10:21 - 10:22這些是誇大的例子。
-
10:22 - 10:24但是它指出的概念很重要:
-
10:24 - 10:27如果你創造了一個
非常強大的優化流程 -
10:27 - 10:30要最大化目標X,
-
10:30 - 10:32你最好確保你對目標X的定義
-
10:32 - 10:34包含了所有你所在意的事情。
-
10:35 - 10:39這也是在很多神話故事中
教導的寓意。 -
10:39 - 10:45希臘神話中的米達斯國王希望
他碰到的所有東西都可以變成金子。 -
10:45 - 10:47他碰到了他的女兒,
她變成了黃金。 -
10:47 - 10:50他碰到了他的食物,
他的食物也變成了黃金。 -
10:50 - 10:53這實際上跟我們的題目有關,
-
10:53 - 10:55不僅僅是對貪婪的隱喻,
-
10:55 - 10:56但也指出了如果你創造了
一個強大的優化流程 -
10:56 - 10:59但同時給了它
不正確或不精確的目標後 -
10:59 - 11:04會發生什麼事。
-
11:04 - 11:09你可能會說,如果電腦系統
開始在人臉上安裝電極, -
11:09 - 11:12我們可以直接把他關掉就好了。
-
11:13 - 11:18一、這並不一定容易做到,如果我們
已經對這個系統產生依賴性 —— -
11:18 - 11:21比如:你知道網際網路的開關在哪裡嗎?
-
11:21 - 11:26二、為什麼黑猩猩當初
沒有把人類的開關關掉? -
11:26 - 11:27或是尼安德特人?
-
11:27 - 11:30他們有很明顯的理由要這麼做,
-
11:30 - 11:33而我們的開關就在這裡:
-
11:33 - 11:34(窒息聲)
-
11:34 - 11:37原因是人類是很聰明的敵人;
-
11:37 - 11:40我們可以預見威脅
並為其做出準備。 -
11:40 - 11:42但一個超級智慧也會,
-
11:42 - 11:46而且它的能力將比我們強大的多。
-
11:46 - 11:53我想要說的一點是,我們不應該
覺得一切都在我們的掌握之中。 -
11:53 - 11:56我們可能可以藉由
把AI放到一個盒子裡面 -
11:56 - 11:58來給我們更多的掌握,
-
11:58 - 12:00就像是一個獨立的軟體環境,
-
12:00 - 12:03一個AI無法逃脫的虛擬實境。
-
12:03 - 12:07但是我們有多大的信心
這個AI不會找到漏洞? -
12:07 - 12:10就算只是人類駭客,
他們還經常找出漏洞。 -
12:10 - 12:13我想我們不是很有信心。
-
12:14 - 12:19那所以我們把網路線拔掉,
製造一個物理間隙, -
12:19 - 12:21但同樣的,就算只是人類駭客
-
12:21 - 12:25也經常可以利用社交工程陷阱
來突破物理間隙。 -
12:25 - 12:26現在,在我在台上說話的同時
-
12:26 - 12:28我確定在世界的某一個角落裡
有一名公司職員 -
12:28 - 12:32才剛剛被自稱來自IT部門
的人士說服(詐騙) -
12:32 - 12:35並交出了她的帳戶信息。
-
12:35 - 12:37更天馬行空的狀況也可能會發生,
-
12:37 - 12:38就像是如果你是AI,
-
12:38 - 12:42你可以想像藉由擺動你體內的電路
-
12:42 - 12:45然後創造出無線電波,
用以與外界溝通。 -
12:45 - 12:47或這你可以假裝有故障,
-
12:47 - 12:51然後當程式設計師
把你打開檢查哪裡出錯時, -
12:51 - 12:53他們找出了原始碼 --梆--
-
12:53 - 12:55你可以在此做出操控。
-
12:55 - 12:59或這它可以做出一個
很巧妙的科技藍圖, -
12:59 - 13:00當我們實施這個藍圖後,
-
13:00 - 13:05它會產生一些AI計劃好的
秘密副作用。 -
13:05 - 13:08寓意是我們不能
對我們控制人工智慧的能力 -
13:08 - 13:12具有太大的信心
-
13:12 - 13:14它終究會逃脫出來,
只是時間問題而已。 -
13:15 - 13:18我覺得解方是我們需要弄清楚
-
13:18 - 13:23如何創造出一個超級智慧,
哪怕是它逃出來了, -
13:23 - 13:26它還是安全的,
因為它是站在我們這一邊的 -
13:26 - 13:28因為它擁有了我們的價值觀。
-
13:28 - 13:32我們沒有辦法避免這個艱難的問題。
-
13:33 - 13:36但是我覺得我們可以解決這個問題。
-
13:36 - 13:40我們並不需要把
我們在乎的所有事物寫下來, -
13:40 - 13:44或更麻煩的把這些事物
寫成電腦程式語言 -
13:44 - 13:45像是 C++或 Python,
-
13:45 - 13:48這是個不可能完成的任務。
-
13:48 - 13:52與其,我們可以創造出
一個人工智慧,它用它自己的智慧 -
13:52 - 13:55來學習我們的價值觀,
-
13:55 - 14:01它的激勵機制要設計成
會讓它想要 -
14:01 - 14:06來追求我們的價值觀或者
去做它認為我們會贊成的事情。 -
14:06 - 14:09藉此我們可以最大化地
利用到它們的智慧 -
14:09 - 14:12來解決這個價值觀的問題。
-
14:13 - 14:14這個是有可能的,
-
14:14 - 14:18而且這個的結果
可對人類是非常有益的。 -
14:18 - 14:22但是它不會自動發生。
-
14:22 - 14:25如果我們需要控制
這個智慧的大爆炸, -
14:25 - 14:28那智慧大爆炸的初始條件
-
14:28 - 14:31需要被正確的建立起來。
-
14:31 - 14:34人工智慧的價值觀
要和我們的一致, -
14:34 - 14:36並不只是在常見的狀況下,
-
14:36 - 14:38比如我們可以
很簡單低檢查它的行為, -
14:38 - 14:41但也要在未來所有人工智慧
可能會遇到的情況下 -
14:41 - 14:43保持價值觀的一致。
-
14:43 - 14:48還有很多深奧的問題需要被解決:
-
14:48 - 14:50它們決策概念的所有細節,
-
14:50 - 14:52它如何面對解決
邏輯不確定性的情況等問題。 -
14:53 - 14:56所以技術上待解決的問題
-
14:56 - 14:58讓這個任務看起來蠻難的 --
-
14:58 - 15:01還沒有像做出一個超級智慧
那樣的難, -
15:01 - 15:04但還是挺難的。
-
15:04 - 15:05我們所擔心的是:
-
15:05 - 15:10創造出一個超級智慧
是一個很難的挑戰。 -
15:10 - 15:13創造出一個安全的超級智慧
-
15:13 - 15:15是一個更大的挑戰。
-
15:16 - 15:20最大的風險在於
有人想出了如何解決第一個難題 -
15:20 - 15:23但是沒有解決第二個問題
-
15:23 - 15:25來確保安全性萬無一失。
-
15:25 - 15:29所以我覺得我們應該先想出
-
15:29 - 15:32如何"控制"的方法。
-
15:32 - 15:34這樣當我們需要的時候
我們可以用的到它。 -
15:35 - 15:38現在也許我們無法
完全解決「控制」的問題 -
15:38 - 15:41因為有時候你要了解
你所想要控制的架構後 -
15:41 - 15:45你才能知道如何實施。
-
15:45 - 15:49但是如果我們可以
事先解決更多的難題 -
15:49 - 15:53我們順利的進入到
機器智能時代的機率 -
15:53 - 15:54就會更高。
-
15:54 - 15:59這對我來說是一個值得挑戰的事情
-
15:59 - 16:02而且我能想像到如果一切順利的話,
-
16:02 - 16:07我們的後代,幾百萬年以後的人類
回顧我們這個時代的時候 -
16:07 - 16:11他們可能會說我們
所做的最重要的事就是 -
16:11 - 16:13把這個事情弄對了。
-
16:13 - 16:14謝謝
-
16:14 - 16:17(觀眾掌聲)
- Title:
- 當電腦比人類聰明時會發生什麼?
- Speaker:
- 尼克.波斯特羅姆
- Description:
-
人工智慧科技正在突飛猛進──研究顯示在這個世紀以內,一部電腦的人工智慧有可能和人類一樣聰明。在這之後,尼克.波斯特羅姆 指出,它們將會超越人類 : 「機械智慧將是人類所需要的最後一個發明。」作為一個哲學家及科學家,尼克.波斯特羅姆讓我們反思我們正在創造的世界,一個由有思考能力的機械所組成的世界。這些具有智能的機械會幫我們維持人性以及我們的價值,還是會創造出它們自己的價值觀?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Geoff Chen edited Chinese, Traditional subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen edited Chinese, Traditional subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen edited Chinese, Traditional subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen approved Chinese, Traditional subtitles for What happens when our computers get smarter than we are? | ||
杏儀 歐陽 accepted Chinese, Traditional subtitles for What happens when our computers get smarter than we are? | ||
杏儀 歐陽 edited Chinese, Traditional subtitles for What happens when our computers get smarter than we are? | ||
杏儀 歐陽 edited Chinese, Traditional subtitles for What happens when our computers get smarter than we are? | ||
Jack Kuang-Che Kuo edited Chinese, Traditional subtitles for What happens when our computers get smarter than we are? |