我們能打造不會失控的人工智慧?
-
0:01 - 0:05我要談一種我們很多人
遭受的、直覺上的失誤。 -
0:05 - 0:09那其實是一種使你無法察覺到
特定種類危險的失誤。 -
0:09 - 0:11我會描述一個情境
-
0:11 - 0:14是我認為很可怕
-
0:14 - 0:16而且很有機會發生的,
-
0:17 - 0:18這不是很好的組合,
-
0:19 - 0:20一如預期。
-
0:20 - 0:22然而比起感到害怕,
-
0:22 - 0:25大部分的人會覺得
我正在說的東西有點酷。 -
0:25 - 0:30我將會描述我們在
人工智能領域的進展 -
0:30 - 0:32如何能最終消滅我們。
-
0:32 - 0:35事實上,我認為很難看不出
他們為何不會消滅我們, -
0:35 - 0:37或者驅使我們消滅自己。
-
0:37 - 0:39如果你是和我類似的人,
-
0:39 - 0:42你會發現思考這類事情很有趣。
-
0:42 - 0:45那種反應也是問題的一部分。
-
0:45 - 0:48對嗎?那種反應應該讓你感到擔心。
-
0:48 - 0:51如果我是打算在這個裡演講說服你,
-
0:51 - 0:54我們很可能會遭受全球性的飢荒,
-
0:54 - 0:57無論是因為氣候變遷或某種大災難,
-
0:57 - 1:01而你的孫子們或者孫子的孫子們
-
1:01 - 1:02非常可能要這樣生活,
-
1:03 - 1:04你不會覺得:
-
1:05 - 1:07「有意思,
-
1:07 - 1:08我喜歡這個 TED 演講。」
-
1:09 - 1:11飢荒並不有趣。
-
1:12 - 1:15另一方面來說,
科幻式的死亡,是有趣的。 -
1:15 - 1:19而現階段人工智能的發展
最讓我擔心的是, -
1:19 - 1:23我們似乎無法組織出
一個適當的情緒反應, -
1:23 - 1:25針對眼前的威脅。
-
1:25 - 1:28我無法組織出這個回應,
可是我在這裡講這個。 -
1:30 - 1:33就像我們站在兩扇門前面。
-
1:33 - 1:34一號門後面,
-
1:34 - 1:37我們停止發展製造有智能的機器。
-
1:37 - 1:41我們的電腦硬體和軟體
就因故停止變得更好。 -
1:41 - 1:44現在花一點時間想想
為什麼這會發生。 -
1:45 - 1:49我的意思是,人工智能
和自動化如此有價值, -
1:49 - 1:52我們會持續改善我們的科技,
只要我們有能力做。 -
1:53 - 1:55有什麼東西能阻止我們這麼做呢?
-
1:56 - 1:58一場全面性的核子戰爭?
-
1:59 - 2:01一場全球性的流行病?
-
2:02 - 2:04一次小行星撞擊地球?
-
2:06 - 2:08小賈斯汀成為美國總統?
-
2:08 - 2:11(笑聲)
-
2:13 - 2:17重點是:必須有什麼東西
會毀滅我們所知的文明。 -
2:17 - 2:22你必須想像到底能有多糟
-
2:22 - 2:25才能阻止我們持續改善我們的科技,
-
2:25 - 2:26永久地,
-
2:26 - 2:28一代又一代人。
-
2:28 - 2:30幾乎從定義上,這就是
-
2:30 - 2:32人類歷史上發生過的最糟的事。
-
2:32 - 2:34所以唯一的替代選項,
-
2:34 - 2:36這是在二號門之後的東西,
-
2:36 - 2:39是我們繼續改善我們的智能機器,
-
2:39 - 2:41年復一年,年復一年。
-
2:42 - 2:45到某個時間點,我們會造出
比我們還聰明的機器, -
2:46 - 2:48而我們一旦造出比我們聰明的機器,
-
2:48 - 2:51它們就會開始改善自己。
-
2:51 - 2:53然後我們承擔數學家 IJ Good 稱為
-
2:53 - 2:55「人工智能爆發」的風險,
-
2:55 - 2:57那個過程會脫離我們的掌握。
-
2:58 - 3:01這時常被漫畫化,如我的這張圖,
-
3:01 - 3:04一種恐懼:充滿惡意的機械人軍團
-
3:04 - 3:05會攻擊我們。
-
3:05 - 3:08但這不是最可能發生的情境。
-
3:08 - 3:13並不是說我們的機器會變得
自然地帶有敵意。 -
3:13 - 3:16問題在於我們將會造出
-
3:16 - 3:18遠比我們更有競爭力的機器,
-
3:18 - 3:22只要我們和他們的目標
有些微的歧異, -
3:22 - 3:23就會讓我們被毀滅。
-
3:24 - 3:26就想想我們和螞蟻的關係。
-
3:27 - 3:28我們不討厭牠們。
-
3:28 - 3:30我們不會特別去傷害牠們。
-
3:30 - 3:33甚至有時我們為了
不傷害牠們而承受痛苦。 -
3:33 - 3:35我們在人行道跨越他們。
-
3:35 - 3:37但當牠們的存在
-
3:37 - 3:39和我們的目標嚴重衝突,
-
3:39 - 3:42譬如當我們要建造一棟
和這裡一樣的建築物, -
3:42 - 3:44我們會毫無不安地除滅牠們。
-
3:44 - 3:47問題在於有一天我們會造出機器,
-
3:47 - 3:50無論他們是有意識或者沒有意識,
-
3:50 - 3:52會對我們如螞蟻般的不予理會。
-
3:54 - 3:57現在,我懷疑這種說法
對這裡大部分的人來說不著邊際。 -
3:57 - 4:04我確信你們有些人懷疑
超級人工智能出現的可能, -
4:04 - 4:05更別說它必然出現。
-
4:05 - 4:09但接著你一點會發現
接下來其中一個假設有點問題。 -
4:09 - 4:11以下只有三個假設。
-
4:12 - 4:17智能是關於資訊
在物質系統裡處理的過程。 -
4:17 - 4:20其實這個陳述已經不只是一個假設,
-
4:20 - 4:23我們已經在我們的機器裡
安裝了有限的智能, -
4:23 - 4:25而很多這樣的機器已經表現出
-
4:25 - 4:28某種程度的超人類智能。
-
4:29 - 4:31而我們知道這個現象
-
4:31 - 4:34可能導致被稱為「通用智能」的東西,
-
4:34 - 4:38一種能跨多個領域靈活思考的能力,
-
4:38 - 4:41因為我們的腦
已經掌握了這個,對吧? -
4:41 - 4:45我的意思是,裡面都只是原子,
-
4:45 - 4:49只要我們繼續製造基於原子的系統,
-
4:49 - 4:52越來越能表現智能的行為,
-
4:52 - 4:55我們終究會,除非我們被打斷,
-
4:55 - 4:58我們終究會造出通用智能
-
4:58 - 4:59裝進我們的機器裡。
-
4:59 - 5:03關鍵是理解到發展的速率無關緊要,
-
5:03 - 5:06因為任何進展都足以
帶我們到終結之境。 -
5:06 - 5:10我們不需要摩爾定律才能繼續。
我們不需要指數型的發展。 -
5:10 - 5:12我們只需要繼續前進。
-
5:13 - 5:16第二個假設是我們會繼續前進。
-
5:17 - 5:20我們會持續改善我們的智能機器。
-
5:21 - 5:25而因為智能的價值──
-
5:25 - 5:29我的意思是,智能是所有
我們珍視的事物的源頭, -
5:29 - 5:32或者我們需要智能
來保護我們珍視的事物。 -
5:32 - 5:34智能是我們最珍貴的資源。
-
5:34 - 5:36所以我們想要這麼做。
-
5:36 - 5:39我們有許多亟需解決的問題。
-
5:39 - 5:42我們想要治癒疾病
如阿茲海默症和癌症。 -
5:43 - 5:47我們想要了解經濟系統。
我們想要改進我們的氣候科學。 -
5:47 - 5:49所以我們會這麼做,只要我們可以。
-
5:49 - 5:52火車已經出站,而沒有煞車可以拉。
-
5:54 - 5:59最後一點,我們不站在智能的巔峰,
-
5:59 - 6:01或者根本不在那附近。
-
6:02 - 6:04而這真的是一種重要的洞察。
-
6:04 - 6:06正是這個讓我們的處境如此危險可疑,
-
6:06 - 6:10這也讓我們對風險的直覺
變得很不可靠。 -
6:11 - 6:14現在,想想這世界上最聰明的人。
-
6:15 - 6:18每個人的清單上幾乎都會有
約翰·馮·諾伊曼。 -
6:18 - 6:21我是指, 馮·諾伊曼
對他周圍的人造成的印象, -
6:21 - 6:25而這包括和他同時代
最棒的數學家和物理學家, -
6:26 - 6:27被好好地記錄了。
-
6:27 - 6:31只要有一半關於他的故事一半是真的,
-
6:31 - 6:32那毫無疑問
-
6:33 - 6:35他是世界上活過最聰明的人之一。
-
6:35 - 6:38所以考慮智能的頻譜。
-
6:38 - 6:40約翰·馮·諾伊曼在這裡。
-
6:42 - 6:43然後你和我在這裡。
-
6:44 - 6:45然後雞在這裡。
-
6:45 - 6:47(笑聲)
-
6:47 - 6:49抱歉,雞應該在那裡。
-
6:49 - 6:50(笑聲)
-
6:50 - 6:54我實在無意把這個演講
弄得比它本身更讓人感到沮喪。 -
6:54 - 6:55(笑聲)
-
6:56 - 7:00智能的頻譜似乎勢不可擋地
-
7:00 - 7:03往比我們能理解的更遠的地方延伸,
-
7:04 - 7:07如果我們造出
比我們更有智能的機器, -
7:07 - 7:09他們很可能會探索這個頻譜,
-
7:09 - 7:11以我們無法想像的方式,
-
7:11 - 7:14然後以我們無法想像的方式超越我們。
-
7:15 - 7:19重要的是認識到這說法
僅因速度的優勢即為真。 -
7:19 - 7:24對吧?請想像如果我們造出了
一個超級人工智能, -
7:24 - 7:30它不比你一般在史丹佛或麻省理工
遇到的研究團隊聰明。 -
7:30 - 7:34電子電路作用的速率
比起生化作用快一百萬倍, -
7:35 - 7:39所以這個機器思考應該
比製造它的心智快一百萬倍。 -
7:40 - 7:41如果你設定讓它運行一星期,
-
7:41 - 7:46他會執行人類兩萬年的智能工作,
-
7:46 - 7:48一週接著一週接著一週。
-
7:50 - 7:53我們如何可能理解,較不嚴格地說,
-
7:53 - 7:55一個達成如此進展的心智?
-
7:57 - 7:59另一個另人擔心的事,老實說,
-
7:59 - 8:04是想像最好的情況。
-
8:04 - 8:10想像我們想到一個沒有安全顧慮的
超級人工智能的設計, -
8:10 - 8:13我們第一次就做出了完美的設計。
-
8:13 - 8:15如同我們被給予了一個神諭,
-
8:15 - 8:17完全照我們的預期地動作。
-
8:17 - 8:21這個機器會是完美的人力節約裝置。
-
8:22 - 8:23它能設計一個機器,
-
8:23 - 8:26那機器能製造出能做任何人工的機器,
-
8:26 - 8:27以太陽能驅動,
-
8:27 - 8:30幾乎只需要原料的成本。
-
8:30 - 8:33所以我們是在談人類苦役的終結。
-
8:33 - 8:36我們也是在談大部分
智力工作的終結。 -
8:37 - 8:40像我們一樣的猩猩
在這種情況下會做什麼? -
8:40 - 8:44我們可能可以自由地
玩飛盤和互相按摩。 -
8:46 - 8:49加上一點迷幻藥和可議的服裝選擇,
-
8:49 - 8:51整個世界都可以像在過火人祭典。
-
8:51 - 8:53(笑聲)
-
8:54 - 8:56那聽起來也許很不錯,
-
8:57 - 9:02但請問,在我們目前的經濟和政治
秩序下,會發生什麼事情? -
9:02 - 9:05我們很可能會見證
-
9:05 - 9:10一種我們從未見過的
財富不均和失業程度。 -
9:10 - 9:13缺乏一種意願來把這份新財富馬上
-
9:13 - 9:15放在服務全人類,
-
9:16 - 9:19少數幾個萬億富翁
能登上我們的財經雜誌, -
9:19 - 9:22而其他人可以自由地選擇挨餓。
-
9:22 - 9:25而俄國和中國會怎麼做?
-
9:25 - 9:27當他們聽說矽谷的某個公司
-
9:27 - 9:30即將部署一個超級人工智能,
-
9:30 - 9:33這個機器能夠發動戰爭,
-
9:33 - 9:35無論是領土侵略或者網路電子戰,
-
9:35 - 9:37以前所未見的威力。
-
9:38 - 9:40這是個贏者全拿的劇本。
-
9:40 - 9:43在這個競爭領先六個月
-
9:43 - 9:46等於領先五十萬年,
-
9:46 - 9:47最少。
-
9:47 - 9:52所以即使僅僅是這種突破的謠言
-
9:52 - 9:55都能使我們這個種族走向狂暴。
-
9:55 - 9:58現在,最讓人驚恐的事情,
-
9:58 - 10:00在我的看法,在這個時刻,
-
10:00 - 10:07是人工智慧研究者在試著表現得
讓人安心時說的那類話。 -
10:07 - 10:10而最常用來告訴我們
現在不要擔心的理由是時間。 -
10:10 - 10:13這還有很長的路要走,你不知道嗎,
-
10:13 - 10:15起碼還要 50 到 100 年。
-
10:16 - 10:17一個研究人員曾說,
-
10:17 - 10:19「憂心人工智慧安全
-
10:19 - 10:21如同憂心火星人口爆炸。」
-
10:22 - 10:24這是矽谷版本的
-
10:24 - 10:26「別杞人憂天。」
-
10:26 - 10:27(笑聲)
-
10:28 - 10:29似乎沒人注意到
-
10:29 - 10:32以時間當參考
-
10:32 - 10:35是一個不合理的推論。
-
10:35 - 10:38如果智能只是關於資訊的處理,
-
10:38 - 10:41而我們持續改善我們的機器,
-
10:41 - 10:44我們會製作出某種形式的超級智能。
-
10:44 - 10:48而且我們不知道要花我們多長的時間
-
10:48 - 10:50來創造安全地這麼做的條件。
-
10:52 - 10:53讓我再說一次,
-
10:54 - 10:57我們不知道要花我們多長的時間
-
10:57 - 11:00來創造安全地這麼做的條件。
-
11:01 - 11:04而且如果你還沒注意到,
50 年已經不像以前的概念。 -
11:04 - 11:07這是 50 年以月來表示。
-
11:07 - 11:09這是我們有了 iPhone 的時間。
-
11:09 - 11:12這是《辛普森家庭》
在電視上播映的時間。 -
11:13 - 11:1550 年不是那麼長的時間
-
11:15 - 11:18來面對對我們這個種族來說
最巨大的挑戰之一。 -
11:20 - 11:24再一次說,我們似乎
無法產生適當的情緒反應, -
11:24 - 11:26對應我們有所有的理由
相信將發生的事。 -
11:26 - 11:30資訊科學家斯圖亞特·羅素
有個很好的比喻。 -
11:30 - 11:35他說,想像我們收到一則
外星文明的訊息, -
11:35 - 11:37寫道:
-
11:37 - 11:39「地球的人們,
-
11:39 - 11:41我們 50 年內會到達你們的星球。
-
11:42 - 11:43作好準備。」
-
11:43 - 11:48而現在我們只是在倒數
外星母艦還剩幾個月登陸? -
11:48 - 11:51我們會比我們現在稍微感到緊迫。
-
11:53 - 11:55另一個我們被告知不用擔心的原因
-
11:55 - 11:58是這些機器不得不和我們
有一樣的價值觀, -
11:58 - 12:00因為他們實際上只是我們的延伸。
-
12:00 - 12:02它們會被植入我們的大腦裡,
-
12:02 - 12:04而我們基本上變成
他們大腦的邊緣系統。 -
12:05 - 12:07現在用一點時間想想
-
12:07 - 12:10這最安全而且唯一謹慎的往前的路,
-
12:10 - 12:11被推薦的,
-
12:11 - 12:14是將這個科技植入我們的腦內。
-
12:15 - 12:18這也許的確是最安全
而且唯一謹慎的往前的路, -
12:18 - 12:21但通常科技的安全性問題
-
12:21 - 12:25應該在把東西插到你腦袋裡之前
就該大部分解決了。 -
12:25 - 12:27(笑聲)
-
12:27 - 12:32更深層的問題是,
打造超級人工智能本身, -
12:32 - 12:34似乎相對容易於
-
12:34 - 12:36打造超級人工智慧
-
12:36 - 12:38並擁有完整的神經科學,
-
12:38 - 12:40讓我們可以把我們的心智
無縫與之整合。 -
12:41 - 12:44而假設正在從事人工智能
研發的許多公司和政府, -
12:44 - 12:48很可能察覺他們
正在和所有其他人競爭, -
12:48 - 12:51假設贏了這個競爭就是贏得世界,
-
12:51 - 12:53假設你在下一刻不會毀了世界,
-
12:53 - 12:56那麼很可能比較容易做的事
-
12:56 - 12:57就會先被做完。
-
12:59 - 13:01現在,很不幸地,
我沒有這個問題的解決方法, -
13:01 - 13:04除了建議我們更多人思考這個問題。
-
13:04 - 13:06我想我們需要類似曼哈頓計畫的東西,
-
13:06 - 13:08針對人工智能這個課題。
-
13:08 - 13:11不是因為我們不可避免地
要這麼做而做, -
13:11 - 13:15而是試著理解如何避免軍備競賽,
-
13:15 - 13:18而且用一種符合
我們利益的方式打造之。 -
13:18 - 13:22當你在談論能夠對其本身
造成改變的超級人工智能, -
13:23 - 13:27這似乎說明我們只有一次機會
把初始條件做對, -
13:27 - 13:29而且我們會必須承受
-
13:29 - 13:32為了將它們做對的經濟和政治後果。
-
13:34 - 13:36但一旦我們承認
-
13:36 - 13:40資訊處理是智能的源頭,
-
13:41 - 13:46某些適當的電腦系統是智能的基礎,
-
13:46 - 13:50而且我們承認我們會
持續改進這些系統, -
13:51 - 13:56而且我們承認認知的極限
有可能遠遠超越 -
13:56 - 13:57我們目前所知,
-
13:58 - 13:59我們就會承認
-
13:59 - 14:02我們正在打造某種神明的過程裡。
-
14:03 - 14:05現在是個好時機
-
14:05 - 14:07來確保那是個我們能夠
與之共存的神明。 -
14:08 - 14:10謝謝大家。
- Title:
- 我們能打造不會失控的人工智慧?
- Speaker:
- 山姆‧哈里斯
- Description:
-
害怕超級人工智能嗎?你應該感到害怕,神經科學家、哲學家山姆哈里斯說──而且不只是從某種純理論角度出發。我們將會造出超人類機器,山姆哈里斯說,但我們尚未抓到問題,關於創造出一個會對待我們如同我們對待螞蟻的東西。
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Regina Chu edited Chinese, Traditional subtitles for Can we build AI without losing control over it? | |
![]() |
Regina Chu edited Chinese, Traditional subtitles for Can we build AI without losing control over it? | |
![]() |
TED Translators admin approved Chinese, Traditional subtitles for Can we build AI without losing control over it? | |
![]() |
Qiyun Xing accepted Chinese, Traditional subtitles for Can we build AI without losing control over it? | |
![]() |
Qiyun Xing edited Chinese, Traditional subtitles for Can we build AI without losing control over it? | |
![]() |
Hans Chiang edited Chinese, Traditional subtitles for Can we build AI without losing control over it? | |
![]() |
Hans Chiang edited Chinese, Traditional subtitles for Can we build AI without losing control over it? | |
![]() |
Hans Chiang edited Chinese, Traditional subtitles for Can we build AI without losing control over it? |