人工智能,使乜驚啊?
-
0:01 - 0:04我細個嗰陣係個書蟲
-
0:05 - 0:07我估你哋一啲人都係
-
0:08 - 0:09(笑聲)
-
0:09 - 0:12仲有你呀,阿生
笑得最大聲嗰個,睇嚟宜家都仲係 -
0:12 - 0:14(笑聲)
-
0:14 - 0:18我喺德州北部平原一個鎮仔大嘅
-
0:18 - 0:21我阿爺係牧師,我老豆係警察
-
0:21 - 0:24所以自細就係乖乖仔
-
0:24 - 0:27睇微積分書當娛樂
-
0:27 - 0:29(笑聲)
-
0:29 - 0:31你都係咧
-
0:31 - 0:34於是我自己整
激光啦、電腦啦、火箭模型啦 -
0:34 - 0:37最後仲喺房裏邊整埋火箭燃料
-
0:38 - 0:42用我哋宜家科學嘅講法
-
0:42 - 0:45係搞搞震無幫襯
-
0:45 - 0:46(笑聲)
-
0:46 - 0:48就喺嗰陣
-
0:48 - 0:52Stanley Kubrick 拍嗰部
《2001太空漫遊》上畫 -
0:52 - 0:54我嘅生活從此改寫
-
0:54 - 0:56我係部片嘅忠實擁躉
-
0:56 - 0:59特別中意哈爾 9000
-
0:59 - 1:01哈爾係一部機械人
-
1:01 - 1:03專為太空船導航而設計
-
1:03 - 1:06指引太空船由地球飛往木星
-
1:06 - 1:08但哈爾都有缺點
-
1:08 - 1:12佢最後為實現目的而罔顧人類安全
-
1:13 - 1:15哈爾雖然係虛構
-
1:15 - 1:18但佢反映咗我哋嘅恐懼
-
1:18 - 1:25就係怕無感情嘅人工智能
以後會操控人類 -
1:26 - 1:28我認為呢種恐懼唔成立
-
1:28 - 1:32講真,人類呢一刻嘅歷史
可以話係最輝煌嘅 -
1:33 - 1:38我哋冇向身體同大腦限制低頭
-
1:38 - 1:43反而製造出精良、複雜又美觀嘅機器
-
1:43 - 1:47協助人類逹至超乎想象嘅領域
-
1:48 - 1:52我以前喺空軍學校同太空指揮部做嘢嘅
-
1:52 - 1:54咁而家,我做咗系統工程師
-
1:54 - 1:59最近我著手於美國太空總署嘅
火星任務嘅一個工程問題 -
1:59 - 2:02到目前為止,所有上月球嘅太空船
-
2:02 - 2:07我哋都可以留喺休斯頓控制中心控制
-
2:07 - 2:11不過,火星比月球遠 200 倍
-
2:11 - 2:14於是乎由地球傳送到火星嘅訊號
-
2:14 - 2:17平均要花 13 分鐘先可以送到
-
2:17 - 2:19所以如果中途出咗咩問題
-
2:19 - 2:21我哋都唔夠時間解決
-
2:21 - 2:23所以解決方法係
-
2:23 - 2:29我哋要將任務控制台
裝喺太空船獵戶號嘅墻板裏邊 -
2:29 - 2:32另一個方法係
-
2:32 - 2:37喺人類登陸之前
喺火星表面放置一個機械人 -
2:37 - 2:38機械人前期負責興建設施
-
2:38 - 2:42後期就加入科學團隊擔當協助
-
2:43 - 2:46而當我企喺工程師嘅角度嚟睇
-
2:46 - 2:52我好清楚我要打造嘅
係一個高智能、富團隊精神 -
2:52 - 2:54同善於交際嘅人工智能
-
2:54 - 2:58換句話嚟講,我要整到好似哈爾咁樣
-
2:58 - 3:01不過係唔會當人類
係冚家鏟要消滅嘅機械人 -
3:01 - 3:02(笑聲)
-
3:03 - 3:05等陣先
-
3:05 - 3:09咁係咪真係有可能整個咁嘅機械人先?
-
3:09 - 3:10其實,係可以嘅
-
3:10 - 3:15好多時,設計人工智能元素係好難嘅
-
3:15 - 3:20咁唔係講緊整機械人頭髮
-
3:20 - 3:22學 Alan Turning 話齋
-
3:22 - 3:25我無興趣整隻有感覺嘅機器
-
3:25 - 3:26亦都唔係生產另一個哈爾
-
3:26 - 3:29我所追求嘅係一個會簡單思考
-
3:29 - 3:32同有少少智慧嘅機械人
-
3:33 - 3:36自從哈爾喺電影出現之後
-
3:36 - 3:38計算科學已經發展咗好多
-
3:38 - 3:41我想像得到,如果發明佢嘅
Chandra 博士今日喺度嘅話 -
3:41 - 3:43佢實有好多問題問我哋
-
3:43 - 3:49我哋有冇可能
從數以億計嘅設備裡面讀取數據 -
3:49 - 3:53同時預測機器犯嘅錯誤
同埋及早更正呢? -
3:53 - 3:54可以
-
3:54 - 3:58我哋可唔可以
整隻機械人出嚟識講人話? -
3:58 - 3:59可以
-
3:59 - 4:01我哋可唔可以整隻機械人
-
4:01 - 4:05識得識別物體、辨別情感
自帶情感、打機,甚至識讀唇語? -
4:05 - 4:06可以
-
4:06 - 4:09我哋可唔可以整隻機械人識訂立目標
-
4:09 - 4:12實現目標兼且喺過程中自學?
-
4:12 - 4:13可以
-
4:13 - 4:17我哋可唔可以整隻
有思維邏輯嘅機械人? -
4:17 - 4:18我哋宜家嘗試緊
-
4:18 - 4:22我哋可唔可以整隻機械人
明白道德觀念同底線? -
4:22 - 4:25呢個任務我哋責無旁貸
-
4:25 - 4:27咁姑且我哋有可能
-
4:27 - 4:32為呢個任務或者其他任務
整隻咁樣嘅機械人 -
4:32 - 4:33跟住你實會問
-
4:33 - 4:36咁嘅人工智能會唔會造成威脅?
-
4:36 - 4:41時至今日,每項新科技面世
唔多唔少都會帶嚟不安 -
4:41 - 4:42以前啲人第一次見到汽車時
-
4:43 - 4:47就驚車禍會造成家破人亡
-
4:47 - 4:49以前第一次見到電話時
-
4:49 - 4:52啲人就驚人同人之間嘅交流會受到破壞
-
4:52 - 4:56曾幾何時啲人見到文字可以傳送
-
4:56 - 4:59又驚人類嘅記憶力會喪失
-
4:59 - 5:01呢啲不安喺一定程度上嚟講無錯
-
5:01 - 5:03但同時呢啲科技
-
5:03 - 5:09拓闊咗人類嘅體驗
-
5:10 - 5:12我哋不如再講遠啲
-
5:13 - 5:18我唔驚呢啲人工智能面世
-
5:18 - 5:22因為佢最終會接受人類嘅一啲價值
-
5:22 - 5:24試下咁唸:製造感知機械人
-
5:24 - 5:27同製造以前傳統嘅軟件密集型機械人
-
5:27 - 5:29係有根本性分別
-
5:29 - 5:30我哋而家唔係編程機械人
-
5:30 - 5:31我哋係教機械人
-
5:31 - 5:34為咗教機械人識別花
-
5:34 - 5:37我攞幾千種我鍾意嘅花畀佢睇
-
5:37 - 5:39為咗教曉機械人點打機——
-
5:39 - 5:43我真係教㗎。你都會咁做
-
5:43 - 5:45我真係鍾意花呢——
-
5:45 - 5:48為咗教識機械人打「殺出重圍」
-
5:48 - 5:50我畀佢打幾千局遊戲
-
5:50 - 5:55不過呢個過程,我又會教佢
辨別好局同劣局 -
5:55 - 5:58如果我想整隻法律助理機械人
-
5:58 - 6:00我除咗會教佢法律
-
6:00 - 6:06我仲會教佢法律嘅寛容同公義
-
6:07 - 6:10套用科學術語
呢啲係我哋所謂嘅參考標準 -
6:10 - 6:12而且重要嘅係:
-
6:12 - 6:13製造呢啲機械人時
-
6:13 - 6:16我哋將自己嘅價值觀灌輸畀佢
-
6:17 - 6:20最終,我相信人工智能
-
6:20 - 6:24會同一個受過專業訓練嘅人一樣
-
6:24 - 6:25不過,你哋可能會問
-
6:25 - 6:31如果呢啲人工智能被非法分子利用呢?
-
6:31 - 6:35雖然我哋唔可能杜絕所有暴力事件發生
-
6:35 - 6:40但我唔擔心人工智能落入一啲壞人手中
-
6:40 - 6:45因為人工智能需要持續同細微嘅改進
-
6:45 - 6:47單憑個人資源唔使旨意做到
-
6:47 - 6:52而且,唔好當成植入網絡病毒咁簡單
-
6:52 - 6:55唔好以為隨時隨地㩒個掣
-
6:55 - 6:57全世界嘅電腦瞬間就會爆炸
-
6:57 - 7:00人工智能係複雜好多嘅嘢
-
7:00 - 7:03但我相信遲早有一日人工智能會出現
-
7:03 - 7:08我驚唔驚人工智能會威脅全人類?
-
7:08 - 7:12電影《黑客帝國》、《大都會》
-
7:12 - 7:16《終結者》、電視劇《西部世界》
-
7:16 - 7:18呢類影視作品都係刻畫呢種恐懼
-
7:18 - 7:24無錯,哲學家 Nick Bostrom
喺《超人工智能》一書裏邊都認為 -
7:24 - 7:28超人工智能唔單止危險
-
7:28 - 7:32而且仲危及全人類
-
7:32 - 7:34佢嘅基本論點有︰
-
7:34 - 7:40咁樣嘅機械人
最終唔會滿足於眼前擁有嘅資訊 -
7:40 - 7:43機械人可能會因而自己鑽研學習方法
-
7:43 - 7:48以至到最後發現
自己有啲目標同人類需要有矛盾 -
7:48 - 7:50有人支持博森博士嘅觀點
-
7:50 - 7:54包括 Elon Musk 同霍金
-
7:55 - 8:02我想指出其實幾位智者諗錯咗
-
8:02 - 8:06Nick Bostrom 嘅理論有好多錯誤
-
8:06 - 8:08但我無時間講曬所有
-
8:08 - 8:14但簡單嚟講,可以咁理解:
超智能唔代表超萬能 -
8:14 - 8:17哈爾對於成個太空探索團隊嘅威脅
-
8:17 - 8:21僅限於佢可以對探索任務落命令
-
8:21 - 8:23所以任務需要一個超智能機器
-
8:23 - 8:26落命令嘅需要有統治世界嘅能力
-
8:26 - 8:28電影《未來戰士 2018》
裡面嘅 Skynet -
8:28 - 8:31嗰個可以操控人類意志嘅
超人工智能防禦系統 -
8:31 - 8:36控制曬全世界所有嘅機器同裝置
-
8:36 - 8:37即係話
-
8:37 - 8:39電影情節係唔會發生
-
8:39 - 8:44我哋唔係整隻機械人出嚟呼風喚雨
-
8:44 - 8:47操控喜怒無常、陷於鬥爭嘅人類
-
8:47 - 8:51再者,如果咁樣嘅機械人真係存在
-
8:51 - 8:54佢就會同人類嘅經濟鬥過
-
8:54 - 8:57甚至同人類爭資源
-
8:57 - 8:58最終結果係——
-
8:58 - 9:00唔好話俾 Siri 聽——
-
9:00 - 9:02我哋可以隨時熄咗佢哋
-
9:02 - 9:04(笑聲)
-
9:05 - 9:10我哋同機械人係共同進化
-
9:10 - 9:15未來嘅人類同今日嘅我哋
唔可以同日而語 -
9:15 - 9:19人類擔心人工智能帶嚟威脅
-
9:19 - 9:24只會令人類唔去真正關心
科技崛起帶嚟嘅人文同社會問題 -
9:24 - 9:29而呢啲問題正正係
我哋需要著手解決嘅 -
9:29 - 9:31問題例如有︰
-
9:31 - 9:35當我哋唔再需要勞動力嘅時候
我哋要點去調控社會? -
9:35 - 9:40點樣向全世界傳播知識同教育
同時又尊重當地嘅差異? -
9:40 - 9:44點樣通過認知式保健幫人類延年益壽?
-
9:44 - 9:50點樣利用電腦幫人類踏足外太空?
-
9:50 - 9:52諗下都覺得興奮
-
9:52 - 10:00利用計算科學去開拓人類經歷嘅機會
就喺手裏邊 -
10:00 - 10:02而我哋只係啱啱捉緊到
-
10:02 - 10:03多謝大家
-
10:03 - 10:05(掌聲)
- Title:
- 人工智能,使乜驚啊?
- Speaker:
- Grady Booch
- Description:
-
新科技帶嚟新憂慮。科學家兼哲學家 Grady Booch 同我哋講,高智能又冷漠無情嘅人工智能使乜驚啊。 Grady Booch 叫我哋唔好先入為主俾啲科幻片嚇親,並解釋人類會點樣教育,而唔係編寫,令人工智能擁有人類嘅價值觀。與其對無可能發生嘅事擔心,不如諗下人工智能將會點樣提高人類嘅生活質素。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Alan Watson accepted Chinese, Yue subtitles for Don't fear superintelligent AI | ||
Alan Watson edited Chinese, Yue subtitles for Don't fear superintelligent AI | ||
Alan Watson edited Chinese, Yue subtitles for Don't fear superintelligent AI | ||
Alan Watson edited Chinese, Yue subtitles for Don't fear superintelligent AI | ||
Alan Watson edited Chinese, Yue subtitles for Don't fear superintelligent AI | ||
Danly edited Chinese, Yue subtitles for Don't fear superintelligent AI |