Return to Video

人工智慧的危險性比你想的還要怪異

  • 0:02 - 0:05
    人工智慧
  • 0:05 - 0:08
    顛覆各產業為人所知。
  • 0:09 - 0:11
    那冰淇淋呢?
  • 0:12 - 0:15
    有了先進的人工智慧,
  • 0:15 - 0:19
    我們能變出什麼驚人的新口味?
  • 0:19 - 0:23
    我和基林中學的
    一組程式設計師合作,
  • 0:23 - 0:25
    想找出這個問題的答案。
  • 0:25 - 0:31
    他們收集了既有的
    一千六百種冰淇淋口味,
  • 0:31 - 0:36
    將這些資料輸入到演算法中,
    看看會產出什麼。
  • 0:36 - 0:40
    以下是人工智慧想出來的一些口味。
  • 0:40 - 0:42
    〔南瓜垃圾〕
  • 0:42 - 0:43
    (笑聲)
  • 0:43 - 0:46
    〔花生醬黏液〕
  • 0:47 - 0:49
    〔草莓奶油疾病〕
  • 0:49 - 0:50
    (笑聲)
  • 0:50 - 0:55
    這些口味並不如我們預期的可口。
  • 0:55 - 0:58
    所以問題是:到底怎麼了?
    哪裡出問題了?
  • 0:58 - 1:00
    人工智慧想要害死我們嗎?
  • 1:01 - 1:04
    或它只是照我們的指示去做,
  • 1:04 - 1:05
    卻出了問題?
  • 1:07 - 1:09
    在電影中,人工智慧如果出問題,
  • 1:09 - 1:12
    通常都是因為人工智慧決定
  • 1:12 - 1:14
    不要繼續服從人類了,
  • 1:14 - 1:17
    它有自己的目標,非常謝謝。
  • 1:17 - 1:20
    不過,在我們現實生活中的人工智慧
  • 1:21 - 1:23
    並沒有聰明到能做出那樣的事。
  • 1:23 - 1:26
    它大概只有蚯蚓程度的計算能力,
  • 1:26 - 1:30
    或頂多到一隻蜜蜂的程度,
  • 1:31 - 1:33
    其實,可能還更低。
  • 1:33 - 1:35
    對於大腦我們不斷有新的發現,
  • 1:35 - 1:40
    讓我們更清楚知道,
    人工智慧遠遠比不上真實大腦。
  • 1:40 - 1:42
    所以,現今的人工智慧可以做到
  • 1:42 - 1:45
    在圖片中辨識出行人之類的事,
  • 1:45 - 1:48
    但它不知道什麼是行人,
  • 1:48 - 1:53
    只知道行人是許多
    線條、結構、東西的組合。
  • 1:54 - 1:56
    它不知道人類是什麼。
  • 1:57 - 2:00
    所以,現今的人工智慧
    會照我們要求的做嗎?
  • 2:00 - 2:02
    如果能的話,它會,
  • 2:02 - 2:04
    但它可能不會照我們
    真正想要它做的去做。
  • 2:04 - 2:07
    比如,你想要人工智慧
  • 2:07 - 2:10
    把這一堆機器人的零件
  • 2:10 - 2:14
    組裝成某種機器人,
    從 A 點走到 B 點。
  • 2:14 - 2:19
    如果你是用傳統的電腦程式方法來寫,
  • 2:19 - 2:22
    你就得要給程式一步一步的指令,
  • 2:22 - 2:26
    告訴它要拿哪些零件,
    如何組裝成有腳的機器人,
  • 2:26 - 2:29
    接著告訴它如何用腳來走到 B 點。
  • 2:29 - 2:33
    但,若用人工智慧來解決
    這個問題,做法就不同了。
  • 2:33 - 2:37
    你不用告訴它如何解決問題,
    只要給它一個目標,
  • 2:37 - 2:42
    它自己要用嘗試錯誤法
    來想辦法達成目標。
  • 2:42 - 2:46
    結果發現,人工智慧
    解決這個問題的方法
  • 2:46 - 2:48
    傾向於用這種方式:
  • 2:48 - 2:51
    它會把它自己組裝成
    一座塔,然後倒向 B,
  • 2:51 - 2:53
    就會到達 B 點了。
  • 2:53 - 2:58
    技術上來說,問題的確解決了。
    它的確抵達了 B 點。
  • 2:58 - 3:02
    人工智慧的危險性
    並不在於它會反抗我們,
  • 3:02 - 3:06
    而是它會「完全」照我們的要求去做。
  • 3:07 - 3:09
    所以使用人工智慧的秘訣就變成是:
  • 3:09 - 3:13
    我們要如何把問題設定好,
    讓它真能照我們所想的去做?
  • 3:15 - 3:18
    這個小機器人是由人工智慧控制。
  • 3:18 - 3:21
    人工智慧構思出機器人的腳,
  • 3:21 - 3:25
    接著它再想出要如何
    用腳來越過這些障礙。
  • 3:25 - 3:28
    但,當大衛‧哈在設計這個實驗時,
  • 3:28 - 3:31
    他得要訂下非常非常嚴格的限制,
  • 3:31 - 3:34
    限制人工智慧能把腳做到多大,
  • 3:34 - 3:36
    因為,若不限制……
  • 3:43 - 3:47
    (笑聲)
  • 3:49 - 3:52
    技術上,它也的確到了
    障礙道的另一端。
  • 3:52 - 3:57
    所以大家可以了解,讓人工智慧
    做出走路這麼簡單的事有多難了。
  • 3:57 - 4:01
    看到人工智慧這麼做,
    你可能會說,好,這不公平,
  • 4:01 - 4:04
    你不能變成高塔然後倒下來就到位,
  • 4:04 - 4:07
    你必須要真的用腳來走路。
  • 4:07 - 4:09
    結果發現,那也行不通。
  • 4:10 - 4:13
    這個人工智慧的工作
    是要達成快速移動。
  • 4:13 - 4:17
    他們沒有告訴人工智慧說
    跑步時一定要面對前方,
  • 4:17 - 4:19
    也沒說它不可以用手臂。
  • 4:19 - 4:24
    所以如果你訓練人工智慧要做到
    快速移動,就會得到這種結果,
  • 4:24 - 4:28
    你會得到筋斗翻和很蠢的走路姿勢。
  • 4:28 - 4:29
    這很常見。
  • 4:30 - 4:33
    「成堆地沿著地板抽動」亦然。
  • 4:33 - 4:35
    (笑聲)
  • 4:35 - 4:38
    我認為更詭異的
  • 4:38 - 4:40
    是《魔鬼終結者》的機器人。
  • 4:40 - 4:44
    如果你給人工智慧機會,
    它也會駭入《駭客任務》的母體。
  • 4:44 - 4:47
    如果在模擬狀況中訓練人工智慧,
  • 4:47 - 4:51
    它會學習如何做出的事包括
    駭入模擬的數學錯誤中
  • 4:51 - 4:53
    並獲取它們作為能量。
  • 4:53 - 4:58
    或者,它會重覆在地板
    鑽上鑽下使自己移動得更快。
  • 4:58 - 5:02
    和人工智慧合作比較像是
    和某種大自然的詭異力量合作,
  • 5:02 - 5:06
    而不太像是和人類合作。
  • 5:07 - 5:11
    一不小心就會叫人工智慧
    去解決不正確的問題,
  • 5:11 - 5:16
    且通常出錯後我們才會發現。
  • 5:16 - 5:18
    我做了一個實驗,
  • 5:18 - 5:22
    我希望人工智慧能複製顏料顏色,
  • 5:22 - 5:23
    發明新的顏料顏色,
  • 5:23 - 5:26
    給它左側的這個清單。
  • 5:27 - 5:30
    這些是人工智慧創造出來的顏色。
  • 5:30 - 5:33
    〔辛迪司便便、混蛋、
    苦難、灰色陰部〕
  • 5:33 - 5:37
    (笑聲)
  • 5:39 - 5:41
    技術上來說,
  • 5:41 - 5:43
    它照我的意思做了。
  • 5:43 - 5:46
    我以為我要求人工智慧
    給我好聽的色彩名稱,
  • 5:46 - 5:49
    但我實際上是在要求它
  • 5:49 - 5:53
    模仿它在原始顏色中
    所見到的那些字母組合。
  • 5:54 - 5:57
    我沒有告訴它字的意思,
  • 5:57 - 5:59
    也沒告訴它可能有一些字
  • 5:59 - 6:02
    不太適合用在顏料顏色上。
  • 6:03 - 6:06
    它所有的訊息就僅是
    我給它的資料而已。
  • 6:07 - 6:11
    和冰淇淋口味的例子一樣,
    其他的它什麼都不知道。
  • 6:12 - 6:15
    通常會因為資料內容的關係,
  • 6:15 - 6:19
    無意間讓人工智慧去執行錯誤的運作。
  • 6:19 - 6:22
    這是一種叫丁鱖的魚。
  • 6:22 - 6:24
    有一群研究人員
  • 6:24 - 6:27
    訓練人工智慧在照片中辨識出丁鱖。
  • 6:27 - 6:32
    但當他們問人工智慧,它是用
    圖上的哪個部分來辨識出丁鱖,
  • 6:32 - 6:34
    結果它標記出這些部分。
  • 6:35 - 6:37
    是的,這些是人類的手指。
  • 6:37 - 6:42
    如果它的目標是要辨識出魚類,
    為什麼要去找人類的手指?
  • 6:42 - 6:45
    結果發現,丁鱖是釣客的戰利品,
  • 6:45 - 6:50
    所以,人工智慧在訓練期間
    所看到的大量丁鱖照片,
  • 6:50 - 6:53
    看起來像這樣。(笑聲)
  • 6:53 - 6:57
    人工智慧不知道手指並非魚的一部分。
  • 6:59 - 7:02
    這就是為什麼難以設計出
  • 7:02 - 7:06
    能看懂眼前事物為何的人工智慧。
  • 7:06 - 7:09
    這也就是為什麼在自動駕駛汽車上
  • 7:09 - 7:11
    設計影像辨識系統如此困難。
  • 7:11 - 7:13
    很多自動駕駛汽車會失敗
  • 7:14 - 7:16
    是因為困惑的人工智慧。
  • 7:16 - 7:20
    我想要談談 2016 年的一個例子。
  • 7:20 - 7:25
    某人在使用特斯拉的自動駕駛
    人工智慧時發生了致命的意外,
  • 7:25 - 7:28
    它原本是設計行駛在高速公路上的,
  • 7:28 - 7:31
    但他們卻讓它行駛在城市街道上。
  • 7:31 - 7:34
    事情的經過是:有台卡車
    經過這台車的前面,
  • 7:34 - 7:36
    這台車沒有煞車。
  • 7:37 - 7:41
    人工智慧一定有被訓練過
    如何辨識出照片中的卡車。
  • 7:41 - 7:43
    但發生的狀況似乎是
  • 7:43 - 7:46
    人工智慧被訓練辨識出
    在高速公路上行駛的卡車,
  • 7:46 - 7:49
    在高速公路上你會看到的
    應該是卡車的車尾。
  • 7:49 - 7:53
    高速公路上不應該會看到卡車的側面,
  • 7:53 - 7:56
    所以,當人工智慧看到這台卡車時,
  • 7:56 - 8:01
    人工智慧似乎把它當作是路上的號誌,
  • 8:01 - 8:04
    因此判斷可以安全地從下方行駛過去。
  • 8:04 - 8:07
    再來是另一個領域中的人工智慧過失。
  • 8:07 - 8:11
    亞馬遜最近必須要放棄他們
    努力研發的履歷排序演算法,
  • 8:11 - 8:15
    因為他們發現演算法學會歧視女性。
  • 8:15 - 8:18
    他們用過去僱用員工的記錄資料
  • 8:18 - 8:20
    當作訓練人工智慧的範例。
  • 8:20 - 8:23
    從範例中,人工智慧學到不要選擇
  • 8:24 - 8:26
    上過女子大學的人,
  • 8:26 - 8:29
    也不要選擇在履歷中某處
    寫到「女」字的人,
  • 8:29 - 8:33
    比如「女子足球隊」
    或「女工程師協會」。
  • 8:34 - 8:37
    人工智慧看到人類這麼做,
  • 8:37 - 8:40
    它並不知道它不該複製這種模式。
  • 8:40 - 8:43
    技術上來說,它也照著
    他們給它的指示做了。
  • 8:43 - 8:46
    他們只是不小心
    叫人工智慧做了錯的事。
  • 8:47 - 8:50
    人工智慧常常會發生這種狀況。
  • 8:50 - 8:54
    人工智慧可能造成破壞卻不自覺。
  • 8:54 - 8:59
    所以,在臉書、Youtube 上
    負責做推薦的人工智慧,
  • 8:59 - 9:02
    它們進行了優化以增加點閱率次數。
  • 9:02 - 9:06
    不幸的是,它們發現,
    達到目標的方法之一
  • 9:06 - 9:10
    就是推薦關於陰謀論或偏執的內容。
  • 9:11 - 9:13
    人工智慧本身
  • 9:13 - 9:16
    對於推薦的內容一無所知,
  • 9:16 - 9:20
    也對推薦這些內容會造成的後果
  • 9:20 - 9:22
    一無所悉。
  • 9:22 - 9:24
    當我們使用人工智慧時,
  • 9:24 - 9:29
    必須要由我們來避免問題。
  • 9:29 - 9:31
    我們若要避免出錯,
  • 9:31 - 9:35
    可能就得歸結到溝通的老問題上,
  • 9:35 - 9:39
    我們人類得要學習
    如何和人工智慧溝通。
  • 9:39 - 9:43
    我們得要了解人工智慧
    能夠做什麼、不能做什麼,
  • 9:43 - 9:47
    且要知道,人工智慧
    只有小蟲等級的大腦,
  • 9:47 - 9:50
    它不知道我們真正想要它做什麼。
  • 9:51 - 9:54
    換言之,我們得有心理準備,
    我們所使用的人工智慧
  • 9:54 - 10:00
    並非科幻小說裡那種
    超能、無所不知的人工智慧。
  • 10:00 - 10:05
    我們必須準備好與現今還是
    小蟲大腦等級的人工智慧共事。
  • 10:06 - 10:09
    而現今的人工智慧是非常怪異的。
  • 10:10 - 10:11
    謝謝。
  • 10:11 - 10:14
    (掌聲)
Title:
人工智慧的危險性比你想的還要怪異
Speaker:
詹妮爾‧沙恩
Description:

人工智慧研究者詹妮爾‧沙恩說,人工智慧的危險性並不在於它會反抗我們,而是它會完全照我們所指示的去做。沙恩分享了人工智慧演算法在解決人類問題(如創造新的冰淇淋口味,或在道路上辨識汽車)時,所發生既詭異、有時還讓人擔憂的事。沙恩也說明了為什麼人工智慧遠比不上真實的大腦。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:28

Chinese, Traditional subtitles

Revisions