< Return to Video

身為機器人是什麼感覺?

  • 0:01 - 0:03
    你只有一次機會建立第一印象,
  • 0:03 - 0:07
    不論你是機器人或人類,都是如此。
  • 0:07 - 0:10
    當我初次見到一隻這種機器人,
  • 0:10 - 0:13
    是 2008 年,
    在一個叫柳樹車庫公司的地方。
  • 0:13 - 0:16
    當我去那裡造訪時,
    東道主陪我走進大樓,
  • 0:16 - 0:17
    我們見到了這個小傢伙。
  • 0:17 - 0:19
    它在門廳跑來跑去,
  • 0:19 - 0:21
    跑到我面前,坐在那裡,
  • 0:21 - 0:23
    面無表情地望穿我,
  • 0:23 - 0:25
    好一陣子什麼都沒做,
  • 0:25 - 0:27
    快速把它的頭扭轉了180 度,
  • 0:27 - 0:28
    然後跑走了。
  • 0:28 - 0:30
    那不是很好的第一印象。
  • 0:30 - 0:33
    我那天學到一件關於機器人的事,
  • 0:33 - 0:35
    就是它們會做自己的事,
  • 0:35 - 0:37
    並且完全沒有意識到我們的存在。
  • 0:37 - 0:40
    我想,當我們在實驗這些
    可能的未來機器人時,
  • 0:40 - 0:43
    我們其實最後學到很多
    關於我們自己的事,
  • 0:43 - 0:45
    不只學到關於這些機器的事。
  • 0:45 - 0:46
    我那天學到的是,
  • 0:46 - 0:49
    我對這個小傢伙有很高的期望。
  • 0:49 - 0:53
    它不僅應該要能夠引導實體世界,
  • 0:53 - 0:55
    也應該要能引導我的社交世界。
  • 0:55 - 0:57
    它在我的空間中,它是個人機器人,
  • 0:58 - 1:00
    為什麼它不了解我?
  • 1:00 - 1:01
    東道主向我解釋:
  • 1:01 - 1:04
    「嗯,機器人試著從A點到達B點,
  • 1:04 - 1:06
    而你是擋在它路上的障礙物,
  • 1:06 - 1:08
    所以它得重新規劃它的路徑,
  • 1:08 - 1:09
    搞清楚要走去哪裡,
  • 1:09 - 1:11
    然後走其他的路到達目的地。」
  • 1:11 - 1:13
    這其實並不是很有效益的做法。
  • 1:13 - 1:17
    如果那隻機器人能理解
    我是一個人,不是一張椅子,
  • 1:17 - 1:19
    那我其實願意讓開,
  • 1:19 - 1:20
    讓它能到它的目的地,
  • 1:20 - 1:23
    這樣就會用更有效益的方式
  • 1:23 - 1:24
    完成它的工作,
  • 1:24 - 1:26
    如果它花點功夫注意到我是一個人,
  • 1:26 - 1:30
    且我有著和椅子及牆壁
    不同的能力,就可以做到這點。
  • 1:30 - 1:33
    我們傾向於認為
    這些機器人是來自外太空,
  • 1:33 - 1:35
    來自未來,來自科幻小說,
  • 1:35 - 1:37
    雖然那是有可能的,
  • 1:37 - 1:39
    但其實我認為,
    機器人現今就在這裡了,
  • 1:39 - 1:42
    它們現在就在人類當中生活、工作。
  • 1:42 - 1:45
    這兩隻機器人住在我家。
  • 1:45 - 1:47
    它們會吸地板和除草,
  • 1:48 - 1:49
    每天都做,
  • 1:49 - 1:52
    就算我有時間做這些工作,
    我也無法做到這麼多,
  • 1:52 - 1:54
    且它們可能也做得比我好。
  • 1:55 - 1:57
    這隻機器人會照顧我的貓。
  • 1:57 - 2:00
    每當牠使用貓砂時,它就會清理,
  • 2:00 - 2:02
    這就不是我願意做的事了,
  • 2:02 - 2:04
    它讓牠和我的生活都變得更好。
  • 2:04 - 2:07
    雖然我們稱這些機器人為產品,
  • 2:07 - 2:09
    它是打掃機器人、
    它是除草機器人、
  • 2:09 - 2:11
    它是貓砂機器人,
  • 2:11 - 2:15
    我認為,在我們視線能及之處
    還隱藏了一堆其他的機器人,
  • 2:15 - 2:18
    只是它們變得太有用、太平凡,
  • 2:18 - 2:21
    以致於我們為它們另外命名,
    比如「洗碗機」,對吧?
  • 2:21 - 2:22
    它們得到新的名字。
  • 2:22 - 2:24
    它們不再被稱為機器人,
  • 2:24 - 2:26
    因為,在我們的人生中,
    它們有目的、用途。
  • 2:26 - 2:28
    同樣的,自動調溫器,對吧?
  • 2:28 - 2:30
    我知道外頭那些機器人朋友們
  • 2:30 - 2:32
    大概對我稱呼它們為機器人
    感到難為情,
  • 2:32 - 2:33
    但它有個目標,
  • 2:33 - 2:36
    它的目標就是讓我的房子
    維持在華氏 66 度。
  • 2:36 - 2:37
    它會感知這個世界,
  • 2:38 - 2:39
    知道有一點冷,
  • 2:39 - 2:42
    它會做計畫,然後
    在實體世界採取行動。
  • 2:42 - 2:43
    這就是機器人。
  • 2:43 - 2:46
    即使它看起來不像
    《傑森一家》裡的機器人,
  • 2:46 - 2:49
    但在我的人生中,
    它所做的事非常有用,
  • 2:49 - 2:50
    它讓我不用去費心
  • 2:50 - 2:53
    自己把溫度調高調低。
  • 2:53 - 2:56
    我認為,這些系統在
    我們人類當中生活和工作,
  • 2:56 - 2:59
    且,不僅這些系統生活在我們當中,
  • 2:59 - 3:01
    你可能也是個機器人操作員。
  • 3:01 - 3:03
    當你駕駛你的車時,
  • 3:03 - 3:05
    感覺就像你在操作機械。
  • 3:05 - 3:08
    你也是在從A點前往B點,
  • 3:08 - 3:10
    但你的車可能有動力方向盤,
  • 3:10 - 3:13
    它可能有自動煞車系統,
  • 3:13 - 3:17
    它可能有自排變速箱,
    甚至有主動車距控制巡航系統。
  • 3:17 - 3:19
    雖然它可能不是完全自主的車,
  • 3:20 - 3:21
    它還是有一些自主性,
  • 3:21 - 3:22
    且這些自主性很有用,
  • 3:22 - 3:24
    讓我們能更安全地開車,
  • 3:24 - 3:28
    我們只會感覺到,在使用它們時,
    它們好像隱形了,對嗎?
  • 3:28 - 3:29
    當你在駕駛你的車時,
  • 3:29 - 3:32
    你應該只會感覺到你是
    從一個地方到另一個地方。
  • 3:32 - 3:36
    感覺並不像是件需要你
    去處理、操作、使用
  • 3:36 - 3:37
    這些控制功能的大事,
  • 3:37 - 3:40
    因為我們花了太多時間學習駕駛,
  • 3:40 - 3:42
    以致於它們已經成了
    我們自己的延伸體。
  • 3:42 - 3:45
    當你把車停在那狹小的車庫空間中,
  • 3:45 - 3:47
    你知道車子的邊角在什麼位置。
  • 3:47 - 3:50
    當你開一輛你可能以前
    沒開過的出租車時,
  • 3:50 - 3:53
    要花一點時間去習慣
    你的機器人身體。
  • 3:53 - 3:57
    操作其他種類的機器人也是這樣的,
  • 3:57 - 4:00
    所以我想要和各位
    分享幾個相關的故事。
  • 4:00 - 4:03
    處理遠端協同作業的問題。
  • 4:03 - 4:05
    在柳樹車庫,我有個同事叫達拉斯,
  • 4:05 - 4:07
    達拉斯看起來是這樣子。
  • 4:07 - 4:10
    在我們加州的公司中,
    他在印第安納州的家中工作。
  • 4:10 - 4:14
    在我們大部分的會議中,
    他是桌上盒子裡傳出來的聲音,
  • 4:14 - 4:16
    這樣是還好,不過,你們知道的,
  • 4:16 - 4:19
    如果我們發生火熱的辯論,
    且我們不喜歡他的說法時,
  • 4:19 - 4:21
    我們可能就會把他掛斷。
  • 4:21 - 4:22
    (笑聲)
  • 4:22 - 4:24
    在那場會議後,
    我們會再開一場會議,
  • 4:24 - 4:27
    且之後就在走廊做決策,
  • 4:27 - 4:28
    當他不在那裡的時候。
  • 4:28 - 4:30
    那對他而言並非好事。
  • 4:30 - 4:32
    柳樹車庫是間機器人公司,
  • 4:32 - 4:33
    在公司裡滿地都是
    機器人的身體部件,
  • 4:33 - 4:37
    所以,達拉斯和他的伙伴柯特
    組裝了這個東西,
  • 4:37 - 4:40
    看起來像是 Skype
    接著一根棍子且下面有輪子,
  • 4:40 - 4:41
    它看來是個很蠢的科技玩具,
  • 4:41 - 4:44
    但其實,它可能是我所見過
    所有為了遠端協同作業所製出
  • 4:45 - 4:47
    最強大工具中的其中之一。
  • 4:47 - 4:51
    所以,現在,如果我沒回覆
    達拉斯在電子郵件中問的問題,
  • 4:51 - 4:53
    他可以直接進入我的辦公室,
  • 4:53 - 4:55
    擋住我的門,再問我一次那個問題
  • 4:56 - 4:57
    (笑聲)
  • 4:57 - 4:58
    直到我回答為止。
  • 4:58 - 5:01
    我不會把他關機,
    對吧?那樣有點失禮。
  • 5:01 - 5:03
    它不只很適合用在一對一的溝通上,
  • 5:04 - 5:06
    也很適合出席公司的全員大會。
  • 5:06 - 5:08
    把你的屁股坐到椅子上,
  • 5:08 - 5:11
    讓人們看到你有出席,
    有投入你的專案計畫,
  • 5:11 - 5:13
    這是很重要的,
  • 5:13 - 5:15
    且能大大協助遠端協同作業。
  • 5:15 - 5:18
    在數個月、接著數年的期間,
    我們都看到這個狀況,
  • 5:18 - 5:21
    不只在我們的公司裡,
    也在其他公司裡。
  • 5:21 - 5:23
    對於這些系統,最棒的情況就是
  • 5:23 - 5:25
    你開始覺得你就是在那裡。
  • 5:25 - 5:27
    那就是你,那就是你的身體,
  • 5:27 - 5:30
    所以人們開始留
    個人空間給這些東西。
  • 5:30 - 5:32
    當你參加一場站立會議時,
  • 5:32 - 5:34
    人們在那空間中站立的位置,
  • 5:34 - 5:36
    就跟真人開會時的情況一樣。
  • 5:36 - 5:39
    一切都很美好,
    直到當機,就不好了。
  • 5:39 - 5:41
    當人們初次看到這些機器人時,
  • 5:41 - 5:44
    通常會:「哇,零件在哪裡?
    這裡一定有個攝影機。」
  • 5:44 - 5:46
    他們開始戳你的臉。
  • 5:46 - 5:48
    「你說話太輕柔了,
    我要把你的音量調高。」
  • 5:48 - 5:50
    這感覺就像有個同事
    走到你面前,說:
  • 5:50 - 5:53
    「你說話太輕柔了,
    我來把你的臉調一下。」
  • 5:53 - 5:56
    那挺尷尬的,且不太好,
  • 5:56 - 6:01
    所以我們最後就建立了使用
    這些系統時的新社交規範。
  • 6:01 - 6:04
    同樣的,當你開始覺得
    它是你身體的一部分時,
  • 6:04 - 6:08
    你就會開始注意到一些事:
    「喔,我的機器人有點矮。」
  • 6:08 - 6:10
    達拉斯會對我說些事。他有六呎高。
  • 6:11 - 6:14
    而我們會透過機器人帶他去
    雞尾酒派對之類的活動,
  • 6:14 - 6:15
    跟你會做的一樣。
  • 6:15 - 6:19
    而機器人大約五呎高,和我差不多。
  • 6:19 - 6:20
    他會告訴我:
  • 6:20 - 6:22
    「你知道嗎,人們沒有真正看著我。
  • 6:22 - 6:25
    我覺得我好像是看著一片肩膀海,
  • 6:25 - 6:27
    那就是──我們需要更高的機器人。」
  • 6:27 - 6:28
    而我告訴他:
  • 6:28 - 6:30
    「呃,不。
  • 6:30 - 6:32
    今天,你要嚐嚐當我的滋味。
  • 6:32 - 6:35
    你可以體會一下身為
    比較矮的族群是什麼感覺。」
  • 6:35 - 6:39
    結果他從那次經驗
    建立起了相當的同理心,
  • 6:39 - 6:40
    這樣挺好的。
  • 6:40 - 6:41
    所以當他親自來造訪時,
  • 6:41 - 6:44
    他若要跟我說話,
    也不會站得比我高,
  • 6:44 - 6:46
    他會坐下來,
    和我能真正面對面談話,
  • 6:46 - 6:48
    這是件很美好的事。
  • 6:48 - 6:51
    所以,我們決定在
    實驗室中研究這一點,
  • 6:51 - 6:54
    看看像類似機器人身高
    這種特性會造什麼其他的差異。
  • 6:54 - 6:58
    在我們的研究中,半數
    受試者使用較矮的機器人,
  • 6:58 - 7:00
    另外半數則用較高的機器人,
  • 7:00 - 7:02
    結果發現,當同一個人
  • 7:02 - 7:05
    用同樣的身體,說同樣的話,
  • 7:05 - 7:08
    如果用比較高的機器人,
    就會比較有說服力,
  • 7:08 - 7:10
    且被認為比較可靠。
  • 7:10 - 7:11
    這沒有理性的解釋,
  • 7:11 - 7:13
    但那就是為什麼我們要研究心理學。
  • 7:13 - 7:16
    其實,用克利福德那斯的說法,
  • 7:16 - 7:19
    我們得要處理這些嶄新的技術,
  • 7:19 - 7:22
    儘管我們的大腦是老舊的。
  • 7:22 - 7:25
    人類心理學的改變速度沒有科技快,
  • 7:25 - 7:27
    所以我們一直在努力追趕,
  • 7:27 - 7:30
    試圖把這個有很多自動的東西
    跑來跑去的世界給合理化。
  • 7:30 - 7:33
    通常,會說話的就是人,
    不是機器,對嗎?
  • 7:33 - 7:38
    所以我們把很多的意義帶到
    像機器高度這樣的事物中,
  • 7:38 - 7:39
    而非人,
  • 7:39 - 7:42
    然後將之歸因給使用系統的人。
  • 7:43 - 7:45
    當談到機器人學的時候,
  • 7:45 - 7:47
    我認為這點十分重要。
  • 7:47 - 7:49
    它的重點並不是在重新發明人類,
  • 7:49 - 7:52
    比較是在於我們要如何
    延伸我們自己,對嗎?
  • 7:52 - 7:55
    結果是,我們會用
    蠻讓人訝異的方式來使用東西。
  • 7:55 - 8:00
    這些人無法玩撞球,
    因為機器人沒有手臂,
  • 8:00 - 8:02
    但他們能和玩撞球的那些人起鬨,
  • 8:02 - 8:05
    那對於團隊連結來說
    可能是件重要的事,
  • 8:05 - 8:07
    這樣挺好的。
  • 8:07 - 8:09
    非常擅長操作這些系統的人
  • 8:09 - 8:11
    能做到像是創造新遊戲這類的事,
  • 8:11 - 8:13
    比如半夜玩機器人足球,
  • 8:13 - 8:15
    把垃圾筒推來推去。
  • 8:15 - 8:16
    但並非每個人都很擅長。
  • 8:16 - 8:19
    有些人在操作這些
    系統時會遇到問題。
  • 8:19 - 8:21
    這個人登入了機器人,
  • 8:21 - 8:23
    而他的眼球向左轉了九十度。
  • 8:23 - 8:24
    他自己並沒察覺,
  • 8:24 - 8:27
    結果他在辦公室裡頭亂撞,
  • 8:27 - 8:29
    撞到別人的桌子,弄得非常尷尬,
  • 8:29 - 8:32
    因此而大笑。他的音量太高了。
  • 8:32 - 8:34
    而照片裡的這個人告訴我:
  • 8:34 - 8:36
    「我們需要機器人靜音按鈕。」
  • 8:36 - 8:40
    他那麼說的意思是,我們不希望
    機器人會這樣引起混亂。
  • 8:40 - 8:41
    所以,既然我們是機器人公司,
  • 8:42 - 8:44
    我們就在系統上加裝了
    障礙閃避功能。
  • 8:44 - 8:47
    機器人有了一個小雷射測距儀,
    能夠看見障礙物,
  • 8:47 - 8:50
    如果我在操作機器人時,
    試圖比如撞向一張椅子,
  • 8:50 - 8:53
    它不會讓我這麼做,它會規劃繞路,
  • 8:53 - 8:55
    這看似是個好主意。
  • 8:55 - 8:58
    很顯然,用了那個系統之後,
    人們比較少撞到障礙物,
  • 8:58 - 9:00
    但,對一些人而言,
  • 9:00 - 9:03
    他們要花比較長的時間
    通過障礙物課程,
  • 9:03 - 9:04
    我們想要知道為什麼。
  • 9:05 - 9:08
    結果發現,有個很重要的人類維度,
  • 9:08 - 9:10
    一個人格維度,叫做「控制點」,
  • 9:10 - 9:14
    如果一個人有很強的內在控制點,
  • 9:14 - 9:17
    他會想要主宰自己的命運,
  • 9:17 - 9:20
    他們不喜歡把控制權交給自動系統
  • 9:20 - 9:22
    以致會去對抗自動化:
  • 9:22 - 9:25
    「如果我想要撞到椅子,
    我就要撞到椅子。」
  • 9:25 - 9:29
    自動化的協助反而會
    讓這類人很辛苦,
  • 9:29 - 9:31
    我們能知道這點是很重要的,
  • 9:31 - 9:35
    畢竟我們在建立越來越
    自動化的…比如汽車,對吧?
  • 9:35 - 9:38
    要如何讓不同型的人使用而不失控?
  • 9:39 - 9:42
    不同的人類維度會有不同的方式。
  • 9:42 - 9:45
    我們不能把人看成是單一的東西。
  • 9:45 - 9:48
    我們有不同的人格、文化,
  • 9:48 - 9:50
    我們甚至在不同時刻
    會有不同的情緒狀態,
  • 9:50 - 9:52
    如果要能夠設計這些系統,
  • 9:52 - 9:54
    這些人類與機器人的互動系統,
  • 9:54 - 9:57
    我們就得要考量人類維度,
  • 9:57 - 9:59
    不只是技術維度。
  • 10:00 - 10:04
    隨著控制感而來的,就是責任感。
  • 10:04 - 10:07
    如果你是個在使用
    這些系統的機器人操作員,
  • 10:07 - 10:09
    介面看起來就是這樣子的。
  • 10:09 - 10:11
    它看起來有一點像電玩遊戲,
  • 10:11 - 10:14
    這是好事,因為人們熟悉它;
  • 10:14 - 10:15
    但也可能是壞事,
  • 10:15 - 10:18
    因為它會讓人們覺得
    它是個電玩遊戲。
  • 10:18 - 10:20
    我們找了一群小朋友
    到史丹佛來玩這個系統,
  • 10:20 - 10:22
    操作我們在門洛公園
    辦公室裡的機器人,
  • 10:22 - 10:24
    小朋友們開始說像這樣的話:
  • 10:24 - 10:27
    「如果你撞到那邊的那個人,
    得十分,那個人則是二十分。」
  • 10:27 - 10:30
    他們會在走廊上追著目標跑。
  • 10:30 - 10:31
    (笑聲)
  • 10:31 - 10:33
    我告訴他們:「呃,那些是真人。
  • 10:33 - 10:36
    如果你們撞到他們,
    他們真的會流血且會痛。」
  • 10:36 - 10:38
    他們才說:「好,了解。」
  • 10:38 - 10:40
    但五分鐘之後,他們又會說:
  • 10:40 - 10:43
    「撞到那邊那個人有二十分,
    他看起來需要被撞一下。」
  • 10:43 - 10:46
    這有一點像《戰爭遊戲》,對嗎?
  • 10:46 - 10:48
    在另一端有一個真實的世界,
  • 10:48 - 10:51
    我認為我們身為人的責任,
    是要設計這些介面
  • 10:51 - 10:53
    來協助人們記得
  • 10:53 - 10:55
    他們的行為會造成真實的後果,
  • 10:55 - 10:59
    讓他們在操作這些
    越來越自動的東西時,
  • 10:59 - 11:01
    能夠有責任感。
  • 11:02 - 11:04
    這些是很棒的例子,
  • 11:04 - 11:07
    說明對一種可能的
    機器人未來所做的實驗,
  • 11:07 - 11:11
    我覺得我們能將自己
    延伸出去,是挺酷的事,
  • 11:11 - 11:14
    同時也能學習我們
    將自己延伸出去的方式,
  • 11:14 - 11:15
    延伸至機器中,
  • 11:15 - 11:17
    同時還能表現出我們的人性
  • 11:17 - 11:19
    以及我們的個性。
  • 11:19 - 11:20
    我們也會建立對他人的同理心,
  • 11:20 - 11:24
    理解那些比較矮、比較高、
    比較快、比較慢,
  • 11:24 - 11:25
    甚至沒有手臂的人,
  • 11:25 - 11:26
    這樣挺好的。
  • 11:27 - 11:29
    我們也會建立
    對機器人本身的同理心。
  • 11:29 - 11:31
    這是我最喜歡的機器人之一。
  • 11:31 - 11:32
    它叫 Tweenbot。
  • 11:32 - 11:34
    這傢伙有一面小旗子,上面寫著:
  • 11:34 - 11:37
    「我想前往曼哈頓的
    這個十字路口。」
  • 11:37 - 11:40
    它很可愛,會向前跑,就這樣。
  • 11:40 - 11:42
    它不知道如何建立地圖,
    它不知道如何看世界,
  • 11:42 - 11:44
    它只會尋求協助。
  • 11:44 - 11:46
    而人們很棒的一點,
  • 11:46 - 11:49
    就是它真的可以仰賴陌生人的善心。
  • 11:49 - 11:53
    它真的穿過公園到了
    曼哈頓的另一端。
  • 11:53 - 11:54
    這很棒,
  • 11:54 - 11:57
    因為人們會把它拿起來,
    轉向正確的方向。
  • 11:57 - 11:58
    (笑聲)
  • 11:58 - 12:00
    那樣很棒,對嗎?
  • 12:00 - 12:02
    我們在試著建立
    人類──機器人的世界,
  • 12:03 - 12:06
    在這個世界中,我們彼此能
    共同存在且和諧地共事,
  • 12:06 - 12:09
    我們不用完全自動化,
    也不用只靠自己做事。
  • 12:09 - 12:11
    而是真正能夠一起做事。
  • 12:11 - 12:12
    要實現這個理想,
  • 12:12 - 12:15
    我們其實需要其他人的協助,
    像是藝術家、設計師、
  • 12:15 - 12:17
    政策制訂者、法律學者、
  • 12:17 - 12:19
    心理學家、社會學家、人類學家 ──
  • 12:19 - 12:21
    我們需要更多的觀點參與討論,
  • 12:21 - 12:24
    如果我們要做史都華卡德
    說我們應該做的事情,
  • 12:24 - 12:28
    也就是:發明一個會讓我們
    想要住在其中的未來。
  • 12:28 - 12:31
    我認為我們能持續做實驗,
  • 12:31 - 12:33
    將不同的機器人未來一起拿來實驗,
  • 12:33 - 12:38
    這麼做,我們最後就能學到
    很多關於我們自己的事。
  • 12:39 - 12:40
    謝謝。
  • 12:40 - 12:42
    (掌聲)
Title:
身為機器人是什麼感覺?
Speaker:
萊菈高山
Description:

我們已經住在機器人當中了:像是洗碗機、溫度調節器這類的工具和機器,它們完全融入我們的生活,讓我們完全沒想到要稱它們為機器人。有更多機器人的未來會是什麼樣子?社會科學家萊菈高山分享了在設計人類──機器人互動上一些獨特的挑戰,以及針對機器人未來做實驗,如何會讓我們最後更了解我們自己。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:55

Chinese, Traditional subtitles

Revisions