身為機器人是什麼感覺?
-
0:01 - 0:03你只有一次機會建立第一印象,
-
0:03 - 0:07不論你是機器人或人類,都是如此。
-
0:07 - 0:10當我初次見到一隻這種機器人,
-
0:10 - 0:13是 2008 年,
在一個叫柳樹車庫公司的地方。 -
0:13 - 0:16當我去那裡造訪時,
東道主陪我走進大樓, -
0:16 - 0:17我們見到了這個小傢伙。
-
0:17 - 0:19它在門廳跑來跑去,
-
0:19 - 0:21跑到我面前,坐在那裡,
-
0:21 - 0:23面無表情地望穿我,
-
0:23 - 0:25好一陣子什麼都沒做,
-
0:25 - 0:27快速把它的頭扭轉了180 度,
-
0:27 - 0:28然後跑走了。
-
0:28 - 0:30那不是很好的第一印象。
-
0:30 - 0:33我那天學到一件關於機器人的事,
-
0:33 - 0:35就是它們會做自己的事,
-
0:35 - 0:37並且完全沒有意識到我們的存在。
-
0:37 - 0:40我想,當我們在實驗這些
可能的未來機器人時, -
0:40 - 0:43我們其實最後學到很多
關於我們自己的事, -
0:43 - 0:45不只學到關於這些機器的事。
-
0:45 - 0:46我那天學到的是,
-
0:46 - 0:49我對這個小傢伙有很高的期望。
-
0:49 - 0:53它不僅應該要能夠引導實體世界,
-
0:53 - 0:55也應該要能引導我的社交世界。
-
0:55 - 0:57它在我的空間中,它是個人機器人,
-
0:58 - 1:00為什麼它不了解我?
-
1:00 - 1:01東道主向我解釋:
-
1:01 - 1:04「嗯,機器人試著從A點到達B點,
-
1:04 - 1:06而你是擋在它路上的障礙物,
-
1:06 - 1:08所以它得重新規劃它的路徑,
-
1:08 - 1:09搞清楚要走去哪裡,
-
1:09 - 1:11然後走其他的路到達目的地。」
-
1:11 - 1:13這其實並不是很有效益的做法。
-
1:13 - 1:17如果那隻機器人能理解
我是一個人,不是一張椅子, -
1:17 - 1:19那我其實願意讓開,
-
1:19 - 1:20讓它能到它的目的地,
-
1:20 - 1:23這樣就會用更有效益的方式
-
1:23 - 1:24完成它的工作,
-
1:24 - 1:26如果它花點功夫注意到我是一個人,
-
1:26 - 1:30且我有著和椅子及牆壁
不同的能力,就可以做到這點。 -
1:30 - 1:33我們傾向於認為
這些機器人是來自外太空, -
1:33 - 1:35來自未來,來自科幻小說,
-
1:35 - 1:37雖然那是有可能的,
-
1:37 - 1:39但其實我認為,
機器人現今就在這裡了, -
1:39 - 1:42它們現在就在人類當中生活、工作。
-
1:42 - 1:45這兩隻機器人住在我家。
-
1:45 - 1:47它們會吸地板和除草,
-
1:48 - 1:49每天都做,
-
1:49 - 1:52就算我有時間做這些工作,
我也無法做到這麼多, -
1:52 - 1:54且它們可能也做得比我好。
-
1:55 - 1:57這隻機器人會照顧我的貓。
-
1:57 - 2:00每當牠使用貓砂時,它就會清理,
-
2:00 - 2:02這就不是我願意做的事了,
-
2:02 - 2:04它讓牠和我的生活都變得更好。
-
2:04 - 2:07雖然我們稱這些機器人為產品,
-
2:07 - 2:09它是打掃機器人、
它是除草機器人、 -
2:09 - 2:11它是貓砂機器人,
-
2:11 - 2:15我認為,在我們視線能及之處
還隱藏了一堆其他的機器人, -
2:15 - 2:18只是它們變得太有用、太平凡,
-
2:18 - 2:21以致於我們為它們另外命名,
比如「洗碗機」,對吧? -
2:21 - 2:22它們得到新的名字。
-
2:22 - 2:24它們不再被稱為機器人,
-
2:24 - 2:26因為,在我們的人生中,
它們有目的、用途。 -
2:26 - 2:28同樣的,自動調溫器,對吧?
-
2:28 - 2:30我知道外頭那些機器人朋友們
-
2:30 - 2:32大概對我稱呼它們為機器人
感到難為情, -
2:32 - 2:33但它有個目標,
-
2:33 - 2:36它的目標就是讓我的房子
維持在華氏 66 度。 -
2:36 - 2:37它會感知這個世界,
-
2:38 - 2:39知道有一點冷,
-
2:39 - 2:42它會做計畫,然後
在實體世界採取行動。 -
2:42 - 2:43這就是機器人。
-
2:43 - 2:46即使它看起來不像
《傑森一家》裡的機器人, -
2:46 - 2:49但在我的人生中,
它所做的事非常有用, -
2:49 - 2:50它讓我不用去費心
-
2:50 - 2:53自己把溫度調高調低。
-
2:53 - 2:56我認為,這些系統在
我們人類當中生活和工作, -
2:56 - 2:59且,不僅這些系統生活在我們當中,
-
2:59 - 3:01你可能也是個機器人操作員。
-
3:01 - 3:03當你駕駛你的車時,
-
3:03 - 3:05感覺就像你在操作機械。
-
3:05 - 3:08你也是在從A點前往B點,
-
3:08 - 3:10但你的車可能有動力方向盤,
-
3:10 - 3:13它可能有自動煞車系統,
-
3:13 - 3:17它可能有自排變速箱,
甚至有主動車距控制巡航系統。 -
3:17 - 3:19雖然它可能不是完全自主的車,
-
3:20 - 3:21它還是有一些自主性,
-
3:21 - 3:22且這些自主性很有用,
-
3:22 - 3:24讓我們能更安全地開車,
-
3:24 - 3:28我們只會感覺到,在使用它們時,
它們好像隱形了,對嗎? -
3:28 - 3:29當你在駕駛你的車時,
-
3:29 - 3:32你應該只會感覺到你是
從一個地方到另一個地方。 -
3:32 - 3:36感覺並不像是件需要你
去處理、操作、使用 -
3:36 - 3:37這些控制功能的大事,
-
3:37 - 3:40因為我們花了太多時間學習駕駛,
-
3:40 - 3:42以致於它們已經成了
我們自己的延伸體。 -
3:42 - 3:45當你把車停在那狹小的車庫空間中,
-
3:45 - 3:47你知道車子的邊角在什麼位置。
-
3:47 - 3:50當你開一輛你可能以前
沒開過的出租車時, -
3:50 - 3:53要花一點時間去習慣
你的機器人身體。 -
3:53 - 3:57操作其他種類的機器人也是這樣的,
-
3:57 - 4:00所以我想要和各位
分享幾個相關的故事。 -
4:00 - 4:03處理遠端協同作業的問題。
-
4:03 - 4:05在柳樹車庫,我有個同事叫達拉斯,
-
4:05 - 4:07達拉斯看起來是這樣子。
-
4:07 - 4:10在我們加州的公司中,
他在印第安納州的家中工作。 -
4:10 - 4:14在我們大部分的會議中,
他是桌上盒子裡傳出來的聲音, -
4:14 - 4:16這樣是還好,不過,你們知道的,
-
4:16 - 4:19如果我們發生火熱的辯論,
且我們不喜歡他的說法時, -
4:19 - 4:21我們可能就會把他掛斷。
-
4:21 - 4:22(笑聲)
-
4:22 - 4:24在那場會議後,
我們會再開一場會議, -
4:24 - 4:27且之後就在走廊做決策,
-
4:27 - 4:28當他不在那裡的時候。
-
4:28 - 4:30那對他而言並非好事。
-
4:30 - 4:32柳樹車庫是間機器人公司,
-
4:32 - 4:33在公司裡滿地都是
機器人的身體部件, -
4:33 - 4:37所以,達拉斯和他的伙伴柯特
組裝了這個東西, -
4:37 - 4:40看起來像是 Skype
接著一根棍子且下面有輪子, -
4:40 - 4:41它看來是個很蠢的科技玩具,
-
4:41 - 4:44但其實,它可能是我所見過
所有為了遠端協同作業所製出 -
4:45 - 4:47最強大工具中的其中之一。
-
4:47 - 4:51所以,現在,如果我沒回覆
達拉斯在電子郵件中問的問題, -
4:51 - 4:53他可以直接進入我的辦公室,
-
4:53 - 4:55擋住我的門,再問我一次那個問題
-
4:56 - 4:57(笑聲)
-
4:57 - 4:58直到我回答為止。
-
4:58 - 5:01我不會把他關機,
對吧?那樣有點失禮。 -
5:01 - 5:03它不只很適合用在一對一的溝通上,
-
5:04 - 5:06也很適合出席公司的全員大會。
-
5:06 - 5:08把你的屁股坐到椅子上,
-
5:08 - 5:11讓人們看到你有出席,
有投入你的專案計畫, -
5:11 - 5:13這是很重要的,
-
5:13 - 5:15且能大大協助遠端協同作業。
-
5:15 - 5:18在數個月、接著數年的期間,
我們都看到這個狀況, -
5:18 - 5:21不只在我們的公司裡,
也在其他公司裡。 -
5:21 - 5:23對於這些系統,最棒的情況就是
-
5:23 - 5:25你開始覺得你就是在那裡。
-
5:25 - 5:27那就是你,那就是你的身體,
-
5:27 - 5:30所以人們開始留
個人空間給這些東西。 -
5:30 - 5:32當你參加一場站立會議時,
-
5:32 - 5:34人們在那空間中站立的位置,
-
5:34 - 5:36就跟真人開會時的情況一樣。
-
5:36 - 5:39一切都很美好,
直到當機,就不好了。 -
5:39 - 5:41當人們初次看到這些機器人時,
-
5:41 - 5:44通常會:「哇,零件在哪裡?
這裡一定有個攝影機。」 -
5:44 - 5:46他們開始戳你的臉。
-
5:46 - 5:48「你說話太輕柔了,
我要把你的音量調高。」 -
5:48 - 5:50這感覺就像有個同事
走到你面前,說: -
5:50 - 5:53「你說話太輕柔了,
我來把你的臉調一下。」 -
5:53 - 5:56那挺尷尬的,且不太好,
-
5:56 - 6:01所以我們最後就建立了使用
這些系統時的新社交規範。 -
6:01 - 6:04同樣的,當你開始覺得
它是你身體的一部分時, -
6:04 - 6:08你就會開始注意到一些事:
「喔,我的機器人有點矮。」 -
6:08 - 6:10達拉斯會對我說些事。他有六呎高。
-
6:11 - 6:14而我們會透過機器人帶他去
雞尾酒派對之類的活動, -
6:14 - 6:15跟你會做的一樣。
-
6:15 - 6:19而機器人大約五呎高,和我差不多。
-
6:19 - 6:20他會告訴我:
-
6:20 - 6:22「你知道嗎,人們沒有真正看著我。
-
6:22 - 6:25我覺得我好像是看著一片肩膀海,
-
6:25 - 6:27那就是──我們需要更高的機器人。」
-
6:27 - 6:28而我告訴他:
-
6:28 - 6:30「呃,不。
-
6:30 - 6:32今天,你要嚐嚐當我的滋味。
-
6:32 - 6:35你可以體會一下身為
比較矮的族群是什麼感覺。」 -
6:35 - 6:39結果他從那次經驗
建立起了相當的同理心, -
6:39 - 6:40這樣挺好的。
-
6:40 - 6:41所以當他親自來造訪時,
-
6:41 - 6:44他若要跟我說話,
也不會站得比我高, -
6:44 - 6:46他會坐下來,
和我能真正面對面談話, -
6:46 - 6:48這是件很美好的事。
-
6:48 - 6:51所以,我們決定在
實驗室中研究這一點, -
6:51 - 6:54看看像類似機器人身高
這種特性會造什麼其他的差異。 -
6:54 - 6:58在我們的研究中,半數
受試者使用較矮的機器人, -
6:58 - 7:00另外半數則用較高的機器人,
-
7:00 - 7:02結果發現,當同一個人
-
7:02 - 7:05用同樣的身體,說同樣的話,
-
7:05 - 7:08如果用比較高的機器人,
就會比較有說服力, -
7:08 - 7:10且被認為比較可靠。
-
7:10 - 7:11這沒有理性的解釋,
-
7:11 - 7:13但那就是為什麼我們要研究心理學。
-
7:13 - 7:16其實,用克利福德那斯的說法,
-
7:16 - 7:19我們得要處理這些嶄新的技術,
-
7:19 - 7:22儘管我們的大腦是老舊的。
-
7:22 - 7:25人類心理學的改變速度沒有科技快,
-
7:25 - 7:27所以我們一直在努力追趕,
-
7:27 - 7:30試圖把這個有很多自動的東西
跑來跑去的世界給合理化。 -
7:30 - 7:33通常,會說話的就是人,
不是機器,對嗎? -
7:33 - 7:38所以我們把很多的意義帶到
像機器高度這樣的事物中, -
7:38 - 7:39而非人,
-
7:39 - 7:42然後將之歸因給使用系統的人。
-
7:43 - 7:45當談到機器人學的時候,
-
7:45 - 7:47我認為這點十分重要。
-
7:47 - 7:49它的重點並不是在重新發明人類,
-
7:49 - 7:52比較是在於我們要如何
延伸我們自己,對嗎? -
7:52 - 7:55結果是,我們會用
蠻讓人訝異的方式來使用東西。 -
7:55 - 8:00這些人無法玩撞球,
因為機器人沒有手臂, -
8:00 - 8:02但他們能和玩撞球的那些人起鬨,
-
8:02 - 8:05那對於團隊連結來說
可能是件重要的事, -
8:05 - 8:07這樣挺好的。
-
8:07 - 8:09非常擅長操作這些系統的人
-
8:09 - 8:11能做到像是創造新遊戲這類的事,
-
8:11 - 8:13比如半夜玩機器人足球,
-
8:13 - 8:15把垃圾筒推來推去。
-
8:15 - 8:16但並非每個人都很擅長。
-
8:16 - 8:19有些人在操作這些
系統時會遇到問題。 -
8:19 - 8:21這個人登入了機器人,
-
8:21 - 8:23而他的眼球向左轉了九十度。
-
8:23 - 8:24他自己並沒察覺,
-
8:24 - 8:27結果他在辦公室裡頭亂撞,
-
8:27 - 8:29撞到別人的桌子,弄得非常尷尬,
-
8:29 - 8:32因此而大笑。他的音量太高了。
-
8:32 - 8:34而照片裡的這個人告訴我:
-
8:34 - 8:36「我們需要機器人靜音按鈕。」
-
8:36 - 8:40他那麼說的意思是,我們不希望
機器人會這樣引起混亂。 -
8:40 - 8:41所以,既然我們是機器人公司,
-
8:42 - 8:44我們就在系統上加裝了
障礙閃避功能。 -
8:44 - 8:47機器人有了一個小雷射測距儀,
能夠看見障礙物, -
8:47 - 8:50如果我在操作機器人時,
試圖比如撞向一張椅子, -
8:50 - 8:53它不會讓我這麼做,它會規劃繞路,
-
8:53 - 8:55這看似是個好主意。
-
8:55 - 8:58很顯然,用了那個系統之後,
人們比較少撞到障礙物, -
8:58 - 9:00但,對一些人而言,
-
9:00 - 9:03他們要花比較長的時間
通過障礙物課程, -
9:03 - 9:04我們想要知道為什麼。
-
9:05 - 9:08結果發現,有個很重要的人類維度,
-
9:08 - 9:10一個人格維度,叫做「控制點」,
-
9:10 - 9:14如果一個人有很強的內在控制點,
-
9:14 - 9:17他會想要主宰自己的命運,
-
9:17 - 9:20他們不喜歡把控制權交給自動系統
-
9:20 - 9:22以致會去對抗自動化:
-
9:22 - 9:25「如果我想要撞到椅子,
我就要撞到椅子。」 -
9:25 - 9:29自動化的協助反而會
讓這類人很辛苦, -
9:29 - 9:31我們能知道這點是很重要的,
-
9:31 - 9:35畢竟我們在建立越來越
自動化的…比如汽車,對吧? -
9:35 - 9:38要如何讓不同型的人使用而不失控?
-
9:39 - 9:42不同的人類維度會有不同的方式。
-
9:42 - 9:45我們不能把人看成是單一的東西。
-
9:45 - 9:48我們有不同的人格、文化,
-
9:48 - 9:50我們甚至在不同時刻
會有不同的情緒狀態, -
9:50 - 9:52如果要能夠設計這些系統,
-
9:52 - 9:54這些人類與機器人的互動系統,
-
9:54 - 9:57我們就得要考量人類維度,
-
9:57 - 9:59不只是技術維度。
-
10:00 - 10:04隨著控制感而來的,就是責任感。
-
10:04 - 10:07如果你是個在使用
這些系統的機器人操作員, -
10:07 - 10:09介面看起來就是這樣子的。
-
10:09 - 10:11它看起來有一點像電玩遊戲,
-
10:11 - 10:14這是好事,因為人們熟悉它;
-
10:14 - 10:15但也可能是壞事,
-
10:15 - 10:18因為它會讓人們覺得
它是個電玩遊戲。 -
10:18 - 10:20我們找了一群小朋友
到史丹佛來玩這個系統, -
10:20 - 10:22操作我們在門洛公園
辦公室裡的機器人, -
10:22 - 10:24小朋友們開始說像這樣的話:
-
10:24 - 10:27「如果你撞到那邊的那個人,
得十分,那個人則是二十分。」 -
10:27 - 10:30他們會在走廊上追著目標跑。
-
10:30 - 10:31(笑聲)
-
10:31 - 10:33我告訴他們:「呃,那些是真人。
-
10:33 - 10:36如果你們撞到他們,
他們真的會流血且會痛。」 -
10:36 - 10:38他們才說:「好,了解。」
-
10:38 - 10:40但五分鐘之後,他們又會說:
-
10:40 - 10:43「撞到那邊那個人有二十分,
他看起來需要被撞一下。」 -
10:43 - 10:46這有一點像《戰爭遊戲》,對嗎?
-
10:46 - 10:48在另一端有一個真實的世界,
-
10:48 - 10:51我認為我們身為人的責任,
是要設計這些介面 -
10:51 - 10:53來協助人們記得
-
10:53 - 10:55他們的行為會造成真實的後果,
-
10:55 - 10:59讓他們在操作這些
越來越自動的東西時, -
10:59 - 11:01能夠有責任感。
-
11:02 - 11:04這些是很棒的例子,
-
11:04 - 11:07說明對一種可能的
機器人未來所做的實驗, -
11:07 - 11:11我覺得我們能將自己
延伸出去,是挺酷的事, -
11:11 - 11:14同時也能學習我們
將自己延伸出去的方式, -
11:14 - 11:15延伸至機器中,
-
11:15 - 11:17同時還能表現出我們的人性
-
11:17 - 11:19以及我們的個性。
-
11:19 - 11:20我們也會建立對他人的同理心,
-
11:20 - 11:24理解那些比較矮、比較高、
比較快、比較慢, -
11:24 - 11:25甚至沒有手臂的人,
-
11:25 - 11:26這樣挺好的。
-
11:27 - 11:29我們也會建立
對機器人本身的同理心。 -
11:29 - 11:31這是我最喜歡的機器人之一。
-
11:31 - 11:32它叫 Tweenbot。
-
11:32 - 11:34這傢伙有一面小旗子,上面寫著:
-
11:34 - 11:37「我想前往曼哈頓的
這個十字路口。」 -
11:37 - 11:40它很可愛,會向前跑,就這樣。
-
11:40 - 11:42它不知道如何建立地圖,
它不知道如何看世界, -
11:42 - 11:44它只會尋求協助。
-
11:44 - 11:46而人們很棒的一點,
-
11:46 - 11:49就是它真的可以仰賴陌生人的善心。
-
11:49 - 11:53它真的穿過公園到了
曼哈頓的另一端。 -
11:53 - 11:54這很棒,
-
11:54 - 11:57因為人們會把它拿起來,
轉向正確的方向。 -
11:57 - 11:58(笑聲)
-
11:58 - 12:00那樣很棒,對嗎?
-
12:00 - 12:02我們在試著建立
人類──機器人的世界, -
12:03 - 12:06在這個世界中,我們彼此能
共同存在且和諧地共事, -
12:06 - 12:09我們不用完全自動化,
也不用只靠自己做事。 -
12:09 - 12:11而是真正能夠一起做事。
-
12:11 - 12:12要實現這個理想,
-
12:12 - 12:15我們其實需要其他人的協助,
像是藝術家、設計師、 -
12:15 - 12:17政策制訂者、法律學者、
-
12:17 - 12:19心理學家、社會學家、人類學家 ──
-
12:19 - 12:21我們需要更多的觀點參與討論,
-
12:21 - 12:24如果我們要做史都華卡德
說我們應該做的事情, -
12:24 - 12:28也就是:發明一個會讓我們
想要住在其中的未來。 -
12:28 - 12:31我認為我們能持續做實驗,
-
12:31 - 12:33將不同的機器人未來一起拿來實驗,
-
12:33 - 12:38這麼做,我們最後就能學到
很多關於我們自己的事。 -
12:39 - 12:40謝謝。
-
12:40 - 12:42(掌聲)
- Title:
- 身為機器人是什麼感覺?
- Speaker:
- 萊菈高山
- Description:
-
我們已經住在機器人當中了:像是洗碗機、溫度調節器這類的工具和機器,它們完全融入我們的生活,讓我們完全沒想到要稱它們為機器人。有更多機器人的未來會是什麼樣子?社會科學家萊菈高山分享了在設計人類──機器人互動上一些獨特的挑戰,以及針對機器人未來做實驗,如何會讓我們最後更了解我們自己。
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 12:55
![]() |
Helen Chang approved Chinese, Traditional subtitles for What's it like to be a robot? | |
![]() |
Helen Chang edited Chinese, Traditional subtitles for What's it like to be a robot? | |
![]() |
Helen Chang edited Chinese, Traditional subtitles for What's it like to be a robot? | |
![]() |
Song Yu accepted Chinese, Traditional subtitles for What's it like to be a robot? | |
![]() |
Song Yu edited Chinese, Traditional subtitles for What's it like to be a robot? | |
![]() |
Helen Chang rejected Chinese, Traditional subtitles for What's it like to be a robot? | |
![]() |
Helen Chang edited Chinese, Traditional subtitles for What's it like to be a robot? | |
![]() |
Song Yu accepted Chinese, Traditional subtitles for What's it like to be a robot? |