机器人到底是什么样的
-
0:01 - 0:03形成第一印象只有一次机会,
-
0:03 - 0:07无论对人类还是对机器人都是如此。
-
0:07 - 0:10我第一次看到机器人
-
0:10 - 0:13是2008年在一个叫做
Willow Garage的地方。 -
0:13 - 0:16当我到那的时候,
主人邀请我进去 -
0:16 - 0:17我见到了这个小东西。
-
0:17 - 0:19他在走廊上闲逛,
-
0:19 - 0:21向我这个方向走来,停在那,
-
0:21 - 0:23盯着我好像我不存在,
-
0:23 - 0:25它待了一会儿,
-
0:25 - 0:27快速地把头转了180度,
-
0:27 - 0:28然后走开了。
-
0:28 - 0:30这可不是个好的第一印象。
-
0:30 - 0:33我那天才知道
-
0:33 - 0:35这些机器人只做他们自己的事情,
-
0:35 - 0:37完全没有意识到我们的存在。
-
0:37 - 0:40而且我认为,随着我们对未来
可实现机器人的实验的进行, -
0:40 - 0:43我们不光是在研究这些机器
-
0:43 - 0:45我们对自己的了解也会越来越深刻。
-
0:45 - 0:46另外,那天我也意识到,
-
0:46 - 0:49我对这些小东西有着很高的期待。
-
0:49 - 0:53他不仅应该存在于现实生活,
-
0:53 - 0:55更应该存在于我的社交领域--
-
0:55 - 0:58在我的社交空间;它是一个人。
-
0:58 - 1:00为什么他不能理解我?
-
1:00 - 1:01我的主人跟我解释说,
-
1:01 - 1:04“这个机器人正试图从A点移动到B点,
-
1:04 - 1:06你挡住他的路了,
-
1:06 - 1:08所以他不得不重新规划路线,
-
1:08 - 1:09弄清楚该往哪儿走,
-
1:09 - 1:11然后找到另一条路径,”
-
1:11 - 1:13这明显不是个高效的办法。
-
1:13 - 1:17如果这个机器人知道我是个人,
而不是把椅子, -
1:17 - 1:19如果我挡到它的路,
-
1:19 - 1:20我会愿意给他让路,
-
1:20 - 1:23那么这是让他到达B点的
-
1:23 - 1:24更有效的办法,
-
1:24 - 1:26只要它能意识到我是个人,
-
1:26 - 1:30我和椅子或者墙相比是不一样的。
-
1:30 - 1:33我们总是认为机器人要么来自外太空
-
1:33 - 1:35来自未来或者科幻小说。
-
1:35 - 1:37虽然这些也许是真的,
-
1:37 - 1:39我今天想论证的是机器人就在这里,
-
1:39 - 1:42此时此刻他们就跟我们一起生活一起工作。
-
1:42 - 1:45这是我家的两个机器人。
-
1:45 - 1:48他们每天都
-
1:48 - 1:49扫地,除草,
-
1:49 - 1:52他们做这些事比我做得更快,
-
1:52 - 1:55也比我做得更好。
-
1:55 - 1:57这个机器人专门照顾我的小猫咪。
-
1:57 - 2:00每次猫咪便便后,它都会清理掉,
-
2:00 - 2:02我可不愿意干这事儿,
-
2:02 - 2:04猫咪和我的生活都变得更舒服了。
-
2:04 - 2:07当我们称呼这些机器人产品
-
2:07 - 2:09“这是一个真空吸尘器机器人,
这是个除草剂机器人, -
2:09 - 2:11这是个猫马桶机器人,“
-
2:11 - 2:15我想在日常生活中有大量的机器人
-
2:15 - 2:17已经变得特别有用
-
2:17 - 2:18特别平常了
-
2:18 - 2:21以至于我们不会称呼它们机器人,
比如“洗碗机”,对吧? -
2:21 - 2:22他们有了新名字。
-
2:22 - 2:24他们不再被称作机器人了
-
2:24 - 2:26因为他们在我们生活中发挥特定作用了。
-
2:26 - 2:27类似地,还有恒温器,对吧?
-
2:27 - 2:29我一些研究机器人的朋友
-
2:29 - 2:31有可能会对我称呼这玩意儿机器人
表示不满 -
2:31 - 2:33但是它有自己的任务。
-
2:33 - 2:36它的任务是让我的房子保持66华氏度,
-
2:36 - 2:38它能感知世界。
-
2:38 - 2:39它能知道,周围有点冷了
-
2:39 - 2:42然后它提高温度,
然后周围的气温就改变了。 -
2:42 - 2:43这是机器人学。
-
2:43 - 2:46即使它不是像是“杰森一家”中
罗茜那样的机器女仆, -
2:46 - 2:49在我的生活中它也很有用。
-
2:49 - 2:50所以我根本不用
-
2:50 - 2:53亲自调节我周围的气温。
-
2:53 - 2:56并且我认为这些系统
和我们一起生活、工作 -
2:56 - 2:59这些设备不仅仅和我们共存,
-
2:59 - 3:01我们也操控着这些设备。
-
3:01 - 3:03当你开车时,
-
3:03 - 3:05你就像正在操作一个机器。
-
3:05 - 3:08你也正要从A点到B点去,
-
3:08 - 3:10但是你的车可能有动力转向系统,
-
3:10 - 3:13可能还有防锁死刹车系统,
-
3:13 - 3:17它可能有一个自动变速器
甚至可能是自适应巡航控制。 -
3:17 - 3:20但它可能不是个全自动车,
-
3:20 - 3:21它有一些自主能力,
-
3:21 - 3:22这很有用,
-
3:22 - 3:24让我们开车更安全,
-
3:24 - 3:28我们无意中就在使用他们,对吧?
-
3:28 - 3:29当你正在开车时,
-
3:29 - 3:32你觉得你只是
从一个地方到另一个地方去, -
3:32 - 3:35而不觉得这是一件难事,
-
3:35 - 3:36你必须处理和操作和使用这些控件,
-
3:36 - 3:40因为我们花了很长时间学习驾驶
-
3:40 - 3:42他们已经变成我们的左膀右臂。
-
3:42 - 3:45当你在一个狭小的车库停车时,
-
3:45 - 3:47你知道角落在哪儿。
-
3:47 - 3:50当你开着一辆以前从没开过的租来的车,
-
3:50 - 3:53你需要一些时间去熟悉这个陌生的车。
-
3:53 - 3:57对于其他种类的机器也是一样的,
-
3:57 - 4:00所以我想跟你们分享一些故事。
-
4:00 - 4:03一些解决远程协作问题的故事。
-
4:03 - 4:06在Willow Garage我有个同事叫Dallas,
-
4:06 - 4:07Dallas看起来就像这样。
-
4:07 - 4:11他在印第安纳州的家中
与我们加利福尼亚州的员工一起工作。 -
4:11 - 4:14在很多会议上,
他只是语音盒中的声音。 -
4:14 - 4:16这些会议有时候很和谐,
-
4:16 - 4:19除非我们正在激烈讨论
而且不喜欢他说的, -
4:19 - 4:21我们可能就得关掉语音盒。
-
4:21 - 4:21(笑声)
-
4:21 - 4:24会议结束后我们会再开个会
-
4:24 - 4:26当他不在的时候
-
4:26 - 4:28在走廊上做决定。
-
4:28 - 4:29所以这对他不太友好。
-
4:29 - 4:31作为一个在Willlow的机器人公司,
-
4:31 - 4:33我们周围遍布着一些
多余的机器人零部件, -
4:33 - 4:36Dallas和他的伙计Curt把这些组装起来,
-
4:36 - 4:39看起来有点像是卡在轮子上的 Skype,
-
4:39 - 4:40看起来像是个无聊的劣质玩具,
-
4:40 - 4:44但是它确实是我见过的远程协作中
-
4:44 - 4:47最有用的工具之一了。
-
4:47 - 4:51所以现在,如果我没有回复
Dallas邮件中的问题, -
4:51 - 4:53他就可以滚到我的办公室里,
-
4:53 - 4:56挡住我的门,再问我一遍--
-
4:56 - 4:56(笑声)
-
4:56 - 4:58直到我回答它。
-
4:58 - 5:00我也不会关掉它,对吧?
那有点粗鲁。 -
5:00 - 5:03这不仅可以用于一对一的交流,
-
5:03 - 5:06也能让你在公司的全体会议中出席。
-
5:06 - 5:08你坐在椅子上,
-
5:08 - 5:11让别人知道你的存在以及对项目的贡献
-
5:11 - 5:13这很重要,
-
5:13 - 5:15而且也有助于远程协作。
-
5:15 - 5:18我们在经年累月的过程中看到,
-
5:18 - 5:20改变不仅发生在我们公司,
也发生在其他公司。 -
5:20 - 5:22这些系统最好的地方在于
-
5:22 - 5:25它能让我觉得你就在那儿。
-
5:25 - 5:27那就是你,就是你的身体。
-
5:27 - 5:30所以人们开始给这些东西个人空间。
-
5:30 - 5:32当你在开会的时候,
-
5:32 - 5:33人们就会站在这周围,
-
5:33 - 5:35就像你亲自出席一样。
-
5:35 - 5:38这情况挺好的直到有发生一些插曲。
-
5:38 - 5:41当人们第一次见到这东西时,
-
5:41 - 5:44会说,“哇,别的零件在哪儿?
应该有一个相机的,” -
5:44 - 5:45然后显示屏中的脸就会被乱戳一气
-
5:45 - 5:48“你声音太低了,
我要提高你的音量,” -
5:48 - 5:50就像一个同事向你走来,和你说话,
-
5:50 - 5:54"你声音太低了,
我要抬起你的脸。" -
5:54 - 5:56这行为有点尴尬而且不合适,
-
5:56 - 5:59因此, 我们最终不得不在使用这些系统时
-
5:59 - 6:00建立新的协约。
-
6:00 - 6:04同理,当你觉得它像你的身体了,
-
6:04 - 6:07你就开始注意到一些事情,
像是“哦,我的机器人有点矮。” -
6:07 - 6:10Dallas会对我说这些事,
他有六英尺高, -
6:10 - 6:14我们会带他的机器人
参加鸡尾酒派对之类的, -
6:14 - 6:15就像你们一样,
-
6:15 - 6:19这个机器人大概有五英尺高,
跟我差不多高。 -
6:19 - 6:20他会跟我说,
-
6:20 - 6:23“你知道吗,人们都不看我。
-
6:23 - 6:25我感觉我只看到一堆堆的肩膀,
-
6:25 - 6:27所以,我们需要一个更高机器人。”
-
6:27 - 6:28我告诉他,
-
6:28 - 6:30“额,不行。”
-
6:30 - 6:32你今天要感受一下我的日常。
-
6:32 - 6:36你可以看到一个矮子眼中的世界。”
-
6:36 - 6:38他后来从这次经历中
获得了很多感受, -
6:38 - 6:39对他影响很大。
-
6:39 - 6:41当他亲自来找我的时候,
-
6:41 - 6:44他不会再站在我旁边对我说话,
-
6:44 - 6:46他会坐下来,直视着我和我说话,
-
6:46 - 6:48这是件很美好的事情。
-
6:48 - 6:51所以我们决定在实验室里观察
-
6:51 - 6:55不同机器人的身高
会造成其他什么不同。 -
6:55 - 6:57在我们的研究中,
一半的人使用了较矮的机器人, -
6:57 - 6:59一半的人使用较高的机器人。
-
6:59 - 7:03我们发现同一个人,
-
7:03 - 7:05使用外观完全相同的机器人,
并且和其他人汇报相同的事情时, -
7:05 - 7:07通过身高较高的机器人述说的话
-
7:07 - 7:09会更加令人信服以及让人觉得可靠。
-
7:09 - 7:12这不符合常理,
-
7:12 - 7:13所以这就是我们学习心理学的原因。
-
7:13 - 7:16事实上, 你知道, Cliff Nass的风格是,
-
7:16 - 7:19我们不得不接受这些新技术,
-
7:19 - 7:22即使我们的观念已经过时。
-
7:22 - 7:25人类心理学认知没有技术更新的那么快,
-
7:25 - 7:26所以我们总是在追赶,
-
7:26 - 7:28试图去理解这个
-
7:28 - 7:30东西到处乱跑的世界。
-
7:30 - 7:33通常, 是人在说, 不是这个机器, 对吗?
-
7:33 - 7:38所以我们把这个东西只是看成机器,
-
7:38 - 7:39而不是人,
-
7:39 - 7:42把它看成使用这个东西的人。
-
7:43 - 7:45我认为,当你想到机器人学,
-
7:45 - 7:46这才是真正重要的。
-
7:46 - 7:49这不是要重塑人类,
-
7:49 - 7:52而是要搞清楚怎样去提升人类,
对吧? -
7:52 - 7:56我们最终会用一些令人惊讶的方式
来使用这些东西。 -
7:56 - 8:00这些家伙不能玩台球
因为机器人没有手臂 -
8:00 - 8:02但是他们可以骚扰玩台球的人
-
8:02 - 8:05这有助于团队的团结,
-
8:05 - 8:07很纯粹的作用。
-
8:07 - 8:09那些能熟练操作这些系统的人
-
8:09 - 8:10甚至会创造一些新的游戏,
-
8:10 - 8:13就像午夜机器人足球,
-
8:13 - 8:15来回踢易拉罐。
-
8:15 - 8:17但是并不是所有人都能适应。
-
8:17 - 8:19很多人在运行这些系统时遇到了问题。
-
8:19 - 8:21有一个人登陆上了自己的机器人
-
8:21 - 8:23机器人的眼球向左边转了90度。
-
8:23 - 8:24但他不知道,
-
8:24 - 8:27所以他在办公室里嗨起来了,
-
8:27 - 8:29跑到人们的办公桌上,
让场面变得超级尴尬, -
8:29 - 8:31还哈哈大笑,他的音量太高了。
-
8:31 - 8:34在照片中的这个人告诉我,
-
8:34 - 8:36“我们需要一个机器人静音按钮。”
-
8:37 - 8:40他真正的意思是
我们不想让它变得如此混乱。 -
8:40 - 8:42所以作为一个机器人公司,
-
8:42 - 8:44我们在系统中增加了一些避障装置。
-
8:44 - 8:47一个小的激光测距仪,
可以检测到障碍, -
8:47 - 8:50如果我作为一个主人说,
撞向一个椅子, -
8:50 - 8:53它不会照做,它会在周围找一条路径,
-
8:53 - 8:55这看起来很好。
-
8:55 - 8:57很显然,配有该系统的机器人
撞到的障碍物更少, -
8:58 - 9:01但是实际上,对某些人来说,
-
9:01 - 9:02他们花了更长的时间
才能适应机器人的避障功能, -
9:02 - 9:05我们想知道其中的原因。
-
9:05 - 9:08原来,有一个重要的人格因素--
-
9:08 - 9:11一个叫做内外控倾向的人格因素,
-
9:11 - 9:14拥有强内控倾向的人
-
9:14 - 9:17他们需要做自己命运的主人--
-
9:17 - 9:19特别不喜欢放弃对
一个自主系统的控制-- -
9:19 - 9:22以至于他们会反抗这些自主行为;
-
9:22 - 9:26"如果我想撞上那把椅子,
那我就要去撞倒那把椅子。“ -
9:26 - 9:28因此,
他们会因为存在辅助系统而感到难受 -
9:28 - 9:32知道这件事对我们来说很重要
-
9:32 - 9:35因为我们正在提高机器的自主性,
比如汽车,对吧? -
9:35 - 9:38不同的人如何去应对
机器控制权的减少? -
9:39 - 9:43这取决于个体的不同。
-
9:43 - 9:46我们不能把整个人类混为一谈。
-
9:46 - 9:48我们的性格,文化不同
-
9:48 - 9:50甚至每分钟都有不同的情绪状态,
-
9:50 - 9:52我们应该考虑每一种人格,
-
9:52 - 9:55从而设计这些系统,
-
9:55 - 9:57人机交互系统,
-
9:57 - 10:00而不仅仅关注科学技术。
-
10:00 - 10:04如果你操作一个这样的机器人,
-
10:04 - 10:07你除了控制权还要有责任感。
-
10:07 - 10:09这是界面的样子。
-
10:09 - 10:12它有点像电子游戏,
-
10:12 - 10:14很棒, 因为人们都很熟悉,
-
10:14 - 10:15但是它也可能是坏处,
-
10:15 - 10:17因为它让人觉得它就是个电子游戏。
-
10:17 - 10:20我们有一群孩子在斯坦福大学
操作这个系统 -
10:20 - 10:22在我们公司旁边的Menlo公园
驱动机器人, -
10:22 - 10:24孩子们开始说,
-
10:24 - 10:27打中那个人得10分,那个20分。
-
10:27 - 10:29他们会在走廊里追那些人。
-
10:29 - 10:30(笑声)
-
10:30 - 10:33我告诉他们,”嗯,那些是真人。
-
10:33 - 10:36如果你们打他们的话
他们会流血会感到疼痛。” -
10:36 - 10:38他们说,“好吧,知道了。”
-
10:38 - 10:40但是五分钟后,他们又会开始,
-
10:40 - 10:43“打中那个人20分,
他看起来很欠扁。” -
10:43 - 10:46这有点像“安德的游戏", 对吧?
-
10:46 - 10:49另一边有一个真实的世界
-
10:49 - 10:51我认为作为设计人机交互界面的人,
我们的责任是 -
10:51 - 10:53帮助人们记住
-
10:53 - 10:55他们的行为是有后果的
-
10:55 - 10:57而且当他们操作
自主性越来越高的东西时, -
10:57 - 11:01他们要有一种责任感
-
11:01 - 11:06这些事例能对未来的机器人实验发展
-
11:06 - 11:08提供很大帮助,
-
11:08 - 11:11我认为我们能够让机器变为我们的扩展
-
11:11 - 11:13研究如何将一个机器
-
11:13 - 11:16变为我们的化身
-
11:16 - 11:17同时能够表达我们的人性和个性
-
11:17 - 11:19是很酷的事。
-
11:19 - 11:21我们也会为其他人考虑
-
11:21 - 11:22根据人的高矮,走路快慢
-
11:22 - 11:24甚至手臂残疾,
-
11:24 - 11:27这很美妙。
-
11:27 - 11:29我们也会为机器人着想。
-
11:29 - 11:31这是我最喜欢的机器人之一。
-
11:31 - 11:33它叫Tweenbot。
-
11:33 - 11:35这家伙有一个小旗,上面写着
-
11:35 - 11:37”我想去曼哈顿的十字路口,“
-
11:37 - 11:39它很可爱,向前滚动
-
11:39 - 11:42它并不知道如何去建立地图,
也不知道怎么样去看世界, -
11:42 - 11:43它只是寻求帮助。
-
11:43 - 11:46最美妙之处在于,
-
11:46 - 11:49它可以依赖于陌生人的善良。
-
11:49 - 11:53它最后真的穿过公园
到了曼哈顿的另一边-- -
11:53 - 11:54这太棒了--
-
11:54 - 11:57就因为人们愿意把它拾起来
给它指明正确的方向。 -
11:57 - 11:57(笑声)
-
11:57 - 11:59这很棒,不是吗?
-
11:59 - 12:03我们试图建立一个人机的世界
-
12:03 - 12:06人与机器可以共存,合作,
-
12:06 - 12:09我们不需要各自为政,
完全独立在自己的领域。 -
12:09 - 12:11确切说我们应该一起合作。
-
12:11 - 12:12要想实现人机社会,
-
12:12 - 12:15我们实际上需要其他人的帮助
比如艺术家,设计师, -
12:15 - 12:17政策制定者,法律学者,
-
12:17 - 12:19心理学家,社会学家,人类学家--
-
12:19 - 12:21我们需要来自各方的力量,
-
12:21 - 12:24如果我们要做Stu Card所说的,
我们应该做的事情-- -
12:24 - 12:28创造我们想要的未来。
-
12:28 - 12:31我认为我们可以一起为了
-
12:31 - 12:33未来的机器人世界不断尝试,
-
12:33 - 12:38通过这样,
我们最终会更多地了解我们自己。 -
12:38 - 12:40谢谢。
-
12:40 - 12:42(掌声)
- Title:
- 机器人到底是什么样的
- Speaker:
- Leila Takayama
- Description:
-
我们已经生活在一个充满机器人的世界了:比如说洗碗机和恒温器之类的机器,它们已经完全融入我们的生活以至于我们不会将它们称为机器人。未来的机器人会变成什么样子呢?社会科学家Leila Takayama分享了一些在设计人与机器人交互界面过程中的独特挑战以及对创造机器人世界的探索如何引导我们更好的理解我们自己
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 12:55
![]() |
Cissy Yun approved Chinese, Simplified subtitles for What's it like to be a robot? | |
![]() |
Cissy Yun edited Chinese, Simplified subtitles for What's it like to be a robot? | |
![]() |
Wei Wu accepted Chinese, Simplified subtitles for What's it like to be a robot? | |
![]() |
Wei Wu edited Chinese, Simplified subtitles for What's it like to be a robot? | |
![]() |
Wei Wu edited Chinese, Simplified subtitles for What's it like to be a robot? | |
![]() |
Wei Wu edited Chinese, Simplified subtitles for What's it like to be a robot? | |
![]() |
Wanqiao Zou edited Chinese, Simplified subtitles for What's it like to be a robot? | |
![]() |
Fang Jin edited Chinese, Simplified subtitles for What's it like to be a robot? |