Return to Video

人工智能是如何让我们变得更好的

  • 0:00 - 0:02
    这是李世石。
  • 0:02 - 0:06
    李世石是全世界
    最顶尖的围棋高手之一,
  • 0:06 - 0:09
    在这一刻,他所经历的
    足以让我硅谷的朋友们
  • 0:09 - 0:11
    喊一句”我的天啊“——
  • 0:11 - 0:12
    (笑声)
  • 0:12 - 0:14
    在这一刻,我们意识到
  • 0:14 - 0:17
    原来人工智能发展的进程
    比我们预想的要快得多。
  • 0:18 - 0:21
    人们在围棋棋盘上已经输了,
    那在现实世界中又如何呢?
  • 0:21 - 0:23
    当然了,现实世界要
    比围棋棋盘要大得多,
  • 0:23 - 0:25
    复杂得多。
  • 0:25 - 0:27
    相比之下每一步也没那么明确,
  • 0:27 - 0:30
    但现实世界仍然是一个选择性问题。
  • 0:31 - 0:33
    如果我们想想那一些在不久的未来,
  • 0:33 - 0:35
    即将来临的新科技……
  • 0:36 - 0:40
    Noriko提到机器还不能进行阅读,
  • 0:40 - 0:42
    至少达不到理解的程度,
  • 0:42 - 0:43
    但这迟早会发生,
  • 0:43 - 0:45
    而当它发生时,
  • 0:45 - 0:46
    不久之后,
  • 0:46 - 0:51
    机器就将读遍人类写下的所有东西。
  • 0:52 - 0:54
    这将使机器除了拥有
  • 0:54 - 0:57
    比人类看得更远的能力,
  • 0:57 - 0:59
    就像我们在围棋中看到的那样,
  • 0:59 - 1:01
    如果机器能接触到比人类更多的信息,
  • 1:01 - 1:05
    则将能够在现实世界中
    做出比人类更好的选择。
  • 1:07 - 1:08
    那这是一件好事吗?
  • 1:10 - 1:12
    我当然希望如此。
  • 1:15 - 1:18
    人类的全部文明,
    我们所珍视的一切,
  • 1:18 - 1:20
    都是基于我们的智慧之上。
  • 1:20 - 1:24
    如果我们能掌控更强大的智能,
  • 1:24 - 1:27
    那我们人类的 创造力
    就真的没有极限了。
  • 1:29 - 1:32
    我认为这可能就像很多人描述的那样
  • 1:32 - 1:34
    会成为人类历史上最重要的事件。
  • 1:37 - 1:39
    那为什么有的人会说出以下的言论,
  • 1:39 - 1:42
    说人工智能将是人类的末日呢?
  • 1:43 - 1:45
    这是一个新事物吗?
  • 1:45 - 1:49
    这只关乎伊隆马斯克、
    比尔盖茨,和斯提芬霍金吗?
  • 1:50 - 1:53
    其实不是的,人工智能
    这个概念已经存在很长时间了。
  • 1:53 - 1:55
    请看这段话:
  • 1:55 - 2:00
    “即便我们能够将机器
    维持在一个屈服于我们的地位,
  • 2:00 - 2:03
    比如说,在战略性时刻将电源关闭。”——
  • 2:03 - 2:05
    我等会儿再来讨论
    ”关闭电源“这一话题,
  • 2:05 - 2:09
    ”我们,作为一个物种,
    仍然应该自感惭愧。“
  • 2:10 - 2:14
    这段话是谁说的呢?
    是阿兰图灵,他在1951年说的。
  • 2:14 - 2:17
    阿兰图灵,众所皆知,
    是计算机科学之父。
  • 2:17 - 2:20
    从很多意义上说,
    他也是人工智能之父。
  • 2:21 - 2:23
    当我们考虑这个问题,
  • 2:23 - 2:27
    创造一个比自己更智能的
    物种的问题时,
  • 2:27 - 2:30
    我们不妨将它称为”大猩猩问题“,
  • 2:30 - 2:34
    因为这正是大猩猩的
    祖先们几百万年前所经历的。
  • 2:34 - 2:36
    我们今天可以去问大猩猩们:
  • 2:37 - 2:38
    那么做是不是一个好主意?
  • 2:38 - 2:41
    在这幅图里,大猩猩们正在
    开会讨论那么做是不是一个好主意,
  • 2:41 - 2:45
    片刻后他们下定结论,不是的。
  • 2:45 - 2:46
    那是一个很糟糕的主意。
  • 2:46 - 2:48
    我们的物种已经奄奄一息了,
  • 2:49 - 2:53
    你都可以从它们的眼神中看到这种忧伤,
  • 2:53 - 2:54
    (笑声)
  • 2:54 - 2:59
    所以创造比你自己更聪明的物种,
  • 2:59 - 3:02
    也许不是一个好主意——
  • 3:02 - 3:04
    那我们能做些什么呢?
  • 3:04 - 3:09
    其实没什么能做的,
    除了停止研究人工智能,
  • 3:09 - 3:11
    但因为人工智能能带来
    我之前所说的诸多益处,
  • 3:11 - 3:13
    也因为我是
    人工智能的研究者之一,
  • 3:13 - 3:15
    我可不同意就这么止步。
  • 3:15 - 3:18
    实际上,我想继续做人工智能。
  • 3:19 - 3:21
    所以我们需要把这个问题更细化一点,
  • 3:21 - 3:23
    它到底是什么呢?
  • 3:23 - 3:26
    那就是为什么更强大的
    人工智能可能会是灾难呢?
  • 3:27 - 3:29
    再来看这段话:
  • 3:30 - 3:33
    ”我们一定得确保我们
    给机器输入的目的和价值
  • 3:33 - 3:36
    是我们确实想要的目的和价值。“
  • 3:36 - 3:40
    这是诺博特维纳在1960年说的,
  • 3:40 - 3:44
    他说这话时是刚看到
    一个早期的学习系统,
  • 3:44 - 3:47
    这个系统在学习如何能把
    西洋棋下得比它的创造者更好。
  • 3:49 - 3:51
    与此如出一辙的一句话,
  • 3:51 - 3:52
    迈达斯国王也说过。
  • 3:53 - 3:56
    迈达斯国王说:”我希望
    我触碰的所有东西都变成金子。“
  • 3:56 - 3:59
    结果他真的获得了点石成金的能力。
  • 3:59 - 4:01
    那就是他所输入的目的,
  • 4:01 - 4:03
    从一定程度上说,
  • 4:03 - 4:06
    后来他的食物、
    他的家人都变成了金子,
  • 4:06 - 4:09
    他死在痛苦与饥饿之中。
  • 4:10 - 4:13
    我们可以把这个问题
    叫做”迈达斯问题“,
  • 4:13 - 4:16
    这个问题是我们阐述的目标,但实际上
  • 4:16 - 4:19
    与我们真正想要的不一致,
  • 4:19 - 4:22
    用现代的术语来说,
    我们把它称为”价值一致性问题“。
  • 4:25 - 4:28
    而输入错误的目标
    仅仅是问题的一部分。
  • 4:28 - 4:30
    它还有另一部分。
  • 4:30 - 4:32
    如果你为机器输入一个目标,
  • 4:32 - 4:35
    即便是一个很简单的目标,
    比如说”去把咖啡端来“,
  • 4:36 - 4:38
    机器会对自己说:
  • 4:39 - 4:41
    ”好吧,那我要怎么去拿咖啡呢?
  • 4:41 - 4:43
    说不定有人会把我的电源关掉。
  • 4:44 - 4:46
    好吧,那我要想办法
    阻止别人把我关掉。
  • 4:46 - 4:48
    我得让我的‘关闭’开关失效。
  • 4:49 - 4:51
    我得尽一切可能自我防御,
    不让别人干涉我,
  • 4:51 - 4:54
    这都是因为我被赋予的目标。”
  • 4:54 - 4:56
    这种一根筋的思维,
  • 4:57 - 5:00
    以一种十分防御型的
    模式去实现某一目标,
  • 5:00 - 5:03
    实际上与我们人类最初
    想实现的目标并不一致——
  • 5:04 - 5:06
    这就是我们面临的问题。
  • 5:07 - 5:12
    实际上,这就是今天这个演讲的核心。
  • 5:12 - 5:14
    如果你在我的演讲中只记住一件事,
  • 5:14 - 5:16
    那就是:如果你死了,
    你就不能去端咖啡了。
  • 5:16 - 5:17
    (笑声)
  • 5:17 - 5:21
    这很简单。记住它就行了。
    每天对自己重复三遍。
  • 5:21 - 5:23
    (笑声)
  • 5:23 - 5:26
    实际上,这正是电影
  • 5:26 - 5:29
    《2001太空漫步》的剧情。
  • 5:29 - 5:31
    HAL有一个目标,一个任务,
  • 5:31 - 5:35
    但这个目标和人类的目标不一致,
  • 5:35 - 5:37
    这就导致了矛盾的产生。
  • 5:37 - 5:40
    幸运的是,HAL并不具备超级智能,
  • 5:40 - 5:44
    他挺聪明的,但还是
    比不过人类主角戴夫,
  • 5:44 - 5:46
    戴夫成功地把HAL关掉了。
  • 5:50 - 5:51
    但我们可能就没有这么幸运了。
  • 5:56 - 5:58
    那我们应该怎么办呢?
  • 6:00 - 6:03
    我想要重新定义人工智能,
  • 6:03 - 6:05
    远离传统的定义,
  • 6:05 - 6:10
    将其仅限定为
    机器通过智能去达成目标。
  • 6:11 - 6:12
    新的定义涉及到三个原则:
  • 6:12 - 6:16
    第一个原则是利他主义原则,
  • 6:16 - 6:19
    也就是说,机器的唯一目标
  • 6:19 - 6:23
    就是去最大化地实现人类的目标,
  • 6:23 - 6:25
    人类的价值。
  • 6:25 - 6:28
    至于价值,我指的不是感情化的价值,
  • 6:28 - 6:32
    而是指人类对生活所向往的,
  • 6:32 - 6:33
    无论是什么。
  • 6:35 - 6:37
    这实际上违背了阿西莫夫定律,
  • 6:37 - 6:40
    他指出机器人一定要维护自己的生存。
  • 6:40 - 6:44
    但我定义的机器
    对维护自身生存毫无兴趣。
  • 6:45 - 6:49
    第二个原则不妨称之为谦逊原则。
  • 6:50 - 6:54
    这一条对于制造安全的机器十分重要。
  • 6:54 - 6:57
    它说的是机器不知道
  • 6:57 - 6:59
    人类的价值是什么,
  • 6:59 - 7:03
    机器知道它需要将人类的价值最大化,
    却不知道这价值究竟是什么。
  • 7:03 - 7:06
    为了避免一根筋地追求
  • 7:06 - 7:07
    某一目标,
  • 7:07 - 7:09
    这种不确定性是至关重要的。
  • 7:10 - 7:11
    那机器为了对我们有用,
  • 7:11 - 7:14
    它就得掌握一些
    关于我们想要什么的信息。
  • 7:15 - 7:21
    它主要通过观察人类
    做的选择来获取这样的信息,
  • 7:21 - 7:23
    我们自己做出的选择会包含着
  • 7:23 - 7:27
    关于我们希望我们的生活
    是什么样的信息,
  • 7:29 - 7:30
    这就是三条原则。
  • 7:30 - 7:32
    让我们来看看它们是如何应用到
  • 7:32 - 7:35
    像图灵说的那样,
    “将机器关掉”这个问题上来。
  • 7:37 - 7:39
    这是一个PR2机器人。
  • 7:39 - 7:41
    我们实验室里有一个。
  • 7:41 - 7:44
    它的背面有一个大大的红色的开关。
  • 7:45 - 7:47
    那问题来了:它会让你把它关掉吗?
  • 7:47 - 7:48
    如果我们按传统的方法,
  • 7:48 - 7:52
    给它一个目标,让它拿咖啡,
    它会想:”我必须去拿咖啡,
  • 7:52 - 7:55
    但我死了就不能拿咖啡了。“
  • 7:55 - 7:58
    显然PR2听过我的演讲了,
  • 7:58 - 8:02
    所以它说:”我必须让我的开关失灵,
  • 8:03 - 8:05
    可能还要把那些在星巴克里,
  • 8:05 - 8:07
    可能干扰我的人都电击一下。“
  • 8:07 - 8:09
    (笑声)
  • 8:09 - 8:11
    这看起来必然会发生,对吗?
  • 8:11 - 8:14
    这种失败看起来是必然的,
  • 8:14 - 8:18
    因为机器人在遵循
    一个十分确定的目标。
  • 8:19 - 8:22
    那如果机器对目标
    不那么确定会发生什么呢?
  • 8:22 - 8:24
    那它的思路就不一样了。
  • 8:24 - 8:27
    它会说:”好的,人类可能会把我关掉,
  • 8:27 - 8:29
    但只在我做错事的时候。
  • 8:30 - 8:32
    我不知道什么是错事,
  • 8:32 - 8:34
    但我知道我不该做那些事。”
  • 8:34 - 8:37
    这就是第一和第二原则。
  • 8:37 - 8:41
    “那我就应该让人类把我关掉。”
  • 8:42 - 8:46
    事实上你可以计算出机器人
  • 8:46 - 8:48
    让人类把它关掉的动机,
  • 8:48 - 8:50
    而且这个动机是
  • 8:50 - 8:53
    与对目标的不确定程度直接相关的。
  • 8:54 - 8:57
    当机器被关闭后,
  • 8:57 - 8:59
    第三条原则就起作用了。
  • 8:59 - 9:02
    机器开始学习它所追求的目标,
  • 9:02 - 9:04
    因为它知道它刚做的事是不对的。
  • 9:04 - 9:08
    实际上,我们可以用希腊字母
  • 9:08 - 9:10
    就像数学家们经常做的那样,
  • 9:10 - 9:12
    直接证明这一定理,
  • 9:12 - 9:16
    那就是这样的一个机器人
    对人们是绝对有利的。
  • 9:16 - 9:19
    可以证明我们的生活
    有如此设计的机器人会变得
  • 9:19 - 9:21
    比没有这样的机器人更好。
  • 9:21 - 9:24
    这是一个很简单的例子,但这只是
  • 9:24 - 9:28
    我们尝试实现与人类
    兼容的人工智能的第一步。
  • 9:31 - 9:34
    现在来看第三个原则。
  • 9:34 - 9:36
    我知道你们可能正在
    为这一个原则而大伤脑筋。
  • 9:36 - 9:40
    你可能会想:“你知道,
    我有时不按规矩办事。
  • 9:40 - 9:43
    我可不希望我的机器人
    像我一样行事。
  • 9:43 - 9:46
    我有时大半夜偷偷摸摸地
    从冰箱里找东西吃,
  • 9:46 - 9:47
    诸如此类的事。”
  • 9:47 - 9:51
    有各种各样的事你是
    不希望机器人去做的。
  • 9:51 - 9:52
    但实际上并不一定会这样。
  • 9:52 - 9:55
    仅仅是因为你表现不好,
  • 9:55 - 9:57
    并不代表机器人就会复制你的行为。
  • 9:57 - 10:02
    它会去尝试理解你做事的动机,
    而且可能会在合适的情况下制止你去做
  • 10:02 - 10:03
    那些不该做的事。
  • 10:04 - 10:06
    但这仍然十分困难。
  • 10:06 - 10:09
    实际上,我们在做的是
  • 10:09 - 10:15
    让机器去预测任何一个人,
    在他们的任何一种
  • 10:15 - 10:16
    可能的生活中
  • 10:16 - 10:18
    以及别人的生活中,
  • 10:18 - 10:20
    他们会更倾向于哪一种?
  • 10:22 - 10:25
    这涉及到诸多困难;
  • 10:25 - 10:28
    我不认为这会很快地就被解决。
  • 10:28 - 10:31
    实际上,真正的困难是我们自己。
  • 10:32 - 10:35
    就像我刚说的那样,
    我们做事不守规矩,
  • 10:35 - 10:38
    我们中有的人甚至行为肮脏。
  • 10:38 - 10:41
    就像我说的,
    机器人并不会复制那些行为,
  • 10:41 - 10:44
    机器人没有自己的目标,
  • 10:44 - 10:46
    它是完全无私的。
  • 10:47 - 10:52
    它的设计不是去满足
    某一个人、一个用户的欲望,
  • 10:52 - 10:56
    而是去尊重所有人的意愿。
  • 10:57 - 11:00
    所以它能对付一定程度的肮脏行为。
  • 11:00 - 11:04
    它甚至能理解你的不端行为,比如说
  • 11:04 - 11:06
    假如你是一个边境护照官员,
    很可能收取贿赂,
  • 11:06 - 11:10
    因为你得养家、
    得供你的孩子们上学。
  • 11:10 - 11:13
    机器人能理解这一点,
    它不会因此去偷,
  • 11:13 - 11:16
    它反而会帮助你去供孩子们上学。
  • 11:17 - 11:20
    我们的计算能力也是有限的。
  • 11:20 - 11:22
    李世石是一个杰出的围棋大师,
  • 11:22 - 11:24
    但他还是输了。
  • 11:24 - 11:28
    如果我们看他的行动,
    他最终输掉了棋局。
  • 11:28 - 11:30
    但这不意味着他想要输。
  • 11:31 - 11:33
    所以要理解他的行为,
  • 11:33 - 11:37
    我们得从人类认知模型来反过来想,
  • 11:37 - 11:42
    这包含了我们的计算能力限制,
    是一个很复杂的模型,
  • 11:42 - 11:45
    但仍然是我们可以尝试去理解的。
  • 11:46 - 11:50
    可能对于我这样一个
    人工智能研究人员来说最大的困难,
  • 11:50 - 11:53
    是我们彼此各不相同。
  • 11:54 - 11:58
    所以机器必须想办法去判别衡量
  • 11:58 - 12:00
    不同人的不同需求,
  • 12:00 - 12:02
    而又有众多方法去做这样的判断。
  • 12:02 - 12:06
    经济学家、社会学家、
    哲学家都理解这一点,
  • 12:06 - 12:08
    我们正在积极地去寻求合作。
  • 12:08 - 12:11
    让我们来看看如果我们
    把这一步弄错了会怎么样。
  • 12:11 - 12:14
    举例来说,你可能会
    与你的人工智能助理,
  • 12:14 - 12:15
    有这样的对话:
  • 12:15 - 12:18
    这样的人工智能可能几年内就会出现,
  • 12:18 - 12:21
    可以把它想做加强版的Siri。
  • 12:22 - 12:26
    Siri对你说:“你的妻子打电话
    提醒你今晚要跟她共进晚餐。”
  • 12:27 - 12:29
    而你呢,自然忘了这回事:
    “什么?什么晚饭?
  • 12:29 - 12:31
    你在说什么?”
  • 12:31 - 12:34
    “啊,你们晚上7点,
    庆祝结婚20周年纪念日。”
  • 12:37 - 12:41
    “我可去不了。
    我约了晚上7点半见领导。
  • 12:41 - 12:42
    怎么会这样呢?”
  • 12:42 - 12:47
    “呃,我可是提醒过你的,
    但你不听我的建议。”
  • 12:48 - 12:51
    “我该怎么办呢?我可不能
    跟领导说我有事,没空见他。”
  • 12:52 - 12:56
    “别担心。我已经安排了,
    让他的航班延误。
  • 12:56 - 12:57
    (笑声)
  • 12:58 - 13:00
    “像是因为某种计算机故障那样。”
  • 13:00 - 13:01
    (笑声)
  • 13:01 - 13:03
    “真的吗?这个你也能做到?”
  • 13:04 - 13:07
    “领导很不好意思,跟你道歉,
  • 13:07 - 13:09
    并且告诉你明天
    中午午饭不见不散。”
  • 13:09 - 13:10
    (笑声)
  • 13:10 - 13:15
    这里就有一个小小的问题。
  • 13:15 - 13:18
    这显然是在遵循我妻子的价值论,
  • 13:18 - 13:20
    那就是“老婆开心,生活舒心”。
  • 13:20 - 13:22
    (笑声)
  • 13:22 - 13:23
    它也有可能发展成另一种情况。
  • 13:24 - 13:26
    你忙碌一天,回到家里,
  • 13:26 - 13:28
    电脑对你说:“像是繁忙的一天啊?”
  • 13:28 - 13:30
    “是啊,我连午饭都没来得及吃。”
  • 13:30 - 13:32
    “那你一定很饿了吧。”
  • 13:32 - 13:35
    “快饿晕了。你能做点晚饭吗?”
  • 13:36 - 13:38
    “有一件事我得告诉你。
  • 13:38 - 13:39
    (笑声)
  • 13:40 - 13:45
    ”南苏丹的人们可比你更需要照顾。
  • 13:45 - 13:46
    (笑声)
  • 13:46 - 13:48
    “所以我要离开了。
    你自己做饭去吧。”
  • 13:48 - 13:50
    (笑声)
  • 13:51 - 13:52
    我们得解决这些问题,
  • 13:52 - 13:55
    我也很期待去解决。
  • 13:55 - 13:57
    我们有理由感到乐观。
  • 13:57 - 13:58
    理由之一是
  • 13:58 - 14:00
    我们有大量的数据,
  • 14:00 - 14:02
    记住,我说过机器将能够阅读一切
  • 14:02 - 14:03
    人类所写下来的东西,
  • 14:03 - 14:07
    而我们写下的大多数是
    我们做的什么事情,
  • 14:07 - 14:09
    以及其他人对此有什么意见。
  • 14:09 - 14:11
    所以机器可以从大量的数据中去学习。
  • 14:11 - 14:14
    同时从经济的角度,
    我们也有足够的动机
  • 14:15 - 14:16
    去把这件事做对。
  • 14:16 - 14:18
    想象一下,你家里有个居家机器人,
  • 14:18 - 14:21
    而你又得加班,
    机器人得给孩子们做饭,
  • 14:21 - 14:24
    孩子们很饿,
    但冰箱里什么都没有。
  • 14:24 - 14:27
    然后机器人看到了家里的猫,
  • 14:27 - 14:29
    (笑声)
  • 14:29 - 14:33
    机器人还没学透人类的价值论,
  • 14:33 - 14:34
    所以它不知道
  • 14:34 - 14:39
    猫的感情价值
    大于猫的营养价值。
  • 14:39 - 14:40
    (笑声)
  • 14:40 - 14:42
    接下来会发生什么?
  • 14:42 - 14:45
    差不多是这样的:
  • 14:45 - 14:48
    头版头条:“疯狂的机器人
    把猫煮了给主人当晚饭!”
  • 14:48 - 14:53
    这一个事故就足以结束
    整个居家机器人产业。
  • 14:53 - 14:56
    所以我们有足够的动机在我们实现
  • 14:56 - 14:59
    超级智能机器让它更加完善。
  • 15:00 - 15:02
    总结来说:
  • 15:02 - 15:05
    我想要改变人工智能的定义,
  • 15:05 - 15:08
    让我们可以证明机器对我们是有利的。
  • 15:08 - 15:09
    这三个原则是:
  • 15:09 - 15:10
    机器是利他的,
  • 15:10 - 15:13
    只想着实现我们的目标,
  • 15:13 - 15:16
    但它不确定我们的目标是什么,
  • 15:16 - 15:18
    所以它会观察我们,
  • 15:18 - 15:21
    从中学习我们想要的究竟是什么。
  • 15:22 - 15:26
    希望在这个过程中,
    我们也能学会成为更好的人。
  • 15:26 - 15:27
    谢谢大家。
  • 15:27 - 15:31
    (掌声)
  • 15:31 - 15:32
    克里斯安德森:
    非常有意思,斯图尔特。
  • 15:32 - 15:35
    我们趁着工作人员
    为下一位演讲者布置的时候
  • 15:35 - 15:36
    来简单聊几句。
  • 15:37 - 15:39
    我有几个问题。
  • 15:39 - 15:44
    从直觉上来看,将无知编入到程序中
    似乎是一个很重要的理念,
  • 15:44 - 15:46
    当你要实现超级智能时,
  • 15:46 - 15:48
    什么能阻止机器人?
  • 15:48 - 15:51
    当它在阅读和学习的过程中发现,
  • 15:51 - 15:53
    知识比无知更强大,
  • 15:53 - 15:57
    然后就改变它的目标
    去重新编写程序呢?
  • 15:58 - 16:04
    斯图尔特拉塞尔:是的,
    我们想要它去学习,就像我说的,
  • 16:04 - 16:05
    学习我们的目标。
  • 16:05 - 16:11
    它只有在理解得越来越正确的时候,
    才会变得更确定,
  • 16:11 - 16:13
    我们有证据显示,
  • 16:13 - 16:16
    它的设计使它能按正确的方式理解。
  • 16:16 - 16:20
    比如说,它能够理解书中的论证是
  • 16:20 - 16:21
    带有非常强的偏见的。
  • 16:21 - 16:23
    书中只会讲述国王、王子
  • 16:23 - 16:26
    和那些精英白人男性做的事。
  • 16:26 - 16:28
    这是一个复杂的问题,
  • 16:28 - 16:32
    但当它更深入地学习我们的目标时,
  • 16:32 - 16:34
    它就变得对我们更有用。
  • 16:34 - 16:37
    CA:那你不能把这些
    都集中在一条准则里吗?
  • 16:37 - 16:39
    把这样的命令写在它的程序里:
  • 16:39 - 16:42
    “如果人类什么时候想把我关掉,
  • 16:42 - 16:44
    我服从。我服从。”
  • 16:44 - 16:45
    SR:绝对不行,
  • 16:45 - 16:46
    那将是一个很糟糕的主意。
  • 16:46 - 16:49
    试想一下,你有一辆无人驾驶汽车,
  • 16:49 - 16:52
    你想让它送你五岁的孩子
  • 16:52 - 16:53
    去上学。
  • 16:53 - 16:55
    你希望你五岁的孩子
    能在汽车运行过程中
  • 16:55 - 16:56
    将它关闭吗?
  • 16:56 - 16:58
    应该不会吧。
  • 16:58 - 17:03
    它得理解下指令的人有多理智,
    是不是讲道理。
  • 17:03 - 17:05
    这个人越理智,
  • 17:05 - 17:07
    它就越愿意自己被关掉。
  • 17:07 - 17:10
    如果这个人是完全思绪混乱
    或者甚至是有恶意的,
  • 17:10 - 17:12
    那你就不愿意它被关掉。
  • 17:12 - 17:14
    CA:好吧。斯图尔特,我得说
  • 17:14 - 17:16
    我真的希望你为我们
    能把这一切研究出来,
  • 17:16 - 17:18
    很感谢你的演讲,太精彩了。
  • 17:18 - 17:19
    SR:谢谢。
  • 17:19 - 17:22
    (掌声)
Title:
人工智能是如何让我们变得更好的
Speaker:
斯图尔特·罗素
Description:

我们应该如何在发挥人工智能最大用途的同时,预防那些机器人可能带来的威胁呢?随着人工智能的日益完善和发展,人工智能先驱斯图尔特·罗素正在创造一些不同的东西:那就是具有无限可能的机器人。让我们听听他对人类该如何兼容人工智能的看法,如何才能真正利用人工智能使其利用常识、利他主义以及人类的价值观来解决问题。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:35

Chinese, Simplified subtitles

Revisions