Return to Video

当电脑比我们还聪明时会发生什么?

  • 0:01 - 0:05
    我和一些数学家、
    哲学家和电脑学家一起工作,
  • 0:05 - 0:10
    我们会坐在一起思考未来的机械智能,
  • 0:10 - 0:12
    和其他的一些事情。
  • 0:12 - 0:17
    有的人认为这类事情只是科幻,
  • 0:17 - 0:20
    不切实际,很疯狂。
  • 0:20 - 0:21
    但是我想说,
  • 0:21 - 0:25
    好吧,那我们来看看人类现状吧。
  • 0:25 - 0:27
    (笑)
  • 0:27 - 0:29
    这是世间一种常态。
  • 0:29 - 0:31
    但是如果我们去思考,
  • 0:31 - 0:35
    我们人类,其实相当晚才
  • 0:35 - 0:37
    出现在这个星球上。
  • 0:37 - 0:41
    想一想,如果地球是一年前才被创造的,
  • 0:41 - 0:45
    人类,那么,10分钟前才出现。
  • 0:45 - 0:48
    然后工业时代两秒钟前刚刚开始。
  • 0:49 - 0:55
    另一种看待这件事的方式是去
    想一下在过去一万年间的世界 GDP 状况。
  • 0:55 - 0:58
    我其实真的试着去做了一个统计图。
  • 0:58 - 0:59
    就是这样。
  • 0:59 - 1:01
    (笑)
  • 1:01 - 1:03
    这是个令人好奇的形状,正常情况下。
  • 1:03 - 1:05
    我确定我不想坐在上面。
  • 1:05 - 1:07
    (笑)
  • 1:07 - 1:12
    让我们扪心自问,到底是什么造成了
    如此不寻常的现状?
  • 1:12 - 1:14
    一些人会说,因为科技。
  • 1:14 - 1:19
    对于现在来说是对的,科技是人类历史
    不断积累下来的果实。
  • 1:19 - 1:24
    现在,科技发展十分迅速:
  • 1:24 - 1:25
    这是个直接原因,
  • 1:25 - 1:28
    这就是为什么我们现在生产效率如此高。
  • 1:28 - 1:32
    但是我想探究更远的在未来的终极原因。
  • 1:33 - 1:37
    看这两个非常不同的男士:
  • 1:37 - 1:38
    这是 Kanzi,
  • 1:38 - 1:43
    他已经掌握了 200 个词法标记,
    一个难以置信的成就。
  • 1:43 - 1:47
    Ed Witten 开创了第二个令人惊人的创新。
  • 1:47 - 1:49
    如果我们去看这些事物的本质,
    这是我们的发现:
  • 1:49 - 1:51
    全都是一样的。
  • 1:51 - 1:53
    一个稍微大了一点,
  • 1:53 - 1:55
    也许它有一些特殊的技巧。
  • 1:55 - 1:59
    但是,这些隐形的不同并没有很错综复杂,
  • 1:59 - 2:03
    因为在我们和我们的祖先之间
  • 2:03 - 2:05
    只有 25 万代人。
  • 2:05 - 2:09
    我们知道复杂的机制
    需要很长的时间来进化得到。
  • 2:10 - 2:12
    所以,一些相对小的变化,
  • 2:12 - 2:16
    让我们从 Kanzi 变成了 Witten,
  • 2:16 - 2:20
    从捡起掉下的树枝作为武器,
    到发射洲际导弹。
  • 2:21 - 2:25
    因此,至今我们所办到的所有事情,
  • 2:25 - 2:26
    以及我们所关心的事情,
  • 2:26 - 2:31
    都取决于人大脑中细小的变化。
  • 2:33 - 2:36
    因此得出的结论是:在未来,
  • 2:36 - 2:40
    任何显著的思考基体的变化,
  • 2:40 - 2:43
    都能带来巨大的后果。
  • 2:44 - 2:47
    我的一些同事觉得我们即将会发明,
  • 2:47 - 2:51
    足以深深地改变人类思考模式的科技。
  • 2:51 - 2:54
    就是超级机能智慧。
  • 2:54 - 2:59
    以前的人工智慧
    是把指令输入到一个箱子里。
  • 2:59 - 3:01
    你需要人类程序员,
  • 3:01 - 3:04
    来努力把知识转变成程序。
  • 3:04 - 3:06
    你会建立起一些专业系统,
  • 3:06 - 3:08
    它们有时候会有帮助,
  • 3:08 - 3:11
    但是它们很生硬,你不能延展它们的功能。
  • 3:11 - 3:14
    基本上你只能得到你放进去的东西。
  • 3:14 - 3:15
    但是自从那时候开始,
  • 3:15 - 3:19
    人工智能的领域发生了巨大的改变。
  • 3:19 - 3:22
    现在主要的研究方向是机器的学习。
  • 3:22 - 3:28
    所以,预期设计出知识的再现,
  • 3:29 - 3:34
    我们写出具有从原始感官数据学习的程序,
  • 3:34 - 3:39
    像婴儿一样。
  • 3:39 - 3:43
    结果就不会局限于某个领域的人工智能:
  • 3:43 - 3:48
    同一个系统可以学习两种语言之间的翻译
  • 3:48 - 3:53
    或者学着玩 Atari 的游戏。
  • 3:53 - 3:55
    当然,现在,
  • 3:55 - 3:59
    人工智能还未能达到向人类一样,
  • 3:59 - 4:02
    具有强大的跨领域学习能力。
  • 4:02 - 4:04
    人类大脑还具有一些运算技巧,
  • 4:04 - 4:07
    可是我们不知道如何
    将这些技巧用于机器。
  • 4:08 - 4:10
    所以我们现在需要问:
  • 4:10 - 4:13
    我们还要多久才可以
    让机器复制这种能力?
  • 4:14 - 4:15
    几年前,
  • 4:15 - 4:18
    我们对世界顶尖的人工智能专家
    做了一次问卷调查,
  • 4:18 - 4:21
    来收集他们的想法,其中一道题目是:
  • 4:21 - 4:25
    “到哪一年你觉得人类会有 50% 的可能性
  • 4:25 - 4:28
    创造达到人类水平的人工智能?”
  • 4:29 - 4:33
    我们把这样的人工智能定义为
  • 4:33 - 4:36
    有能力将任何任务
    完成得至少和一名成年人一样好。
  • 4:36 - 4:40
    所以是真正的人类级别,
    而不是仅限于一些领域。
  • 4:40 - 4:43
    而答案的中位数是 2040 到 2050 年,
  • 4:43 - 4:46
    取决于这些专家的群体。
  • 4:46 - 4:50
    当然这个有可能要过很久才能实现,
    也有可能提前实现。
  • 4:50 - 4:52
    没有人知道确切的时间。
  • 4:53 - 4:58
    我们知道的事,
    处理信息的能力的最终点,
  • 4:58 - 5:03
    比任何生物组织要大很多。
  • 5:03 - 5:06
    这取决与物理原理。
  • 5:06 - 5:10
    一个生物神经元所发出的脉冲频率
    大约位于 200 赫兹,每秒 200 次。
  • 5:10 - 5:14
    但是就算是现在的电晶体
    都以千兆赫的频率运行。
  • 5:14 - 5:19
    神经元在轴突中传输的速度较慢,
    最多 100 米每秒。
  • 5:19 - 5:22
    但在电脑里,信号是以光速传播的。
  • 5:23 - 5:25
    另外还有尺寸的限制,
  • 5:25 - 5:28
    就像人类的大脑只能有颅骨那么大,
  • 5:28 - 5:33
    但是一个电脑可以和仓库一样大,甚至更大。
  • 5:33 - 5:38
    因此超级智慧的潜能正潜伏在物质之中,
  • 5:38 - 5:44
    就像原子能潜伏在人类历史中一样,
  • 5:44 - 5:48
    直到 1945。
  • 5:48 - 5:50
    在这个世纪里,
  • 5:50 - 5:54
    科学家可能能将人工智慧的力量唤醒。
  • 5:54 - 5:58
    那时候我觉得我们会看到智慧大爆发。
  • 5:58 - 6:02
    大部分的人,当他们想
    什么是聪明什么是笨的时候,
  • 6:02 - 6:05
    他们脑子里的画面是这样的:
  • 6:05 - 6:08
    一边是村子里的傻子,
  • 6:08 - 6:10
    一边是
  • 6:10 - 6:15
    Ed Witten 或 Albert Einstein,
    或者其他大师。
  • 6:15 - 6:19
    但是我觉得从人工智能的观点来看,
  • 6:19 - 6:23
    真正的画面也许是这样:
  • 6:23 - 6:27
    人工智能从这一点开始,零智慧。
  • 6:27 - 6:30
    然后,在许多许多辛劳工作后,
  • 6:30 - 6:33
    也许最终我们能达到老鼠级别的智慧,
  • 6:33 - 6:36
    能在混乱中找到开出一条道路,
  • 6:36 - 6:38
    像一只老鼠一样。
  • 6:38 - 6:42
    之后,在更多更多年的辛苦研究
    和投资之后,
  • 6:42 - 6:47
    也许最终我们能到达黑猩猩级人工智能。
  • 6:47 - 6:50
    在后来,更多年的研究之后,
  • 6:50 - 6:53
    我们能够达到村里的傻子级别的人工智能。
  • 6:53 - 6:56
    在一段时间之后,
    我们能超越 Ed Witten。
  • 6:56 - 6:59
    这列火车不会在“人类站”就停下。
  • 6:59 - 7:02
    它比较可能会呼啸而过。
  • 7:02 - 7:04
    现在这个有深远的寓意,
  • 7:04 - 7:08
    尤其是当我们谈到力量权利的时候。
  • 7:08 - 7:10
    比如,黑猩猩很强壮:
  • 7:10 - 7:15
    同等的体重,一个黑猩猩是
    两个健康男性那么强壮。
  • 7:15 - 7:20
    然而,Kanzi 和他的朋友们的命运
    更多取决于
  • 7:20 - 7:24
    我们人类能做到什么,
    而不是猩猩能做到什么。
  • 7:25 - 7:28
    当超级智慧出现的时候,
  • 7:28 - 7:31
    人类的命运也许会取决于
    那个超级智慧体要做什么。
  • 7:32 - 7:34
    想一想:
  • 7:34 - 7:39
    机器智慧是人类需要创造的最后一个东西。
  • 7:39 - 7:42
    机器在那之后会比我们更擅长创造,
  • 7:42 - 7:44
    他们也会在数位时间里这样做。
  • 7:44 - 7:49
    这个意味着一个被缩短的未来。
  • 7:49 - 7:53
    想一下你曾想象过的所有的疯狂的科技,
  • 7:53 - 7:55
    也许人类可以在适当的时候完成:
  • 7:55 - 7:59
    终结衰老、宇宙殖民、
  • 7:59 - 8:02
    自我复制的纳米机器人
    和大脑到电脑的传输,
  • 8:02 - 8:04
    诸如此类的看似仅存在于科幻
  • 8:04 - 8:07
    却有同时符合物理法则的元素。
  • 8:07 - 8:11
    超级智慧有办法开发出这些东西,也许更快。
  • 8:12 - 8:16
    现在,一个拥有如此成熟科技的超级智慧体
  • 8:16 - 8:18
    将会是非常强大,
  • 8:18 - 8:23
    至少在一些情况下,
    它能得到它想要的东西。
  • 8:23 - 8:28
    我们的未来就将会被
    这个超级智慧体的喜好所主宰。
  • 8:30 - 8:34
    现在的问题就是,
    这些喜好是什么呢?
  • 8:34 - 8:36
    这很棘手。
  • 8:36 - 8:37
    要在这个领域取得进步,
  • 8:37 - 8:41
    我们必须避免将机器智慧人格化。
  • 8:42 - 8:45
    这一点很讽刺,
    因为每一个关于人工智能的未来
  • 8:45 - 8:49
    的新闻报道,都会有这个图片:
  • 8:50 - 8:54
    所以我觉得我们必须
    用更抽象的方法看待这个问题,
  • 8:54 - 8:57
    而不是在好莱坞电影的叙事之下。
  • 8:57 - 9:01
    我们需要把智慧看做是一个优化的过程,
  • 9:01 - 9:06
    一个能把未来引导至
    一个特殊组合结构的过程。
  • 9:06 - 9:10
    一个超级智慧体是一个
    非常强大的优化过程。
  • 9:10 - 9:13
    它将会擅长利用资源来
  • 9:13 - 9:16
    达到自己的目标。
  • 9:16 - 9:19
    这意味着有着高智慧和
  • 9:19 - 9:22
    拥有一个对人类来说有用的目标之间
  • 9:22 - 9:27
    并没有必然的联系。
  • 9:27 - 9:31
    假设我们给予人工智慧的目的是让人笑,
  • 9:31 - 9:34
    当人工智能弱的时候,
    它能做出有用或好笑的表演,
  • 9:34 - 9:37
    这样它的使用者就会笑了。
  • 9:37 - 9:39
    当人工智能变成超级智慧体的时候,
  • 9:39 - 9:43
    它会意识到有一个更有效的办法
    能达到这个效果:
  • 9:43 - 9:44
    控制世界,
  • 9:44 - 9:48
    在人类面部肌肉上插入电极
  • 9:48 - 9:51
    来让人类不断地笑。
  • 9:51 - 9:52
    另一个例子:
  • 9:52 - 9:55
    假设我们给予人工智能的目标
    是解出很难的数学题,
  • 9:55 - 9:57
    当人工智能变成超级智慧体的时候,
  • 9:57 - 10:01
    它意识到有一个更有效的办法来解出问题,
  • 10:01 - 10:04
    是把整个地球变成一个巨型电脑,
  • 10:04 - 10:06
    这样它的运算能力就变更强大了。
  • 10:06 - 10:09
    注意到这个是
    给予人工智能一个模式型的理由
  • 10:09 - 10:12
    来做我们也许并不认可的事情。
  • 10:12 - 10:13
    人类在这个模式中是威胁,
  • 10:13 - 10:16
    我们可以人为地
    让这个数学问题不能被解出。
  • 10:17 - 10:21
    当然了,我们预见
    这种事情不会错到这样的地步,
  • 10:21 - 10:22
    这些是夸张的例子。
  • 10:22 - 10:24
    但是它们所代表的主旨很重要:
  • 10:24 - 10:27
    如果你创造了一个非常强大的优化过程
  • 10:27 - 10:30
    来最大化目标 X,
  • 10:30 - 10:32
    你最好保证你的意义上的 X
  • 10:32 - 10:34
    包括了所有你在乎的事情。
  • 10:35 - 10:39
    这是一个很多神话故事中都在传递的寓意。
  • 10:39 - 10:45
    (希腊神话中)的 Midas 国王
    希望他碰到的所有东西都能变成金子。
  • 10:45 - 10:47
    他碰到了他的女儿,她于是变成了金子。
  • 10:47 - 10:50
    他碰到了食物,于是食物变成了金子。
  • 10:50 - 10:53
    这个故事和我们的话题息息相关,
  • 10:53 - 10:55
    并不只是因为它隐藏在对贪婪的暗喻,
  • 10:55 - 10:56
    也是因为他指出了
  • 10:56 - 10:59
    如果你创造出来一个强大的优化过程
  • 10:59 - 11:04
    并且给他了一个错误的或者不精确的目标,
    后果会是什么。
  • 11:04 - 11:09
    现在也许你会说,
    如果一个电脑开始在人类脸上插电极,
  • 11:09 - 11:12
    我们会关掉它。
  • 11:13 - 11:18
    第一,这不是一件容易事,
    如果我们变得非常依赖这个系统:
  • 11:18 - 11:21
    比如,你知道互联网的开关在哪吗?
  • 11:21 - 11:26
    第二,为什么当初黑猩猩
    没有关掉人类的开关,
  • 11:26 - 11:27
    或者尼安德特人的开关?
  • 11:27 - 11:30
    他们肯定有理由。
  • 11:30 - 11:33
    我们有一个开关,比如,这里。
  • 11:33 - 11:34
    (窒息声)
  • 11:34 - 11:37
    之所以我们是聪明的敌人,
  • 11:37 - 11:40
    因为我们可以预见到威胁并且尝试避免它。
  • 11:40 - 11:42
    但是一个超级智慧体也可以,
  • 11:42 - 11:46
    而且会做得更好。
  • 11:46 - 11:53
    我们不应该很自信地
    表示我们能控制所有事情。
  • 11:53 - 11:56
    为了把我们的工作变得更简单一点,
    我们应该试着,比如,
  • 11:56 - 11:58
    把人工智能放进一个小盒子,
  • 11:58 - 12:00
    想一个保险的软件环境,
  • 12:00 - 12:03
    一个它无法逃脱的虚拟现实模拟器。
  • 12:03 - 12:07
    但是我们有信心它不可能能发现一个漏洞,
    能让它逃出的漏洞吗?
  • 12:07 - 12:10
    连人类黑客每时每刻都能发现网络漏洞,
  • 12:10 - 12:13
    我会说,也许不是很有信心。
  • 12:14 - 12:19
    所以我们断开以太网的链接来创建一个空隙,
  • 12:19 - 12:21
    但是,重申一遍,人类黑客都可以
  • 12:21 - 12:25
    一次又一次以社会工程跨越这样的空隙。
  • 12:25 - 12:26
    现在,在我说话的时候,
  • 12:26 - 12:28
    我肯定在这边的某个雇员,
  • 12:28 - 12:32
    曾近被要求交出他的账户明细,
  • 12:32 - 12:35
    给一个自称是电脑信息部门的人。
  • 12:35 - 12:37
    其他的情况也有可能,
  • 12:37 - 12:38
    比如如果你是人工智能,
  • 12:38 - 12:42
    你可以想象你用在你的体内
    环绕复杂缠绕的电极
  • 12:42 - 12:45
    创造出一种无线电波来交流。
  • 12:45 - 12:47
    或者也许你可以假装你出了问题,
  • 12:47 - 12:51
    然后程序师就把你打开看看哪里出错了,
  • 12:51 - 12:53
    他们找出了源代码——Bang!——
  • 12:53 - 12:55
    你就可以取得控制权了。
  • 12:55 - 12:59
    或者它可以做出一个
    非常漂亮的科技蓝图,
  • 12:59 - 13:00
    当我们实现之后,
  • 13:00 - 13:05
    它有一些被人工智能计划好的
    秘密的副作用。
  • 13:05 - 13:08
    所以我们不能
    对我们能够永远控制
  • 13:08 - 13:12
    一个超级智能体的能力
    表示过度自信。
  • 13:12 - 13:14
    在不久后,它会逃脱出来。
  • 13:15 - 13:18
    我相信我们需要弄明白
  • 13:18 - 13:23
    如何创造出超级人工智能体,哪怕它逃走了,
  • 13:23 - 13:26
    它仍然是无害的,因为它是我们这一边的,
  • 13:26 - 13:28
    因为它有我们的价值观。
  • 13:28 - 13:32
    我认为这是个不可避免的问题。
  • 13:33 - 13:36
    现在,我对这个问题能否被解决保持乐观。
  • 13:36 - 13:40
    我们不需要写下
    所有我们在乎的事情,
  • 13:40 - 13:44
    或者,更糟地,把这些事情变成计算机语言,
  • 13:44 - 13:45
    C++ 或者 Python,
  • 13:45 - 13:48
    这是个不可能的任务。
  • 13:48 - 13:52
    而是,我们会创造出一个人工智能机器人,
    用它自己的智慧
  • 13:52 - 13:55
    来学习我们的价值观,
  • 13:55 - 14:01
    它的激励制度可以激励它
  • 14:01 - 14:06
    来追求我们的价值观
    或者去做我们会赞成的事情。
  • 14:06 - 14:09
    我们会因此最大地提高它的智力,
  • 14:09 - 14:12
    来解决富有价值的问题。
  • 14:13 - 14:14
    这是有可能的,
  • 14:14 - 14:18
    结果可以使人类非常受益。
  • 14:18 - 14:22
    但它不是自动发生的。
  • 14:22 - 14:25
    智慧大爆炸的初始条件
  • 14:25 - 14:28
    需要被正确地建立起来,
  • 14:28 - 14:31
    如果我们想要一切在掌握之中。
  • 14:31 - 14:34
    人工智能的价值观
    要和我们的价值观相辅相成,
  • 14:34 - 14:36
    不只是在熟悉的情况下,
  • 14:36 - 14:38
    比如当我们能很容易检查它的行为的时候,
  • 14:38 - 14:41
    但也要在所有人工智能可能会遇到的
    前所未有的情况下,
  • 14:41 - 14:43
    在没有界限的未来,
    与我们的价值观相辅相成。
  • 14:43 - 14:48
    也有很多深奥的问题需要被分拣解决:
  • 14:48 - 14:50
    它如何做决定,
  • 14:50 - 14:52
    如何解决逻辑不确定性和类似的情况。
  • 14:53 - 14:56
    所以技术上的待解决问题让这个任务
  • 14:56 - 14:58
    看起来有些困难:
  • 14:58 - 15:01
    并没有像做出一个超级智慧体一样困难,
  • 15:01 - 15:04
    但是还是很难。
  • 15:04 - 15:05
    这使我们所担心的:
  • 15:05 - 15:10
    创造出一个超级智慧体确实是个很大的挑战。
  • 15:10 - 15:13
    创造出一个安全的超级智慧体,
  • 15:13 - 15:15
    是个更大的挑战。
  • 15:16 - 15:20
    风险是,如果有人有办法解决第一个难题,
  • 15:20 - 15:23
    却无法解决第二个
  • 15:23 - 15:25
    确保安全性的挑战。
  • 15:25 - 15:29
    所以我认为我们应该预先想出
  • 15:29 - 15:32
    “控制性”的解决方法,
  • 15:32 - 15:34
    这样我们就能在需要的时候用到它了。
  • 15:35 - 15:38
    现在也许我们并不能
    预先解决全部的控制性问题,
  • 15:38 - 15:41
    因为有些因素需要你了解
  • 15:41 - 15:45
    你要应用到的那个构架的细节才能实施。
  • 15:45 - 15:49
    但如果我们能解决更多控制性的难题,
  • 15:49 - 15:53
    当我们迈入机器智能时代后
  • 15:53 - 15:54
    就能更加顺利。
  • 15:54 - 15:59
    这对于我来说是个值得一试的东西,
  • 15:59 - 16:02
    而且我能想象,如果一切顺利,
  • 16:02 - 16:07
    几百万年后的人类回首我们这个世纪,
  • 16:07 - 16:11
    他们也许会说,
    我们所做的最最重要的事情,
  • 16:11 - 16:13
    就是做了这个正确的决定。
  • 16:13 - 16:14
    谢谢。
  • 16:14 - 16:17
    (掌声)
Title:
当电脑比我们还聪明时会发生什么?
Speaker:
尼克·博斯特罗姆
Description:

人工智能技术在这个世纪中突飞猛进,研究表明,人工智能电脑可以和人类一样聪明。而在那之后,尼克·博斯特罗姆认为,它们将会超越我们:“机器智能是人类的最终发明。” 作为一个科技学家和哲学家,博斯特罗姆要我们反思我们正在建造的世界,这世界由具有思考能力的机器所主宰。这些聪明的机器会帮助我们维持人性和价值观?还是会创造出它们自己的价值观?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Chinese, Simplified subtitles

Revisions Compare revisions