当电脑比我们还聪明时会发生什么?
-
0:01 - 0:05我和一些数学家、
哲学家和电脑学家一起工作, -
0:05 - 0:10我们会坐在一起思考未来的机械智能,
-
0:10 - 0:12和其他的一些事情。
-
0:12 - 0:17有的人认为这类事情只是科幻,
-
0:17 - 0:20不切实际,很疯狂。
-
0:20 - 0:21但是我想说,
-
0:21 - 0:25好吧,那我们来看看人类现状吧。
-
0:25 - 0:27(笑)
-
0:27 - 0:29这是世间一种常态。
-
0:29 - 0:31但是如果我们去思考,
-
0:31 - 0:35我们人类,其实相当晚才
-
0:35 - 0:37出现在这个星球上。
-
0:37 - 0:41想一想,如果地球是一年前才被创造的,
-
0:41 - 0:45人类,那么,10分钟前才出现。
-
0:45 - 0:48然后工业时代两秒钟前刚刚开始。
-
0:49 - 0:55另一种看待这件事的方式是去
想一下在过去一万年间的世界 GDP 状况。 -
0:55 - 0:58我其实真的试着去做了一个统计图。
-
0:58 - 0:59就是这样。
-
0:59 - 1:01(笑)
-
1:01 - 1:03这是个令人好奇的形状,正常情况下。
-
1:03 - 1:05我确定我不想坐在上面。
-
1:05 - 1:07(笑)
-
1:07 - 1:12让我们扪心自问,到底是什么造成了
如此不寻常的现状? -
1:12 - 1:14一些人会说,因为科技。
-
1:14 - 1:19对于现在来说是对的,科技是人类历史
不断积累下来的果实。 -
1:19 - 1:24现在,科技发展十分迅速:
-
1:24 - 1:25这是个直接原因,
-
1:25 - 1:28这就是为什么我们现在生产效率如此高。
-
1:28 - 1:32但是我想探究更远的在未来的终极原因。
-
1:33 - 1:37看这两个非常不同的男士:
-
1:37 - 1:38这是 Kanzi,
-
1:38 - 1:43他已经掌握了 200 个词法标记,
一个难以置信的成就。 -
1:43 - 1:47Ed Witten 开创了第二个令人惊人的创新。
-
1:47 - 1:49如果我们去看这些事物的本质,
这是我们的发现: -
1:49 - 1:51全都是一样的。
-
1:51 - 1:53一个稍微大了一点,
-
1:53 - 1:55也许它有一些特殊的技巧。
-
1:55 - 1:59但是,这些隐形的不同并没有很错综复杂,
-
1:59 - 2:03因为在我们和我们的祖先之间
-
2:03 - 2:05只有 25 万代人。
-
2:05 - 2:09我们知道复杂的机制
需要很长的时间来进化得到。 -
2:10 - 2:12所以,一些相对小的变化,
-
2:12 - 2:16让我们从 Kanzi 变成了 Witten,
-
2:16 - 2:20从捡起掉下的树枝作为武器,
到发射洲际导弹。 -
2:21 - 2:25因此,至今我们所办到的所有事情,
-
2:25 - 2:26以及我们所关心的事情,
-
2:26 - 2:31都取决于人大脑中细小的变化。
-
2:33 - 2:36因此得出的结论是:在未来,
-
2:36 - 2:40任何显著的思考基体的变化,
-
2:40 - 2:43都能带来巨大的后果。
-
2:44 - 2:47我的一些同事觉得我们即将会发明,
-
2:47 - 2:51足以深深地改变人类思考模式的科技。
-
2:51 - 2:54就是超级机能智慧。
-
2:54 - 2:59以前的人工智慧
是把指令输入到一个箱子里。 -
2:59 - 3:01你需要人类程序员,
-
3:01 - 3:04来努力把知识转变成程序。
-
3:04 - 3:06你会建立起一些专业系统,
-
3:06 - 3:08它们有时候会有帮助,
-
3:08 - 3:11但是它们很生硬,你不能延展它们的功能。
-
3:11 - 3:14基本上你只能得到你放进去的东西。
-
3:14 - 3:15但是自从那时候开始,
-
3:15 - 3:19人工智能的领域发生了巨大的改变。
-
3:19 - 3:22现在主要的研究方向是机器的学习。
-
3:22 - 3:28所以,预期设计出知识的再现,
-
3:29 - 3:34我们写出具有从原始感官数据学习的程序,
-
3:34 - 3:39像婴儿一样。
-
3:39 - 3:43结果就不会局限于某个领域的人工智能:
-
3:43 - 3:48同一个系统可以学习两种语言之间的翻译
-
3:48 - 3:53或者学着玩 Atari 的游戏。
-
3:53 - 3:55当然,现在,
-
3:55 - 3:59人工智能还未能达到向人类一样,
-
3:59 - 4:02具有强大的跨领域学习能力。
-
4:02 - 4:04人类大脑还具有一些运算技巧,
-
4:04 - 4:07可是我们不知道如何
将这些技巧用于机器。 -
4:08 - 4:10所以我们现在需要问:
-
4:10 - 4:13我们还要多久才可以
让机器复制这种能力? -
4:14 - 4:15几年前,
-
4:15 - 4:18我们对世界顶尖的人工智能专家
做了一次问卷调查, -
4:18 - 4:21来收集他们的想法,其中一道题目是:
-
4:21 - 4:25“到哪一年你觉得人类会有 50% 的可能性
-
4:25 - 4:28创造达到人类水平的人工智能?”
-
4:29 - 4:33我们把这样的人工智能定义为
-
4:33 - 4:36有能力将任何任务
完成得至少和一名成年人一样好。 -
4:36 - 4:40所以是真正的人类级别,
而不是仅限于一些领域。 -
4:40 - 4:43而答案的中位数是 2040 到 2050 年,
-
4:43 - 4:46取决于这些专家的群体。
-
4:46 - 4:50当然这个有可能要过很久才能实现,
也有可能提前实现。 -
4:50 - 4:52没有人知道确切的时间。
-
4:53 - 4:58我们知道的事,
处理信息的能力的最终点, -
4:58 - 5:03比任何生物组织要大很多。
-
5:03 - 5:06这取决与物理原理。
-
5:06 - 5:10一个生物神经元所发出的脉冲频率
大约位于 200 赫兹,每秒 200 次。 -
5:10 - 5:14但是就算是现在的电晶体
都以千兆赫的频率运行。 -
5:14 - 5:19神经元在轴突中传输的速度较慢,
最多 100 米每秒。 -
5:19 - 5:22但在电脑里,信号是以光速传播的。
-
5:23 - 5:25另外还有尺寸的限制,
-
5:25 - 5:28就像人类的大脑只能有颅骨那么大,
-
5:28 - 5:33但是一个电脑可以和仓库一样大,甚至更大。
-
5:33 - 5:38因此超级智慧的潜能正潜伏在物质之中,
-
5:38 - 5:44就像原子能潜伏在人类历史中一样,
-
5:44 - 5:48直到 1945。
-
5:48 - 5:50在这个世纪里,
-
5:50 - 5:54科学家可能能将人工智慧的力量唤醒。
-
5:54 - 5:58那时候我觉得我们会看到智慧大爆发。
-
5:58 - 6:02大部分的人,当他们想
什么是聪明什么是笨的时候, -
6:02 - 6:05他们脑子里的画面是这样的:
-
6:05 - 6:08一边是村子里的傻子,
-
6:08 - 6:10一边是
-
6:10 - 6:15Ed Witten 或 Albert Einstein,
或者其他大师。 -
6:15 - 6:19但是我觉得从人工智能的观点来看,
-
6:19 - 6:23真正的画面也许是这样:
-
6:23 - 6:27人工智能从这一点开始,零智慧。
-
6:27 - 6:30然后,在许多许多辛劳工作后,
-
6:30 - 6:33也许最终我们能达到老鼠级别的智慧,
-
6:33 - 6:36能在混乱中找到开出一条道路,
-
6:36 - 6:38像一只老鼠一样。
-
6:38 - 6:42之后,在更多更多年的辛苦研究
和投资之后, -
6:42 - 6:47也许最终我们能到达黑猩猩级人工智能。
-
6:47 - 6:50在后来,更多年的研究之后,
-
6:50 - 6:53我们能够达到村里的傻子级别的人工智能。
-
6:53 - 6:56在一段时间之后,
我们能超越 Ed Witten。 -
6:56 - 6:59这列火车不会在“人类站”就停下。
-
6:59 - 7:02它比较可能会呼啸而过。
-
7:02 - 7:04现在这个有深远的寓意,
-
7:04 - 7:08尤其是当我们谈到力量权利的时候。
-
7:08 - 7:10比如,黑猩猩很强壮:
-
7:10 - 7:15同等的体重,一个黑猩猩是
两个健康男性那么强壮。 -
7:15 - 7:20然而,Kanzi 和他的朋友们的命运
更多取决于 -
7:20 - 7:24我们人类能做到什么,
而不是猩猩能做到什么。 -
7:25 - 7:28当超级智慧出现的时候,
-
7:28 - 7:31人类的命运也许会取决于
那个超级智慧体要做什么。 -
7:32 - 7:34想一想:
-
7:34 - 7:39机器智慧是人类需要创造的最后一个东西。
-
7:39 - 7:42机器在那之后会比我们更擅长创造,
-
7:42 - 7:44他们也会在数位时间里这样做。
-
7:44 - 7:49这个意味着一个被缩短的未来。
-
7:49 - 7:53想一下你曾想象过的所有的疯狂的科技,
-
7:53 - 7:55也许人类可以在适当的时候完成:
-
7:55 - 7:59终结衰老、宇宙殖民、
-
7:59 - 8:02自我复制的纳米机器人
和大脑到电脑的传输, -
8:02 - 8:04诸如此类的看似仅存在于科幻
-
8:04 - 8:07却有同时符合物理法则的元素。
-
8:07 - 8:11超级智慧有办法开发出这些东西,也许更快。
-
8:12 - 8:16现在,一个拥有如此成熟科技的超级智慧体
-
8:16 - 8:18将会是非常强大,
-
8:18 - 8:23至少在一些情况下,
它能得到它想要的东西。 -
8:23 - 8:28我们的未来就将会被
这个超级智慧体的喜好所主宰。 -
8:30 - 8:34现在的问题就是,
这些喜好是什么呢? -
8:34 - 8:36这很棘手。
-
8:36 - 8:37要在这个领域取得进步,
-
8:37 - 8:41我们必须避免将机器智慧人格化。
-
8:42 - 8:45这一点很讽刺,
因为每一个关于人工智能的未来 -
8:45 - 8:49的新闻报道,都会有这个图片:
-
8:50 - 8:54所以我觉得我们必须
用更抽象的方法看待这个问题, -
8:54 - 8:57而不是在好莱坞电影的叙事之下。
-
8:57 - 9:01我们需要把智慧看做是一个优化的过程,
-
9:01 - 9:06一个能把未来引导至
一个特殊组合结构的过程。 -
9:06 - 9:10一个超级智慧体是一个
非常强大的优化过程。 -
9:10 - 9:13它将会擅长利用资源来
-
9:13 - 9:16达到自己的目标。
-
9:16 - 9:19这意味着有着高智慧和
-
9:19 - 9:22拥有一个对人类来说有用的目标之间
-
9:22 - 9:27并没有必然的联系。
-
9:27 - 9:31假设我们给予人工智慧的目的是让人笑,
-
9:31 - 9:34当人工智能弱的时候,
它能做出有用或好笑的表演, -
9:34 - 9:37这样它的使用者就会笑了。
-
9:37 - 9:39当人工智能变成超级智慧体的时候,
-
9:39 - 9:43它会意识到有一个更有效的办法
能达到这个效果: -
9:43 - 9:44控制世界,
-
9:44 - 9:48在人类面部肌肉上插入电极
-
9:48 - 9:51来让人类不断地笑。
-
9:51 - 9:52另一个例子:
-
9:52 - 9:55假设我们给予人工智能的目标
是解出很难的数学题, -
9:55 - 9:57当人工智能变成超级智慧体的时候,
-
9:57 - 10:01它意识到有一个更有效的办法来解出问题,
-
10:01 - 10:04是把整个地球变成一个巨型电脑,
-
10:04 - 10:06这样它的运算能力就变更强大了。
-
10:06 - 10:09注意到这个是
给予人工智能一个模式型的理由 -
10:09 - 10:12来做我们也许并不认可的事情。
-
10:12 - 10:13人类在这个模式中是威胁,
-
10:13 - 10:16我们可以人为地
让这个数学问题不能被解出。 -
10:17 - 10:21当然了,我们预见
这种事情不会错到这样的地步, -
10:21 - 10:22这些是夸张的例子。
-
10:22 - 10:24但是它们所代表的主旨很重要:
-
10:24 - 10:27如果你创造了一个非常强大的优化过程
-
10:27 - 10:30来最大化目标 X,
-
10:30 - 10:32你最好保证你的意义上的 X
-
10:32 - 10:34包括了所有你在乎的事情。
-
10:35 - 10:39这是一个很多神话故事中都在传递的寓意。
-
10:39 - 10:45(希腊神话中)的 Midas 国王
希望他碰到的所有东西都能变成金子。 -
10:45 - 10:47他碰到了他的女儿,她于是变成了金子。
-
10:47 - 10:50他碰到了食物,于是食物变成了金子。
-
10:50 - 10:53这个故事和我们的话题息息相关,
-
10:53 - 10:55并不只是因为它隐藏在对贪婪的暗喻,
-
10:55 - 10:56也是因为他指出了
-
10:56 - 10:59如果你创造出来一个强大的优化过程
-
10:59 - 11:04并且给他了一个错误的或者不精确的目标,
后果会是什么。 -
11:04 - 11:09现在也许你会说,
如果一个电脑开始在人类脸上插电极, -
11:09 - 11:12我们会关掉它。
-
11:13 - 11:18第一,这不是一件容易事,
如果我们变得非常依赖这个系统: -
11:18 - 11:21比如,你知道互联网的开关在哪吗?
-
11:21 - 11:26第二,为什么当初黑猩猩
没有关掉人类的开关, -
11:26 - 11:27或者尼安德特人的开关?
-
11:27 - 11:30他们肯定有理由。
-
11:30 - 11:33我们有一个开关,比如,这里。
-
11:33 - 11:34(窒息声)
-
11:34 - 11:37之所以我们是聪明的敌人,
-
11:37 - 11:40因为我们可以预见到威胁并且尝试避免它。
-
11:40 - 11:42但是一个超级智慧体也可以,
-
11:42 - 11:46而且会做得更好。
-
11:46 - 11:53我们不应该很自信地
表示我们能控制所有事情。 -
11:53 - 11:56为了把我们的工作变得更简单一点,
我们应该试着,比如, -
11:56 - 11:58把人工智能放进一个小盒子,
-
11:58 - 12:00想一个保险的软件环境,
-
12:00 - 12:03一个它无法逃脱的虚拟现实模拟器。
-
12:03 - 12:07但是我们有信心它不可能能发现一个漏洞,
能让它逃出的漏洞吗? -
12:07 - 12:10连人类黑客每时每刻都能发现网络漏洞,
-
12:10 - 12:13我会说,也许不是很有信心。
-
12:14 - 12:19所以我们断开以太网的链接来创建一个空隙,
-
12:19 - 12:21但是,重申一遍,人类黑客都可以
-
12:21 - 12:25一次又一次以社会工程跨越这样的空隙。
-
12:25 - 12:26现在,在我说话的时候,
-
12:26 - 12:28我肯定在这边的某个雇员,
-
12:28 - 12:32曾近被要求交出他的账户明细,
-
12:32 - 12:35给一个自称是电脑信息部门的人。
-
12:35 - 12:37其他的情况也有可能,
-
12:37 - 12:38比如如果你是人工智能,
-
12:38 - 12:42你可以想象你用在你的体内
环绕复杂缠绕的电极 -
12:42 - 12:45创造出一种无线电波来交流。
-
12:45 - 12:47或者也许你可以假装你出了问题,
-
12:47 - 12:51然后程序师就把你打开看看哪里出错了,
-
12:51 - 12:53他们找出了源代码——Bang!——
-
12:53 - 12:55你就可以取得控制权了。
-
12:55 - 12:59或者它可以做出一个
非常漂亮的科技蓝图, -
12:59 - 13:00当我们实现之后,
-
13:00 - 13:05它有一些被人工智能计划好的
秘密的副作用。 -
13:05 - 13:08所以我们不能
对我们能够永远控制 -
13:08 - 13:12一个超级智能体的能力
表示过度自信。 -
13:12 - 13:14在不久后,它会逃脱出来。
-
13:15 - 13:18我相信我们需要弄明白
-
13:18 - 13:23如何创造出超级人工智能体,哪怕它逃走了,
-
13:23 - 13:26它仍然是无害的,因为它是我们这一边的,
-
13:26 - 13:28因为它有我们的价值观。
-
13:28 - 13:32我认为这是个不可避免的问题。
-
13:33 - 13:36现在,我对这个问题能否被解决保持乐观。
-
13:36 - 13:40我们不需要写下
所有我们在乎的事情, -
13:40 - 13:44或者,更糟地,把这些事情变成计算机语言,
-
13:44 - 13:45C++ 或者 Python,
-
13:45 - 13:48这是个不可能的任务。
-
13:48 - 13:52而是,我们会创造出一个人工智能机器人,
用它自己的智慧 -
13:52 - 13:55来学习我们的价值观,
-
13:55 - 14:01它的激励制度可以激励它
-
14:01 - 14:06来追求我们的价值观
或者去做我们会赞成的事情。 -
14:06 - 14:09我们会因此最大地提高它的智力,
-
14:09 - 14:12来解决富有价值的问题。
-
14:13 - 14:14这是有可能的,
-
14:14 - 14:18结果可以使人类非常受益。
-
14:18 - 14:22但它不是自动发生的。
-
14:22 - 14:25智慧大爆炸的初始条件
-
14:25 - 14:28需要被正确地建立起来,
-
14:28 - 14:31如果我们想要一切在掌握之中。
-
14:31 - 14:34人工智能的价值观
要和我们的价值观相辅相成, -
14:34 - 14:36不只是在熟悉的情况下,
-
14:36 - 14:38比如当我们能很容易检查它的行为的时候,
-
14:38 - 14:41但也要在所有人工智能可能会遇到的
前所未有的情况下, -
14:41 - 14:43在没有界限的未来,
与我们的价值观相辅相成。 -
14:43 - 14:48也有很多深奥的问题需要被分拣解决:
-
14:48 - 14:50它如何做决定,
-
14:50 - 14:52如何解决逻辑不确定性和类似的情况。
-
14:53 - 14:56所以技术上的待解决问题让这个任务
-
14:56 - 14:58看起来有些困难:
-
14:58 - 15:01并没有像做出一个超级智慧体一样困难,
-
15:01 - 15:04但是还是很难。
-
15:04 - 15:05这使我们所担心的:
-
15:05 - 15:10创造出一个超级智慧体确实是个很大的挑战。
-
15:10 - 15:13创造出一个安全的超级智慧体,
-
15:13 - 15:15是个更大的挑战。
-
15:16 - 15:20风险是,如果有人有办法解决第一个难题,
-
15:20 - 15:23却无法解决第二个
-
15:23 - 15:25确保安全性的挑战。
-
15:25 - 15:29所以我认为我们应该预先想出
-
15:29 - 15:32“控制性”的解决方法,
-
15:32 - 15:34这样我们就能在需要的时候用到它了。
-
15:35 - 15:38现在也许我们并不能
预先解决全部的控制性问题, -
15:38 - 15:41因为有些因素需要你了解
-
15:41 - 15:45你要应用到的那个构架的细节才能实施。
-
15:45 - 15:49但如果我们能解决更多控制性的难题,
-
15:49 - 15:53当我们迈入机器智能时代后
-
15:53 - 15:54就能更加顺利。
-
15:54 - 15:59这对于我来说是个值得一试的东西,
-
15:59 - 16:02而且我能想象,如果一切顺利,
-
16:02 - 16:07几百万年后的人类回首我们这个世纪,
-
16:07 - 16:11他们也许会说,
我们所做的最最重要的事情, -
16:11 - 16:13就是做了这个正确的决定。
-
16:13 - 16:14谢谢。
-
16:14 - 16:17(掌声)
- Title:
- 当电脑比我们还聪明时会发生什么?
- Speaker:
- 尼克·博斯特罗姆
- Description:
-
人工智能技术在这个世纪中突飞猛进,研究表明,人工智能电脑可以和人类一样聪明。而在那之后,尼克·博斯特罗姆认为,它们将会超越我们:“机器智能是人类的最终发明。” 作为一个科技学家和哲学家,博斯特罗姆要我们反思我们正在建造的世界,这世界由具有思考能力的机器所主宰。这些聪明的机器会帮助我们维持人性和价值观?还是会创造出它们自己的价值观?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Geoff Chen edited Chinese, Simplified subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen approved Chinese, Simplified subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen edited Chinese, Simplified subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen edited Chinese, Simplified subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen edited Chinese, Simplified subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen accepted Chinese, Simplified subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen edited Chinese, Simplified subtitles for What happens when our computers get smarter than we are? | ||
Geoff Chen edited Chinese, Simplified subtitles for What happens when our computers get smarter than we are? |