我们能打造人工智能且同时掌握控制权吗?
-
0:01 - 0:03我想谈论一种我们
很多人都经历过的 -
0:03 - 0:05来自于直觉上的失误。
-
0:05 - 0:09它让人们无法察觉到
一种特定危险的存在。 -
0:09 - 0:11我要向大家描述一个情景,
-
0:11 - 0:14一个我觉得既令人害怕,
-
0:14 - 0:16却又很可能发生的情景。
-
0:17 - 0:18这样一个组合的出现,
-
0:18 - 0:20显然不是一个好的征兆。
-
0:20 - 0:22不过,在座的大部分人都会觉得,
-
0:22 - 0:25我要谈论的这件事其实挺酷的。
-
0:25 - 0:28我将描述我们从人工智能中
-
0:28 - 0:30获得的好处,
-
0:30 - 0:32将怎样彻底地毁灭我们。
-
0:32 - 0:35事实上,想看到人工智能
最终不摧毁我们是很难的, -
0:35 - 0:37或者说它必将驱使我们自我毁灭。
-
0:37 - 0:39如果你和我有共同点,
-
0:39 - 0:42你会发现思考这些问题
是相当有趣的。 -
0:42 - 0:45而这种反应就是问题的一部分。
-
0:45 - 0:47因为这种想法应该使你感到担忧。
-
0:48 - 0:51假如我想在这个演讲中让你们相信,
-
0:51 - 0:54我们因为气候变化或者其他灾难,
-
0:54 - 0:57很可能会遭受全球性的饥荒,
-
0:57 - 1:00同时,你们的子孙后辈
-
1:00 - 1:02都可能在这样的饥荒中挣扎求生,
-
1:03 - 1:04你们就不会觉得
-
1:05 - 1:07“真有趣,
-
1:07 - 1:08我喜欢这个TED演讲。”
-
1:09 - 1:11因为饥荒一点都不有趣。
-
1:12 - 1:15不过,科幻小说中的死亡
往往却引人入胜。 -
1:15 - 1:19所以我现在最担心的一个问题是,
-
1:19 - 1:23人们对人工智能的发展将带来的危险,
-
1:23 - 1:25似乎还没有形成一个正确的认识。
-
1:25 - 1:29我也同样如此,所以我想
在这个演讲中和大家一起探讨。 -
1:30 - 1:33我们就像站在了两扇门前。
-
1:33 - 1:34在第一扇门后面,
-
1:34 - 1:37我们停下打造智能机器的脚步。
-
1:37 - 1:41某些原因也使我们停止了
对电脑软件和硬件的升级。 -
1:41 - 1:44现在让我们想一下为什么会这样。
-
1:45 - 1:49我的意思是,当我们认识到
智能和自动化不可估量的价值时, -
1:49 - 1:52我们总会竭尽所能的改善这些科技。
-
1:53 - 1:55那么,什么会使我们停下脚步呢?
-
1:56 - 1:58一场大规模的核战争?
-
1:59 - 2:01一次全球性的瘟疫?
-
2:02 - 2:04一个小行星撞击了地球?
-
2:06 - 2:08或者是贾斯汀·比伯成为了美国总统?
-
2:08 - 2:11(笑声)
-
2:13 - 2:17重点是,总有一个事物
会摧毁人类现有的文明。 -
2:17 - 2:22你需要思考这个灾难究竟有多恐怖,
-
2:22 - 2:25才会永久性地阻止我们
-
2:25 - 2:26发展科技,
-
2:26 - 2:28永久性的。
-
2:28 - 2:30光想想它,
就觉得这将是人类历史上 -
2:30 - 2:32能发生的最惨绝人寰的事了。
-
2:32 - 2:34那么,我们唯一剩下的选择,
-
2:34 - 2:36就藏在第二扇门的后面,
-
2:36 - 2:39那就是我们持续
改进我们的智能机器, -
2:39 - 2:41永不停歇。
-
2:42 - 2:45在将来的某一天,我们会
造出比我们更聪明的机器, -
2:46 - 2:48一旦我们有了
比我们更聪明的机器, -
2:48 - 2:51它们将进行自我改进。
-
2:51 - 2:54然后我们就会承担着
数学家IJ Good 所说的 -
2:54 - 2:55“智能爆炸”的风险,
-
2:55 - 2:57(科技进步的)
进程将不再受我们的控制。 -
2:58 - 3:01现在我们时常会看到
这样一些讽刺漫画, -
3:01 - 3:04我们总会担心受到一些不怀好意的
-
3:04 - 3:05机器人军队的攻击。
-
3:05 - 3:08但这不是最可能出现的事情。
-
3:08 - 3:13我们的机器不会自动变得邪恶。
-
3:13 - 3:16所以,我们唯一的顾虑就是
我们将会打造 -
3:16 - 3:18比我们人类更有竞争力的机器。
-
3:18 - 3:22而一旦我们和它们的目标不一致,
-
3:22 - 3:23我们将会被摧毁。
-
3:24 - 3:26想想我们与蚂蚁的关系吧。
-
3:27 - 3:28我们不讨厌它们,
-
3:28 - 3:30我们不会去主动去伤害它们。
-
3:30 - 3:32实际上,我们经常会尽量
避免伤害蚂蚁。 -
3:32 - 3:35我们会选择从它们身边走过。
-
3:35 - 3:37但只要它们的存在
-
3:37 - 3:39妨碍到了我们达成目标,
-
3:39 - 3:42比如说当我们在建造这样一个建筑,
-
3:42 - 3:44我们会毫不手软地杀掉它们。
-
3:44 - 3:47所以我们的顾虑是,终将有一天
我们打造的机器, -
3:47 - 3:50不管它们是否有意识,
它们终将会以 -
3:50 - 3:53我们对待蚂蚁的方式
来对待我们。 -
3:54 - 3:57我想很多人会说这很遥远。
-
3:57 - 4:04我打赌你们中有些人还会
怀疑超级人工智能是否可能实现, -
4:04 - 4:05认为我是在小题大做。
-
4:05 - 4:09但是你很快会发现以下这些
假设中的某一个是有问题的。 -
4:09 - 4:11下面是仅有的三种假设:
-
4:12 - 4:17第一,智慧可以被看做
物理系统中的信息处理过程。 -
4:17 - 4:20事实上,这不仅仅是一个假设。
-
4:20 - 4:23我们已经在有些机器中
嵌入了智能系统, -
4:23 - 4:25这些机器中很多已经
-
4:25 - 4:28有着超越普通人的智慧了。
-
4:29 - 4:31而且,我们也知道任何一点小事
-
4:31 - 4:34都可以引发所谓的“普遍智慧”,
-
4:34 - 4:38这是一种可以在不同领域间
灵活思考的能力, -
4:38 - 4:41因为我们的大脑已经
成功做到了这些。对吧? -
4:41 - 4:45我的意思是,
大脑里其实都是原子, -
4:45 - 4:49只要我们继续建造这些原子体系,
-
4:49 - 4:52我们就能实现越来越多的智慧行为,
-
4:52 - 4:55我们最终将会,
当然除非我们被干扰, -
4:55 - 4:58我们最终将会给我们的机器赋予
-
4:58 - 4:59广泛意义上的智能。
-
4:59 - 5:03我们要知道这个进程的速度并不重要,
-
5:03 - 5:06因为任何进程都足够
让我们走进死胡同。 -
5:06 - 5:10甚至不需要考虑摩尔定律,
也不需要用指数函数来衡量, -
5:10 - 5:12这一切顺其自然都会发生。
-
5:13 - 5:16第二个假设是,我们会一直创新。
-
5:17 - 5:20去继续改进我们的智能机器。
-
5:21 - 5:25由于智慧的价值就是——
-
5:25 - 5:29提供我们所珍爱的事物,
-
5:29 - 5:32或是用于保护我们所珍视的一切。
-
5:32 - 5:34智慧就是我们最有价值的资源。
-
5:34 - 5:36所以我们想继续革新它。
-
5:36 - 5:39因为我们有很多需要
迫切解决的问题。 -
5:39 - 5:42我们想要治愈像阿兹海默症
和癌症这样的疾病, -
5:43 - 5:47我们想要了解经济系统,
想要改善我们的气候科学, -
5:47 - 5:49所以只要可能,
我们就会将革新继续下去。 -
5:49 - 5:52而且革新的列车早已驶出,
车上却没有刹车。 -
5:54 - 5:59第三种假设是:
人类没有登上智慧的巅峰, -
5:59 - 6:01甚至连接近可能都谈不上。
-
6:02 - 6:03这个想法十分关键。
-
6:03 - 6:06这就是为什么
我们所处的环境是很危险的, -
6:06 - 6:10这也是为什么我们对风险的
直觉是不可靠的。 -
6:11 - 6:14现在,请大家想一下
谁是世界上最聪明的人。 -
6:15 - 6:18几乎每个人的候选名单里都会
有约翰·冯·诺伊曼。 -
6:18 - 6:21冯·诺伊曼留给周围人的印象
-
6:21 - 6:25就是他是那个时代当中最杰出的
数学家和物理学家, -
6:25 - 6:27这些都是完好的记录在案的。
-
6:27 - 6:31即使他的故事里有一半是假的,
-
6:31 - 6:32都没有人会质疑
-
6:32 - 6:35他仍然是世界上最聪明的人之一。
-
6:35 - 6:38那么,让我们来看看智慧谱线吧。
-
6:38 - 6:40现在我们有了约翰·冯·诺伊曼,
-
6:42 - 6:43还有我们大家。
-
6:44 - 6:45另外还有一只鸡。
-
6:45 - 6:47(笑声)
-
6:47 - 6:49抱歉,母鸡的位置应该在这。
-
6:49 - 6:50(笑声)
-
6:50 - 6:54这个演讲已经够严肃了,
开个玩笑轻松一下。 -
6:54 - 6:55(笑声)
-
6:56 - 7:00然而,很可能的情况是,
智慧谱线上的内容 -
7:00 - 7:03已远远超出了我们的认知,
-
7:04 - 7:07如果我们建造了比
自身更聪明的机器, -
7:07 - 7:09它们将非常可能
以超乎寻常的方式 -
7:09 - 7:11延展这个谱线,
-
7:11 - 7:14最终超越人类。
-
7:15 - 7:19仅仅从速度方面考虑,
我们就能够意识到这一点。 -
7:19 - 7:24那么,现在让我们来想象一下
我们刚建好一个超级人工智能机器, -
7:24 - 7:28大概和斯坦福
或是麻省理工学院的研究员的 -
7:28 - 7:30平均水平差不多吧。
-
7:30 - 7:33但是,电路板要比生物系统
-
7:33 - 7:34运行速度快一百万倍,
-
7:34 - 7:38所以这个机器思考起来
会比那些打造它的大脑 -
7:38 - 7:39快一百万倍。
-
7:39 - 7:41当你让它运行一周后,
-
7:41 - 7:46它将能呈现出相当于人类智慧在
20000年间发展出的水平, -
7:46 - 7:48而这个过程将周而复始。
-
7:50 - 7:53那么,我们又怎么能理解,
更不用说去制约 -
7:53 - 7:55一个以如此速度运行的机器呢?
-
7:57 - 7:59坦白讲,另一件令人担心的事就是,
-
7:59 - 8:04我们考虑一下最理想的情景。
-
8:04 - 8:08想象我们正好做出了
一个没有任何安全隐患的 -
8:08 - 8:10超级人工智能。
-
8:10 - 8:13我们有了一个前所未有的完美设计。
-
8:13 - 8:15就好像我们被赐予了一件神物,
-
8:15 - 8:17它能够准确的执行目标动作。
-
8:17 - 8:21这个机器将完美的节省人力工作。
-
8:22 - 8:24它设计出的机器
能够再生产其他机器, -
8:24 - 8:26去完成所有的人力工作。
-
8:26 - 8:27由太阳能供电,
-
8:27 - 8:30而成本的多少仅取决于原材料。
-
8:30 - 8:33那么,我们正在谈论的
就是人力劳动的终结。 -
8:33 - 8:36也关乎脑力劳动的终结。
-
8:37 - 8:40那在这种情况下,
像我们这样的"大猩猩"还能有什么用呢? -
8:40 - 8:44我们可以悠闲地玩飞盘,
给彼此做按摩。 -
8:46 - 8:49服用一些迷药,
穿一些奇装异服, -
8:49 - 8:51整个世界都沉浸在狂欢节之中。
-
8:51 - 8:53(笑声)
-
8:54 - 8:56那可能听起来挺棒的,
-
8:57 - 9:00不过让我们扪心自问,
-
9:00 - 9:02在现有的经济和政治体制下,
这意味着什么? -
9:02 - 9:05我们很可能会目睹
-
9:05 - 9:09前所未有的贫富差距
-
9:09 - 9:10和失业率。
-
9:10 - 9:13有钱人不愿意马上把这笔新的财富
-
9:13 - 9:15贡献出来服务社会,
-
9:16 - 9:19这时一些千万富翁能够优雅地
登上商业杂志的封面, -
9:19 - 9:22而剩下的人可能都在挨饿。
-
9:22 - 9:25如果听说硅谷里的公司
-
9:25 - 9:27即将造出超级人工智能,
-
9:27 - 9:30俄国人和中国人
会采取怎样的行动呢? -
9:30 - 9:33那个机器将能够
以一种前所未有的能力 -
9:33 - 9:35去开展由领土问题和
-
9:35 - 9:37网络问题引发的战争。
-
9:38 - 9:40这是一个胜者为王的世界。
-
9:40 - 9:43机器世界中的半年,
-
9:43 - 9:46在现实世界至少会相当于
-
9:46 - 9:4750万年。
-
9:47 - 9:52所以仅仅是关于这种科技突破的传闻,
-
9:52 - 9:55就可以让我们的种族丧失理智。
-
9:55 - 9:58在我的观念里,
-
9:58 - 10:00当前最可怕的东西
-
10:00 - 10:05正是人工智能的研究人员
-
10:05 - 10:06安慰我们的那些话。
-
10:07 - 10:10最常见的理由就是关于时间。
-
10:10 - 10:12他们会说,现在开始担心还为时尚早。
-
10:12 - 10:15这很可能是50年或者
100年之后才需要担心的事。 -
10:16 - 10:17一个研究人员曾说过,
-
10:17 - 10:19“担心人工智能的安全性
-
10:19 - 10:21就好比担心火星上人口过多一样。”
-
10:22 - 10:24这就是硅谷版本的
-
10:24 - 10:26“不要杞人忧天。”
-
10:26 - 10:27(笑声)
-
10:27 - 10:29似乎没有人注意到
-
10:29 - 10:32以时间作为参考系
-
10:32 - 10:35是得不出合理的结论的。
-
10:35 - 10:38如果说智慧只包括信息处理,
-
10:38 - 10:41然后我们继续改善这些机器,
-
10:41 - 10:44那么我们终将生产出超级智能。
-
10:44 - 10:48但是,我们无法预估将花费多长时间
-
10:48 - 10:50来创造实现这一切的安全环境。
-
10:52 - 10:53我再重复一遍。
-
10:53 - 10:57我们无法预估将花费多长时间
-
10:57 - 11:00来创造实现这一切的安全环境。
-
11:01 - 11:04你们可能没有注意过,
50年的概念已今非昔比。 -
11:04 - 11:07这是用月来衡量50年的样子。
(每个点表示一个月) -
11:07 - 11:09红色的点是代表苹果手机出现的时间。
-
11:09 - 11:12这是《辛普森一家》(动画片)
在电视上播出以来的时间。 -
11:13 - 11:15要做好准备面对
人类历史上前所未有的挑战, -
11:15 - 11:1850年时间并不是很长。
-
11:20 - 11:24就像我刚才说的,
我们对确定会来临的事情 -
11:24 - 11:26做出了不合理的回应。
-
11:26 - 11:30计算机科学家斯图尔特·罗素
给出了一个极好的类比。 -
11:30 - 11:35他说,想象我们从
外太空接收到一条讯息, -
11:35 - 11:37上面写着:
-
11:37 - 11:39“地球上的人类,
-
11:39 - 11:41我们将在五十年后到达你们的星球,
-
11:42 - 11:43做好准备吧。”
-
11:43 - 11:48于是我们就开始倒计时,
直到它们的“母舰”着陆吗? -
11:48 - 11:51在这种情况下我们会感到更紧迫。
-
11:53 - 11:55另外一个试图安慰我们的理由是,
-
11:55 - 11:58那些机器必须
拥有和我们一样的价值观, -
11:58 - 12:00因为它们将会是我们自身的延伸。
-
12:00 - 12:02它们将会被嫁接到我们的大脑上,
-
12:02 - 12:04我们将会成它们的边缘系统。
-
12:05 - 12:07现在我们再思考一下
-
12:07 - 12:10最安全的,也是唯一经慎重考虑后
-
12:10 - 12:11推荐的发展方向,
-
12:11 - 12:14是将这项技术直接植入我们大脑。
-
12:15 - 12:18这也许确实是最安全的,
也是唯一慎重的发展方向, -
12:18 - 12:21但通常在我们把它塞进脑袋之前,
-
12:21 - 12:25会充分考虑这项技术的安全性。
-
12:25 - 12:27(笑声)
-
12:27 - 12:32更深一层的问题是:
仅仅制造出超级人工智能机器 -
12:32 - 12:34可能要比
-
12:34 - 12:36既制造超级人工智能,
-
12:36 - 12:38又让其拥有能让
我们的思想和超级人工智能 -
12:38 - 12:41无缝对接的完整的
神经科学系统要简单很多。 -
12:41 - 12:44而做这些研究的公司或政府,
-
12:44 - 12:48很可能将彼此视作竞争对手,
-
12:48 - 12:51因为赢得了比赛就意味着称霸了世界,
-
12:51 - 12:53前提是不在刚成功后就将其销毁,
-
12:53 - 12:56所以结论是:简单的选项
-
12:56 - 12:57一定会被先实现。
-
12:59 - 13:01但很遗憾,
除了建议更多人去思考这个问题, -
13:01 - 13:04我对此并无解决方案。
-
13:04 - 13:06我觉得在人工智能问题上,
-
13:06 - 13:08我们需要一个“曼哈顿计划”
(二战核武器研究计划), -
13:08 - 13:11不是用于讨论如何制造人工智能,
因为我们一定会这么做, -
13:11 - 13:15而是去避免军备竞赛,
-
13:15 - 13:18最终以一种有利于
我们的方式去打造它。 -
13:18 - 13:20当你在谈论一个可以自我改造的
-
13:20 - 13:23超级人工智能时,
-
13:23 - 13:27我们似乎只有
一次正确搭建初始系统的机会, -
13:27 - 13:29而这个正确的初始系统
-
13:29 - 13:32需要我们在经济以及政治上
做出很大的努力。 -
13:34 - 13:36但是当我们承认
-
13:36 - 13:40信息处理是智慧的源头,
-
13:41 - 13:46承认一些电脑系统是智能的基础,
-
13:46 - 13:50承认我们会不断改善这些系统,
-
13:51 - 13:56承认我们现存的认知远没有达到极限,
-
13:56 - 13:57将很可能被超越,
-
13:58 - 13:59我们又必须同时承认
-
13:59 - 14:02我们在某种意义上
正在创造一个新的“上帝”。 -
14:03 - 14:05现在正是思考人类是否
-
14:05 - 14:08能与这个“上帝”和睦相处的最佳时机。
-
14:08 - 14:09非常感谢!
-
14:09 - 14:15(掌声)
- Title:
- 我们能打造人工智能且同时掌握控制权吗?
- Speaker:
- 山姆·哈里斯
- Description:
-
你害怕超级人工智能吗?神经科学家兼哲学家山姆·哈里斯说:你应该害怕。而且这种害怕不应仅仅只停留在理论层面上。他说,我们将要打造超越人类的机器,它们将会像我们对待蚂蚁那样对待我们。然而针对这样的问题,我们却仍未能给出一个让人满意的答案。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
Yolanda Zhang approved Chinese, Simplified subtitles for Can we build AI without losing control over it? | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Can we build AI without losing control over it? | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Can we build AI without losing control over it? | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Can we build AI without losing control over it? | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Can we build AI without losing control over it? | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Can we build AI without losing control over it? | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Can we build AI without losing control over it? | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Can we build AI without losing control over it? |