Return to Video

我们能打造人工智能且同时掌握控制权吗?

  • 0:01 - 0:03
    我想谈论一种我们
    很多人都经历过的
  • 0:03 - 0:05
    来自于直觉上的失误。
  • 0:05 - 0:09
    它让人们无法察觉到
    一种特定危险的存在。
  • 0:09 - 0:11
    我要向大家描述一个情景,
  • 0:11 - 0:14
    一个我觉得既令人害怕,
  • 0:14 - 0:16
    却又很可能发生的情景。
  • 0:17 - 0:18
    这样一个组合的出现,
  • 0:18 - 0:20
    显然不是一个好的征兆。
  • 0:20 - 0:22
    不过,在座的大部分人都会觉得,
  • 0:22 - 0:25
    我要谈论的这件事其实挺酷的。
  • 0:25 - 0:28
    我将描述我们从人工智能中
  • 0:28 - 0:30
    获得的好处,
  • 0:30 - 0:32
    将怎样彻底地毁灭我们。
  • 0:32 - 0:35
    事实上,想看到人工智能
    最终不摧毁我们是很难的,
  • 0:35 - 0:37
    或者说它必将驱使我们自我毁灭。
  • 0:37 - 0:39
    如果你和我有共同点,
  • 0:39 - 0:42
    你会发现思考这些问题
    是相当有趣的。
  • 0:42 - 0:45
    而这种反应就是问题的一部分。
  • 0:45 - 0:47
    因为这种想法应该使你感到担忧。
  • 0:48 - 0:51
    假如我想在这个演讲中让你们相信,
  • 0:51 - 0:54
    我们因为气候变化或者其他灾难,
  • 0:54 - 0:57
    很可能会遭受全球性的饥荒,
  • 0:57 - 1:00
    同时,你们的子孙后辈
  • 1:00 - 1:02
    都可能在这样的饥荒中挣扎求生,
  • 1:03 - 1:04
    你们就不会觉得
  • 1:05 - 1:07
    “真有趣,
  • 1:07 - 1:08
    我喜欢这个TED演讲。”
  • 1:09 - 1:11
    因为饥荒一点都不有趣。
  • 1:12 - 1:15
    不过,科幻小说中的死亡
    往往却引人入胜。
  • 1:15 - 1:19
    所以我现在最担心的一个问题是,
  • 1:19 - 1:23
    人们对人工智能的发展将带来的危险,
  • 1:23 - 1:25
    似乎还没有形成一个正确的认识。
  • 1:25 - 1:29
    我也同样如此,所以我想
    在这个演讲中和大家一起探讨。
  • 1:30 - 1:33
    我们就像站在了两扇门前。
  • 1:33 - 1:34
    在第一扇门后面,
  • 1:34 - 1:37
    我们停下打造智能机器的脚步。
  • 1:37 - 1:41
    某些原因也使我们停止了
    对电脑软件和硬件的升级。
  • 1:41 - 1:44
    现在让我们想一下为什么会这样。
  • 1:45 - 1:49
    我的意思是,当我们认识到
    智能和自动化不可估量的价值时,
  • 1:49 - 1:52
    我们总会竭尽所能的改善这些科技。
  • 1:53 - 1:55
    那么,什么会使我们停下脚步呢?
  • 1:56 - 1:58
    一场大规模的核战争?
  • 1:59 - 2:01
    一次全球性的瘟疫?
  • 2:02 - 2:04
    一个小行星撞击了地球?
  • 2:06 - 2:08
    或者是贾斯汀·比伯成为了美国总统?
  • 2:08 - 2:11
    (笑声)
  • 2:13 - 2:17
    重点是,总有一个事物
    会摧毁人类现有的文明。
  • 2:17 - 2:22
    你需要思考这个灾难究竟有多恐怖,
  • 2:22 - 2:25
    才会永久性地阻止我们
  • 2:25 - 2:26
    发展科技,
  • 2:26 - 2:28
    永久性的。
  • 2:28 - 2:30
    光想想它,
    就觉得这将是人类历史上
  • 2:30 - 2:32
    能发生的最惨绝人寰的事了。
  • 2:32 - 2:34
    那么,我们唯一剩下的选择,
  • 2:34 - 2:36
    就藏在第二扇门的后面,
  • 2:36 - 2:39
    那就是我们持续
    改进我们的智能机器,
  • 2:39 - 2:41
    永不停歇。
  • 2:42 - 2:45
    在将来的某一天,我们会
    造出比我们更聪明的机器,
  • 2:46 - 2:48
    一旦我们有了
    比我们更聪明的机器,
  • 2:48 - 2:51
    它们将进行自我改进。
  • 2:51 - 2:54
    然后我们就会承担着
    数学家IJ Good 所说的
  • 2:54 - 2:55
    “智能爆炸”的风险,
  • 2:55 - 2:57
    (科技进步的)
    进程将不再受我们的控制。
  • 2:58 - 3:01
    现在我们时常会看到
    这样一些讽刺漫画,
  • 3:01 - 3:04
    我们总会担心受到一些不怀好意的
  • 3:04 - 3:05
    机器人军队的攻击。
  • 3:05 - 3:08
    但这不是最可能出现的事情。
  • 3:08 - 3:13
    我们的机器不会自动变得邪恶。
  • 3:13 - 3:16
    所以,我们唯一的顾虑就是
    我们将会打造
  • 3:16 - 3:18
    比我们人类更有竞争力的机器。
  • 3:18 - 3:22
    而一旦我们和它们的目标不一致,
  • 3:22 - 3:23
    我们将会被摧毁。
  • 3:24 - 3:26
    想想我们与蚂蚁的关系吧。
  • 3:27 - 3:28
    我们不讨厌它们,
  • 3:28 - 3:30
    我们不会去主动去伤害它们。
  • 3:30 - 3:32
    实际上,我们经常会尽量
    避免伤害蚂蚁。
  • 3:32 - 3:35
    我们会选择从它们身边走过。
  • 3:35 - 3:37
    但只要它们的存在
  • 3:37 - 3:39
    妨碍到了我们达成目标,
  • 3:39 - 3:42
    比如说当我们在建造这样一个建筑,
  • 3:42 - 3:44
    我们会毫不手软地杀掉它们。
  • 3:44 - 3:47
    所以我们的顾虑是,终将有一天
    我们打造的机器,
  • 3:47 - 3:50
    不管它们是否有意识,
    它们终将会以
  • 3:50 - 3:53
    我们对待蚂蚁的方式
    来对待我们。
  • 3:54 - 3:57
    我想很多人会说这很遥远。
  • 3:57 - 4:04
    我打赌你们中有些人还会
    怀疑超级人工智能是否可能实现,
  • 4:04 - 4:05
    认为我是在小题大做。
  • 4:05 - 4:09
    但是你很快会发现以下这些
    假设中的某一个是有问题的。
  • 4:09 - 4:11
    下面是仅有的三种假设:
  • 4:12 - 4:17
    第一,智慧可以被看做
    物理系统中的信息处理过程。
  • 4:17 - 4:20
    事实上,这不仅仅是一个假设。
  • 4:20 - 4:23
    我们已经在有些机器中
    嵌入了智能系统,
  • 4:23 - 4:25
    这些机器中很多已经
  • 4:25 - 4:28
    有着超越普通人的智慧了。
  • 4:29 - 4:31
    而且,我们也知道任何一点小事
  • 4:31 - 4:34
    都可以引发所谓的“普遍智慧”,
  • 4:34 - 4:38
    这是一种可以在不同领域间
    灵活思考的能力,
  • 4:38 - 4:41
    因为我们的大脑已经
    成功做到了这些。对吧?
  • 4:41 - 4:45
    我的意思是,
    大脑里其实都是原子,
  • 4:45 - 4:49
    只要我们继续建造这些原子体系,
  • 4:49 - 4:52
    我们就能实现越来越多的智慧行为,
  • 4:52 - 4:55
    我们最终将会,
    当然除非我们被干扰,
  • 4:55 - 4:58
    我们最终将会给我们的机器赋予
  • 4:58 - 4:59
    广泛意义上的智能。
  • 4:59 - 5:03
    我们要知道这个进程的速度并不重要,
  • 5:03 - 5:06
    因为任何进程都足够
    让我们走进死胡同。
  • 5:06 - 5:10
    甚至不需要考虑摩尔定律,
    也不需要用指数函数来衡量,
  • 5:10 - 5:12
    这一切顺其自然都会发生。
  • 5:13 - 5:16
    第二个假设是,我们会一直创新。
  • 5:17 - 5:20
    去继续改进我们的智能机器。
  • 5:21 - 5:25
    由于智慧的价值就是——
  • 5:25 - 5:29
    提供我们所珍爱的事物,
  • 5:29 - 5:32
    或是用于保护我们所珍视的一切。
  • 5:32 - 5:34
    智慧就是我们最有价值的资源。
  • 5:34 - 5:36
    所以我们想继续革新它。
  • 5:36 - 5:39
    因为我们有很多需要
    迫切解决的问题。
  • 5:39 - 5:42
    我们想要治愈像阿兹海默症
    和癌症这样的疾病,
  • 5:43 - 5:47
    我们想要了解经济系统,
    想要改善我们的气候科学,
  • 5:47 - 5:49
    所以只要可能,
    我们就会将革新继续下去。
  • 5:49 - 5:52
    而且革新的列车早已驶出,
    车上却没有刹车。
  • 5:54 - 5:59
    第三种假设是:
    人类没有登上智慧的巅峰,
  • 5:59 - 6:01
    甚至连接近可能都谈不上。
  • 6:02 - 6:03
    这个想法十分关键。
  • 6:03 - 6:06
    这就是为什么
    我们所处的环境是很危险的,
  • 6:06 - 6:10
    这也是为什么我们对风险的
    直觉是不可靠的。
  • 6:11 - 6:14
    现在,请大家想一下
    谁是世界上最聪明的人。
  • 6:15 - 6:18
    几乎每个人的候选名单里都会
    有约翰·冯·诺伊曼。
  • 6:18 - 6:21
    冯·诺伊曼留给周围人的印象
  • 6:21 - 6:25
    就是他是那个时代当中最杰出的
    数学家和物理学家,
  • 6:25 - 6:27
    这些都是完好的记录在案的。
  • 6:27 - 6:31
    即使他的故事里有一半是假的,
  • 6:31 - 6:32
    都没有人会质疑
  • 6:32 - 6:35
    他仍然是世界上最聪明的人之一。
  • 6:35 - 6:38
    那么,让我们来看看智慧谱线吧。
  • 6:38 - 6:40
    现在我们有了约翰·冯·诺伊曼,
  • 6:42 - 6:43
    还有我们大家。
  • 6:44 - 6:45
    另外还有一只鸡。
  • 6:45 - 6:47
    (笑声)
  • 6:47 - 6:49
    抱歉,母鸡的位置应该在这。
  • 6:49 - 6:50
    (笑声)
  • 6:50 - 6:54
    这个演讲已经够严肃了,
    开个玩笑轻松一下。
  • 6:54 - 6:55
    (笑声)
  • 6:56 - 7:00
    然而,很可能的情况是,
    智慧谱线上的内容
  • 7:00 - 7:03
    已远远超出了我们的认知,
  • 7:04 - 7:07
    如果我们建造了比
    自身更聪明的机器,
  • 7:07 - 7:09
    它们将非常可能
    以超乎寻常的方式
  • 7:09 - 7:11
    延展这个谱线,
  • 7:11 - 7:14
    最终超越人类。
  • 7:15 - 7:19
    仅仅从速度方面考虑,
    我们就能够意识到这一点。
  • 7:19 - 7:24
    那么,现在让我们来想象一下
    我们刚建好一个超级人工智能机器,
  • 7:24 - 7:28
    大概和斯坦福
    或是麻省理工学院的研究员的
  • 7:28 - 7:30
    平均水平差不多吧。
  • 7:30 - 7:33
    但是,电路板要比生物系统
  • 7:33 - 7:34
    运行速度快一百万倍,
  • 7:34 - 7:38
    所以这个机器思考起来
    会比那些打造它的大脑
  • 7:38 - 7:39
    快一百万倍。
  • 7:39 - 7:41
    当你让它运行一周后,
  • 7:41 - 7:46
    它将能呈现出相当于人类智慧在
    20000年间发展出的水平,
  • 7:46 - 7:48
    而这个过程将周而复始。
  • 7:50 - 7:53
    那么,我们又怎么能理解,
    更不用说去制约
  • 7:53 - 7:55
    一个以如此速度运行的机器呢?
  • 7:57 - 7:59
    坦白讲,另一件令人担心的事就是,
  • 7:59 - 8:04
    我们考虑一下最理想的情景。
  • 8:04 - 8:08
    想象我们正好做出了
    一个没有任何安全隐患的
  • 8:08 - 8:10
    超级人工智能。
  • 8:10 - 8:13
    我们有了一个前所未有的完美设计。
  • 8:13 - 8:15
    就好像我们被赐予了一件神物,
  • 8:15 - 8:17
    它能够准确的执行目标动作。
  • 8:17 - 8:21
    这个机器将完美的节省人力工作。
  • 8:22 - 8:24
    它设计出的机器
    能够再生产其他机器,
  • 8:24 - 8:26
    去完成所有的人力工作。
  • 8:26 - 8:27
    由太阳能供电,
  • 8:27 - 8:30
    而成本的多少仅取决于原材料。
  • 8:30 - 8:33
    那么,我们正在谈论的
    就是人力劳动的终结。
  • 8:33 - 8:36
    也关乎脑力劳动的终结。
  • 8:37 - 8:40
    那在这种情况下,
    像我们这样的"大猩猩"还能有什么用呢?
  • 8:40 - 8:44
    我们可以悠闲地玩飞盘,
    给彼此做按摩。
  • 8:46 - 8:49
    服用一些迷药,
    穿一些奇装异服,
  • 8:49 - 8:51
    整个世界都沉浸在狂欢节之中。
  • 8:51 - 8:53
    (笑声)
  • 8:54 - 8:56
    那可能听起来挺棒的,
  • 8:57 - 9:00
    不过让我们扪心自问,
  • 9:00 - 9:02
    在现有的经济和政治体制下,
    这意味着什么?
  • 9:02 - 9:05
    我们很可能会目睹
  • 9:05 - 9:09
    前所未有的贫富差距
  • 9:09 - 9:10
    和失业率。
  • 9:10 - 9:13
    有钱人不愿意马上把这笔新的财富
  • 9:13 - 9:15
    贡献出来服务社会,
  • 9:16 - 9:19
    这时一些千万富翁能够优雅地
    登上商业杂志的封面,
  • 9:19 - 9:22
    而剩下的人可能都在挨饿。
  • 9:22 - 9:25
    如果听说硅谷里的公司
  • 9:25 - 9:27
    即将造出超级人工智能,
  • 9:27 - 9:30
    俄国人和中国人
    会采取怎样的行动呢?
  • 9:30 - 9:33
    那个机器将能够
    以一种前所未有的能力
  • 9:33 - 9:35
    去开展由领土问题和
  • 9:35 - 9:37
    网络问题引发的战争。
  • 9:38 - 9:40
    这是一个胜者为王的世界。
  • 9:40 - 9:43
    机器世界中的半年,
  • 9:43 - 9:46
    在现实世界至少会相当于
  • 9:46 - 9:47
    50万年。
  • 9:47 - 9:52
    所以仅仅是关于这种科技突破的传闻,
  • 9:52 - 9:55
    就可以让我们的种族丧失理智。
  • 9:55 - 9:58
    在我的观念里,
  • 9:58 - 10:00
    当前最可怕的东西
  • 10:00 - 10:05
    正是人工智能的研究人员
  • 10:05 - 10:06
    安慰我们的那些话。
  • 10:07 - 10:10
    最常见的理由就是关于时间。
  • 10:10 - 10:12
    他们会说,现在开始担心还为时尚早。
  • 10:12 - 10:15
    这很可能是50年或者
    100年之后才需要担心的事。
  • 10:16 - 10:17
    一个研究人员曾说过,
  • 10:17 - 10:19
    “担心人工智能的安全性
  • 10:19 - 10:21
    就好比担心火星上人口过多一样。”
  • 10:22 - 10:24
    这就是硅谷版本的
  • 10:24 - 10:26
    “不要杞人忧天。”
  • 10:26 - 10:27
    (笑声)
  • 10:27 - 10:29
    似乎没有人注意到
  • 10:29 - 10:32
    以时间作为参考系
  • 10:32 - 10:35
    是得不出合理的结论的。
  • 10:35 - 10:38
    如果说智慧只包括信息处理,
  • 10:38 - 10:41
    然后我们继续改善这些机器,
  • 10:41 - 10:44
    那么我们终将生产出超级智能。
  • 10:44 - 10:48
    但是,我们无法预估将花费多长时间
  • 10:48 - 10:50
    来创造实现这一切的安全环境。
  • 10:52 - 10:53
    我再重复一遍。
  • 10:53 - 10:57
    我们无法预估将花费多长时间
  • 10:57 - 11:00
    来创造实现这一切的安全环境。
  • 11:01 - 11:04
    你们可能没有注意过,
    50年的概念已今非昔比。
  • 11:04 - 11:07
    这是用月来衡量50年的样子。
    (每个点表示一个月)
  • 11:07 - 11:09
    红色的点是代表苹果手机出现的时间。
  • 11:09 - 11:12
    这是《辛普森一家》(动画片)
    在电视上播出以来的时间。
  • 11:13 - 11:15
    要做好准备面对
    人类历史上前所未有的挑战,
  • 11:15 - 11:18
    50年时间并不是很长。
  • 11:20 - 11:24
    就像我刚才说的,
    我们对确定会来临的事情
  • 11:24 - 11:26
    做出了不合理的回应。
  • 11:26 - 11:30
    计算机科学家斯图尔特·罗素
    给出了一个极好的类比。
  • 11:30 - 11:35
    他说,想象我们从
    外太空接收到一条讯息,
  • 11:35 - 11:37
    上面写着:
  • 11:37 - 11:39
    “地球上的人类,
  • 11:39 - 11:41
    我们将在五十年后到达你们的星球,
  • 11:42 - 11:43
    做好准备吧。”
  • 11:43 - 11:48
    于是我们就开始倒计时,
    直到它们的“母舰”着陆吗?
  • 11:48 - 11:51
    在这种情况下我们会感到更紧迫。
  • 11:53 - 11:55
    另外一个试图安慰我们的理由是,
  • 11:55 - 11:58
    那些机器必须
    拥有和我们一样的价值观,
  • 11:58 - 12:00
    因为它们将会是我们自身的延伸。
  • 12:00 - 12:02
    它们将会被嫁接到我们的大脑上,
  • 12:02 - 12:04
    我们将会成它们的边缘系统。
  • 12:05 - 12:07
    现在我们再思考一下
  • 12:07 - 12:10
    最安全的,也是唯一经慎重考虑后
  • 12:10 - 12:11
    推荐的发展方向,
  • 12:11 - 12:14
    是将这项技术直接植入我们大脑。
  • 12:15 - 12:18
    这也许确实是最安全的,
    也是唯一慎重的发展方向,
  • 12:18 - 12:21
    但通常在我们把它塞进脑袋之前,
  • 12:21 - 12:25
    会充分考虑这项技术的安全性。
  • 12:25 - 12:27
    (笑声)
  • 12:27 - 12:32
    更深一层的问题是:
    仅仅制造出超级人工智能机器
  • 12:32 - 12:34
    可能要比
  • 12:34 - 12:36
    既制造超级人工智能,
  • 12:36 - 12:38
    又让其拥有能让
    我们的思想和超级人工智能
  • 12:38 - 12:41
    无缝对接的完整的
    神经科学系统要简单很多。
  • 12:41 - 12:44
    而做这些研究的公司或政府,
  • 12:44 - 12:48
    很可能将彼此视作竞争对手,
  • 12:48 - 12:51
    因为赢得了比赛就意味着称霸了世界,
  • 12:51 - 12:53
    前提是不在刚成功后就将其销毁,
  • 12:53 - 12:56
    所以结论是:简单的选项
  • 12:56 - 12:57
    一定会被先实现。
  • 12:59 - 13:01
    但很遗憾,
    除了建议更多人去思考这个问题,
  • 13:01 - 13:04
    我对此并无解决方案。
  • 13:04 - 13:06
    我觉得在人工智能问题上,
  • 13:06 - 13:08
    我们需要一个“曼哈顿计划”
    (二战核武器研究计划),
  • 13:08 - 13:11
    不是用于讨论如何制造人工智能,
    因为我们一定会这么做,
  • 13:11 - 13:15
    而是去避免军备竞赛,
  • 13:15 - 13:18
    最终以一种有利于
    我们的方式去打造它。
  • 13:18 - 13:20
    当你在谈论一个可以自我改造的
  • 13:20 - 13:23
    超级人工智能时,
  • 13:23 - 13:27
    我们似乎只有
    一次正确搭建初始系统的机会,
  • 13:27 - 13:29
    而这个正确的初始系统
  • 13:29 - 13:32
    需要我们在经济以及政治上
    做出很大的努力。
  • 13:34 - 13:36
    但是当我们承认
  • 13:36 - 13:40
    信息处理是智慧的源头,
  • 13:41 - 13:46
    承认一些电脑系统是智能的基础,
  • 13:46 - 13:50
    承认我们会不断改善这些系统,
  • 13:51 - 13:56
    承认我们现存的认知远没有达到极限,
  • 13:56 - 13:57
    将很可能被超越,
  • 13:58 - 13:59
    我们又必须同时承认
  • 13:59 - 14:02
    我们在某种意义上
    正在创造一个新的“上帝”。
  • 14:03 - 14:05
    现在正是思考人类是否
  • 14:05 - 14:08
    能与这个“上帝”和睦相处的最佳时机。
  • 14:08 - 14:09
    非常感谢!
  • 14:09 - 14:15
    (掌声)
Title:
我们能打造人工智能且同时掌握控制权吗?
Speaker:
山姆·哈里斯
Description:

你害怕超级人工智能吗?神经科学家兼哲学家山姆·哈里斯说:你应该害怕。而且这种害怕不应仅仅只停留在理论层面上。他说,我们将要打造超越人类的机器,它们将会像我们对待蚂蚁那样对待我们。然而针对这样的问题,我们却仍未能给出一个让人满意的答案。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Chinese, Simplified subtitles

Revisions