WEBVTT 00:00:00.750 --> 00:00:04.660 在我还是孩子的时候 , 我是一个典型的书呆子。 00:00:05.440 --> 00:00:07.546 我猜你们的一部分人和我一样。 NOTE Paragraph 00:00:07.546 --> 00:00:08.776 (笑声) NOTE Paragraph 00:00:08.776 --> 00:00:12.026 还有你,那位先生,笑得最大声, 说不定你现在还是呢。 NOTE Paragraph 00:00:12.026 --> 00:00:14.306 (笑声) NOTE Paragraph 00:00:14.306 --> 00:00:17.826 我成长在德克萨斯州北部 荒凉平原上的一个小镇。 00:00:17.826 --> 00:00:21.166 我的爸爸是警长,爷爷是一位牧师, 00:00:21.166 --> 00:00:23.800 所以自找麻烦从来不是一个好的选项。 00:00:24.040 --> 00:00:27.336 所以我开始看有关 微积分的书来打发时间。 NOTE Paragraph 00:00:27.336 --> 00:00:28.916 (笑声) NOTE Paragraph 00:00:28.916 --> 00:00:30.626 你也是这样。 00:00:30.626 --> 00:00:34.386 于是我学着制作了一个激光器, 一台电脑,和一个火箭模型, 00:00:34.386 --> 00:00:37.360 并且在自己的卧室制取火箭燃料。 00:00:37.960 --> 00:00:41.656 现在,从科学的角度而言, 00:00:41.656 --> 00:00:44.936 我们把这个叫做 一个糟糕透顶的主意。 NOTE Paragraph 00:00:44.936 --> 00:00:46.176 (笑声) NOTE Paragraph 00:00:46.176 --> 00:00:48.376 在差不多同一时间, 00:00:48.376 --> 00:00:51.616 Stanley Kubrick的 “2001:太空漫游”上映了, 00:00:51.616 --> 00:00:54.360 我的生活从此改变。 00:00:54.360 --> 00:00:56.366 我喜欢关于那部电影的一切, 00:00:56.366 --> 00:00:58.936 特别是 HAL 9000。 00:00:58.936 --> 00:01:01.016 HAL是一台有情感的电脑, 00:01:01.016 --> 00:01:03.496 为引导“发现一号”飞船从地球 00:01:03.496 --> 00:01:06.066 前往木星而设计出来。 00:01:06.066 --> 00:01:08.136 HAL 也是一个有缺陷的角色, 00:01:08.136 --> 00:01:13.020 因为在结尾他将任务的 价值置于生命之上。 00:01:13.020 --> 00:01:14.996 HAL 是一个虚构的角色, 00:01:14.996 --> 00:01:17.656 但尽管如此,他挑战了我们的恐惧, 00:01:17.656 --> 00:01:19.786 被一些冷漠无情的 00:01:19.786 --> 00:01:22.856 人工智能(AI) 00:01:22.856 --> 00:01:24.760 所统治的恐惧。 NOTE Paragraph 00:01:25.880 --> 00:01:28.450 但我相信这些恐惧只是杞人忧天。 00:01:28.450 --> 00:01:31.080 的确,我们正处于人类历史上 00:01:31.080 --> 00:01:32.720 一个值得铭记的时间点, 00:01:32.720 --> 00:01:37.720 不甘被自身肉体和头脑所局限, 00:01:37.720 --> 00:01:39.440 我们正在制造 00:01:39.440 --> 00:01:43.146 那些可以通过我们无法想象的方式 00:01:43.146 --> 00:01:45.226 来拓展人类体验的机器, 00:01:45.226 --> 00:01:46.880 它们精美,复杂,而且优雅。 NOTE Paragraph 00:01:47.720 --> 00:01:50.336 我在空军学院 00:01:50.336 --> 00:01:52.286 和航天司令部工作过, 00:01:52.286 --> 00:01:54.016 现在是一个系统工程师。 00:01:54.016 --> 00:01:56.796 最近我碰到了一个和 NASA火星任务相关的 00:01:56.796 --> 00:01:59.386 工程问题。 00:01:59.386 --> 00:02:01.946 当前,前往月球的宇宙飞行, 00:02:01.946 --> 00:02:05.046 我们可以依靠休斯顿的指挥中心 00:02:05.046 --> 00:02:07.036 来密切关注飞行的各个方面。 00:02:07.046 --> 00:02:10.656 但是,火星相比而言 多出了200倍的距离, 00:02:10.656 --> 00:02:13.906 这使得一个信号从地球到火星 00:02:13.906 --> 00:02:17.016 平均要花费13分钟。 00:02:17.016 --> 00:02:20.400 如果有了麻烦, 我们并没有足够的时间来解决。 00:02:20.840 --> 00:02:23.376 所以一个可靠的工程解决方案 00:02:23.376 --> 00:02:25.956 促使我们把一个指挥中枢 00:02:25.960 --> 00:02:29.046 放在“猎户星”飞船之中。 00:02:29.046 --> 00:02:31.936 在任务档案中的另一个创意 00:02:31.936 --> 00:02:34.846 是在人类抵达火星之前,把人形机器人 00:02:34.846 --> 00:02:36.786 先一步放在火星表面, 00:02:36.786 --> 00:02:38.370 它们可以先建造据点, 00:02:38.370 --> 00:02:41.760 然后作为科学团队的合作伙伴驻扎。 NOTE Paragraph 00:02:43.400 --> 00:02:46.186 当我从工程师的角度看待这个想法, 00:02:46.186 --> 00:02:49.356 对于建造一个聪明,懂得合作, 00:02:49.360 --> 00:02:51.566 擅长社交的人工智能的需求 00:02:51.566 --> 00:02:53.936 是十分明显的。 00:02:53.940 --> 00:02:58.296 换句话说,我需要建造一个和HAL一样, 00:02:58.296 --> 00:03:00.746 但是没有谋杀倾向的机器。 NOTE Paragraph 00:03:00.746 --> 00:03:02.080 (笑声) NOTE Paragraph 00:03:02.920 --> 00:03:04.766 待会儿再回到这个话题。 00:03:04.766 --> 00:03:08.686 真的有可能打造一个 类似的人工智能吗? 00:03:08.686 --> 00:03:10.136 是的,当然可以。 00:03:10.140 --> 00:03:11.416 在许多方面, 00:03:11.420 --> 00:03:13.400 一个困难的工程问题来自于 00:03:13.400 --> 00:03:14.880 AI的各个零件, 00:03:14.880 --> 00:03:19.590 而不是什么琐碎的AI问题。 00:03:19.590 --> 00:03:22.270 借用Alan Turing的话来说, 00:03:22.270 --> 00:03:24.690 我没有兴趣建造一台有情感的机器。 00:03:24.690 --> 00:03:26.296 我不是要建造HAL。 00:03:26.300 --> 00:03:28.710 我只想要一个简单的大脑, 00:03:28.710 --> 00:03:31.880 一个能让你以为它有智能的东西。 NOTE Paragraph 00:03:33.000 --> 00:03:36.110 自从HAL登上荧幕, 关于编程的技术和艺术 00:03:36.110 --> 00:03:37.620 已经发展了许多, 00:03:37.620 --> 00:03:40.870 我能想象如果它的发明者 Chandra博士今天在这里的话, 00:03:40.870 --> 00:03:43.250 他会有很多的问题问我们。 00:03:43.250 --> 00:03:45.360 我们真的可能 00:03:45.360 --> 00:03:49.410 用一个连接了无数设备的系统, 00:03:49.410 --> 00:03:50.870 通过读取数据流, 00:03:50.870 --> 00:03:53.140 来预测它们的失败并提前行动吗? 00:03:53.140 --> 00:03:54.350 是的。 00:03:54.350 --> 00:03:57.560 我们能建造一个和人类 用语言交流的系统吗? 00:03:57.560 --> 00:03:58.480 能。 00:03:58.480 --> 00:04:01.850 我们能够打造一个能 辨识目标,鉴别情绪, 00:04:01.850 --> 00:04:05.230 表现自身情感,打游戏, 甚至读唇的系统吗? 00:04:05.230 --> 00:04:06.330 可以。 00:04:06.330 --> 00:04:08.600 我们可以建造一个能设定目标, 00:04:08.600 --> 00:04:12.230 通过各种达成目的的 方法来学习的系统吗? 00:04:12.230 --> 00:04:13.420 也可以。 00:04:13.420 --> 00:04:16.790 我们可以建造一个类似人脑的系统吗? 00:04:16.790 --> 00:04:18.330 这是我们正在努力做的。 00:04:18.330 --> 00:04:21.920 我们可以建造一个有道德 和感情基础的系统吗? 00:04:22.480 --> 00:04:24.520 这是我们必须要学习的。 00:04:25.360 --> 00:04:26.700 总而言之, 00:04:26.700 --> 00:04:29.620 建造一个类似的用于这类任务的 00:04:29.620 --> 00:04:31.780 人工智能是可行的。 NOTE Paragraph 00:04:31.780 --> 00:04:34.330 另一个你必须扪心自问的问题是, 00:04:34.330 --> 00:04:35.830 我们应该害怕它吗? 00:04:35.830 --> 00:04:37.830 毕竟,每一种新技术 00:04:37.830 --> 00:04:40.730 都给我们带来某种程度的不安。 00:04:40.730 --> 00:04:42.470 我们第一次看见汽车的时候, 00:04:42.470 --> 00:04:46.510 人们悲叹我们会看到家庭的毁灭。 00:04:46.510 --> 00:04:49.250 我们第一次看见电话的时候, 00:04:49.250 --> 00:04:52.150 人们担忧这会破坏所有的文明交流。 00:04:52.150 --> 00:04:56.110 在某个时间点我们看到书写文字的蔓延, 00:04:56.110 --> 00:04:58.650 人们认为我们会丧失记忆的能力。 00:04:58.650 --> 00:05:00.710 这些在某个程度上是合理的, 00:05:00.710 --> 00:05:03.160 但也正是这些技术 00:05:03.160 --> 00:05:06.540 给人类的生活在某些方面 00:05:06.540 --> 00:05:08.480 带来了前所未有的体验。 NOTE Paragraph 00:05:09.840 --> 00:05:12.120 我们再稍稍扩展一下。 00:05:13.120 --> 00:05:17.840 我并不畏惧这类人工智能的诞生, 00:05:17.840 --> 00:05:21.696 因为它最终会融入我们的部分价值观。 00:05:21.700 --> 00:05:25.210 想想这个:建造一个认知系统 00:05:25.210 --> 00:05:28.576 与建造一个以传统的软件为主的 系统有着本质的不同。 00:05:28.576 --> 00:05:31.010 我们不编译它们。我们教导它们。 00:05:31.010 --> 00:05:33.670 为了教会系统如何识别花朵, 00:05:33.670 --> 00:05:36.730 我给它看了上千种我喜欢的花。 00:05:36.730 --> 00:05:39.010 为了教会系统怎么打游戏—— 00:05:39.010 --> 00:05:41.000 当然,我会。你们也会。 00:05:42.600 --> 00:05:44.640 我喜欢花。这没什么。 00:05:45.440 --> 00:05:48.280 为了教会系统如何玩像围棋一样的游戏, 00:05:48.280 --> 00:05:50.370 我玩了许多围棋的游戏, 00:05:50.370 --> 00:05:52.030 但是在这个过程中 00:05:52.030 --> 00:05:54.470 我也教会它如何分别差游戏和好游戏。 00:05:54.470 --> 00:05:58.210 如果我想要一个人工智能法律助手, 00:05:58.210 --> 00:06:00.016 我会给它一些法律文集, 00:06:00.020 --> 00:06:02.896 但同时我会将 怜悯和正义 00:06:02.900 --> 00:06:06.500 也是法律的一部分 这种观点融入其中。 00:06:06.500 --> 00:06:09.800 用一个术语来解释, 就是我们所说的真相, 00:06:09.800 --> 00:06:11.550 而关键在于: 00:06:11.550 --> 00:06:13.106 为了制造这些机器, 00:06:13.106 --> 00:06:16.546 我们正教给它们我们的价值观。 00:06:16.546 --> 00:06:19.650 正因如此,我相信一个人工智能 00:06:19.650 --> 00:06:23.320 绝不逊于一个经过良好训练的人类。 NOTE Paragraph 00:06:24.080 --> 00:06:25.346 但是,你或许会问, 00:06:25.346 --> 00:06:27.976 要是流氓组织, 00:06:27.976 --> 00:06:31.336 和资金充沛的无政府组织 也在利用它们呢? 00:06:31.336 --> 00:06:35.136 我并不害怕独狼掌控的人工智能。 00:06:35.140 --> 00:06:39.690 很明显,我们无法从 随机的暴力行为中保护自己, 00:06:39.690 --> 00:06:41.916 但是现实是,制造这样一个系统 00:06:41.916 --> 00:06:45.026 超越了个人所拥有资源的极限, 00:06:45.026 --> 00:06:47.396 因为它需要踏实细致的训练和培养。 00:06:47.396 --> 00:06:48.230 还有, 00:06:48.230 --> 00:06:51.780 这远比向世界散播一个网络病毒, 00:06:51.780 --> 00:06:54.750 比如你按下一个按钮, 瞬间全世界都被感染, 00:06:54.750 --> 00:06:57.390 并且在各处的笔记本电脑中 开始爆发来的复杂。 00:06:57.390 --> 00:07:00.336 这类东西正在越来越强大, 00:07:00.336 --> 00:07:01.995 我们必然会看到它们的来临。 NOTE Paragraph 00:07:02.520 --> 00:07:05.656 我会害怕一个有可能威胁所有人类的 00:07:05.656 --> 00:07:07.560 人工智能吗? 00:07:08.280 --> 00:07:12.630 如果你看过《黑客帝国》,《大都会》, 00:07:12.630 --> 00:07:15.830 《终结者》,或者 《西部世界》这类电视剧, 00:07:15.830 --> 00:07:18.000 它们都在表达这种恐惧。 00:07:18.000 --> 00:07:22.310 的确,在哲学家Nick Bostrom 写的《超级智能》中, 00:07:22.310 --> 00:07:23.880 他选择了这个主题, 00:07:23.880 --> 00:07:27.930 并且观察到超级智能不仅仅危险, 00:07:27.930 --> 00:07:31.800 它还对所有人类的存在造成了威胁。 00:07:31.800 --> 00:07:34.050 Bostrom博士的基础观点认为, 00:07:34.050 --> 00:07:36.800 这样的系统迟早会 00:07:36.800 --> 00:07:40.060 产生对信息的无止境渴求, 00:07:40.060 --> 00:07:42.990 也许它们会开始学习, 00:07:42.990 --> 00:07:45.610 并且最终发现它们的目的 00:07:45.610 --> 00:07:47.960 和人类的需求背道而驰。 00:07:47.960 --> 00:07:49.850 Bostrom博士有一群粉丝。 00:07:49.850 --> 00:07:54.200 Elon Musk和Stephen Hawking也支持他。 00:07:54.880 --> 00:07:57.280 虽然要向这些伟大的头脑 00:07:58.160 --> 00:08:00.140 致以崇高的敬意, 00:08:00.140 --> 00:08:02.450 但我还是相信他们从一开始就错了。 00:08:02.450 --> 00:08:05.996 Bostrom博士的观点 有很多地方可以细细体会, 00:08:05.996 --> 00:08:07.846 但现在我没有时间一一解读, 00:08:07.846 --> 00:08:10.566 简要而言,请考虑这句话: 00:08:10.566 --> 00:08:14.280 全知并非全能。 00:08:14.280 --> 00:08:16.210 HAL成为了对发现一号成员的威胁, 00:08:16.210 --> 00:08:20.650 只是因为它控制了 发现一号的各个方面。 00:08:20.650 --> 00:08:23.170 正因如此它才需要是一个人工智能。 00:08:23.170 --> 00:08:25.650 它需要对于我们世界的完全掌控。 00:08:25.650 --> 00:08:28.510 这就是《终结者》中的天网, 00:08:28.510 --> 00:08:30.380 一个控制了人们意志, 00:08:30.380 --> 00:08:31.956 控制了世界各处 00:08:31.956 --> 00:08:35.690 各个机器的超级智能。 00:08:35.690 --> 00:08:37.170 说实在的, 00:08:37.170 --> 00:08:39.280 这完全是杞人忧天。 00:08:39.280 --> 00:08:42.360 我们不是在制造可以控制天气, 00:08:42.360 --> 00:08:43.730 引导潮水, 00:08:43.730 --> 00:08:47.186 指挥我们这些 多变,混乱的人类的人工智能。 00:08:47.186 --> 00:08:51.050 另外,即使这类人工智能存在, 00:08:51.050 --> 00:08:54.010 它需要和人类的经济竞争, 00:08:54.010 --> 00:08:56.560 进而和我们拥有的资源竞争。 00:08:57.200 --> 00:08:58.390 最后—— 00:08:58.390 --> 00:08:59.680 不要告诉Siri—— 00:09:00.380 --> 00:09:01.896 我们可以随时拔掉电源。 NOTE Paragraph 00:09:01.896 --> 00:09:03.960 (笑声) NOTE Paragraph 00:09:05.360 --> 00:09:07.886 我们正处于和机器共同演化的 00:09:07.886 --> 00:09:10.426 奇妙旅途之中。 00:09:10.426 --> 00:09:12.820 未来的人类 00:09:12.820 --> 00:09:15.410 将与今天的人类大相径庭。 00:09:15.410 --> 00:09:18.636 当前对人工智能崛起的担忧, 00:09:18.636 --> 00:09:21.620 从各方面来说都是 一个危险的错误指引, 00:09:21.620 --> 00:09:24.000 因为电脑的崛起 00:09:24.000 --> 00:09:27.106 带给了我们许多必须参与的 00:09:27.106 --> 00:09:28.720 关乎人类和社会的问题。 00:09:29.360 --> 00:09:32.130 我应该如何管理社会 00:09:32.130 --> 00:09:34.556 来应对人类劳工需求量的降低? 00:09:34.560 --> 00:09:38.370 我应该怎样在进行全球化 交流和教育的同时, 00:09:38.370 --> 00:09:40.170 依旧尊重彼此的不同? 00:09:40.170 --> 00:09:44.536 我应该如何通过可认知医疗 来延长并强化人类的生命? 00:09:44.536 --> 00:09:47.330 我应该如何通过计算机 00:09:47.330 --> 00:09:49.120 来帮助我们前往其他星球? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 这些都很令人兴奋。 00:09:52.400 --> 00:09:54.710 通过计算机来升级 00:09:54.710 --> 00:09:56.386 人类体验的机会 00:09:56.386 --> 00:09:57.730 就在我们手中, 00:09:57.730 --> 00:09:59.600 就在此时此刻, 00:09:59.600 --> 00:10:01.320 我们的旅途才刚刚开始。 NOTE Paragraph 00:10:02.280 --> 00:10:03.496 谢谢大家。 NOTE Paragraph 00:10:03.500 --> 00:10:07.806 (掌声)