WEBVTT 00:00:01.765 --> 00:00:04.765 人工智能, 00:00:04.789 --> 00:00:08.318 以能颠覆所有行业广为人知。 00:00:08.961 --> 00:00:11.004 那冰淇淋呢? 00:00:11.879 --> 00:00:15.518 我们是否能利用先进的人工智能 00:00:15.542 --> 00:00:18.518 生成令人震惊的新口味呢? 00:00:19.011 --> 00:00:23.172 我和 Kealing 中学的程序员组了个队 00:00:23.196 --> 00:00:25.437 想要找到答案。 00:00:25.461 --> 00:00:30.542 他们收集了超过 1600 种 现有的冰淇淋口味, 00:00:30.566 --> 00:00:36.088 接着我们一起把这些口味输入 到算法中看看会有什么结果。 00:00:36.112 --> 00:00:39.865 接下来给大家展示一些 人工智能所想到的口味。 NOTE Paragraph 00:00:40.444 --> 00:00:41.915 【南瓜垃圾破裂】 NOTE Paragraph 00:00:41.939 --> 00:00:43.341 (笑声) NOTE Paragraph 00:00:43.365 --> 00:00:45.834 【花生酱稀泥】 NOTE Paragraph 00:00:46.822 --> 00:00:48.165 【草莓奶油病】 NOTE Paragraph 00:00:48.189 --> 00:00:50.315 (笑声) NOTE Paragraph 00:00:50.339 --> 00:00:54.936 这些口味听起来并没有 我们想象中美味。 00:00:54.960 --> 00:00:56.824 所以问题来了:怎么回事? 00:00:56.848 --> 00:00:58.242 到底哪里出问题了? 00:00:58.266 --> 00:01:00.225 人工智能是想要干掉我们? 00:01:01.027 --> 00:01:05.337 还是说它努力想要回应 我们的要求,但是却出问题了? NOTE Paragraph 00:01:06.567 --> 00:01:09.031 在电影中,当人工智能出了错, 00:01:09.055 --> 00:01:11.767 通常是因为它们决定 00:01:11.791 --> 00:01:14.063 再也不要听从人类的指令, 00:01:14.087 --> 00:01:16.710 它开始有了自己的目标, 不劳驾人类了。 00:01:17.266 --> 00:01:20.482 然而现实生活中, 我们现有的人工智能 00:01:20.506 --> 00:01:22.369 还没达到那样的水平。 00:01:22.781 --> 00:01:25.763 它的计算能力大概跟 00:01:25.787 --> 00:01:27.063 一条小虫子差不多, 00:01:27.087 --> 00:01:30.490 又或者顶多只是一只小蜜蜂, 00:01:30.514 --> 00:01:32.729 实际上可能更弱。 00:01:32.753 --> 00:01:35.347 我们持续从大脑学习到新事物, 00:01:35.371 --> 00:01:39.731 使我们越来越清楚人工智能 与真正的大脑之间的距离。 00:01:39.755 --> 00:01:45.418 现在人工智能所达到的大体就是 在图片中识别出行人的程度, 00:01:45.442 --> 00:01:48.425 但是它并没有 对于行人的概念, 00:01:48.449 --> 00:01:53.273 除此之外它所做的只是 收集线条,质地之类的信息。 00:01:53.792 --> 00:01:56.313 但是它并不知道人类到底是什么。 00:01:56.822 --> 00:02:00.104 那么现在的人工智能 能否达到我们的要求? 00:02:00.128 --> 00:02:01.722 能力允许的情况下它会, 00:02:01.746 --> 00:02:04.472 但是它所做的可能 并不是我们真正想要的。 NOTE Paragraph 00:02:04.496 --> 00:02:06.911 假设你想要用人工智能 00:02:06.935 --> 00:02:09.554 利用一堆机器人的零件 00:02:09.578 --> 00:02:13.775 组装成一个机器人 从 A 点移动到 B 点。 00:02:13.799 --> 00:02:16.280 如果你想要通过编写 一个传统的计算机程序 00:02:16.304 --> 00:02:18.655 来解决这个问题, 00:02:18.679 --> 00:02:22.096 你需要输入一步步的指令, 00:02:22.120 --> 00:02:23.449 指示它怎样拿起零件, 00:02:23.473 --> 00:02:25.880 怎样把这些零件安装成 一个带脚的机器人, 00:02:25.904 --> 00:02:28.846 以及如何用脚走到 B 点。 00:02:29.441 --> 00:02:31.781 但是当你利用人工智能 来解决这个问题的时候, 00:02:31.805 --> 00:02:32.979 情况不太一样。 00:02:33.003 --> 00:02:35.385 你不用告诉它 要怎样解决问题, 00:02:35.409 --> 00:02:36.888 你只需要给它一个目标, 00:02:36.912 --> 00:02:40.174 它会通过试错 来解决这个问题, 00:02:40.198 --> 00:02:41.682 来实现目标。 00:02:42.254 --> 00:02:46.356 结果是,貌似人工智能在 解决这一类问题的时候 00:02:46.380 --> 00:02:47.864 会这么做: 00:02:47.888 --> 00:02:51.255 它把自己搭建成 一座塔然后倾倒, 00:02:51.279 --> 00:02:53.106 最后在 B 点落下。 00:02:53.130 --> 00:02:55.959 从技术的层面上看,的确解决了问题。 00:02:55.983 --> 00:02:57.622 从技术上来说的确到达了 B 点。 00:02:57.646 --> 00:03:01.911 人工智能的危险 不在于它会反抗我们, 00:03:01.935 --> 00:03:06.209 而是它们会严格按照 我们的要求去做。 00:03:06.876 --> 00:03:09.374 所以和人工智能共事的技巧变成了: 00:03:09.398 --> 00:03:13.226 我们该如何设置问题才能让它 做我们真正想做的事? NOTE Paragraph 00:03:14.726 --> 00:03:18.032 这一台小机器人 由人工智能操控。 00:03:18.056 --> 00:03:20.870 人工智能想到了一个 机器人脚部的设计, 00:03:20.894 --> 00:03:24.972 然后想到了如何 利用它们绕过障碍。 00:03:24.996 --> 00:03:27.737 但是当大卫·哈 在做这个实验的时候, 00:03:27.761 --> 00:03:30.617 他不得不对人工智能 容许搭建起来的脚 00:03:30.641 --> 00:03:33.933 设立非常、非常严格的限制, 00:03:33.957 --> 00:03:35.507 不然的话... NOTE Paragraph 00:03:43.058 --> 00:03:46.989 (笑声) NOTE Paragraph 00:03:48.563 --> 00:03:52.308 从技术上说,他的确 到达了障碍路线的终点。 00:03:52.332 --> 00:03:57.274 现在我们知道了,仅仅是让人工智能 实现简单的行走就有多困难。 NOTE Paragraph 00:03:57.298 --> 00:04:01.118 当看到人工智能这么做的时候, 你可能会说,这不公平。 00:04:01.142 --> 00:04:03.722 你不能只是变成 一座塔然后直接倒下, 00:04:03.746 --> 00:04:07.181 你必须得用脚去走路, 00:04:07.205 --> 00:04:09.964 结果是, 那往往也不行。 00:04:09.988 --> 00:04:12.747 这个人工智能的任务是快速移动。 00:04:13.115 --> 00:04:16.708 他们没有说它应该面向前方奔跑, 00:04:16.732 --> 00:04:18.990 也没有说不能使用它的手臂。 00:04:19.487 --> 00:04:24.105 这就是当你训练人工智能 快速移动时所能得到的结果, 00:04:24.129 --> 00:04:27.663 你能得到的就是像这样的 空翻或者滑稽漫步。 00:04:27.687 --> 00:04:29.087 太常见了。 00:04:29.667 --> 00:04:32.846 在地板上扭动前进 也是一样的结果。 NOTE Paragraph 00:04:32.870 --> 00:04:34.020 (笑声) NOTE Paragraph 00:04:35.241 --> 00:04:38.495 在我看来,更奇怪的 00:04:38.519 --> 00:04:39.915 就是“终结者”机器人。 00:04:40.256 --> 00:04:44.011 要是有可能的话,人工智能 还真会入侵“黑客帝国"。 00:04:44.035 --> 00:04:46.552 如果你用仿真环境 训练一个人工智能的话, 00:04:46.576 --> 00:04:50.689 它会学习如何入侵到 一个仿真环境中的数学错误里, 00:04:50.713 --> 00:04:52.920 并从中获得能量。 00:04:52.944 --> 00:04:58.419 或者会计算出如何通过 不断地在地板上打滑来加快速度。 00:04:58.443 --> 00:05:00.028 当你和人工智能一起工作的时候, 00:05:00.052 --> 00:05:02.441 不太像是在跟另一个人一起工作, 00:05:02.465 --> 00:05:06.094 而更像是在和某种 奇怪的自然力量工作。 00:05:06.562 --> 00:05:11.185 一不小心就很容易让人工 智能去破解错误的问题, 00:05:11.209 --> 00:05:15.747 往往直到出现问题 我们才察觉到不妥。 NOTE Paragraph 00:05:16.242 --> 00:05:18.322 所以我做了这样的一个实验, 00:05:18.346 --> 00:05:21.528 我想要让人工智能 利用左边的颜色列表 00:05:21.552 --> 00:05:23.298 复制颜料颜色, 00:05:23.322 --> 00:05:26.309 去创造新的颜色。 00:05:26.798 --> 00:05:29.802 这就是人工智能想到的结果。 NOTE Paragraph 00:05:29.826 --> 00:05:32.969 【辛迪斯粪便,如粪球般, 受难,灰色公众】 NOTE Paragraph 00:05:32.993 --> 00:05:37.223 (笑声) NOTE Paragraph 00:05:39.177 --> 00:05:41.063 基本上, 00:05:41.087 --> 00:05:42.951 它达到了我的要求。 00:05:42.975 --> 00:05:46.283 我以为我给出的要求是, 让它想出美好的颜色名, 00:05:46.307 --> 00:05:48.614 但是实际上我让它做的 00:05:48.638 --> 00:05:51.724 只是单纯地模仿 字母的组合, 00:05:51.748 --> 00:05:53.653 那些它在输入中见到的字母组合。 00:05:53.677 --> 00:05:56.775 而且我并没有告诉它 这些单词的意思是什么, 00:05:56.799 --> 00:05:59.359 或者告诉它也许有些单词 00:05:59.383 --> 00:06:02.272 不能用来给颜色命名。 00:06:03.141 --> 00:06:06.635 也就是说它的整个世界里 只有我给出的数据。 00:06:06.659 --> 00:06:10.687 正如让它发明冰淇淋的口味那样, 它除此之外一无所知。 NOTE Paragraph 00:06:12.491 --> 00:06:14.129 也就是通过数据, 00:06:14.153 --> 00:06:18.197 我们常常不小心 让人工智能做错事。 00:06:18.694 --> 00:06:21.726 有一种叫丁鲷的鱼, 00:06:21.750 --> 00:06:23.565 一群研究者尝试过 00:06:23.589 --> 00:06:27.463 训练人工智能去 识别图片里的丁鲷。 00:06:27.487 --> 00:06:28.783 但是当他们试图搞清 00:06:28.807 --> 00:06:32.233 它到底用了图片的 哪个部分去识别这种鱼, 00:06:32.257 --> 00:06:33.615 这是它所显示的部分。 00:06:35.203 --> 00:06:37.392 没错,那些是人类的手指。 00:06:37.416 --> 00:06:39.475 为什么它会去识别人类的手指, 00:06:39.499 --> 00:06:41.420 而不是鱼呢? 00:06:42.126 --> 00:06:45.290 因为丁鲷实际上是一种战利品鱼, 00:06:45.314 --> 00:06:49.125 所以人工智能在被训练时, 00:06:49.149 --> 00:06:50.300 看过的大多数照片中 00:06:50.324 --> 00:06:51.814 鱼都长这样。 NOTE Paragraph 00:06:51.838 --> 00:06:53.473 (笑声) NOTE Paragraph 00:06:53.497 --> 00:06:56.827 而人工智能并不知道原来 手指并不是鱼的一部分。 NOTE Paragraph 00:06:58.808 --> 00:07:02.928 现在你们应该能想象, 设计一个能真正懂得 00:07:02.952 --> 00:07:06.271 自己在做什么的人工 智能是多么困难。 00:07:06.295 --> 00:07:09.157 这也就是为什么 给无人驾驶汽车 00:07:09.181 --> 00:07:11.248 设计图像识别技术那么困难, 00:07:11.272 --> 00:07:13.477 导致无人驾驶失败的原因 00:07:13.501 --> 00:07:16.386 就是,人工智能迷糊了。 00:07:16.410 --> 00:07:20.418 接下来我想分享一个 发生在 2016 年的故事。 00:07:20.442 --> 00:07:24.897 有人在使用特斯拉的 自动驾驶功能时发生了特大事故, 00:07:24.921 --> 00:07:28.335 因为这个人工智能是 为上高速路而设计的, 00:07:28.359 --> 00:07:30.564 结果车主居然开到市内街道上。 00:07:31.239 --> 00:07:32.234 结果是, 00:07:32.234 --> 00:07:35.834 一辆卡车突然出现在轿车前面, 而轿车没有刹车。 00:07:36.507 --> 00:07:41.269 当然这个人工智能受过训练, 能识别图片中的卡车。 00:07:41.293 --> 00:07:43.438 但是当时的情况看起来, 00:07:43.462 --> 00:07:46.393 人工智能接受的训练是 识别行驶在高速路上的卡车, 00:07:46.417 --> 00:07:49.316 理论上你看到的应该是卡车的尾部, 00:07:49.340 --> 00:07:52.760 而侧面对着你的卡车 是不会出现在高速路上的, 00:07:52.784 --> 00:07:56.239 所以当人工智能看到这辆卡车的时候, 00:07:56.263 --> 00:08:01.090 可能把卡车认作一个路标, 00:08:01.114 --> 00:08:03.387 因此,它判断 从下面开过去是安全的。 NOTE Paragraph 00:08:04.114 --> 00:08:06.694 接下来是人工智能在 另一个领域的错误示例。 00:08:06.718 --> 00:08:10.178 亚马逊最近不得不放弃 一个他们已经开发了一段时间 00:08:10.202 --> 00:08:11.292 的简历分类的算法, 00:08:11.292 --> 00:08:15.024 因为他们发现这个算法 竟然学会了歧视女性。 00:08:15.024 --> 00:08:18.094 原因是当他们把过去招聘人员的简历 00:08:18.118 --> 00:08:20.360 用作人工智能的训练材料。 00:08:20.384 --> 00:08:24.137 从这些素材中,人工智能学会了 怎样过滤一些应聘者的简历, 00:08:24.137 --> 00:08:26.457 那些上过女子大学的 00:08:26.481 --> 00:08:29.287 或者是那些含有 “女性”字眼的简历, 00:08:29.311 --> 00:08:33.887 比如说“女子足球队” 或者“女性工程师学会”。 00:08:33.911 --> 00:08:37.885 人工智能并不知道自己 不应该复制他所见过的 00:08:37.909 --> 00:08:39.887 人类这种特定的行为。 00:08:39.911 --> 00:08:43.088 从技术层面上说, 它的确按要求做到了。 00:08:43.112 --> 00:08:45.909 只是开发者不小心 下错了指令。 NOTE Paragraph 00:08:46.653 --> 00:08:49.548 这样的情况在人工智能领域屡见不鲜。 00:08:50.120 --> 00:08:53.711 人工智能破坏力惊人且不自知。 00:08:53.735 --> 00:08:58.813 就如用于脸书和油管上 内容推荐的人工智能, 00:08:58.837 --> 00:09:02.376 它们被优化以增加 点击量和阅览量。 00:09:02.400 --> 00:09:05.836 但是不幸的是,它们实现 目标的其中一个手段, 00:09:05.860 --> 00:09:10.363 就是推荐阴谋论或者偏执内容。 00:09:10.902 --> 00:09:16.204 人工智能本身对这些内容没有概念, 00:09:16.228 --> 00:09:19.623 也根本不知道推荐这样的内容 00:09:19.647 --> 00:09:21.756 会产生怎样的后果。 NOTE Paragraph 00:09:22.296 --> 00:09:24.307 所以当我们与人工智能 一起工作的时候, 00:09:24.331 --> 00:09:28.513 我们有责任去规避问题。 00:09:28.537 --> 00:09:30.860 规避可能出错的因素, 00:09:30.884 --> 00:09:35.410 这也就带出一个 老生常谈的沟通问题, 00:09:35.434 --> 00:09:39.179 作为人类,我们要学习 怎样和人工智能沟通。 00:09:39.203 --> 00:09:43.242 我们必须明白人工智能 能做什么,不能做什么, 00:09:43.266 --> 00:09:46.352 要明白,凭它们的那点小脑袋, 00:09:46.376 --> 00:09:50.389 人工智能并不能完全明白 我们想让它们做什么。 00:09:51.148 --> 00:09:54.469 换言之,我们必须对与 人工智能共事做好准备, 00:09:54.493 --> 00:09:59.751 这可不是科幻片里那些 全能全知的人工智能。 00:09:59.775 --> 00:10:02.637 我们必须准备好跟 00:10:02.661 --> 00:10:05.599 眼下存在的人工智能共事。 00:10:05.623 --> 00:10:09.828 现在的人工智能还真的挺奇怪的。 NOTE Paragraph 00:10:09.852 --> 00:10:11.042 谢谢。 NOTE Paragraph 00:10:11.066 --> 00:10:15.881 (掌声)