Return to Video

人工智能的危险比你想象中更奇怪

  • 0:02 - 0:05
    人工智能,
  • 0:05 - 0:08
    以能颠覆所有行业广为人知。
  • 0:09 - 0:11
    那冰淇淋呢?
  • 0:12 - 0:16
    我们是否能利用先进的人工智能
  • 0:16 - 0:19
    生成令人震惊的新口味呢?
  • 0:19 - 0:23
    我和 Kealing 中学的程序员组了个队
  • 0:23 - 0:25
    想要找到答案。
  • 0:25 - 0:31
    他们收集了超过 1600 种
    现有的冰淇淋口味,
  • 0:31 - 0:36
    接着我们一起把这些口味输入
    到算法中看看会有什么结果。
  • 0:36 - 0:40
    接下来给大家展示一些
    人工智能所想到的口味。
  • 0:40 - 0:42
    【南瓜垃圾破裂】
  • 0:42 - 0:43
    (笑声)
  • 0:43 - 0:46
    【花生酱稀泥】
  • 0:47 - 0:48
    【草莓奶油病】
  • 0:48 - 0:50
    (笑声)
  • 0:50 - 0:55
    这些口味听起来并没有
    我们想象中美味。
  • 0:55 - 0:57
    所以问题来了:怎么回事?
  • 0:57 - 0:58
    到底哪里出问题了?
  • 0:58 - 1:00
    人工智能是想要干掉我们?
  • 1:01 - 1:05
    还是说它努力想要回应
    我们的要求,但是却出问题了?
  • 1:07 - 1:09
    在电影中,当人工智能出了错,
  • 1:09 - 1:12
    通常是因为它们决定
  • 1:12 - 1:14
    再也不要听从人类的指令,
  • 1:14 - 1:17
    它开始有了自己的目标,
    不劳驾人类了。
  • 1:17 - 1:20
    然而现实生活中,
    我们现有的人工智能
  • 1:21 - 1:22
    还没达到那样的水平。
  • 1:23 - 1:26
    它的计算能力大概跟
  • 1:26 - 1:27
    一条小虫子差不多,
  • 1:27 - 1:30
    又或者顶多只是一只小蜜蜂,
  • 1:31 - 1:33
    实际上可能更弱。
  • 1:33 - 1:35
    我们持续从大脑学习到新事物,
  • 1:35 - 1:40
    使我们越来越清楚人工智能
    与真正的大脑之间的距离。
  • 1:40 - 1:45
    现在人工智能所达到的大体就是
    在图片中识别出行人的程度,
  • 1:45 - 1:48
    但是它并没有
    对于行人的概念,
  • 1:48 - 1:53
    除此之外它所做的只是
    收集线条,质地之类的信息。
  • 1:54 - 1:56
    但是它并不知道人类到底是什么。
  • 1:57 - 2:00
    那么现在的人工智能
    能否达到我们的要求?
  • 2:00 - 2:02
    能力允许的情况下它会,
  • 2:02 - 2:04
    但是它所做的可能
    并不是我们真正想要的。
  • 2:04 - 2:07
    假设你想要用人工智能
  • 2:07 - 2:10
    利用一堆机器人的零件
  • 2:10 - 2:14
    组装成一个机器人
    从 A 点移动到 B 点。
  • 2:14 - 2:16
    如果你想要通过编写
    一个传统的计算机程序
  • 2:16 - 2:19
    来解决这个问题,
  • 2:19 - 2:22
    你需要输入一步步的指令,
  • 2:22 - 2:23
    指示它怎样拿起零件,
  • 2:23 - 2:26
    怎样把这些零件安装成
    一个带脚的机器人,
  • 2:26 - 2:29
    以及如何用脚走到 B 点。
  • 2:29 - 2:32
    但是当你利用人工智能
    来解决这个问题的时候,
  • 2:32 - 2:33
    情况不太一样。
  • 2:33 - 2:35
    你不用告诉它
    要怎样解决问题,
  • 2:35 - 2:37
    你只需要给它一个目标,
  • 2:37 - 2:40
    它会通过试错
    来解决这个问题,
  • 2:40 - 2:42
    来实现目标。
  • 2:42 - 2:46
    结果是,貌似人工智能在
    解决这一类问题的时候
  • 2:46 - 2:48
    会这么做:
  • 2:48 - 2:51
    它把自己搭建成
    一座塔然后倾倒,
  • 2:51 - 2:53
    最后在 B 点落下。
  • 2:53 - 2:56
    从技术的层面上看,的确解决了问题。
  • 2:56 - 2:58
    从技术上来说的确到达了 B 点。
  • 2:58 - 3:02
    人工智能的危险
    不在于它会反抗我们,
  • 3:02 - 3:06
    而是它们会严格按照
    我们的要求去做。
  • 3:07 - 3:09
    所以和人工智能共事的技巧变成了:
  • 3:09 - 3:13
    我们该如何设置问题才能让它
    做我们真正想做的事?
  • 3:15 - 3:18
    这一台小机器人
    由人工智能操控。
  • 3:18 - 3:21
    人工智能想到了一个
    机器人脚部的设计,
  • 3:21 - 3:25
    然后想到了如何
    利用它们绕过障碍。
  • 3:25 - 3:28
    但是当大卫·哈
    在做这个实验的时候,
  • 3:28 - 3:31
    他不得不对人工智能
    容许搭建起来的脚
  • 3:31 - 3:34
    设立非常、非常严格的限制,
  • 3:34 - 3:36
    不然的话...
  • 3:43 - 3:47
    (笑声)
  • 3:49 - 3:52
    从技术上说,他的确
    到达了障碍路线的终点。
  • 3:52 - 3:57
    现在我们知道了,仅仅是让人工智能
    实现简单的行走就有多困难。
  • 3:57 - 4:01
    当看到人工智能这么做的时候,
    你可能会说,这不公平。
  • 4:01 - 4:04
    你不能只是变成
    一座塔然后直接倒下,
  • 4:04 - 4:07
    你必须得用脚去走路,
  • 4:07 - 4:10
    结果是,
    那往往也不行。
  • 4:10 - 4:13
    这个人工智能的任务是快速移动。
  • 4:13 - 4:17
    他们没有说它应该面向前方奔跑,
  • 4:17 - 4:19
    也没有说不能使用它的手臂。
  • 4:19 - 4:24
    这就是当你训练人工智能
    快速移动时所能得到的结果,
  • 4:24 - 4:28
    你能得到的就是像这样的
    空翻或者滑稽漫步。
  • 4:28 - 4:29
    太常见了。
  • 4:30 - 4:33
    在地板上扭动前进
    也是一样的结果。
  • 4:33 - 4:34
    (笑声)
  • 4:35 - 4:38
    在我看来,更奇怪的
  • 4:39 - 4:40
    就是“终结者”机器人。
  • 4:40 - 4:44
    要是有可能的话,人工智能
    还真会入侵“黑客帝国"。
  • 4:44 - 4:47
    如果你用仿真环境
    训练一个人工智能的话,
  • 4:47 - 4:51
    它会学习如何入侵到
    一个仿真环境中的数学错误里,
  • 4:51 - 4:53
    并从中获得能量。
  • 4:53 - 4:58
    或者会计算出如何通过
    不断地在地板上打滑来加快速度。
  • 4:58 - 5:00
    当你和人工智能一起工作的时候,
  • 5:00 - 5:02
    不太像是在跟另一个人一起工作,
  • 5:02 - 5:06
    而更像是在和某种
    奇怪的自然力量工作。
  • 5:07 - 5:11
    一不小心就很容易让人工
    智能去破解错误的问题,
  • 5:11 - 5:16
    往往直到出现问题
    我们才察觉到不妥。
  • 5:16 - 5:18
    所以我做了这样的一个实验,
  • 5:18 - 5:22
    我想要让人工智能
    利用左边的颜色列表
  • 5:22 - 5:23
    复制颜料颜色,
  • 5:23 - 5:26
    去创造新的颜色。
  • 5:27 - 5:30
    这就是人工智能想到的结果。
  • 5:30 - 5:33
    【辛迪斯粪便,如粪球般,
    受难,灰色公众】
  • 5:33 - 5:37
    (笑声)
  • 5:39 - 5:41
    基本上,
  • 5:41 - 5:43
    它达到了我的要求。
  • 5:43 - 5:46
    我以为我给出的要求是,
    让它想出美好的颜色名,
  • 5:46 - 5:49
    但是实际上我让它做的
  • 5:49 - 5:52
    只是单纯地模仿
    字母的组合,
  • 5:52 - 5:54
    那些它在输入中见到的字母组合。
  • 5:54 - 5:57
    而且我并没有告诉它
    这些单词的意思是什么,
  • 5:57 - 5:59
    或者告诉它也许有些单词
  • 5:59 - 6:02
    不能用来给颜色命名。
  • 6:03 - 6:07
    也就是说它的整个世界里
    只有我给出的数据。
  • 6:07 - 6:11
    正如让它发明冰淇淋的口味那样,
    它除此之外一无所知。
  • 6:12 - 6:14
    也就是通过数据,
  • 6:14 - 6:18
    我们常常不小心
    让人工智能做错事。
  • 6:19 - 6:22
    有一种叫丁鲷的鱼,
  • 6:22 - 6:24
    一群研究者尝试过
  • 6:24 - 6:27
    训练人工智能去
    识别图片里的丁鲷。
  • 6:27 - 6:29
    但是当他们试图搞清
  • 6:29 - 6:32
    它到底用了图片的
    哪个部分去识别这种鱼,
  • 6:32 - 6:34
    这是它所显示的部分。
  • 6:35 - 6:37
    没错,那些是人类的手指。
  • 6:37 - 6:39
    为什么它会去识别人类的手指,
  • 6:39 - 6:41
    而不是鱼呢?
  • 6:42 - 6:45
    因为丁鲷实际上是一种战利品鱼,
  • 6:45 - 6:49
    所以人工智能在被训练时,
  • 6:49 - 6:50
    看过的大多数照片中
  • 6:50 - 6:52
    鱼都长这样。
  • 6:52 - 6:53
    (笑声)
  • 6:53 - 6:57
    而人工智能并不知道原来
    手指并不是鱼的一部分。
  • 6:59 - 7:03
    现在你们应该能想象,
    设计一个能真正懂得
  • 7:03 - 7:06
    自己在做什么的人工
    智能是多么困难。
  • 7:06 - 7:09
    这也就是为什么
    给无人驾驶汽车
  • 7:09 - 7:11
    设计图像识别技术那么困难,
  • 7:11 - 7:13
    导致无人驾驶失败的原因
  • 7:14 - 7:16
    就是,人工智能迷糊了。
  • 7:16 - 7:20
    接下来我想分享一个
    发生在 2016 年的故事。
  • 7:20 - 7:25
    有人在使用特斯拉的
    自动驾驶功能时发生了特大事故,
  • 7:25 - 7:28
    因为这个人工智能是
    为上高速路而设计的,
  • 7:28 - 7:31
    结果车主居然开到市内街道上。
  • 7:31 - 7:32
    结果是,
  • 7:32 - 7:36
    一辆卡车突然出现在轿车前面,
    而轿车没有刹车。
  • 7:37 - 7:41
    当然这个人工智能受过训练,
    能识别图片中的卡车。
  • 7:41 - 7:43
    但是当时的情况看起来,
  • 7:43 - 7:46
    人工智能接受的训练是
    识别行驶在高速路上的卡车,
  • 7:46 - 7:49
    理论上你看到的应该是卡车的尾部,
  • 7:49 - 7:53
    而侧面对着你的卡车
    是不会出现在高速路上的,
  • 7:53 - 7:56
    所以当人工智能看到这辆卡车的时候,
  • 7:56 - 8:01
    可能把卡车认作一个路标,
  • 8:01 - 8:03
    因此,它判断
    从下面开过去是安全的。
  • 8:04 - 8:07
    接下来是人工智能在
    另一个领域的错误示例。
  • 8:07 - 8:10
    亚马逊最近不得不放弃
    一个他们已经开发了一段时间
  • 8:10 - 8:11
    的简历分类的算法,
  • 8:11 - 8:15
    因为他们发现这个算法
    竟然学会了歧视女性。
  • 8:15 - 8:18
    原因是当他们把过去招聘人员的简历
  • 8:18 - 8:20
    用作人工智能的训练材料。
  • 8:20 - 8:24
    从这些素材中,人工智能学会了
    怎样过滤一些应聘者的简历,
  • 8:24 - 8:26
    那些上过女子大学的
  • 8:26 - 8:29
    或者是那些含有
    “女性”字眼的简历,
  • 8:29 - 8:34
    比如说“女子足球队”
    或者“女性工程师学会”。
  • 8:34 - 8:38
    人工智能并不知道自己
    不应该复制他所见过的
  • 8:38 - 8:40
    人类这种特定的行为。
  • 8:40 - 8:43
    从技术层面上说,
    它的确按要求做到了。
  • 8:43 - 8:46
    只是开发者不小心
    下错了指令。
  • 8:47 - 8:50
    这样的情况在人工智能领域屡见不鲜。
  • 8:50 - 8:54
    人工智能破坏力惊人且不自知。
  • 8:54 - 8:59
    就如用于脸书和油管上
    内容推荐的人工智能,
  • 8:59 - 9:02
    它们被优化以增加
    点击量和阅览量。
  • 9:02 - 9:06
    但是不幸的是,它们实现
    目标的其中一个手段,
  • 9:06 - 9:10
    就是推荐阴谋论或者偏执内容。
  • 9:11 - 9:16
    人工智能本身对这些内容没有概念,
  • 9:16 - 9:20
    也根本不知道推荐这样的内容
  • 9:20 - 9:22
    会产生怎样的后果。
  • 9:22 - 9:24
    所以当我们与人工智能
    一起工作的时候,
  • 9:24 - 9:29
    我们有责任去规避问题。
  • 9:29 - 9:31
    规避可能出错的因素,
  • 9:31 - 9:35
    这也就带出一个
    老生常谈的沟通问题,
  • 9:35 - 9:39
    作为人类,我们要学习
    怎样和人工智能沟通。
  • 9:39 - 9:43
    我们必须明白人工智能
    能做什么,不能做什么,
  • 9:43 - 9:46
    要明白,凭它们的那点小脑袋,
  • 9:46 - 9:50
    人工智能并不能完全明白
    我们想让它们做什么。
  • 9:51 - 9:54
    换言之,我们必须对与
    人工智能共事做好准备,
  • 9:54 - 10:00
    这可不是科幻片里那些
    全能全知的人工智能。
  • 10:00 - 10:03
    我们必须准备好跟
  • 10:03 - 10:06
    眼下存在的人工智能共事。
  • 10:06 - 10:10
    现在的人工智能还真的挺奇怪的。
  • 10:10 - 10:11
    谢谢。
  • 10:11 - 10:16
    (掌声)
Title:
人工智能的危险比你想象中更奇怪
Speaker:
珍妮尔 · 尚恩
Description:

人工智能研究者珍妮尔 · 尚恩(Janelle Shane)认为,人工智能的危险不在于它会反抗我们,而是会严格按照我们的要求去做。在尝试解决人类提出的问题,如创造新的冰淇淋或者识别路上的车辆的时候,人工智能所做出的行为时而滑稽可笑,时而令人恐慌。通过这些分享,尚恩说明了为什么人工智能远未能媲美真正的大脑。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:28

Chinese, Simplified subtitles

Revisions