人工智能的危险比你想象中更奇怪
-
0:02 - 0:05人工智能,
-
0:05 - 0:08以能颠覆所有行业广为人知。
-
0:09 - 0:11那冰淇淋呢?
-
0:12 - 0:16我们是否能利用先进的人工智能
-
0:16 - 0:19生成令人震惊的新口味呢?
-
0:19 - 0:23我和 Kealing 中学的程序员组了个队
-
0:23 - 0:25想要找到答案。
-
0:25 - 0:31他们收集了超过 1600 种
现有的冰淇淋口味, -
0:31 - 0:36接着我们一起把这些口味输入
到算法中看看会有什么结果。 -
0:36 - 0:40接下来给大家展示一些
人工智能所想到的口味。 -
0:40 - 0:42【南瓜垃圾破裂】
-
0:42 - 0:43(笑声)
-
0:43 - 0:46【花生酱稀泥】
-
0:47 - 0:48【草莓奶油病】
-
0:48 - 0:50(笑声)
-
0:50 - 0:55这些口味听起来并没有
我们想象中美味。 -
0:55 - 0:57所以问题来了:怎么回事?
-
0:57 - 0:58到底哪里出问题了?
-
0:58 - 1:00人工智能是想要干掉我们?
-
1:01 - 1:05还是说它努力想要回应
我们的要求,但是却出问题了? -
1:07 - 1:09在电影中,当人工智能出了错,
-
1:09 - 1:12通常是因为它们决定
-
1:12 - 1:14再也不要听从人类的指令,
-
1:14 - 1:17它开始有了自己的目标,
不劳驾人类了。 -
1:17 - 1:20然而现实生活中,
我们现有的人工智能 -
1:21 - 1:22还没达到那样的水平。
-
1:23 - 1:26它的计算能力大概跟
-
1:26 - 1:27一条小虫子差不多,
-
1:27 - 1:30又或者顶多只是一只小蜜蜂,
-
1:31 - 1:33实际上可能更弱。
-
1:33 - 1:35我们持续从大脑学习到新事物,
-
1:35 - 1:40使我们越来越清楚人工智能
与真正的大脑之间的距离。 -
1:40 - 1:45现在人工智能所达到的大体就是
在图片中识别出行人的程度, -
1:45 - 1:48但是它并没有
对于行人的概念, -
1:48 - 1:53除此之外它所做的只是
收集线条,质地之类的信息。 -
1:54 - 1:56但是它并不知道人类到底是什么。
-
1:57 - 2:00那么现在的人工智能
能否达到我们的要求? -
2:00 - 2:02能力允许的情况下它会,
-
2:02 - 2:04但是它所做的可能
并不是我们真正想要的。 -
2:04 - 2:07假设你想要用人工智能
-
2:07 - 2:10利用一堆机器人的零件
-
2:10 - 2:14组装成一个机器人
从 A 点移动到 B 点。 -
2:14 - 2:16如果你想要通过编写
一个传统的计算机程序 -
2:16 - 2:19来解决这个问题,
-
2:19 - 2:22你需要输入一步步的指令,
-
2:22 - 2:23指示它怎样拿起零件,
-
2:23 - 2:26怎样把这些零件安装成
一个带脚的机器人, -
2:26 - 2:29以及如何用脚走到 B 点。
-
2:29 - 2:32但是当你利用人工智能
来解决这个问题的时候, -
2:32 - 2:33情况不太一样。
-
2:33 - 2:35你不用告诉它
要怎样解决问题, -
2:35 - 2:37你只需要给它一个目标,
-
2:37 - 2:40它会通过试错
来解决这个问题, -
2:40 - 2:42来实现目标。
-
2:42 - 2:46结果是,貌似人工智能在
解决这一类问题的时候 -
2:46 - 2:48会这么做:
-
2:48 - 2:51它把自己搭建成
一座塔然后倾倒, -
2:51 - 2:53最后在 B 点落下。
-
2:53 - 2:56从技术的层面上看,的确解决了问题。
-
2:56 - 2:58从技术上来说的确到达了 B 点。
-
2:58 - 3:02人工智能的危险
不在于它会反抗我们, -
3:02 - 3:06而是它们会严格按照
我们的要求去做。 -
3:07 - 3:09所以和人工智能共事的技巧变成了:
-
3:09 - 3:13我们该如何设置问题才能让它
做我们真正想做的事? -
3:15 - 3:18这一台小机器人
由人工智能操控。 -
3:18 - 3:21人工智能想到了一个
机器人脚部的设计, -
3:21 - 3:25然后想到了如何
利用它们绕过障碍。 -
3:25 - 3:28但是当大卫·哈
在做这个实验的时候, -
3:28 - 3:31他不得不对人工智能
容许搭建起来的脚 -
3:31 - 3:34设立非常、非常严格的限制,
-
3:34 - 3:36不然的话...
-
3:43 - 3:47(笑声)
-
3:49 - 3:52从技术上说,他的确
到达了障碍路线的终点。 -
3:52 - 3:57现在我们知道了,仅仅是让人工智能
实现简单的行走就有多困难。 -
3:57 - 4:01当看到人工智能这么做的时候,
你可能会说,这不公平。 -
4:01 - 4:04你不能只是变成
一座塔然后直接倒下, -
4:04 - 4:07你必须得用脚去走路,
-
4:07 - 4:10结果是,
那往往也不行。 -
4:10 - 4:13这个人工智能的任务是快速移动。
-
4:13 - 4:17他们没有说它应该面向前方奔跑,
-
4:17 - 4:19也没有说不能使用它的手臂。
-
4:19 - 4:24这就是当你训练人工智能
快速移动时所能得到的结果, -
4:24 - 4:28你能得到的就是像这样的
空翻或者滑稽漫步。 -
4:28 - 4:29太常见了。
-
4:30 - 4:33在地板上扭动前进
也是一样的结果。 -
4:33 - 4:34(笑声)
-
4:35 - 4:38在我看来,更奇怪的
-
4:39 - 4:40就是“终结者”机器人。
-
4:40 - 4:44要是有可能的话,人工智能
还真会入侵“黑客帝国"。 -
4:44 - 4:47如果你用仿真环境
训练一个人工智能的话, -
4:47 - 4:51它会学习如何入侵到
一个仿真环境中的数学错误里, -
4:51 - 4:53并从中获得能量。
-
4:53 - 4:58或者会计算出如何通过
不断地在地板上打滑来加快速度。 -
4:58 - 5:00当你和人工智能一起工作的时候,
-
5:00 - 5:02不太像是在跟另一个人一起工作,
-
5:02 - 5:06而更像是在和某种
奇怪的自然力量工作。 -
5:07 - 5:11一不小心就很容易让人工
智能去破解错误的问题, -
5:11 - 5:16往往直到出现问题
我们才察觉到不妥。 -
5:16 - 5:18所以我做了这样的一个实验,
-
5:18 - 5:22我想要让人工智能
利用左边的颜色列表 -
5:22 - 5:23复制颜料颜色,
-
5:23 - 5:26去创造新的颜色。
-
5:27 - 5:30这就是人工智能想到的结果。
-
5:30 - 5:33【辛迪斯粪便,如粪球般,
受难,灰色公众】 -
5:33 - 5:37(笑声)
-
5:39 - 5:41基本上,
-
5:41 - 5:43它达到了我的要求。
-
5:43 - 5:46我以为我给出的要求是,
让它想出美好的颜色名, -
5:46 - 5:49但是实际上我让它做的
-
5:49 - 5:52只是单纯地模仿
字母的组合, -
5:52 - 5:54那些它在输入中见到的字母组合。
-
5:54 - 5:57而且我并没有告诉它
这些单词的意思是什么, -
5:57 - 5:59或者告诉它也许有些单词
-
5:59 - 6:02不能用来给颜色命名。
-
6:03 - 6:07也就是说它的整个世界里
只有我给出的数据。 -
6:07 - 6:11正如让它发明冰淇淋的口味那样,
它除此之外一无所知。 -
6:12 - 6:14也就是通过数据,
-
6:14 - 6:18我们常常不小心
让人工智能做错事。 -
6:19 - 6:22有一种叫丁鲷的鱼,
-
6:22 - 6:24一群研究者尝试过
-
6:24 - 6:27训练人工智能去
识别图片里的丁鲷。 -
6:27 - 6:29但是当他们试图搞清
-
6:29 - 6:32它到底用了图片的
哪个部分去识别这种鱼, -
6:32 - 6:34这是它所显示的部分。
-
6:35 - 6:37没错,那些是人类的手指。
-
6:37 - 6:39为什么它会去识别人类的手指,
-
6:39 - 6:41而不是鱼呢?
-
6:42 - 6:45因为丁鲷实际上是一种战利品鱼,
-
6:45 - 6:49所以人工智能在被训练时,
-
6:49 - 6:50看过的大多数照片中
-
6:50 - 6:52鱼都长这样。
-
6:52 - 6:53(笑声)
-
6:53 - 6:57而人工智能并不知道原来
手指并不是鱼的一部分。 -
6:59 - 7:03现在你们应该能想象,
设计一个能真正懂得 -
7:03 - 7:06自己在做什么的人工
智能是多么困难。 -
7:06 - 7:09这也就是为什么
给无人驾驶汽车 -
7:09 - 7:11设计图像识别技术那么困难,
-
7:11 - 7:13导致无人驾驶失败的原因
-
7:14 - 7:16就是,人工智能迷糊了。
-
7:16 - 7:20接下来我想分享一个
发生在 2016 年的故事。 -
7:20 - 7:25有人在使用特斯拉的
自动驾驶功能时发生了特大事故, -
7:25 - 7:28因为这个人工智能是
为上高速路而设计的, -
7:28 - 7:31结果车主居然开到市内街道上。
-
7:31 - 7:32结果是,
-
7:32 - 7:36一辆卡车突然出现在轿车前面,
而轿车没有刹车。 -
7:37 - 7:41当然这个人工智能受过训练,
能识别图片中的卡车。 -
7:41 - 7:43但是当时的情况看起来,
-
7:43 - 7:46人工智能接受的训练是
识别行驶在高速路上的卡车, -
7:46 - 7:49理论上你看到的应该是卡车的尾部,
-
7:49 - 7:53而侧面对着你的卡车
是不会出现在高速路上的, -
7:53 - 7:56所以当人工智能看到这辆卡车的时候,
-
7:56 - 8:01可能把卡车认作一个路标,
-
8:01 - 8:03因此,它判断
从下面开过去是安全的。 -
8:04 - 8:07接下来是人工智能在
另一个领域的错误示例。 -
8:07 - 8:10亚马逊最近不得不放弃
一个他们已经开发了一段时间 -
8:10 - 8:11的简历分类的算法,
-
8:11 - 8:15因为他们发现这个算法
竟然学会了歧视女性。 -
8:15 - 8:18原因是当他们把过去招聘人员的简历
-
8:18 - 8:20用作人工智能的训练材料。
-
8:20 - 8:24从这些素材中,人工智能学会了
怎样过滤一些应聘者的简历, -
8:24 - 8:26那些上过女子大学的
-
8:26 - 8:29或者是那些含有
“女性”字眼的简历, -
8:29 - 8:34比如说“女子足球队”
或者“女性工程师学会”。 -
8:34 - 8:38人工智能并不知道自己
不应该复制他所见过的 -
8:38 - 8:40人类这种特定的行为。
-
8:40 - 8:43从技术层面上说,
它的确按要求做到了。 -
8:43 - 8:46只是开发者不小心
下错了指令。 -
8:47 - 8:50这样的情况在人工智能领域屡见不鲜。
-
8:50 - 8:54人工智能破坏力惊人且不自知。
-
8:54 - 8:59就如用于脸书和油管上
内容推荐的人工智能, -
8:59 - 9:02它们被优化以增加
点击量和阅览量。 -
9:02 - 9:06但是不幸的是,它们实现
目标的其中一个手段, -
9:06 - 9:10就是推荐阴谋论或者偏执内容。
-
9:11 - 9:16人工智能本身对这些内容没有概念,
-
9:16 - 9:20也根本不知道推荐这样的内容
-
9:20 - 9:22会产生怎样的后果。
-
9:22 - 9:24所以当我们与人工智能
一起工作的时候, -
9:24 - 9:29我们有责任去规避问题。
-
9:29 - 9:31规避可能出错的因素,
-
9:31 - 9:35这也就带出一个
老生常谈的沟通问题, -
9:35 - 9:39作为人类,我们要学习
怎样和人工智能沟通。 -
9:39 - 9:43我们必须明白人工智能
能做什么,不能做什么, -
9:43 - 9:46要明白,凭它们的那点小脑袋,
-
9:46 - 9:50人工智能并不能完全明白
我们想让它们做什么。 -
9:51 - 9:54换言之,我们必须对与
人工智能共事做好准备, -
9:54 - 10:00这可不是科幻片里那些
全能全知的人工智能。 -
10:00 - 10:03我们必须准备好跟
-
10:03 - 10:06眼下存在的人工智能共事。
-
10:06 - 10:10现在的人工智能还真的挺奇怪的。
-
10:10 - 10:11谢谢。
-
10:11 - 10:16(掌声)
- Title:
- 人工智能的危险比你想象中更奇怪
- Speaker:
- 珍妮尔 · 尚恩
- Description:
-
人工智能研究者珍妮尔 · 尚恩(Janelle Shane)认为,人工智能的危险不在于它会反抗我们,而是会严格按照我们的要求去做。在尝试解决人类提出的问题,如创造新的冰淇淋或者识别路上的车辆的时候,人工智能所做出的行为时而滑稽可笑,时而令人恐慌。通过这些分享,尚恩说明了为什么人工智能远未能媲美真正的大脑。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:28
Yolanda Zhang approved Chinese, Simplified subtitles for The danger of AI is weirder than you think | ||
Yolanda Zhang edited Chinese, Simplified subtitles for The danger of AI is weirder than you think | ||
Yolanda Zhang edited Chinese, Simplified subtitles for The danger of AI is weirder than you think | ||
Yolanda Zhang edited Chinese, Simplified subtitles for The danger of AI is weirder than you think | ||
Yolanda Zhang edited Chinese, Simplified subtitles for The danger of AI is weirder than you think | ||
Yolanda Zhang edited Chinese, Simplified subtitles for The danger of AI is weirder than you think | ||
Yolanda Zhang edited Chinese, Simplified subtitles for The danger of AI is weirder than you think | ||
Yolanda Zhang edited Chinese, Simplified subtitles for The danger of AI is weirder than you think |