人工智能,
以能颠覆所有行业广为人知。
那冰淇淋呢?
我们是否能利用先进的人工智能
生成令人震惊的新口味呢?
我和 Kealing 中学的程序员组了个队
想要找到答案。
他们收集了超过 1600 种
现有的冰淇淋口味,
接着我们一起把这些口味输入
到算法中看看会有什么结果。
接下来给大家展示一些
人工智能所想到的口味。
【南瓜垃圾破裂】
(笑声)
【花生酱稀泥】
【草莓奶油病】
(笑声)
这些口味听起来并没有
我们想象中美味。
所以问题来了:怎么回事?
到底哪里出问题了?
人工智能是想要干掉我们?
还是说它努力想要回应
我们的要求,但是却出问题了?
在电影中,当人工智能出了错,
通常是因为它们决定
再也不要听从人类的指令,
它开始有了自己的目标,
不劳驾人类了。
然而现实生活中,
我们现有的人工智能
还没达到那样的水平。
它的计算能力大概跟
一条小虫子差不多,
又或者顶多只是一只小蜜蜂,
实际上可能更弱。
我们持续从大脑学习到新事物,
使我们越来越清楚人工智能
与真正的大脑之间的距离。
现在人工智能所达到的大体就是
在图片中识别出行人的程度,
但是它并没有
对于行人的概念,
除此之外它所做的只是
收集线条,质地之类的信息。
但是它并不知道人类到底是什么。
那么现在的人工智能
能否达到我们的要求?
能力允许的情况下它会,
但是它所做的可能
并不是我们真正想要的。
假设你想要用人工智能
利用一堆机器人的零件
组装成一个机器人
从 A 点移动到 B 点。
如果你想要通过编写
一个传统的计算机程序
来解决这个问题,
你需要输入一步步的指令,
指示它怎样拿起零件,
怎样把这些零件安装成
一个带脚的机器人,
以及如何用脚走到 B 点。
但是当你利用人工智能
来解决这个问题的时候,
情况不太一样。
你不用告诉它
要怎样解决问题,
你只需要给它一个目标,
它会通过试错
来解决这个问题,
来实现目标。
结果是,貌似人工智能在
解决这一类问题的时候
会这么做:
它把自己搭建成
一座塔然后倾倒,
最后在 B 点落下。
从技术的层面上看,的确解决了问题。
从技术上来说的确到达了 B 点。
人工智能的危险
不在于它会反抗我们,
而是它们会严格按照
我们的要求去做。
所以和人工智能共事的技巧变成了:
我们该如何设置问题才能让它
做我们真正想做的事?
这一台小机器人
由人工智能操控。
人工智能想到了一个
机器人脚部的设计,
然后想到了如何
利用它们绕过障碍。
但是当大卫·哈
在做这个实验的时候,
他不得不对人工智能
容许搭建起来的脚
设立非常、非常严格的限制,
不然的话...
(笑声)
从技术上说,他的确
到达了障碍路线的终点。
现在我们知道了,仅仅是让人工智能
实现简单的行走就有多困难。
当看到人工智能这么做的时候,
你可能会说,这不公平。
你不能只是变成
一座塔然后直接倒下,
你必须得用脚去走路,
结果是,
那往往也不行。
这个人工智能的任务是快速移动。
他们没有说它应该面向前方奔跑,
也没有说不能使用它的手臂。
这就是当你训练人工智能
快速移动时所能得到的结果,
你能得到的就是像这样的
空翻或者滑稽漫步。
太常见了。
在地板上扭动前进
也是一样的结果。
(笑声)
在我看来,更奇怪的
就是“终结者”机器人。
要是有可能的话,人工智能
还真会入侵“黑客帝国"。
如果你用仿真环境
训练一个人工智能的话,
它会学习如何入侵到
一个仿真环境中的数学错误里,
并从中获得能量。
或者会计算出如何通过
不断地在地板上打滑来加快速度。
当你和人工智能一起工作的时候,
不太像是在跟另一个人一起工作,
而更像是在和某种
奇怪的自然力量工作。
一不小心就很容易让人工
智能去破解错误的问题,
往往直到出现问题
我们才察觉到不妥。
所以我做了这样的一个实验,
我想要让人工智能
利用左边的颜色列表
复制颜料颜色,
去创造新的颜色。
这就是人工智能想到的结果。
【辛迪斯粪便,如粪球般,
受难,灰色公众】
(笑声)
基本上,
它达到了我的要求。
我以为我给出的要求是,
让它想出美好的颜色名,
但是实际上我让它做的
只是单纯地模仿
字母的组合,
那些它在输入中见到的字母组合。
而且我并没有告诉它
这些单词的意思是什么,
或者告诉它也许有些单词
不能用来给颜色命名。
也就是说它的整个世界里
只有我给出的数据。
正如让它发明冰淇淋的口味那样,
它除此之外一无所知。
也就是通过数据,
我们常常不小心
让人工智能做错事。
有一种叫丁鲷的鱼,
一群研究者尝试过
训练人工智能去
识别图片里的丁鲷。
但是当他们试图搞清
它到底用了图片的
哪个部分去识别这种鱼,
这是它所显示的部分。
没错,那些是人类的手指。
为什么它会去识别人类的手指,
而不是鱼呢?
因为丁鲷实际上是一种战利品鱼,
所以人工智能在被训练时,
看过的大多数照片中
鱼都长这样。
(笑声)
而人工智能并不知道原来
手指并不是鱼的一部分。
现在你们应该能想象,
设计一个能真正懂得
自己在做什么的人工
智能是多么困难。
这也就是为什么
给无人驾驶汽车
设计图像识别技术那么困难,
导致无人驾驶失败的原因
就是,人工智能迷糊了。
接下来我想分享一个
发生在 2016 年的故事。
有人在使用特斯拉的
自动驾驶功能时发生了特大事故,
因为这个人工智能是
为上高速路而设计的,
结果车主居然开到市内街道上。
结果是,
一辆卡车突然出现在轿车前面,
而轿车没有刹车。
当然这个人工智能受过训练,
能识别图片中的卡车。
但是当时的情况看起来,
人工智能接受的训练是
识别行驶在高速路上的卡车,
理论上你看到的应该是卡车的尾部,
而侧面对着你的卡车
是不会出现在高速路上的,
所以当人工智能看到这辆卡车的时候,
可能把卡车认作一个路标,
因此,它判断
从下面开过去是安全的。
接下来是人工智能在
另一个领域的错误示例。
亚马逊最近不得不放弃
一个他们已经开发了一段时间
的简历分类的算法,
因为他们发现这个算法
竟然学会了歧视女性。
原因是当他们把过去招聘人员的简历
用作人工智能的训练材料。
从这些素材中,人工智能学会了
怎样过滤一些应聘者的简历,
那些上过女子大学的
或者是那些含有
“女性”字眼的简历,
比如说“女子足球队”
或者“女性工程师学会”。
人工智能并不知道自己
不应该复制他所见过的
人类这种特定的行为。
从技术层面上说,
它的确按要求做到了。
只是开发者不小心
下错了指令。
这样的情况在人工智能领域屡见不鲜。
人工智能破坏力惊人且不自知。
就如用于脸书和油管上
内容推荐的人工智能,
它们被优化以增加
点击量和阅览量。
但是不幸的是,它们实现
目标的其中一个手段,
就是推荐阴谋论或者偏执内容。
人工智能本身对这些内容没有概念,
也根本不知道推荐这样的内容
会产生怎样的后果。
所以当我们与人工智能
一起工作的时候,
我们有责任去规避问题。
规避可能出错的因素,
这也就带出一个
老生常谈的沟通问题,
作为人类,我们要学习
怎样和人工智能沟通。
我们必须明白人工智能
能做什么,不能做什么,
要明白,凭它们的那点小脑袋,
人工智能并不能完全明白
我们想让它们做什么。
换言之,我们必须对与
人工智能共事做好准备,
这可不是科幻片里那些
全能全知的人工智能。
我们必须准备好跟
眼下存在的人工智能共事。
现在的人工智能还真的挺奇怪的。
谢谢。
(掌声)