Return to Video

计算机如何学习具有创造力

  • 0:01 - 0:04
    我在谷歌领导着一个
    机器智能的项目组,
  • 0:04 - 0:09
    换句话说,利用工程学原理制造出
  • 0:09 - 0:11
    能够像人脑一样
    完成某些任务的电脑和设备。
  • 0:11 - 0:15
    这也使我们对人类的
    大脑以及神经科学
  • 0:15 - 0:16
    产生了兴趣,
  • 0:16 - 0:20
    尤其在那些大脑的表现
  • 0:20 - 0:24
    比电脑强太多的领域。
  • 0:25 - 0:29
    长期以来,我们研究的
    其中一个领域便是感知,
  • 0:29 - 0:32
    一种将外界事物——
  • 0:32 - 0:34
    比如图像或声音—
  • 0:34 - 0:36
    转化为大脑内概念的过程。
  • 0:36 - 0:39
    这对我们的大脑很重要,
  • 0:39 - 0:41
    对计算机的作用也非同小可。
  • 0:42 - 0:45
    例如,我们团队开发的机器感知算法
  • 0:45 - 0:49
    会根据图片的内容
    让你在谷歌相册的图片
  • 0:49 - 0:50
    出现在搜索结果中。
  • 0:52 - 0:55
    感知的另一方面是创意:
  • 0:55 - 0:58
    将概念变成现实。
  • 0:58 - 1:02
    因此,这些年我们
    在机器感知能力方面的工作
  • 1:02 - 1:07
    也意外地跟机器创意以及机器艺术
  • 1:07 - 1:08
    联系在了一起。
  • 1:09 - 1:12
    我觉得米开朗基罗对感知和创意
  • 1:12 - 1:16
    之间的双重关系有着深刻的见解。
  • 1:16 - 1:18
    他有一句名言:
  • 1:18 - 1:21
    “每一块石头里都藏着一尊雕像,
  • 1:22 - 1:25
    而雕塑家的工作就是去发现它。”
  • 1:26 - 1:29
    我想米开朗基罗意思是
  • 1:29 - 1:32
    我们通过感知来创造,
  • 1:32 - 1:36
    而感知本身是想象力的表现,
  • 1:36 - 1:38
    以及创意的来源。
  • 1:39 - 1:43
    而进行思考、感知和想象的器官,
  • 1:43 - 1:44
    毫无疑问,就是大脑。
  • 1:45 - 1:48
    我想先简单地谈一谈
  • 1:48 - 1:50
    我们对大脑的了解。
  • 1:50 - 1:53
    因为不像心脏或其它内脏,
  • 1:53 - 1:56
    你无法仅仅通过观察
    就能看出点什么来,
  • 1:56 - 1:58
    至少仅凭肉眼看不出来。
  • 1:58 - 2:00
    早期的解剖学家看着大脑,
  • 2:00 - 2:04
    给它的表面结构
    取了各种充满想象力的名字。
  • 2:04 - 2:07
    比如说海马体,意思是“小虾子”。
  • 2:07 - 2:09
    但这些并不能告诉我们
  • 2:09 - 2:12
    大脑里面究竟是怎样工作的。
  • 2:13 - 2:16
    我认为第一个真正对大脑的工作方式
  • 2:16 - 2:18
    有所洞悉的人,
  • 2:18 - 2:22
    是19世纪西班牙
    伟大的神经解剖学家
  • 2:22 - 2:24
    圣地亚哥 · 拉蒙 · 卡哈尔
    (Santiago Ramón y Cajal),
  • 2:24 - 2:28
    他使用了显微镜以及某种特殊染色剂,
  • 2:28 - 2:32
    有选择性地将大脑中的
    单个细胞填充或者渲染上
  • 2:32 - 2:34
    高对比度的颜色,
  • 2:34 - 2:37
    以便了解它们的形态。
  • 2:38 - 2:41
    这些就是他在19世纪
  • 2:41 - 2:42
    完成的的神经元手绘图。
  • 2:42 - 2:44
    这是一只鸟的大脑。
  • 2:44 - 2:47
    能看到这些形态各异的细胞,
  • 2:47 - 2:51
    甚至在当时对细胞学说
    本身还是新鲜事物。
  • 2:51 - 2:52
    而这些结构,
  • 2:52 - 2:54
    像树枝一样分岔,
  • 2:54 - 2:56
    能够延伸到很长的距离——
  • 2:56 - 2:58
    这些在当时都是闻所未闻。
  • 2:59 - 3:02
    他们让人联想到的,当然是电线。
  • 3:02 - 3:05
    这对于很多19世纪的人
    来说是显而易见的,
  • 3:05 - 3:10
    因为那时电线和电力革命刚刚兴起。
  • 3:10 - 3:11
    但是在许多方面
  • 3:11 - 3:14
    拉蒙 · 卡哈尔的神经解剖学
    绘画,比如这一张,
  • 3:14 - 3:17
    从某些方面来说是很卓越的。
  • 3:17 - 3:19
    一个多世纪后的我们,仍然在继续
  • 3:19 - 3:22
    尝试完成拉蒙 · 卡哈尔开启的事业。
  • 3:22 - 3:25
    提供这些原始数据的,是我们来自
  • 3:25 - 3:28
    马克斯 · 普朗克
    神经科学研究所的合作者。
  • 3:28 - 3:29
    他们的工作
  • 3:29 - 3:35
    是对那些小块的脑组织进行成像。
  • 3:35 - 3:38
    这一整个样品的大小
    是1立方毫米左右,
  • 3:38 - 3:41
    而我展示的只是它上面
    很小很小的一块区域。
  • 3:41 - 3:43
    左边那段比例尺的长度是1微米。
  • 3:43 - 3:45
    你看到的这个结构
  • 3:45 - 3:47
    是一个细菌大小的线粒体。
  • 3:47 - 3:49
    这些是利用这个非常微小的组织
  • 3:49 - 3:52
    所制作成的连续的切片。
  • 3:52 - 3:55
    我们来做个对比。
  • 3:55 - 3:58
    通常一根头发的直径是
    100微米左右。
  • 3:58 - 4:01
    所以我们看到的东西
  • 4:01 - 4:02
    比一根头发丝还要细很多。
  • 4:02 - 4:06
    通过这些连续的电子显微镜切片,
  • 4:06 - 4:11
    人们可以重构出类似这样的
    神经元三维图像。
  • 4:11 - 4:14
    某种程度上,这跟拉蒙 · 卡哈尔
    所用的方式是一样的。
  • 4:14 - 4:16
    我们只对少量的神经元进行了突出显示,
  • 4:16 - 4:19
    否则我们不可能看到任何东西,
  • 4:19 - 4:20
    因为那样一来画面会很拥挤,
  • 4:20 - 4:22
    充满了组织结构,
  • 4:22 - 4:24
    充满了各个神经元间
    纵横交错的通路。
  • 4:25 - 4:28
    显然,拉蒙 · 卡哈尔
    有一点超前于他的时代,
  • 4:28 - 4:31
    接下来的几十年间
  • 4:31 - 4:33
    人们对大脑的理解进展非常缓慢。
  • 4:33 - 4:36
    但是我们已经知道,
    神经元通过电流传导信息,
  • 4:36 - 4:39
    而到二战时,我们的技术
    已取得了长足的进步,
  • 4:39 - 4:42
    可以开始在活的
    神经元细胞上做电流实验,
  • 4:42 - 4:44
    以便更好地理解它们的工作原理。
  • 4:45 - 4:49
    而电脑也正是在
    这个时候被发明了出来,
  • 4:49 - 4:52
    它的发明是基于对大脑的模拟——
  • 4:52 - 4:55
    也就是阿兰 · 图灵
    所称的“智能机器”理念,
  • 4:55 - 4:57
    图灵是计算机科学的开创者之一。
  • 4:58 - 5:03
    沃伦 · 麦卡洛克(Warren McCulloch)和
    沃尔特 · 皮兹(Walter Pitts)看到了
  • 5:03 - 5:04
    拉蒙 · 卡哈尔所画的
    大脑视觉皮层,
  • 5:04 - 5:06
    就是我给你们看的这个。
  • 5:06 - 5:10
    这是负责处理我们视觉信息的大脑皮层。
  • 5:10 - 5:14
    对他们来说,这看起来像一个电路图。
  • 5:14 - 5:18
    在麦卡洛克和皮兹的电路图上,
  • 5:18 - 5:20
    有许多细节并不是那么正确。
  • 5:20 - 5:21
    但基本概念是对的,
  • 5:21 - 5:25
    他们认为视觉皮层工作起来
    就像一系列计算机元件
  • 5:25 - 5:28
    在同一个层级中传递信息,
  • 5:28 - 5:29
    这一点是对的。
  • 5:29 - 5:32
    我们再聊一聊
  • 5:32 - 5:36
    视觉信息处理模型需要做些什么。
  • 5:36 - 5:39
    感知的基本任务就是
  • 5:39 - 5:43
    抓取这样的图像并且告诉我们
  • 5:43 - 5:44
    “这是一只鸟”,
  • 5:44 - 5:47
    这对我们的大脑来说非常简单。
  • 5:47 - 5:51
    但对一台电脑来说,
  • 5:51 - 5:54
    在几年前,这还是完全不可能的事。
  • 5:54 - 5:56
    传统的计算模式
  • 5:56 - 5:58
    很难完成这个任务。
  • 5:59 - 6:02
    像素、鸟的图像以及“鸟”这个词,
  • 6:02 - 6:06
    这三者之间所产生的联系,
  • 6:06 - 6:09
    本质上是在一个神经网络中各神经元
  • 6:09 - 6:10
    相互连接的结果,
  • 6:10 - 6:11
    正如这张图所示。
  • 6:11 - 6:15
    这种神经网络可能是生物学上的,
    存在于我们大脑视觉皮层里,
  • 6:15 - 6:17
    或者,现如今我们开始有能力
  • 6:17 - 6:19
    在电脑上模拟这种神经网络。
  • 6:20 - 6:22
    我们来看一下它的工作原理。
  • 6:22 - 6:26
    可以将像素想像成第一层的神经元,
  • 6:26 - 6:28
    这实际上就是在
    眼睛内部的工作原理——
  • 6:28 - 6:30
    是视网膜上的神经元。
  • 6:30 - 6:31
    然后这些前馈信息
  • 6:31 - 6:35
    通过一层层神经元往下传递,
  • 6:35 - 6:38
    这些神经元通过突触彼此连接。
  • 6:38 - 6:39
    这个神经网络的行为
  • 6:39 - 6:42
    是通过所有这些突触的强度来表达的,
  • 6:42 - 6:46
    也塑造了这个网络的计算性能。
  • 6:46 - 6:47
    最终,
  • 6:47 - 6:50
    一个或者一小群神经元
  • 6:50 - 6:51
    会亮起来,说,“鸟”。
  • 6:52 - 6:55
    接下来我会将这三部分——
  • 6:55 - 7:00
    输入的像素,神经网络中的突触,
  • 7:00 - 7:01
    以及“鸟”,这个输出结果——
  • 7:01 - 7:04
    用三个变量来表示:x、w和y。
  • 7:05 - 7:07
    在那张图片上可能会有一百万个x——
  • 7:07 - 7:09
    代表一百万个像素点。
  • 7:09 - 7:11
    然后有几十亿或几万亿的w,
  • 7:11 - 7:15
    代表着神经网络中所有突触的权重。
  • 7:15 - 7:17
    只有很少数量的y,
  • 7:17 - 7:18
    代表整个网络的输出结果。
  • 7:18 - 7:20
    “Bird(鸟)"这个单词
    只有四个字母,对吧?
  • 7:21 - 7:25
    我们假定这只是一个很简单的公式
  • 7:25 - 7:27
    x 乘以 w 等于 y。
  • 7:27 - 7:29
    我把乘号打上了引号,
  • 7:29 - 7:31
    因为实际的过程要复杂得多。
  • 7:31 - 7:34
    牵涉到一系列非常复杂的数学运算。
  • 7:35 - 7:36
    这是一个方程式,
  • 7:36 - 7:38
    有三个变量。
  • 7:38 - 7:41
    而我们知道在一个方程式中
  • 7:41 - 7:45
    通过两个已知数
    你就能算出另一个未知数。
  • 7:45 - 7:49
    所以这道推论题,
  • 7:49 - 7:51
    即判断出图中是一只鸟,
  • 7:51 - 7:53
    可以这样来描述:
  • 7:53 - 7:56
    y是未知数,w跟x都是已知数。
  • 7:56 - 7:59
    也就是神经网络和像素是已知的。
  • 7:59 - 8:02
    实际上这是一个相当简单的问题。
  • 8:02 - 8:04
    你只需要用2乘以3,就完事儿了。
  • 8:05 - 8:07
    我会给你们展示我们最近
    完成的人工神经网络,
  • 8:07 - 8:09
    它的工作原理正是如此。
  • 8:10 - 8:13
    这是在一台在手机上
    实时运行的神经网络,
  • 8:13 - 8:16
    当然,令人惊叹的是它自身的运算能力,
  • 8:16 - 8:19
    每秒钟可以进行
    几十亿甚至几万亿次的
  • 8:19 - 8:21
    运算。
  • 8:21 - 8:22
    你所看到的是一台手机的
  • 8:22 - 8:26
    相机对准了一张张含有鸟的图片,
  • 8:26 - 8:29
    并且它不只能判断出,
    “是的,这是一只鸟”,
  • 8:29 - 8:32
    而且还能用这种网络
    来判断这些鸟的种类。
  • 8:33 - 8:35
    因此在这张图片中,
  • 8:35 - 8:39
    x和w是已知的,y是未知的。
  • 8:39 - 8:41
    当然,我省略了非常复杂的那一部分,
  • 8:41 - 8:45
    也就是我们如何判断出w?
  • 8:45 - 8:47
    为什么大脑能做出这样的判断?
  • 8:47 - 8:49
    我们是如何学会这种模式的?
  • 8:49 - 8:53
    在学习以及解出w的过程中,
  • 8:53 - 8:55
    如果我们使用简单的等式
  • 8:55 - 8:57
    将这些都想象成数字,
  • 8:57 - 9:00
    那这道题就简单了: 6 = 2 x W,
  • 9:00 - 9:03
    那么,用6除以2就可以得出答案。
  • 9:04 - 9:06
    现在的问题就是这个运算符号。
  • 9:07 - 9:08
    除法——
  • 9:08 - 9:11
    我们用除法是因为它是乘法的逆运算。
  • 9:11 - 9:13
    但就像我刚才说的,
  • 9:13 - 9:15
    乘法表述在这里其实不太准确。
  • 9:15 - 9:18
    这是一个非常非常
    复杂的非线性运算,
  • 9:18 - 9:20
    它没有逆运算。
  • 9:20 - 9:23
    所以我们要找出一个不使用除号
  • 9:23 - 9:25
    就能解出这个方程式的方法。
  • 9:25 - 9:28
    其实非常简单。
  • 9:28 - 9:30
    只需要使用一点代数上的小技巧,
  • 9:30 - 9:33
    将6移到等式的右边。
  • 9:33 - 9:35
    现在我们仍然使用乘法。
  • 9:36 - 9:39
    而这个0——我们就当它是一个误差。
  • 9:39 - 9:42
    换句话说,如果我们
    能用正确的方法解出w,
  • 9:42 - 9:44
    那么这个误差就为0。
  • 9:44 - 9:45
    如果我们没有找到正确的答案,
  • 9:45 - 9:47
    那么这个误差就会大于0。
  • 9:47 - 9:51
    所以现在我们可以通过
    假设去缩小这个误差,
  • 9:51 - 9:53
    而这正是电脑所擅长的。
  • 9:53 - 9:54
    比如你最开始假设:
  • 9:54 - 9:55
    如果w = 0呢?
  • 9:55 - 9:56
    那么误差就为6。
  • 9:56 - 9:59
    如果w = 1呢?误差就变成了4。
  • 9:59 - 10:01
    然后电脑就像玩游戏一样不断测试,
  • 10:01 - 10:04
    将误差降低到接近于0。
  • 10:04 - 10:07
    这样就逐步逼近了w的值。
  • 10:07 - 10:11
    通常来说,它不可能获得完全精确的值,
    但是经过很多步运算以后,
  • 10:11 - 10:15
    我们得到了 w = 2.999,
    已经足够精确了。
  • 10:16 - 10:18
    以上就是这个学习过程。
  • 10:18 - 10:21
    大家回想一下刚刚我们所做的,
  • 10:21 - 10:25
    我们用了很多已知的x和y的值,
  • 10:25 - 10:29
    通过迭代法去解出中间的w,
  • 10:29 - 10:32
    这也正是我们自己
    在学习时所使用的方法。
  • 10:32 - 10:35
    在我们很小的时候,
    会看到很多很多图像,
  • 10:35 - 10:37
    然后有人告诉我们:
    “这个是鸟,这个不是鸟。”
  • 10:38 - 10:40
    经过一段时间的重复,
  • 10:40 - 10:43
    我们解出了w,建立起了
    神经元之间的连接。
  • 10:43 - 10:48
    那么现在,我们有了确定的
    x和w。再要去解出Y
  • 10:48 - 10:49
    就会非常快了。
  • 10:49 - 10:51
    我们找到解出w的方法,
  • 10:51 - 10:53
    这是一种学习,要困难得多,
  • 10:53 - 10:55
    因为我们要用很多的训练样本,
  • 10:55 - 10:57
    去将误差最小化。
  • 10:57 - 11:00
    一年前,我们团队的
    亚历克斯 · 莫尔德温采夫
  • 11:00 - 11:04
    决定做一个实验,
    看如果给定已知的w和y,
  • 11:04 - 11:06
    去解出x,会发生什么。
  • 11:06 - 11:07
    换句话说,
  • 11:07 - 11:09
    你已经知道那是一只鸟
  • 11:09 - 11:12
    并且也有一个接受过
    鸟类识别训练的神经网络,
  • 11:12 - 11:14
    那么一只鸟的图像是怎样的呢?
  • 11:15 - 11:20
    我们发现,通过运用相同的
    将误差最小化的步骤,
  • 11:20 - 11:24
    加上一个受过鸟类识别
    训练的神经网络,
  • 11:24 - 11:27
    我们就可以得到
  • 11:30 - 11:32
    一张含有鸟的图片。
  • 11:33 - 11:37
    这是一张由一个进行过
    鸟类识别训练的
  • 11:37 - 11:38
    神经网络所生成的鸟的图片,
  • 11:38 - 11:42
    仅仅是通过解出x,而不是y,
  • 11:42 - 11:43
    并且重复不断的运行。
  • 11:44 - 11:46
    这是另外一个有趣的例子
  • 11:46 - 11:49
    是我们团队的迈克 · 泰卡制作的 ,
  • 11:49 - 11:51
    他称之为“动物大游行”。
  • 11:51 - 11:54
    这让我想起了威廉 ·肯特里奇的作品,
  • 11:54 - 11:57
    他先画一些素描,然后擦掉,
  • 11:57 - 11:58
    再画一些素描,再擦掉,
  • 11:58 - 11:59
    用这种方法创作了一部影片。
  • 11:59 - 12:01
    在我们这个案例中,
  • 12:01 - 12:04
    迈克在一个旨在识别和辨认
  • 12:04 - 12:06
    不同种类动物的神经网络中
  • 12:06 - 12:07
    将y变换成各种不同的动物。
  • 12:07 - 12:12
    这样你就得到了这个奇特的
    动物图像的埃舍尔式变换效果。
  • 12:14 - 12:19
    他和亚历克斯还一起尝试了
  • 12:19 - 12:22
    将这些y降低到一个二维空间内,
  • 12:22 - 12:25
    从而将被该神经网络识别出来的
  • 12:25 - 12:27
    所有对象放到一张图上来。
  • 12:27 - 12:29
    通过这样的合成
  • 12:29 - 12:31
    或者在整个表面上生成图像,
  • 12:31 - 12:34
    在表面上不断的变换y,
    你就创造出了一种图像——
  • 12:34 - 12:37
    一个包含该神经网络能够
    分辨出来的所有对象的视觉图像。
  • 12:37 - 12:40
    所有的动物都在这儿,
    犰狳在那个点上。
  • 12:41 - 12:43
    你也可以用其它的神经网络
    实现类似的目的。
  • 12:43 - 12:46
    这是一个为识别和分辨出不同面孔
  • 12:46 - 12:48
    而设计的神经网络。
  • 12:48 - 12:52
    这里,我们输入一个y值,代表“我”,
  • 12:52 - 12:53
    我自己的面部参数。
  • 12:53 - 12:55
    当它在解出x的时候,
  • 12:55 - 12:58
    就生成了这张集不同视角
    于一体,相当不可思议的,
  • 12:58 - 13:02
    立体的、超现实的、迷幻版本的
  • 13:02 - 13:04
    我的面部图像。
  • 13:04 - 13:06
    它之所以看起来像是集不同视角于一体,
  • 13:06 - 13:10
    是因为这个神经网络被设计成将一张脸
  • 13:10 - 13:13
    在不同姿势、不同光线之间产生的
  • 13:13 - 13:16
    模棱两可的地方抹掉了。
  • 13:16 - 13:18
    因此当你开始这项复原工作时,
  • 13:18 - 13:21
    如果不利用某种影像引导,
  • 13:21 - 13:22
    或者统计引导,
  • 13:22 - 13:26
    那么你就会得到一种
    令人困惑的多视角的图像,
  • 13:26 - 13:27
    因为它是模棱两可的。
  • 13:28 - 13:32
    这就是亚历克斯在复原
    我的面部的优化流程中,
  • 13:32 - 13:35
    用他自己的脸作为
    影像引导时所得到的图像。
  • 13:36 - 13:39
    你可以看到它还不是十分完美。
  • 13:39 - 13:40
    我们在完善这个优化流程方面
  • 13:40 - 13:43
    还有许多的工作要做。
  • 13:43 - 13:46
    但是通过将我自己的脸
    作为渲染过程中的引导,
  • 13:46 - 13:48
    你已经可以得到一个
    更清晰的面孔了。
  • 13:49 - 13:51
    你不需要完全从一块空白的画布
  • 13:51 - 13:52
    或白噪音开始。
  • 13:52 - 13:54
    当你在解出x时,
  • 13:54 - 13:58
    你可以从一个本身已经是
    别的图像的x开始。
  • 13:58 - 14:00
    正如这个小小的展示那样。
  • 14:00 - 14:05
    这是一个设计为用来将所有物品——
  • 14:05 - 14:08
    人造结构、动物等进行分类的神经网络。
  • 14:08 - 14:10
    我们从一张云图开始,
  • 14:10 - 14:12
    在优化过程中,
  • 14:12 - 14:17
    这个神经网络正在不停地计算
    它在云中看到了什么。
  • 14:17 - 14:19
    你花越多的时间盯着这张图,
  • 14:19 - 14:22
    你就会在云中看到越多的东西。
  • 14:23 - 14:26
    你也可以使用面部识别
    神经网络去产生迷幻效果,
  • 14:26 - 14:28
    然后就可以得到这种不可思议的东西。
  • 14:28 - 14:29
    (观众笑声)
  • 14:30 - 14:33
    或者可以像迈克做的另外一个实验那样,
  • 14:33 - 14:37
    他还是利用那张云图,
  • 14:37 - 14:41
    使它幻化、再放大,
    幻化再放大,幻化再放大.
  • 14:41 - 14:42
    这样一来,
  • 14:42 - 14:45
    我想你就可以得到
    这个网络的神游状态,
  • 14:45 - 14:49
    或者某种自由联想,
  • 14:49 - 14:51
    仿佛这个网络正在吞噬自己的尾巴。
  • 14:51 - 14:55
    因此每一张图都是
    下一张图的基础,决定了
  • 14:55 - 14:56
    “我觉得接下来会看到什么?
  • 14:56 - 14:59
    接下来又会看到什么?
    接下来还会看到什么?”
  • 14:59 - 15:02
    我第一次公开展示这些是在西雅图,
  • 15:02 - 15:08
    为一个团队做的一次名为
    “高等教育”的讲座上——
  • 15:08 - 15:10
    刚好就在大麻合法化之后。
  • 15:10 - 15:13
    (观众笑声)
  • 15:15 - 15:17
    在结束我的演讲前,
  • 15:17 - 15:21
    我想再提醒各位,
    这种技术是不受限的。
  • 15:21 - 15:25
    我给你们看了一些纯粹的视觉实例,
    因为它们看起来真的很有趣。
  • 15:25 - 15:27
    它不是一种纯粹的视觉技术。
  • 15:27 - 15:29
    我们的合作者,艺术家罗斯 · 古德温
  • 15:29 - 15:33
    做了一个实验,他用相机拍了一张照片,
  • 15:33 - 15:37
    然后他背包里的电脑
    基于这张照片的内容,
  • 15:37 - 15:40
    用神经网络作了一首诗。
  • 15:40 - 15:42
    这个作诗的神经网络已经接受过
  • 15:42 - 15:45
    大量的20世纪诗歌的训练。
  • 15:45 - 15:46
    其实我觉得
  • 15:46 - 15:48
    那首诗还不赖。
  • 15:48 - 15:49
    (观众笑声)
  • 15:49 - 15:50
    下面,
  • 15:50 - 15:52
    再回到米开朗基罗那句名言,
  • 15:52 - 15:54
    我想他是对的,
  • 15:54 - 15:57
    感知和创意是密不可分的。
  • 15:58 - 16:00
    我们刚刚所看到的是一些
  • 16:00 - 16:03
    完全被训练成去区分,
  • 16:03 - 16:05
    或辨别世上的不同物品,
  • 16:05 - 16:08
    能够逆向运行、成生图像的神经网络。
  • 16:08 - 16:10
    我从中受到的启发之一就是,
  • 16:10 - 16:12
    不仅米开朗基罗真的看到了
  • 16:12 - 16:15
    石头中的雕像,
  • 16:15 - 16:18
    而且任何的生物、任何人、任何外星人,
  • 16:18 - 16:22
    只要能够有这样的感知,
  • 16:22 - 16:24
    也就能够创造,
  • 16:24 - 16:27
    因为它们都运用了截然相同的机制。
  • 16:27 - 16:31
    另外,我想感知和创意决不是
  • 16:31 - 16:33
    人类所特有的。
  • 16:33 - 16:36
    我们开始有了可以
    完成这些事的电脑模型。
  • 16:36 - 16:40
    这应当不足为奇,因为大脑会运算。
  • 16:40 - 16:41
    最后,
  • 16:41 - 16:46
    电脑运算最开始是作为
    设计智能机器的一种练习。
  • 16:46 - 16:49
    它在很大程度上仿照了我们如何
  • 16:49 - 16:52
    让机器变得智能这一理念。
  • 16:52 - 16:53
    而我们也终于开始能够实现
  • 16:53 - 16:56
    图灵、冯 · 诺依曼、
  • 16:56 - 16:58
    麦卡洛克和皮兹
  • 16:58 - 17:00
    这些先驱的一些期望了。
  • 17:00 - 17:04
    我觉得电脑不仅仅是拿来计算,
  • 17:04 - 17:06
    或者玩游戏的。
  • 17:06 - 17:09
    从一开始,我们就是
    仿照大脑来制造它们的。
  • 17:09 - 17:12
    而它们也赋予了我们能够
    更好的理解我们的大脑,
  • 17:12 - 17:14
    并且拓展其潜力的能力。
  • 17:15 - 17:16
    非常感谢。
  • 17:16 - 17:21
    (观众掌声)
Title:
计算机如何学习具有创造力
Speaker:
布莱斯 · 阿尔卡斯
Description:

我们站在了艺术和创造力的前沿——而做到这一点的并不是人类。谷歌首席科学家,布莱斯 · 阿尔卡斯,致力于研究机器的感知和分布式学习的深度神经网络。在这个视屏中,他将会展示可以识别图片的神经网络如何反向运行。结果显示:壮观,梦幻的拼贴画(还有诗歌!)很难被归类。布莱斯 · 阿尔卡斯说:“感知和创造力联系的特别紧密。任何生物,任何可以感知行动的事物,都可以进行创造。”

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:34

Chinese, Simplified subtitles

Revisions