无需畏惧超级人工智能
-
0:01 - 0:05在我还是孩子的时候 ,
我是一个典型的书呆子。 -
0:05 - 0:08我猜你们的一部分人和我一样。
-
0:08 - 0:09(笑声)
-
0:09 - 0:12还有你,那位先生,笑得最大声,
说不定你现在还是呢。 -
0:12 - 0:14(笑声)
-
0:14 - 0:18我成长在德克萨斯州北部
荒凉平原上的一个小镇。 -
0:18 - 0:21我的爸爸是警长,爷爷是一位牧师,
-
0:21 - 0:24所以自找麻烦从来不是一个好的选项。
-
0:24 - 0:27所以我开始看有关
微积分的书来打发时间。 -
0:27 - 0:29(笑声)
-
0:29 - 0:31你也是这样。
-
0:31 - 0:34于是我学着制作了一个激光器,
一台电脑,和一个火箭模型, -
0:34 - 0:37并且在自己的卧室制取火箭燃料。
-
0:38 - 0:42现在,从科学的角度而言,
-
0:42 - 0:45我们把这个叫做
一个糟糕透顶的主意。 -
0:45 - 0:46(笑声)
-
0:46 - 0:48在差不多同一时间,
-
0:48 - 0:52Stanley Kubrick的
“2001:太空漫游”上映了, -
0:52 - 0:54我的生活从此改变。
-
0:54 - 0:56我喜欢关于那部电影的一切,
-
0:56 - 0:59特别是 HAL 9000。
-
0:59 - 1:01HAL是一台有情感的电脑,
-
1:01 - 1:03为引导“发现一号”飞船从地球
-
1:03 - 1:06前往木星而设计出来。
-
1:06 - 1:08HAL 也是一个有缺陷的角色,
-
1:08 - 1:13因为在结尾他将任务的
价值置于生命之上。 -
1:13 - 1:15HAL 是一个虚构的角色,
-
1:15 - 1:18但尽管如此,他挑战了我们的恐惧,
-
1:18 - 1:20被一些冷漠无情的
-
1:20 - 1:23人工智能(AI)
-
1:23 - 1:25所统治的恐惧。
-
1:26 - 1:28但我相信这些恐惧只是杞人忧天。
-
1:28 - 1:31的确,我们正处于人类历史上
-
1:31 - 1:33一个值得铭记的时间点,
-
1:33 - 1:38不甘被自身肉体和头脑所局限,
-
1:38 - 1:39我们正在制造
-
1:39 - 1:43那些可以通过我们无法想象的方式
-
1:43 - 1:45来拓展人类体验的机器,
-
1:45 - 1:47它们精美,复杂,而且优雅。
-
1:48 - 1:50我在空军学院
-
1:50 - 1:52和航天司令部工作过,
-
1:52 - 1:54现在是一个系统工程师。
-
1:54 - 1:57最近我碰到了一个和
NASA火星任务相关的 -
1:57 - 1:59工程问题。
-
1:59 - 2:02当前,前往月球的宇宙飞行,
-
2:02 - 2:05我们可以依靠休斯顿的指挥中心
-
2:05 - 2:07来密切关注飞行的各个方面。
-
2:07 - 2:11但是,火星相比而言
多出了200倍的距离, -
2:11 - 2:14这使得一个信号从地球到火星
-
2:14 - 2:17平均要花费13分钟。
-
2:17 - 2:20如果有了麻烦,
我们并没有足够的时间来解决。 -
2:21 - 2:23所以一个可靠的工程解决方案
-
2:23 - 2:26促使我们把一个指挥中枢
-
2:26 - 2:29放在“猎户星”飞船之中。
-
2:29 - 2:32在任务档案中的另一个创意
-
2:32 - 2:35是在人类抵达火星之前,把人形机器人
-
2:35 - 2:37先一步放在火星表面,
-
2:37 - 2:38它们可以先建造据点,
-
2:38 - 2:42然后作为科学团队的合作伙伴驻扎。
-
2:43 - 2:46当我从工程师的角度看待这个想法,
-
2:46 - 2:49对于建造一个聪明,懂得合作,
-
2:49 - 2:52擅长社交的人工智能的需求
-
2:52 - 2:54是十分明显的。
-
2:54 - 2:58换句话说,我需要建造一个和HAL一样,
-
2:58 - 3:01但是没有谋杀倾向的机器。
-
3:01 - 3:02(笑声)
-
3:03 - 3:05待会儿再回到这个话题。
-
3:05 - 3:09真的有可能打造一个
类似的人工智能吗? -
3:09 - 3:10是的,当然可以。
-
3:10 - 3:11在许多方面,
-
3:11 - 3:13一个困难的工程问题来自于
-
3:13 - 3:15AI的各个零件,
-
3:15 - 3:20而不是什么琐碎的AI问题。
-
3:20 - 3:22借用Alan Turing的话来说,
-
3:22 - 3:25我没有兴趣建造一台有情感的机器。
-
3:25 - 3:26我不是要建造HAL。
-
3:26 - 3:29我只想要一个简单的大脑,
-
3:29 - 3:32一个能让你以为它有智能的东西。
-
3:33 - 3:36自从HAL登上荧幕,
关于编程的技术和艺术 -
3:36 - 3:38已经发展了许多,
-
3:38 - 3:41我能想象如果它的发明者
Chandra博士今天在这里的话, -
3:41 - 3:43他会有很多的问题问我们。
-
3:43 - 3:45我们真的可能
-
3:45 - 3:49用一个连接了无数设备的系统,
-
3:49 - 3:51通过读取数据流,
-
3:51 - 3:53来预测它们的失败并提前行动吗?
-
3:53 - 3:54是的。
-
3:54 - 3:58我们能建造一个和人类
用语言交流的系统吗? -
3:58 - 3:58能。
-
3:58 - 4:02我们能够打造一个能
辨识目标,鉴别情绪, -
4:02 - 4:05表现自身情感,打游戏,
甚至读唇的系统吗? -
4:05 - 4:06可以。
-
4:06 - 4:09我们可以建造一个能设定目标,
-
4:09 - 4:12通过各种达成目的的
方法来学习的系统吗? -
4:12 - 4:13也可以。
-
4:13 - 4:17我们可以建造一个类似人脑的系统吗?
-
4:17 - 4:18这是我们正在努力做的。
-
4:18 - 4:22我们可以建造一个有道德
和感情基础的系统吗? -
4:22 - 4:25这是我们必须要学习的。
-
4:25 - 4:27总而言之,
-
4:27 - 4:30建造一个类似的用于这类任务的
-
4:30 - 4:32人工智能是可行的。
-
4:32 - 4:34另一个你必须扪心自问的问题是,
-
4:34 - 4:36我们应该害怕它吗?
-
4:36 - 4:38毕竟,每一种新技术
-
4:38 - 4:41都给我们带来某种程度的不安。
-
4:41 - 4:42我们第一次看见汽车的时候,
-
4:42 - 4:47人们悲叹我们会看到家庭的毁灭。
-
4:47 - 4:49我们第一次看见电话的时候,
-
4:49 - 4:52人们担忧这会破坏所有的文明交流。
-
4:52 - 4:56在某个时间点我们看到书写文字的蔓延,
-
4:56 - 4:59人们认为我们会丧失记忆的能力。
-
4:59 - 5:01这些在某个程度上是合理的,
-
5:01 - 5:03但也正是这些技术
-
5:03 - 5:07给人类的生活在某些方面
-
5:07 - 5:08带来了前所未有的体验。
-
5:10 - 5:12我们再稍稍扩展一下。
-
5:13 - 5:18我并不畏惧这类人工智能的诞生,
-
5:18 - 5:22因为它最终会融入我们的部分价值观。
-
5:22 - 5:25想想这个:建造一个认知系统
-
5:25 - 5:29与建造一个以传统的软件为主的
系统有着本质的不同。 -
5:29 - 5:31我们不编译它们。我们教导它们。
-
5:31 - 5:34为了教会系统如何识别花朵,
-
5:34 - 5:37我给它看了上千种我喜欢的花。
-
5:37 - 5:39为了教会系统怎么打游戏——
-
5:39 - 5:41当然,我会。你们也会。
-
5:43 - 5:45我喜欢花。这没什么。
-
5:45 - 5:48为了教会系统如何玩像围棋一样的游戏,
-
5:48 - 5:50我玩了许多围棋的游戏,
-
5:50 - 5:52但是在这个过程中
-
5:52 - 5:54我也教会它如何分别差游戏和好游戏。
-
5:54 - 5:58如果我想要一个人工智能法律助手,
-
5:58 - 6:00我会给它一些法律文集,
-
6:00 - 6:03但同时我会将 怜悯和正义
-
6:03 - 6:06也是法律的一部分 这种观点融入其中。
-
6:06 - 6:10用一个术语来解释,
就是我们所说的真相, -
6:10 - 6:12而关键在于:
-
6:12 - 6:13为了制造这些机器,
-
6:13 - 6:17我们正教给它们我们的价值观。
-
6:17 - 6:20正因如此,我相信一个人工智能
-
6:20 - 6:23绝不逊于一个经过良好训练的人类。
-
6:24 - 6:25但是,你或许会问,
-
6:25 - 6:28要是流氓组织,
-
6:28 - 6:31和资金充沛的无政府组织
也在利用它们呢? -
6:31 - 6:35我并不害怕独狼掌控的人工智能。
-
6:35 - 6:40很明显,我们无法从
随机的暴力行为中保护自己, -
6:40 - 6:42但是现实是,制造这样一个系统
-
6:42 - 6:45超越了个人所拥有资源的极限,
-
6:45 - 6:47因为它需要踏实细致的训练和培养。
-
6:47 - 6:48还有,
-
6:48 - 6:52这远比向世界散播一个网络病毒,
-
6:52 - 6:55比如你按下一个按钮,
瞬间全世界都被感染, -
6:55 - 6:57并且在各处的笔记本电脑中
开始爆发来的复杂。 -
6:57 - 7:00这类东西正在越来越强大,
-
7:00 - 7:02我们必然会看到它们的来临。
-
7:03 - 7:06我会害怕一个有可能威胁所有人类的
-
7:06 - 7:08人工智能吗?
-
7:08 - 7:13如果你看过《黑客帝国》,《大都会》,
-
7:13 - 7:16《终结者》,或者
《西部世界》这类电视剧, -
7:16 - 7:18它们都在表达这种恐惧。
-
7:18 - 7:22的确,在哲学家Nick Bostrom
写的《超级智能》中, -
7:22 - 7:24他选择了这个主题,
-
7:24 - 7:28并且观察到超级智能不仅仅危险,
-
7:28 - 7:32它还对所有人类的存在造成了威胁。
-
7:32 - 7:34Bostrom博士的基础观点认为,
-
7:34 - 7:37这样的系统迟早会
-
7:37 - 7:40产生对信息的无止境渴求,
-
7:40 - 7:43也许它们会开始学习,
-
7:43 - 7:46并且最终发现它们的目的
-
7:46 - 7:48和人类的需求背道而驰。
-
7:48 - 7:50Bostrom博士有一群粉丝。
-
7:50 - 7:54Elon Musk和Stephen Hawking也支持他。
-
7:55 - 7:57虽然要向这些伟大的头脑
-
7:58 - 8:00致以崇高的敬意,
-
8:00 - 8:02但我还是相信他们从一开始就错了。
-
8:02 - 8:06Bostrom博士的观点
有很多地方可以细细体会, -
8:06 - 8:08但现在我没有时间一一解读,
-
8:08 - 8:11简要而言,请考虑这句话:
-
8:11 - 8:14全知并非全能。
-
8:14 - 8:16HAL成为了对发现一号成员的威胁,
-
8:16 - 8:21只是因为它控制了
发现一号的各个方面。 -
8:21 - 8:23正因如此它才需要是一个人工智能。
-
8:23 - 8:26它需要对于我们世界的完全掌控。
-
8:26 - 8:29这就是《终结者》中的天网,
-
8:29 - 8:30一个控制了人们意志,
-
8:30 - 8:32控制了世界各处
-
8:32 - 8:36各个机器的超级智能。
-
8:36 - 8:37说实在的,
-
8:37 - 8:39这完全是杞人忧天。
-
8:39 - 8:42我们不是在制造可以控制天气,
-
8:42 - 8:44引导潮水,
-
8:44 - 8:47指挥我们这些
多变,混乱的人类的人工智能。 -
8:47 - 8:51另外,即使这类人工智能存在,
-
8:51 - 8:54它需要和人类的经济竞争,
-
8:54 - 8:57进而和我们拥有的资源竞争。
-
8:57 - 8:58最后——
-
8:58 - 9:00不要告诉Siri——
-
9:00 - 9:02我们可以随时拔掉电源。
-
9:02 - 9:04(笑声)
-
9:05 - 9:08我们正处于和机器共同演化的
-
9:08 - 9:10奇妙旅途之中。
-
9:10 - 9:13未来的人类
-
9:13 - 9:15将与今天的人类大相径庭。
-
9:15 - 9:19当前对人工智能崛起的担忧,
-
9:19 - 9:22从各方面来说都是
一个危险的错误指引, -
9:22 - 9:24因为电脑的崛起
-
9:24 - 9:27带给了我们许多必须参与的
-
9:27 - 9:29关乎人类和社会的问题。
-
9:29 - 9:32我应该如何管理社会
-
9:32 - 9:35来应对人类劳工需求量的降低?
-
9:35 - 9:38我应该怎样在进行全球化
交流和教育的同时, -
9:38 - 9:40依旧尊重彼此的不同?
-
9:40 - 9:45我应该如何通过可认知医疗
来延长并强化人类的生命? -
9:45 - 9:47我应该如何通过计算机
-
9:47 - 9:49来帮助我们前往其他星球?
-
9:50 - 9:52这些都很令人兴奋。
-
9:52 - 9:55通过计算机来升级
-
9:55 - 9:56人类体验的机会
-
9:56 - 9:58就在我们手中,
-
9:58 - 10:00就在此时此刻,
-
10:00 - 10:01我们的旅途才刚刚开始。
-
10:02 - 10:03谢谢大家。
-
10:04 - 10:08(掌声)
- Title:
- 无需畏惧超级人工智能
- Speaker:
- 格雷迪·布切
- Description:
-
“新技术产生了新的焦虑。“Grady Booch, 这位科学家和哲学家如此说到,”但是我们无需畏惧一个全能但无情的人工智能。" Booch通过解释我们是如何教导人工智能,而非编写它来传递我们的价值观,缓和了我们由于科幻作品导致的对于超级智能机器的恐慌。与其担忧一个不太可能出现的威胁,他强烈建议我们考虑如何通过人工智能使人类的生活变得更美好。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Yolanda Zhang edited Chinese, Simplified subtitles for Don't fear superintelligent AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Don't fear superintelligent AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Don't fear superintelligent AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Don't fear superintelligent AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Don't fear superintelligent AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Don't fear superintelligent AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Don't fear superintelligent AI | ||
Jiawei Ni accepted Chinese, Simplified subtitles for Don't fear superintelligent AI |