如何让人工智能赋予我们力量,而非受控于它
-
0:01 - 0:05在 138 亿年的历史之后,
-
0:05 - 0:07我们的宇宙终于觉醒了,
-
0:07 - 0:09并开始有了自我意识。
-
0:09 - 0:12从一颗蓝色的小星球,
-
0:12 - 0:16宇宙中那些有了微小意识的部分,
开始用它们的望远镜, -
0:16 - 0:17窥视整个宇宙,
-
0:17 - 0:18从而有了谦卑的发现。
-
0:19 - 0:22宇宙比我们祖先所想象的
-
0:22 - 0:23要大得多,
-
0:23 - 0:28使得生命显得如同渺小的扰动,
小到足以被忽视, -
0:28 - 0:30但若没有它们的存在,
宇宙也没了生命。 -
0:30 - 0:33不过我们也发现了
一些振奋人心的事, -
0:33 - 0:36那就是我们所开发的技术,
有着前所未有的潜能 -
0:36 - 0:39去促使生命变得更加繁盛,
-
0:39 - 0:42不仅仅只有几个世纪,
而是持续了数十亿年; -
0:42 - 0:46也不仅仅是地球上,
甚至是在整个浩瀚的宇宙中。 -
0:48 - 0:51我把最早的生命
称之为 “生命 1.0”, -
0:51 - 0:52因为它那会儿还略显蠢笨,
-
0:52 - 0:57就像细菌,在它们的一生中,
也不会学到什么东西。 -
0:57 - 1:00我把我们人类称为 “生命 2.0”,
因为我们能够学习, -
1:00 - 1:02用技术宅男的话来说,
-
1:02 - 1:05就像是在我们脑袋里
装了一个新的软件, -
1:05 - 1:07比如语言及工作技能。
-
1:08 - 1:12而“生命 3.0” 不仅能开始设计
它的软件,甚至还可以创造其硬件。 -
1:12 - 1:14当然,它目前还不存在。
-
1:14 - 1:17但是也许我们的科技
已经让我们走进了 “生命 2.1”, -
1:17 - 1:22因为现在我们有了人工膝盖,
心脏起搏器以及耳蜗植入技术。 -
1:22 - 1:26我们一起来聊聊
人类和科技的关系吧! -
1:27 - 1:28举个例子,
-
1:28 - 1:33阿波罗 11 号月球任务
很成功,令人备受鼓舞, -
1:33 - 1:36展示出了我们人类
对于使用科技的智慧, -
1:36 - 1:40我们实现了很多
祖先们只能想象的事情。 -
1:40 - 1:43但还有一段更加
鼓舞人心的旅程, -
1:43 - 1:46由比火箭引擎更加强大的
东西所推动着, -
1:47 - 1:50乘客也不仅仅只是三个宇航员,
-
1:50 - 1:51而是我们全人类。
-
1:51 - 1:54让我们来聊聊与人工智能
一起走向未来的 -
1:54 - 1:56这段旅程。
-
1:57 - 2:02我的朋友扬·塔林(Jaan Tallinn)常说,
这就像是火箭学一样, -
2:02 - 2:05只让我们的科技
拥有强大的力量是不够的。 -
2:06 - 2:09如果我们有足够的
雄心壮志,就应当想出 -
2:09 - 2:10如何控制它们的方法,
-
2:10 - 2:12希望它朝着怎样的方向前进。
-
2:13 - 2:16那么对于人工智能,
我们先来谈谈这三点: -
2:16 - 2:20力量,操控和目的地。
-
2:20 - 2:21我们先来说力量。
-
2:22 - 2:25我对于人工智能的定义非常全面——
-
2:25 - 2:29就是我们能够完成复杂目标的能力,
-
2:29 - 2:33因为我想把生物学
和人工智能都包含进去。 -
2:33 - 2:37我还想要避免愚蠢的
碳沙文主义的观点, -
2:37 - 2:39即你认为如果你很聪明,
你就一定有着肉身。 -
2:41 - 2:45人工智能的力量
在近期的发展十分惊人。 -
2:45 - 2:46试想一下。
-
2:46 - 2:50甚至在不久以前,
机器人还不能走路呢。 -
2:51 - 2:53现在,它们居然开始后空翻了。
-
2:54 - 2:56不久以前,
-
2:56 - 2:58我们还没有全自动驾驶汽车。
-
2:59 - 3:01现在,我们都有
自动飞行的火箭了。 -
3:04 - 3:05不久以前,
-
3:05 - 3:08人工智能甚至不能完成脸部识别。
-
3:08 - 3:11现在,人工智能都开始
生成仿真面貌了, -
3:11 - 3:15并模拟你的脸部表情,
说出你从未说过的话。 -
3:16 - 3:18不久以前,
-
3:18 - 3:20人工智能还不能在围棋中战胜人类,
-
3:20 - 3:26然后,谷歌的DeepMind推出的
AlphaZero 就掌握了人类三千多年的 -
3:26 - 3:27围棋比赛和智慧,
-
3:27 - 3:31通过和自己对战的方式轻松秒杀我们,
成了全球最厉害的围棋手。 -
3:32 - 3:36这里最让人印象深刻的部分,
不是它击垮了人类棋手, -
3:36 - 3:38而是它击垮了人类人工智能的研究者,
-
3:38 - 3:42这些研究者花了数十年
手工打造了下棋软件。 -
3:42 - 3:47此外,AlphaZero也在国际象棋比赛中
轻松战胜了人类的人工智能研究者们, -
3:47 - 3:49我们从 1950 年
就开始致力于国际象棋研究。 -
3:50 - 3:54所以近来,这些惊人的
人工智能进步,让大家不禁想问: -
3:55 - 3:57它到底能达到怎样的程度?
-
3:58 - 3:59我在思考这个问题时,
-
3:59 - 4:03想从工作任务中的抽象地景来切入,
-
4:03 - 4:06图中的海拔高度表示
人工智能要把每一项工作 -
4:06 - 4:07做到人类的水平的难度,
-
4:07 - 4:10海平面表示现今的
人工智能所达到的水平。 -
4:11 - 4:13随着人工智能的进步,
海平面会上升, -
4:13 - 4:17所以在这工作任务地景上,
有着类似全球变暖的后果。 -
4:18 - 4:21很显然,我们要避免
从事那些近海区的工作—— -
4:21 - 4:23(笑声)
-
4:23 - 4:26这些工作不会一直由人来完成,
迟早要被自动化取代。 -
4:26 - 4:29然而同时,还存在一个很大的问题,
-
4:29 - 4:31水平面最后会升到多高?
-
4:31 - 4:35它最后是否会升高到淹没一切,
-
4:36 - 4:38人工智能会不会
最终能胜任所有的工作? -
4:38 - 4:42这就成了通用人工智能
(Artificial general intelligence)—— -
4:42 - 4:43缩写是 AGI,
-
4:43 - 4:47从一开始它就是
人工智能研究最终的圣杯。 -
4:47 - 4:49根据这个定义,有人说,
-
4:49 - 4:52“总是有些工作,
人类可以做得比机器好的。” -
4:52 - 4:55意思就是,我们永远不会有 AGI。
-
4:56 - 4:59当然,我们可以仍然
保留一些人类的工作, -
4:59 - 5:02或者说,通过我们的工作
带给人类收入和生活目标, -
5:02 - 5:06但是不论如何, AGI
都会转变我们对生命的认知, -
5:06 - 5:09人类或许不再是最有智慧的了。
-
5:09 - 5:13如果海平面真的
上升到 AGI 的高度, -
5:13 - 5:18那么进一步的人工智能进展
将会由人工智能来引领,而非人类, -
5:18 - 5:20那就意味着有可能,
-
5:20 - 5:22进一步提升人工智能水平
将会进行得非常迅速, -
5:22 - 5:26甚至超越用年份来计算时间的
典型人类研究和发展, -
5:26 - 5:30提高到一种极具争议性的可能性,
那就是智能爆炸, -
5:30 - 5:32即能够不断做自我改进的人工智能
-
5:32 - 5:35很快就会遥遥领先人类,
-
5:35 - 5:38创造出所谓的超级人工智能。
-
5:40 - 5:42好了,回归现实:
-
5:43 - 5:46我们很快就会有 AGI 吗?
-
5:46 - 5:49一些著名的 AI 研究者,
如罗德尼 · 布鲁克斯 (Rodney Brooks), -
5:49 - 5:52认为一百年内是没有可能的。
-
5:52 - 5:56但是其他人,如谷歌DeepMind公司的
创始人德米斯 · 哈萨比斯(Demis Hassabis) -
5:56 - 5:57就比较乐观,
-
5:57 - 5:59且努力想要它尽早实现。
-
5:59 - 6:03近期的调查显示,
大部分的人工智能研究者 -
6:03 - 6:06其实都和德米斯一样持乐观态度,
-
6:06 - 6:09预期我们十年内就会有 AGI,
-
6:10 - 6:12所以我们中许多人
在有生之年就能看到, -
6:12 - 6:14这就让人不禁想问——
那么接下来呢? -
6:15 - 6:17如果什么事情机器
都能做得比人好, -
6:17 - 6:20成本也更低,那么人类
又该扮演怎样的角色? -
6:23 - 6:25依我所见,我们面临一个选择。
-
6:26 - 6:28选择之一是要自我满足。
-
6:28 - 6:31我们可以说,“我们来建造机器,
让它来帮助我们做一切事情, -
6:31 - 6:33不要担心后果,
-
6:33 - 6:37拜托,如果我们能打造出
让全人类都被淘汰的机器, -
6:37 - 6:39还有什么会出错吗?”
-
6:39 - 6:40(笑声)
-
6:40 - 6:43但我觉得那样真是差劲到悲哀。
-
6:44 - 6:48我们认为我们应该更有野心——
带着 TED 的精神。 -
6:48 - 6:51让我们来想象一个
真正鼓舞人心的高科技未来, -
6:51 - 6:53并试着朝着它前进。
-
6:54 - 6:57这就把我们带到了火箭比喻的
第二部分:操控。 -
6:57 - 6:59我们让人工智能的力量更强大,
-
6:59 - 7:03但是我们要如何朝着
人工智能帮助人类未来更加繁盛, -
7:03 - 7:06而非变得挣扎的目标不断前进呢?
-
7:07 - 7:08为了协助实现它,
-
7:08 - 7:10我联合创办了 “未来生命研究所”
(Future of Life Institute)。 -
7:10 - 7:13它是个小型的非营利机构,
旨在促进有益的科技使用, -
7:13 - 7:16我们的目标很简单,
就是希望生命的未来能够存在, -
7:16 - 7:18且越是鼓舞人心越好。
-
7:18 - 7:21你们知道的,我爱科技。
-
7:21 - 7:24现今之所以比石器时代更好,
就是因为科技。 -
7:25 - 7:29我很乐观的认为我们能创造出
一个非常鼓舞人心的高科技未来…… -
7:30 - 7:31如果——这个 “如果” 很重要——
-
7:31 - 7:34如果我们能赢得这场
关于智慧的赛跑—— -
7:34 - 7:37这场赛跑的两位竞争者
便是我们不断成长的科技力量 -
7:37 - 7:39以及我们用来管理科技的
不断成长的智慧。 -
7:39 - 7:42但这也需要策略上的改变。
-
7:42 - 7:45因为我们以往的策略
往往都是从错误中学习的。 -
7:45 - 7:47我们发明了火,
-
7:47 - 7:48因为搞砸了很多次——
-
7:48 - 7:50我们发明出了灭火器。
-
7:50 - 7:52(笑声)
-
7:52 - 7:54我们发明了汽车,
又一不小心搞砸了很多次—— -
7:54 - 7:57发明了红绿灯,安全带
和安全气囊, -
7:57 - 8:01但对于更强大的科技,
像是核武器和 AGI, -
8:01 - 8:04要去从错误中学习,
似乎是个比较糟糕的策略, -
8:04 - 8:05你们怎么看?
-
8:05 - 8:06(笑声)
-
8:06 - 8:09事前的准备比事后的
补救要好得多; -
8:09 - 8:11提早做计划,争取一次成功,
-
8:11 - 8:14因为有时我们或许
没有第二次机会。 -
8:14 - 8:16但有趣的是,
有时候有人告诉我。 -
8:16 - 8:19“麦克斯,嘘——别那样说话。
-
8:19 - 8:22那是勒德分子(注:持有反机械化,
反自动化观点的人)在制造恐慌。“ -
8:22 - 8:24但这并不是制造恐慌。
-
8:24 - 8:26在麻省理工学院,
我们称之为安全工程。 -
8:27 - 8:28想想看:
-
8:28 - 8:31在美国航天局(NASA)
部署阿波罗 11 号任务之前, -
8:31 - 8:34他们全面地设想过
所有可能出错的状况, -
8:34 - 8:36毕竟是要把人类放进
易燃易爆的太空舱里, -
8:36 - 8:39再将他们发射上
一个无人能助的境遇。 -
8:39 - 8:41可能出错的情况非常多,
-
8:41 - 8:42那是在制造恐慌吗?
-
8:43 - 8:44不是。
-
8:44 - 8:46那正是在做安全工程的工作,
-
8:46 - 8:48以确保任务顺利进行,
-
8:48 - 8:53这正是我认为处理 AGI 时
应该采取的策略。 -
8:53 - 8:57想清楚什么可能出错,
然后避免它的发生。 -
8:57 - 8:59基于这样的精神,
我们组织了几场大会, -
8:59 - 9:02邀请了世界顶尖的人工智能研究者
和其他有想法的专业人士, -
9:02 - 9:06来探讨如何发展这样的智慧,
从而确保人工智能对人类有益。 -
9:06 - 9:09我们最近的一次大会
去年在加州的阿西洛玛举行, -
9:09 - 9:12我们得出了 23 条原则,
-
9:12 - 9:15自此已经有超过 1000 位
人工智能研究者,以及核心企业的 -
9:15 - 9:16领导人参与签署。
-
9:16 - 9:20我想要和各位分享
其中的三项原则。 -
9:20 - 9:25第一,我们需要避免军备竞赛,
以及致命的自动化武器出现。 -
9:25 - 9:29其中的想法是,任何科学都可以
用新的方式来帮助人们, -
9:29 - 9:31同样也可以以新的方式
对我们造成伤害。 -
9:31 - 9:35例如,生物和化学更可能被用来
-
9:35 - 9:39制造新的医药用品,
而非带来新的杀人方法, -
9:39 - 9:42因为生物学家和
化学家很努力—— -
9:42 - 9:43也很成功地——在推动
-
9:43 - 9:45禁止生化武器的出现。
-
9:45 - 9:46基于同样的精神,
-
9:46 - 9:51大部分的人工智能研究者也在
试图指责和禁止致命的自动化武器。 -
9:52 - 9:54另一条阿西洛玛
人工智能会议的原则是, -
9:54 - 9:57我们应该要减轻
由人工智能引起的收入不平等。 -
9:57 - 10:02我认为,我们能够大幅度利用
人工智能发展出一块经济蛋糕, -
10:02 - 10:04但却没能相处如何来分配它
-
10:04 - 10:06才能让所有人受益,
-
10:06 - 10:07那可太丢人了。
-
10:07 - 10:11(掌声)
-
10:11 - 10:15那么问一个问题,如果
你的电脑有死机过的,请举手。 -
10:15 - 10:17(笑声)
-
10:17 - 10:18哇,好多人举手。
-
10:18 - 10:21那么你们就会感谢这条准则,
-
10:21 - 10:24我们应该要投入更多
以确保对人工智能安全性的研究, -
10:24 - 10:28因为我们让人工智能在主导
更多决策以及基础设施时, -
10:28 - 10:31我们要了解如何将
会出现程序错误以及有漏洞的电脑, -
10:31 - 10:34转化为可靠的人工智能,
-
10:34 - 10:34否则的话,
-
10:34 - 10:38这些了不起的新技术
就会出现故障,反而伤害到我们, -
10:38 - 10:40或被黑入以后转而对抗我们。
-
10:40 - 10:45这项人工智能安全性的工作
必须包含对人工智能价值观的校准, -
10:45 - 10:48因为 AGI 会带来的威胁
通常并非出于恶意—— -
10:48 - 10:50就像是愚蠢的
好莱坞电影中表现的那样, -
10:50 - 10:52而是源于能力——
-
10:52 - 10:55AGI 想完成的目标
与我们的目标背道而驰。 -
10:55 - 11:00例如,当我们人类促使了
西非的黑犀牛灭绝时, -
11:00 - 11:04并不是因为我们是邪恶
且痛恨犀牛的家伙,对吧? -
11:04 - 11:06我们能够做到
只是因为我们比它们聪明, -
11:06 - 11:08而我们的目标和它们的目标相违背。
-
11:08 - 11:11但是 AGI 在定义上就比我们聪明,
-
11:11 - 11:15所以必须确保我们别让
自己落到了黑犀牛的境遇, -
11:15 - 11:17如果我们发明 AGI,
-
11:17 - 11:21首先就要解决如何
让机器明白我们的目标, -
11:21 - 11:24选择采用我们的目标,
并一直跟随我们的目标。 -
11:25 - 11:28不过,这些目标到底是谁的目标?
-
11:28 - 11:30这些目标到底是什么目标?
-
11:30 - 11:34这就引出了火箭比喻的
第三部分:目的地。 -
11:35 - 11:37我们要让人工智能的力量更强大,
-
11:37 - 11:39试图想办法来操控它,
-
11:39 - 11:41但我们到底想把它带去何方呢?
-
11:42 - 11:45这就像是房间里的大象,
显而易见却无人问津—— -
11:45 - 11:47甚至在 TED 也没人谈论——
-
11:47 - 11:51因为我们都把目光
聚焦于短期的人工智能挑战。 -
11:52 - 11:57你们看,我们人类
正在试图建造 AGI, -
11:57 - 12:00由我们的好奇心
以及经济需求所带动, -
12:00 - 12:04但如果我们能成功,
希望能创造出怎样的未来社会呢? -
12:05 - 12:06最近对于这一点,
我们做了一次观点投票, -
12:06 - 12:08结果很让我惊讶,
-
12:08 - 12:11大部分的人其实希望
我们能打造出超级人工智能: -
12:11 - 12:14在各个方面都
比我们聪明的人工智能, -
12:15 - 12:19大家甚至一致希望
我们应该更有野心, -
12:19 - 12:21并协助生命在宇宙中的拓展,
-
12:21 - 12:25但对于应该由谁,或者什么来主导,
大家就各持己见了。 -
12:25 - 12:27有件事我觉得非常奇妙,
-
12:27 - 12:30就是我看到有些人居然表示
让机器主导就好了。 -
12:30 - 12:32(笑声)
-
12:32 - 12:36至于人类该扮演怎样的角色,
大家的意见简直就是大相径庭, -
12:36 - 12:38即使在最基础的层面上也是,
-
12:38 - 12:41那么让我们进一步
去看看这些可能的未来, -
12:41 - 12:43我们可能去往目的地,怎么样?
-
12:43 - 12:45别误会我的意思,
-
12:45 - 12:47我不是在谈论太空旅行,
-
12:47 - 12:50只是打个比方,
人类进入未来的这个旅程。 -
12:51 - 12:54我的一些研究人工智能的同事
很喜欢的一个选择就是 -
12:54 - 12:58打造人工智能,
并确保它被人类所控制, -
12:58 - 13:00就像被奴役起来的神一样,
-
13:00 - 13:01网络连接被断开,
-
13:01 - 13:05为它的操控者创造出无法想象的
-
13:05 - 13:06科技和财富。
-
13:07 - 13:08但是艾克顿勋爵(Lord Acton)
警告过我们, -
13:08 - 13:12权力会带来腐败,
绝对的权力终将带来绝对的腐败, -
13:12 - 13:16所以也许你会担心
我们人类就是还不够聪明, -
13:16 - 13:18或者不够智慧,
-
13:18 - 13:19无法妥善处理过多的权力。
-
13:20 - 13:22还有,除了对于奴役带来的优越感,
-
13:22 - 13:25你可能还会产生道德上的忧虑,
-
13:25 - 13:29你也许会担心人工智能
能够在智慧上超越我们, -
13:29 - 13:31奋起反抗,并取得我们的控制权。
-
13:32 - 13:35但是我也有同事认为,
让人工智能来操控一切也无可厚非, -
13:35 - 13:37造成人类灭绝也无妨,
-
13:37 - 13:41只要我们觉得人工智能
配得上成为我们的后代, -
13:41 - 13:42就像是我们的孩子。
-
13:43 - 13:48但是我们如何才能知道
人工智能汲取了我们最好的价值观, -
13:48 - 13:53而不是只是一个无情的僵尸,
让我们误以为它们有人性? -
13:53 - 13:56此外,那些绝对不想
看到人类灭绝的人, -
13:56 - 13:57对此应该也有话要说吧?
-
13:58 - 14:02如果这两个高科技的选择
都不是你所希望的, -
14:02 - 14:05请记得,从宇宙历史的角度来看,
-
14:05 - 14:06低级的科技如同自杀,
-
14:06 - 14:08因为如果我们不能
远远超越今天的科技, -
14:08 - 14:11问题就不再是人类是否会灭绝,
-
14:11 - 14:13而是让我们灭绝的会是下一次
-
14:13 - 14:16巨型流星撞击地球,
还是超级火山爆发, -
14:16 - 14:19亦或是一些其他本该可以
由更好的科技来解决的问题。 -
14:19 - 14:22所以,为什么不干脆
坐享其成…… -
14:22 - 14:24使用非奴役的 AGI,
-
14:25 - 14:28因为价值观和我们一致,
愿意和我们并肩作战的 AGI? -
14:28 - 14:33尤多科斯基(Eliezer Yudkowsky) 所谓的
“友善的人工智能” 就是如此, -
14:33 - 14:35若我们能做到这点,那简直太棒了。
-
14:36 - 14:41它或许不会解决负面的影响,
如疾病,贫穷, -
14:41 - 14:42犯罪或是其它,
-
14:42 - 14:45但是它会给予我们自由,
-
14:45 - 14:49让我们从那些正面的
境遇中去选择—— -
14:49 - 14:52让我们成为自己命运的主人。
-
14:54 - 14:56总的来说,
-
14:56 - 14:59在科技上,我们的现状很复杂,
-
14:59 - 15:01但是若从大局来看,又很简单。
-
15:01 - 15:05多数人工智能的研究者认为
AGI 能在未来十年内实现, -
15:05 - 15:08如果我们没有事先
准备好去面对它们, -
15:08 - 15:11就可能成为人类历史上
最大的一个错误—— -
15:11 - 15:13我们要面对现实。
-
15:13 - 15:15它可能导致残酷的
全球独裁主义变成现实, -
15:15 - 15:19造成前所未有的
不平等监控和苦难, -
15:19 - 15:21或许甚至导致人类灭绝。
-
15:21 - 15:23但是如果我们能小心操控,
-
15:24 - 15:28我们可能会有个美好的未来,
人人都会受益的未来, -
15:28 - 15:30穷人变得富有,富人变得更富有,
-
15:30 - 15:34每个人都是健康的,
能自由地去实现他们的梦想。 -
15:35 - 15:37不过先别急。
-
15:37 - 15:41你们希望未来的政治
是左派还是右派? -
15:41 - 15:44你们想要一个有
严格道德准则的社会, -
15:44 - 15:46还是一个人人可参与的
享乐主义社会, -
15:46 - 15:48更像是个无时无刻
不在运转的火人盛会? -
15:48 - 15:51你们想要美丽的海滩、森林和湖泊,
-
15:51 - 15:53还是偏好用电脑
重新排列组成新的原子, -
15:53 - 15:55实现真正的虚拟现实?
-
15:55 - 15:59有了友善的人工智能,
我们就能轻而易举地建立这些社会, -
15:59 - 16:02让大家有自由去选择
想要生活在怎样的社会里, -
16:02 - 16:05因为我们不会再受到
自身智慧的限制, -
16:05 - 16:07唯一的限制只有物理的定律。
-
16:07 - 16:11所以资源和空间会取之不尽——
-
16:11 - 16:13毫不夸张。
-
16:13 - 16:15我们的选择如下:
-
16:16 - 16:18我们可以对未来感到自满,
-
16:19 - 16:22带着盲目的信念,
-
16:22 - 16:26相信任何科技必定是有益的,
-
16:26 - 16:30并将这个想法当作
圣歌一般,不断默念, -
16:30 - 16:34让我们像漫无目的船只,
驶向自我消亡的结局。 -
16:35 - 16:37或者,我们可以拥有雄心壮志——
-
16:38 - 16:40努力去找到操控我们科技的方法,
-
16:40 - 16:42以及向往的目的地,
-
16:42 - 16:44创造出真正令人惊奇的时代。
-
16:45 - 16:48我们相聚在这里,
赞颂这令人惊奇的时代, -
16:48 - 16:52我觉得,它的精髓应当是,
让科技赋予我们力量, -
16:53 - 16:56而非反过来受控于它。
-
16:56 - 16:57谢谢大家。
-
16:57 - 17:00(掌声)
- Title:
- 如何让人工智能赋予我们力量,而非受控于它
- Speaker:
- 麦克斯 · 泰格马克
- Description:
-
很多人工智能的研究者预期,在未来十年内,人工智能会在大部分工作上胜过我们。在这样的未来里,我们仅仅受限于物理的定律,而非我们拥有的智慧。麻省理工学院的物理学家和人工智能研究者麦克斯 · 泰格马克,为我们辨析了未来可能拥有的真正机会和错误认知中的威胁,他为我们说明了今天的我们应当采取哪些步骤,来确保人工智能最终会为人性带来最好的成果——而非糟糕的结局。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:15
Yolanda Zhang approved Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI | ||
Yolanda Zhang accepted Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How to get empowered, not overpowered, by AI |