Return to Video

如何让人工智能赋予我们力量,而非受控于它

  • 0:01 - 0:05
    在 138 亿年的历史之后,
  • 0:05 - 0:07
    我们的宇宙终于觉醒了,
  • 0:07 - 0:09
    并开始有了自我意识。
  • 0:09 - 0:12
    从一颗蓝色的小星球,
  • 0:12 - 0:16
    宇宙中那些有了微小意识的部分,
    开始用它们的望远镜,
  • 0:16 - 0:17
    窥视整个宇宙,
  • 0:17 - 0:18
    从而有了谦卑的发现。
  • 0:19 - 0:22
    宇宙比我们祖先所想象的
  • 0:22 - 0:23
    要大得多,
  • 0:23 - 0:28
    使得生命显得如同渺小的扰动,
    小到足以被忽视,
  • 0:28 - 0:30
    但若没有它们的存在,
    宇宙也没了生命。
  • 0:30 - 0:33
    不过我们也发现了
    一些振奋人心的事,
  • 0:33 - 0:36
    那就是我们所开发的技术,
    有着前所未有的潜能
  • 0:36 - 0:39
    去促使生命变得更加繁盛,
  • 0:39 - 0:42
    不仅仅只有几个世纪,
    而是持续了数十亿年;
  • 0:42 - 0:46
    也不仅仅是地球上,
    甚至是在整个浩瀚的宇宙中。
  • 0:48 - 0:51
    我把最早的生命
    称之为 “生命 1.0”,
  • 0:51 - 0:52
    因为它那会儿还略显蠢笨,
  • 0:52 - 0:57
    就像细菌,在它们的一生中,
    也不会学到什么东西。
  • 0:57 - 1:00
    我把我们人类称为 “生命 2.0”,
    因为我们能够学习,
  • 1:00 - 1:02
    用技术宅男的话来说,
  • 1:02 - 1:05
    就像是在我们脑袋里
    装了一个新的软件,
  • 1:05 - 1:07
    比如语言及工作技能。
  • 1:08 - 1:12
    而“生命 3.0” 不仅能开始设计
    它的软件,甚至还可以创造其硬件。
  • 1:12 - 1:14
    当然,它目前还不存在。
  • 1:14 - 1:17
    但是也许我们的科技
    已经让我们走进了 “生命 2.1”,
  • 1:17 - 1:22
    因为现在我们有了人工膝盖,
    心脏起搏器以及耳蜗植入技术。
  • 1:22 - 1:26
    我们一起来聊聊
    人类和科技的关系吧!
  • 1:27 - 1:28
    举个例子,
  • 1:28 - 1:33
    阿波罗 11 号月球任务
    很成功,令人备受鼓舞,
  • 1:33 - 1:36
    展示出了我们人类
    对于使用科技的智慧,
  • 1:36 - 1:40
    我们实现了很多
    祖先们只能想象的事情。
  • 1:40 - 1:43
    但还有一段更加
    鼓舞人心的旅程,
  • 1:43 - 1:46
    由比火箭引擎更加强大的
    东西所推动着,
  • 1:47 - 1:50
    乘客也不仅仅只是三个宇航员,
  • 1:50 - 1:51
    而是我们全人类。
  • 1:51 - 1:54
    让我们来聊聊与人工智能
    一起走向未来的
  • 1:54 - 1:56
    这段旅程。
  • 1:57 - 2:02
    我的朋友扬·塔林(Jaan Tallinn)常说,
    这就像是火箭学一样,
  • 2:02 - 2:05
    只让我们的科技
    拥有强大的力量是不够的。
  • 2:06 - 2:09
    如果我们有足够的
    雄心壮志,就应当想出
  • 2:09 - 2:10
    如何控制它们的方法,
  • 2:10 - 2:12
    希望它朝着怎样的方向前进。
  • 2:13 - 2:16
    那么对于人工智能,
    我们先来谈谈这三点:
  • 2:16 - 2:20
    力量,操控和目的地。
  • 2:20 - 2:21
    我们先来说力量。
  • 2:22 - 2:25
    我对于人工智能的定义非常全面——
  • 2:25 - 2:29
    就是我们能够完成复杂目标的能力,
  • 2:29 - 2:33
    因为我想把生物学
    和人工智能都包含进去。
  • 2:33 - 2:37
    我还想要避免愚蠢的
    碳沙文主义的观点,
  • 2:37 - 2:39
    即你认为如果你很聪明,
    你就一定有着肉身。
  • 2:41 - 2:45
    人工智能的力量
    在近期的发展十分惊人。
  • 2:45 - 2:46
    试想一下。
  • 2:46 - 2:50
    甚至在不久以前,
    机器人还不能走路呢。
  • 2:51 - 2:53
    现在,它们居然开始后空翻了。
  • 2:54 - 2:56
    不久以前,
  • 2:56 - 2:58
    我们还没有全自动驾驶汽车。
  • 2:59 - 3:01
    现在,我们都有
    自动飞行的火箭了。
  • 3:04 - 3:05
    不久以前,
  • 3:05 - 3:08
    人工智能甚至不能完成脸部识别。
  • 3:08 - 3:11
    现在,人工智能都开始
    生成仿真面貌了,
  • 3:11 - 3:15
    并模拟你的脸部表情,
    说出你从未说过的话。
  • 3:16 - 3:18
    不久以前,
  • 3:18 - 3:20
    人工智能还不能在围棋中战胜人类,
  • 3:20 - 3:26
    然后,谷歌的DeepMind推出的
    AlphaZero 就掌握了人类三千多年的
  • 3:26 - 3:27
    围棋比赛和智慧,
  • 3:27 - 3:31
    通过和自己对战的方式轻松秒杀我们,
    成了全球最厉害的围棋手。
  • 3:32 - 3:36
    这里最让人印象深刻的部分,
    不是它击垮了人类棋手,
  • 3:36 - 3:38
    而是它击垮了人类人工智能的研究者,
  • 3:38 - 3:42
    这些研究者花了数十年
    手工打造了下棋软件。
  • 3:42 - 3:47
    此外,AlphaZero也在国际象棋比赛中
    轻松战胜了人类的人工智能研究者们,
  • 3:47 - 3:49
    我们从 1950 年
    就开始致力于国际象棋研究。
  • 3:50 - 3:54
    所以近来,这些惊人的
    人工智能进步,让大家不禁想问:
  • 3:55 - 3:57
    它到底能达到怎样的程度?
  • 3:58 - 3:59
    我在思考这个问题时,
  • 3:59 - 4:03
    想从工作任务中的抽象地景来切入,
  • 4:03 - 4:06
    图中的海拔高度表示
    人工智能要把每一项工作
  • 4:06 - 4:07
    做到人类的水平的难度,
  • 4:07 - 4:10
    海平面表示现今的
    人工智能所达到的水平。
  • 4:11 - 4:13
    随着人工智能的进步,
    海平面会上升,
  • 4:13 - 4:17
    所以在这工作任务地景上,
    有着类似全球变暖的后果。
  • 4:18 - 4:21
    很显然,我们要避免
    从事那些近海区的工作——
  • 4:21 - 4:23
    (笑声)
  • 4:23 - 4:26
    这些工作不会一直由人来完成,
    迟早要被自动化取代。
  • 4:26 - 4:29
    然而同时,还存在一个很大的问题,
  • 4:29 - 4:31
    水平面最后会升到多高?
  • 4:31 - 4:35
    它最后是否会升高到淹没一切,
  • 4:36 - 4:38
    人工智能会不会
    最终能胜任所有的工作?
  • 4:38 - 4:42
    这就成了通用人工智能
    (Artificial general intelligence)——
  • 4:42 - 4:43
    缩写是 AGI,
  • 4:43 - 4:47
    从一开始它就是
    人工智能研究最终的圣杯。
  • 4:47 - 4:49
    根据这个定义,有人说,
  • 4:49 - 4:52
    “总是有些工作,
    人类可以做得比机器好的。”
  • 4:52 - 4:55
    意思就是,我们永远不会有 AGI。
  • 4:56 - 4:59
    当然,我们可以仍然
    保留一些人类的工作,
  • 4:59 - 5:02
    或者说,通过我们的工作
    带给人类收入和生活目标,
  • 5:02 - 5:06
    但是不论如何, AGI
    都会转变我们对生命的认知,
  • 5:06 - 5:09
    人类或许不再是最有智慧的了。
  • 5:09 - 5:13
    如果海平面真的
    上升到 AGI 的高度,
  • 5:13 - 5:18
    那么进一步的人工智能进展
    将会由人工智能来引领,而非人类,
  • 5:18 - 5:20
    那就意味着有可能,
  • 5:20 - 5:22
    进一步提升人工智能水平
    将会进行得非常迅速,
  • 5:22 - 5:26
    甚至超越用年份来计算时间的
    典型人类研究和发展,
  • 5:26 - 5:30
    提高到一种极具争议性的可能性,
    那就是智能爆炸,
  • 5:30 - 5:32
    即能够不断做自我改进的人工智能
  • 5:32 - 5:35
    很快就会遥遥领先人类,
  • 5:35 - 5:38
    创造出所谓的超级人工智能。
  • 5:40 - 5:42
    好了,回归现实:
  • 5:43 - 5:46
    我们很快就会有 AGI 吗?
  • 5:46 - 5:49
    一些著名的 AI 研究者,
    如罗德尼 · 布鲁克斯 (Rodney Brooks),
  • 5:49 - 5:52
    认为一百年内是没有可能的。
  • 5:52 - 5:56
    但是其他人,如谷歌DeepMind公司的
    创始人德米斯 · 哈萨比斯(Demis Hassabis)
  • 5:56 - 5:57
    就比较乐观,
  • 5:57 - 5:59
    且努力想要它尽早实现。
  • 5:59 - 6:03
    近期的调查显示,
    大部分的人工智能研究者
  • 6:03 - 6:06
    其实都和德米斯一样持乐观态度,
  • 6:06 - 6:09
    预期我们十年内就会有 AGI,
  • 6:10 - 6:12
    所以我们中许多人
    在有生之年就能看到,
  • 6:12 - 6:14
    这就让人不禁想问——
    那么接下来呢?
  • 6:15 - 6:17
    如果什么事情机器
    都能做得比人好,
  • 6:17 - 6:20
    成本也更低,那么人类
    又该扮演怎样的角色?
  • 6:23 - 6:25
    依我所见,我们面临一个选择。
  • 6:26 - 6:28
    选择之一是要自我满足。
  • 6:28 - 6:31
    我们可以说,“我们来建造机器,
    让它来帮助我们做一切事情,
  • 6:31 - 6:33
    不要担心后果,
  • 6:33 - 6:37
    拜托,如果我们能打造出
    让全人类都被淘汰的机器,
  • 6:37 - 6:39
    还有什么会出错吗?”
  • 6:39 - 6:40
    (笑声)
  • 6:40 - 6:43
    但我觉得那样真是差劲到悲哀。
  • 6:44 - 6:48
    我们认为我们应该更有野心——
    带着 TED 的精神。
  • 6:48 - 6:51
    让我们来想象一个
    真正鼓舞人心的高科技未来,
  • 6:51 - 6:53
    并试着朝着它前进。
  • 6:54 - 6:57
    这就把我们带到了火箭比喻的
    第二部分:操控。
  • 6:57 - 6:59
    我们让人工智能的力量更强大,
  • 6:59 - 7:03
    但是我们要如何朝着
    人工智能帮助人类未来更加繁盛,
  • 7:03 - 7:06
    而非变得挣扎的目标不断前进呢?
  • 7:07 - 7:08
    为了协助实现它,
  • 7:08 - 7:10
    我联合创办了 “未来生命研究所”
    (Future of Life Institute)。
  • 7:10 - 7:13
    它是个小型的非营利机构,
    旨在促进有益的科技使用,
  • 7:13 - 7:16
    我们的目标很简单,
    就是希望生命的未来能够存在,
  • 7:16 - 7:18
    且越是鼓舞人心越好。
  • 7:18 - 7:21
    你们知道的,我爱科技。
  • 7:21 - 7:24
    现今之所以比石器时代更好,
    就是因为科技。
  • 7:25 - 7:29
    我很乐观的认为我们能创造出
    一个非常鼓舞人心的高科技未来……
  • 7:30 - 7:31
    如果——这个 “如果” 很重要——
  • 7:31 - 7:34
    如果我们能赢得这场
    关于智慧的赛跑——
  • 7:34 - 7:37
    这场赛跑的两位竞争者
    便是我们不断成长的科技力量
  • 7:37 - 7:39
    以及我们用来管理科技的
    不断成长的智慧。
  • 7:39 - 7:42
    但这也需要策略上的改变。
  • 7:42 - 7:45
    因为我们以往的策略
    往往都是从错误中学习的。
  • 7:45 - 7:47
    我们发明了火,
  • 7:47 - 7:48
    因为搞砸了很多次——
  • 7:48 - 7:50
    我们发明出了灭火器。
  • 7:50 - 7:52
    (笑声)
  • 7:52 - 7:54
    我们发明了汽车,
    又一不小心搞砸了很多次——
  • 7:54 - 7:57
    发明了红绿灯,安全带
    和安全气囊,
  • 7:57 - 8:01
    但对于更强大的科技,
    像是核武器和 AGI,
  • 8:01 - 8:04
    要去从错误中学习,
    似乎是个比较糟糕的策略,
  • 8:04 - 8:05
    你们怎么看?
  • 8:05 - 8:06
    (笑声)
  • 8:06 - 8:09
    事前的准备比事后的
    补救要好得多;
  • 8:09 - 8:11
    提早做计划,争取一次成功,
  • 8:11 - 8:14
    因为有时我们或许
    没有第二次机会。
  • 8:14 - 8:16
    但有趣的是,
    有时候有人告诉我。
  • 8:16 - 8:19
    “麦克斯,嘘——别那样说话。
  • 8:19 - 8:22
    那是勒德分子(注:持有反机械化,
    反自动化观点的人)在制造恐慌。“
  • 8:22 - 8:24
    但这并不是制造恐慌。
  • 8:24 - 8:26
    在麻省理工学院,
    我们称之为安全工程。
  • 8:27 - 8:28
    想想看:
  • 8:28 - 8:31
    在美国航天局(NASA)
    部署阿波罗 11 号任务之前,
  • 8:31 - 8:34
    他们全面地设想过
    所有可能出错的状况,
  • 8:34 - 8:36
    毕竟是要把人类放进
    易燃易爆的太空舱里,
  • 8:36 - 8:39
    再将他们发射上
    一个无人能助的境遇。
  • 8:39 - 8:41
    可能出错的情况非常多,
  • 8:41 - 8:42
    那是在制造恐慌吗?
  • 8:43 - 8:44
    不是。
  • 8:44 - 8:46
    那正是在做安全工程的工作,
  • 8:46 - 8:48
    以确保任务顺利进行,
  • 8:48 - 8:53
    这正是我认为处理 AGI 时
    应该采取的策略。
  • 8:53 - 8:57
    想清楚什么可能出错,
    然后避免它的发生。
  • 8:57 - 8:59
    基于这样的精神,
    我们组织了几场大会,
  • 8:59 - 9:02
    邀请了世界顶尖的人工智能研究者
    和其他有想法的专业人士,
  • 9:02 - 9:06
    来探讨如何发展这样的智慧,
    从而确保人工智能对人类有益。
  • 9:06 - 9:09
    我们最近的一次大会
    去年在加州的阿西洛玛举行,
  • 9:09 - 9:12
    我们得出了 23 条原则,
  • 9:12 - 9:15
    自此已经有超过 1000 位
    人工智能研究者,以及核心企业的
  • 9:15 - 9:16
    领导人参与签署。
  • 9:16 - 9:20
    我想要和各位分享
    其中的三项原则。
  • 9:20 - 9:25
    第一,我们需要避免军备竞赛,
    以及致命的自动化武器出现。
  • 9:25 - 9:29
    其中的想法是,任何科学都可以
    用新的方式来帮助人们,
  • 9:29 - 9:31
    同样也可以以新的方式
    对我们造成伤害。
  • 9:31 - 9:35
    例如,生物和化学更可能被用来
  • 9:35 - 9:39
    制造新的医药用品,
    而非带来新的杀人方法,
  • 9:39 - 9:42
    因为生物学家和
    化学家很努力——
  • 9:42 - 9:43
    也很成功地——在推动
  • 9:43 - 9:45
    禁止生化武器的出现。
  • 9:45 - 9:46
    基于同样的精神,
  • 9:46 - 9:51
    大部分的人工智能研究者也在
    试图指责和禁止致命的自动化武器。
  • 9:52 - 9:54
    另一条阿西洛玛
    人工智能会议的原则是,
  • 9:54 - 9:57
    我们应该要减轻
    由人工智能引起的收入不平等。
  • 9:57 - 10:02
    我认为,我们能够大幅度利用
    人工智能发展出一块经济蛋糕,
  • 10:02 - 10:04
    但却没能相处如何来分配它
  • 10:04 - 10:06
    才能让所有人受益,
  • 10:06 - 10:07
    那可太丢人了。
  • 10:07 - 10:11
    (掌声)
  • 10:11 - 10:15
    那么问一个问题,如果
    你的电脑有死机过的,请举手。
  • 10:15 - 10:17
    (笑声)
  • 10:17 - 10:18
    哇,好多人举手。
  • 10:18 - 10:21
    那么你们就会感谢这条准则,
  • 10:21 - 10:24
    我们应该要投入更多
    以确保对人工智能安全性的研究,
  • 10:24 - 10:28
    因为我们让人工智能在主导
    更多决策以及基础设施时,
  • 10:28 - 10:31
    我们要了解如何将
    会出现程序错误以及有漏洞的电脑,
  • 10:31 - 10:34
    转化为可靠的人工智能,
  • 10:34 - 10:34
    否则的话,
  • 10:34 - 10:38
    这些了不起的新技术
    就会出现故障,反而伤害到我们,
  • 10:38 - 10:40
    或被黑入以后转而对抗我们。
  • 10:40 - 10:45
    这项人工智能安全性的工作
    必须包含对人工智能价值观的校准,
  • 10:45 - 10:48
    因为 AGI 会带来的威胁
    通常并非出于恶意——
  • 10:48 - 10:50
    就像是愚蠢的
    好莱坞电影中表现的那样,
  • 10:50 - 10:52
    而是源于能力——
  • 10:52 - 10:55
    AGI 想完成的目标
    与我们的目标背道而驰。
  • 10:55 - 11:00
    例如,当我们人类促使了
    西非的黑犀牛灭绝时,
  • 11:00 - 11:04
    并不是因为我们是邪恶
    且痛恨犀牛的家伙,对吧?
  • 11:04 - 11:06
    我们能够做到
    只是因为我们比它们聪明,
  • 11:06 - 11:08
    而我们的目标和它们的目标相违背。
  • 11:08 - 11:11
    但是 AGI 在定义上就比我们聪明,
  • 11:11 - 11:15
    所以必须确保我们别让
    自己落到了黑犀牛的境遇,
  • 11:15 - 11:17
    如果我们发明 AGI,
  • 11:17 - 11:21
    首先就要解决如何
    让机器明白我们的目标,
  • 11:21 - 11:24
    选择采用我们的目标,
    并一直跟随我们的目标。
  • 11:25 - 11:28
    不过,这些目标到底是谁的目标?
  • 11:28 - 11:30
    这些目标到底是什么目标?
  • 11:30 - 11:34
    这就引出了火箭比喻的
    第三部分:目的地。
  • 11:35 - 11:37
    我们要让人工智能的力量更强大,
  • 11:37 - 11:39
    试图想办法来操控它,
  • 11:39 - 11:41
    但我们到底想把它带去何方呢?
  • 11:42 - 11:45
    这就像是房间里的大象,
    显而易见却无人问津——
  • 11:45 - 11:47
    甚至在 TED 也没人谈论——
  • 11:47 - 11:51
    因为我们都把目光
    聚焦于短期的人工智能挑战。
  • 11:52 - 11:57
    你们看,我们人类
    正在试图建造 AGI,
  • 11:57 - 12:00
    由我们的好奇心
    以及经济需求所带动,
  • 12:00 - 12:04
    但如果我们能成功,
    希望能创造出怎样的未来社会呢?
  • 12:05 - 12:06
    最近对于这一点,
    我们做了一次观点投票,
  • 12:06 - 12:08
    结果很让我惊讶,
  • 12:08 - 12:11
    大部分的人其实希望
    我们能打造出超级人工智能:
  • 12:11 - 12:14
    在各个方面都
    比我们聪明的人工智能,
  • 12:15 - 12:19
    大家甚至一致希望
    我们应该更有野心,
  • 12:19 - 12:21
    并协助生命在宇宙中的拓展,
  • 12:21 - 12:25
    但对于应该由谁,或者什么来主导,
    大家就各持己见了。
  • 12:25 - 12:27
    有件事我觉得非常奇妙,
  • 12:27 - 12:30
    就是我看到有些人居然表示
    让机器主导就好了。
  • 12:30 - 12:32
    (笑声)
  • 12:32 - 12:36
    至于人类该扮演怎样的角色,
    大家的意见简直就是大相径庭,
  • 12:36 - 12:38
    即使在最基础的层面上也是,
  • 12:38 - 12:41
    那么让我们进一步
    去看看这些可能的未来,
  • 12:41 - 12:43
    我们可能去往目的地,怎么样?
  • 12:43 - 12:45
    别误会我的意思,
  • 12:45 - 12:47
    我不是在谈论太空旅行,
  • 12:47 - 12:50
    只是打个比方,
    人类进入未来的这个旅程。
  • 12:51 - 12:54
    我的一些研究人工智能的同事
    很喜欢的一个选择就是
  • 12:54 - 12:58
    打造人工智能,
    并确保它被人类所控制,
  • 12:58 - 13:00
    就像被奴役起来的神一样,
  • 13:00 - 13:01
    网络连接被断开,
  • 13:01 - 13:05
    为它的操控者创造出无法想象的
  • 13:05 - 13:06
    科技和财富。
  • 13:07 - 13:08
    但是艾克顿勋爵(Lord Acton)
    警告过我们,
  • 13:08 - 13:12
    权力会带来腐败,
    绝对的权力终将带来绝对的腐败,
  • 13:12 - 13:16
    所以也许你会担心
    我们人类就是还不够聪明,
  • 13:16 - 13:18
    或者不够智慧,
  • 13:18 - 13:19
    无法妥善处理过多的权力。
  • 13:20 - 13:22
    还有,除了对于奴役带来的优越感,
  • 13:22 - 13:25
    你可能还会产生道德上的忧虑,
  • 13:25 - 13:29
    你也许会担心人工智能
    能够在智慧上超越我们,
  • 13:29 - 13:31
    奋起反抗,并取得我们的控制权。
  • 13:32 - 13:35
    但是我也有同事认为,
    让人工智能来操控一切也无可厚非,
  • 13:35 - 13:37
    造成人类灭绝也无妨,
  • 13:37 - 13:41
    只要我们觉得人工智能
    配得上成为我们的后代,
  • 13:41 - 13:42
    就像是我们的孩子。
  • 13:43 - 13:48
    但是我们如何才能知道
    人工智能汲取了我们最好的价值观,
  • 13:48 - 13:53
    而不是只是一个无情的僵尸,
    让我们误以为它们有人性?
  • 13:53 - 13:56
    此外,那些绝对不想
    看到人类灭绝的人,
  • 13:56 - 13:57
    对此应该也有话要说吧?
  • 13:58 - 14:02
    如果这两个高科技的选择
    都不是你所希望的,
  • 14:02 - 14:05
    请记得,从宇宙历史的角度来看,
  • 14:05 - 14:06
    低级的科技如同自杀,
  • 14:06 - 14:08
    因为如果我们不能
    远远超越今天的科技,
  • 14:08 - 14:11
    问题就不再是人类是否会灭绝,
  • 14:11 - 14:13
    而是让我们灭绝的会是下一次
  • 14:13 - 14:16
    巨型流星撞击地球,
    还是超级火山爆发,
  • 14:16 - 14:19
    亦或是一些其他本该可以
    由更好的科技来解决的问题。
  • 14:19 - 14:22
    所以,为什么不干脆
    坐享其成……
  • 14:22 - 14:24
    使用非奴役的 AGI,
  • 14:25 - 14:28
    因为价值观和我们一致,
    愿意和我们并肩作战的 AGI?
  • 14:28 - 14:33
    尤多科斯基(Eliezer Yudkowsky) 所谓的
    “友善的人工智能” 就是如此,
  • 14:33 - 14:35
    若我们能做到这点,那简直太棒了。
  • 14:36 - 14:41
    它或许不会解决负面的影响,
    如疾病,贫穷,
  • 14:41 - 14:42
    犯罪或是其它,
  • 14:42 - 14:45
    但是它会给予我们自由,
  • 14:45 - 14:49
    让我们从那些正面的
    境遇中去选择——
  • 14:49 - 14:52
    让我们成为自己命运的主人。
  • 14:54 - 14:56
    总的来说,
  • 14:56 - 14:59
    在科技上,我们的现状很复杂,
  • 14:59 - 15:01
    但是若从大局来看,又很简单。
  • 15:01 - 15:05
    多数人工智能的研究者认为
    AGI 能在未来十年内实现,
  • 15:05 - 15:08
    如果我们没有事先
    准备好去面对它们,
  • 15:08 - 15:11
    就可能成为人类历史上
    最大的一个错误——
  • 15:11 - 15:13
    我们要面对现实。
  • 15:13 - 15:15
    它可能导致残酷的
    全球独裁主义变成现实,
  • 15:15 - 15:19
    造成前所未有的
    不平等监控和苦难,
  • 15:19 - 15:21
    或许甚至导致人类灭绝。
  • 15:21 - 15:23
    但是如果我们能小心操控,
  • 15:24 - 15:28
    我们可能会有个美好的未来,
    人人都会受益的未来,
  • 15:28 - 15:30
    穷人变得富有,富人变得更富有,
  • 15:30 - 15:34
    每个人都是健康的,
    能自由地去实现他们的梦想。
  • 15:35 - 15:37
    不过先别急。
  • 15:37 - 15:41
    你们希望未来的政治
    是左派还是右派?
  • 15:41 - 15:44
    你们想要一个有
    严格道德准则的社会,
  • 15:44 - 15:46
    还是一个人人可参与的
    享乐主义社会,
  • 15:46 - 15:48
    更像是个无时无刻
    不在运转的火人盛会?
  • 15:48 - 15:51
    你们想要美丽的海滩、森林和湖泊,
  • 15:51 - 15:53
    还是偏好用电脑
    重新排列组成新的原子,
  • 15:53 - 15:55
    实现真正的虚拟现实?
  • 15:55 - 15:59
    有了友善的人工智能,
    我们就能轻而易举地建立这些社会,
  • 15:59 - 16:02
    让大家有自由去选择
    想要生活在怎样的社会里,
  • 16:02 - 16:05
    因为我们不会再受到
    自身智慧的限制,
  • 16:05 - 16:07
    唯一的限制只有物理的定律。
  • 16:07 - 16:11
    所以资源和空间会取之不尽——
  • 16:11 - 16:13
    毫不夸张。
  • 16:13 - 16:15
    我们的选择如下:
  • 16:16 - 16:18
    我们可以对未来感到自满,
  • 16:19 - 16:22
    带着盲目的信念,
  • 16:22 - 16:26
    相信任何科技必定是有益的,
  • 16:26 - 16:30
    并将这个想法当作
    圣歌一般,不断默念,
  • 16:30 - 16:34
    让我们像漫无目的船只,
    驶向自我消亡的结局。
  • 16:35 - 16:37
    或者,我们可以拥有雄心壮志——
  • 16:38 - 16:40
    努力去找到操控我们科技的方法,
  • 16:40 - 16:42
    以及向往的目的地,
  • 16:42 - 16:44
    创造出真正令人惊奇的时代。
  • 16:45 - 16:48
    我们相聚在这里,
    赞颂这令人惊奇的时代,
  • 16:48 - 16:52
    我觉得,它的精髓应当是,
    让科技赋予我们力量,
  • 16:53 - 16:56
    而非反过来受控于它。
  • 16:56 - 16:57
    谢谢大家。
  • 16:57 - 17:00
    (掌声)
Title:
如何让人工智能赋予我们力量,而非受控于它
Speaker:
麦克斯 · 泰格马克
Description:

很多人工智能的研究者预期,在未来十年内,人工智能会在大部分工作上胜过我们。在这样的未来里,我们仅仅受限于物理的定律,而非我们拥有的智慧。麻省理工学院的物理学家和人工智能研究者麦克斯 · 泰格马克,为我们辨析了未来可能拥有的真正机会和错误认知中的威胁,他为我们说明了今天的我们应当采取哪些步骤,来确保人工智能最终会为人性带来最好的成果——而非糟糕的结局。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:15

Chinese, Simplified subtitles

Revisions