Return to Video

论文明如何自毁——以及 4 种可能的预防方法

  • 0:01 - 0:03
    克里斯 · 安德森(CA):
    尼克 · 博斯特罗姆(NB),
  • 0:03 - 0:07
    你为我们带来过这么多
    疯狂的点子。
  • 0:07 - 0:09
    我记得大概二十年前,
  • 0:09 - 0:11
    你曾提出
    我们可能都正在,或曾经
  • 0:11 - 0:13
    生活在一个模拟世界里。
  • 0:13 - 0:15
    最近,
  • 0:15 - 0:19
    你用最生动的案例来说明
    通用人工智能
  • 0:19 - 0:21
    可能会带来的非常可怕的问题。
  • 0:22 - 0:23
    接着今年,
  • 0:23 - 0:26
    你即将发表一篇论文,
  • 0:26 - 0:29
    题目为《脆弱世界假说》。
  • 0:29 - 0:34
    而今天晚上我们的任务
    就是来简析这篇文章。
  • 0:34 - 0:36
    来我们开始吧。
  • 0:37 - 0:39
    假设前提是什么呢?
  • 0:40 - 0:42
    尼克 · 博斯特罗姆(NB):
    这篇文章在试图讨论
  • 0:42 - 0:46
    人类现状的一种结构化特征。
  • 0:47 - 0:49
    我知道你喜欢摸球游戏的比喻,
  • 0:49 - 0:51
    那我就用它来解释。
  • 0:51 - 0:56
    想象一个很大的缸中装满了小球,
  • 0:56 - 1:00
    小球代表
    各种观点、方法,和可能的技术。
  • 1:01 - 1:04
    你可以把人类的创造历史
  • 1:04 - 1:08
    当作把手伸向这个缸
    并从中不断取出小球的过程,
  • 1:08 - 1:12
    目前为止的净效益
    已创造了极大的收益,对吧?
  • 1:12 - 1:14
    我们取出了很多很多白色的小球,
  • 1:14 - 1:17
    一些或深或浅的灰色的小球,
    有好有坏。
  • 1:18 - 1:21
    我们至今
    还没有拿到过黑色的小球——
  • 1:22 - 1:28
    也就是一个必定会
    摧毁其所属文明的技术。
  • 1:28 - 1:31
    这篇论文试图讨论的就是
    这个黑球可能会是什么。
  • 1:31 - 1:33
    CA:所以你将这个球
  • 1:33 - 1:36
    定义为必将摧毁文明的存在。
  • 1:36 - 1:42
    NB:除非我们停止这种我称之为
    半无政府的默认条件,
  • 1:42 - 1:44
    或者说默认状态。
  • 1:44 - 1:48
    CA:也就是说你利用了一些反例
  • 1:48 - 1:50
    做为有力佐证来说明你的观点,
  • 1:50 - 1:53
    比如说你相信到目前为止
    我们仅仅是走运,
  • 1:53 - 1:56
    而且我们在不知情的情况下,
  • 1:56 - 1:57
    很可能已经取出了死亡之球。
  • 1:57 - 2:00
    我记得有句名言,是什么来着?
  • 2:01 - 2:03
    NB:我猜我只是想阐明
  • 2:03 - 2:06
    预测基本发现
    在未来可能的作用潜力的
  • 2:06 - 2:08
    困难程度。
  • 2:08 - 2:11
    我们真的不具备那样的能力。
  • 2:11 - 2:15
    因为对于取出小球,
    我们已经轻车熟路,
  • 2:15 - 2:18
    但是我们并没有
    把球放回缸里的能力。
  • 2:18 - 2:21
    我们可以发明,
    但是我们不会回到发明前。
  • 2:21 - 2:24
    很显然我们的战略,
  • 2:24 - 2:27
    就是祈祷缸里没有黑球。
  • 2:27 - 2:31
    CA:也就是说一旦把球取出来了
    就没法再放回去了。
  • 2:31 - 2:33
    你觉得我们一直挺幸运。
  • 2:33 - 2:35
    在讲述这些例子的过程中,
  • 2:35 - 2:38
    你谈到了不同类型的弱点。
  • 2:38 - 2:40
    NB:最容易理解的一种类型是
  • 2:40 - 2:43
    不费吹灰之力
  • 2:43 - 2:46
    便能造成大规模破坏的技术。
  • 2:47 - 2:51
    合成生物技术可能成为
    这样的黑球,
  • 2:51 - 2:53
    但同时我们可以利用它
    做很多事情——
  • 2:53 - 2:56
    比如说地球工程,
    非常棒,对吧?
  • 2:56 - 2:58
    我们可以利用它来应对全球变暖,
  • 2:58 - 3:00
    但是我们肯定不希望
    这种技术变得唾手可得,
  • 3:00 - 3:03
    我们不希望某个路人和他的奶奶
  • 3:03 - 3:06
    拥有这样的能彻底
    改变地球气候的能力。
  • 3:06 - 3:10
    又或者是具备杀伤力的
    自主无人机,
  • 3:10 - 3:13
    得以量产、如蚊子大小的
    机械杀人虫。
  • 3:14 - 3:17
    纳米技术,通用人工智能等。
  • 3:17 - 3:19
    CA:在论文里,你论述到
  • 3:19 - 3:22
    我们对能够创造原子弹的
    核能的发现
  • 3:22 - 3:24
    纯粹是走运。
  • 3:24 - 3:27
    因此,利用身边更容易获得的资源
  • 3:27 - 3:30
    就能制造出原子弹这样的情况,
  • 3:30 - 3:31
    也是极有可能的。
  • 3:32 - 3:35
    NB:没错,回顾上世纪 30 年代,
  • 3:35 - 3:40
    当时我们在核物理学领域
    取得首次突破,
  • 3:40 - 3:44
    几个天才科学家发现
    引发原子核链反应是可能的,
  • 3:44 - 3:47
    接着便想到把它做成一枚炸弹。
  • 3:47 - 3:49
    我们往下研究,
  • 3:49 - 3:52
    发现要想做出一枚原子弹
  • 3:52 - 3:54
    需要浓缩铀或者钚,
  • 3:54 - 3:56
    而这些是极难弄到手的材料。
  • 3:56 - 3:58
    需要超速离心机,
  • 3:58 - 4:02
    需要反应堆,
    能产生巨大能量的东西。
  • 4:02 - 4:04
    但是试想一下,
  • 4:04 - 4:08
    如果有一种很简单的方法
    就能释放原子的能量。
  • 4:08 - 4:10
    可能是在微波炉里烤沙子
  • 4:10 - 4:12
    诸如此类的简便方法,
  • 4:12 - 4:14
    你就能很轻而易举地
    引发原子核爆。
  • 4:14 - 4:16
    我们知道从物理学上来说
    这并不可能。
  • 4:16 - 4:18
    但是在研究相关的物理学问题之前,
  • 4:18 - 4:20
    我们又如何知道这是不可能的呢?
  • 4:20 - 4:22
    CA:尽管如此,为何你不能论述说
  • 4:22 - 4:24
    地球上生命的进化
  • 4:24 - 4:27
    暗示了地球某种稳定的环境,
  • 4:27 - 4:31
    如果相对简单地
    就能引发大规模核反应,
  • 4:31 - 4:33
    那么地球本就不会如此稳定,
  • 4:33 - 4:34
    我们也不复存在。
  • 4:35 - 4:38
    NB:是的,除非这种情况能轻易实现
    且有人有意为之。
  • 4:38 - 4:41
    但这种情况不会突然冒出来。
  • 4:41 - 4:43
    我们轻易能办到的,
  • 4:43 - 4:45
    比如说将 10 个方块
    一个个叠起来,
  • 4:45 - 4:48
    但在自然中,你不会看到
    一个 10 个方块为一摞的物体。
  • 4:48 - 4:50
    CA:那么这可能就是
  • 4:50 - 4:52
    我们很多人最为担心的一点,
  • 4:52 - 4:55
    也就是合成生物技术
  • 4:55 - 4:58
    很可能就是引领我们走向
    可视未来的捷径。
  • 4:58 - 5:01
    NB:是的,现在我们想想
    那可能意味着什么?
  • 5:01 - 5:05
    假设任何人在某个下午,
    在自己的厨房里捣腾
  • 5:05 - 5:06
    就能毁掉一座城市。
  • 5:06 - 5:10
    很难想象我们熟知的现代文明
  • 5:10 - 5:11
    怎样能逃过一劫。
  • 5:11 - 5:14
    因为任意 100 万人里面,
  • 5:14 - 5:17
    总会有那么一些人,
    出于某种原因,
  • 5:17 - 5:19
    会选择使用那种毁天灭地的能量。
  • 5:20 - 5:23
    如果那个世界末日的残余
  • 5:23 - 5:25
    选择要摧毁一座城市,
    甚至更糟,
  • 5:25 - 5:26
    那么文明将难逃一劫。
  • 5:26 - 5:29
    CA:文章中提到的另一种弱点。
  • 5:29 - 5:30
    你能谈谈吗?
  • 5:30 - 5:34
    NB:嗯,在这种显而易见的黑球外,
  • 5:34 - 5:37
    这种能一下子引发大爆炸的黑球外,
  • 5:37 - 5:42
    其他类型的黑球
    则是通过创造不良动机,
  • 5:42 - 5:44
    鼓吹人们作恶。
  • 5:44 - 5:48
    我们可以把它称为“ Type-2a ”,
  • 5:48 - 5:53
    指的是
    使用某些技术去怂恿大国
  • 5:53 - 5:57
    让它们利用自身的大规模武力
    带来破坏。
  • 5:57 - 6:00
    那么核武器
    其实很接近这个定义,对吧?
  • 6:02 - 6:05
    我们花了超过 10 万亿美元
  • 6:05 - 6:08
    生产出 7 万颗原子弹,
  • 6:08 - 6:10
    随时候命。
  • 6:10 - 6:12
    在冷战时期,有好几次
  • 6:12 - 6:14
    我们差一点就把世界炸得飞起。
  • 6:14 - 6:17
    这并不是因为人们认为
    炸飞彼此是一个很棒的想法,
  • 6:17 - 6:19
    我们一起花个 10 万亿
    把大家炸个稀巴烂吧,
  • 6:19 - 6:22
    但是背后的推动力是如此强大,
    我们发现——
  • 6:22 - 6:23
    结果本可能会更惨重。
  • 6:23 - 6:26
    假设第一次突袭安然无恙。
  • 6:26 - 6:29
    那么之后,在一个危急情况下
  • 6:29 - 6:31
    想要遏制别人发射所有的原子弹
  • 6:31 - 6:32
    将会变得非常棘手。
  • 6:32 - 6:35
    不为别的,因为你会害怕
    对手抢先一步发射导弹。
  • 6:35 - 6:38
    CA:对,相互制衡的毁灭性武器
  • 6:38 - 6:41
    让冷战时期保持相对稳定,
  • 6:41 - 6:42
    如果没有这种制衡,
    我们可能也不复存在了。
  • 6:42 - 6:44
    NB:冷战本可能比当时的局势更动荡。
  • 6:44 - 6:46
    因为可能会有其他技术武器。
  • 6:46 - 6:48
    假设不是核武器震慑,
  • 6:48 - 6:51
    而是其他更小型的
    或是不那么与众不同的武器,
  • 6:51 - 6:54
    军备条约怕是更难达成共识。
  • 6:54 - 6:56
    CA:以及鼓吹强国政治力量的不良动机,
  • 6:56 - 7:00
    你在 Type-2b 中也表示了
    对怂恿常人的不良动机的担忧。
  • 7:00 - 7:05
    NB:是的,
    在这里我们可能要拿全球变暖举例。
  • 7:07 - 7:09
    总有那么一些便利因素
  • 7:09 - 7:11
    促使我们每一个人做出一些
  • 7:11 - 7:14
    无足轻重的个人行为,对吧?
  • 7:14 - 7:16
    但是如果上百亿人都这么做,
  • 7:16 - 7:18
    累积起来,这将会产生毁灭性影响。
  • 7:18 - 7:21
    全球变暖的情况本可能
    比现在更糟糕。
  • 7:21 - 7:24
    我们现在用的是气候敏感参数。
  • 7:24 - 7:27
    这个参数显示
    我们每释放一个单位的温室气体
  • 7:27 - 7:30
    气温会上升多少。
  • 7:30 - 7:32
    但是假设情况变成
  • 7:32 - 7:35
    我们每释放一个单位的温室气体,
  • 7:35 - 7:37
    到 2100 年
  • 7:37 - 7:41
    气温不是上升 3 - 4.5 度,
  • 7:41 - 7:43
    而是 15 - 20 度。
  • 7:44 - 7:46
    那我们将可能处于水深火热之中。
  • 7:46 - 7:49
    又或者假设很难生产再生能源。
  • 7:49 - 7:52
    又或者地下还有很多石油。
  • 7:52 - 7:55
    CA:在这种情况下,
    那你为什么不论述——
  • 7:55 - 7:57
    我们现在的行为
  • 7:57 - 8:01
    在可见的一段时间里
    已经造成了 10 度的气温之差,
  • 8:01 - 8:05
    那这下人们总该
    认真起来,做出些改变了。
  • 8:05 - 8:08
    我们愚蠢,但是我们可能
    还不至于那么愚蠢。
  • 8:08 - 8:09
    又或者我们就是如此愚蠢。
  • 8:09 - 8:11
    NB:我看不一定。
  • 8:11 - 8:13
    (笑声)
  • 8:13 - 8:15
    你可以想象其他东西。
  • 8:15 - 8:20
    比如现在要转向再生能源之类的
    的确有些困难,对吧,
  • 8:20 - 8:22
    但是确是可行的。
  • 8:22 - 8:25
    可能在稍有不同的物理学知识原理下,
  • 8:25 - 8:27
    它的应用可能就会变得昂贵很多。
  • 8:28 - 8:30
    CA:那你怎么看呢,尼克?
  • 8:30 - 8:32
    你认为把这些可能性加总,
  • 8:32 - 8:36
    这个地球,我们人类,
  • 8:36 - 8:38
    就是一个脆弱的世界?
  • 8:38 - 8:41
    我们的未来里有一个死亡之球?
  • 8:44 - 8:45
    NB:这很难说。
  • 8:45 - 8:50
    我的意思是,我认为缸里
    可能有各种各样的黑球,
  • 8:50 - 8:52
    可能这就是我们的未来。
  • 8:52 - 8:54
    但其中,可能也会有一些金球,
  • 8:54 - 8:57
    能保护我们不受黑球的伤害。
  • 8:57 - 9:00
    可我不知道
    它们出现的先后顺序。
  • 9:00 - 9:04
    CA:对这种想法的
    一种可能的哲学批判是
  • 9:04 - 9:10
    这种想法暗示着未来的大局已定。
  • 9:10 - 9:13
    这个球要么存在,要么不存在。
  • 9:13 - 9:16
    某种程度上,
  • 9:16 - 9:18
    这不是我想要的未来观。
  • 9:18 - 9:20
    我想要相信未来尚未成型,
  • 9:20 - 9:23
    今天我们的决定将能改变未来走向
  • 9:23 - 9:25
    也就是我们会从这个缸里
    取出怎样的小球。
  • 9:26 - 9:30
    NB:我想如果
    我们一直不断发明创造,
  • 9:30 - 9:32
    最终我们会取出所有的小球。
  • 9:33 - 9:36
    那是一种技术决定论的较弱形式,
  • 9:36 - 9:37
    也是挺合理的。
  • 9:37 - 9:40
    就好像你不可能遇上一个
  • 9:40 - 9:43
    燧石斧和喷射机并存的社会。
  • 9:44 - 9:48
    但是你可以把某种技术想象成
    一种功能组合。
  • 9:48 - 9:51
    也就是说技术能让我们
    实现各种各样的事情,
  • 9:51 - 9:53
    并在这个世界中
    造成各种各样的影响。
  • 9:53 - 9:56
    我们怎样利用技术
    全凭人类做出怎样的选择。
  • 9:56 - 9:59
    但是如果我们想想这三种类型的弱点,
  • 9:59 - 10:02
    它们做出了一个关于我们
    将会选择如何使用技术的弱势假设。
  • 10:02 - 10:05
    比如说 Type-1 弱点,
    也就是大规模毁灭性力量,
  • 10:05 - 10:08
    思考上百万的人口中,
  • 10:08 - 10:10
    会有一些人
    可能会选择使用这种力量作恶,
  • 10:10 - 10:12
    这是一个相当弱的假设。
  • 10:12 - 10:15
    CA:对于我来说,
    其中最令人心烦的论点
  • 10:15 - 10:19
    就是我们可能对于
    缸里的东西已经有了一定的想法,
  • 10:19 - 10:23
    这让我们感觉——
    很可能我们要完了。
  • 10:23 - 10:28
    换句话说,
    如果你相信加速的力量,
  • 10:28 - 10:30
    也就是技术固有的发展加速性,
  • 10:30 - 10:33
    我们所打造的这些
    让我们更强大的工具,
  • 10:33 - 10:35
    随后到了某个时刻,
    我们会进入
  • 10:35 - 10:38
    某个人仅凭一己之力
    就能干掉所有人的境地,
  • 10:38 - 10:41
    之后这看起来似乎我们都要完了。
  • 10:41 - 10:44
    这个论点不是有点令人恐慌?
  • 10:44 - 10:46
    NB:呃,对啊。
  • 10:47 - 10:48
    (笑声)
  • 10:48 - 10:49
    我认为——
  • 10:51 - 10:53
    我们获得越来越多的力量,
  • 10:53 - 10:56
    这些力量用起来越来越得心应手,
  • 10:56 - 11:00
    但是同时我们也可以发明一些技术
    来帮我们控制
  • 11:00 - 11:02
    人们如何使用这些力量。
  • 11:02 - 11:05
    CA:那我们来谈谈面对这些危机的反应。
  • 11:05 - 11:07
    假设想想这些可能性
  • 11:07 - 11:09
    现有的这些可能性——
  • 11:09 - 11:13
    不单单是合成生物技术,
    还是网络战,
  • 11:13 - 11:16
    人工智能,等等等等——
  • 11:16 - 11:21
    我们的未来可能注定难逃一切。
  • 11:21 - 11:23
    那人们可能会有怎样的反应呢?
  • 11:23 - 11:27
    你在文章中
    也谈过四种可能的反应。
  • 11:27 - 11:31
    NB:限制技术发展看起来不太可能,
  • 11:31 - 11:35
    如果我们谈的是技术发展的全面停滞。
  • 11:35 - 11:36
    我觉得非但不可行,
  • 11:36 - 11:39
    而且哪怕我们有能力这么做,
    又有谁会想这么做。
  • 11:39 - 11:41
    我想在极少数的领域,
  • 11:41 - 11:44
    你可能会想要放慢发展的步伐。
  • 11:44 - 11:47
    比如说你不会希望
    生化武器得到快速发展,
  • 11:47 - 11:49
    又或者说同位素分离,
  • 11:49 - 11:52
    那是有助于生产原子弹的东西。
  • 11:53 - 11:56
    CA:换作以前,
    我会十分同意你这里的观点。
  • 11:56 - 11:59
    但是现在,
    我倒是想要三思一下。
  • 11:59 - 12:00
    因为首先,
  • 12:00 - 12:04
    如果我们回顾
    过去几十年的历史,
  • 12:04 - 12:07
    这段时期,
    我们一直都在全速前进,
  • 12:07 - 12:09
    这还好,那是我们唯一的选择。
  • 12:09 - 12:13
    但如果你看看
    全球化及其的加速发展,
  • 12:13 - 12:16
    如果看看那个
    “快速行动,破除陈规”的策略
  • 12:16 - 12:18
    及其带来的后果,
  • 12:18 - 12:21
    再看看合成生物技术的潜力所在,
  • 12:21 - 12:26
    我不认为
    我们应该快速发展,
  • 12:26 - 12:27
    或者不加以任何约束,
  • 12:27 - 12:30
    奔向一个人手一台 DNA 打印机,
  • 12:30 - 12:33
    DNA 打印机变成高中实验室标配的
    世界。
  • 12:33 - 12:35
    是有一些的约束,对吗?
  • 12:35 - 12:37
    NB:有可能,这是第一部分,
    但是并不可行。
  • 12:37 - 12:40
    如果你觉得
    阻止这一切是人心所向,
  • 12:40 - 12:41
    那么还有可行性问题。
  • 12:41 - 12:44
    如果只是一个国家这么做
    并没多大用处——
  • 12:44 - 12:46
    CA:不,一个国家不管用,
  • 12:46 - 12:49
    但是我们之前有过国际条约。
  • 12:49 - 12:52
    这才是我们
    真正度过核危机的方法——
  • 12:52 - 12:53
    走出国门,
  • 12:53 - 12:56
    历经痛苦的斡旋谈判。
  • 12:56 - 13:02
    我在想,作为一项全球优先事务,
    这其中的逻辑
  • 13:02 - 13:04
    不应该是我们走出国门并尝试,
  • 13:04 - 13:06
    比如现在,开始协商并制定出
    一些非常严格的规定
  • 13:06 - 13:09
    来约束合成生物的研究吗?
  • 13:09 - 13:12
    这可不是什么
    你想要民主化的东西,对吧?
  • 13:12 - 13:14
    NB:我完全赞成——
  • 13:15 - 13:17
    举个例子,
  • 13:17 - 13:21
    也许拥有 DNA 合成仪器
    挺诱人的,
  • 13:21 - 13:25
    并非作为每个实验室
    都有的那种产品,
  • 13:25 - 13:27
    而可能作为一种服务。
  • 13:27 - 13:29
    也许世界上能有那么 4 - 5 个地方,
  • 13:29 - 13:33
    你可以把自己的电子蓝图发过去,
    然后得到自己的 DNA 图谱。
  • 13:33 - 13:36
    如果这个技术变成必需的一天
    真的来了,
  • 13:36 - 13:37
    那你就会获得这种能力,
  • 13:37 - 13:39
    我们也会有一组有限的要塞点。
  • 13:39 - 13:43
    所以我认为你会想
    寻找某些特殊的机会,
  • 13:43 - 13:45
    使你有更强的控制。
  • 13:45 - 13:47
    CA:你的观点是,最终,
  • 13:47 - 13:50
    仅依靠放慢脚步,
    我们是无法成功的。
  • 13:50 - 13:52
    某人,在某个地方——
    北朝鲜——
  • 13:52 - 13:56
    某人会发现这样的知识,
  • 13:56 - 13:57
    如果它真的存在的话。
  • 13:57 - 14:00
    NB:在当前的情况来看貌似是合理的。
  • 14:00 - 14:01
    也不仅限于合成生物技术。
  • 14:01 - 14:04
    我想世界上任何新的前沿的改变,
  • 14:04 - 14:06
    都可能是一个黑球。
  • 14:06 - 14:08
    CA:我们再看看另一种可能的反应。
  • 14:08 - 14:10
    NB:我想这种反应的潜能是有限的。
  • 14:10 - 14:14
    我们再看看 Type-1 弱点,
  • 14:14 - 14:17
    如果能减少那些有动力因素
  • 14:17 - 14:19
    去毁灭世界的人数,
  • 14:19 - 14:21
    如果有这样的方法和途径,
  • 14:21 - 14:22
    那会是件好事。
  • 14:22 - 14:25
    CA:在这个你希望我们想象的图景中,
  • 14:25 - 14:27
    你想象着带着面部识别的无人机
  • 14:27 - 14:28
    满世界飞。
  • 14:28 - 14:31
    当它们发现有人表现出
    反社会行为倾向时,
  • 14:31 - 14:33
    它们会施以爱的沐浴,并修正他们。
  • 14:33 - 14:36
    NB:我想这会是个混合的图景。
  • 14:36 - 14:40
    消除可以表示禁闭或杀害,
  • 14:40 - 14:43
    也可以意味着,
    劝说人们看到世界更美好的一面。
  • 14:43 - 14:44
    但是重点是,
  • 14:44 - 14:47
    假设你深谙此道,
  • 14:47 - 14:50
    你把害人之马的数目减半了。
  • 14:50 - 14:52
    而且假如你想通过劝说来实现,
  • 14:52 - 14:54
    那么你就是在和那些
  • 14:54 - 14:56
    如政党,宗教,教育体系等
  • 14:56 - 14:58
    试图游说人们的进行力量比拼。
  • 14:58 - 15:00
    但是假设你
    真能把害人之马的数目减半,
  • 15:00 - 15:02
    我不认为风险就会相应地
    被削弱一半。
  • 15:02 - 15:04
    可能只是减少 5% - 10% 。
  • 15:04 - 15:08
    CA:你并不推荐我们把人类的未来
    押在第二种反应上。
  • 15:08 - 15:12
    NB:我觉得阻止和劝服人们是好的,
  • 15:12 - 15:14
    但是我们不应该将此做为
    我们唯一的保护措施。
  • 15:14 - 15:15
    CA:那么第三种呢?
  • 15:15 - 15:18
    NB:我觉得有两种通用的方法,
  • 15:18 - 15:22
    我们可以利用它们
    来获取稳定世界的能力
  • 15:22 - 15:25
    来对抗所有一切可能的弱点。
  • 15:25 - 15:29
    我们很可能会同时需要两者。
  • 15:29 - 15:31
    一种是能够实施
  • 15:31 - 15:33
    极为有效的预防管制的能力。
  • 15:33 - 15:35
    如果有人做出危险之事,
  • 15:35 - 15:37
    你可以拦截,
  • 15:37 - 15:40
    你可以进行实时拦截,
    并阻止他们。
  • 15:40 - 15:43
    而这需要无孔不入的监管,
  • 15:43 - 15:45
    所有人无时无刻都被监视。
  • 15:46 - 15:49
    CA:那某种程度就是
    ”少数派报告“里的情景了。
  • 15:49 - 15:52
    NB:你可能会使用人工智能算法
  • 15:52 - 15:55
    来审查大型自由中心的这些数据等等。
  • 15:56 - 16:01
    CA:你应该知道大众监控
    现在不是个很吃香的词吧?
  • 16:01 - 16:02
    (笑声)
  • 16:03 - 16:05
    NB:是的,
    所以图中的一个小小设备,
  • 16:05 - 16:08
    把它想象成一个
    你需要 24 小时佩戴的
  • 16:08 - 16:11
    上面有多角度摄像头的项链。
  • 16:12 - 16:13
    为了听起来不那么膈应,
  • 16:13 - 16:16
    我们就叫它”自由标签“什么的。
  • 16:16 - 16:19
    (笑声)
  • 16:19 - 16:19
    CA:好吧。
  • 16:19 - 16:21
    这就是对话呀,朋友们,
  • 16:21 - 16:26
    这就是为什么
    这是一场令人震撼的对话呀。
  • 16:26 - 16:27
    NB:事实上,就这个主题
    已经有很广泛的讨论了,
  • 16:27 - 16:29
    很明显,单单针对这个主题本身。
  • 16:29 - 16:31
    这背后有非常严重的
    问题和风险,对吧?
  • 16:31 - 16:33
    我们待会可以再谈谈。
  • 16:33 - 16:34
    所以另外一种方法,
    也是最后的方法,
  • 16:34 - 16:37
    另一种带来普遍稳定性的能力
  • 16:37 - 16:39
    大致就是插入另一个管制间隙。
  • 16:39 - 16:43
    那么就可以在微观层面进行监管,
  • 16:43 - 16:46
    比如说防止任何人做出
    严重违法的行为。
  • 16:46 - 16:49
    然后有一个对应的
  • 16:49 - 16:50
    宏观、全球性层面的监管间隙。
  • 16:50 - 16:54
    你需要凭借这种能力,
  • 16:54 - 16:57
    可靠地,
    来防止最糟糕的全球性协调失灵,
  • 16:57 - 17:01
    来避免强权之间的战争,
  • 17:01 - 17:02
    军备竞赛,
  • 17:03 - 17:06
    灾难性的常见问题,
  • 17:08 - 17:12
    以应对 Type-2a 弱点。
  • 17:12 - 17:14
    CA:全球治理这一名词
  • 17:14 - 17:16
    现在无疑是最不受待见的,
  • 17:16 - 17:19
    但是你能否通过历史,
  • 17:19 - 17:20
    人类的历史来说明
  • 17:20 - 17:25
    在每一个技术力量上升的阶段,
  • 17:25 - 17:28
    人们会重组这种力量并加以集中。
  • 17:28 - 17:32
    比如说
    当一群四处为非作歹的罪犯
  • 17:32 - 17:34
    就能挟持一个社会的时候,
  • 17:34 - 17:36
    那么对应的手段是国家,
  • 17:36 - 17:38
    集中力量,
    警察部队或一支军队,
  • 17:38 - 17:40
    站出来说“你不能这么做。”
  • 17:40 - 17:45
    这里面的逻辑,
    让单个人或单个群体
  • 17:45 - 17:46
    拥有保护人类的能力
  • 17:46 - 17:49
    意味着在某个时刻
    我们将不得不需要走这条路,
  • 17:49 - 17:51
    至少在某些形式上,不是吗?
  • 17:51 - 17:54
    NB:在人类的发展历程中
    政治组织发展规模之壮大
  • 17:54 - 17:56
    是毋庸置疑的。
  • 17:56 - 17:58
    以前曾是捕猎者和采集者群体,
  • 17:58 - 18:01
    接着是部落、城邦、国家,
  • 18:01 - 18:05
    现在有国际组织,诸如此类。
  • 18:05 - 18:07
    我想再次确认的一点是
  • 18:07 - 18:09
    我有这样的机会去强调
  • 18:09 - 18:11
    大众监管和全球治理
  • 18:11 - 18:13
    很明显存在的巨大缺点
  • 18:13 - 18:15
    以及巨大的风险。
  • 18:15 - 18:19
    我刚指出的只是如果我们走运,
  • 18:19 - 18:21
    想要躲过黑球的灾难
  • 18:21 - 18:22
    也就那么些方法。
  • 18:22 - 18:25
    CA:这个理论的逻辑,
  • 18:25 - 18:26
    就我而言,
  • 18:26 - 18:30
    我们得承认我们不可能无往不胜。
  • 18:30 - 18:31
    也就是,
  • 18:33 - 18:36
    我会说,
    那种很多人都有的痴心妄想中,
  • 18:36 - 18:40
    技术永远是一种向善的力量,
  • 18:40 - 18:43
    继续前进、别停下来、全速前进,
  • 18:43 - 18:45
    并且不计后果,
  • 18:45 - 18:46
    其实根本没有这个选择。
  • 18:46 - 18:49
    我们可以全速发展科技。
  • 18:49 - 18:51
    但如果我们继续这么发展科技,
  • 18:51 - 18:52
    我们就将要必须接受
  • 18:52 - 18:54
    随之而来的
    一些非常令人不适的不便,
  • 18:54 - 18:56
    这有点像和我们自己比赛,
  • 18:56 - 18:59
    如果你想拥有力量,
    你最好能限制它的使用,
  • 18:59 - 19:01
    你最好想办法如何限制它的使用。
  • 19:01 - 19:04
    NB:我想这是一种选择,
  • 19:04 - 19:07
    非常诱人的一种选择,
    某种程度上也是最简单的选择,
  • 19:07 - 19:08
    还可能奏效,
  • 19:08 - 19:13
    但这也意味着我们本质上很脆弱,
    不能承受取出黑球之重。
  • 19:13 - 19:15
    现在我认为,一定的协调能力
  • 19:15 - 19:18
    比方说如果真的解决了
    宏观管理问题
  • 19:18 - 19:20
    以及微观治理问题,
  • 19:20 - 19:22
    那么我们可以一次性
    从缸里取出所有的小球。
  • 19:22 - 19:24
    那么我们将会极其受益。
  • 19:24 - 19:28
    CA:我想,如果我们活在
    一个模拟世界中,这又有什么关系?
  • 19:28 - 19:29
    我们重启就好了。
  • 19:29 - 19:31
    (笑声)
  • 19:31 - 19:32
    NB:那……我……
  • 19:32 - 19:35
    (笑声)
  • 19:35 - 19:36
    我没想到你会这么说。
  • 19:38 - 19:39
    CA:那么你的看法呢?
  • 19:39 - 19:44
    综合来看,
    我们在劫难逃的几率有多高?
  • 19:44 - 19:46
    (笑声)
  • 19:47 - 19:49
    我喜欢当你问这个问题的时候
    大家笑成这样。
  • 19:49 - 19:51
    NB:在个人的层面,
  • 19:51 - 19:54
    从时间线上来看
    我们终究难逃一劫,
  • 19:54 - 19:57
    我们在腐烂,在老化,
    诸如此类的,对吧?
  • 19:57 - 19:59
    (笑声)
  • 19:59 - 20:01
    事实上很难说。
  • 20:01 - 20:03
    如果你想通过一个设定来附加概率,
  • 20:03 - 20:04
    首先要问的是,我们是谁?
  • 20:04 - 20:07
    如果你年事已高,
    很可能你会自然死亡,
  • 20:07 - 20:10
    如果你还很年轻,
    你可能能活到 100 岁——
  • 20:10 - 20:12
    这个概率的大小
    取决于你问的对象是谁。
  • 20:12 - 20:16
    接着我们得问,怎样才算是文明毁灭?
  • 20:16 - 20:22
    在文章里我不需要存在的灾难
  • 20:22 - 20:23
    来计算概率。
  • 20:23 - 20:25
    主要看你怎样定义,
  • 20:25 - 20:26
    我可以说 10 亿的死亡人数,
  • 20:26 - 20:28
    或者 GDP 下降 50% ,
  • 20:28 - 20:31
    但是一切取决于
    你所设定的起点是什么,
  • 20:31 - 20:33
    起点不同,
    所得到的概率估算随之不同。
  • 20:33 - 20:37
    但是我想你可以把我看做是
    一个害怕的乐观主义者吧。
  • 20:37 - 20:38
    (笑声)
  • 20:38 - 20:40
    CA:如果你是一个害怕的乐观主义者,
  • 20:40 - 20:44
    那我想你刚刚就催生了一帮
    同样害怕的……
  • 20:44 - 20:45
    人们。
  • 20:45 - 20:47
    (笑声)
  • 20:47 - 20:48
    NB:在模拟世界里。
  • 20:48 - 20:49
    CA:在一个模拟世界里。
  • 20:49 - 20:51
    尼克 · 博斯特罗姆,
    你的思维真让我大开眼界,
  • 20:51 - 20:54
    非常感谢你今天在光天化日之下
    把我们大家都吓得不行。
  • 20:54 - 20:56
    (掌声)
Title:
论文明如何自毁——以及 4 种可能的预防方法
Speaker:
尼克 · 博斯特罗姆
Description:

人类文明正在创造一个“黑球”——一种可以摧毁所有的技术突破,哲学家尼克 · 博斯特罗姆(Nick Bostrom)如是说。在和 TED 总负责人克里斯 · 安德森(Chris Anderson)的一席尖锐却又意外轻松的对话中,博斯特罗姆概述如果(或当)我们的发明脱离了控制,我们可能面临的几种弱点,以及探讨我们该如何防止末日的降临。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Chinese, Simplified subtitles

Revisions