论文明如何自毁——以及 4 种可能的预防方法
-
0:01 - 0:03克里斯 · 安德森(CA):
尼克 · 博斯特罗姆(NB), -
0:03 - 0:07你为我们带来过这么多
疯狂的点子。 -
0:07 - 0:09我记得大概二十年前,
-
0:09 - 0:11你曾提出
我们可能都正在,或曾经 -
0:11 - 0:13生活在一个模拟世界里。
-
0:13 - 0:15最近,
-
0:15 - 0:19你用最生动的案例来说明
通用人工智能 -
0:19 - 0:21可能会带来的非常可怕的问题。
-
0:22 - 0:23接着今年,
-
0:23 - 0:26你即将发表一篇论文,
-
0:26 - 0:29题目为《脆弱世界假说》。
-
0:29 - 0:34而今天晚上我们的任务
就是来简析这篇文章。 -
0:34 - 0:36来我们开始吧。
-
0:37 - 0:39假设前提是什么呢?
-
0:40 - 0:42尼克 · 博斯特罗姆(NB):
这篇文章在试图讨论 -
0:42 - 0:46人类现状的一种结构化特征。
-
0:47 - 0:49我知道你喜欢摸球游戏的比喻,
-
0:49 - 0:51那我就用它来解释。
-
0:51 - 0:56想象一个很大的缸中装满了小球,
-
0:56 - 1:00小球代表
各种观点、方法,和可能的技术。 -
1:01 - 1:04你可以把人类的创造历史
-
1:04 - 1:08当作把手伸向这个缸
并从中不断取出小球的过程, -
1:08 - 1:12目前为止的净效益
已创造了极大的收益,对吧? -
1:12 - 1:14我们取出了很多很多白色的小球,
-
1:14 - 1:17一些或深或浅的灰色的小球,
有好有坏。 -
1:18 - 1:21我们至今
还没有拿到过黑色的小球—— -
1:22 - 1:28也就是一个必定会
摧毁其所属文明的技术。 -
1:28 - 1:31这篇论文试图讨论的就是
这个黑球可能会是什么。 -
1:31 - 1:33CA:所以你将这个球
-
1:33 - 1:36定义为必将摧毁文明的存在。
-
1:36 - 1:42NB:除非我们停止这种我称之为
半无政府的默认条件, -
1:42 - 1:44或者说默认状态。
-
1:44 - 1:48CA:也就是说你利用了一些反例
-
1:48 - 1:50做为有力佐证来说明你的观点,
-
1:50 - 1:53比如说你相信到目前为止
我们仅仅是走运, -
1:53 - 1:56而且我们在不知情的情况下,
-
1:56 - 1:57很可能已经取出了死亡之球。
-
1:57 - 2:00我记得有句名言,是什么来着?
-
2:01 - 2:03NB:我猜我只是想阐明
-
2:03 - 2:06预测基本发现
在未来可能的作用潜力的 -
2:06 - 2:08困难程度。
-
2:08 - 2:11我们真的不具备那样的能力。
-
2:11 - 2:15因为对于取出小球,
我们已经轻车熟路, -
2:15 - 2:18但是我们并没有
把球放回缸里的能力。 -
2:18 - 2:21我们可以发明,
但是我们不会回到发明前。 -
2:21 - 2:24很显然我们的战略,
-
2:24 - 2:27就是祈祷缸里没有黑球。
-
2:27 - 2:31CA:也就是说一旦把球取出来了
就没法再放回去了。 -
2:31 - 2:33你觉得我们一直挺幸运。
-
2:33 - 2:35在讲述这些例子的过程中,
-
2:35 - 2:38你谈到了不同类型的弱点。
-
2:38 - 2:40NB:最容易理解的一种类型是
-
2:40 - 2:43不费吹灰之力
-
2:43 - 2:46便能造成大规模破坏的技术。
-
2:47 - 2:51合成生物技术可能成为
这样的黑球, -
2:51 - 2:53但同时我们可以利用它
做很多事情—— -
2:53 - 2:56比如说地球工程,
非常棒,对吧? -
2:56 - 2:58我们可以利用它来应对全球变暖,
-
2:58 - 3:00但是我们肯定不希望
这种技术变得唾手可得, -
3:00 - 3:03我们不希望某个路人和他的奶奶
-
3:03 - 3:06拥有这样的能彻底
改变地球气候的能力。 -
3:06 - 3:10又或者是具备杀伤力的
自主无人机, -
3:10 - 3:13得以量产、如蚊子大小的
机械杀人虫。 -
3:14 - 3:17纳米技术,通用人工智能等。
-
3:17 - 3:19CA:在论文里,你论述到
-
3:19 - 3:22我们对能够创造原子弹的
核能的发现 -
3:22 - 3:24纯粹是走运。
-
3:24 - 3:27因此,利用身边更容易获得的资源
-
3:27 - 3:30就能制造出原子弹这样的情况,
-
3:30 - 3:31也是极有可能的。
-
3:32 - 3:35NB:没错,回顾上世纪 30 年代,
-
3:35 - 3:40当时我们在核物理学领域
取得首次突破, -
3:40 - 3:44几个天才科学家发现
引发原子核链反应是可能的, -
3:44 - 3:47接着便想到把它做成一枚炸弹。
-
3:47 - 3:49我们往下研究,
-
3:49 - 3:52发现要想做出一枚原子弹
-
3:52 - 3:54需要浓缩铀或者钚,
-
3:54 - 3:56而这些是极难弄到手的材料。
-
3:56 - 3:58需要超速离心机,
-
3:58 - 4:02需要反应堆,
能产生巨大能量的东西。 -
4:02 - 4:04但是试想一下,
-
4:04 - 4:08如果有一种很简单的方法
就能释放原子的能量。 -
4:08 - 4:10可能是在微波炉里烤沙子
-
4:10 - 4:12诸如此类的简便方法,
-
4:12 - 4:14你就能很轻而易举地
引发原子核爆。 -
4:14 - 4:16我们知道从物理学上来说
这并不可能。 -
4:16 - 4:18但是在研究相关的物理学问题之前,
-
4:18 - 4:20我们又如何知道这是不可能的呢?
-
4:20 - 4:22CA:尽管如此,为何你不能论述说
-
4:22 - 4:24地球上生命的进化
-
4:24 - 4:27暗示了地球某种稳定的环境,
-
4:27 - 4:31如果相对简单地
就能引发大规模核反应, -
4:31 - 4:33那么地球本就不会如此稳定,
-
4:33 - 4:34我们也不复存在。
-
4:35 - 4:38NB:是的,除非这种情况能轻易实现
且有人有意为之。 -
4:38 - 4:41但这种情况不会突然冒出来。
-
4:41 - 4:43我们轻易能办到的,
-
4:43 - 4:45比如说将 10 个方块
一个个叠起来, -
4:45 - 4:48但在自然中,你不会看到
一个 10 个方块为一摞的物体。 -
4:48 - 4:50CA:那么这可能就是
-
4:50 - 4:52我们很多人最为担心的一点,
-
4:52 - 4:55也就是合成生物技术
-
4:55 - 4:58很可能就是引领我们走向
可视未来的捷径。 -
4:58 - 5:01NB:是的,现在我们想想
那可能意味着什么? -
5:01 - 5:05假设任何人在某个下午,
在自己的厨房里捣腾 -
5:05 - 5:06就能毁掉一座城市。
-
5:06 - 5:10很难想象我们熟知的现代文明
-
5:10 - 5:11怎样能逃过一劫。
-
5:11 - 5:14因为任意 100 万人里面,
-
5:14 - 5:17总会有那么一些人,
出于某种原因, -
5:17 - 5:19会选择使用那种毁天灭地的能量。
-
5:20 - 5:23如果那个世界末日的残余
-
5:23 - 5:25选择要摧毁一座城市,
甚至更糟, -
5:25 - 5:26那么文明将难逃一劫。
-
5:26 - 5:29CA:文章中提到的另一种弱点。
-
5:29 - 5:30你能谈谈吗?
-
5:30 - 5:34NB:嗯,在这种显而易见的黑球外,
-
5:34 - 5:37这种能一下子引发大爆炸的黑球外,
-
5:37 - 5:42其他类型的黑球
则是通过创造不良动机, -
5:42 - 5:44鼓吹人们作恶。
-
5:44 - 5:48我们可以把它称为“ Type-2a ”,
-
5:48 - 5:53指的是
使用某些技术去怂恿大国 -
5:53 - 5:57让它们利用自身的大规模武力
带来破坏。 -
5:57 - 6:00那么核武器
其实很接近这个定义,对吧? -
6:02 - 6:05我们花了超过 10 万亿美元
-
6:05 - 6:08生产出 7 万颗原子弹,
-
6:08 - 6:10随时候命。
-
6:10 - 6:12在冷战时期,有好几次
-
6:12 - 6:14我们差一点就把世界炸得飞起。
-
6:14 - 6:17这并不是因为人们认为
炸飞彼此是一个很棒的想法, -
6:17 - 6:19我们一起花个 10 万亿
把大家炸个稀巴烂吧, -
6:19 - 6:22但是背后的推动力是如此强大,
我们发现—— -
6:22 - 6:23结果本可能会更惨重。
-
6:23 - 6:26假设第一次突袭安然无恙。
-
6:26 - 6:29那么之后,在一个危急情况下
-
6:29 - 6:31想要遏制别人发射所有的原子弹
-
6:31 - 6:32将会变得非常棘手。
-
6:32 - 6:35不为别的,因为你会害怕
对手抢先一步发射导弹。 -
6:35 - 6:38CA:对,相互制衡的毁灭性武器
-
6:38 - 6:41让冷战时期保持相对稳定,
-
6:41 - 6:42如果没有这种制衡,
我们可能也不复存在了。 -
6:42 - 6:44NB:冷战本可能比当时的局势更动荡。
-
6:44 - 6:46因为可能会有其他技术武器。
-
6:46 - 6:48假设不是核武器震慑,
-
6:48 - 6:51而是其他更小型的
或是不那么与众不同的武器, -
6:51 - 6:54军备条约怕是更难达成共识。
-
6:54 - 6:56CA:以及鼓吹强国政治力量的不良动机,
-
6:56 - 7:00你在 Type-2b 中也表示了
对怂恿常人的不良动机的担忧。 -
7:00 - 7:05NB:是的,
在这里我们可能要拿全球变暖举例。 -
7:07 - 7:09总有那么一些便利因素
-
7:09 - 7:11促使我们每一个人做出一些
-
7:11 - 7:14无足轻重的个人行为,对吧?
-
7:14 - 7:16但是如果上百亿人都这么做,
-
7:16 - 7:18累积起来,这将会产生毁灭性影响。
-
7:18 - 7:21全球变暖的情况本可能
比现在更糟糕。 -
7:21 - 7:24我们现在用的是气候敏感参数。
-
7:24 - 7:27这个参数显示
我们每释放一个单位的温室气体 -
7:27 - 7:30气温会上升多少。
-
7:30 - 7:32但是假设情况变成
-
7:32 - 7:35我们每释放一个单位的温室气体,
-
7:35 - 7:37到 2100 年
-
7:37 - 7:41气温不是上升 3 - 4.5 度,
-
7:41 - 7:43而是 15 - 20 度。
-
7:44 - 7:46那我们将可能处于水深火热之中。
-
7:46 - 7:49又或者假设很难生产再生能源。
-
7:49 - 7:52又或者地下还有很多石油。
-
7:52 - 7:55CA:在这种情况下,
那你为什么不论述—— -
7:55 - 7:57我们现在的行为
-
7:57 - 8:01在可见的一段时间里
已经造成了 10 度的气温之差, -
8:01 - 8:05那这下人们总该
认真起来,做出些改变了。 -
8:05 - 8:08我们愚蠢,但是我们可能
还不至于那么愚蠢。 -
8:08 - 8:09又或者我们就是如此愚蠢。
-
8:09 - 8:11NB:我看不一定。
-
8:11 - 8:13(笑声)
-
8:13 - 8:15你可以想象其他东西。
-
8:15 - 8:20比如现在要转向再生能源之类的
的确有些困难,对吧, -
8:20 - 8:22但是确是可行的。
-
8:22 - 8:25可能在稍有不同的物理学知识原理下,
-
8:25 - 8:27它的应用可能就会变得昂贵很多。
-
8:28 - 8:30CA:那你怎么看呢,尼克?
-
8:30 - 8:32你认为把这些可能性加总,
-
8:32 - 8:36这个地球,我们人类,
-
8:36 - 8:38就是一个脆弱的世界?
-
8:38 - 8:41我们的未来里有一个死亡之球?
-
8:44 - 8:45NB:这很难说。
-
8:45 - 8:50我的意思是,我认为缸里
可能有各种各样的黑球, -
8:50 - 8:52可能这就是我们的未来。
-
8:52 - 8:54但其中,可能也会有一些金球,
-
8:54 - 8:57能保护我们不受黑球的伤害。
-
8:57 - 9:00可我不知道
它们出现的先后顺序。 -
9:00 - 9:04CA:对这种想法的
一种可能的哲学批判是 -
9:04 - 9:10这种想法暗示着未来的大局已定。
-
9:10 - 9:13这个球要么存在,要么不存在。
-
9:13 - 9:16某种程度上,
-
9:16 - 9:18这不是我想要的未来观。
-
9:18 - 9:20我想要相信未来尚未成型,
-
9:20 - 9:23今天我们的决定将能改变未来走向
-
9:23 - 9:25也就是我们会从这个缸里
取出怎样的小球。 -
9:26 - 9:30NB:我想如果
我们一直不断发明创造, -
9:30 - 9:32最终我们会取出所有的小球。
-
9:33 - 9:36那是一种技术决定论的较弱形式,
-
9:36 - 9:37也是挺合理的。
-
9:37 - 9:40就好像你不可能遇上一个
-
9:40 - 9:43燧石斧和喷射机并存的社会。
-
9:44 - 9:48但是你可以把某种技术想象成
一种功能组合。 -
9:48 - 9:51也就是说技术能让我们
实现各种各样的事情, -
9:51 - 9:53并在这个世界中
造成各种各样的影响。 -
9:53 - 9:56我们怎样利用技术
全凭人类做出怎样的选择。 -
9:56 - 9:59但是如果我们想想这三种类型的弱点,
-
9:59 - 10:02它们做出了一个关于我们
将会选择如何使用技术的弱势假设。 -
10:02 - 10:05比如说 Type-1 弱点,
也就是大规模毁灭性力量, -
10:05 - 10:08思考上百万的人口中,
-
10:08 - 10:10会有一些人
可能会选择使用这种力量作恶, -
10:10 - 10:12这是一个相当弱的假设。
-
10:12 - 10:15CA:对于我来说,
其中最令人心烦的论点 -
10:15 - 10:19就是我们可能对于
缸里的东西已经有了一定的想法, -
10:19 - 10:23这让我们感觉——
很可能我们要完了。 -
10:23 - 10:28换句话说,
如果你相信加速的力量, -
10:28 - 10:30也就是技术固有的发展加速性,
-
10:30 - 10:33我们所打造的这些
让我们更强大的工具, -
10:33 - 10:35随后到了某个时刻,
我们会进入 -
10:35 - 10:38某个人仅凭一己之力
就能干掉所有人的境地, -
10:38 - 10:41之后这看起来似乎我们都要完了。
-
10:41 - 10:44这个论点不是有点令人恐慌?
-
10:44 - 10:46NB:呃,对啊。
-
10:47 - 10:48(笑声)
-
10:48 - 10:49我认为——
-
10:51 - 10:53我们获得越来越多的力量,
-
10:53 - 10:56这些力量用起来越来越得心应手,
-
10:56 - 11:00但是同时我们也可以发明一些技术
来帮我们控制 -
11:00 - 11:02人们如何使用这些力量。
-
11:02 - 11:05CA:那我们来谈谈面对这些危机的反应。
-
11:05 - 11:07假设想想这些可能性
-
11:07 - 11:09现有的这些可能性——
-
11:09 - 11:13不单单是合成生物技术,
还是网络战, -
11:13 - 11:16人工智能,等等等等——
-
11:16 - 11:21我们的未来可能注定难逃一切。
-
11:21 - 11:23那人们可能会有怎样的反应呢?
-
11:23 - 11:27你在文章中
也谈过四种可能的反应。 -
11:27 - 11:31NB:限制技术发展看起来不太可能,
-
11:31 - 11:35如果我们谈的是技术发展的全面停滞。
-
11:35 - 11:36我觉得非但不可行,
-
11:36 - 11:39而且哪怕我们有能力这么做,
又有谁会想这么做。 -
11:39 - 11:41我想在极少数的领域,
-
11:41 - 11:44你可能会想要放慢发展的步伐。
-
11:44 - 11:47比如说你不会希望
生化武器得到快速发展, -
11:47 - 11:49又或者说同位素分离,
-
11:49 - 11:52那是有助于生产原子弹的东西。
-
11:53 - 11:56CA:换作以前,
我会十分同意你这里的观点。 -
11:56 - 11:59但是现在,
我倒是想要三思一下。 -
11:59 - 12:00因为首先,
-
12:00 - 12:04如果我们回顾
过去几十年的历史, -
12:04 - 12:07这段时期,
我们一直都在全速前进, -
12:07 - 12:09这还好,那是我们唯一的选择。
-
12:09 - 12:13但如果你看看
全球化及其的加速发展, -
12:13 - 12:16如果看看那个
“快速行动,破除陈规”的策略 -
12:16 - 12:18及其带来的后果,
-
12:18 - 12:21再看看合成生物技术的潜力所在,
-
12:21 - 12:26我不认为
我们应该快速发展, -
12:26 - 12:27或者不加以任何约束,
-
12:27 - 12:30奔向一个人手一台 DNA 打印机,
-
12:30 - 12:33DNA 打印机变成高中实验室标配的
世界。 -
12:33 - 12:35是有一些的约束,对吗?
-
12:35 - 12:37NB:有可能,这是第一部分,
但是并不可行。 -
12:37 - 12:40如果你觉得
阻止这一切是人心所向, -
12:40 - 12:41那么还有可行性问题。
-
12:41 - 12:44如果只是一个国家这么做
并没多大用处—— -
12:44 - 12:46CA:不,一个国家不管用,
-
12:46 - 12:49但是我们之前有过国际条约。
-
12:49 - 12:52这才是我们
真正度过核危机的方法—— -
12:52 - 12:53走出国门,
-
12:53 - 12:56历经痛苦的斡旋谈判。
-
12:56 - 13:02我在想,作为一项全球优先事务,
这其中的逻辑 -
13:02 - 13:04不应该是我们走出国门并尝试,
-
13:04 - 13:06比如现在,开始协商并制定出
一些非常严格的规定 -
13:06 - 13:09来约束合成生物的研究吗?
-
13:09 - 13:12这可不是什么
你想要民主化的东西,对吧? -
13:12 - 13:14NB:我完全赞成——
-
13:15 - 13:17举个例子,
-
13:17 - 13:21也许拥有 DNA 合成仪器
挺诱人的, -
13:21 - 13:25并非作为每个实验室
都有的那种产品, -
13:25 - 13:27而可能作为一种服务。
-
13:27 - 13:29也许世界上能有那么 4 - 5 个地方,
-
13:29 - 13:33你可以把自己的电子蓝图发过去,
然后得到自己的 DNA 图谱。 -
13:33 - 13:36如果这个技术变成必需的一天
真的来了, -
13:36 - 13:37那你就会获得这种能力,
-
13:37 - 13:39我们也会有一组有限的要塞点。
-
13:39 - 13:43所以我认为你会想
寻找某些特殊的机会, -
13:43 - 13:45使你有更强的控制。
-
13:45 - 13:47CA:你的观点是,最终,
-
13:47 - 13:50仅依靠放慢脚步,
我们是无法成功的。 -
13:50 - 13:52某人,在某个地方——
北朝鲜—— -
13:52 - 13:56某人会发现这样的知识,
-
13:56 - 13:57如果它真的存在的话。
-
13:57 - 14:00NB:在当前的情况来看貌似是合理的。
-
14:00 - 14:01也不仅限于合成生物技术。
-
14:01 - 14:04我想世界上任何新的前沿的改变,
-
14:04 - 14:06都可能是一个黑球。
-
14:06 - 14:08CA:我们再看看另一种可能的反应。
-
14:08 - 14:10NB:我想这种反应的潜能是有限的。
-
14:10 - 14:14我们再看看 Type-1 弱点,
-
14:14 - 14:17如果能减少那些有动力因素
-
14:17 - 14:19去毁灭世界的人数,
-
14:19 - 14:21如果有这样的方法和途径,
-
14:21 - 14:22那会是件好事。
-
14:22 - 14:25CA:在这个你希望我们想象的图景中,
-
14:25 - 14:27你想象着带着面部识别的无人机
-
14:27 - 14:28满世界飞。
-
14:28 - 14:31当它们发现有人表现出
反社会行为倾向时, -
14:31 - 14:33它们会施以爱的沐浴,并修正他们。
-
14:33 - 14:36NB:我想这会是个混合的图景。
-
14:36 - 14:40消除可以表示禁闭或杀害,
-
14:40 - 14:43也可以意味着,
劝说人们看到世界更美好的一面。 -
14:43 - 14:44但是重点是,
-
14:44 - 14:47假设你深谙此道,
-
14:47 - 14:50你把害人之马的数目减半了。
-
14:50 - 14:52而且假如你想通过劝说来实现,
-
14:52 - 14:54那么你就是在和那些
-
14:54 - 14:56如政党,宗教,教育体系等
-
14:56 - 14:58试图游说人们的进行力量比拼。
-
14:58 - 15:00但是假设你
真能把害人之马的数目减半, -
15:00 - 15:02我不认为风险就会相应地
被削弱一半。 -
15:02 - 15:04可能只是减少 5% - 10% 。
-
15:04 - 15:08CA:你并不推荐我们把人类的未来
押在第二种反应上。 -
15:08 - 15:12NB:我觉得阻止和劝服人们是好的,
-
15:12 - 15:14但是我们不应该将此做为
我们唯一的保护措施。 -
15:14 - 15:15CA:那么第三种呢?
-
15:15 - 15:18NB:我觉得有两种通用的方法,
-
15:18 - 15:22我们可以利用它们
来获取稳定世界的能力 -
15:22 - 15:25来对抗所有一切可能的弱点。
-
15:25 - 15:29我们很可能会同时需要两者。
-
15:29 - 15:31一种是能够实施
-
15:31 - 15:33极为有效的预防管制的能力。
-
15:33 - 15:35如果有人做出危险之事,
-
15:35 - 15:37你可以拦截,
-
15:37 - 15:40你可以进行实时拦截,
并阻止他们。 -
15:40 - 15:43而这需要无孔不入的监管,
-
15:43 - 15:45所有人无时无刻都被监视。
-
15:46 - 15:49CA:那某种程度就是
”少数派报告“里的情景了。 -
15:49 - 15:52NB:你可能会使用人工智能算法
-
15:52 - 15:55来审查大型自由中心的这些数据等等。
-
15:56 - 16:01CA:你应该知道大众监控
现在不是个很吃香的词吧? -
16:01 - 16:02(笑声)
-
16:03 - 16:05NB:是的,
所以图中的一个小小设备, -
16:05 - 16:08把它想象成一个
你需要 24 小时佩戴的 -
16:08 - 16:11上面有多角度摄像头的项链。
-
16:12 - 16:13为了听起来不那么膈应,
-
16:13 - 16:16我们就叫它”自由标签“什么的。
-
16:16 - 16:19(笑声)
-
16:19 - 16:19CA:好吧。
-
16:19 - 16:21这就是对话呀,朋友们,
-
16:21 - 16:26这就是为什么
这是一场令人震撼的对话呀。 -
16:26 - 16:27NB:事实上,就这个主题
已经有很广泛的讨论了, -
16:27 - 16:29很明显,单单针对这个主题本身。
-
16:29 - 16:31这背后有非常严重的
问题和风险,对吧? -
16:31 - 16:33我们待会可以再谈谈。
-
16:33 - 16:34所以另外一种方法,
也是最后的方法, -
16:34 - 16:37另一种带来普遍稳定性的能力
-
16:37 - 16:39大致就是插入另一个管制间隙。
-
16:39 - 16:43那么就可以在微观层面进行监管,
-
16:43 - 16:46比如说防止任何人做出
严重违法的行为。 -
16:46 - 16:49然后有一个对应的
-
16:49 - 16:50宏观、全球性层面的监管间隙。
-
16:50 - 16:54你需要凭借这种能力,
-
16:54 - 16:57可靠地,
来防止最糟糕的全球性协调失灵, -
16:57 - 17:01来避免强权之间的战争,
-
17:01 - 17:02军备竞赛,
-
17:03 - 17:06灾难性的常见问题,
-
17:08 - 17:12以应对 Type-2a 弱点。
-
17:12 - 17:14CA:全球治理这一名词
-
17:14 - 17:16现在无疑是最不受待见的,
-
17:16 - 17:19但是你能否通过历史,
-
17:19 - 17:20人类的历史来说明
-
17:20 - 17:25在每一个技术力量上升的阶段,
-
17:25 - 17:28人们会重组这种力量并加以集中。
-
17:28 - 17:32比如说
当一群四处为非作歹的罪犯 -
17:32 - 17:34就能挟持一个社会的时候,
-
17:34 - 17:36那么对应的手段是国家,
-
17:36 - 17:38集中力量,
警察部队或一支军队, -
17:38 - 17:40站出来说“你不能这么做。”
-
17:40 - 17:45这里面的逻辑,
让单个人或单个群体 -
17:45 - 17:46拥有保护人类的能力
-
17:46 - 17:49意味着在某个时刻
我们将不得不需要走这条路, -
17:49 - 17:51至少在某些形式上,不是吗?
-
17:51 - 17:54NB:在人类的发展历程中
政治组织发展规模之壮大 -
17:54 - 17:56是毋庸置疑的。
-
17:56 - 17:58以前曾是捕猎者和采集者群体,
-
17:58 - 18:01接着是部落、城邦、国家,
-
18:01 - 18:05现在有国际组织,诸如此类。
-
18:05 - 18:07我想再次确认的一点是
-
18:07 - 18:09我有这样的机会去强调
-
18:09 - 18:11大众监管和全球治理
-
18:11 - 18:13很明显存在的巨大缺点
-
18:13 - 18:15以及巨大的风险。
-
18:15 - 18:19我刚指出的只是如果我们走运,
-
18:19 - 18:21想要躲过黑球的灾难
-
18:21 - 18:22也就那么些方法。
-
18:22 - 18:25CA:这个理论的逻辑,
-
18:25 - 18:26就我而言,
-
18:26 - 18:30我们得承认我们不可能无往不胜。
-
18:30 - 18:31也就是,
-
18:33 - 18:36我会说,
那种很多人都有的痴心妄想中, -
18:36 - 18:40技术永远是一种向善的力量,
-
18:40 - 18:43继续前进、别停下来、全速前进,
-
18:43 - 18:45并且不计后果,
-
18:45 - 18:46其实根本没有这个选择。
-
18:46 - 18:49我们可以全速发展科技。
-
18:49 - 18:51但如果我们继续这么发展科技,
-
18:51 - 18:52我们就将要必须接受
-
18:52 - 18:54随之而来的
一些非常令人不适的不便, -
18:54 - 18:56这有点像和我们自己比赛,
-
18:56 - 18:59如果你想拥有力量,
你最好能限制它的使用, -
18:59 - 19:01你最好想办法如何限制它的使用。
-
19:01 - 19:04NB:我想这是一种选择,
-
19:04 - 19:07非常诱人的一种选择,
某种程度上也是最简单的选择, -
19:07 - 19:08还可能奏效,
-
19:08 - 19:13但这也意味着我们本质上很脆弱,
不能承受取出黑球之重。 -
19:13 - 19:15现在我认为,一定的协调能力
-
19:15 - 19:18比方说如果真的解决了
宏观管理问题 -
19:18 - 19:20以及微观治理问题,
-
19:20 - 19:22那么我们可以一次性
从缸里取出所有的小球。 -
19:22 - 19:24那么我们将会极其受益。
-
19:24 - 19:28CA:我想,如果我们活在
一个模拟世界中,这又有什么关系? -
19:28 - 19:29我们重启就好了。
-
19:29 - 19:31(笑声)
-
19:31 - 19:32NB:那……我……
-
19:32 - 19:35(笑声)
-
19:35 - 19:36我没想到你会这么说。
-
19:38 - 19:39CA:那么你的看法呢?
-
19:39 - 19:44综合来看,
我们在劫难逃的几率有多高? -
19:44 - 19:46(笑声)
-
19:47 - 19:49我喜欢当你问这个问题的时候
大家笑成这样。 -
19:49 - 19:51NB:在个人的层面,
-
19:51 - 19:54从时间线上来看
我们终究难逃一劫, -
19:54 - 19:57我们在腐烂,在老化,
诸如此类的,对吧? -
19:57 - 19:59(笑声)
-
19:59 - 20:01事实上很难说。
-
20:01 - 20:03如果你想通过一个设定来附加概率,
-
20:03 - 20:04首先要问的是,我们是谁?
-
20:04 - 20:07如果你年事已高,
很可能你会自然死亡, -
20:07 - 20:10如果你还很年轻,
你可能能活到 100 岁—— -
20:10 - 20:12这个概率的大小
取决于你问的对象是谁。 -
20:12 - 20:16接着我们得问,怎样才算是文明毁灭?
-
20:16 - 20:22在文章里我不需要存在的灾难
-
20:22 - 20:23来计算概率。
-
20:23 - 20:25主要看你怎样定义,
-
20:25 - 20:26我可以说 10 亿的死亡人数,
-
20:26 - 20:28或者 GDP 下降 50% ,
-
20:28 - 20:31但是一切取决于
你所设定的起点是什么, -
20:31 - 20:33起点不同,
所得到的概率估算随之不同。 -
20:33 - 20:37但是我想你可以把我看做是
一个害怕的乐观主义者吧。 -
20:37 - 20:38(笑声)
-
20:38 - 20:40CA:如果你是一个害怕的乐观主义者,
-
20:40 - 20:44那我想你刚刚就催生了一帮
同样害怕的…… -
20:44 - 20:45人们。
-
20:45 - 20:47(笑声)
-
20:47 - 20:48NB:在模拟世界里。
-
20:48 - 20:49CA:在一个模拟世界里。
-
20:49 - 20:51尼克 · 博斯特罗姆,
你的思维真让我大开眼界, -
20:51 - 20:54非常感谢你今天在光天化日之下
把我们大家都吓得不行。 -
20:54 - 20:56(掌声)
- Title:
- 论文明如何自毁——以及 4 种可能的预防方法
- Speaker:
- 尼克 · 博斯特罗姆
- Description:
-
人类文明正在创造一个“黑球”——一种可以摧毁所有的技术突破,哲学家尼克 · 博斯特罗姆(Nick Bostrom)如是说。在和 TED 总负责人克里斯 · 安德森(Chris Anderson)的一席尖锐却又意外轻松的对话中,博斯特罗姆概述如果(或当)我们的发明脱离了控制,我们可能面临的几种弱点,以及探讨我们该如何防止末日的降临。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
Coco Shen approved Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Coco Shen edited Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Jiasi Hao accepted Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Jiasi Hao edited Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Jiasi Hao edited Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Jiasi Hao edited Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Jiasi Hao edited Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | ||
Jiasi Hao edited Chinese, Simplified subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |