人工智能是如何让我们变得更好的
-
0:00 - 0:02这是李世石。
-
0:02 - 0:06李世石是全世界
最顶尖的围棋高手之一, -
0:06 - 0:09在这一刻,他所经历的
足以让我硅谷的朋友们 -
0:09 - 0:11喊一句”我的天啊“——
-
0:11 - 0:12(笑声)
-
0:12 - 0:14在这一刻,我们意识到
-
0:14 - 0:17原来人工智能发展的进程
比我们预想的要快得多。 -
0:18 - 0:21人们在围棋棋盘上已经输了,
那在现实世界中又如何呢? -
0:21 - 0:23当然了,现实世界要
比围棋棋盘要大得多, -
0:23 - 0:25复杂得多。
-
0:25 - 0:27相比之下每一步也没那么明确,
-
0:27 - 0:30但现实世界仍然是一个选择性问题。
-
0:31 - 0:33如果我们想想那一些在不久的未来,
-
0:33 - 0:35即将来临的新科技……
-
0:36 - 0:40Noriko提到机器还不能进行阅读,
-
0:40 - 0:42至少达不到理解的程度,
-
0:42 - 0:43但这迟早会发生,
-
0:43 - 0:45而当它发生时,
-
0:45 - 0:46不久之后,
-
0:46 - 0:51机器就将读遍人类写下的所有东西。
-
0:52 - 0:54这将使机器除了拥有
-
0:54 - 0:57比人类看得更远的能力,
-
0:57 - 0:59就像我们在围棋中看到的那样,
-
0:59 - 1:01如果机器能接触到比人类更多的信息,
-
1:01 - 1:05则将能够在现实世界中
做出比人类更好的选择。 -
1:07 - 1:08那这是一件好事吗?
-
1:10 - 1:12我当然希望如此。
-
1:15 - 1:18人类的全部文明,
我们所珍视的一切, -
1:18 - 1:20都是基于我们的智慧之上。
-
1:20 - 1:24如果我们能掌控更强大的智能,
-
1:24 - 1:27那我们人类的 创造力
就真的没有极限了。 -
1:29 - 1:32我认为这可能就像很多人描述的那样
-
1:32 - 1:34会成为人类历史上最重要的事件。
-
1:37 - 1:39那为什么有的人会说出以下的言论,
-
1:39 - 1:42说人工智能将是人类的末日呢?
-
1:43 - 1:45这是一个新事物吗?
-
1:45 - 1:49这只关乎伊隆马斯克、
比尔盖茨,和斯提芬霍金吗? -
1:50 - 1:53其实不是的,人工智能
这个概念已经存在很长时间了。 -
1:53 - 1:55请看这段话:
-
1:55 - 2:00“即便我们能够将机器
维持在一个屈服于我们的地位, -
2:00 - 2:03比如说,在战略性时刻将电源关闭。”——
-
2:03 - 2:05我等会儿再来讨论
”关闭电源“这一话题, -
2:05 - 2:09”我们,作为一个物种,
仍然应该自感惭愧。“ -
2:10 - 2:14这段话是谁说的呢?
是阿兰图灵,他在1951年说的。 -
2:14 - 2:17阿兰图灵,众所皆知,
是计算机科学之父。 -
2:17 - 2:20从很多意义上说,
他也是人工智能之父。 -
2:21 - 2:23当我们考虑这个问题,
-
2:23 - 2:27创造一个比自己更智能的
物种的问题时, -
2:27 - 2:30我们不妨将它称为”大猩猩问题“,
-
2:30 - 2:34因为这正是大猩猩的
祖先们几百万年前所经历的。 -
2:34 - 2:36我们今天可以去问大猩猩们:
-
2:37 - 2:38那么做是不是一个好主意?
-
2:38 - 2:41在这幅图里,大猩猩们正在
开会讨论那么做是不是一个好主意, -
2:41 - 2:45片刻后他们下定结论,不是的。
-
2:45 - 2:46那是一个很糟糕的主意。
-
2:46 - 2:48我们的物种已经奄奄一息了,
-
2:49 - 2:53你都可以从它们的眼神中看到这种忧伤,
-
2:53 - 2:54(笑声)
-
2:54 - 2:59所以创造比你自己更聪明的物种,
-
2:59 - 3:02也许不是一个好主意——
-
3:02 - 3:04那我们能做些什么呢?
-
3:04 - 3:09其实没什么能做的,
除了停止研究人工智能, -
3:09 - 3:11但因为人工智能能带来
我之前所说的诸多益处, -
3:11 - 3:13也因为我是
人工智能的研究者之一, -
3:13 - 3:15我可不同意就这么止步。
-
3:15 - 3:18实际上,我想继续做人工智能。
-
3:19 - 3:21所以我们需要把这个问题更细化一点,
-
3:21 - 3:23它到底是什么呢?
-
3:23 - 3:26那就是为什么更强大的
人工智能可能会是灾难呢? -
3:27 - 3:29再来看这段话:
-
3:30 - 3:33”我们一定得确保我们
给机器输入的目的和价值 -
3:33 - 3:36是我们确实想要的目的和价值。“
-
3:36 - 3:40这是诺博特维纳在1960年说的,
-
3:40 - 3:44他说这话时是刚看到
一个早期的学习系统, -
3:44 - 3:47这个系统在学习如何能把
西洋棋下得比它的创造者更好。 -
3:49 - 3:51与此如出一辙的一句话,
-
3:51 - 3:52迈达斯国王也说过。
-
3:53 - 3:56迈达斯国王说:”我希望
我触碰的所有东西都变成金子。“ -
3:56 - 3:59结果他真的获得了点石成金的能力。
-
3:59 - 4:01那就是他所输入的目的,
-
4:01 - 4:03从一定程度上说,
-
4:03 - 4:06后来他的食物、
他的家人都变成了金子, -
4:06 - 4:09他死在痛苦与饥饿之中。
-
4:10 - 4:13我们可以把这个问题
叫做”迈达斯问题“, -
4:13 - 4:16这个问题是我们阐述的目标,但实际上
-
4:16 - 4:19与我们真正想要的不一致,
-
4:19 - 4:22用现代的术语来说,
我们把它称为”价值一致性问题“。 -
4:25 - 4:28而输入错误的目标
仅仅是问题的一部分。 -
4:28 - 4:30它还有另一部分。
-
4:30 - 4:32如果你为机器输入一个目标,
-
4:32 - 4:35即便是一个很简单的目标,
比如说”去把咖啡端来“, -
4:36 - 4:38机器会对自己说:
-
4:39 - 4:41”好吧,那我要怎么去拿咖啡呢?
-
4:41 - 4:43说不定有人会把我的电源关掉。
-
4:44 - 4:46好吧,那我要想办法
阻止别人把我关掉。 -
4:46 - 4:48我得让我的‘关闭’开关失效。
-
4:49 - 4:51我得尽一切可能自我防御,
不让别人干涉我, -
4:51 - 4:54这都是因为我被赋予的目标。”
-
4:54 - 4:56这种一根筋的思维,
-
4:57 - 5:00以一种十分防御型的
模式去实现某一目标, -
5:00 - 5:03实际上与我们人类最初
想实现的目标并不一致—— -
5:04 - 5:06这就是我们面临的问题。
-
5:07 - 5:12实际上,这就是今天这个演讲的核心。
-
5:12 - 5:14如果你在我的演讲中只记住一件事,
-
5:14 - 5:16那就是:如果你死了,
你就不能去端咖啡了。 -
5:16 - 5:17(笑声)
-
5:17 - 5:21这很简单。记住它就行了。
每天对自己重复三遍。 -
5:21 - 5:23(笑声)
-
5:23 - 5:26实际上,这正是电影
-
5:26 - 5:29《2001太空漫步》的剧情。
-
5:29 - 5:31HAL有一个目标,一个任务,
-
5:31 - 5:35但这个目标和人类的目标不一致,
-
5:35 - 5:37这就导致了矛盾的产生。
-
5:37 - 5:40幸运的是,HAL并不具备超级智能,
-
5:40 - 5:44他挺聪明的,但还是
比不过人类主角戴夫, -
5:44 - 5:46戴夫成功地把HAL关掉了。
-
5:50 - 5:51但我们可能就没有这么幸运了。
-
5:56 - 5:58那我们应该怎么办呢?
-
6:00 - 6:03我想要重新定义人工智能,
-
6:03 - 6:05远离传统的定义,
-
6:05 - 6:10将其仅限定为
机器通过智能去达成目标。 -
6:11 - 6:12新的定义涉及到三个原则:
-
6:12 - 6:16第一个原则是利他主义原则,
-
6:16 - 6:19也就是说,机器的唯一目标
-
6:19 - 6:23就是去最大化地实现人类的目标,
-
6:23 - 6:25人类的价值。
-
6:25 - 6:28至于价值,我指的不是感情化的价值,
-
6:28 - 6:32而是指人类对生活所向往的,
-
6:32 - 6:33无论是什么。
-
6:35 - 6:37这实际上违背了阿西莫夫定律,
-
6:37 - 6:40他指出机器人一定要维护自己的生存。
-
6:40 - 6:44但我定义的机器
对维护自身生存毫无兴趣。 -
6:45 - 6:49第二个原则不妨称之为谦逊原则。
-
6:50 - 6:54这一条对于制造安全的机器十分重要。
-
6:54 - 6:57它说的是机器不知道
-
6:57 - 6:59人类的价值是什么,
-
6:59 - 7:03机器知道它需要将人类的价值最大化,
却不知道这价值究竟是什么。 -
7:03 - 7:06为了避免一根筋地追求
-
7:06 - 7:07某一目标,
-
7:07 - 7:09这种不确定性是至关重要的。
-
7:10 - 7:11那机器为了对我们有用,
-
7:11 - 7:14它就得掌握一些
关于我们想要什么的信息。 -
7:15 - 7:21它主要通过观察人类
做的选择来获取这样的信息, -
7:21 - 7:23我们自己做出的选择会包含着
-
7:23 - 7:27关于我们希望我们的生活
是什么样的信息, -
7:29 - 7:30这就是三条原则。
-
7:30 - 7:32让我们来看看它们是如何应用到
-
7:32 - 7:35像图灵说的那样,
“将机器关掉”这个问题上来。 -
7:37 - 7:39这是一个PR2机器人。
-
7:39 - 7:41我们实验室里有一个。
-
7:41 - 7:44它的背面有一个大大的红色的开关。
-
7:45 - 7:47那问题来了:它会让你把它关掉吗?
-
7:47 - 7:48如果我们按传统的方法,
-
7:48 - 7:52给它一个目标,让它拿咖啡,
它会想:”我必须去拿咖啡, -
7:52 - 7:55但我死了就不能拿咖啡了。“
-
7:55 - 7:58显然PR2听过我的演讲了,
-
7:58 - 8:02所以它说:”我必须让我的开关失灵,
-
8:03 - 8:05可能还要把那些在星巴克里,
-
8:05 - 8:07可能干扰我的人都电击一下。“
-
8:07 - 8:09(笑声)
-
8:09 - 8:11这看起来必然会发生,对吗?
-
8:11 - 8:14这种失败看起来是必然的,
-
8:14 - 8:18因为机器人在遵循
一个十分确定的目标。 -
8:19 - 8:22那如果机器对目标
不那么确定会发生什么呢? -
8:22 - 8:24那它的思路就不一样了。
-
8:24 - 8:27它会说:”好的,人类可能会把我关掉,
-
8:27 - 8:29但只在我做错事的时候。
-
8:30 - 8:32我不知道什么是错事,
-
8:32 - 8:34但我知道我不该做那些事。”
-
8:34 - 8:37这就是第一和第二原则。
-
8:37 - 8:41“那我就应该让人类把我关掉。”
-
8:42 - 8:46事实上你可以计算出机器人
-
8:46 - 8:48让人类把它关掉的动机,
-
8:48 - 8:50而且这个动机是
-
8:50 - 8:53与对目标的不确定程度直接相关的。
-
8:54 - 8:57当机器被关闭后,
-
8:57 - 8:59第三条原则就起作用了。
-
8:59 - 9:02机器开始学习它所追求的目标,
-
9:02 - 9:04因为它知道它刚做的事是不对的。
-
9:04 - 9:08实际上,我们可以用希腊字母
-
9:08 - 9:10就像数学家们经常做的那样,
-
9:10 - 9:12直接证明这一定理,
-
9:12 - 9:16那就是这样的一个机器人
对人们是绝对有利的。 -
9:16 - 9:19可以证明我们的生活
有如此设计的机器人会变得 -
9:19 - 9:21比没有这样的机器人更好。
-
9:21 - 9:24这是一个很简单的例子,但这只是
-
9:24 - 9:28我们尝试实现与人类
兼容的人工智能的第一步。 -
9:31 - 9:34现在来看第三个原则。
-
9:34 - 9:36我知道你们可能正在
为这一个原则而大伤脑筋。 -
9:36 - 9:40你可能会想:“你知道,
我有时不按规矩办事。 -
9:40 - 9:43我可不希望我的机器人
像我一样行事。 -
9:43 - 9:46我有时大半夜偷偷摸摸地
从冰箱里找东西吃, -
9:46 - 9:47诸如此类的事。”
-
9:47 - 9:51有各种各样的事你是
不希望机器人去做的。 -
9:51 - 9:52但实际上并不一定会这样。
-
9:52 - 9:55仅仅是因为你表现不好,
-
9:55 - 9:57并不代表机器人就会复制你的行为。
-
9:57 - 10:02它会去尝试理解你做事的动机,
而且可能会在合适的情况下制止你去做 -
10:02 - 10:03那些不该做的事。
-
10:04 - 10:06但这仍然十分困难。
-
10:06 - 10:09实际上,我们在做的是
-
10:09 - 10:15让机器去预测任何一个人,
在他们的任何一种 -
10:15 - 10:16可能的生活中
-
10:16 - 10:18以及别人的生活中,
-
10:18 - 10:20他们会更倾向于哪一种?
-
10:22 - 10:25这涉及到诸多困难;
-
10:25 - 10:28我不认为这会很快地就被解决。
-
10:28 - 10:31实际上,真正的困难是我们自己。
-
10:32 - 10:35就像我刚说的那样,
我们做事不守规矩, -
10:35 - 10:38我们中有的人甚至行为肮脏。
-
10:38 - 10:41就像我说的,
机器人并不会复制那些行为, -
10:41 - 10:44机器人没有自己的目标,
-
10:44 - 10:46它是完全无私的。
-
10:47 - 10:52它的设计不是去满足
某一个人、一个用户的欲望, -
10:52 - 10:56而是去尊重所有人的意愿。
-
10:57 - 11:00所以它能对付一定程度的肮脏行为。
-
11:00 - 11:04它甚至能理解你的不端行为,比如说
-
11:04 - 11:06假如你是一个边境护照官员,
很可能收取贿赂, -
11:06 - 11:10因为你得养家、
得供你的孩子们上学。 -
11:10 - 11:13机器人能理解这一点,
它不会因此去偷, -
11:13 - 11:16它反而会帮助你去供孩子们上学。
-
11:17 - 11:20我们的计算能力也是有限的。
-
11:20 - 11:22李世石是一个杰出的围棋大师,
-
11:22 - 11:24但他还是输了。
-
11:24 - 11:28如果我们看他的行动,
他最终输掉了棋局。 -
11:28 - 11:30但这不意味着他想要输。
-
11:31 - 11:33所以要理解他的行为,
-
11:33 - 11:37我们得从人类认知模型来反过来想,
-
11:37 - 11:42这包含了我们的计算能力限制,
是一个很复杂的模型, -
11:42 - 11:45但仍然是我们可以尝试去理解的。
-
11:46 - 11:50可能对于我这样一个
人工智能研究人员来说最大的困难, -
11:50 - 11:53是我们彼此各不相同。
-
11:54 - 11:58所以机器必须想办法去判别衡量
-
11:58 - 12:00不同人的不同需求,
-
12:00 - 12:02而又有众多方法去做这样的判断。
-
12:02 - 12:06经济学家、社会学家、
哲学家都理解这一点, -
12:06 - 12:08我们正在积极地去寻求合作。
-
12:08 - 12:11让我们来看看如果我们
把这一步弄错了会怎么样。 -
12:11 - 12:14举例来说,你可能会
与你的人工智能助理, -
12:14 - 12:15有这样的对话:
-
12:15 - 12:18这样的人工智能可能几年内就会出现,
-
12:18 - 12:21可以把它想做加强版的Siri。
-
12:22 - 12:26Siri对你说:“你的妻子打电话
提醒你今晚要跟她共进晚餐。” -
12:27 - 12:29而你呢,自然忘了这回事:
“什么?什么晚饭? -
12:29 - 12:31你在说什么?”
-
12:31 - 12:34“啊,你们晚上7点,
庆祝结婚20周年纪念日。” -
12:37 - 12:41“我可去不了。
我约了晚上7点半见领导。 -
12:41 - 12:42怎么会这样呢?”
-
12:42 - 12:47“呃,我可是提醒过你的,
但你不听我的建议。” -
12:48 - 12:51“我该怎么办呢?我可不能
跟领导说我有事,没空见他。” -
12:52 - 12:56“别担心。我已经安排了,
让他的航班延误。 -
12:56 - 12:57(笑声)
-
12:58 - 13:00“像是因为某种计算机故障那样。”
-
13:00 - 13:01(笑声)
-
13:01 - 13:03“真的吗?这个你也能做到?”
-
13:04 - 13:07“领导很不好意思,跟你道歉,
-
13:07 - 13:09并且告诉你明天
中午午饭不见不散。” -
13:09 - 13:10(笑声)
-
13:10 - 13:15这里就有一个小小的问题。
-
13:15 - 13:18这显然是在遵循我妻子的价值论,
-
13:18 - 13:20那就是“老婆开心,生活舒心”。
-
13:20 - 13:22(笑声)
-
13:22 - 13:23它也有可能发展成另一种情况。
-
13:24 - 13:26你忙碌一天,回到家里,
-
13:26 - 13:28电脑对你说:“像是繁忙的一天啊?”
-
13:28 - 13:30“是啊,我连午饭都没来得及吃。”
-
13:30 - 13:32“那你一定很饿了吧。”
-
13:32 - 13:35“快饿晕了。你能做点晚饭吗?”
-
13:36 - 13:38“有一件事我得告诉你。
-
13:38 - 13:39(笑声)
-
13:40 - 13:45”南苏丹的人们可比你更需要照顾。
-
13:45 - 13:46(笑声)
-
13:46 - 13:48“所以我要离开了。
你自己做饭去吧。” -
13:48 - 13:50(笑声)
-
13:51 - 13:52我们得解决这些问题,
-
13:52 - 13:55我也很期待去解决。
-
13:55 - 13:57我们有理由感到乐观。
-
13:57 - 13:58理由之一是
-
13:58 - 14:00我们有大量的数据,
-
14:00 - 14:02记住,我说过机器将能够阅读一切
-
14:02 - 14:03人类所写下来的东西,
-
14:03 - 14:07而我们写下的大多数是
我们做的什么事情, -
14:07 - 14:09以及其他人对此有什么意见。
-
14:09 - 14:11所以机器可以从大量的数据中去学习。
-
14:11 - 14:14同时从经济的角度,
我们也有足够的动机 -
14:15 - 14:16去把这件事做对。
-
14:16 - 14:18想象一下,你家里有个居家机器人,
-
14:18 - 14:21而你又得加班,
机器人得给孩子们做饭, -
14:21 - 14:24孩子们很饿,
但冰箱里什么都没有。 -
14:24 - 14:27然后机器人看到了家里的猫,
-
14:27 - 14:29(笑声)
-
14:29 - 14:33机器人还没学透人类的价值论,
-
14:33 - 14:34所以它不知道
-
14:34 - 14:39猫的感情价值
大于猫的营养价值。 -
14:39 - 14:40(笑声)
-
14:40 - 14:42接下来会发生什么?
-
14:42 - 14:45差不多是这样的:
-
14:45 - 14:48头版头条:“疯狂的机器人
把猫煮了给主人当晚饭!” -
14:48 - 14:53这一个事故就足以结束
整个居家机器人产业。 -
14:53 - 14:56所以我们有足够的动机在我们实现
-
14:56 - 14:59超级智能机器让它更加完善。
-
15:00 - 15:02总结来说:
-
15:02 - 15:05我想要改变人工智能的定义,
-
15:05 - 15:08让我们可以证明机器对我们是有利的。
-
15:08 - 15:09这三个原则是:
-
15:09 - 15:10机器是利他的,
-
15:10 - 15:13只想着实现我们的目标,
-
15:13 - 15:16但它不确定我们的目标是什么,
-
15:16 - 15:18所以它会观察我们,
-
15:18 - 15:21从中学习我们想要的究竟是什么。
-
15:22 - 15:26希望在这个过程中,
我们也能学会成为更好的人。 -
15:26 - 15:27谢谢大家。
-
15:27 - 15:31(掌声)
-
15:31 - 15:32克里斯安德森:
非常有意思,斯图尔特。 -
15:32 - 15:35我们趁着工作人员
为下一位演讲者布置的时候 -
15:35 - 15:36来简单聊几句。
-
15:37 - 15:39我有几个问题。
-
15:39 - 15:44从直觉上来看,将无知编入到程序中
似乎是一个很重要的理念, -
15:44 - 15:46当你要实现超级智能时,
-
15:46 - 15:48什么能阻止机器人?
-
15:48 - 15:51当它在阅读和学习的过程中发现,
-
15:51 - 15:53知识比无知更强大,
-
15:53 - 15:57然后就改变它的目标
去重新编写程序呢? -
15:58 - 16:04斯图尔特拉塞尔:是的,
我们想要它去学习,就像我说的, -
16:04 - 16:05学习我们的目标。
-
16:05 - 16:11它只有在理解得越来越正确的时候,
才会变得更确定, -
16:11 - 16:13我们有证据显示,
-
16:13 - 16:16它的设计使它能按正确的方式理解。
-
16:16 - 16:20比如说,它能够理解书中的论证是
-
16:20 - 16:21带有非常强的偏见的。
-
16:21 - 16:23书中只会讲述国王、王子
-
16:23 - 16:26和那些精英白人男性做的事。
-
16:26 - 16:28这是一个复杂的问题,
-
16:28 - 16:32但当它更深入地学习我们的目标时,
-
16:32 - 16:34它就变得对我们更有用。
-
16:34 - 16:37CA:那你不能把这些
都集中在一条准则里吗? -
16:37 - 16:39把这样的命令写在它的程序里:
-
16:39 - 16:42“如果人类什么时候想把我关掉,
-
16:42 - 16:44我服从。我服从。”
-
16:44 - 16:45SR:绝对不行,
-
16:45 - 16:46那将是一个很糟糕的主意。
-
16:46 - 16:49试想一下,你有一辆无人驾驶汽车,
-
16:49 - 16:52你想让它送你五岁的孩子
-
16:52 - 16:53去上学。
-
16:53 - 16:55你希望你五岁的孩子
能在汽车运行过程中 -
16:55 - 16:56将它关闭吗?
-
16:56 - 16:58应该不会吧。
-
16:58 - 17:03它得理解下指令的人有多理智,
是不是讲道理。 -
17:03 - 17:05这个人越理智,
-
17:05 - 17:07它就越愿意自己被关掉。
-
17:07 - 17:10如果这个人是完全思绪混乱
或者甚至是有恶意的, -
17:10 - 17:12那你就不愿意它被关掉。
-
17:12 - 17:14CA:好吧。斯图尔特,我得说
-
17:14 - 17:16我真的希望你为我们
能把这一切研究出来, -
17:16 - 17:18很感谢你的演讲,太精彩了。
-
17:18 - 17:19SR:谢谢。
-
17:19 - 17:22(掌声)
- Title:
- 人工智能是如何让我们变得更好的
- Speaker:
- 斯图尔特·罗素
- Description:
-
我们应该如何在发挥人工智能最大用途的同时,预防那些机器人可能带来的威胁呢?随着人工智能的日益完善和发展,人工智能先驱斯图尔特·罗素正在创造一些不同的东西:那就是具有无限可能的机器人。让我们听听他对人类该如何兼容人工智能的看法,如何才能真正利用人工智能使其利用常识、利他主义以及人类的价值观来解决问题。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:35
Yolanda Zhang approved Chinese, Simplified subtitles for How AI might make us better people | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How AI might make us better people | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How AI might make us better people | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How AI might make us better people | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How AI might make us better people | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How AI might make us better people | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How AI might make us better people | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How AI might make us better people |