如何让人类与人工智能合作来改善业务
-
0:01 - 0:03我来分享一个矛盾。
-
0:04 - 0:06在过去十年中,
-
0:06 - 0:10很多公司都想摆脱官僚化,
-
0:10 - 0:13通过减少职务,
精简程序, -
0:13 - 0:15给团队更多自主权,
让公司运作更灵活。 -
0:16 - 0:21现在公司开始引进人工智能,AI,
-
0:21 - 0:23却没意识到这个很酷的科技
-
0:23 - 0:27可能让他们变得更加官僚。
-
0:27 - 0:29为什么呢?
-
0:29 - 0:32因为 AI 的运作方式就很官僚。
-
0:32 - 0:35官僚的本质
-
0:35 - 0:40就是看重规则和程序,
而非人类自身的判断, -
0:40 - 0:44而且只根据规则做决策。
-
0:44 - 0:47虽然 AI 是依据原有规则形成的,
-
0:47 - 0:49但只有规则。
-
0:49 - 0:53若我们抛弃人类的判断,
-
0:53 - 0:58运用 AI 将带来可怕的新官僚主义——
-
0:58 - 1:01我称之为 AI 官僚主义 (algocracy),
-
1:01 - 1:05也就是说 AI 将脱离
人类的控制,仅凭规则 -
1:05 - 1:07做出越来越多重要决策。
-
1:08 - 1:10这有风险吗?
-
1:11 - 1:12当然有。
-
1:12 - 1:15我领导的团队由
800 名 AI 专家组成, -
1:15 - 1:19我们为很多全球的大公司
-
1:19 - 1:21量身打造了上百个 AI 系统。
-
1:21 - 1:27我看过太多的公司高管
因此重拾了过往的官僚做派。 -
1:28 - 1:33他们对麻烦又老套的
人类决策嗤之以鼻, -
1:33 - 1:37完全依赖 AI 来做决策。
-
1:37 - 1:41我称之为无人类思维
(human-zero mindset)。 -
1:42 - 1:44可为何这种思维这么诱人?
-
1:45 - 1:50因为另一种思维——
人类+AI -
1:50 - 1:53费时、费钱、又费力。
-
1:53 - 1:56商业团队、科技团队
和数据科学团队 -
1:56 - 1:58不得不花费几个月的功夫,
-
1:58 - 2:04探索人类和 AI 如何更好地合作。
-
2:04 - 2:08探索过程漫长艰难,
花了很多钱, -
2:08 - 2:10但取得了巨大成果。
-
2:10 - 2:14根据波士顿咨询公司和
麻省理工大学最近的调查, -
2:14 - 2:18全球有 18% 的公司
-
2:18 - 2:20都在推动 AI 的发展,
-
2:20 - 2:23希望借此盈利。
-
2:23 - 2:29这些公司 80% 的人工智能计划
-
2:29 - 2:31都集中在效率和增长上,
-
2:31 - 2:33以做出更好的决策——
-
2:33 - 2:36而不是用 AI 取代人类
以减少开支。 -
2:38 - 2:41为什么人类的作用必不可少?
-
2:42 - 2:47原因很简单:
没有人类,AI 会干傻事。 -
2:47 - 2:51有时候 AI 的工作毫无价值,
就像这条推文讲的: -
2:51 - 2:53“亲爱的亚马逊公司,
-
2:53 - 2:54我之前买了一个马桶圈。
-
2:54 - 2:56生活必需品,
不是什么癖好。 -
2:56 - 2:57我不收藏马桶圈,
-
2:57 - 3:00我没有马桶圈瘾。
-
3:00 - 3:02不管你的广告邮件多诱人,
-
3:02 - 3:04我都不会觉得
‘哦,受不了, -
3:04 - 3:06只好再买个马桶圈了,
偶尔放纵一下自己。’ ” -
3:06 - 3:08(笑声)
-
3:08 - 3:12有时,AI 又“太有帮助”,
像这条推文: -
3:13 - 3:15“我在为妈妈买了骨灰盒后
-
3:15 - 3:17遇到了同样的状况。”
-
3:17 - 3:18(笑声)
-
3:18 - 3:20“在她去世后的几个月里,
-
3:20 - 3:24亚马逊给我发的邮件都是‘根据你
的购物历史,你可能喜欢… (骨灰盒) ’ ” -
3:24 - 3:25(笑声)
-
3:25 - 3:28有时结果更糟。
-
3:28 - 3:33比如说 AI 曾经拒绝了
一名学生的大学申请。 -
3:33 - 3:34为什么?
-
3:34 - 3:36因为这个AI
从以前的数据“学”到了 -
3:36 - 3:40哪些学生会通过,
哪些学生不能—— -
3:40 - 3:42有一些指标很明确,
比如绩点。 -
3:42 - 3:47但如果在过去,某个地区
学生都没通过, -
3:47 - 3:51AI 很可能就此定下规则,
-
3:51 - 3:55然后拒绝所有来自这个地区的学生,
-
3:55 - 3:59不给任何人证明规则有误的机会。
-
4:00 - 4:02并且没有人能够筛查掉这样的规则,
-
4:02 - 4:06因为先进的 AI 一直在学。
-
4:06 - 4:09那么如果直接用 AI 取代人类,
-
4:09 - 4:12迎来的将是 AI 官僚主义的噩梦:
-
4:12 - 4:15谁应该对学生的被拒负责?
-
4:15 - 4:17没有谁,AI 来负责。
-
4:17 - 4:19这公平吗?公平。
-
4:19 - 4:22因为所有学生都用同一规则判定。
-
4:22 - 4:26那可不可以重新考虑这个
“住错了地方”的聪明学生? -
4:27 - 4:30不行,AI 算法不会改变主意。
-
4:31 - 4:33我们需要做出选择:
-
4:34 - 4:36继续 AI 的独裁,
-
4:36 - 4:39还是考虑“人类+AI”思维?
-
4:39 - 4:41要拥有这种思维,
-
4:41 - 4:44我们不能再优先考虑技术,
-
4:44 - 4:48而是要从秘密公式入手。
-
4:49 - 4:51要实现“人类+AI”,
-
4:51 - 4:54需要 10% 的编程算法;
-
4:54 - 4:5720% 的科技成分,
-
4:57 - 5:01包括收集数据,构建用户界面,
整合进遗留系统; -
5:01 - 5:04其余 70% 是最重要的,
-
5:04 - 5:09是结合 AI 和人类的方法,
-
5:09 - 5:11让结果最接近完美。
-
5:12 - 5:17如果这 70% 被削减,
AI 就会出现问题。 -
5:17 - 5:20代价可以很小,
-
5:20 - 5:24只是在无用科技上
浪费数百万美元。 -
5:24 - 5:25谁会在乎呢?
-
5:26 - 5:28但代价也可以大到无法承受:
-
5:29 - 5:37最近两起波音
737 空难造成了 346 人遇难, -
5:37 - 5:40原因都是电脑控制的飞行系统
-
5:40 - 5:43没有正确回应飞行员的指令。
-
5:44 - 5:46要成功实现那 70%,
-
5:46 - 5:51第一步就要保证算法编程
由数据科学家 -
5:51 - 5:53和领域专家共同完成。
-
5:53 - 5:56拿医疗领域举例,
-
5:56 - 6:00我们有一个团队曾经处理过
一种药产生的小问题。 -
6:01 - 6:02在首次服用这种药后,
-
6:02 - 6:06有很少一部分患者会诱发心脏病。
-
6:06 - 6:09于是所有第一次服用这种药的患者
-
6:09 - 6:12都要住院观察一天,
-
6:12 - 6:14以防心脏病发作。
-
6:15 - 6:20我们想区分出
完全不可能发心脏病的患者, -
6:20 - 6:23这样他们就不用在医院多待一天。
-
6:23 - 6:27我们用 AI 分析了临床试验的数据,
-
6:28 - 6:33寻找心电图、血液成分、生物标记
-
6:33 - 6:35和心脏病发作风险之间的关系。
-
6:35 - 6:37在一个月内,
-
6:37 - 6:43我们训练的模型就能标记出
62% 的零发病风险患者。 -
6:43 - 6:45这样,这些患者就不必
白白在医院呆上一天。 -
6:46 - 6:49但是,你会放心地
在第一次服药后直接回家, -
6:49 - 6:51就因为 AI 说你可以回家了?
-
6:51 - 6:52(笑声)
-
6:52 - 6:54医师也不会放心。
-
6:54 - 6:56万一出现了错误结果呢?
-
6:56 - 7:02也就是说,AI 叫他们回家等死?
-
7:02 - 7:03(笑声)
-
7:03 - 7:05这就需要那 70% 的作用了。
-
7:05 - 7:07我们与医师团队合作,
-
7:07 - 7:11检验模型中变量的医学合理性。
-
7:12 - 7:16比方说,我们用肝酶浓度
-
7:16 - 7:17作为预测变量,
-
7:17 - 7:21这里的医学逻辑并不明显,
-
7:21 - 7:24但从统计信号角度看,
与结果有很大关系。 -
7:24 - 7:27但万一它是个偏置项呢?
(注:即该变量与心脏病无实际关联) -
7:27 - 7:30所以这个变量会被剔除。
-
7:30 - 7:34我们还剔除了一些变量,
-
7:34 - 7:38因为医师无法精准测出这些变量。
-
7:38 - 7:40四个月后,
-
7:40 - 7:43我们训练出了模型,
制定了医学使用协议。 -
7:44 - 7:45它们都获批通过。
-
7:45 - 7:48去年春天,与我们合作的
美国医疗机构, -
7:48 - 7:52为一半服用这种药的患者减轻了压力,
-
7:52 - 7:54提高了生活品质。
-
7:54 - 7:59且这种药的销量迅速增加,
超过了一亿份。 -
8:00 - 8:04人类团队和方法造就的 70%,
-
8:04 - 8:07也意味着在人类和 AI 之间
-
8:07 - 8:13建立了坚固的联结,
以共同解决最难的问题。 -
8:13 - 8:18以前有一个时装零售商问我们:
-
8:19 - 8:22“时装零售商都很会进货,
-
8:22 - 8:27你能不能做一个 AI
在预测销量上超过他们? -
8:27 - 8:31要卖多少件高端服装、
浅绿色衣服、加大码男衬衫, -
8:31 - 8:33能赚到最多钱?
-
8:33 - 8:36能不能预测哪些衣服会大卖,
-
8:36 - 8:38预测得比设计师还准?”
-
8:38 - 8:42我们的团队在几周内
用以往销量数据训练出模型, -
8:42 - 8:46和人类商家比赛。
-
8:46 - 8:47猜猜谁赢了?
-
8:48 - 8:53AI 胜出,预测错误率比人类低 25%。
-
8:54 - 8:59零人类思维者可能会改进模型,
-
8:59 - 9:02投入和人类商家的竞争。
-
9:02 - 9:03开心就好。
-
9:03 - 9:08但我们知道,
人类买家对时尚潮流有远见, -
9:08 - 9:11这是 AI 在以往数据学不到的。
-
9:12 - 9:15于是我们转向那 70%,
-
9:15 - 9:17我们开始了第二次测试。
-
9:17 - 9:20人类商家来复查
-
9:20 - 9:21AI 推算的购买量,
-
9:21 - 9:24然后做出必要纠正。
-
9:24 - 9:25结果如何?
-
9:26 - 9:28使用 AI 的人类商家……
-
9:28 - 9:29输了。
-
9:30 - 9:34人类做出的纠正中,
-
9:34 - 9:36有 75% 都在降低 AI 准确率。
-
9:37 - 9:40是不是要放弃人类商家的介入了?
-
9:40 - 9:41不是。
-
9:41 - 9:44我们要重新搭建一个模型,
-
9:44 - 9:49这一次,不让人类猜 AI 的对错,
-
9:49 - 9:54而是让 AI 寻求人类的建议。
-
9:55 - 9:57我们将模型改头换面,
-
9:57 - 10:03抛弃了最初的交互方式:
-
10:03 - 10:05“嘿人类!这是我的预测,
-
10:05 - 10:07帮我纠正一下吧!”
-
10:07 - 10:10改进后的交互方式
变得更广泛,像这样: -
10:10 - 10:12“嘿人类!
-
10:12 - 10:14我不懂明年的流行趋势,
-
10:14 - 10:17可不可以告诉我你押宝在哪?”
-
10:18 - 10:20“嘿人类!
-
10:20 - 10:22可以帮我看看这些大家伙吗?
-
10:22 - 10:26它们超出了我的认知范围。”
-
10:26 - 10:28结果如何?
-
10:28 - 10:30“人类+AI” 胜出,
-
10:30 - 10:34这次预测错误率降低了 50%。
-
10:36 - 10:39我们花了一年才最终完成这个工具,
-
10:39 - 10:42漫长、成本高,还很艰难,
-
10:43 - 10:45但利润很丰厚,好处很多,
-
10:45 - 10:51每年为零售商节省了超过一亿美金。
-
10:51 - 10:54在一些特定议题上,
-
10:54 - 10:5870% 也意味着人类要决定对错,
-
10:58 - 11:02定下规则限制 AI 的权力。
-
11:02 - 11:06例如设定价格上限,
-
11:06 - 11:10防止 AI 粗暴地抬价,
向不知情的顾客 -
11:10 - 11:12漫天要价。
-
11:13 - 11:15只有人类能够设定界限,
-
11:15 - 11:19因为 AI 不可能从以往数据学到。
-
11:19 - 11:22有时候我们可能遇到灰色地带。
-
11:22 - 11:25我们曾和保险公司有过合作,
-
11:25 - 11:30他们开发了一个
针对客户的 AI 系统, -
11:30 - 11:32用来识别快要去治病的客户,
-
11:32 - 11:34向他们推销附加产品。
-
11:35 - 11:36问题是,
-
11:36 - 11:39一些接到推销电话的客户,
-
11:39 - 11:42这时候并不知道
-
11:42 - 11:45他们很可能马上要去医院看病。
-
11:46 - 11:48如果你是这家公司的执行长,
-
11:48 - 11:50你会取消这个项目吗?
-
11:51 - 11:52这是个两难的抉择。
-
11:53 - 11:56为了解决这个问题,
一些公司正在组建团队, -
11:56 - 12:02帮商业和科技团队
制定伦理规则和标准, -
12:02 - 12:06在个性化和可操作性间寻找平衡点,
-
12:06 - 12:09区别意见和偏见,
-
12:09 - 12:11分清关照和冒犯。
-
12:13 - 12:16我坚信在每家公司,
-
12:16 - 12:21把 AI 运用到关键之处
定会有巨大回报。 -
12:21 - 12:24商业领袖们要大胆尝试,
-
12:24 - 12:26选择一些项目,
-
12:26 - 12:31为每个项目召集几十个
领域佼佼者—— -
12:31 - 12:34科技、AI、科学、伦理——
-
12:34 - 12:38然后完成10%、20%、70%的
-
12:38 - 12:40“人类+AI”目标。
-
12:40 - 12:44这样 AI 就可以和人类高效合作。
-
12:45 - 12:47除此之外别无他法。
-
12:47 - 12:52经济飞速发展的同时,
公民已对 AI 官僚主义产生了恐惧。 -
12:52 - 12:56在近期的一项针对七千人的调研中,
-
12:56 - 13:00超过 75% 的人表示了担忧,
-
13:00 - 13:04担心 AI 影响就业、隐私,
-
13:04 - 13:07担心社会会失去人性。
-
13:07 - 13:13AI 官僚主义的出现
会导致公司和社会 -
13:13 - 13:17对 AI 的强烈抵触。
-
13:17 - 13:20“人类+AI”是唯一选项,
-
13:20 - 13:23只有这样才能让 AI 真正带来福祉。
-
13:24 - 13:25最后,
-
13:25 - 13:29因 AI 获利的组织,
要为人类智慧投资, -
13:29 - 13:32而不仅仅投资 AI 和数据。
-
13:33 - 13:36聘募、培养、奖励人类专家。
-
13:37 - 13:40有人说数据是新的燃料,
-
13:40 - 13:44但相信我,人类知识能改变世界。
-
13:44 - 13:48因为人类知识是唯一的泵,
-
13:48 - 13:51能将蕴藏于数据的“燃料”
源源不断地泵出。 -
13:53 - 13:54谢谢大家。
-
13:54 - 13:58(掌声)
- Title:
- 如何让人类与人工智能合作来改善业务
- Speaker:
- 西尔万·迪朗东
- Description:
-
存在这样一个矛盾:当企业试图通过使用人工智能来做出关键决策以简化业务时,它们可能会在不经意间降低自己的效率。商业技术专家西尔万·迪朗东(Sylvain Duranton)提倡一种“人类 + 人工智能”的方法——将人工智能系统与人类结合,而不是代替人类——并分享了企业可以采用的具体规则,以帮助公司成功地使用人工智能,同时也让人类参与其中。
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:10
![]() |
Yolanda Zhang approved Chinese, Simplified subtitles for How humans and AI can work together to create better businesses | |
![]() |
Yolanda Zhang edited Chinese, Simplified subtitles for How humans and AI can work together to create better businesses | |
![]() |
Yolanda Zhang accepted Chinese, Simplified subtitles for How humans and AI can work together to create better businesses | |
![]() |
Yolanda Zhang edited Chinese, Simplified subtitles for How humans and AI can work together to create better businesses | |
![]() |
Yolanda Zhang edited Chinese, Simplified subtitles for How humans and AI can work together to create better businesses | |
![]() |
Yolanda Zhang edited Chinese, Simplified subtitles for How humans and AI can work together to create better businesses | |
![]() |
Yolanda Zhang edited Chinese, Simplified subtitles for How humans and AI can work together to create better businesses | |
![]() |
Yolanda Zhang edited Chinese, Simplified subtitles for How humans and AI can work together to create better businesses |