< Return to Video

如何让人类与人工智能合作来改善业务

  • 0:01 - 0:03
    我来分享一个矛盾。
  • 0:04 - 0:06
    在过去十年中,
  • 0:06 - 0:10
    很多公司都想摆脱官僚化,
  • 0:10 - 0:13
    通过减少职务,
    精简程序,
  • 0:13 - 0:15
    给团队更多自主权,
    让公司运作更灵活。
  • 0:16 - 0:21
    现在公司开始引进人工智能,AI,
  • 0:21 - 0:23
    却没意识到这个很酷的科技
  • 0:23 - 0:27
    可能让他们变得更加官僚。
  • 0:27 - 0:29
    为什么呢?
  • 0:29 - 0:32
    因为 AI 的运作方式就很官僚。
  • 0:32 - 0:35
    官僚的本质
  • 0:35 - 0:40
    就是看重规则和程序,
    而非人类自身的判断,
  • 0:40 - 0:44
    而且只根据规则做决策。
  • 0:44 - 0:47
    虽然 AI 是依据原有规则形成的,
  • 0:47 - 0:49
    但只有规则。
  • 0:49 - 0:53
    若我们抛弃人类的判断,
  • 0:53 - 0:58
    运用 AI 将带来可怕的新官僚主义——
  • 0:58 - 1:01
    我称之为 AI 官僚主义 (algocracy),
  • 1:01 - 1:05
    也就是说 AI 将脱离
    人类的控制,仅凭规则
  • 1:05 - 1:07
    做出越来越多重要决策。
  • 1:08 - 1:10
    这有风险吗?
  • 1:11 - 1:12
    当然有。
  • 1:12 - 1:15
    我领导的团队由
    800 名 AI 专家组成,
  • 1:15 - 1:19
    我们为很多全球的大公司
  • 1:19 - 1:21
    量身打造了上百个 AI 系统。
  • 1:21 - 1:27
    我看过太多的公司高管
    因此重拾了过往的官僚做派。
  • 1:28 - 1:33
    他们对麻烦又老套的
    人类决策嗤之以鼻,
  • 1:33 - 1:37
    完全依赖 AI 来做决策。
  • 1:37 - 1:41
    我称之为无人类思维
    (human-zero mindset)。
  • 1:42 - 1:44
    可为何这种思维这么诱人?
  • 1:45 - 1:50
    因为另一种思维——
    人类+AI
  • 1:50 - 1:53
    费时、费钱、又费力。
  • 1:53 - 1:56
    商业团队、科技团队
    和数据科学团队
  • 1:56 - 1:58
    不得不花费几个月的功夫,
  • 1:58 - 2:04
    探索人类和 AI 如何更好地合作。
  • 2:04 - 2:08
    探索过程漫长艰难,
    花了很多钱,
  • 2:08 - 2:10
    但取得了巨大成果。
  • 2:10 - 2:14
    根据波士顿咨询公司和
    麻省理工大学最近的调查,
  • 2:14 - 2:18
    全球有 18% 的公司
  • 2:18 - 2:20
    都在推动 AI 的发展,
  • 2:20 - 2:23
    希望借此盈利。
  • 2:23 - 2:29
    这些公司 80% 的人工智能计划
  • 2:29 - 2:31
    都集中在效率和增长上,
  • 2:31 - 2:33
    以做出更好的决策——
  • 2:33 - 2:36
    而不是用 AI 取代人类
    以减少开支。
  • 2:38 - 2:41
    为什么人类的作用必不可少?
  • 2:42 - 2:47
    原因很简单:
    没有人类,AI 会干傻事。
  • 2:47 - 2:51
    有时候 AI 的工作毫无价值,
    就像这条推文讲的:
  • 2:51 - 2:53
    “亲爱的亚马逊公司,
  • 2:53 - 2:54
    我之前买了一个马桶圈。
  • 2:54 - 2:56
    生活必需品,
    不是什么癖好。
  • 2:56 - 2:57
    我不收藏马桶圈,
  • 2:57 - 3:00
    我没有马桶圈瘾。
  • 3:00 - 3:02
    不管你的广告邮件多诱人,
  • 3:02 - 3:04
    我都不会觉得
    ‘哦,受不了,
  • 3:04 - 3:06
    只好再买个马桶圈了,
    偶尔放纵一下自己。’ ”
  • 3:06 - 3:08
    (笑声)
  • 3:08 - 3:12
    有时,AI 又“太有帮助”,
    像这条推文:
  • 3:13 - 3:15
    “我在为妈妈买了骨灰盒后
  • 3:15 - 3:17
    遇到了同样的状况。”
  • 3:17 - 3:18
    (笑声)
  • 3:18 - 3:20
    “在她去世后的几个月里,
  • 3:20 - 3:24
    亚马逊给我发的邮件都是‘根据你
    的购物历史,你可能喜欢… (骨灰盒) ’ ”
  • 3:24 - 3:25
    (笑声)
  • 3:25 - 3:28
    有时结果更糟。
  • 3:28 - 3:33
    比如说 AI 曾经拒绝了
    一名学生的大学申请。
  • 3:33 - 3:34
    为什么?
  • 3:34 - 3:36
    因为这个AI
    从以前的数据“学”到了
  • 3:36 - 3:40
    哪些学生会通过,
    哪些学生不能——
  • 3:40 - 3:42
    有一些指标很明确,
    比如绩点。
  • 3:42 - 3:47
    但如果在过去,某个地区
    学生都没通过,
  • 3:47 - 3:51
    AI 很可能就此定下规则,
  • 3:51 - 3:55
    然后拒绝所有来自这个地区的学生,
  • 3:55 - 3:59
    不给任何人证明规则有误的机会。
  • 4:00 - 4:02
    并且没有人能够筛查掉这样的规则,
  • 4:02 - 4:06
    因为先进的 AI 一直在学。
  • 4:06 - 4:09
    那么如果直接用 AI 取代人类,
  • 4:09 - 4:12
    迎来的将是 AI 官僚主义的噩梦:
  • 4:12 - 4:15
    谁应该对学生的被拒负责?
  • 4:15 - 4:17
    没有谁,AI 来负责。
  • 4:17 - 4:19
    这公平吗?公平。
  • 4:19 - 4:22
    因为所有学生都用同一规则判定。
  • 4:22 - 4:26
    那可不可以重新考虑这个
    “住错了地方”的聪明学生?
  • 4:27 - 4:30
    不行,AI 算法不会改变主意。
  • 4:31 - 4:33
    我们需要做出选择:
  • 4:34 - 4:36
    继续 AI 的独裁,
  • 4:36 - 4:39
    还是考虑“人类+AI”思维?
  • 4:39 - 4:41
    要拥有这种思维,
  • 4:41 - 4:44
    我们不能再优先考虑技术,
  • 4:44 - 4:48
    而是要从秘密公式入手。
  • 4:49 - 4:51
    要实现“人类+AI”,
  • 4:51 - 4:54
    需要 10% 的编程算法;
  • 4:54 - 4:57
    20% 的科技成分,
  • 4:57 - 5:01
    包括收集数据,构建用户界面,
    整合进遗留系统;
  • 5:01 - 5:04
    其余 70% 是最重要的,
  • 5:04 - 5:09
    是结合 AI 和人类的方法,
  • 5:09 - 5:11
    让结果最接近完美。
  • 5:12 - 5:17
    如果这 70% 被削减,
    AI 就会出现问题。
  • 5:17 - 5:20
    代价可以很小,
  • 5:20 - 5:24
    只是在无用科技上
    浪费数百万美元。
  • 5:24 - 5:25
    谁会在乎呢?
  • 5:26 - 5:28
    但代价也可以大到无法承受:
  • 5:29 - 5:37
    最近两起波音
    737 空难造成了 346 人遇难,
  • 5:37 - 5:40
    原因都是电脑控制的飞行系统
  • 5:40 - 5:43
    没有正确回应飞行员的指令。
  • 5:44 - 5:46
    要成功实现那 70%,
  • 5:46 - 5:51
    第一步就要保证算法编程
    由数据科学家
  • 5:51 - 5:53
    和领域专家共同完成。
  • 5:53 - 5:56
    拿医疗领域举例,
  • 5:56 - 6:00
    我们有一个团队曾经处理过
    一种药产生的小问题。
  • 6:01 - 6:02
    在首次服用这种药后,
  • 6:02 - 6:06
    有很少一部分患者会诱发心脏病。
  • 6:06 - 6:09
    于是所有第一次服用这种药的患者
  • 6:09 - 6:12
    都要住院观察一天,
  • 6:12 - 6:14
    以防心脏病发作。
  • 6:15 - 6:20
    我们想区分出
    完全不可能发心脏病的患者,
  • 6:20 - 6:23
    这样他们就不用在医院多待一天。
  • 6:23 - 6:27
    我们用 AI 分析了临床试验的数据,
  • 6:28 - 6:33
    寻找心电图、血液成分、生物标记
  • 6:33 - 6:35
    和心脏病发作风险之间的关系。
  • 6:35 - 6:37
    在一个月内,
  • 6:37 - 6:43
    我们训练的模型就能标记出
    62% 的零发病风险患者。
  • 6:43 - 6:45
    这样,这些患者就不必
    白白在医院呆上一天。
  • 6:46 - 6:49
    但是,你会放心地
    在第一次服药后直接回家,
  • 6:49 - 6:51
    就因为 AI 说你可以回家了?
  • 6:51 - 6:52
    (笑声)
  • 6:52 - 6:54
    医师也不会放心。
  • 6:54 - 6:56
    万一出现了错误结果呢?
  • 6:56 - 7:02
    也就是说,AI 叫他们回家等死?
  • 7:02 - 7:03
    (笑声)
  • 7:03 - 7:05
    这就需要那 70% 的作用了。
  • 7:05 - 7:07
    我们与医师团队合作,
  • 7:07 - 7:11
    检验模型中变量的医学合理性。
  • 7:12 - 7:16
    比方说,我们用肝酶浓度
  • 7:16 - 7:17
    作为预测变量,
  • 7:17 - 7:21
    这里的医学逻辑并不明显,
  • 7:21 - 7:24
    但从统计信号角度看,
    与结果有很大关系。
  • 7:24 - 7:27
    但万一它是个偏置项呢?
    (注:即该变量与心脏病无实际关联)
  • 7:27 - 7:30
    所以这个变量会被剔除。
  • 7:30 - 7:34
    我们还剔除了一些变量,
  • 7:34 - 7:38
    因为医师无法精准测出这些变量。
  • 7:38 - 7:40
    四个月后,
  • 7:40 - 7:43
    我们训练出了模型,
    制定了医学使用协议。
  • 7:44 - 7:45
    它们都获批通过。
  • 7:45 - 7:48
    去年春天,与我们合作的
    美国医疗机构,
  • 7:48 - 7:52
    为一半服用这种药的患者减轻了压力,
  • 7:52 - 7:54
    提高了生活品质。
  • 7:54 - 7:59
    且这种药的销量迅速增加,
    超过了一亿份。
  • 8:00 - 8:04
    人类团队和方法造就的 70%,
  • 8:04 - 8:07
    也意味着在人类和 AI 之间
  • 8:07 - 8:13
    建立了坚固的联结,
    以共同解决最难的问题。
  • 8:13 - 8:18
    以前有一个时装零售商问我们:
  • 8:19 - 8:22
    “时装零售商都很会进货,
  • 8:22 - 8:27
    你能不能做一个 AI
    在预测销量上超过他们?
  • 8:27 - 8:31
    要卖多少件高端服装、
    浅绿色衣服、加大码男衬衫,
  • 8:31 - 8:33
    能赚到最多钱?
  • 8:33 - 8:36
    能不能预测哪些衣服会大卖,
  • 8:36 - 8:38
    预测得比设计师还准?”
  • 8:38 - 8:42
    我们的团队在几周内
    用以往销量数据训练出模型,
  • 8:42 - 8:46
    和人类商家比赛。
  • 8:46 - 8:47
    猜猜谁赢了?
  • 8:48 - 8:53
    AI 胜出,预测错误率比人类低 25%。
  • 8:54 - 8:59
    零人类思维者可能会改进模型,
  • 8:59 - 9:02
    投入和人类商家的竞争。
  • 9:02 - 9:03
    开心就好。
  • 9:03 - 9:08
    但我们知道,
    人类买家对时尚潮流有远见,
  • 9:08 - 9:11
    这是 AI 在以往数据学不到的。
  • 9:12 - 9:15
    于是我们转向那 70%,
  • 9:15 - 9:17
    我们开始了第二次测试。
  • 9:17 - 9:20
    人类商家来复查
  • 9:20 - 9:21
    AI 推算的购买量,
  • 9:21 - 9:24
    然后做出必要纠正。
  • 9:24 - 9:25
    结果如何?
  • 9:26 - 9:28
    使用 AI 的人类商家……
  • 9:28 - 9:29
    输了。
  • 9:30 - 9:34
    人类做出的纠正中,
  • 9:34 - 9:36
    有 75% 都在降低 AI 准确率。
  • 9:37 - 9:40
    是不是要放弃人类商家的介入了?
  • 9:40 - 9:41
    不是。
  • 9:41 - 9:44
    我们要重新搭建一个模型,
  • 9:44 - 9:49
    这一次,不让人类猜 AI 的对错,
  • 9:49 - 9:54
    而是让 AI 寻求人类的建议。
  • 9:55 - 9:57
    我们将模型改头换面,
  • 9:57 - 10:03
    抛弃了最初的交互方式:
  • 10:03 - 10:05
    “嘿人类!这是我的预测,
  • 10:05 - 10:07
    帮我纠正一下吧!”
  • 10:07 - 10:10
    改进后的交互方式
    变得更广泛,像这样:
  • 10:10 - 10:12
    “嘿人类!
  • 10:12 - 10:14
    我不懂明年的流行趋势,
  • 10:14 - 10:17
    可不可以告诉我你押宝在哪?”
  • 10:18 - 10:20
    “嘿人类!
  • 10:20 - 10:22
    可以帮我看看这些大家伙吗?
  • 10:22 - 10:26
    它们超出了我的认知范围。”
  • 10:26 - 10:28
    结果如何?
  • 10:28 - 10:30
    “人类+AI” 胜出,
  • 10:30 - 10:34
    这次预测错误率降低了 50%。
  • 10:36 - 10:39
    我们花了一年才最终完成这个工具,
  • 10:39 - 10:42
    漫长、成本高,还很艰难,
  • 10:43 - 10:45
    但利润很丰厚,好处很多,
  • 10:45 - 10:51
    每年为零售商节省了超过一亿美金。
  • 10:51 - 10:54
    在一些特定议题上,
  • 10:54 - 10:58
    70% 也意味着人类要决定对错,
  • 10:58 - 11:02
    定下规则限制 AI 的权力。
  • 11:02 - 11:06
    例如设定价格上限,
  • 11:06 - 11:10
    防止 AI 粗暴地抬价,
    向不知情的顾客
  • 11:10 - 11:12
    漫天要价。
  • 11:13 - 11:15
    只有人类能够设定界限,
  • 11:15 - 11:19
    因为 AI 不可能从以往数据学到。
  • 11:19 - 11:22
    有时候我们可能遇到灰色地带。
  • 11:22 - 11:25
    我们曾和保险公司有过合作,
  • 11:25 - 11:30
    他们开发了一个
    针对客户的 AI 系统,
  • 11:30 - 11:32
    用来识别快要去治病的客户,
  • 11:32 - 11:34
    向他们推销附加产品。
  • 11:35 - 11:36
    问题是,
  • 11:36 - 11:39
    一些接到推销电话的客户,
  • 11:39 - 11:42
    这时候并不知道
  • 11:42 - 11:45
    他们很可能马上要去医院看病。
  • 11:46 - 11:48
    如果你是这家公司的执行长,
  • 11:48 - 11:50
    你会取消这个项目吗?
  • 11:51 - 11:52
    这是个两难的抉择。
  • 11:53 - 11:56
    为了解决这个问题,
    一些公司正在组建团队,
  • 11:56 - 12:02
    帮商业和科技团队
    制定伦理规则和标准,
  • 12:02 - 12:06
    在个性化和可操作性间寻找平衡点,
  • 12:06 - 12:09
    区别意见和偏见,
  • 12:09 - 12:11
    分清关照和冒犯。
  • 12:13 - 12:16
    我坚信在每家公司,
  • 12:16 - 12:21
    把 AI 运用到关键之处
    定会有巨大回报。
  • 12:21 - 12:24
    商业领袖们要大胆尝试,
  • 12:24 - 12:26
    选择一些项目,
  • 12:26 - 12:31
    为每个项目召集几十个
    领域佼佼者——
  • 12:31 - 12:34
    科技、AI、科学、伦理——
  • 12:34 - 12:38
    然后完成10%、20%、70%的
  • 12:38 - 12:40
    “人类+AI”目标。
  • 12:40 - 12:44
    这样 AI 就可以和人类高效合作。
  • 12:45 - 12:47
    除此之外别无他法。
  • 12:47 - 12:52
    经济飞速发展的同时,
    公民已对 AI 官僚主义产生了恐惧。
  • 12:52 - 12:56
    在近期的一项针对七千人的调研中,
  • 12:56 - 13:00
    超过 75% 的人表示了担忧,
  • 13:00 - 13:04
    担心 AI 影响就业、隐私,
  • 13:04 - 13:07
    担心社会会失去人性。
  • 13:07 - 13:13
    AI 官僚主义的出现
    会导致公司和社会
  • 13:13 - 13:17
    对 AI 的强烈抵触。
  • 13:17 - 13:20
    “人类+AI”是唯一选项,
  • 13:20 - 13:23
    只有这样才能让 AI 真正带来福祉。
  • 13:24 - 13:25
    最后,
  • 13:25 - 13:29
    因 AI 获利的组织,
    要为人类智慧投资,
  • 13:29 - 13:32
    而不仅仅投资 AI 和数据。
  • 13:33 - 13:36
    聘募、培养、奖励人类专家。
  • 13:37 - 13:40
    有人说数据是新的燃料,
  • 13:40 - 13:44
    但相信我,人类知识能改变世界。
  • 13:44 - 13:48
    因为人类知识是唯一的泵,
  • 13:48 - 13:51
    能将蕴藏于数据的“燃料”
    源源不断地泵出。
  • 13:53 - 13:54
    谢谢大家。
  • 13:54 - 13:58
    (掌声)
Title:
如何让人类与人工智能合作来改善业务
Speaker:
西尔万·迪朗东
Description:

存在这样一个矛盾:当企业试图通过使用人工智能来做出关键决策以简化业务时,它们可能会在不经意间降低自己的效率。商业技术专家西尔万·迪朗东(Sylvain Duranton)提倡一种“人类 + 人工智能”的方法——将人工智能系统与人类结合,而不是代替人类——并分享了企业可以采用的具体规则,以帮助公司成功地使用人工智能,同时也让人类参与其中。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:10

Chinese, Simplified subtitles

Revisions