< Return to Video

我们应该相信AI吗? | Elisa Celis | TEDxProvidence

  • 0:15 - 0:20
    首先,我想问在座各位一个问题:
  • 0:20 - 0:24
    你们中有谁在今天,
    或者说最近的24小时内
  • 0:24 - 0:27
    经历过某种形式的种族歧视
    或者性别歧视?
  • 0:27 - 0:30
    或者我换种说法:
  • 0:30 - 0:33
    在座各位有多少人今日使用过网络?
  • 0:33 - 0:34
    (笑声)
  • 0:34 - 0:38
    不幸的是,这两个问题
    在我看来是殊途同归的。
  • 0:39 - 0:40
    我是接受过计算机科学专业教育的,
  • 0:40 - 0:45
    我的工作就是利用AI科技,
    使其更好服务人类社会。
  • 0:46 - 0:48
    但是我越了解AI,
    我却越深感这项技术
  • 0:48 - 0:52
    总是掩藏在客观性的谎言之下。
  • 0:53 - 0:54
    我赞同客观性。
  • 0:54 - 0:59
    实际上,这也是我选择学习
    数学与计算机科学的原因。
  • 1:00 - 1:02
    的确,这个领域仍旧
    充满着难以解答的问题,
  • 1:02 - 1:04
    但是最终,你总会有一个答案,
  • 1:04 - 1:06
    一个你确信是事实的答案。
  • 1:07 - 1:09
    AI则和它完全不同。
  • 1:09 - 1:13
    AI建立在数据的基础上。
  • 1:14 - 1:16
    但是数据并不是事实,
    甚至也不是现实。
  • 1:16 - 1:20
    AI与数据并不能做到客观性。
  • 1:21 - 1:22
    我来举个例子、
  • 1:23 - 1:25
    在各位的心目中
    一个CEO应该是什么样子?
  • 1:26 - 1:28
    根据谷歌的搜索结果,
  • 1:29 - 1:30
    诸位的答案该是如此。
  • 1:30 - 1:34
    所以根据谷歌的结果,
    一个CEO应该拥有如此长相特征。
  • 1:35 - 1:39
    当然,这些人看起来很像CEO,
  • 1:39 - 1:41
    但是仍然有很多CEO
  • 1:41 - 1:45
    并不拥有这些相貌特征。
  • 1:45 - 1:49
    现在各位所看到的并非是现实,
    而仅仅是一种刻板印象。
  • 1:51 - 1:53
    最近的一项研究表明
  • 1:54 - 1:59
    尽管女性CEO占比总数
    超过25%的女性人口,
  • 1:59 - 2:03
    但是你仅能在谷歌上搜索到
    11%的女性CEO图片。
  • 2:03 - 2:06
    该研究观察的其他职业
    也均出现了这种现象。
  • 2:06 - 2:10
    这些图片就是对现实中
    性别的刻板印象
  • 2:10 - 2:15
    那么,这些被认为是智能的AI科技
  • 2:16 - 2:18
    又为何会犯这些低级错误呢?
  • 2:19 - 2:23
    从抓取数据到设计算法,
  • 2:23 - 2:27
    再到如何计算并应用这些数据,
  • 2:28 - 2:31
    其实在每一步中都可以
    发现这些问题的端倪?
  • 2:32 - 2:35
    这任何一个步骤都囊括了人类的决策
  • 2:35 - 2:38
    而且也由人类的激励目标所决定。
  • 2:38 - 2:43
    我们很少会停下前进的脚步
    并不断质问?
  • 2:44 - 2:46
    谁来做这些决定?谁在其中获利?
  • 2:46 - 2:48
    以及谁被排除在数据之外呢?
  • 2:50 - 2:53
    这些便是在网络世界中每时都在发生的。
  • 2:53 - 2:58
    举个例子,互联网广告在
    住房、借贷和就业方面
  • 2:58 - 3:01
    多次出现人群区分与歧视。
  • 3:02 - 3:05
    一个最近的报告显示,
    一份高薪工作的广告
  • 3:05 - 3:09
    呈现给男性的次数多于女性的5倍,
  • 3:10 - 3:13
    提供房屋改善的广告也会
    歧视不同的人群。
  • 3:13 - 3:18
    他们向75%的白人受众
    提供房屋销售的广告,
  • 3:19 - 3:24
    而向其他的广大受众
    提供房屋租赁的广告。
  • 3:25 - 3:27
    在我看来,这已经涉及到我的私人领域。
  • 3:28 - 3:31
    我是一位女士,一个拉丁裔,
    同时我也是一个母亲。
  • 3:32 - 3:35
    这不是我想要的世界,
    更不是我想要我的孩子所生活的世界,
  • 3:35 - 3:38
    这不是一个我愿意成为
    其中一份子进行奉献的世界。
  • 3:39 - 3:42
    当我意识到这点时,
    我知道我应该做点什么,
  • 3:42 - 3:45
    这也正是这几年我的主要工作方向,
  • 3:45 - 3:49
    我与我的同事们,
    以及一群非常有才华的研究员们
  • 3:49 - 3:51
    一起努力建设一个我们热爱的世界。
  • 3:52 - 3:55
    我们在定义与设计一种
  • 3:55 - 3:59
    能有效避免歧视问题和
    偏见问题的AI科技。
  • 4:00 - 4:02
    现在,再来看CEO的例子。
  • 4:02 - 4:04
    这就是我们所说的一个"选择问题"。
  • 4:04 - 4:07
    我们掌握了大量的数据和图片,
  • 4:07 - 4:08
    我们要做的就是在其中做出选择。
  • 4:08 - 4:11
    在现实世界,大家都有相似的问题。
  • 4:11 - 4:14
    假设我是一个面试官,
    我需要雇佣一些人员。
  • 4:14 - 4:16
    我现在手里有一堆候选人资料,
  • 4:16 - 4:18
    根据这些候选者的简历和他们的面试,
  • 4:18 - 4:20
    我需要从中做出选择。
  • 4:20 - 4:22
    但是如果这件事发生在现实世界,
    就会出现一些保护机制。
  • 4:23 - 4:24
    假如我有100位男性候选人,
  • 4:24 - 4:27
    以及100位女性候选人,
  • 4:27 - 4:31
    如果我从中做出了选择,
    决定雇佣10位男性候选人,
  • 4:31 - 4:34
    那么根据法律,
    我最好提供一个合理解释,
  • 4:34 - 4:37
    说明我为何没有至少再雇佣8名女性。
  • 4:38 - 4:42
    那么我们能直接要求AI
    去遵守这些规则吗?
  • 4:42 - 4:45
    我们的AI做到了,
    而且成功的次数在不断的提高。
  • 4:45 - 4:47
    这仅仅是一个对于系统的调试罢了。
  • 4:47 - 4:52
    我们可以建立一个能够与人类
  • 4:52 - 4:54
    拥有相同公司信条的AI。
  • 4:55 - 4:56
    还记得我们的CEO案例吗?
  • 4:57 - 4:58
    我们可以从那幅图
  • 4:59 - 5:00
    变成这样。
  • 5:00 - 5:04
    我们可以把刻板印象转变成为现实。
  • 5:04 - 5:07
    事实上,我们甚至可以
    把我们现在所处的现实,
  • 5:07 - 5:10
    变成我们理想世界的模样。
  • 5:11 - 5:14
    现在,我们提出了一些技术性的解决方案
  • 5:15 - 5:19
    针对我刚刚说的这些,针对广告,
    针对其他AI面临的无数问题。
  • 5:21 - 5:23
    但是我不想让各位以为这样就够了。
  • 5:25 - 5:28
    AI正在被大家的社群所使用,
  • 5:29 - 5:33
    被警察和政府所部门使用,
  • 5:33 - 5:37
    它被用于决定你是否能够
    得到贷款的机会,
  • 5:37 - 5:40
    用于监测潜在的健康问题,
  • 5:41 - 5:45
    以及用于决定你是否能
    得到面试复试的机会。
  • 5:46 - 5:49
    AI已经全面进入我们的生活,
  • 5:49 - 5:54
    在很大程度上它以一种
    不受限制与管教的形式运行。
  • 5:56 - 5:58
    我举一个例子,
  • 5:58 - 6:02
    在美国,面部识别技术已经
    被广泛运用到了任何地方,
  • 6:02 - 6:04
    从警局到购物中心,
  • 6:04 - 6:06
    来帮助识别犯罪行为。
  • 6:08 - 6:10
    各位觉得这些长相面孔是否眼熟呢?
  • 6:11 - 6:15
    美国民权联盟组织
    (American Civil Liberties Union)
  • 6:16 - 6:22
    表示这些人都是被Amazon的AI技术
    所识别出的曾被逮捕的囚犯。
  • 6:23 - 6:29
    我得说这些人被错误地认证了,
    因为他们全都是国会议员。
  • 6:29 - 6:30
    (笑声)
  • 6:31 - 6:33
    AI会犯错误
  • 6:33 - 6:37
    这些错误可能会影响到现实中的人,
  • 6:38 - 6:41
    从那些被告知并未罹患癌症
  • 6:41 - 6:45
    但是后来被认定是机器检测错误
    但为时已晚的患者;
  • 6:45 - 6:48
    到那些由于有缺陷的AI的建议
  • 6:48 - 6:53
    而被误判延长刑期的囚犯。
  • 6:54 - 6:56
    这些错误会对人类社会带来影响。
  • 6:57 - 6:59
    这些错误也是现实存在的。
  • 7:01 - 7:05
    让我们再次回想起刚刚的一些案例,
  • 7:05 - 7:09
    我们发现这些AI错误加剧了
    现有的社会偏见。
  • 7:11 - 7:13
    在国会议员之中,
  • 7:15 - 7:18
    尽管只有20%的议员
  • 7:19 - 7:20
    是非白人。
  • 7:21 - 7:25
    他们被AI系统错误标注为
    遭逮捕的囚犯的可能性
  • 7:25 - 7:27
    是两倍以上。
  • 7:28 - 7:32
    因此我们应该拒绝允许这些伪客观的AI
  • 7:33 - 7:36
    把有缺陷的系统合法化。
  • 7:38 - 7:39
    那么再此我想重申,
  • 7:40 - 7:43
    没错,这些存在的技术问题
    的确很难解决,
  • 7:43 - 7:45
    但是我们在努力改变,
    我向大家保证。
  • 7:45 - 7:47
    我们已经有了解决方案。
  • 7:47 - 7:51
    但是仅仅提出技术性的解决方案
    是远远不够的。
  • 7:52 - 7:57
    我们要做的是从提供技术解决
  • 7:57 - 7:58
    到保证系统的公正公平。
  • 8:00 - 8:02
    我们应该使AI拥有
  • 8:03 - 8:06
    和人类社会同样的高标准。
  • 8:06 - 8:10
    我们发现,是越来越多的群众
    帮助实现了这个目标。
  • 8:11 - 8:14
    许多市政府部门已经出台相关政策,
  • 8:14 - 8:18
    要求政府内部停止使用面部识别技术
  • 8:19 - 8:23
    比如旧金山,奥克兰和
    马萨诸塞州的萨默维尔市。
  • 8:24 - 8:28
    这些成就的达成是
    因为有了大量的普通人,
  • 8:28 - 8:31
    由于那些出席市区大会的普通群众,
    他们不断地写信,
  • 8:31 - 8:35
    不断地质疑AI地客观性。
  • 8:36 - 8:37
    当谈到商业公司时,
  • 8:37 - 8:41
    我们更不能低估了集体行动的力量。
  • 8:42 - 8:44
    因为公众的压力,
  • 8:44 - 8:48
    许多大型公司召回了一些有问题的AI。
  • 8:48 - 8:51
    屈臣氏健康集团回收了一批
    可能会误诊癌症患者的机器,
  • 8:52 - 8:55
    亚马逊也停止使用计算机雇佣系统,
    这个系统被证实歧视女性,
  • 8:55 - 9:00
    由于出现了大量公众抗议,
  • 9:00 - 9:02
    大型公司召回并暂停或
    停止使用有问题的AI。
  • 9:03 - 9:08
    因此只要我们一起,就可以阻止
    由于使用AI而产生的社会止步不前,
  • 9:08 - 9:10
    或者更糟糕一点,让社会的进步倒退。
  • 9:10 - 9:12
    如果我们在使用AI时更加的小心,
  • 9:12 - 9:16
    更加的负责任,更加的明智,
  • 9:16 - 9:20
    我们不仅能使AI向我们展示
    我们现在所处的世界,
  • 9:21 - 9:23
    还能展示一个我们想要的
    理想世界的模样。
  • 9:23 - 9:25
    这项技术的潜力是无限的,
  • 9:25 - 9:28
    帮助AI使其进步
    是我们每一个人的责任。
  • 9:29 - 9:29
    谢谢。
  • 9:29 - 9:31
    (掌声)(欢呼)
Title:
我们应该相信AI吗? | Elisa Celis | TEDxProvidence
Description:

耶鲁大学教授 Elisa Celis致力于建设AI科技去更好的服务人类社会,但是在其中她发现了一个存在的问题。一个非常严重的问题。AI被设计于服务人类,但是却造成了对大部分人类的区分与排挤。想要知道这是如何发生的,我们应该做什么去修补这个漏洞以及我们还应该做些什么,请点击视频观看。

此TEDx演讲采取TED大会形式,TEDx活动是由当地社群独立举办。更多相关信息:http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
09:33

Chinese, Simplified subtitles

Revisions