我们应该相信AI吗? | Elisa Celis | TEDxProvidence
-
0:15 - 0:20首先,我想问在座各位一个问题:
-
0:20 - 0:24你们中有谁在今天,
或者说最近的24小时内 -
0:24 - 0:27经历过某种形式的种族歧视
或者性别歧视? -
0:27 - 0:30或者我换种说法:
-
0:30 - 0:33在座各位有多少人今日使用过网络?
-
0:33 - 0:34(笑声)
-
0:34 - 0:38不幸的是,这两个问题
在我看来是殊途同归的。 -
0:39 - 0:40我是接受过计算机科学专业教育的,
-
0:40 - 0:45我的工作就是利用AI科技,
使其更好服务人类社会。 -
0:46 - 0:48但是我越了解AI,
我却越深感这项技术 -
0:48 - 0:52总是掩藏在客观性的谎言之下。
-
0:53 - 0:54我赞同客观性。
-
0:54 - 0:59实际上,这也是我选择学习
数学与计算机科学的原因。 -
1:00 - 1:02的确,这个领域仍旧
充满着难以解答的问题, -
1:02 - 1:04但是最终,你总会有一个答案,
-
1:04 - 1:06一个你确信是事实的答案。
-
1:07 - 1:09AI则和它完全不同。
-
1:09 - 1:13AI建立在数据的基础上。
-
1:14 - 1:16但是数据并不是事实,
甚至也不是现实。 -
1:16 - 1:20AI与数据并不能做到客观性。
-
1:21 - 1:22我来举个例子、
-
1:23 - 1:25在各位的心目中
一个CEO应该是什么样子? -
1:26 - 1:28根据谷歌的搜索结果,
-
1:29 - 1:30诸位的答案该是如此。
-
1:30 - 1:34所以根据谷歌的结果,
一个CEO应该拥有如此长相特征。 -
1:35 - 1:39当然,这些人看起来很像CEO,
-
1:39 - 1:41但是仍然有很多CEO
-
1:41 - 1:45并不拥有这些相貌特征。
-
1:45 - 1:49现在各位所看到的并非是现实,
而仅仅是一种刻板印象。 -
1:51 - 1:53最近的一项研究表明
-
1:54 - 1:59尽管女性CEO占比总数
超过25%的女性人口, -
1:59 - 2:03但是你仅能在谷歌上搜索到
11%的女性CEO图片。 -
2:03 - 2:06该研究观察的其他职业
也均出现了这种现象。 -
2:06 - 2:10这些图片就是对现实中
性别的刻板印象 -
2:10 - 2:15那么,这些被认为是智能的AI科技
-
2:16 - 2:18又为何会犯这些低级错误呢?
-
2:19 - 2:23从抓取数据到设计算法,
-
2:23 - 2:27再到如何计算并应用这些数据,
-
2:28 - 2:31其实在每一步中都可以
发现这些问题的端倪? -
2:32 - 2:35这任何一个步骤都囊括了人类的决策
-
2:35 - 2:38而且也由人类的激励目标所决定。
-
2:38 - 2:43我们很少会停下前进的脚步
并不断质问? -
2:44 - 2:46谁来做这些决定?谁在其中获利?
-
2:46 - 2:48以及谁被排除在数据之外呢?
-
2:50 - 2:53这些便是在网络世界中每时都在发生的。
-
2:53 - 2:58举个例子,互联网广告在
住房、借贷和就业方面 -
2:58 - 3:01多次出现人群区分与歧视。
-
3:02 - 3:05一个最近的报告显示,
一份高薪工作的广告 -
3:05 - 3:09呈现给男性的次数多于女性的5倍,
-
3:10 - 3:13提供房屋改善的广告也会
歧视不同的人群。 -
3:13 - 3:18他们向75%的白人受众
提供房屋销售的广告, -
3:19 - 3:24而向其他的广大受众
提供房屋租赁的广告。 -
3:25 - 3:27在我看来,这已经涉及到我的私人领域。
-
3:28 - 3:31我是一位女士,一个拉丁裔,
同时我也是一个母亲。 -
3:32 - 3:35这不是我想要的世界,
更不是我想要我的孩子所生活的世界, -
3:35 - 3:38这不是一个我愿意成为
其中一份子进行奉献的世界。 -
3:39 - 3:42当我意识到这点时,
我知道我应该做点什么, -
3:42 - 3:45这也正是这几年我的主要工作方向,
-
3:45 - 3:49我与我的同事们,
以及一群非常有才华的研究员们 -
3:49 - 3:51一起努力建设一个我们热爱的世界。
-
3:52 - 3:55我们在定义与设计一种
-
3:55 - 3:59能有效避免歧视问题和
偏见问题的AI科技。 -
4:00 - 4:02现在,再来看CEO的例子。
-
4:02 - 4:04这就是我们所说的一个"选择问题"。
-
4:04 - 4:07我们掌握了大量的数据和图片,
-
4:07 - 4:08我们要做的就是在其中做出选择。
-
4:08 - 4:11在现实世界,大家都有相似的问题。
-
4:11 - 4:14假设我是一个面试官,
我需要雇佣一些人员。 -
4:14 - 4:16我现在手里有一堆候选人资料,
-
4:16 - 4:18根据这些候选者的简历和他们的面试,
-
4:18 - 4:20我需要从中做出选择。
-
4:20 - 4:22但是如果这件事发生在现实世界,
就会出现一些保护机制。 -
4:23 - 4:24假如我有100位男性候选人,
-
4:24 - 4:27以及100位女性候选人,
-
4:27 - 4:31如果我从中做出了选择,
决定雇佣10位男性候选人, -
4:31 - 4:34那么根据法律,
我最好提供一个合理解释, -
4:34 - 4:37说明我为何没有至少再雇佣8名女性。
-
4:38 - 4:42那么我们能直接要求AI
去遵守这些规则吗? -
4:42 - 4:45我们的AI做到了,
而且成功的次数在不断的提高。 -
4:45 - 4:47这仅仅是一个对于系统的调试罢了。
-
4:47 - 4:52我们可以建立一个能够与人类
-
4:52 - 4:54拥有相同公司信条的AI。
-
4:55 - 4:56还记得我们的CEO案例吗?
-
4:57 - 4:58我们可以从那幅图
-
4:59 - 5:00变成这样。
-
5:00 - 5:04我们可以把刻板印象转变成为现实。
-
5:04 - 5:07事实上,我们甚至可以
把我们现在所处的现实, -
5:07 - 5:10变成我们理想世界的模样。
-
5:11 - 5:14现在,我们提出了一些技术性的解决方案
-
5:15 - 5:19针对我刚刚说的这些,针对广告,
针对其他AI面临的无数问题。 -
5:21 - 5:23但是我不想让各位以为这样就够了。
-
5:25 - 5:28AI正在被大家的社群所使用,
-
5:29 - 5:33被警察和政府所部门使用,
-
5:33 - 5:37它被用于决定你是否能够
得到贷款的机会, -
5:37 - 5:40用于监测潜在的健康问题,
-
5:41 - 5:45以及用于决定你是否能
得到面试复试的机会。 -
5:46 - 5:49AI已经全面进入我们的生活,
-
5:49 - 5:54在很大程度上它以一种
不受限制与管教的形式运行。 -
5:56 - 5:58我举一个例子,
-
5:58 - 6:02在美国,面部识别技术已经
被广泛运用到了任何地方, -
6:02 - 6:04从警局到购物中心,
-
6:04 - 6:06来帮助识别犯罪行为。
-
6:08 - 6:10各位觉得这些长相面孔是否眼熟呢?
-
6:11 - 6:15美国民权联盟组织
(American Civil Liberties Union) -
6:16 - 6:22表示这些人都是被Amazon的AI技术
所识别出的曾被逮捕的囚犯。 -
6:23 - 6:29我得说这些人被错误地认证了,
因为他们全都是国会议员。 -
6:29 - 6:30(笑声)
-
6:31 - 6:33AI会犯错误
-
6:33 - 6:37这些错误可能会影响到现实中的人,
-
6:38 - 6:41从那些被告知并未罹患癌症
-
6:41 - 6:45但是后来被认定是机器检测错误
但为时已晚的患者; -
6:45 - 6:48到那些由于有缺陷的AI的建议
-
6:48 - 6:53而被误判延长刑期的囚犯。
-
6:54 - 6:56这些错误会对人类社会带来影响。
-
6:57 - 6:59这些错误也是现实存在的。
-
7:01 - 7:05让我们再次回想起刚刚的一些案例,
-
7:05 - 7:09我们发现这些AI错误加剧了
现有的社会偏见。 -
7:11 - 7:13在国会议员之中,
-
7:15 - 7:18尽管只有20%的议员
-
7:19 - 7:20是非白人。
-
7:21 - 7:25他们被AI系统错误标注为
遭逮捕的囚犯的可能性 -
7:25 - 7:27是两倍以上。
-
7:28 - 7:32因此我们应该拒绝允许这些伪客观的AI
-
7:33 - 7:36把有缺陷的系统合法化。
-
7:38 - 7:39那么再此我想重申,
-
7:40 - 7:43没错,这些存在的技术问题
的确很难解决, -
7:43 - 7:45但是我们在努力改变,
我向大家保证。 -
7:45 - 7:47我们已经有了解决方案。
-
7:47 - 7:51但是仅仅提出技术性的解决方案
是远远不够的。 -
7:52 - 7:57我们要做的是从提供技术解决
-
7:57 - 7:58到保证系统的公正公平。
-
8:00 - 8:02我们应该使AI拥有
-
8:03 - 8:06和人类社会同样的高标准。
-
8:06 - 8:10我们发现,是越来越多的群众
帮助实现了这个目标。 -
8:11 - 8:14许多市政府部门已经出台相关政策,
-
8:14 - 8:18要求政府内部停止使用面部识别技术
-
8:19 - 8:23比如旧金山,奥克兰和
马萨诸塞州的萨默维尔市。 -
8:24 - 8:28这些成就的达成是
因为有了大量的普通人, -
8:28 - 8:31由于那些出席市区大会的普通群众,
他们不断地写信, -
8:31 - 8:35不断地质疑AI地客观性。
-
8:36 - 8:37当谈到商业公司时,
-
8:37 - 8:41我们更不能低估了集体行动的力量。
-
8:42 - 8:44因为公众的压力,
-
8:44 - 8:48许多大型公司召回了一些有问题的AI。
-
8:48 - 8:51屈臣氏健康集团回收了一批
可能会误诊癌症患者的机器, -
8:52 - 8:55亚马逊也停止使用计算机雇佣系统,
这个系统被证实歧视女性, -
8:55 - 9:00由于出现了大量公众抗议,
-
9:00 - 9:02大型公司召回并暂停或
停止使用有问题的AI。 -
9:03 - 9:08因此只要我们一起,就可以阻止
由于使用AI而产生的社会止步不前, -
9:08 - 9:10或者更糟糕一点,让社会的进步倒退。
-
9:10 - 9:12如果我们在使用AI时更加的小心,
-
9:12 - 9:16更加的负责任,更加的明智,
-
9:16 - 9:20我们不仅能使AI向我们展示
我们现在所处的世界, -
9:21 - 9:23还能展示一个我们想要的
理想世界的模样。 -
9:23 - 9:25这项技术的潜力是无限的,
-
9:25 - 9:28帮助AI使其进步
是我们每一个人的责任。 -
9:29 - 9:29谢谢。
-
9:29 - 9:31(掌声)(欢呼)
- Title:
- 我们应该相信AI吗? | Elisa Celis | TEDxProvidence
- Description:
-
more » « less
耶鲁大学教授 Elisa Celis致力于建设AI科技去更好的服务人类社会,但是在其中她发现了一个存在的问题。一个非常严重的问题。AI被设计于服务人类,但是却造成了对大部分人类的区分与排挤。想要知道这是如何发生的,我们应该做什么去修补这个漏洞以及我们还应该做些什么,请点击视频观看。
此TEDx演讲采取TED大会形式,TEDx活动是由当地社群独立举办。更多相关信息:http://ted.com/tedx
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDxTalks
- Duration:
- 09:33
| Cissy Yun approved Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | ||
| Cissy Yun edited Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | ||
| Ryan Newkirk accepted Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | ||
| Ryan Newkirk edited Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | ||
| Maurice Cao edited Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | ||
| Maurice Cao edited Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | ||
| Maurice Cao edited Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence | ||
| Maurice Cao edited Chinese, Simplified subtitles for Should you trust what AI says? | Elisa Celis | TEDxProvidence |