我如何与算法偏见对抗
-
0:01 - 0:04大家好 我是乔伊
一位写代码的诗人 -
0:04 - 0:09我正努力阻止一股
逐渐凸显的无形力量 -
0:09 - 0:12一种我称为 代码的凝视 的力量
-
0:12 - 0:15这是我用来定义算法偏见的术语
-
0:15 - 0:19正如人类之间的偏见
算法偏见也会导致不公平 -
0:20 - 0:26然而算法就像病毒一样
会以飞快的速度大范围地 -
0:26 - 0:27扩散偏见
-
0:28 - 0:32算法也将会导致排他的经历和
-
0:32 - 0:34歧视性的做法
-
0:34 - 0:36给大家举个例子
-
0:37 - 0:39(录像)乔伊·博拉维尼:
嘿 摄像头 我来了 -
0:40 - 0:42你可以看到我的脸吗
-
0:42 - 0:44没有戴眼镜的脸呢
-
0:44 - 0:45你可以看到她的脸
-
0:46 - 0:48那么我的脸呢
-
0:52 - 0:55我戴上了一个面罩
你可以看到我的面罩吗 -
0:56 - 0:59乔伊·博拉维尼:
这是怎么回事呢 -
0:59 - 1:02为什么我坐在一台电脑前
-
1:02 - 1:04戴着一个白色的面罩
-
1:04 - 1:07尝试着被一个廉价的
网络摄像头检测到 -
1:07 - 1:10当我的身份不是写代码的诗人
-
1:10 - 1:11与 代码的凝视 较劲的时候
-
1:11 - 1:14我是MIT媒体实验室的
一位硕士生 -
1:14 - 1:19在那里我有机会参与
各种不同的项目 -
1:19 - 1:21包括激励镜子
-
1:21 - 1:26一个可以将数字面罩
投射在我的映像上的项目 -
1:26 - 1:29在早上的时候
如果我想充满力量 -
1:29 - 1:30我可以放上一个狮子的图像
-
1:30 - 1:34如果我想要感到积极向上
我也许就会放上一句格言 -
1:34 - 1:37我使用通用的人脸识别软件
-
1:37 - 1:38来搭建系统
-
1:38 - 1:43但是我发现除非我戴上白色的面罩
否则测试很难成功 -
1:44 - 1:49遗憾的是 我以前
也曾遇到过这种问题 -
1:49 - 1:53当我在佐治亚理工学院
读计算机科学专业本科的时候 -
1:53 - 1:55我曾经在一个
社交机器人上进行实验 -
1:55 - 1:59我的任务之一是
让机器人玩躲猫猫 -
1:59 - 2:01一个简单的轮换游戏
-
2:01 - 2:05在游戏中玩伴盖住他们的脸
然后掀开说“躲猫猫!“ -
2:05 - 2:09问题是躲猫猫在我不能
看见你的时候不起作用 -
2:09 - 2:12而我的机器人看不见我
-
2:12 - 2:16我只好借了我室友的脸
去完成这个项目 -
2:16 - 2:17递交了作业
-
2:17 - 2:21寻思着总会有人
来解决这个问题的把 -
2:22 - 2:24不久之后
-
2:24 - 2:28我在香港参加一次创业比赛
-
2:28 - 2:31组织者决定将各位参与者
-
2:31 - 2:33带到当地的初创企业参观
-
2:33 - 2:36其中一个创业公司
有一个社交机器人 -
2:36 - 2:38他们决定进行一个项目演示
-
2:38 - 2:41这个项目演示对除我之外的
每个人都有效果 -
2:41 - 2:43你恐怕可以猜到
-
2:43 - 2:46它不能检测到我的脸
-
2:46 - 2:48我问开发师到底发生了什么
-
2:48 - 2:54结果是我们使用了同一款
通用面部识别软件 -
2:54 - 2:56在地球的另一边
-
2:56 - 3:00我意识到算法偏见
传播得如此之快 -
3:00 - 3:03只需要从互联网上
下载一些文件 -
3:04 - 3:07那么到底发生了什么
为什么我的脸没有被检测到 -
3:07 - 3:10我们需要了解我们
如何教会机器识别 -
3:10 - 3:14计算机视觉使用机器学习技术
-
3:14 - 3:16来进行面部识别
-
3:16 - 3:19所以你要用一系列脸的样本
创建一个训练体系 -
3:19 - 3:22这是一张脸 这是一张脸
而这不是一张脸 -
3:22 - 3:27慢慢地你可以教电脑
如何识别其它的脸 -
3:27 - 3:31然而如果这个训练集
不是那么的多样化 -
3:31 - 3:34那些与已建立的标准
偏差较多的脸 -
3:34 - 3:36将会难以被检测到
-
3:36 - 3:38而这正是我遭遇的问题
-
3:38 - 3:40不过别担心
我们还有好消息 -
3:40 - 3:43训练集并不是凭空产生的
-
3:43 - 3:45实际上我们可以创造它们
-
3:45 - 3:49现在就有机会去创造
全波段光谱的训练集 -
3:49 - 3:53可以反映更加饱满的人类面貌
-
3:53 - 3:55现在你看到了在我的例子中
-
3:55 - 3:57社交机器人
-
3:57 - 4:02使我发现了算法偏见的排他性
-
4:02 - 4:06不过算法偏见还会导致
各种歧视性的做法 -
4:07 - 4:09美国境内的警察局
-
4:09 - 4:13在打击犯罪的过程中
-
4:13 - 4:15开始使用面部识别软件
-
4:16 - 4:18乔治敦大学法学院
发表了一个报告 -
4:18 - 4:25表明在全美两个成年人中就有一个
也就是近1.2亿的人口 -
4:25 - 4:28他们的面部信息
被储存在了面部识别网络中 -
4:28 - 4:33警察局如今可以访问
这些未被规范的 -
4:33 - 4:37使用着未审核准确性的
算法的面部识别网络 -
4:37 - 4:41然而我们知道面部识别
并非万无一失 -
4:41 - 4:45而持续地给面部标签
还是很有挑战性的 -
4:45 - 4:47你也许在Facebook上见过这个
-
4:47 - 4:50当我和我的朋友看到其他人
在我们的照片上被错误标注时 -
4:50 - 4:52都会捧腹大笑
-
4:52 - 4:58但是误认一个犯罪嫌疑人
可不是闹着玩儿的 -
4:58 - 5:01对公民自由的侵犯也不容忽视
-
5:01 - 5:04机器学习正被用于面部识别
-
5:04 - 5:08但也延伸到了计算机视觉领域之外
-
5:09 - 5:13在数据科学家凯西·欧奈尔在她
《数学杀伤性武器》一书中 -
5:13 - 5:20叙述了逐渐严重的
新型大规模杀伤性武器 -
5:20 - 5:24即 广泛应用而又神秘的
具有破坏性的算法 -
5:24 - 5:27正在被越来越多地
运用于决策制定上 -
5:27 - 5:31而这些决策影响着
我们生活的方方面面 -
5:31 - 5:33谁被录用
又有谁被解雇 -
5:33 - 5:34你得到了贷款吗
你买到了保险吗 -
5:34 - 5:38你被心目中的理想大学录取了吗
-
5:38 - 5:42在同一平台上的同一件产品
-
5:42 - 5:44你和我是否支付同样的价格
-
5:44 - 5:48为了实现警情预测
执法机构也开始 -
5:48 - 5:50使用起机器学习
-
5:50 - 5:54一些法官使用机器生成的
危险评分来决定 -
5:54 - 5:58囚犯要在监狱里呆多久
-
5:58 - 6:01我们真的应该
仔细思考这些决定 -
6:01 - 6:02它们公平吗
-
6:02 - 6:05我们已经清楚了 算法偏见
-
6:05 - 6:08不一定总能带来公平的结果
-
6:08 - 6:10那我们应该怎么做呢
-
6:10 - 6:14我们可以开始思考如何
创造更具有包容性的代码 -
6:14 - 6:17并且运用有包容性的编程实践
-
6:17 - 6:19这真的要从人开始
-
6:20 - 6:22由谁来编程很重要
-
6:22 - 6:26我们组建的全光谱团队中
是否包括各种各样的个体 -
6:26 - 6:28他们可以弥补彼此的盲区吗
-
6:28 - 6:32在技术层面上
我们如何编程很重要 -
6:32 - 6:36我们在研发系统的同时
有没有也考虑到公平的因素 -
6:36 - 6:38最后一点 我们为什么编程也很重要
-
6:39 - 6:44我们用计算机创建的工具
创造了巨大的财富 -
6:44 - 6:48现在我们有机会去
创造进一步的平等 -
6:48 - 6:51我们应该优先考虑社会变革
-
6:51 - 6:53而不是想着事后优化
-
6:54 - 6:59所以这三个宗旨
将构成“译码”运动 -
6:59 - 7:00由谁来编程很重要
-
7:00 - 7:02我们如何编程很重要
-
7:02 - 7:04以及我们为什么编程很重要
-
7:04 - 7:07所以就译码来说
我们可以开始考虑 -
7:07 - 7:10建立一个我们可以辨识偏见的平台
-
7:10 - 7:13通过收集人们与我类似的经历
-
7:13 - 7:16不过也要审查现有的软件
-
7:16 - 7:20我们也可以创造一些
更有包容性的训练集 -
7:20 - 7:23想象一个为了包容性的自拍运动
-
7:23 - 7:26在那里 你和我可以帮助
程序员测试以及创造 -
7:26 - 7:29更具包容性的训练集
-
7:29 - 7:32我们还可以开始更认真地思考
-
7:32 - 7:38关于正在发展的科技
造成的社会影响 -
7:38 - 7:40为了开启译码运动
-
7:40 - 7:43我发起了算法正义联盟
-
7:43 - 7:49在那里任何关心公平的人
可以出力来对抗 代码的凝视 -
7:49 - 7:52在codedgaze.com网站
你可以举报偏见 -
7:52 - 7:55请求审核 成为测试者
-
7:55 - 7:57以及加入正在进行的谈话
-
7:57 - 8:00标签就是 代码的凝视
-
8:01 - 8:03我在此邀请各位加入我
-
8:03 - 8:07去创造一个让科技为我们
所有人服务的世界 -
8:07 - 8:09而不是只服务于部分人
-
8:09 - 8:13一个我们珍惜包容和
聚焦社会变革的世界 -
8:13 - 8:15谢谢
-
8:15 - 8:19(掌声)
-
8:21 - 8:24不过我还有一个问题
-
8:24 - 8:26你会与我并肩战斗吗
-
8:26 - 8:27(笑声)
-
8:27 - 8:30(掌声)
- Title:
- 我如何与算法偏见对抗
- Speaker:
- 乔伊·博拉维尼
- Description:
-
MIT的硕士生Joy Buolamwini在研发人脸识别软件的时候注意到一个问题:这个软件没能识别她的脸-因为程序员没有使软件去在一个很广的肤色和面部结构中识别人脸。现在,她在为机器学习的偏见作战,她把这个现象称作为“代码的凝视 “。算法正在控制我们生活越来越多的方面,这是一个开阔眼界的关于编程责任的演讲。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Yolanda Zhang approved Chinese, Simplified subtitles for How I'm fighting bias in algorithms | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How I'm fighting bias in algorithms | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How I'm fighting bias in algorithms | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How I'm fighting bias in algorithms | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How I'm fighting bias in algorithms | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How I'm fighting bias in algorithms | ||
Aviva Nassimi accepted Chinese, Simplified subtitles for How I'm fighting bias in algorithms | ||
Yolanda Zhang rejected Chinese, Simplified subtitles for How I'm fighting bias in algorithms |