Return to Video

我如何与算法偏见对抗

  • 0:01 - 0:04
    大家好 我是乔伊
    一位写代码的诗人
  • 0:04 - 0:09
    我正努力阻止一股
    逐渐凸显的无形力量
  • 0:09 - 0:12
    一种我称为 代码的凝视 的力量
  • 0:12 - 0:15
    这是我用来定义算法偏见的术语
  • 0:15 - 0:19
    正如人类之间的偏见
    算法偏见也会导致不公平
  • 0:20 - 0:26
    然而算法就像病毒一样
    会以飞快的速度大范围地
  • 0:26 - 0:27
    扩散偏见
  • 0:28 - 0:32
    算法也将会导致排他的经历和
  • 0:32 - 0:34
    歧视性的做法
  • 0:34 - 0:36
    给大家举个例子
  • 0:37 - 0:39
    (录像)乔伊·博拉维尼:
    嘿 摄像头 我来了
  • 0:40 - 0:42
    你可以看到我的脸吗
  • 0:42 - 0:44
    没有戴眼镜的脸呢
  • 0:44 - 0:45
    你可以看到她的脸
  • 0:46 - 0:48
    那么我的脸呢
  • 0:52 - 0:55
    我戴上了一个面罩
    你可以看到我的面罩吗
  • 0:56 - 0:59
    乔伊·博拉维尼:
    这是怎么回事呢
  • 0:59 - 1:02
    为什么我坐在一台电脑前
  • 1:02 - 1:04
    戴着一个白色的面罩
  • 1:04 - 1:07
    尝试着被一个廉价的
    网络摄像头检测到
  • 1:07 - 1:10
    当我的身份不是写代码的诗人
  • 1:10 - 1:11
    与 代码的凝视 较劲的时候
  • 1:11 - 1:14
    我是MIT媒体实验室的
    一位硕士生
  • 1:14 - 1:19
    在那里我有机会参与
    各种不同的项目
  • 1:19 - 1:21
    包括激励镜子
  • 1:21 - 1:26
    一个可以将数字面罩
    投射在我的映像上的项目
  • 1:26 - 1:29
    在早上的时候
    如果我想充满力量
  • 1:29 - 1:30
    我可以放上一个狮子的图像
  • 1:30 - 1:34
    如果我想要感到积极向上
    我也许就会放上一句格言
  • 1:34 - 1:37
    我使用通用的人脸识别软件
  • 1:37 - 1:38
    来搭建系统
  • 1:38 - 1:43
    但是我发现除非我戴上白色的面罩
    否则测试很难成功
  • 1:44 - 1:49
    遗憾的是 我以前
    也曾遇到过这种问题
  • 1:49 - 1:53
    当我在佐治亚理工学院
    读计算机科学专业本科的时候
  • 1:53 - 1:55
    我曾经在一个
    社交机器人上进行实验
  • 1:55 - 1:59
    我的任务之一是
    让机器人玩躲猫猫
  • 1:59 - 2:01
    一个简单的轮换游戏
  • 2:01 - 2:05
    在游戏中玩伴盖住他们的脸
    然后掀开说“躲猫猫!“
  • 2:05 - 2:09
    问题是躲猫猫在我不能
    看见你的时候不起作用
  • 2:09 - 2:12
    而我的机器人看不见我
  • 2:12 - 2:16
    我只好借了我室友的脸
    去完成这个项目
  • 2:16 - 2:17
    递交了作业
  • 2:17 - 2:21
    寻思着总会有人
    来解决这个问题的把
  • 2:22 - 2:24
    不久之后
  • 2:24 - 2:28
    我在香港参加一次创业比赛
  • 2:28 - 2:31
    组织者决定将各位参与者
  • 2:31 - 2:33
    带到当地的初创企业参观
  • 2:33 - 2:36
    其中一个创业公司
    有一个社交机器人
  • 2:36 - 2:38
    他们决定进行一个项目演示
  • 2:38 - 2:41
    这个项目演示对除我之外的
    每个人都有效果
  • 2:41 - 2:43
    你恐怕可以猜到
  • 2:43 - 2:46
    它不能检测到我的脸
  • 2:46 - 2:48
    我问开发师到底发生了什么
  • 2:48 - 2:54
    结果是我们使用了同一款
    通用面部识别软件
  • 2:54 - 2:56
    在地球的另一边
  • 2:56 - 3:00
    我意识到算法偏见
    传播得如此之快
  • 3:00 - 3:03
    只需要从互联网上
    下载一些文件
  • 3:04 - 3:07
    那么到底发生了什么
    为什么我的脸没有被检测到
  • 3:07 - 3:10
    我们需要了解我们
    如何教会机器识别
  • 3:10 - 3:14
    计算机视觉使用机器学习技术
  • 3:14 - 3:16
    来进行面部识别
  • 3:16 - 3:19
    所以你要用一系列脸的样本
    创建一个训练体系
  • 3:19 - 3:22
    这是一张脸 这是一张脸
    而这不是一张脸
  • 3:22 - 3:27
    慢慢地你可以教电脑
    如何识别其它的脸
  • 3:27 - 3:31
    然而如果这个训练集
    不是那么的多样化
  • 3:31 - 3:34
    那些与已建立的标准
    偏差较多的脸
  • 3:34 - 3:36
    将会难以被检测到
  • 3:36 - 3:38
    而这正是我遭遇的问题
  • 3:38 - 3:40
    不过别担心
    我们还有好消息
  • 3:40 - 3:43
    训练集并不是凭空产生的
  • 3:43 - 3:45
    实际上我们可以创造它们
  • 3:45 - 3:49
    现在就有机会去创造
    全波段光谱的训练集
  • 3:49 - 3:53
    可以反映更加饱满的人类面貌
  • 3:53 - 3:55
    现在你看到了在我的例子中
  • 3:55 - 3:57
    社交机器人
  • 3:57 - 4:02
    使我发现了算法偏见的排他性
  • 4:02 - 4:06
    不过算法偏见还会导致
    各种歧视性的做法
  • 4:07 - 4:09
    美国境内的警察局
  • 4:09 - 4:13
    在打击犯罪的过程中
  • 4:13 - 4:15
    开始使用面部识别软件
  • 4:16 - 4:18
    乔治敦大学法学院
    发表了一个报告
  • 4:18 - 4:25
    表明在全美两个成年人中就有一个
    也就是近1.2亿的人口
  • 4:25 - 4:28
    他们的面部信息
    被储存在了面部识别网络中
  • 4:28 - 4:33
    警察局如今可以访问
    这些未被规范的
  • 4:33 - 4:37
    使用着未审核准确性的
    算法的面部识别网络
  • 4:37 - 4:41
    然而我们知道面部识别
    并非万无一失
  • 4:41 - 4:45
    而持续地给面部标签
    还是很有挑战性的
  • 4:45 - 4:47
    你也许在Facebook上见过这个
  • 4:47 - 4:50
    当我和我的朋友看到其他人
    在我们的照片上被错误标注时
  • 4:50 - 4:52
    都会捧腹大笑
  • 4:52 - 4:58
    但是误认一个犯罪嫌疑人
    可不是闹着玩儿的
  • 4:58 - 5:01
    对公民自由的侵犯也不容忽视
  • 5:01 - 5:04
    机器学习正被用于面部识别
  • 5:04 - 5:08
    但也延伸到了计算机视觉领域之外
  • 5:09 - 5:13
    在数据科学家凯西·欧奈尔在她
    《数学杀伤性武器》一书中
  • 5:13 - 5:20
    叙述了逐渐严重的
    新型大规模杀伤性武器
  • 5:20 - 5:24
    即 广泛应用而又神秘的
    具有破坏性的算法
  • 5:24 - 5:27
    正在被越来越多地
    运用于决策制定上
  • 5:27 - 5:31
    而这些决策影响着
    我们生活的方方面面
  • 5:31 - 5:33
    谁被录用
    又有谁被解雇
  • 5:33 - 5:34
    你得到了贷款吗
    你买到了保险吗
  • 5:34 - 5:38
    你被心目中的理想大学录取了吗
  • 5:38 - 5:42
    在同一平台上的同一件产品
  • 5:42 - 5:44
    你和我是否支付同样的价格
  • 5:44 - 5:48
    为了实现警情预测
    执法机构也开始
  • 5:48 - 5:50
    使用起机器学习
  • 5:50 - 5:54
    一些法官使用机器生成的
    危险评分来决定
  • 5:54 - 5:58
    囚犯要在监狱里呆多久
  • 5:58 - 6:01
    我们真的应该
    仔细思考这些决定
  • 6:01 - 6:02
    它们公平吗
  • 6:02 - 6:05
    我们已经清楚了 算法偏见
  • 6:05 - 6:08
    不一定总能带来公平的结果
  • 6:08 - 6:10
    那我们应该怎么做呢
  • 6:10 - 6:14
    我们可以开始思考如何
    创造更具有包容性的代码
  • 6:14 - 6:17
    并且运用有包容性的编程实践
  • 6:17 - 6:19
    这真的要从人开始
  • 6:20 - 6:22
    由谁来编程很重要
  • 6:22 - 6:26
    我们组建的全光谱团队中
    是否包括各种各样的个体
  • 6:26 - 6:28
    他们可以弥补彼此的盲区吗
  • 6:28 - 6:32
    在技术层面上
    我们如何编程很重要
  • 6:32 - 6:36
    我们在研发系统的同时
    有没有也考虑到公平的因素
  • 6:36 - 6:38
    最后一点 我们为什么编程也很重要
  • 6:39 - 6:44
    我们用计算机创建的工具
    创造了巨大的财富
  • 6:44 - 6:48
    现在我们有机会去
    创造进一步的平等
  • 6:48 - 6:51
    我们应该优先考虑社会变革
  • 6:51 - 6:53
    而不是想着事后优化
  • 6:54 - 6:59
    所以这三个宗旨
    将构成“译码”运动
  • 6:59 - 7:00
    由谁来编程很重要
  • 7:00 - 7:02
    我们如何编程很重要
  • 7:02 - 7:04
    以及我们为什么编程很重要
  • 7:04 - 7:07
    所以就译码来说
    我们可以开始考虑
  • 7:07 - 7:10
    建立一个我们可以辨识偏见的平台
  • 7:10 - 7:13
    通过收集人们与我类似的经历
  • 7:13 - 7:16
    不过也要审查现有的软件
  • 7:16 - 7:20
    我们也可以创造一些
    更有包容性的训练集
  • 7:20 - 7:23
    想象一个为了包容性的自拍运动
  • 7:23 - 7:26
    在那里 你和我可以帮助
    程序员测试以及创造
  • 7:26 - 7:29
    更具包容性的训练集
  • 7:29 - 7:32
    我们还可以开始更认真地思考
  • 7:32 - 7:38
    关于正在发展的科技
    造成的社会影响
  • 7:38 - 7:40
    为了开启译码运动
  • 7:40 - 7:43
    我发起了算法正义联盟
  • 7:43 - 7:49
    在那里任何关心公平的人
    可以出力来对抗 代码的凝视
  • 7:49 - 7:52
    在codedgaze.com网站
    你可以举报偏见
  • 7:52 - 7:55
    请求审核 成为测试者
  • 7:55 - 7:57
    以及加入正在进行的谈话
  • 7:57 - 8:00
    标签就是 代码的凝视
  • 8:01 - 8:03
    我在此邀请各位加入我
  • 8:03 - 8:07
    去创造一个让科技为我们
    所有人服务的世界
  • 8:07 - 8:09
    而不是只服务于部分人
  • 8:09 - 8:13
    一个我们珍惜包容和
    聚焦社会变革的世界
  • 8:13 - 8:15
    谢谢
  • 8:15 - 8:19
    (掌声)
  • 8:21 - 8:24
    不过我还有一个问题
  • 8:24 - 8:26
    你会与我并肩战斗吗
  • 8:26 - 8:27
    (笑声)
  • 8:27 - 8:30
    (掌声)
Title:
我如何与算法偏见对抗
Speaker:
乔伊·博拉维尼
Description:

MIT的硕士生Joy Buolamwini在研发人脸识别软件的时候注意到一个问题:这个软件没能识别她的脸-因为程序员没有使软件去在一个很广的肤色和面部结构中识别人脸。现在,她在为机器学习的偏见作战,她把这个现象称作为“代码的凝视 “。算法正在控制我们生活越来越多的方面,这是一个开阔眼界的关于编程责任的演讲。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46

Chinese, Simplified subtitles

Revisions