为所有人编程| Joy Buolamwini | TEDxBeaconStreet
-
0:14 - 0:17大家好,我是乔,一位编码诗人,
-
0:17 - 0:22正致力阻止一股正崛起的未知力量,
-
0:22 - 0:25我称这种力量为“代码凝视”,
-
0:25 - 0:28也是我给“算法偏见”起的别名。
-
0:28 - 0:33算法偏见与人类的偏见一样,
都会产生不公。 -
0:33 - 0:39但是,算法就像病毒一样,
会使偏见大规模的传播 -
0:39 - 0:41且速度特别快。
-
0:41 - 0:44算法偏见也会导致排斥现象
-
0:44 - 0:47以及差别对待。
-
0:47 - 0:49让我向你展示一下:
-
0:50 - 0:51(视频)
-
0:51 - 0:53Joy: 你好,镜头!
我的脸在这儿。 -
0:53 - 0:55你能识别我的脸吗?
-
0:55 - 0:57摘掉眼镜呢?
-
0:58 - 1:00你可以识别她的脸。
-
1:01 - 1:03但我的脸呢?
-
1:06 - 1:07(笑声)
-
1:07 - 1:11我带上了面具,
你能识别我的面具吗? -
1:12 - 1:14这到底是怎么一回事?
-
1:14 - 1:17为什么我要坐在电脑面前
-
1:17 - 1:19戴着白色面具,
-
1:19 - 1:23试着让一台廉价的网络摄像机识别我呢?
-
1:23 - 1:26当我不作为编码诗人
与代码凝视作斗争时, -
1:26 - 1:30我是MIT媒体实验室的一个研究生,
-
1:30 - 1:35我有机会参加各种异想天开的项目,
-
1:35 - 1:37包括 Aspire Mirror,
-
1:37 - 1:42它是我做的一个项目,
可以将数码面具投射在我的映像上。 -
1:42 - 1:44在早晨,如果我想感受充满力量的感觉,
-
1:44 - 1:46我可以带上一个狮子面具。
-
1:46 - 1:49如果我想给自己打打气,
屏幕上会显示一句名言。 -
1:49 - 1:52我使用了通用面部识别软件
-
1:52 - 1:54来建立这个系统,
-
1:54 - 1:59但是我发现它真的很难测试,
除非我戴一个白色面具。 -
2:00 - 2:04不幸的是,
之前我也遇到过类似的问题。 -
2:04 - 2:08当我还是个本科生时,
在佐治亚理工大学学习计算机科学, -
2:08 - 2:11我曾研究社交机器人,
-
2:11 - 2:14我的任务之一是和机器人玩躲猫猫,
-
2:14 - 2:16一个简单的轮次游戏
-
2:16 - 2:21参与者需要先遮住自己的脸,
然后喊“躲猫猫!”露出脸。 -
2:21 - 2:25问题是,如果看不见对方
这个游戏就玩不成了。 -
2:25 - 2:28我的机器人看不见我。
-
2:28 - 2:32但我借用室友的脸完成了这个项目,
-
2:32 - 2:33提交了功课,
-
2:33 - 2:37想着,总有别人会解决这个问题的。
-
2:37 - 2:40不久之后,
-
2:40 - 2:44我在香港参加一个创业竞赛。
-
2:44 - 2:46主办方决定带领所有参赛者
-
2:46 - 2:49去参观当地的初创企业。
-
2:49 - 2:52其中一个有一个社交机器人,
-
2:52 - 2:54他们决定做一个演示。
-
2:54 - 2:57机器识别了每个人的脸,
终于轮到我了, -
2:57 - 2:59也许你们可以猜到。
-
2:59 - 3:02它不能识别我的脸。
-
3:02 - 3:04我问开发者到底是怎么回事,
-
3:04 - 3:10发现我们用的是
一样的通用面部识别软件。 -
3:10 - 3:12绕了半个世界,
-
3:12 - 3:14我明白了算法偏见的传播速度
-
3:14 - 3:19与从网络下载文件一样快。
-
3:20 - 3:23那到底发生了什么呢?
为什么我的脸不能被识别呢? -
3:23 - 3:26我们必须看看人们
是怎么给机器设置视觉。 -
3:26 - 3:29计算机视觉利用机器学习
-
3:29 - 3:31来识别人脸。
-
3:31 - 3:35你需要创造一个人脸样本训练集。
-
3:35 - 3:38这是一张脸。这也是一张脸。
这不是一张脸。 -
3:38 - 3:43通过长时间的训练,
你可以教计算机如何识别人脸。 -
3:43 - 3:47但是,如果训练集中的脸没有多样化,
-
3:47 - 3:50一张与所建范围内的样本
有所不同的脸 -
3:50 - 3:52将很难被识别。
-
3:52 - 3:54这就是发生在我身上的事情。
-
3:54 - 3:56不用担心,还有一些好消息。
-
3:56 - 3:59训练集不是凭空而有的,
-
3:59 - 4:01我们可以创造它们。
-
4:01 - 4:05所以,我们有机会
去创造一个全面完善的训练集, -
4:05 - 4:09来反应更丰富的人物肖像。
-
4:09 - 4:11你们已经看到了我的例子:
-
4:11 - 4:13我是如何通过社交机器人
-
4:13 - 4:17发现算法偏见产生排斥现象。
-
4:17 - 4:22算法偏见也会导致差别对待。
-
4:23 - 4:25在美国,
-
4:25 - 4:29警察机关正在使用人脸识别软件
-
4:29 - 4:31来打击犯罪。
-
4:31 - 4:33乔治敦法学院发表了一份报告:
-
4:33 - 4:40美国成年人,大约一亿一千七百万人,
-
4:40 - 4:44其中的二分之一的人的脸
在于人脸识别网络中。 -
4:44 - 4:48警察机关可以不受约束得
使用这些网络, -
4:48 - 4:53使用尚未被审查过准确性的算法。
-
4:53 - 4:57然而,人脸识别并非万无一失,
-
4:57 - 5:01准确标明人脸仍旧是个挑战。
-
5:01 - 5:03你可能在Facebook上见过这个
-
5:03 - 5:06我和我的朋友总是觉得好笑:
当我们看见其他人名 -
5:06 - 5:08被错误标识在我们的照片中。
-
5:08 - 5:14但是错误识别一个嫌疑犯
可不是闹着玩的事, -
5:14 - 5:17侵犯公民自由也并非儿戏。
-
5:17 - 5:20机器学习正被用于面部识别,
-
5:20 - 5:24也被用于计算机视觉之外的领域。
-
5:25 - 5:29在《数学毁灭性武器》一书中
(Weapons of Math Destruction") -
5:29 - 5:36作者兼数据科学家Cathy O'Neil
谈论到崛起的数学毁灭性武器—— -
5:36 - 5:40既神秘又具有破坏性的算法
被广泛使用, -
5:40 - 5:43人们越来越依靠它们来做出决定
-
5:43 - 5:46影响我们生活的各个方面。
-
5:46 - 5:48谁将被雇用或解雇呢?
-
5:48 - 5:50你能拿到那笔借贷?
你上的了保险了吗? -
5:50 - 5:54你被心仪的大学录取了吗?
-
5:54 - 5:57你我在同一购物平台上
购买的同一产品 -
5:57 - 6:00价格是否一样呢?
-
6:00 - 6:04执法部门也正开始使用机器学习
-
6:04 - 6:06用于预测警务。
-
6:06 - 6:10一些法官使用机器生成的
风险分数来判定 -
6:10 - 6:14犯人会在监狱里待多久。
-
6:14 - 6:16我们必须再三思考这些决策。
-
6:16 - 6:18他们真的公平吗?
-
6:18 - 6:21正如我们所见那样,
-
6:21 - 6:24算法偏见不总能得出公平的结果。
-
6:24 - 6:26那我们可以做些什么呢?
-
6:26 - 6:30我们可以开始思考
如何创造更具包容性的代码 -
6:30 - 6:33并且采用具有包容性的代码实践。
-
6:33 - 6:35编码由人而起。
-
6:36 - 6:37谁编写项目代码非常重要。
-
6:38 - 6:42我们有与不同的人一起
组建多样性的团队, -
6:42 - 6:44相互检查出对方的盲点吗?
-
6:44 - 6:48在技术方面,如何编写代码也非常重要。
-
6:48 - 6:51我们在开发系统时是否考虑到了公平性?
-
6:51 - 6:54最后,我们编程的原因也很重要。
-
6:55 - 7:00我们已使用计算机工具
解锁了巨大财富。 -
7:00 - 7:04现在,我们有机会用它
来实现更好的平等, -
7:04 - 7:07前提是,优先考虑社会变革
-
7:07 - 7:09而非在事后想到。
-
7:10 - 7:14这些也是“译码运动” 的三条准则:
(Incoding Movement) -
7:14 - 7:16谁编写代码很重要。
-
7:16 - 7:18如何编写项目代码很重要。
-
7:18 - 7:20为什么要编写项目代码也很重要。
-
7:20 - 7:23在”译码运动“中,我们可以开始思考
-
7:23 - 7:26如何建立能够识别偏见的平台,
-
7:26 - 7:29通过收集人们的经历
例如我之前所提到的, -
7:29 - 7:32我们也需要审查现有软件。
-
7:32 - 7:36我们也可以开始创造
更具包容性的训练集。 -
7:36 - 7:39想象一个”全民自拍“活动
-
7:39 - 7:42你我的加入可以帮助开发者
测试和创建 -
7:42 - 7:45更具包容性的训练集。
-
7:45 - 7:48我们也可以开始从道德上思考
-
7:48 - 7:53我们发展的科技的社会影响。
-
7:53 - 7:56为了开展“译码运动”,
-
7:56 - 7:59我推出了“算法正义联盟”
-
7:59 - 8:05任何一个关心平等的人
都可以帮助打击“代码凝视”。 -
8:05 - 8:08在codedgaze.com,
你可以举报算法偏见、 -
8:08 - 8:10请求审核、
成为一名测试者、 -
8:10 - 8:13参与话题讨论:
-
8:13 - 8:15#代码凝视。
-
8:17 - 8:19我邀请您与我一起
-
8:19 - 8:23创造一个科技服务全民的世界,
-
8:23 - 8:25不仅仅是部分人,
-
8:25 - 8:29一个重视包容和社会变革的世界。
-
8:29 - 8:31谢谢。
-
8:31 - 8:36(掌声)
-
8:41 - 8:45最后,我有个问题:
-
8:45 - 8:47你是否会和我一同战斗?
-
8:48 - 8:49(笑声)
-
8:49 - 8:51(掌声)
- Title:
- 为所有人编程| Joy Buolamwini | TEDxBeaconStreet
- Description:
-
Joy Buolamwini是一个杰出的程序员,但她遇到了难题:面部识别系统总是识别不出她的脸,除非她戴上一个白色面具。这个故事显示了种族特权可以通过微妙的方式不让所有人获得学习的机会。 Joy开始在这方面努力——她开始编写更具包容性的程序。她发起了一场革命,邀请你加入!
Joy Buolamwini是code4rights创始人和MIT媒体集团在麻省理工学院媒体实验室的研究生,一名罗德学者,一名Fulbright 研究员,宇航员的学者,谷歌的安妮塔博格学者,和卡特中心的技术顾问公认的杰出志愿者。作为techturized Inc(头发护理技术公司)的首席技术官,提供技术解决方案,全球健康科技咨询。通过在美国,埃塞俄比亚,马里,和尼日利亚,为欠服务的社区开发软件获得了技术能力。她在赞比亚担任Fulbright研究员期间,她探索了通过Zamrize自主创新增强公民使用技术创制造属于他们自己的新型科技的话题。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 09:02
Cissy Yun edited Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Cissy Yun approved Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Cissy Yun accepted Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Cissy Yun edited Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
Cissy Yun edited Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
欢 罗 edited Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
欢 罗 edited Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet | ||
欢 罗 edited Chinese, Simplified subtitles for Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet |