0:00:01.041,0:00:04.235 大家好 我是乔伊[br]一位写代码的诗人 0:00:04.235,0:00:09.166 我正努力阻止一股[br]逐渐凸显的无形力量 0:00:09.166,0:00:12.056 一种我称为 代码的凝视 的力量 0:00:12.056,0:00:15.135 这是我用来定义算法偏见的术语 0:00:15.429,0:00:19.489 正如人类之间的偏见[br]算法偏见也会导致不公平 0:00:19.633,0:00:25.809 然而算法就像病毒一样[br]会以飞快的速度大范围地 0:00:25.809,0:00:27.381 扩散偏见 0:00:27.943,0:00:32.344 算法也将会导致排他的经历和 0:00:32.344,0:00:34.232 歧视性的做法 0:00:34.436,0:00:36.177 给大家举个例子 0:00:36.980,0:00:39.336 (录像)乔伊·博拉维尼:[br]嘿 摄像头 我来了 0:00:40.162,0:00:41.656 你可以看到我的脸吗 0:00:42.051,0:00:43.661 没有戴眼镜的脸呢 0:00:43.661,0:00:45.475 你可以看到她的脸 0:00:46.237,0:00:47.802 那么我的脸呢 0:00:51.890,0:00:55.230 我戴上了一个面罩[br]你可以看到我的面罩吗 0:00:56.474,0:00:58.773 乔伊·博拉维尼:[br]这是怎么回事呢 0:00:58.773,0:01:01.988 为什么我坐在一台电脑前 0:01:01.988,0:01:03.632 戴着一个白色的面罩 0:01:03.632,0:01:06.826 尝试着被一个廉价的[br]网络摄像头检测到 0:01:07.150,0:01:09.611 当我的身份不是写代码的诗人 0:01:09.611,0:01:11.045 与 代码的凝视 较劲的时候 0:01:11.045,0:01:14.275 我是MIT媒体实验室的[br]一位硕士生 0:01:14.275,0:01:19.262 在那里我有机会参与[br]各种不同的项目 0:01:19.262,0:01:21.303 包括激励镜子 0:01:21.303,0:01:26.405 一个可以将数字面罩[br]投射在我的映像上的项目 0:01:26.405,0:01:28.749 在早上的时候[br]如果我想充满力量 0:01:28.749,0:01:30.237 我可以放上一个狮子的图像 0:01:30.237,0:01:33.757 如果我想要感到积极向上[br]我也许就会放上一句格言 0:01:33.757,0:01:36.810 我使用通用的人脸识别软件 0:01:36.810,0:01:38.115 来搭建系统 0:01:38.115,0:01:43.352 但是我发现除非我戴上白色的面罩[br]否则测试很难成功 0:01:44.282,0:01:48.622 遗憾的是 我以前[br]也曾遇到过这种问题 0:01:48.622,0:01:52.939 当我在佐治亚理工学院[br]读计算机科学专业本科的时候 0:01:52.939,0:01:55.124 我曾经在一个[br]社交机器人上进行实验 0:01:55.124,0:01:58.819 我的任务之一是[br]让机器人玩躲猫猫 0:01:58.819,0:02:00.592 一个简单的轮换游戏 0:02:00.592,0:02:04.871 在游戏中玩伴盖住他们的脸[br]然后掀开说“躲猫猫!“ 0:02:04.871,0:02:09.334 问题是躲猫猫在我不能[br]看见你的时候不起作用 0:02:09.334,0:02:11.827 而我的机器人看不见我 0:02:11.827,0:02:15.811 我只好借了我室友的脸[br]去完成这个项目 0:02:15.811,0:02:17.205 递交了作业 0:02:17.205,0:02:21.018 寻思着总会有人[br]来解决这个问题的把 0:02:21.669,0:02:23.656 不久之后 0:02:23.656,0:02:27.855 我在香港参加一次创业比赛 0:02:28.339,0:02:31.073 组织者决定将各位参与者 0:02:31.073,0:02:33.413 带到当地的初创企业参观 0:02:33.413,0:02:36.162 其中一个创业公司[br]有一个社交机器人 0:02:36.162,0:02:38.088 他们决定进行一个项目演示 0:02:38.088,0:02:41.092 这个项目演示对除我之外的[br]每个人都有效果 0:02:41.092,0:02:43.039 你恐怕可以猜到 0:02:43.039,0:02:46.028 它不能检测到我的脸 0:02:46.028,0:02:48.463 我问开发师到底发生了什么 0:02:48.463,0:02:54.136 结果是我们使用了同一款[br]通用面部识别软件 0:02:54.140,0:02:55.794 在地球的另一边 0:02:55.794,0:02:59.660 我意识到算法偏见[br]传播得如此之快 0:02:59.660,0:03:02.880 只需要从互联网上[br]下载一些文件 0:03:03.745,0:03:06.821 那么到底发生了什么[br]为什么我的脸没有被检测到 0:03:06.825,0:03:10.241 我们需要了解我们[br]如何教会机器识别 0:03:10.241,0:03:13.618 计算机视觉使用机器学习技术 0:03:13.618,0:03:15.588 来进行面部识别 0:03:15.588,0:03:19.479 所以你要用一系列脸的样本[br]创建一个训练体系 0:03:19.483,0:03:22.275 这是一张脸 这是一张脸[br]而这不是一张脸 0:03:22.275,0:03:26.838 慢慢地你可以教电脑[br]如何识别其它的脸 0:03:26.838,0:03:30.897 然而如果这个训练集[br]不是那么的多样化 0:03:30.897,0:03:34.204 那些与已建立的标准[br]偏差较多的脸 0:03:34.204,0:03:35.973 将会难以被检测到 0:03:35.973,0:03:37.884 而这正是我遭遇的问题 0:03:37.884,0:03:40.280 不过别担心[br]我们还有好消息 0:03:40.280,0:03:43.085 训练集并不是凭空产生的 0:03:43.085,0:03:44.887 实际上我们可以创造它们 0:03:44.887,0:03:49.087 现在就有机会去创造[br]全波段光谱的训练集 0:03:49.087,0:03:52.951 可以反映更加饱满的人类面貌 0:03:52.955,0:03:55.190 现在你看到了在我的例子中 0:03:55.190,0:03:57.177 社交机器人 0:03:57.177,0:04:01.647 使我发现了算法偏见的排他性 0:04:01.647,0:04:06.462 不过算法偏见还会导致[br]各种歧视性的做法 0:04:07.437,0:04:09.060 美国境内的警察局 0:04:09.060,0:04:13.050 在打击犯罪的过程中 0:04:13.050,0:04:15.232 开始使用面部识别软件 0:04:15.619,0:04:17.732 乔治敦大学法学院[br]发表了一个报告 0:04:17.732,0:04:24.543 表明在全美两个成年人中就有一个[br]也就是近1.2亿的人口 0:04:24.543,0:04:27.971 他们的面部信息[br]被储存在了面部识别网络中[br] 0:04:27.971,0:04:32.547 警察局如今可以访问[br]这些未被规范的 0:04:32.547,0:04:36.923 使用着未审核准确性的[br]算法的面部识别网络 0:04:36.923,0:04:40.821 然而我们知道面部识别[br]并非万无一失 0:04:40.821,0:04:44.938 而持续地给面部标签[br]还是很有挑战性的 0:04:44.938,0:04:46.584 你也许在Facebook上见过这个 0:04:46.584,0:04:49.792 当我和我的朋友看到其他人[br]在我们的照片上被错误标注时 0:04:49.792,0:04:52.208 都会捧腹大笑 0:04:52.208,0:04:57.843 但是误认一个犯罪嫌疑人[br]可不是闹着玩儿的 0:04:57.843,0:05:00.684 对公民自由的侵犯也不容忽视 0:05:00.684,0:05:03.883 机器学习正被用于面部识别 0:05:03.883,0:05:08.458 但也延伸到了计算机视觉领域之外 0:05:09.266,0:05:13.266 在数据科学家凯西·欧奈尔在她[br]《数学杀伤性武器》一书中 0:05:13.266,0:05:19.941 叙述了逐渐严重的[br]新型大规模杀伤性武器 0:05:19.941,0:05:24.348 即 广泛应用而又神秘的[br]具有破坏性的算法 0:05:24.348,0:05:27.402 正在被越来越多地[br]运用于决策制定上 0:05:27.402,0:05:30.663 而这些决策影响着[br]我们生活的方方面面 0:05:30.663,0:05:32.537 谁被录用[br]又有谁被解雇 0:05:32.537,0:05:34.347 你得到了贷款吗[br]你买到了保险吗 0:05:34.347,0:05:38.110 你被心目中的理想大学录取了吗 0:05:38.124,0:05:41.617 在同一平台上的同一件产品 0:05:41.617,0:05:44.073 你和我是否支付同样的价格 0:05:44.073,0:05:47.776 为了实现警情预测[br]执法机构也开始 0:05:47.776,0:05:50.169 使用起机器学习 0:05:50.169,0:05:53.943 一些法官使用机器生成的[br]危险评分来决定 0:05:53.943,0:05:58.083 囚犯要在监狱里呆多久 0:05:58.083,0:06:00.591 我们真的应该[br]仔细思考这些决定 0:06:00.591,0:06:01.787 它们公平吗 0:06:01.787,0:06:04.867 我们已经清楚了 算法偏见 0:06:04.867,0:06:08.109 不一定总能带来公平的结果 0:06:08.109,0:06:09.683 那我们应该怎么做呢 0:06:10.157,0:06:13.957 我们可以开始思考如何[br]创造更具有包容性的代码 0:06:13.957,0:06:16.891 并且运用有包容性的编程实践 0:06:16.891,0:06:19.184 这真的要从人开始 0:06:19.708,0:06:21.699 由谁来编程很重要 0:06:21.699,0:06:25.902 我们组建的全光谱团队中[br]是否包括各种各样的个体 0:06:25.902,0:06:28.287 他们可以弥补彼此的盲区吗 0:06:28.287,0:06:31.831 在技术层面上[br]我们如何编程很重要 0:06:31.840,0:06:35.571 我们在研发系统的同时[br]有没有也考虑到公平的因素 0:06:35.571,0:06:38.428 最后一点 我们为什么编程也很重要 0:06:38.785,0:06:43.852 我们用计算机创建的工具[br]创造了巨大的财富 0:06:43.852,0:06:48.303 现在我们有机会去[br]创造进一步的平等 0:06:48.303,0:06:51.343 我们应该优先考虑社会变革 0:06:51.343,0:06:53.487 而不是想着事后优化 0:06:54.008,0:06:58.524 所以这三个宗旨[br]将构成“译码”运动 0:06:58.524,0:06:59.876 由谁来编程很重要 0:07:00.110,0:07:01.603 我们如何编程很重要 0:07:01.797,0:07:03.560 以及我们为什么编程很重要 0:07:03.764,0:07:06.797 所以就译码来说[br]我们可以开始考虑 0:07:06.797,0:07:10.181 建立一个我们可以辨识偏见的平台 0:07:10.181,0:07:13.207 通过收集人们与我类似的经历 0:07:13.207,0:07:16.311 不过也要审查现有的软件 0:07:16.311,0:07:20.110 我们也可以创造一些[br]更有包容性的训练集 0:07:20.110,0:07:23.033 想象一个为了包容性的自拍运动 0:07:23.033,0:07:26.356 在那里 你和我可以帮助[br]程序员测试以及创造 0:07:26.356,0:07:28.739 更具包容性的训练集 0:07:29.302,0:07:32.180 我们还可以开始更认真地思考 0:07:32.180,0:07:37.509 关于正在发展的科技[br]造成的社会影响 0:07:37.509,0:07:40.046 为了开启译码运动 0:07:40.046,0:07:42.827 我发起了算法正义联盟 0:07:42.827,0:07:48.713 在那里任何关心公平的人[br]可以出力来对抗 代码的凝视 0:07:48.713,0:07:52.033 在codedgaze.com网站[br]你可以举报偏见 0:07:52.033,0:07:54.502 请求审核 成为测试者 0:07:54.502,0:07:57.297 以及加入正在进行的谈话 0:07:57.297,0:07:59.624 标签就是 代码的凝视 0:08:00.742,0:08:03.203 我在此邀请各位加入我 0:08:03.203,0:08:06.946 去创造一个让科技为我们[br]所有人服务的世界 0:08:06.946,0:08:08.993 而不是只服务于部分人 0:08:08.993,0:08:13.499 一个我们珍惜包容和[br]聚焦社会变革的世界 0:08:13.499,0:08:14.648 谢谢 0:08:14.648,0:08:18.999 (掌声) 0:08:20.873,0:08:23.797 不过我还有一个问题 0:08:23.797,0:08:25.860 你会与我并肩战斗吗 0:08:25.860,0:08:27.239 (笑声) 0:08:27.239,0:08:29.650 (掌声)