1 00:00:00,792 --> 00:00:03,059 每一天, 每一个星期, 2 00:00:03,083 --> 00:00:05,268 我们都会同意各种服务条款。 3 00:00:05,292 --> 00:00:06,768 每当我们这样做, 4 00:00:06,792 --> 00:00:09,268 我们其实就赋予了公司法律上的权利, 5 00:00:09,292 --> 00:00:12,976 用我们的数据去做任何事, 6 00:00:13,000 --> 00:00:15,375 也包括我们孩子的数据。 7 00:00:16,792 --> 00:00:19,768 这难免使我们感到困惑: 8 00:00:19,792 --> 00:00:22,684 我们到底提供了多少 关于孩子的数据, 9 00:00:22,708 --> 00:00:24,708 它们的用途又是什么? 10 00:00:26,500 --> 00:00:27,893 我是个人类学家, 11 00:00:27,917 --> 00:00:30,518 也是两个女孩的母亲。 12 00:00:30,542 --> 00:00:35,018 2015 年,我开始关注这个问题, 13 00:00:35,042 --> 00:00:37,768 当时我突然发现很多科技公司 14 00:00:37,792 --> 00:00:40,809 从孩子那里搜集到了 15 00:00:40,833 --> 00:00:44,000 庞大到无法想象的数据信息。 16 00:00:44,792 --> 00:00:46,768 所以我启动了一个研究项目, 17 00:00:46,792 --> 00:00:49,268 叫“儿童数据市民”, 18 00:00:49,292 --> 00:00:51,417 希望能够填补空缺的信息。 19 00:00:52,583 --> 00:00:55,601 现在,你们有可能以为我在责怪你们 20 00:00:55,625 --> 00:00:58,393 在社交网络上传了孩子的照片, 21 00:00:58,417 --> 00:01:00,559 但是这不是重点。 22 00:01:00,583 --> 00:01:04,000 实际问题比分享要严重得多。 23 00:01:04,792 --> 00:01:08,893 这事关系统,而不是个人。 24 00:01:08,917 --> 00:01:11,208 你的行为习惯并没有错。 25 00:01:12,833 --> 00:01:15,684 历史上首次, 26 00:01:15,708 --> 00:01:18,268 我们开始追踪孩子的个人数据, 27 00:01:18,292 --> 00:01:20,059 从他们出生之前—— 28 00:01:20,083 --> 00:01:22,768 有时候是从受孕开始, 29 00:01:22,792 --> 00:01:25,143 然后贯穿他们的一生。 30 00:01:25,167 --> 00:01:28,268 通常,当家长决定要一个孩子, 31 00:01:28,292 --> 00:01:31,268 他们会在网上搜索 “怎么怀孕”, 32 00:01:31,292 --> 00:01:34,042 或者下载排卵期追踪软件。 33 00:01:35,250 --> 00:01:37,851 等到真的怀孕了, 34 00:01:37,875 --> 00:01:41,018 他们会在社交网络上 发布宝宝的超音波图像, 35 00:01:41,042 --> 00:01:43,059 下载关于怀孕的软件, 36 00:01:43,083 --> 00:01:46,809 或者在谷歌上搜索相关信息。 37 00:01:46,833 --> 00:01:48,351 比如, 38 00:01:48,375 --> 00:01:50,934 “乘飞机时的流产风险” 39 00:01:50,958 --> 00:01:53,726 或者“怀孕早期的腹痛”。 40 00:01:53,750 --> 00:01:55,559 我知道这些, 因为我也有过类似的经历, 41 00:01:55,583 --> 00:01:57,208 而且是很多次。 42 00:01:58,458 --> 00:02:01,268 等到宝宝出生后, 他们会用不同的技术 43 00:02:01,268 --> 00:02:01,999 记录每个午觉、 44 00:02:01,999 --> 00:02:05,167 每次喂食和每个重要时刻。 45 00:02:06,083 --> 00:02:07,559 所有这些技术 46 00:02:07,583 --> 00:02:13,726 都会通过把宝宝的资料分享给别人 47 00:02:13,750 --> 00:02:15,542 从而换取利润。 48 00:02:16,583 --> 00:02:18,726 先给各位举一个例子, 49 00:02:18,750 --> 00:02:23,474 在 2019 年, 英国医学杂志发布了一项研究: 50 00:02:23,474 --> 00:02:27,601 在 24 个健康类的手机软件里, 51 00:02:27,625 --> 00:02:31,083 有 19 个把用户资料 分享给了第三方, 52 00:02:32,083 --> 00:02:37,917 而这些第三方又分享给了 216 个其他的组织。 53 00:02:38,875 --> 00:02:42,309 而这 216 个第四方机构, 54 00:02:42,333 --> 00:02:45,476 只有三个属于健康类机构, 55 00:02:45,500 --> 00:02:50,018 其他的则是大型科技公司, 56 00:02:50,042 --> 00:02:53,559 比如谷歌,脸书或甲骨文, 57 00:02:53,583 --> 00:02:56,184 都是数据广告类的公司, 58 00:02:56,208 --> 00:03:00,333 而且还有消费信贷的报告机构。 59 00:03:01,125 --> 00:03:02,559 所以你的猜测是对的: 60 00:03:02,583 --> 00:03:07,708 广告公司和信贷机构 已经有了宝宝们的数据。 61 00:03:09,125 --> 00:03:11,893 但是手机软件、网站搜索和社交媒体 62 00:03:11,917 --> 00:03:15,018 只是冰山一角, 63 00:03:15,042 --> 00:03:17,633 因为孩子们的日常生活 64 00:03:17,633 --> 00:03:19,643 已经被很多科技追踪了。 65 00:03:19,667 --> 00:03:23,809 他们被家里的设备和虚拟助手追踪, 66 00:03:23,833 --> 00:03:25,809 他们被教育网站 67 00:03:25,833 --> 00:03:28,018 和学校里的教育技术追踪。 68 00:03:28,042 --> 00:03:29,643 他们被诊所的 69 00:03:29,667 --> 00:03:32,684 网上记录和门户网站追踪。 70 00:03:32,708 --> 00:03:35,059 他们也在被连网的玩具、 71 00:03:35,083 --> 00:03:36,393 在线游戏 72 00:03:36,417 --> 00:03:39,083 和很多很多其他的技术追踪。 73 00:03:40,250 --> 00:03:41,893 在我的研究过程中, 74 00:03:41,917 --> 00:03:46,059 很多家长问我,“那又怎么样? 75 00:03:46,083 --> 00:03:49,000 就算我的孩子被追踪,那又怎么样? 76 00:03:50,042 --> 00:03:51,935 我们又没什么见不得人的秘密。” 77 00:03:52,958 --> 00:03:54,458 但是,这真的很重要。 78 00:03:55,083 --> 00:04:01,101 因为现如今,个人信息不仅仅被追踪, 79 00:04:01,125 --> 00:04:05,226 还会被用来创建网络个人档案。 80 00:04:05,250 --> 00:04:09,059 那些公司会用人工智能和预测分析 81 00:04:09,083 --> 00:04:12,726 从不同渠道搜集越来越多的 82 00:04:12,750 --> 00:04:14,601 个人数据: 83 00:04:14,625 --> 00:04:19,143 家庭历史、购物习惯和社交媒体评论, 84 00:04:19,167 --> 00:04:21,018 然后将这些信息结合在一起 85 00:04:21,042 --> 00:04:23,792 去做出关于你的决定。 86 00:04:24,792 --> 00:04:28,226 这些技术几乎无处不在。 87 00:04:28,250 --> 00:04:30,643 银行利用这些信息 决定批准谁的贷款, 88 00:04:30,667 --> 00:04:33,042 保险公司用它们决定保费额度, 89 00:04:34,208 --> 00:04:36,684 招聘人员和雇主用它们 90 00:04:36,708 --> 00:04:39,625 来决定你们到底适不适合某个工作。 91 00:04:40,750 --> 00:04:43,851 警察和法庭也利用它们 92 00:04:43,875 --> 00:04:47,393 去决定这个人是不是罪犯, 93 00:04:47,417 --> 00:04:50,042 或者有没有可能犯罪。 94 00:04:52,458 --> 00:04:56,518 这些购买、售卖 和处理我们信息的人 95 00:04:56,542 --> 00:05:00,184 究竟如何调查我们和我们的孩子, 96 00:05:00,208 --> 00:05:02,917 我们对此一无所知, 也没有任何控制权。 97 00:05:03,625 --> 00:05:07,667 但这些信息会 严重影响我们的权益。 98 00:05:08,917 --> 00:05:11,125 举个例子, 99 00:05:13,792 --> 00:05:17,851 2018 年《纽约时报》 发布的一则新闻称, 100 00:05:17,875 --> 00:05:19,851 由线上大学规划服务 101 00:05:19,875 --> 00:05:22,934 搜集的数据—— 102 00:05:22,958 --> 00:05:27,684 这些数据都来自 全美数百万正在寻找 103 00:05:27,708 --> 00:05:31,351 大学项目或奖学金的高中生—— 104 00:05:31,375 --> 00:05:34,417 已经被售卖给了教育数据经纪人。 105 00:05:35,792 --> 00:05:41,226 福特汉姆的研究人员在对一些 教育数据经纪人进行分析之后透露, 106 00:05:41,250 --> 00:05:46,476 这些公司根据以下类别 对不小于两岁的孩子 107 00:05:46,500 --> 00:05:49,559 进行了分组: 108 00:05:49,583 --> 00:05:53,768 种族、宗教、家庭富裕程度、 109 00:05:53,792 --> 00:05:55,851 社交恐惧症, 110 00:05:55,875 --> 00:05:58,809 以及很多其他的随机分类。 111 00:05:58,833 --> 00:06:03,851 然后他们会将这些资料, 以及孩子的名字、 112 00:06:03,875 --> 00:06:06,684 地址和联系方式 113 00:06:06,708 --> 00:06:08,559 出售给不同的公司, 114 00:06:08,583 --> 00:06:11,042 包括贸易和职业发展机构, 115 00:06:12,083 --> 00:06:13,111 学生贷款 116 00:06:13,111 --> 00:06:15,125 和学生信用卡公司。 117 00:06:16,542 --> 00:06:17,893 更夸张的是, 118 00:06:17,917 --> 00:06:21,726 研究人员要求教育数据经纪人 119 00:06:21,750 --> 00:06:27,559 提供一份对家庭生育服务感兴趣, 120 00:06:27,583 --> 00:06:30,958 年龄在 14 至 15 岁的少女名单。 121 00:06:32,208 --> 00:06:34,684 数据经纪人同意了。 122 00:06:34,708 --> 00:06:39,583 所以不难想象,我们孩子的隐私 得到了何等程度的侵犯。 123 00:06:40,833 --> 00:06:44,809 但是教育数据经纪人的例子 只是冰山一角。 124 00:06:44,833 --> 00:06:49,518 诚然,孩子们的信息 正以不可控的方式被人操纵着, 125 00:06:49,542 --> 00:06:52,958 但这会极大地影响他们以后的人生。 126 00:06:54,167 --> 00:06:57,643 所以我们要扪心自问: 127 00:06:57,667 --> 00:07:02,351 这些搜集孩子们信息的技术 还值得信任吗? 128 00:07:02,375 --> 00:07:03,625 值得吗? 129 00:07:05,708 --> 00:07:06,958 我的答案是否定的。 130 00:07:07,792 --> 00:07:08,919 作为一个人类学家, 131 00:07:08,919 --> 00:07:12,851 我相信人工智能和 预测分析可以很好的 132 00:07:12,875 --> 00:07:14,893 预测疾病的发展过程 133 00:07:14,917 --> 00:07:16,750 或者对抗气候变化。 134 00:07:18,000 --> 00:07:19,643 但是我们需要摒弃 135 00:07:19,643 --> 00:07:23,351 这些技术可以客观的分析人类数据, 136 00:07:23,375 --> 00:07:26,559 我们能够以数据为依据做出 关于个人生活的决定 137 00:07:26,583 --> 00:07:28,476 这一想法。 138 00:07:28,500 --> 00:07:31,059 因为它们做不到。 139 00:07:31,083 --> 00:07:34,434 数据无法反映我们的真实情况。 140 00:07:34,458 --> 00:07:36,419 人类往往心口不一, 141 00:07:36,419 --> 00:07:39,018 言行不一。 142 00:07:39,042 --> 00:07:41,518 算法预测或者数据实践 143 00:07:41,542 --> 00:07:46,708 无法应对人类经验的 不可预测性和复杂性。 144 00:07:48,417 --> 00:07:49,976 但是在此之上, 145 00:07:50,000 --> 00:07:52,684 这些科技总是—— 146 00:07:52,708 --> 00:07:53,976 总是—— 147 00:07:54,000 --> 00:07:55,917 以这样或那样的方式存在偏见。 148 00:07:57,125 --> 00:08:02,184 要知道,算法的定义是 被设计成实现一个具体结果的 149 00:08:02,208 --> 00:08:05,917 很多套规则或步骤,对吧? 150 00:08:06,833 --> 00:08:09,559 但是这些都不是客观的, 151 00:08:09,583 --> 00:08:11,536 因为它们都是 由带有特殊文化背景, 152 00:08:11,536 --> 00:08:13,500 被特殊文化价值所塑造的人类 153 00:08:13,500 --> 00:08:16,000 设计出来的。 154 00:08:16,667 --> 00:08:18,393 所以当机器在学习的时候, 155 00:08:18,417 --> 00:08:20,667 它们利用的是带有偏见的算法, 156 00:08:21,625 --> 00:08:24,833 以及往往同样带有偏见的数据。 157 00:08:25,833 --> 00:08:29,559 如今,我们已经看到了 第一批算法偏见的例子, 158 00:08:29,583 --> 00:08:33,083 其中有一些真的很可怕。 159 00:08:34,500 --> 00:08:38,559 今年,位于纽约的 人工智能现在研究所(AI Now Institute) 160 00:08:38,583 --> 00:08:40,976 发表的一份报告揭示了 161 00:08:41,000 --> 00:08:44,476 预测警务领域的人工智能技术 162 00:08:44,500 --> 00:08:47,625 是使用非常糟糕的数据进行训练的。 163 00:08:48,333 --> 00:08:51,226 这些数据基本上都是 164 00:08:51,250 --> 00:08:55,434 在历史上存在已知的种族偏见 和不透明的警察行为时期 165 00:08:55,458 --> 00:08:57,708 收集的数据。 166 00:08:58,542 --> 00:09:02,601 因为这些技术都是 用这类数据训练的, 167 00:09:02,625 --> 00:09:04,059 它们无法做到客观, 168 00:09:04,083 --> 00:09:08,601 结果只是放大和进一步深化 169 00:09:08,625 --> 00:09:10,250 警察的偏见和错误。 170 00:09:13,167 --> 00:09:16,309 所以我觉得我们是在面对社会中的 171 00:09:16,333 --> 00:09:17,976 一个基本问题。 172 00:09:18,000 --> 00:09:22,792 我们正在放心大胆的 用各种技术对人类信息进行分析。 173 00:09:23,750 --> 00:09:26,268 我们知道在这方面, 174 00:09:26,292 --> 00:09:29,101 这些技术总是有偏见的, 175 00:09:29,125 --> 00:09:31,851 结果也永远不可能准确。 176 00:09:31,875 --> 00:09:34,809 所以我们现在需要 一个政治层面的解决方案。 177 00:09:34,833 --> 00:09:39,542 我们需要让政府认识到, 我们的数据权利也是人权。 178 00:09:40,292 --> 00:09:44,375 (鼓掌和欢声) 179 00:09:47,833 --> 00:09:51,917 在这样的转变发生之前, 我们无法期待一个更加公平的未来。 180 00:09:52,750 --> 00:09:55,476 我担心我的女儿们会暴露在 181 00:09:55,500 --> 00:09:59,226 各种算法的歧视与错误判断中。 182 00:09:59,250 --> 00:10:01,643 我和我女儿的区别就在于, 183 00:10:01,667 --> 00:10:04,851 我的童年并没有公开的记录, 184 00:10:04,875 --> 00:10:08,893 当然,我十几岁时做过的傻事 185 00:10:08,917 --> 00:10:11,059 和那些荒唐的想法也没有被记录。 186 00:10:11,083 --> 00:10:12,583 (笑声) 187 00:10:13,833 --> 00:10:16,583 但是我的女儿们就不同了。 188 00:10:17,292 --> 00:10:20,476 今天从她们那里搜集的数据 189 00:10:20,500 --> 00:10:24,309 在将来有可能被用来 评判她们的未来, 190 00:10:24,333 --> 00:10:27,292 并可能阻止她们的希望和梦想。 191 00:10:28,583 --> 00:10:30,101 我觉得是时候了, 192 00:10:30,125 --> 00:10:31,559 是时候 193 00:10:31,583 --> 00:10:34,059 采取行动—— 194 00:10:34,083 --> 00:10:35,518 无论是个人, 195 00:10:35,542 --> 00:10:38,059 还是组织和机构—— 196 00:10:38,083 --> 00:10:41,184 在一切还来得及之前就开展合作, 为我们和我们的孩子 197 00:10:41,208 --> 00:10:42,705 争取更大程度的 198 00:10:42,705 --> 00:10:44,143 数据公正。 199 00:10:44,167 --> 00:10:45,434 谢谢大家! 200 00:10:45,458 --> 00:10:46,875 (掌声)