0:00:00.792,0:00:03.059 每一天, 每一个星期, 0:00:03.083,0:00:05.268 我们都会同意各种服务条款。 0:00:05.292,0:00:06.768 每当我们这样做, 0:00:06.792,0:00:09.268 我们其实就赋予了公司法律上的权利, 0:00:09.292,0:00:12.976 用我们的数据去做任何事, 0:00:13.000,0:00:15.375 也包括我们孩子的数据。 0:00:16.792,0:00:19.768 这难免使我们感到困惑: 0:00:19.792,0:00:22.684 我们到底提供了多少[br]关于孩子的数据, 0:00:22.708,0:00:24.708 它们的用途又是什么? 0:00:26.500,0:00:27.893 我是个人类学家, 0:00:27.917,0:00:30.518 也是两个女孩的母亲。 0:00:30.542,0:00:35.018 2015 年,我开始关注这个问题, 0:00:35.042,0:00:37.768 当时我突然发现很多科技公司 0:00:37.792,0:00:40.809 从孩子那里搜集到了 0:00:40.833,0:00:44.000 庞大到无法想象的数据信息。 0:00:44.792,0:00:46.768 所以我启动了一个研究项目, 0:00:46.792,0:00:49.268 叫“儿童数据市民”, 0:00:49.292,0:00:51.417 希望能够填补空缺的信息。 0:00:52.583,0:00:55.601 现在,你们有可能以为我在责怪你们 0:00:55.625,0:00:58.393 在社交网络上传了孩子的照片, 0:00:58.417,0:01:00.559 但是这不是重点。 0:01:00.583,0:01:04.000 实际问题比分享要严重得多。 0:01:04.792,0:01:08.893 这事关系统,而不是个人。 0:01:08.917,0:01:11.208 你的行为习惯并没有错。 0:01:12.833,0:01:15.684 历史上首次, 0:01:15.708,0:01:18.268 我们开始追踪孩子的个人数据, 0:01:18.292,0:01:20.059 从他们出生之前—— 0:01:20.083,0:01:22.768 有时候是从受孕开始, 0:01:22.792,0:01:25.143 然后贯穿他们的一生。 0:01:25.167,0:01:28.268 通常,当家长决定要一个孩子, 0:01:28.292,0:01:31.268 他们会在网上搜索 “怎么怀孕”, 0:01:31.292,0:01:34.042 或者下载排卵期追踪软件。 0:01:35.250,0:01:37.851 等到真的怀孕了, 0:01:37.875,0:01:41.018 他们会在社交网络上[br]发布宝宝的超音波图像, 0:01:41.042,0:01:43.059 下载关于怀孕的软件, 0:01:43.083,0:01:46.809 或者在谷歌上搜索相关信息。 0:01:46.833,0:01:48.351 比如, 0:01:48.375,0:01:50.934 “乘飞机时的流产风险” 0:01:50.958,0:01:53.726 或者“怀孕早期的腹痛”。 0:01:53.750,0:01:55.559 我知道这些,[br]因为我也有过类似的经历, 0:01:55.583,0:01:57.208 而且是很多次。 0:01:58.458,0:02:01.268 等到宝宝出生后, [br]他们会用不同的技术 0:02:01.268,0:02:01.999 记录每个午觉、 0:02:01.999,0:02:05.167 每次喂食和每个重要时刻。 0:02:06.083,0:02:07.559 所有这些技术 0:02:07.583,0:02:13.726 都会通过把宝宝的资料分享给别人 0:02:13.750,0:02:15.542 从而换取利润。 0:02:16.583,0:02:18.726 先给各位举一个例子, 0:02:18.750,0:02:23.474 在 2019 年,[br]英国医学杂志发布了一项研究: 0:02:23.474,0:02:27.601 在 24 个健康类的手机软件里, 0:02:27.625,0:02:31.083 有 19 个把用户资料[br]分享给了第三方, 0:02:32.083,0:02:37.917 而这些第三方又分享给了[br]216 个其他的组织。 0:02:38.875,0:02:42.309 而这 216 个第四方机构, 0:02:42.333,0:02:45.476 只有三个属于健康类机构, 0:02:45.500,0:02:50.018 其他的则是大型科技公司, 0:02:50.042,0:02:53.559 比如谷歌,脸书或甲骨文, 0:02:53.583,0:02:56.184 都是数据广告类的公司, 0:02:56.208,0:03:00.333 而且还有消费信贷的报告机构。 0:03:01.125,0:03:02.559 所以你的猜测是对的: 0:03:02.583,0:03:07.708 广告公司和信贷机构[br]已经有了宝宝们的数据。 0:03:09.125,0:03:11.893 但是手机软件、网站搜索和社交媒体 0:03:11.917,0:03:15.018 只是冰山一角, 0:03:15.042,0:03:17.633 因为孩子们的日常生活 0:03:17.633,0:03:19.643 已经被很多科技追踪了。 0:03:19.667,0:03:23.809 他们被家里的设备和虚拟助手追踪, 0:03:23.833,0:03:25.809 他们被教育网站 0:03:25.833,0:03:28.018 和学校里的教育技术追踪。 0:03:28.042,0:03:29.643 他们被诊所的 0:03:29.667,0:03:32.684 网上记录和门户网站追踪。 0:03:32.708,0:03:35.059 他们也在被连网的玩具、 0:03:35.083,0:03:36.393 在线游戏 0:03:36.417,0:03:39.083 和很多很多其他的技术追踪。 0:03:40.250,0:03:41.893 在我的研究过程中, 0:03:41.917,0:03:46.059 很多家长问我,“那又怎么样? 0:03:46.083,0:03:49.000 就算我的孩子被追踪,那又怎么样? 0:03:50.042,0:03:51.935 我们又没什么见不得人的秘密。” 0:03:52.958,0:03:54.458 但是,这真的很重要。 0:03:55.083,0:04:01.101 因为现如今,个人信息不仅仅被追踪, 0:04:01.125,0:04:05.226 还会被用来创建网络个人档案。 0:04:05.250,0:04:09.059 那些公司会用人工智能和预测分析 0:04:09.083,0:04:12.726 从不同渠道搜集越来越多的 0:04:12.750,0:04:14.601 个人数据: 0:04:14.625,0:04:19.143 家庭历史、购物习惯和社交媒体评论, 0:04:19.167,0:04:21.018 然后将这些信息结合在一起 0:04:21.042,0:04:23.792 去做出关于你的决定。 0:04:24.792,0:04:28.226 这些技术几乎无处不在。 0:04:28.250,0:04:30.643 银行利用这些信息[br]决定批准谁的贷款, 0:04:30.667,0:04:33.042 保险公司用它们决定保费额度, 0:04:34.208,0:04:36.684 招聘人员和雇主用它们 0:04:36.708,0:04:39.625 来决定你们到底适不适合某个工作。 0:04:40.750,0:04:43.851 警察和法庭也利用它们 0:04:43.875,0:04:47.393 去决定这个人是不是罪犯, 0:04:47.417,0:04:50.042 或者有没有可能犯罪。 0:04:52.458,0:04:56.518 这些购买、售卖[br]和处理我们信息的人 0:04:56.542,0:05:00.184 究竟如何调查我们和我们的孩子, 0:05:00.208,0:05:02.917 我们对此一无所知,[br]也没有任何控制权。 0:05:03.625,0:05:07.667 但这些信息会[br]严重影响我们的权益。 0:05:08.917,0:05:11.125 举个例子, 0:05:13.792,0:05:17.851 2018 年《纽约时报》[br]发布的一则新闻称, 0:05:17.875,0:05:19.851 由线上大学规划服务 0:05:19.875,0:05:22.934 搜集的数据—— 0:05:22.958,0:05:27.684 这些数据都来自[br]全美数百万正在寻找 0:05:27.708,0:05:31.351 大学项目或奖学金的高中生—— 0:05:31.375,0:05:34.417 已经被售卖给了教育数据经纪人。 0:05:35.792,0:05:41.226 福特汉姆的研究人员在对一些[br]教育数据经纪人进行分析之后透露, 0:05:41.250,0:05:46.476 这些公司根据以下类别[br]对不小于两岁的孩子 0:05:46.500,0:05:49.559 进行了分组: 0:05:49.583,0:05:53.768 种族、宗教、家庭富裕程度、 0:05:53.792,0:05:55.851 社交恐惧症, 0:05:55.875,0:05:58.809 以及很多其他的随机分类。 0:05:58.833,0:06:03.851 然后他们会将这些资料,[br]以及孩子的名字、 0:06:03.875,0:06:06.684 地址和联系方式 0:06:06.708,0:06:08.559 出售给不同的公司, 0:06:08.583,0:06:11.042 包括贸易和职业发展机构, 0:06:12.083,0:06:13.111 学生贷款 0:06:13.111,0:06:15.125 和学生信用卡公司。 0:06:16.542,0:06:17.893 更夸张的是, 0:06:17.917,0:06:21.726 研究人员要求教育数据经纪人 0:06:21.750,0:06:27.559 提供一份对家庭生育服务感兴趣, 0:06:27.583,0:06:30.958 年龄在 14 至 15 岁的少女名单。 0:06:32.208,0:06:34.684 数据经纪人同意了。 0:06:34.708,0:06:39.583 所以不难想象,我们孩子的隐私[br]得到了何等程度的侵犯。 0:06:40.833,0:06:44.809 但是教育数据经纪人的例子[br]只是冰山一角。 0:06:44.833,0:06:49.518 诚然,孩子们的信息[br]正以不可控的方式被人操纵着, 0:06:49.542,0:06:52.958 但这会极大地影响他们以后的人生。 0:06:54.167,0:06:57.643 所以我们要扪心自问: 0:06:57.667,0:07:02.351 这些搜集孩子们信息的技术[br]还值得信任吗? 0:07:02.375,0:07:03.625 值得吗? 0:07:05.708,0:07:06.958 我的答案是否定的。 0:07:07.792,0:07:08.919 作为一个人类学家, 0:07:08.919,0:07:12.851 我相信人工智能和[br]预测分析可以很好的 0:07:12.875,0:07:14.893 预测疾病的发展过程 0:07:14.917,0:07:16.750 或者对抗气候变化。 0:07:18.000,0:07:19.643 但是我们需要摒弃 0:07:19.643,0:07:23.351 这些技术可以客观的分析人类数据, 0:07:23.375,0:07:26.559 我们能够以数据为依据做出[br]关于个人生活的决定 0:07:26.583,0:07:28.476 这一想法。 0:07:28.500,0:07:31.059 因为它们做不到。 0:07:31.083,0:07:34.434 数据无法反映我们的真实情况。 0:07:34.458,0:07:36.419 人类往往心口不一, 0:07:36.419,0:07:39.018 言行不一。 0:07:39.042,0:07:41.518 算法预测或者数据实践 0:07:41.542,0:07:46.708 无法应对人类经验的[br]不可预测性和复杂性。 0:07:48.417,0:07:49.976 但是在此之上, 0:07:50.000,0:07:52.684 这些科技总是—— 0:07:52.708,0:07:53.976 总是—— 0:07:54.000,0:07:55.917 以这样或那样的方式存在偏见。 0:07:57.125,0:08:02.184 要知道,算法的定义是[br]被设计成实现一个具体结果的 0:08:02.208,0:08:05.917 很多套规则或步骤,对吧? 0:08:06.833,0:08:09.559 但是这些都不是客观的, 0:08:09.583,0:08:11.536 因为它们都是[br]由带有特殊文化背景, 0:08:11.536,0:08:13.500 被特殊文化价值所塑造的人类 0:08:13.500,0:08:16.000 设计出来的。 0:08:16.667,0:08:18.393 所以当机器在学习的时候, 0:08:18.417,0:08:20.667 它们利用的是带有偏见的算法, 0:08:21.625,0:08:24.833 以及往往同样带有偏见的数据。 0:08:25.833,0:08:29.559 如今,我们已经看到了[br]第一批算法偏见的例子, 0:08:29.583,0:08:33.083 其中有一些真的很可怕。 0:08:34.500,0:08:38.559 今年,位于纽约的[br]人工智能现在研究所(AI Now Institute) 0:08:38.583,0:08:40.976 发表的一份报告揭示了 0:08:41.000,0:08:44.476 预测警务领域的人工智能技术 0:08:44.500,0:08:47.625 是使用非常糟糕的数据进行训练的。 0:08:48.333,0:08:51.226 这些数据基本上都是 0:08:51.250,0:08:55.434 在历史上存在已知的种族偏见[br]和不透明的警察行为时期 0:08:55.458,0:08:57.708 收集的数据。 0:08:58.542,0:09:02.601 因为这些技术都是[br]用这类数据训练的, 0:09:02.625,0:09:04.059 它们无法做到客观, 0:09:04.083,0:09:08.601 结果只是放大和进一步深化 0:09:08.625,0:09:10.250 警察的偏见和错误。 0:09:13.167,0:09:16.309 所以我觉得我们是在面对社会中的 0:09:16.333,0:09:17.976 一个基本问题。 0:09:18.000,0:09:22.792 我们正在放心大胆的[br]用各种技术对人类信息进行分析。 0:09:23.750,0:09:26.268 我们知道在这方面, 0:09:26.292,0:09:29.101 这些技术总是有偏见的, 0:09:29.125,0:09:31.851 结果也永远不可能准确。 0:09:31.875,0:09:34.809 所以我们现在需要[br]一个政治层面的解决方案。 0:09:34.833,0:09:39.542 我们需要让政府认识到,[br]我们的数据权利也是人权。 0:09:40.292,0:09:44.375 (鼓掌和欢声) 0:09:47.833,0:09:51.917 在这样的转变发生之前,[br]我们无法期待一个更加公平的未来。 0:09:52.750,0:09:55.476 我担心我的女儿们会暴露在 0:09:55.500,0:09:59.226 各种算法的歧视与错误判断中。 0:09:59.250,0:10:01.643 我和我女儿的区别就在于, 0:10:01.667,0:10:04.851 我的童年并没有公开的记录, 0:10:04.875,0:10:08.893 当然,我十几岁时做过的傻事 0:10:08.917,0:10:11.059 和那些荒唐的想法也没有被记录。 0:10:11.083,0:10:12.583 (笑声) 0:10:13.833,0:10:16.583 但是我的女儿们就不同了。 0:10:17.292,0:10:20.476 今天从她们那里搜集的数据 0:10:20.500,0:10:24.309 在将来有可能被用来[br]评判她们的未来, 0:10:24.333,0:10:27.292 并可能阻止她们的希望和梦想。 0:10:28.583,0:10:30.101 我觉得是时候了, 0:10:30.125,0:10:31.559 是时候 0:10:31.583,0:10:34.059 采取行动—— 0:10:34.083,0:10:35.518 无论是个人, 0:10:35.542,0:10:38.059 还是组织和机构—— 0:10:38.083,0:10:41.184 在一切还来得及之前就开展合作,[br]为我们和我们的孩子 0:10:41.208,0:10:42.705 争取更大程度的 0:10:42.705,0:10:44.143 数据公正。 0:10:44.167,0:10:45.434 谢谢大家! 0:10:45.458,0:10:46.875 (掌声)