科技公司对你的孩子了解多少
-
0:01 - 0:03每一天, 每一个星期,
-
0:03 - 0:05我们都会同意各种服务条款。
-
0:05 - 0:07每当我们这样做,
-
0:07 - 0:09我们其实就赋予了公司法律上的权利,
-
0:09 - 0:13用我们的数据去做任何事,
-
0:13 - 0:15也包括我们孩子的数据。
-
0:17 - 0:20这难免使我们感到困惑:
-
0:20 - 0:23我们到底提供了多少
关于孩子的数据, -
0:23 - 0:25它们的用途又是什么?
-
0:26 - 0:28我是个人类学家,
-
0:28 - 0:31也是两个女孩的母亲。
-
0:31 - 0:352015 年,我开始关注这个问题,
-
0:35 - 0:38当时我突然发现很多科技公司
-
0:38 - 0:41从孩子那里搜集到了
-
0:41 - 0:44庞大到无法想象的数据信息。
-
0:45 - 0:47所以我启动了一个研究项目,
-
0:47 - 0:49叫“儿童数据市民”,
-
0:49 - 0:51希望能够填补空缺的信息。
-
0:53 - 0:56现在,你们有可能以为我在责怪你们
-
0:56 - 0:58在社交网络上传了孩子的照片,
-
0:58 - 1:01但是这不是重点。
-
1:01 - 1:04实际问题比分享要严重得多。
-
1:05 - 1:09这事关系统,而不是个人。
-
1:09 - 1:11你的行为习惯并没有错。
-
1:13 - 1:16历史上首次,
-
1:16 - 1:18我们开始追踪孩子的个人数据,
-
1:18 - 1:20从他们出生之前——
-
1:20 - 1:23有时候是从受孕开始,
-
1:23 - 1:25然后贯穿他们的一生。
-
1:25 - 1:28通常,当家长决定要一个孩子,
-
1:28 - 1:31他们会在网上搜索 “怎么怀孕”,
-
1:31 - 1:34或者下载排卵期追踪软件。
-
1:35 - 1:38等到真的怀孕了,
-
1:38 - 1:41他们会在社交网络上
发布宝宝的超音波图像, -
1:41 - 1:43下载关于怀孕的软件,
-
1:43 - 1:47或者在谷歌上搜索相关信息。
-
1:47 - 1:48比如,
-
1:48 - 1:51“乘飞机时的流产风险”
-
1:51 - 1:54或者“怀孕早期的腹痛”。
-
1:54 - 1:56我知道这些,
因为我也有过类似的经历, -
1:56 - 1:57而且是很多次。
-
1:58 - 2:01等到宝宝出生后,
他们会用不同的技术 -
2:01 - 2:02记录每个午觉、
-
2:02 - 2:05每次喂食和每个重要时刻。
-
2:06 - 2:08所有这些技术
-
2:08 - 2:14都会通过把宝宝的资料分享给别人
-
2:14 - 2:16从而换取利润。
-
2:17 - 2:19先给各位举一个例子,
-
2:19 - 2:23在 2019 年,
英国医学杂志发布了一项研究: -
2:23 - 2:28在 24 个健康类的手机软件里,
-
2:28 - 2:31有 19 个把用户资料
分享给了第三方, -
2:32 - 2:38而这些第三方又分享给了
216 个其他的组织。 -
2:39 - 2:42而这 216 个第四方机构,
-
2:42 - 2:45只有三个属于健康类机构,
-
2:46 - 2:50其他的则是大型科技公司,
-
2:50 - 2:54比如谷歌,脸书或甲骨文,
-
2:54 - 2:56都是数据广告类的公司,
-
2:56 - 3:00而且还有消费信贷的报告机构。
-
3:01 - 3:03所以你的猜测是对的:
-
3:03 - 3:08广告公司和信贷机构
已经有了宝宝们的数据。 -
3:09 - 3:12但是手机软件、网站搜索和社交媒体
-
3:12 - 3:15只是冰山一角,
-
3:15 - 3:18因为孩子们的日常生活
-
3:18 - 3:20已经被很多科技追踪了。
-
3:20 - 3:24他们被家里的设备和虚拟助手追踪,
-
3:24 - 3:26他们被教育网站
-
3:26 - 3:28和学校里的教育技术追踪。
-
3:28 - 3:30他们被诊所的
-
3:30 - 3:33网上记录和门户网站追踪。
-
3:33 - 3:35他们也在被连网的玩具、
-
3:35 - 3:36在线游戏
-
3:36 - 3:39和很多很多其他的技术追踪。
-
3:40 - 3:42在我的研究过程中,
-
3:42 - 3:46很多家长问我,“那又怎么样?
-
3:46 - 3:49就算我的孩子被追踪,那又怎么样?
-
3:50 - 3:52我们又没什么见不得人的秘密。”
-
3:53 - 3:54但是,这真的很重要。
-
3:55 - 4:01因为现如今,个人信息不仅仅被追踪,
-
4:01 - 4:05还会被用来创建网络个人档案。
-
4:05 - 4:09那些公司会用人工智能和预测分析
-
4:09 - 4:13从不同渠道搜集越来越多的
-
4:13 - 4:15个人数据:
-
4:15 - 4:19家庭历史、购物习惯和社交媒体评论,
-
4:19 - 4:21然后将这些信息结合在一起
-
4:21 - 4:24去做出关于你的决定。
-
4:25 - 4:28这些技术几乎无处不在。
-
4:28 - 4:31银行利用这些信息
决定批准谁的贷款, -
4:31 - 4:33保险公司用它们决定保费额度,
-
4:34 - 4:37招聘人员和雇主用它们
-
4:37 - 4:40来决定你们到底适不适合某个工作。
-
4:41 - 4:44警察和法庭也利用它们
-
4:44 - 4:47去决定这个人是不是罪犯,
-
4:47 - 4:50或者有没有可能犯罪。
-
4:52 - 4:57这些购买、售卖
和处理我们信息的人 -
4:57 - 5:00究竟如何调查我们和我们的孩子,
-
5:00 - 5:03我们对此一无所知,
也没有任何控制权。 -
5:04 - 5:08但这些信息会
严重影响我们的权益。 -
5:09 - 5:11举个例子,
-
5:14 - 5:182018 年《纽约时报》
发布的一则新闻称, -
5:18 - 5:20由线上大学规划服务
-
5:20 - 5:23搜集的数据——
-
5:23 - 5:28这些数据都来自
全美数百万正在寻找 -
5:28 - 5:31大学项目或奖学金的高中生——
-
5:31 - 5:34已经被售卖给了教育数据经纪人。
-
5:36 - 5:41福特汉姆的研究人员在对一些
教育数据经纪人进行分析之后透露, -
5:41 - 5:46这些公司根据以下类别
对不小于两岁的孩子 -
5:46 - 5:50进行了分组:
-
5:50 - 5:54种族、宗教、家庭富裕程度、
-
5:54 - 5:56社交恐惧症,
-
5:56 - 5:59以及很多其他的随机分类。
-
5:59 - 6:04然后他们会将这些资料,
以及孩子的名字、 -
6:04 - 6:07地址和联系方式
-
6:07 - 6:09出售给不同的公司,
-
6:09 - 6:11包括贸易和职业发展机构,
-
6:12 - 6:13学生贷款
-
6:13 - 6:15和学生信用卡公司。
-
6:17 - 6:18更夸张的是,
-
6:18 - 6:22研究人员要求教育数据经纪人
-
6:22 - 6:28提供一份对家庭生育服务感兴趣,
-
6:28 - 6:31年龄在 14 至 15 岁的少女名单。
-
6:32 - 6:35数据经纪人同意了。
-
6:35 - 6:40所以不难想象,我们孩子的隐私
得到了何等程度的侵犯。 -
6:41 - 6:45但是教育数据经纪人的例子
只是冰山一角。 -
6:45 - 6:50诚然,孩子们的信息
正以不可控的方式被人操纵着, -
6:50 - 6:53但这会极大地影响他们以后的人生。
-
6:54 - 6:58所以我们要扪心自问:
-
6:58 - 7:02这些搜集孩子们信息的技术
还值得信任吗? -
7:02 - 7:04值得吗?
-
7:06 - 7:07我的答案是否定的。
-
7:08 - 7:09作为一个人类学家,
-
7:09 - 7:13我相信人工智能和
预测分析可以很好的 -
7:13 - 7:15预测疾病的发展过程
-
7:15 - 7:17或者对抗气候变化。
-
7:18 - 7:20但是我们需要摒弃
-
7:20 - 7:23这些技术可以客观的分析人类数据,
-
7:23 - 7:27我们能够以数据为依据做出
关于个人生活的决定 -
7:27 - 7:28这一想法。
-
7:28 - 7:31因为它们做不到。
-
7:31 - 7:34数据无法反映我们的真实情况。
-
7:34 - 7:36人类往往心口不一,
-
7:36 - 7:39言行不一。
-
7:39 - 7:42算法预测或者数据实践
-
7:42 - 7:47无法应对人类经验的
不可预测性和复杂性。 -
7:48 - 7:50但是在此之上,
-
7:50 - 7:53这些科技总是——
-
7:53 - 7:54总是——
-
7:54 - 7:56以这样或那样的方式存在偏见。
-
7:57 - 8:02要知道,算法的定义是
被设计成实现一个具体结果的 -
8:02 - 8:06很多套规则或步骤,对吧?
-
8:07 - 8:10但是这些都不是客观的,
-
8:10 - 8:12因为它们都是
由带有特殊文化背景, -
8:12 - 8:14被特殊文化价值所塑造的人类
-
8:14 - 8:16设计出来的。
-
8:17 - 8:18所以当机器在学习的时候,
-
8:18 - 8:21它们利用的是带有偏见的算法,
-
8:22 - 8:25以及往往同样带有偏见的数据。
-
8:26 - 8:30如今,我们已经看到了
第一批算法偏见的例子, -
8:30 - 8:33其中有一些真的很可怕。
-
8:34 - 8:39今年,位于纽约的
人工智能现在研究所(AI Now Institute) -
8:39 - 8:41发表的一份报告揭示了
-
8:41 - 8:44预测警务领域的人工智能技术
-
8:44 - 8:48是使用非常糟糕的数据进行训练的。
-
8:48 - 8:51这些数据基本上都是
-
8:51 - 8:55在历史上存在已知的种族偏见
和不透明的警察行为时期 -
8:55 - 8:58收集的数据。
-
8:59 - 9:03因为这些技术都是
用这类数据训练的, -
9:03 - 9:04它们无法做到客观,
-
9:04 - 9:09结果只是放大和进一步深化
-
9:09 - 9:10警察的偏见和错误。
-
9:13 - 9:16所以我觉得我们是在面对社会中的
-
9:16 - 9:18一个基本问题。
-
9:18 - 9:23我们正在放心大胆的
用各种技术对人类信息进行分析。 -
9:24 - 9:26我们知道在这方面,
-
9:26 - 9:29这些技术总是有偏见的,
-
9:29 - 9:32结果也永远不可能准确。
-
9:32 - 9:35所以我们现在需要
一个政治层面的解决方案。 -
9:35 - 9:40我们需要让政府认识到,
我们的数据权利也是人权。 -
9:40 - 9:44(鼓掌和欢声)
-
9:48 - 9:52在这样的转变发生之前,
我们无法期待一个更加公平的未来。 -
9:53 - 9:55我担心我的女儿们会暴露在
-
9:56 - 9:59各种算法的歧视与错误判断中。
-
9:59 - 10:02我和我女儿的区别就在于,
-
10:02 - 10:05我的童年并没有公开的记录,
-
10:05 - 10:09当然,我十几岁时做过的傻事
-
10:09 - 10:11和那些荒唐的想法也没有被记录。
-
10:11 - 10:13(笑声)
-
10:14 - 10:17但是我的女儿们就不同了。
-
10:17 - 10:20今天从她们那里搜集的数据
-
10:20 - 10:24在将来有可能被用来
评判她们的未来, -
10:24 - 10:27并可能阻止她们的希望和梦想。
-
10:29 - 10:30我觉得是时候了,
-
10:30 - 10:32是时候
-
10:32 - 10:34采取行动——
-
10:34 - 10:36无论是个人,
-
10:36 - 10:38还是组织和机构——
-
10:38 - 10:41在一切还来得及之前就开展合作,
为我们和我们的孩子 -
10:41 - 10:43争取更大程度的
-
10:43 - 10:44数据公正。
-
10:44 - 10:45谢谢大家!
-
10:45 - 10:47(掌声)
- Title:
- 科技公司对你的孩子了解多少
- Speaker:
- Veronica Barassi
- Description:
-
你和你的家人使用的科技产品——从网上游戏到教育软件和医疗服务——有可能在搜集并售卖孩子的资料,人类专家 Veronica Barassi 如是说。 通过分享自己的研究, 她劝告家长们仔细阅读各种服务条款,而不要盲目同意——并索取保护权,以保证孩子的数据不会毁掉他们的未来。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Yolanda Zhang approved Chinese, Simplified subtitles for What tech companies know about your kids | ||
Yolanda Zhang edited Chinese, Simplified subtitles for What tech companies know about your kids | ||
Yolanda Zhang accepted Chinese, Simplified subtitles for What tech companies know about your kids | ||
Yolanda Zhang edited Chinese, Simplified subtitles for What tech companies know about your kids | ||
Yolanda Zhang edited Chinese, Simplified subtitles for What tech companies know about your kids | ||
Yolanda Zhang edited Chinese, Simplified subtitles for What tech companies know about your kids | ||
Yolanda Zhang edited Chinese, Simplified subtitles for What tech companies know about your kids | ||
Yolanda Zhang edited Chinese, Simplified subtitles for What tech companies know about your kids |