Return to Video

科技公司对你的孩子了解多少

  • 0:01 - 0:03
    每一天, 每一个星期,
  • 0:03 - 0:05
    我们都会同意各种服务条款。
  • 0:05 - 0:07
    每当我们这样做,
  • 0:07 - 0:09
    我们其实就赋予了公司法律上的权利,
  • 0:09 - 0:13
    用我们的数据去做任何事,
  • 0:13 - 0:15
    也包括我们孩子的数据。
  • 0:17 - 0:20
    这难免使我们感到困惑:
  • 0:20 - 0:23
    我们到底提供了多少
    关于孩子的数据,
  • 0:23 - 0:25
    它们的用途又是什么?
  • 0:26 - 0:28
    我是个人类学家,
  • 0:28 - 0:31
    也是两个女孩的母亲。
  • 0:31 - 0:35
    2015 年,我开始关注这个问题,
  • 0:35 - 0:38
    当时我突然发现很多科技公司
  • 0:38 - 0:41
    从孩子那里搜集到了
  • 0:41 - 0:44
    庞大到无法想象的数据信息。
  • 0:45 - 0:47
    所以我启动了一个研究项目,
  • 0:47 - 0:49
    叫“儿童数据市民”,
  • 0:49 - 0:51
    希望能够填补空缺的信息。
  • 0:53 - 0:56
    现在,你们有可能以为我在责怪你们
  • 0:56 - 0:58
    在社交网络上传了孩子的照片,
  • 0:58 - 1:01
    但是这不是重点。
  • 1:01 - 1:04
    实际问题比分享要严重得多。
  • 1:05 - 1:09
    这事关系统,而不是个人。
  • 1:09 - 1:11
    你的行为习惯并没有错。
  • 1:13 - 1:16
    历史上首次,
  • 1:16 - 1:18
    我们开始追踪孩子的个人数据,
  • 1:18 - 1:20
    从他们出生之前——
  • 1:20 - 1:23
    有时候是从受孕开始,
  • 1:23 - 1:25
    然后贯穿他们的一生。
  • 1:25 - 1:28
    通常,当家长决定要一个孩子,
  • 1:28 - 1:31
    他们会在网上搜索 “怎么怀孕”,
  • 1:31 - 1:34
    或者下载排卵期追踪软件。
  • 1:35 - 1:38
    等到真的怀孕了,
  • 1:38 - 1:41
    他们会在社交网络上
    发布宝宝的超音波图像,
  • 1:41 - 1:43
    下载关于怀孕的软件,
  • 1:43 - 1:47
    或者在谷歌上搜索相关信息。
  • 1:47 - 1:48
    比如,
  • 1:48 - 1:51
    “乘飞机时的流产风险”
  • 1:51 - 1:54
    或者“怀孕早期的腹痛”。
  • 1:54 - 1:56
    我知道这些,
    因为我也有过类似的经历,
  • 1:56 - 1:57
    而且是很多次。
  • 1:58 - 2:01
    等到宝宝出生后,
    他们会用不同的技术
  • 2:01 - 2:02
    记录每个午觉、
  • 2:02 - 2:05
    每次喂食和每个重要时刻。
  • 2:06 - 2:08
    所有这些技术
  • 2:08 - 2:14
    都会通过把宝宝的资料分享给别人
  • 2:14 - 2:16
    从而换取利润。
  • 2:17 - 2:19
    先给各位举一个例子,
  • 2:19 - 2:23
    在 2019 年,
    英国医学杂志发布了一项研究:
  • 2:23 - 2:28
    在 24 个健康类的手机软件里,
  • 2:28 - 2:31
    有 19 个把用户资料
    分享给了第三方,
  • 2:32 - 2:38
    而这些第三方又分享给了
    216 个其他的组织。
  • 2:39 - 2:42
    而这 216 个第四方机构,
  • 2:42 - 2:45
    只有三个属于健康类机构,
  • 2:46 - 2:50
    其他的则是大型科技公司,
  • 2:50 - 2:54
    比如谷歌,脸书或甲骨文,
  • 2:54 - 2:56
    都是数据广告类的公司,
  • 2:56 - 3:00
    而且还有消费信贷的报告机构。
  • 3:01 - 3:03
    所以你的猜测是对的:
  • 3:03 - 3:08
    广告公司和信贷机构
    已经有了宝宝们的数据。
  • 3:09 - 3:12
    但是手机软件、网站搜索和社交媒体
  • 3:12 - 3:15
    只是冰山一角,
  • 3:15 - 3:18
    因为孩子们的日常生活
  • 3:18 - 3:20
    已经被很多科技追踪了。
  • 3:20 - 3:24
    他们被家里的设备和虚拟助手追踪,
  • 3:24 - 3:26
    他们被教育网站
  • 3:26 - 3:28
    和学校里的教育技术追踪。
  • 3:28 - 3:30
    他们被诊所的
  • 3:30 - 3:33
    网上记录和门户网站追踪。
  • 3:33 - 3:35
    他们也在被连网的玩具、
  • 3:35 - 3:36
    在线游戏
  • 3:36 - 3:39
    和很多很多其他的技术追踪。
  • 3:40 - 3:42
    在我的研究过程中,
  • 3:42 - 3:46
    很多家长问我,“那又怎么样?
  • 3:46 - 3:49
    就算我的孩子被追踪,那又怎么样?
  • 3:50 - 3:52
    我们又没什么见不得人的秘密。”
  • 3:53 - 3:54
    但是,这真的很重要。
  • 3:55 - 4:01
    因为现如今,个人信息不仅仅被追踪,
  • 4:01 - 4:05
    还会被用来创建网络个人档案。
  • 4:05 - 4:09
    那些公司会用人工智能和预测分析
  • 4:09 - 4:13
    从不同渠道搜集越来越多的
  • 4:13 - 4:15
    个人数据:
  • 4:15 - 4:19
    家庭历史、购物习惯和社交媒体评论,
  • 4:19 - 4:21
    然后将这些信息结合在一起
  • 4:21 - 4:24
    去做出关于你的决定。
  • 4:25 - 4:28
    这些技术几乎无处不在。
  • 4:28 - 4:31
    银行利用这些信息
    决定批准谁的贷款,
  • 4:31 - 4:33
    保险公司用它们决定保费额度,
  • 4:34 - 4:37
    招聘人员和雇主用它们
  • 4:37 - 4:40
    来决定你们到底适不适合某个工作。
  • 4:41 - 4:44
    警察和法庭也利用它们
  • 4:44 - 4:47
    去决定这个人是不是罪犯,
  • 4:47 - 4:50
    或者有没有可能犯罪。
  • 4:52 - 4:57
    这些购买、售卖
    和处理我们信息的人
  • 4:57 - 5:00
    究竟如何调查我们和我们的孩子,
  • 5:00 - 5:03
    我们对此一无所知,
    也没有任何控制权。
  • 5:04 - 5:08
    但这些信息会
    严重影响我们的权益。
  • 5:09 - 5:11
    举个例子,
  • 5:14 - 5:18
    2018 年《纽约时报》
    发布的一则新闻称,
  • 5:18 - 5:20
    由线上大学规划服务
  • 5:20 - 5:23
    搜集的数据——
  • 5:23 - 5:28
    这些数据都来自
    全美数百万正在寻找
  • 5:28 - 5:31
    大学项目或奖学金的高中生——
  • 5:31 - 5:34
    已经被售卖给了教育数据经纪人。
  • 5:36 - 5:41
    福特汉姆的研究人员在对一些
    教育数据经纪人进行分析之后透露,
  • 5:41 - 5:46
    这些公司根据以下类别
    对不小于两岁的孩子
  • 5:46 - 5:50
    进行了分组:
  • 5:50 - 5:54
    种族、宗教、家庭富裕程度、
  • 5:54 - 5:56
    社交恐惧症,
  • 5:56 - 5:59
    以及很多其他的随机分类。
  • 5:59 - 6:04
    然后他们会将这些资料,
    以及孩子的名字、
  • 6:04 - 6:07
    地址和联系方式
  • 6:07 - 6:09
    出售给不同的公司,
  • 6:09 - 6:11
    包括贸易和职业发展机构,
  • 6:12 - 6:13
    学生贷款
  • 6:13 - 6:15
    和学生信用卡公司。
  • 6:17 - 6:18
    更夸张的是,
  • 6:18 - 6:22
    研究人员要求教育数据经纪人
  • 6:22 - 6:28
    提供一份对家庭生育服务感兴趣,
  • 6:28 - 6:31
    年龄在 14 至 15 岁的少女名单。
  • 6:32 - 6:35
    数据经纪人同意了。
  • 6:35 - 6:40
    所以不难想象,我们孩子的隐私
    得到了何等程度的侵犯。
  • 6:41 - 6:45
    但是教育数据经纪人的例子
    只是冰山一角。
  • 6:45 - 6:50
    诚然,孩子们的信息
    正以不可控的方式被人操纵着,
  • 6:50 - 6:53
    但这会极大地影响他们以后的人生。
  • 6:54 - 6:58
    所以我们要扪心自问:
  • 6:58 - 7:02
    这些搜集孩子们信息的技术
    还值得信任吗?
  • 7:02 - 7:04
    值得吗?
  • 7:06 - 7:07
    我的答案是否定的。
  • 7:08 - 7:09
    作为一个人类学家,
  • 7:09 - 7:13
    我相信人工智能和
    预测分析可以很好的
  • 7:13 - 7:15
    预测疾病的发展过程
  • 7:15 - 7:17
    或者对抗气候变化。
  • 7:18 - 7:20
    但是我们需要摒弃
  • 7:20 - 7:23
    这些技术可以客观的分析人类数据,
  • 7:23 - 7:27
    我们能够以数据为依据做出
    关于个人生活的决定
  • 7:27 - 7:28
    这一想法。
  • 7:28 - 7:31
    因为它们做不到。
  • 7:31 - 7:34
    数据无法反映我们的真实情况。
  • 7:34 - 7:36
    人类往往心口不一,
  • 7:36 - 7:39
    言行不一。
  • 7:39 - 7:42
    算法预测或者数据实践
  • 7:42 - 7:47
    无法应对人类经验的
    不可预测性和复杂性。
  • 7:48 - 7:50
    但是在此之上,
  • 7:50 - 7:53
    这些科技总是——
  • 7:53 - 7:54
    总是——
  • 7:54 - 7:56
    以这样或那样的方式存在偏见。
  • 7:57 - 8:02
    要知道,算法的定义是
    被设计成实现一个具体结果的
  • 8:02 - 8:06
    很多套规则或步骤,对吧?
  • 8:07 - 8:10
    但是这些都不是客观的,
  • 8:10 - 8:12
    因为它们都是
    由带有特殊文化背景,
  • 8:12 - 8:14
    被特殊文化价值所塑造的人类
  • 8:14 - 8:16
    设计出来的。
  • 8:17 - 8:18
    所以当机器在学习的时候,
  • 8:18 - 8:21
    它们利用的是带有偏见的算法,
  • 8:22 - 8:25
    以及往往同样带有偏见的数据。
  • 8:26 - 8:30
    如今,我们已经看到了
    第一批算法偏见的例子,
  • 8:30 - 8:33
    其中有一些真的很可怕。
  • 8:34 - 8:39
    今年,位于纽约的
    人工智能现在研究所(AI Now Institute)
  • 8:39 - 8:41
    发表的一份报告揭示了
  • 8:41 - 8:44
    预测警务领域的人工智能技术
  • 8:44 - 8:48
    是使用非常糟糕的数据进行训练的。
  • 8:48 - 8:51
    这些数据基本上都是
  • 8:51 - 8:55
    在历史上存在已知的种族偏见
    和不透明的警察行为时期
  • 8:55 - 8:58
    收集的数据。
  • 8:59 - 9:03
    因为这些技术都是
    用这类数据训练的,
  • 9:03 - 9:04
    它们无法做到客观,
  • 9:04 - 9:09
    结果只是放大和进一步深化
  • 9:09 - 9:10
    警察的偏见和错误。
  • 9:13 - 9:16
    所以我觉得我们是在面对社会中的
  • 9:16 - 9:18
    一个基本问题。
  • 9:18 - 9:23
    我们正在放心大胆的
    用各种技术对人类信息进行分析。
  • 9:24 - 9:26
    我们知道在这方面,
  • 9:26 - 9:29
    这些技术总是有偏见的,
  • 9:29 - 9:32
    结果也永远不可能准确。
  • 9:32 - 9:35
    所以我们现在需要
    一个政治层面的解决方案。
  • 9:35 - 9:40
    我们需要让政府认识到,
    我们的数据权利也是人权。
  • 9:40 - 9:44
    (鼓掌和欢声)
  • 9:48 - 9:52
    在这样的转变发生之前,
    我们无法期待一个更加公平的未来。
  • 9:53 - 9:55
    我担心我的女儿们会暴露在
  • 9:56 - 9:59
    各种算法的歧视与错误判断中。
  • 9:59 - 10:02
    我和我女儿的区别就在于,
  • 10:02 - 10:05
    我的童年并没有公开的记录,
  • 10:05 - 10:09
    当然,我十几岁时做过的傻事
  • 10:09 - 10:11
    和那些荒唐的想法也没有被记录。
  • 10:11 - 10:13
    (笑声)
  • 10:14 - 10:17
    但是我的女儿们就不同了。
  • 10:17 - 10:20
    今天从她们那里搜集的数据
  • 10:20 - 10:24
    在将来有可能被用来
    评判她们的未来,
  • 10:24 - 10:27
    并可能阻止她们的希望和梦想。
  • 10:29 - 10:30
    我觉得是时候了,
  • 10:30 - 10:32
    是时候
  • 10:32 - 10:34
    采取行动——
  • 10:34 - 10:36
    无论是个人,
  • 10:36 - 10:38
    还是组织和机构——
  • 10:38 - 10:41
    在一切还来得及之前就开展合作,
    为我们和我们的孩子
  • 10:41 - 10:43
    争取更大程度的
  • 10:43 - 10:44
    数据公正。
  • 10:44 - 10:45
    谢谢大家!
  • 10:45 - 10:47
    (掌声)
タイトル:
科技公司对你的孩子了解多少
話者:
Veronica Barassi
概説:

你和你的家人使用的科技产品——从网上游戏到教育软件和医疗服务——有可能在搜集并售卖孩子的资料,人类专家 Veronica Barassi 如是说。 通过分享自己的研究, 她劝告家长们仔细阅读各种服务条款,而不要盲目同意——并索取保护权,以保证孩子的数据不会毁掉他们的未来。

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Chinese, Simplified subtitles

改訂