Return to Video

一个“洁净”网络的代价

  • 0:00 - 0:04
    【本演讲包含成人内容】
  • 0:05 - 0:09
    莫里兹·里斯维克:
    2013 年 3 月 23 日,
  • 0:09 - 0:13
    世界各地的用户
    在他们的新闻推送里
  • 0:13 - 0:19
    发现了一个年轻女孩
    被年长男性强奸的视频。
  • 0:19 - 0:23
    在这个视频从 Facebook 上被移除前,
  • 0:23 - 0:28
    它已经被转发了 1.6 万次,
  • 0:28 - 0:32
    甚至被点赞了 4 千次。
  • 0:33 - 0:37
    这个视频被疯转,
    像病毒一样侵染了网络。
  • 0:38 - 0:41
    汉斯·布洛克:
    也正是在这一刻,我们问自己,
  • 0:41 - 0:44
    这种东西是怎么得以
    出现在 Facebook 上的?
  • 0:44 - 0:49
    同时,为什么我们没有
    更加频繁地看见这种内容?
  • 0:49 - 0:52
    毕竟网络上有很多
    令人反胃的资料信息,
  • 0:52 - 0:56
    但为什么我们很少在 Facebook 、
    推特,或谷歌上看到这样的垃圾?
  • 0:57 - 0:59
    莫:虽说图像识别软件
  • 0:59 - 1:04
    可以在图片和视频中
  • 1:04 - 1:08
    分辨性器官、血或者裸体,
  • 1:08 - 1:13
    它很难从度假照片、阿多尼斯雕像,
  • 1:13 - 1:18
    或乳腺癌检查的宣传活动中,
  • 1:18 - 1:22
    区分出色情内容。
  • 1:22 - 1:25
    它无法区分舞台上
    罗密欧与朱丽叶的死亡,
  • 1:25 - 1:28
    和现实中的持刀袭击。
  • 1:28 - 1:33
    它无法区分讽喻和煽动,
  • 1:33 - 1:37
    反语和仇恨,
    如此种种。
  • 1:38 - 1:42
    因此,需要人类来判断
  • 1:42 - 1:46
    可疑内容中哪些应被删除,
  • 1:46 - 1:48
    哪些可以保留。
  • 1:49 - 1:52
    我们对这些人几乎一无所知,
  • 1:52 - 1:54
    因为他们进行的是秘密工作。
  • 1:54 - 1:56
    他们签了保密协议,
  • 1:56 - 1:59
    禁止他们谈论与分享
  • 1:59 - 2:03
    自己在屏幕上看到了什么,
    以及这份工作对他们造成的影响。
  • 2:03 - 2:07
    他们被迫使用暗号
    以隐藏他们的雇主。
  • 2:07 - 2:10
    他们被私人安保公司监控,
  • 2:10 - 2:14
    以确保他们不会同记者交谈。
  • 2:14 - 2:18
    而要是他们发声,
    便会被威胁处以罚款。
  • 2:18 - 2:22
    这些听起来像是
    某个离奇的犯罪故事,
  • 2:22 - 2:23
    但这是真实的。
  • 2:23 - 2:25
    这些人是存在的,
  • 2:26 - 2:30
    他们被称为“网络审查员”。
  • 2:31 - 2:34
    汉:我们是专题纪录片《The Cleaners》
    (《网络清道夫》)的导演。
  • 2:34 - 2:36
    请让我们将你们带往
  • 2:36 - 2:39
    一个你们大多数人
    可能还未曾知晓的世界。
  • 2:39 - 2:41
    这是我们电影的一个片段。
  • 2:44 - 2:46
    (音乐)
  • 2:52 - 2:56
    (视频)审查员:我必须匿名,
    因为我们签了合同。
  • 2:58 - 3:02
    我们不被允许透露
    我们在为谁工作。
  • 3:03 - 3:05
    我之所以和你对话的原因
  • 3:05 - 3:10
    是因为世界应当知道
    我们在这里。
  • 3:10 - 3:13
    有人在检查社交媒体。
  • 3:14 - 3:16
    我们在尽自己所能
  • 3:16 - 3:21
    为他们所有人
    维持一个安全的平台。
  • 3:30 - 3:31
    删除。
  • 3:32 - 3:33
    忽略。
  • 3:33 - 3:34
    删除。
  • 3:35 - 3:36
    忽略。
  • 3:37 - 3:37
    删除。
  • 3:39 - 3:39
    忽略。
  • 3:40 - 3:41
    忽略。
  • 3:41 - 3:42
    删除。
  • 3:46 - 3:48
    汉:这个被称作“网络审查员”的群体
  • 3:48 - 3:52
    并不是直接从Facebook、
    推特,或谷歌拿工资,
  • 3:52 - 3:54
    而是受雇于世界各地的外包公司,
  • 3:54 - 3:56
    以降低时薪成本。
  • 3:57 - 3:59
    成千上万的年轻人
  • 3:59 - 4:02
    看着我们不应当看到的一切。
  • 4:02 - 4:05
    我们指的是斩首、残割、
  • 4:05 - 4:09
    处决、尸奸、酷刑、儿童虐待。
  • 4:10 - 4:12
    一次轮值要处理几千张图像——
  • 4:12 - 4:15
    忽略,删除——
    不论昼夜。
  • 4:15 - 4:18
    这项工作大部分是在
    马尼拉进行的,
  • 4:18 - 4:22
    多年来西方世界
    都用集装箱船
  • 4:22 - 4:25
    将有毒的电子垃圾
    输向这里,
  • 4:25 - 4:29
    如今数字垃圾正通过
    光纤电缆倾倒在同一个地方。
  • 4:29 - 4:32
    而正如同所谓的拾荒者
  • 4:32 - 4:35
    在城市边缘的
    巨大垃圾山里翻捡一样,
  • 4:35 - 4:41
    网络审查员点击着鼠标,
    趟过一片无边无际的、
  • 4:41 - 4:44
    由图像、视频和各种知识垃圾
    构成的充满毒素的汪洋,
  • 4:44 - 4:47
    感谢于此,
    我们无需亲自面对这些内容。
  • 4:47 - 4:50
    莫:但和拾荒者们身上的伤口不同,
  • 4:50 - 4:54
    网络审查员的伤口是看不见的。
  • 4:54 - 4:57
    这些图片和视频充斥着
    令人震惊与不安的内容,
  • 4:57 - 5:00
    烙印在他们的记忆里,
  • 5:00 - 5:04
    随时可能造成难以预计的影响:
  • 5:04 - 5:07
    饮食失调、性欲丧失、
  • 5:07 - 5:10
    焦虑症、酗酒、
  • 5:10 - 5:14
    抑郁症,甚至可能造成自杀。
  • 5:15 - 5:16
    那些图片和视频感染了他们,
  • 5:16 - 5:19
    往往再也不会放过他们。
  • 5:19 - 5:24
    如果不幸的话,他们会像
    从战场归来的士兵一样,
  • 5:24 - 5:26
    患上创伤后应激障碍(PTSD)。
  • 5:27 - 5:31
    在影片里,我们讲述了
    一个年轻人的故事:
  • 5:31 - 5:36
    他的工作是监控
    自残以及自杀企图的直播,
  • 5:36 - 5:38
    周而复始,
  • 5:38 - 5:41
    然而最终,他也以自杀的方式
    结束了自己的生命。
  • 5:42 - 5:45
    我们被告知的是,
    这样的事并非个例。
  • 5:45 - 5:47
    这是我们所有人,
  • 5:47 - 5:54
    为了我们所谓的干净、安全、
    且“健康”的社交媒体环境,
  • 5:54 - 5:57
    付出的代价。
  • 5:58 - 6:01
    在人类历史中,
    从未有哪个时代
  • 6:01 - 6:03
    能像现在这样轻易地
  • 6:03 - 6:06
    在数秒之内便触及
    全球各地的数百万人。
  • 6:06 - 6:10
    在社交媒体上发布的内容
    传递得如此之快,
  • 6:10 - 6:14
    迅速爆红疯转,
    刺激全球所有人的神经。
  • 6:14 - 6:16
    在它被删除之前,
  • 6:16 - 6:18
    往往已为时晚矣。
  • 6:19 - 6:23
    数百万人已经
    被憎恨和愤怒感染,
  • 6:23 - 6:26
    他们抑或在网上变得活跃,
  • 6:26 - 6:29
    继续传播或放大憎恨,
  • 6:29 - 6:33
    抑或走上街头,
    诉诸暴力。
  • 6:33 - 6:36
    汉:因此,
    一支由网络审查员形成的军队,
  • 6:36 - 6:40
    守在屏幕前,
    防止新的附带损害产生。
  • 6:40 - 6:43
    他们必须尽快做出决断,
  • 6:43 - 6:47
    是否保留某条内容——忽略;
  • 6:47 - 6:49
    还是让它消失——删除。
  • 6:50 - 6:51
    但并不是每个决定
  • 6:51 - 6:55
    都能像对儿童虐待的视频那样
    迅速做出清晰明了的判断。
  • 6:55 - 6:58
    对于由民权活动人士、
    公民记者上传的
  • 6:58 - 7:01
    有争议的、模棱两可的内容,
    该怎么处理呢?
  • 7:02 - 7:05
    网络审查员在判断这些案例时,
  • 7:05 - 7:09
    通常和处理泾渭分明的案例时
    使用同样的速度。
  • 7:09 - 7:12
    莫:下面我们会让大家
    观看一段视频,
  • 7:12 - 7:15
    我们想让你们决定:
  • 7:15 - 7:17
    你们会删除它吗?
  • 7:17 - 7:19
    还是不删除它呢?
  • 7:19 - 7:21
    (视频)(空袭声)
  • 7:22 - 7:23
    (爆炸)
  • 7:28 - 7:34
    (人们用阿拉伯语交谈)
  • 7:34 - 7:36
    莫:没错,我们已为大家
    对视频进行了打码处理。
  • 7:37 - 7:40
    一个孩子要是看到这样的内容,
  • 7:40 - 7:44
    可能会感到严重不安,
    以及极度恐惧。
  • 7:44 - 7:46
    那么,你们觉得删了更好?
  • 7:48 - 7:52
    但要是说,这段视频能帮助调查
    在叙利亚发生的战争罪行呢?
  • 7:53 - 7:57
    要是因为Facebook、Youtube、
    推特都决定撤除这段视频,
  • 7:57 - 8:00
    导致无人得知这场空袭呢?
  • 8:01 - 8:05
    Airwars 是一个位于伦敦的
    非政府组织,
  • 8:05 - 8:08
    他们试图在这些视频
    上传到社交网络时,
  • 8:08 - 8:11
    尽快找到这些视频,
  • 8:11 - 8:12
    以便对它们进行归档记录。
  • 8:13 - 8:19
    因为他们知道,这些内容迟早
    会被Facebook、Youtube、推特删除,
  • 8:19 - 8:23
    拥有手机的人们能曝光
  • 8:23 - 8:26
    记者们通常难以接触的事情。
  • 8:26 - 8:29
    人权组织为了让他们的录像
  • 8:29 - 8:31
    能迅速向广大观众公开,
  • 8:31 - 8:35
    除了上传到社交媒体
    常常没有更好的选择。
  • 8:36 - 8:40
    这难道不是万维网应当拥有的
    能够赋予力量的潜力吗?
  • 8:41 - 8:44
    这难道不是万维网初具雏形时,
  • 8:44 - 8:47
    人们对它抱有的梦想吗?
  • 8:48 - 8:50
    这样的图片和视频
  • 8:50 - 8:55
    难道无法劝说已对事实
    变得麻木的人们
  • 8:55 - 8:57
    开始反思吗?
  • 8:58 - 9:01
    汉:然而,一切可能
    造成不安的内容都被删除了。
  • 9:01 - 9:04
    在社会中还有这样的
    一种变化趋势。
  • 9:04 - 9:06
    比如说,媒体更加频繁地
  • 9:06 - 9:10
    在有人可能感到冒犯
    或者不安的文章顶部
  • 9:10 - 9:13
    使用“敏感警告”。
  • 9:13 - 9:17
    美国的大学校园内
    有越来越多的学生
  • 9:17 - 9:19
    要求从课程中剔除
  • 9:19 - 9:23
    描写性暴力或性侵犯的古典内容。
  • 9:23 - 9:25
    但这些行为的尺度该如何把握?
  • 9:26 - 9:28
    在世界各地的宪法中,
  • 9:28 - 9:31
    身体健全是被保障的基本人权。
  • 9:31 - 9:35
    欧盟的《基本权利宪章》明文规定,
  • 9:35 - 9:38
    这项权利同样适用于心理健全。
  • 9:39 - 9:45
    但即使图像和视频
    带来的潜在创伤难以预测,
  • 9:45 - 9:47
    我们是否想变得如此谨小慎微,
  • 9:47 - 9:50
    以至于要冒险失去
    对不公的社会意识?
  • 9:51 - 9:53
    那么该怎么做呢?
  • 9:53 - 9:55
    马克·扎克伯格最近声明
  • 9:55 - 10:00
    在未来,用户们,
    即我们,或者几乎是任何人,
  • 10:00 - 10:02
    将会通过个人过滤设定,
  • 10:02 - 10:06
    个人独立决定在平台上
    想看到的内容。
  • 10:06 - 10:08
    也就是说任何人能轻松地声称
  • 10:08 - 10:13
    看到战争和暴力冲突的图像时
    能不为所动,比如说——
  • 10:14 - 10:18
    莫:我是那种不介意
    看到胸部的男人,
  • 10:18 - 10:22
    我对全球变暖很感兴趣,
  • 10:22 - 10:25
    但不怎么喜欢战争。
  • 10:25 - 10:27
    汉:嗯,我就比较相反,
  • 10:27 - 10:31
    我对胸部或者裸体
    压根没有一点兴趣。
  • 10:31 - 10:34
    但何不谈谈枪支?
    没错,我喜欢枪。
  • 10:35 - 10:38
    莫:看嘛,如果我们没有
    共享相似的社会意识,
  • 10:38 - 10:41
    我们该如何讨论社会问题?
  • 10:41 - 10:44
    我们该如何呼吁人们行动?
  • 10:44 - 10:47
    更多互相孤立的泡泡会浮现。
  • 10:48 - 10:50
    核心问题之一是:
  • 10:50 - 10:56
    “在未来,我们该如何平衡
    言论自由与人们对保护的需求。”
  • 10:56 - 10:58
    这是个原则性的问题。
  • 10:58 - 11:01
    我们想为数字空间
  • 11:01 - 11:04
    设计一个相较开放
    或是封闭的社会?
  • 11:05 - 11:11
    问题的核心是
    “自由 vs. 安全感”。
  • 11:12 - 11:17
    Facebook 一直想成为
    一个“健康”的平台。
  • 11:17 - 11:21
    重中之重的是,
    用户应当感到安全。
  • 11:21 - 11:23
    在我们的很多采访中,
  • 11:23 - 11:25
    菲律宾的网络审查员们
  • 11:25 - 11:27
    也使用了同样的遣词。
  • 11:28 - 11:30
    (视频)我相信,
    我们正生活的世界,
  • 11:30 - 11:32
    并不是真的健康。
  • 11:33 - 11:34
    (音乐)
  • 11:34 - 11:37
    在这世界上,
    确实存在着邪恶。
  • 11:38 - 11:39
    (音乐)
  • 11:41 - 11:43
    我们需要警惕它。
  • 11:43 - 11:44
    (音乐)
  • 11:45 - 11:48
    我们需要控制它——无论好坏。
  • 11:49 - 11:57
    (音乐)
  • 11:58 - 12:02
    [年轻人,抬头看!——上帝]
  • 12:03 - 12:07
    莫:这些来自信奉天主教的菲律宾的
    年轻网络审查员们,
  • 12:07 - 12:10
    对于他们来说,这份工作
    和基督教的使命有所联系。
  • 12:11 - 12:14
    为了对抗在网络上传播的
  • 12:14 - 12:16
    这个世界的罪恶。
  • 12:17 - 12:20
    “清洁近于圣洁”,
  • 12:20 - 12:23
    这个说法在菲律宾人尽皆知。
  • 12:24 - 12:28
    汉:其他人则将自己与他们的总统
    罗德里戈·杜特尔特相比较,
  • 12:28 - 12:30
    以此激励自身。
  • 12:30 - 12:33
    他自 2016 年当选以来
    一直掌权菲律宾,
  • 12:33 - 12:37
    他凭借“我会进行清扫”的承诺
    在当年的选举中胜出。
  • 12:38 - 12:40
    而这个承诺的意思是
  • 12:40 - 12:44
    通过杀掉街上被视为罪犯的人,
    不管这是什么意思,
  • 12:44 - 12:46
    从而达到
    排除社会上各种问题的目的。
  • 12:46 - 12:48
    自从他当选以后,
  • 12:48 - 12:51
    估计有 2 万人被杀。
  • 12:52 - 12:54
    我们影片中的一位审查员说:
  • 12:54 - 12:56
    “杜特尔特在街头上怎么做,
  • 12:56 - 12:58
    我在网络上也怎么做。”
  • 12:59 - 13:02
    这就是他们,
    我们的“自我标榜的超级英雄”,
  • 13:02 - 13:05
    在数字世界里维持法制与秩序。
  • 13:05 - 13:08
    他们进行扫除,
    把一切擦拭得干干净净,
  • 13:08 - 13:10
    他们将我们
    从一切邪恶中解放出来。
  • 13:10 - 13:14
    曾经为国家机关保留的任务
  • 13:14 - 13:18
    如今落到了二十岁出头的
    大学毕业生肩上,
  • 13:18 - 13:21
    他们接受完三天到五天的训练,
  • 13:21 - 13:22
    ——这便是他们的资格证,
  • 13:22 - 13:26
    他们的工作不亚于拯救世界。
  • 13:27 - 13:31
    莫:国家权能被外包给私人公司,
  • 13:31 - 13:35
    他们又将自己的责任
    托付给第三方。
  • 13:35 - 13:39
    情况就是——
    外包,再外包,再外包。
  • 13:40 - 13:41
    对于社交网络,
  • 13:41 - 13:44
    我们要处理的是一个全新的架构,
  • 13:44 - 13:45
    它有着自己的运行机制,
  • 13:45 - 13:47
    自己的行为逻辑,
  • 13:47 - 13:52
    因而也有其特定的潜在新危险。
  • 13:52 - 13:56
    这些危险在电子化时代以前的
    公共领域中不曾存在过。
  • 13:56 - 13:59
    汉:当马克·扎克伯格在美国国会
  • 13:59 - 14:00
    或者欧洲议会时,
  • 14:00 - 14:03
    他面对的是各式各样的批评。
  • 14:03 - 14:06
    而他的反应总是千篇一律的:
  • 14:06 - 14:08
    “这一点我们会改进,
  • 14:08 - 14:10
    那一点我们团队会跟进。”
  • 14:11 - 14:12
    可是这样的辩论
  • 14:12 - 14:16
    不应该在 Facebook 、推特
    或谷歌的幕后进行——
  • 14:16 - 14:21
    这样的辩论应当被公开探讨,
    在崭新的、国际化的议会中,
  • 14:21 - 14:24
    在新的机构中——
    它们应当能反映
  • 14:24 - 14:30
    “为全球化网络理想工程
    做出贡献的人们的多元化”。
  • 14:30 - 14:36
    考虑到全球用户的价值观
    虽说看上去不可能
  • 14:36 - 14:38
    但值得相信的是,
  • 14:38 - 14:41
    我们之间的
    联系将比隔阂更强大。
  • 14:42 - 14:45
    莫:没错,
    在这个民粹主义抬头的时点,
  • 14:45 - 14:47
    为症状辩解、
  • 14:47 - 14:50
    将它们消除、将它们隐形,
  • 14:50 - 14:52
    这样的做法变得普及。
  • 14:53 - 14:56
    这种观念正在全世界扩散,
  • 14:56 - 14:59
    无论在现实里还是在网络上,
  • 15:00 - 15:02
    而我们的义务
  • 15:02 - 15:05
    是在为时已晚前阻止它。
  • 15:06 - 15:10
    自由和民主的问题
  • 15:10 - 15:13
    并不能只有这两个选项。
  • 15:13 - 15:14
    汗:删除。
  • 15:14 - 15:16
    莫:或者忽略。
  • 15:17 - 15:19
    汗:谢谢大家。
  • 15:19 - 15:24
    (掌声)
Title:
一个“洁净”网络的代价
Speaker:
汉斯·布洛克和莫里兹·里斯维克
Description:

每天有数百万图像与视频被上传到网络,然而我们在社交媒体的推送中鲜少看到令人震惊或不安的内容。谁在为我们维持网络的“洁净”?在这个令人大开眼界的演讲中,纪录片导演汉斯·布洛克(Hans Block)和莫里兹·里斯维克(Moritz Riesewieck)将带领我们进入网络审查员的暗影幢幢的世界——这些人们与Facebook、推特,和谷歌这样的大型平台签约,为网络清理有毒的内容。你将了解这类工作带来的心理影响——以及“数字清扫”如何影响我们大家的所见所想。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37

Chinese, Simplified subtitles

Revisions