1 00:00:00,710 --> 00:00:05,250 人们借助各种媒体来谈性 已经有着很长的历史了 2 00:00:05,710 --> 00:00:09,000 比如说情书、电话性爱以及裸照 3 00:00:09,590 --> 00:00:15,580 甚至有这样一个女孩与一个通过 电报认识的男子私奔的故事 4 00:00:15,580 --> 00:00:17,070 在1886年 5 00:00:18,580 --> 00:00:23,540 直到今天,我们演变出了一种短信称之为[色情短信] 我是这方面的专家 6 00:00:23,680 --> 00:00:26,170 我作为专家是研究它的 可不擅长于发这个 7 00:00:26,830 --> 00:00:31,000 嗯,我想在座的各位和我一样 十分清楚这代表着什么 8 00:00:31,030 --> 00:00:32,400 (这指代着男性的阴茎) 9 00:00:32,400 --> 00:00:34,480 (观众笑声) 10 00:00:36,370 --> 00:00:42,380 自从2008年媒体开始关注以来 我一直致力于研究色情短信 11 00:00:42,500 --> 00:00:45,700 我撰写了一本书专门讨论 色情短信的出现所引起的道德恐慌 12 00:00:45,720 --> 00:00:47,340 这是我发现的: 13 00:00:47,360 --> 00:00:50,560 大部分的人都在担心 错误的事情 14 00:00:50,560 --> 00:00:54,530 他们试图从根源上 防止色情短信的产生 15 00:00:54,800 --> 00:00:55,950 但是我不禁要问: 16 00:00:56,220 --> 00:01:00,940 只要是完全自愿的 色情短信的问题在哪儿? 17 00:01:01,240 --> 00:01:05,260 人们试图去理清各种各样的事 甚至是与自己毫不相干的事 18 00:01:05,280 --> 00:01:07,410 比如蓝奶酪或香菜 19 00:01:07,600 --> 00:01:09,240 (观众笑声) 20 00:01:10,600 --> 00:01:14,740 色情短信和其它好玩的事情一样 是绝对有风险性的 21 00:01:14,760 --> 00:01:21,460 但是只要你给愿意接受的人们发 22 00:01:21,480 --> 00:01:22,660 也未尝不可 23 00:01:23,200 --> 00:01:25,900 我认为这其中一个严重的问题 24 00:01:25,920 --> 00:01:29,180 是人们未经他人同意 25 00:01:29,200 --> 00:01:30,720 分享他人的隐私照片 26 00:01:31,360 --> 00:01:33,770 与其忧心于色情短信本身 27 00:01:33,770 --> 00:01:38,280 我想我们该更关注的 是数字时代的个人隐私 28 00:01:38,880 --> 00:01:40,670 关键是同意 29 00:01:41,680 --> 00:01:44,980 现在很多人在想着 色情短信本身 30 00:01:45,000 --> 00:01:47,710 而完全忽略了 “他人的同意” 31 00:01:48,400 --> 00:01:52,340 你们知道我们现在在将青少年 发送色情短信违法化吗? 32 00:01:53,400 --> 00:01:56,860 它可以是一个罪犯是由于 它可以被当作儿童色情 33 00:01:56,880 --> 00:01:59,740 如果有一个当事人18岁以下的照片 34 00:01:59,780 --> 00:02:02,990 是否他们自愿拍照以及自愿 分享照片 35 00:02:02,990 --> 00:02:05,320 是无关紧要的 36 00:02:05,800 --> 00:02:08,780 结果我们就有了这种 怪异的法律情况 37 00:02:08,800 --> 00:02:13,230 即在美国大多数州 两个17岁的孩子可以合法性交 38 00:02:13,230 --> 00:02:15,240 但不能把它拍出来 39 00:02:16,560 --> 00:02:20,820 一些州还试图对色情短信立法 40 00:02:20,840 --> 00:02:23,860 但是这些立法都重复了同样的问题 41 00:02:23,880 --> 00:02:27,640 因为他们仍然使得 两厢情愿的性短信违法 42 00:02:28,520 --> 00:02:32,390 通过禁止所有形式的色情短信 来试图解决隐私侵权问题 43 00:02:32,390 --> 00:02:34,390 其实都是徒劳 44 00:02:34,570 --> 00:02:36,100 这种做法就像是 45 00:02:36,100 --> 00:02:41,520 让我们通过宣布约会违法 来解决约会强奸的问题 46 00:02:43,120 --> 00:02:48,590 大部分青少年不会因发送色情短信而被捕 不过你们能猜到谁被捕了? 47 00:02:48,590 --> 00:02:53,540 就是那些不被发送色情短信的 对象的父母喜欢的人 48 00:02:53,540 --> 00:02:58,320 这也许源于阶层差异 种族歧视以及对同性恋的憎恶 49 00:02:58,960 --> 00:03:01,780 大部分的检举人还很明智 50 00:03:01,780 --> 00:03:07,400 不对青少年以儿童色情罪起诉 但是有一些人这么做 51 00:03:07,720 --> 00:03:11,370 根据新罕布什尔大学的调查研究 52 00:03:11,370 --> 00:03:17,060 因儿童色情被捕的人群中 有百分之七都是青少年 53 00:03:17,080 --> 00:03:20,080 而他们都是两厢情愿的发送色情短信 54 00:03:21,480 --> 00:03:24,020 儿童色情是重罪 55 00:03:24,040 --> 00:03:27,720 但是与青少年的色情短信 还是有所差异的 56 00:03:29,040 --> 00:03:32,460 很多父母和教育工作者 也都往往不假思索的 57 00:03:32,480 --> 00:03:35,620 对色情短信作出反应 而不去认真思考同意的问题 58 00:03:35,640 --> 00:03:39,760 他们往往冷冰冰的告诉孩子们 不要这么做 59 00:03:40,200 --> 00:03:43,900 我也完全明白 这其中包含很严重的法律风险 60 00:03:43,900 --> 00:03:47,010 当然,也可能触犯私人隐私 61 00:03:47,400 --> 00:03:48,660 你们还是青少年的时候 62 00:03:48,680 --> 00:03:52,080 肯定也按吩咐办事,对吧? 63 00:03:53,440 --> 00:03:56,900 你可能认为 我的孩子从不发色情短信 64 00:03:56,920 --> 00:04:00,380 的确,你的小宝贝 可能不会发色情短信 65 00:04:00,400 --> 00:04:03,540 因为16到17岁这个年龄段里 66 00:04:03,560 --> 00:04:05,920 只有百分之三十三的人 会发送色情短信 67 00:04:07,200 --> 00:04:11,820 但是,当他们长大些 概率是他们会发送色情短信 68 00:04:11,840 --> 00:04:18,040 每一个我所看过的研究显示 18到24岁人群中发送色情短信的人数过半 69 00:04:18,640 --> 00:04:21,540 大多情况下,这也没有出现什么问题 70 00:04:21,800 --> 00:04:27,180 人们总问我 发色情短信不是很危险吗? 71 00:04:27,200 --> 00:04:30,780 就像你不会把你的钱包 落在公园椅子上 72 00:04:30,800 --> 00:04:34,240 因为你觉得这样做 钱包会被偷,对吧? 73 00:04:34,880 --> 00:04:36,340 我觉得是这样的: 74 00:04:36,360 --> 00:04:40,300 发色情短信就如把钱包 丢在了男友家里一样 75 00:04:40,320 --> 00:04:42,040 如果你第二天回来 76 00:04:42,040 --> 00:04:45,040 发现钱都没了的话 77 00:04:45,040 --> 00:04:47,290 你真的可以把他甩了 78 00:04:47,690 --> 00:04:49,860 (观众笑声) 79 00:04:51,360 --> 00:04:53,730 所以,与其将发送色情短信 违法化 80 00:04:53,730 --> 00:04:56,340 以此来试图防止 隐私侵犯 81 00:04:56,550 --> 00:04:59,620 我们可以将同意当作 82 00:04:59,620 --> 00:05:03,670 我们如何看待我们隐私信息的 传播的中心 83 00:05:04,370 --> 00:05:08,740 每个新的媒体技术 都会引起隐私问题 84 00:05:08,760 --> 00:05:13,380 实际上,在美国 关于隐私的最初辩论 85 00:05:13,400 --> 00:05:17,900 是对当时崭新的科技 的回应 86 00:05:17,920 --> 00:05:21,720 19世纪末,人们担心那较过去 87 00:05:21,720 --> 00:05:25,300 突然轻便许多的照相机 88 00:05:25,320 --> 00:05:27,820 以及报纸上的八卦板块 89 00:05:27,840 --> 00:05:31,660 他们担心照相机会获取他们的信息 90 00:05:31,680 --> 00:05:34,880 断章取义 大肆宣扬 91 00:05:35,240 --> 00:05:36,860 听起来是不是很熟悉? 92 00:05:36,880 --> 00:05:41,740 就像我们担忧社交媒体 和无人机摄像头 93 00:05:41,760 --> 00:05:43,400 当然,还有色情短信 94 00:05:43,920 --> 00:05:45,470 这些对于科技的恐惧 95 00:05:45,470 --> 00:05:47,200 不无道理 96 00:05:47,200 --> 00:05:50,640 因为科技能够展露出 97 00:05:50,640 --> 00:05:53,560 并放大我们最为糟糕的品质与行为 98 00:05:54,220 --> 00:05:56,670 但这是有解决方法的 99 00:05:56,670 --> 00:06:00,290 我们就曾经历过一个危险的新科技 100 00:06:00,420 --> 00:06:04,500 1908年,福特推出了T系车 101 00:06:04,520 --> 00:06:07,100 交通死亡率不断上升 102 00:06:07,120 --> 00:06:09,920 这曾是一个严重的问题-- 它看起来很安全,对吧? 103 00:06:12,080 --> 00:06:16,060 我们第一反应是 尝试改变司机的驾驶行为 104 00:06:16,080 --> 00:06:19,800 所以我们建立了速度限制 并通过罚款来强制实行 105 00:06:20,240 --> 00:06:22,100 但在此后的几十年里 106 00:06:22,120 --> 00:06:27,620 我们开始认识到汽车技术 本身不是一成不变的 107 00:06:27,640 --> 00:06:30,860 我们可以设计出更安全的汽车 108 00:06:30,880 --> 00:06:34,340 于是上世纪20年代,我们有了 抗碎挡风玻璃 109 00:06:34,360 --> 00:06:36,860 到了50年代有了安全带 110 00:06:36,880 --> 00:06:39,960 到了90年代,安全气囊 111 00:06:40,440 --> 00:06:42,820 这三个领域: 112 00:06:42,840 --> 00:06:47,220 法律,个人及工业 可以随着时间的推移集合在一起 113 00:06:47,220 --> 00:06:51,420 来帮助解决新科技 所造成的问题 114 00:06:51,440 --> 00:06:54,680 我们在数字信息隐私 上亦可以如法炮制 115 00:06:55,160 --> 00:06:57,920 当然,这又回到同意的话题上来 116 00:06:58,360 --> 00:06:59,580 我有个想法 117 00:06:59,600 --> 00:07:03,420 在任何人可以传播 你的个人信息之前 118 00:07:03,440 --> 00:07:05,680 他们应该得到你的同意 119 00:07:06,240 --> 00:07:11,060 明确同意的观点源自于反性侵害人士 120 00:07:11,080 --> 00:07:14,860 他们告诉我们对于每个性行为 都需要得到双方同意 121 00:07:14,880 --> 00:07:19,320 我们在很多领域对待同意 都有着极高的标准 122 00:07:19,340 --> 00:07:21,340 比如做手术 123 00:07:21,360 --> 00:07:22,980 医生需要确认 124 00:07:23,000 --> 00:07:27,040 你了解并同意医疗程序 125 00:07:27,520 --> 00:07:31,220 这可不像你同意iTunes服务条款一样 126 00:07:31,240 --> 00:07:34,900 直接滑到屏幕底部 然后一个劲地点同意 127 00:07:34,920 --> 00:07:36,640 (观众笑声) 128 00:07:37,160 --> 00:07:42,420 如果我们多考虑他人是否同意 我们会有更好隐私法 129 00:07:42,440 --> 00:07:45,860 现在,我们没有 那么多的保护 130 00:07:45,880 --> 00:07:49,460 如果你的前夫或前妻 为人很不好 131 00:07:49,480 --> 00:07:53,700 他们可以把你的裸照 发到色情网站上去 132 00:07:53,720 --> 00:07:56,940 想把那些照片删掉 是很难的 133 00:07:56,960 --> 00:07:58,180 在许多州里 134 00:07:58,200 --> 00:08:02,020 你自己拍照其实会更好点 135 00:08:02,040 --> 00:08:04,840 因为这样你就可以 申请版权了 136 00:08:05,320 --> 00:08:07,380 (观众笑声) 137 00:08:07,400 --> 00:08:10,380 现在,如果再有人侵犯了你的隐私 138 00:08:10,400 --> 00:08:14,600 不管是个人还是 企业还是美国国安局 139 00:08:15,280 --> 00:08:18,020 你都可以提起诉讼 140 00:08:18,040 --> 00:08:20,180 尽管诉讼结果可能并不成功 141 00:08:20,200 --> 00:08:24,980 因为很多法院觉得 保护数字信息隐私是不可能的 142 00:08:25,000 --> 00:08:28,440 所以他们不愿意去 惩罚那些触犯的人 143 00:08:29,200 --> 00:08:32,100 我还是能听到 人们不停的问我 144 00:08:32,120 --> 00:08:37,420 数字图像模糊了公共和私人的界限 145 00:08:37,440 --> 00:08:39,080 因为它是数字的,对吗? 146 00:08:39,600 --> 00:08:40,940 不!不! 147 00:08:40,960 --> 00:08:44,300 每一个数位化产品并不是 自然而然就成为公众的 148 00:08:44,320 --> 00:08:46,220 那太没道理了 149 00:08:46,240 --> 00:08:49,740 正如纽约大学法学者 Helen Nissenbaum告诉我们 150 00:08:49,760 --> 00:08:52,380 我们有着法律,政策以及准则 151 00:08:52,400 --> 00:08:55,540 来保护各类私人信息 152 00:08:55,560 --> 00:08:58,980 不论它是不是数字信息 153 00:08:59,000 --> 00:09:01,660 你所有的医疗记录都是数字化的 154 00:09:01,680 --> 00:09:04,820 但你的医生却不能 将它们分享给任何人 155 00:09:04,840 --> 00:09:09,300 你所有的财务信息 都储存在数字数据库里 156 00:09:09,320 --> 00:09:13,560 但你的信用卡公司不能将 你的购买记录发布到网上 157 00:09:15,080 --> 00:09:20,540 更好的法律可以在侵犯隐私的问题 发生之后帮助解决 158 00:09:20,560 --> 00:09:23,080 但我们可以做的最为简便的事情之一 159 00:09:23,080 --> 00:09:27,640 就是从个人上做出改变来 帮助保护他人的隐私 160 00:09:28,360 --> 00:09:30,170 我们总是被告知隐私 161 00:09:30,170 --> 00:09:33,340 是我们自己的,独有的 个人的责任 162 00:09:33,360 --> 00:09:37,620 我们被告知要经常监控 并更新隐私设置 163 00:09:37,640 --> 00:09:42,440 我们被告知永远别把不想被 全世界知道的东西分享出去 164 00:09:43,400 --> 00:09:44,620 这很没道理 165 00:09:44,640 --> 00:09:47,620 数字媒体就是社会环境 166 00:09:47,640 --> 00:09:51,920 我们每天无时无刻地将 事情分享给我们所信任的人 167 00:09:52,760 --> 00:09:55,740 就如普林斯顿研究员Janet Vertesi表示 168 00:09:55,760 --> 00:09:59,780 我们的数据和隐私 不单单是私人的 169 00:09:59,800 --> 00:10:02,380 它们实际上是一种人与人之间相互的 170 00:10:02,400 --> 00:10:05,660 所以,我们能做的 很简单的一件事 171 00:10:05,680 --> 00:10:10,780 就是在你分享别人信息之前 取得别人的同意 172 00:10:10,800 --> 00:10:15,340 你想把某人的照片传到网上 先经过那人的同意 173 00:10:15,360 --> 00:10:17,610 如果你想转寄一封电子邮件 174 00:10:17,680 --> 00:10:19,220 先经过当事人同意 175 00:10:19,240 --> 00:10:22,020 如果你想分享某人的裸体自拍 176 00:10:22,040 --> 00:10:24,320 显然,先经过当事人同意 177 00:10:25,560 --> 00:10:30,020 这些个人行为的改变可以 帮助我们保护彼此的隐私 178 00:10:30,040 --> 00:10:33,840 但我们同样需要科技公司的帮忙 179 00:10:34,360 --> 00:10:38,860 科技公司几乎没有动机 来保护我们的隐私 180 00:10:38,880 --> 00:10:40,930 因为他们的业务模式依靠于 我们分享我们的每件事 181 00:10:40,930 --> 00:10:44,440 与尽可能多的人 182 00:10:45,080 --> 00:10:47,020 现在,如果我发给你一张照片 183 00:10:47,040 --> 00:10:50,140 你可以转发给任何人 184 00:10:50,160 --> 00:10:54,420 但如果我来决定这张照片 可不可以被转发会怎样? 185 00:10:54,440 --> 00:10:58,500 这就会告诉你,你没有我的 批准去发送这张照片 186 00:10:58,520 --> 00:11:02,660 我们一直这样做 来保护我们的版权 187 00:11:02,680 --> 00:11:07,460 如果你买了本电子书 你不能随意把它寄给别人 188 00:11:07,480 --> 00:11:10,040 所以为什么不 如法炮制到手机上去呢? 189 00:11:10,960 --> 00:11:15,740 我们可以让科技公司 给我们的设备和平台 190 00:11:15,760 --> 00:11:19,500 默认装上这些保护 191 00:11:19,520 --> 00:11:22,940 毕竟,你可以选择 你自己车子的颜色 192 00:11:22,960 --> 00:11:25,800 但安全气囊总是有固定标准的 193 00:11:28,080 --> 00:11:31,900 如果我们不多思考 数字隐私和同意的问题 194 00:11:31,920 --> 00:11:34,640 就可能会有严重后果 195 00:11:35,360 --> 00:11:37,620 有一位来自俄亥俄的少女-- 196 00:11:37,640 --> 00:11:40,480 为了保护她的隐私 我们就叫她Jennifer吧 197 00:11:41,120 --> 00:11:44,700 她把她的裸照分享给了 她高中的男朋友 198 00:11:44,720 --> 00:11:46,240 觉得他可以信任 199 00:11:47,720 --> 00:11:49,660 不幸的是,男友背叛了她 200 00:11:49,680 --> 00:11:52,660 把她的照片传遍学校 201 00:11:52,680 --> 00:11:56,200 让Jennifer难堪,备受羞辱 202 00:11:56,800 --> 00:12:00,940 她的同学非但没有同情她 反而对她进行骚扰 203 00:12:00,960 --> 00:12:02,820 他们说她是个荡妇,妓女 204 00:12:02,840 --> 00:12:04,800 使她的生活痛苦不堪 205 00:12:05,360 --> 00:12:09,040 Jennifer开始缺课,成绩下滑 206 00:12:09,520 --> 00:12:13,320 最终,Jennifer决定 结束了她的生命 207 00:12:14,720 --> 00:12:17,420 Jennifer没做错什么 208 00:12:17,440 --> 00:12:19,700 她不过将她的裸照分享 209 00:12:19,720 --> 00:12:22,540 给了她认为 可以信任的人 210 00:12:22,560 --> 00:12:25,180 可我们的法律告诉她 211 00:12:25,200 --> 00:12:29,360 她犯了和儿童色情一样 可怕的罪行 212 00:12:29,920 --> 00:12:31,420 我们的性别规范告诉她 213 00:12:31,440 --> 00:12:34,660 给自己拍裸照 214 00:12:34,680 --> 00:12:37,880 是她做过的最为可怕 羞耻的事 215 00:12:38,400 --> 00:12:42,620 当我们觉得保护隐私 在数字媒体环境下是不可能的时候 216 00:12:42,640 --> 00:12:48,160 我们完全无视男朋友的 不道德行为 217 00:12:49,200 --> 00:12:54,940 人们还是在不停地对那些 隐私受侵犯的受害者们说 218 00:12:54,960 --> 00:12:56,220 “你在想些什么啊? 219 00:12:56,240 --> 00:12:58,720 你就不该发那照片的” 220 00:12:59,640 --> 00:13:03,640 如果你尝试换种说法 试试这个 221 00:13:04,160 --> 00:13:07,680 想象下你碰到一个 滑雪时摔断腿的朋友 222 00:13:08,240 --> 00:13:12,600 他们当时冒险做了些好玩的动作 结果腿摔断了 223 00:13:12,840 --> 00:13:15,380 但你不太可能蠢到说 224 00:13:15,400 --> 00:13:17,840 ”唉,我觉得你就不该去滑雪的。” 225 00:13:20,080 --> 00:13:22,220 如果我们多考虑他人是否同意 226 00:13:22,240 --> 00:13:25,500 我们便能看见 侵犯隐私的受害者们 227 00:13:25,520 --> 00:13:27,260 得到了我们的同情 228 00:13:27,280 --> 00:13:31,880 而不是遭到定罪,羞辱 骚扰或是惩罚 229 00:13:32,440 --> 00:13:36,940 我们可以支持这些受害者 通过法律,个人和科技上的改变 230 00:13:36,960 --> 00:13:41,280 来防止侵权隐私的发生 231 00:13:41,840 --> 00:13:47,660 因为问题不在于色情信息的发送 而在于数字隐私 232 00:13:47,680 --> 00:13:50,040 解决方法之一就是获得他人的同意 233 00:13:50,680 --> 00:13:55,260 所以下次一个隐私受侵犯的人 来找你的时候 234 00:13:55,280 --> 00:13:58,020 不要责备他们 而是这么做 235 00:13:58,040 --> 00:14:01,460 让我们转变我们对数字隐私的看法 236 00:14:01,480 --> 00:14:04,120 并以同情作为回应 237 00:14:04,680 --> 00:14:05,900 谢谢