1 00:00:00,720 --> 00:00:05,000 人們利用各種媒介討論性由來已久。 2 00:00:05,600 --> 00:00:09,040 情書、性愛電話以及辛辣的照片。 3 00:00:09,480 --> 00:00:15,510 甚至有個女生與透過電報認識的 男生一同私奔, 4 00:00:15,510 --> 00:00:17,820 早在 1886 年就有了。 5 00:00:18,560 --> 00:00:23,656 現今,我們有性愛調情簡訊, 而我是個研究性愛簡訊的專家。 6 00:00:23,680 --> 00:00:26,500 不是喜歡傳情色簡訊的專家哦。 7 00:00:26,800 --> 00:00:30,976 雖然我知道這玩意兒代表什麼意思, 我想你們也知道。 8 00:00:31,000 --> 00:00:34,105 (它代表著男性的陰莖) 9 00:00:34,105 --> 00:00:36,130 (笑聲) 10 00:00:36,360 --> 00:00:42,311 2008 年自從媒體開始注意到 性愛簡訊時,我就已經在研究它了。 11 00:00:42,720 --> 00:00:45,696 我寫了本有關 性愛簡訊之道德恐慌的書。 12 00:00:45,720 --> 00:00:47,336 我發現 13 00:00:47,360 --> 00:00:50,576 大多數人都擔錯心了。 14 00:00:50,600 --> 00:00:54,776 他們嘗試全面禁止性愛簡訊。 15 00:00:54,800 --> 00:00:56,336 但是我問各位: 16 00:00:56,360 --> 00:01:01,216 只要他們是兩廂情願的, 性愛簡訊有什麼問題嗎? 17 00:01:01,240 --> 00:01:05,256 人家喜歡的,你可能不喜歡, 18 00:01:05,280 --> 00:01:07,576 譬如說藍起司或香菜。 19 00:01:07,600 --> 00:01:09,240 (笑聲) 20 00:01:10,600 --> 00:01:14,736 性愛簡訊確實具有風險, 就像其它好玩有趣的事物一樣。 21 00:01:14,760 --> 00:01:21,456 但是只要你不是將圖片寄到 不想收到的人手中, 22 00:01:21,480 --> 00:01:23,256 那根本無傷大雅啊。 23 00:01:23,280 --> 00:01:25,896 我真正在意的是另一個嚴重的問題, 24 00:01:25,920 --> 00:01:29,176 就是人們在未經對方同意的情況下, 25 00:01:29,200 --> 00:01:31,200 將私人照片分享出去。 26 00:01:31,360 --> 00:01:33,696 與其擔心性愛簡訊, 27 00:01:33,720 --> 00:01:38,280 我們更應該關心數位隱私的議題。 28 00:01:38,880 --> 00:01:41,580 關鍵點是得到對方的同意。 29 00:01:41,680 --> 00:01:44,976 現在大多數的人只想到性愛簡訊, 30 00:01:45,000 --> 00:01:47,960 卻沒有想到對方同意與否的問題。 31 00:01:48,400 --> 00:01:53,210 你們知道目前青少年傳調情簡訊, 是違法的嗎? 32 00:01:53,400 --> 00:01:57,516 這可能會犯罪,因為如果訊息中 有未滿 18 歲青少年的圖片, 33 00:01:57,516 --> 00:01:59,736 它會被視為兒童色情文物。 34 00:01:59,760 --> 00:02:03,026 就算是當事人他們自拍後上傳, 35 00:02:03,026 --> 00:02:05,640 自願分享給別人看,也是一樣違法。 36 00:02:05,800 --> 00:02:08,776 所以,我們現在卡在這個 詭異的法律情況中, 37 00:02:08,800 --> 00:02:13,336 兩位年滿 17 歲的人發生性行為, 在美國大部分的州都視為合法, 38 00:02:13,360 --> 00:02:16,130 但是他們不能拍性愛照。 39 00:02:16,560 --> 00:02:20,816 一些州亦試圖通過 性愛簡訊的輕罪法律, 40 00:02:20,840 --> 00:02:23,856 但是這些法規卻重複著相同的問題, 41 00:02:23,880 --> 00:02:27,640 因為它們仍將兩廂情願的 調情簡訊視為違法的。 42 00:02:28,520 --> 00:02:33,076 試著要禁止所有的情色簡訊 與嘗試解決所謂隱私權的侵犯, 43 00:02:33,076 --> 00:02:34,536 是沒有意義的。 44 00:02:34,560 --> 00:02:36,056 這就好像在說, 45 00:02:36,080 --> 00:02:38,990 為了解決約會性侵害的問題, 46 00:02:38,990 --> 00:02:43,120 我們卻把全部的約會視為違法一樣。 47 00:02:43,120 --> 00:02:48,496 大多數青少年不因傳調情簡訊被捕, 但你們猜,誰會呢? 48 00:02:48,520 --> 00:02:53,496 通常是被對方父母討厭的青少年。 49 00:02:53,520 --> 00:02:58,320 被討厭的原因有可能是階級偏見、 種族歧視或是對同性戀的憎惡。 50 00:02:58,498 --> 00:03:01,736 當然,大部分的檢察官很聰明, 51 00:03:01,760 --> 00:03:07,240 他們不會以違反兒童色情文物的罪名 來起訴青少年,但有些還是會。 52 00:03:07,720 --> 00:03:11,376 根據新罕布夏大學的研究人員指出, 53 00:03:11,400 --> 00:03:17,056 因持有兒童色情文物而被定罪的 有 7% 是青少年, 54 00:03:17,080 --> 00:03:21,140 且是經雙方彼此同意下所傳的調情內容。 55 00:03:21,480 --> 00:03:24,016 持有兒童色情文物是一個嚴重的罪行, 56 00:03:24,040 --> 00:03:27,720 但它和青少年互傳調情簡訊的情況 是迥然不同的。 57 00:03:29,040 --> 00:03:32,456 父母與教育工作者 對調情簡訊的回應也是一樣, 58 00:03:32,480 --> 00:03:35,616 他們並沒有認真思考過 兩廂情願的情況。 59 00:03:35,640 --> 00:03:39,760 他們對青少年所傳達的訊息通常是: 不要傳就對了。 60 00:03:40,200 --> 00:03:43,696 而我完全能理解, 因為有很嚴重的法律風險, 61 00:03:43,720 --> 00:03:47,376 當然,還有潛在侵害隱私權的問題。 62 00:03:47,400 --> 00:03:48,656 當你還是個青少年時, 63 00:03:48,680 --> 00:03:52,080 我相信你一定照大人說的去做, 對吧? 64 00:03:53,440 --> 00:03:56,896 你可能認為我的孩子 絕對不會傳情色簡訊。 65 00:03:56,920 --> 00:04:00,376 對,是真的。你的小天使 也許不會傳情色簡訊, 66 00:04:00,400 --> 00:04:03,536 因為只有 33% 的 67 00:04:03,560 --> 00:04:05,920 16-17 歲的青少年在傳。 68 00:04:07,200 --> 00:04:11,816 但不好意思,等到他們再長大一些, 他們會傳情色簡訊的機率會變高。 69 00:04:11,840 --> 00:04:18,040 我看過的每個研究數據皆顯示, 18-24 歲會傳的比例,超過一半 70 00:04:18,720 --> 00:04:21,776 而大多數時間,沒出什麼差錯。 71 00:04:21,800 --> 00:04:27,176 人們常問我這樣的問題, 傳性愛簡訊不是很危險嗎? 72 00:04:27,200 --> 00:04:30,776 就像你不會將你的皮包留在 公園的長凳上, 73 00:04:30,800 --> 00:04:34,240 如果你這樣做的話, 皮包會被偷走,對吧? 74 00:04:34,880 --> 00:04:36,336 我是這麼想的: 75 00:04:36,360 --> 00:04:40,296 性愛簡訊就像妳把皮包 留在男友家中, 76 00:04:40,320 --> 00:04:42,096 如果隔天你回去男友家 77 00:04:42,120 --> 00:04:44,400 發現皮包裡的錢都不見了, 78 00:04:45,040 --> 00:04:47,160 你真的要把那個男生給甩了。 79 00:04:47,690 --> 00:04:49,860 (笑聲) 80 00:04:51,360 --> 00:04:53,840 所以,與其加諸罪名在性愛簡訊上 81 00:04:53,840 --> 00:04:56,336 以此來防範隱私受到侵害, 82 00:04:56,360 --> 00:04:59,656 反而應該著重在彼此同意 83 00:04:59,680 --> 00:05:03,760 我們的私訊如何流通。 84 00:05:04,480 --> 00:05:08,736 每一個新媒體科技的出現, 都會引發我們對隱私權的關注。 85 00:05:08,760 --> 00:05:13,376 實際上,美國史上首次有關 隱私權的辯論, 86 00:05:13,400 --> 00:05:17,896 就是為了因應當時相當嶄新的科技。 87 00:05:17,920 --> 00:05:21,816 在十九世紀末,人們擔心相機, 88 00:05:21,840 --> 00:05:25,296 因為突然間它變得更方便、輕巧; 89 00:05:25,320 --> 00:05:27,816 還擔心報紙的八卦專欄。 90 00:05:27,840 --> 00:05:31,650 他們擔心相機拍到他們的相關動態, 91 00:05:31,650 --> 00:05:35,250 看圖說故事斷章取義地 將圖片廣為散播。 92 00:05:35,250 --> 00:05:36,856 這聽起來很耳熟嗎? 93 00:05:36,880 --> 00:05:41,736 這正是我們現在所擔心的 社群媒體與無人機相機; 94 00:05:41,760 --> 00:05:43,400 當然,還有情色簡訊。 95 00:05:43,920 --> 00:05:46,136 這些對科技的恐懼, 96 00:05:46,160 --> 00:05:47,376 不無道理, 97 00:05:47,400 --> 00:05:50,816 因為科技能夠放大並將我們人類 98 00:05:50,840 --> 00:05:53,560 最糟糕的特質與行為展露出來。 99 00:05:54,160 --> 00:05:56,536 但還是有解決之道。 100 00:05:56,560 --> 00:06:00,120 我們以前也曾經歷過所謂 危險的新科技。 101 00:06:00,720 --> 00:06:04,496 1980 年,福特推出了福特 T 型車。 102 00:06:04,520 --> 00:06:07,096 交通事故的死亡率節節攀升。 103 00:06:07,120 --> 00:06:10,580 這是個嚴重的問題。 它看起來很安全,對吧? 104 00:06:12,080 --> 00:06:16,056 我們第一個反應是 嘗試改變駕駛人的駕駛行為, 105 00:06:16,080 --> 00:06:19,800 所以我們有了速限並 藉由罰鍰來強制執行。 106 00:06:20,240 --> 00:06:22,096 但,經過幾十年後, 107 00:06:22,120 --> 00:06:27,616 我們開始了解到汽車科技本身 並非停滯不前的, 108 00:06:27,640 --> 00:06:30,856 我們可以把車子設計得更安全。 109 00:06:30,880 --> 00:06:34,336 所以,在 1920 年代, 我們有了抗碎的擋風玻璃。 110 00:06:34,360 --> 00:06:36,856 1950 年代,安全帶問世。 111 00:06:36,880 --> 00:06:39,960 以及 1990 年代的安全氣囊。 112 00:06:40,440 --> 00:06:42,816 這三個領域: 113 00:06:42,840 --> 00:06:47,150 法律、個人和產業界,會聚在一起 114 00:06:47,150 --> 00:06:51,416 共同尋求解決新科技所帶來的問題。 115 00:06:51,440 --> 00:06:54,680 我們對數位隱私權也可以如法炮製。 116 00:06:55,160 --> 00:06:57,920 當然,這又回到 取得對方同意的議題上了。 117 00:06:58,360 --> 00:06:59,576 我是這麼想的。 118 00:06:59,600 --> 00:07:03,416 在任何人可以將你的私人訊息 傳播出去之前, 119 00:07:03,440 --> 00:07:05,680 他們必須先取得你的同意。 120 00:07:06,240 --> 00:07:11,056 確認同意的概念, 是從反性侵害活動中得到的, 121 00:07:11,080 --> 00:07:14,856 它告訴我們每次的性行為都需要 經過彼此的同意。 122 00:07:14,880 --> 00:07:19,456 在其他的領域上,我們對同意權的 行使有著極高的標準。 123 00:07:19,480 --> 00:07:21,336 想想當我們要進行手術。 124 00:07:21,360 --> 00:07:22,976 你的醫師必須確認 125 00:07:23,000 --> 00:07:27,040 你知情、瞭解並同意醫療程序。 126 00:07:27,520 --> 00:07:31,976 這跟只需要把螢幕滑到最底下, 然後點選喜歡、同意、全都同意的 127 00:07:31,976 --> 00:07:34,896 iTunes 服務條款同意書 是不同的。 128 00:07:34,920 --> 00:07:36,640 (笑聲) 129 00:07:37,160 --> 00:07:42,416 假如我們對同意這個議題多些關注, 我們就能有比較好的隱私權法律。 130 00:07:42,440 --> 00:07:45,856 目前,我們並沒有那麼多的 隱私權保護政策。 131 00:07:45,880 --> 00:07:49,456 假如你的前夫或前妻是個可怕的人, 132 00:07:49,480 --> 00:07:53,696 他們可以將你的裸照上傳到 色情網站上面。 133 00:07:53,720 --> 00:07:56,936 要將那些裸照下架非常困難。 134 00:07:56,960 --> 00:07:58,176 在很多的州, 135 00:07:58,200 --> 00:08:02,016 如果那些照片是你自己拍攝的, 會比較好處理, 136 00:08:02,040 --> 00:08:04,840 因為你可以提出版權的聲明。 137 00:08:05,320 --> 00:08:07,376 (笑聲) 138 00:08:07,400 --> 00:08:10,376 現在,如果有人侵犯你的隱私權, 139 00:08:10,400 --> 00:08:14,600 不論侵權者是個人或公司 或美國國家安全局, 140 00:08:15,280 --> 00:08:18,016 你都可以試著提起訴訟; 141 00:08:18,040 --> 00:08:20,176 雖然你未必會成功, 142 00:08:20,200 --> 00:08:24,976 因為多數法庭認為數位隱私權 是無法掌控管理的。 143 00:08:25,000 --> 00:08:28,440 所以,他們不想要懲罰違反的人。 144 00:08:29,200 --> 00:08:32,096 我仍然一直聽到有人問我, 145 00:08:32,120 --> 00:08:37,416 數位影像模糊了公眾與隱私的界限, 146 00:08:37,440 --> 00:08:39,080 因為它是數位的,對嗎? 147 00:08:39,600 --> 00:08:40,936 不 ! 不是這樣的 ! 148 00:08:40,960 --> 00:08:44,296 數位化的東西,並不是 自然而然就變成公有的。 149 00:08:44,320 --> 00:08:46,216 那太沒有道理了。 150 00:08:46,240 --> 00:08:49,736 紐約大學法律學者 海倫·尼森鮑姆告訴我們, 151 00:08:49,760 --> 00:08:52,376 我們有法律、政策和社會規範 152 00:08:52,400 --> 00:08:55,536 能夠保護所有種類的隱私資訊, 153 00:08:55,560 --> 00:08:58,976 跟數位化與否並無關係。 154 00:08:59,000 --> 00:09:01,656 所有的醫療紀錄都是數位化的, 155 00:09:01,680 --> 00:09:04,816 但是你的醫師不能將其 任意分享給別人。 156 00:09:04,840 --> 00:09:09,296 所有的財務資訊 也都存在數位資料庫裡, 157 00:09:09,320 --> 00:09:13,760 但你的信用卡公司不能將你的 購物明細放在網站上供人閱覽。 158 00:09:15,080 --> 00:09:20,536 更好的法律能在事後 幫助解決隱私權的侵害問題, 159 00:09:20,560 --> 00:09:24,170 但保護彼此隱私權最簡單的方法, 160 00:09:24,170 --> 00:09:27,640 就是改變個人的使用習慣。 161 00:09:28,360 --> 00:09:30,256 我們總是被告知隱私 162 00:09:30,280 --> 00:09:33,336 是我們自身、獨有、個人的責任。 163 00:09:33,360 --> 00:09:37,616 我們被告知要經常性地偵測、 更新隱私設定。 164 00:09:37,640 --> 00:09:43,120 我們被告知絕對不要將你不想 被全世界看到的東西分享出去。 165 00:09:43,400 --> 00:09:44,616 這沒有道理。 166 00:09:44,640 --> 00:09:47,616 數位媒體是個社群環境, 167 00:09:47,640 --> 00:09:51,920 我們每天與所信任的人 分享喜怒哀樂。 168 00:09:52,760 --> 00:09:55,736 普林斯頓研究員 珍妮· 瓦爾特絲認為, 169 00:09:55,760 --> 00:09:59,776 我們的資訊與隱私, 它們不僅僅只是私人的, 170 00:09:59,800 --> 00:10:02,376 它們實際上還是一種人際關係。 171 00:10:02,400 --> 00:10:05,656 所以,我們能做的事非常簡單, 172 00:10:05,680 --> 00:10:10,776 就是當你要分享別人的資訊時, 先徵得當事人的同意。 173 00:10:10,800 --> 00:10:15,336 假如你要在網站上貼別人的照片, 先徵得當事人的同意。 174 00:10:15,360 --> 00:10:17,816 如果你想要轉寄電子郵件, 175 00:10:17,840 --> 00:10:19,216 先徵得當事人的同意。 176 00:10:19,240 --> 00:10:22,016 如果你要分享某人的自拍裸照, 177 00:10:22,040 --> 00:10:25,390 顯然地,請先徵得自拍者的同意。 178 00:10:25,560 --> 00:10:30,016 這些經由個人使用習慣的改變, 才能真正幫助我們保護彼此的隱私, 179 00:10:30,040 --> 00:10:33,840 但我們仍需要科技公司的協助。 180 00:10:34,360 --> 00:10:38,856 這些公司幾乎沒有動機 要協助我們保護我們的隱私, 181 00:10:38,880 --> 00:10:42,176 因為它們的商業模式有賴於 大家盡可能地 182 00:10:42,200 --> 00:10:44,440 分享所有的東西給更多的人。 183 00:10:45,080 --> 00:10:47,016 現在,我寄給你一張照片, 184 00:10:47,040 --> 00:10:50,136 你可以轉寄給任何人。 185 00:10:50,160 --> 00:10:54,416 但,假如我能夠決定 這張照片可不可以被轉寄呢? 186 00:10:54,440 --> 00:10:58,496 這會告訴你, 我沒允許你寄照片出去。 187 00:10:58,520 --> 00:11:02,656 我們總是做這個動作來保護版權。 188 00:11:02,680 --> 00:11:07,456 假如你買了一本電子書, 你不能隨便就寄給別人。 189 00:11:07,480 --> 00:11:10,720 為何我們不在手機上試試這個呢? 190 00:11:10,960 --> 00:11:15,736 你我能要求科技公司把保護警語 191 00:11:15,760 --> 00:11:19,496 設成我們裝置與平台的預設值。 192 00:11:19,520 --> 00:11:22,936 畢竟,你可以選擇自己車子的顏色, 193 00:11:22,960 --> 00:11:26,800 但是,安全氣囊一定是標準配備。 194 00:11:28,080 --> 00:11:31,896 如果我們不對數位隱私與同意權 多加考慮思索, 195 00:11:31,920 --> 00:11:34,640 可能會造成嚴重的後果。 196 00:11:35,360 --> 00:11:37,616 有一個來自俄亥俄州的少女, 197 00:11:37,640 --> 00:11:40,480 為了保護她的隱私, 姑且稱她為珍妮佛。 198 00:11:41,120 --> 00:11:44,696 她將自己的裸照分享給 她的高中男友, 199 00:11:44,720 --> 00:11:47,090 她以為他值得信任。 200 00:11:47,720 --> 00:11:49,656 不幸的是,他背叛了她 201 00:11:49,680 --> 00:11:52,656 將她的裸照寄給全校的同學。 202 00:11:52,680 --> 00:11:56,200 珍妮佛覺得受辱與無地自容, 203 00:11:56,800 --> 00:12:00,936 她的同學非但沒有同情心, 還不斷騷擾她。 204 00:12:00,960 --> 00:12:02,816 他們罵她是蕩婦和妓女, 205 00:12:02,840 --> 00:12:04,850 讓她的人生陷入了愁雲慘霧。 206 00:12:05,360 --> 00:12:09,040 珍妮佛開始缺課,成績也一落千丈。 207 00:12:09,520 --> 00:12:13,320 最終,珍妮佛選擇結束自己的生命。 208 00:12:14,720 --> 00:12:17,416 珍妮佛並沒有做錯什麼。 209 00:12:17,440 --> 00:12:19,696 她只是把自己的裸照分享給 210 00:12:19,720 --> 00:12:22,536 自認可以信得過的人。 211 00:12:22,560 --> 00:12:25,176 然而,法律告訴她, 212 00:12:25,200 --> 00:12:29,360 她犯了一個很可怕的罪, 相當於違反兒童色情文物法的罪。 213 00:12:29,920 --> 00:12:31,416 我們的性別規範告訴她, 214 00:12:31,440 --> 00:12:34,656 她自拍裸照的這個行為, 215 00:12:34,680 --> 00:12:37,880 是最可怕且最羞恥的事。 216 00:12:38,400 --> 00:12:42,616 當我們認為隱私權在 數位媒體的時代是無所遁形的, 217 00:12:42,640 --> 00:12:48,160 我們等於完全無視她男友所犯的過錯 並給與他脫罪的藉口。 218 00:12:49,200 --> 00:12:54,936 人們還是常對隱私被侵害的人說 : 219 00:12:54,960 --> 00:12:56,216 「你到底在想什麼? 220 00:12:56,240 --> 00:12:59,290 你本來就不應該把那照片寄出去。」 221 00:12:59,640 --> 00:13:03,640 如果你在想如何反駁的話, 試試這個。 222 00:13:04,160 --> 00:13:07,680 想像你遇到了一個 滑雪摔斷腿的朋友, 223 00:13:08,240 --> 00:13:12,816 他們當時冒險做了一些有趣的動作, 結果不小心摔傷了。 224 00:13:12,840 --> 00:13:15,376 你應該不會白目到去告訴他: 225 00:13:15,400 --> 00:13:19,050 「嗯,我早猜到你不應該滑雪的。」 226 00:13:20,080 --> 00:13:22,216 假如我們多想想同意與否的問題, 227 00:13:22,240 --> 00:13:25,496 我們就能夠知道那些 隱私受到侵害的人, 228 00:13:25,520 --> 00:13:27,256 是值得我們同情的; 229 00:13:27,280 --> 00:13:31,880 而不是將他們定罪、羞辱、 騷擾或懲罰。 230 00:13:32,440 --> 00:13:36,936 我們可以支持受害者, 藉由法律、個人和科技的改變 231 00:13:36,960 --> 00:13:41,280 來防止隱私權受到侵害。 232 00:13:41,840 --> 00:13:47,656 因為問題不是性愛簡訊, 而是數位隱私。 233 00:13:47,680 --> 00:13:50,040 而解決的方法之一就是徵得同意。 234 00:13:50,680 --> 00:13:55,256 所以,下一次當隱私權 受到侵害的人來找你時, 235 00:13:55,280 --> 00:13:58,016 不要責備他們, 反之,我們應該這樣做: 236 00:13:58,040 --> 00:14:01,456 讓我們改變對數位隱私的窠臼觀點, 237 00:14:01,480 --> 00:14:04,120 以同情心、同理心來回應吧。 238 00:14:04,680 --> 00:14:05,896 謝謝。 239 00:14:05,920 --> 00:14:12,056 (掌聲)