0:00:00.720,0:00:05.000 人們利用各種媒介討論性由來已久。 0:00:05.600,0:00:09.040 情書、性愛電話以及辛辣的照片。 0:00:09.480,0:00:15.510 甚至有個女生與透過電報認識的[br]男生一同私奔, 0:00:15.510,0:00:17.820 早在 1886 年就有了。 0:00:18.560,0:00:23.656 現今,我們有性愛調情簡訊,[br]而我是個研究性愛簡訊的專家。 0:00:23.680,0:00:26.500 不是喜歡傳情色簡訊的專家哦。 0:00:26.800,0:00:30.976 雖然我知道這玩意兒代表什麼意思,[br]我想你們也知道。 0:00:31.000,0:00:34.105 (它代表著男性的陰莖) 0:00:34.105,0:00:36.130 (笑聲) 0:00:36.360,0:00:42.311 2008 年自從媒體開始注意到[br]性愛簡訊時,我就已經在研究它了。 0:00:42.720,0:00:45.696 我寫了本有關[br]性愛簡訊之道德恐慌的書。 0:00:45.720,0:00:47.336 我發現 0:00:47.360,0:00:50.576 大多數人都擔錯心了。 0:00:50.600,0:00:54.776 他們嘗試全面禁止性愛簡訊。 0:00:54.800,0:00:56.336 但是我問各位: 0:00:56.360,0:01:01.216 只要他們是兩廂情願的,[br]性愛簡訊有什麼問題嗎? 0:01:01.240,0:01:05.256 人家喜歡的,你可能不喜歡, 0:01:05.280,0:01:07.576 譬如說藍起司或香菜。 0:01:07.600,0:01:09.240 (笑聲) 0:01:10.600,0:01:14.736 性愛簡訊確實具有風險,[br]就像其它好玩有趣的事物一樣。 0:01:14.760,0:01:21.456 但是只要你不是將圖片寄到[br]不想收到的人手中, 0:01:21.480,0:01:23.256 那根本無傷大雅啊。 0:01:23.280,0:01:25.896 我真正在意的是另一個嚴重的問題, 0:01:25.920,0:01:29.176 就是人們在未經對方同意的情況下, 0:01:29.200,0:01:31.200 將私人照片分享出去。 0:01:31.360,0:01:33.696 與其擔心性愛簡訊, 0:01:33.720,0:01:38.280 我們更應該關心數位隱私的議題。 0:01:38.880,0:01:41.580 關鍵點是得到對方的同意。 0:01:41.680,0:01:44.976 現在大多數的人只想到性愛簡訊, 0:01:45.000,0:01:47.960 卻沒有想到對方同意與否的問題。 0:01:48.400,0:01:53.210 你們知道目前青少年傳調情簡訊,[br]是違法的嗎? 0:01:53.400,0:01:57.516 這可能會犯罪,因為如果訊息中[br]有未滿 18 歲青少年的圖片, 0:01:57.516,0:01:59.736 它會被視為兒童色情文物。 0:01:59.760,0:02:03.026 就算是當事人他們自拍後上傳, 0:02:03.026,0:02:05.640 自願分享給別人看,也是一樣違法。 0:02:05.800,0:02:08.776 所以,我們現在卡在這個[br]詭異的法律情況中, 0:02:08.800,0:02:13.336 兩位年滿 17 歲的人發生性行為,[br]在美國大部分的州都視為合法, 0:02:13.360,0:02:16.130 但是他們不能拍性愛照。 0:02:16.560,0:02:20.816 一些州亦試圖通過[br]性愛簡訊的輕罪法律, 0:02:20.840,0:02:23.856 但是這些法規卻重複著相同的問題, 0:02:23.880,0:02:27.640 因為它們仍將兩廂情願的[br]調情簡訊視為違法的。 0:02:28.520,0:02:33.076 試著要禁止所有的情色簡訊[br]與嘗試解決所謂隱私權的侵犯, 0:02:33.076,0:02:34.536 是沒有意義的。 0:02:34.560,0:02:36.056 這就好像在說, 0:02:36.080,0:02:38.990 為了解決約會性侵害的問題, 0:02:38.990,0:02:43.120 我們卻把全部的約會視為違法一樣。 0:02:43.120,0:02:48.496 大多數青少年不因傳調情簡訊被捕,[br]但你們猜,誰會呢? 0:02:48.520,0:02:53.496 通常是被對方父母討厭的青少年。 0:02:53.520,0:02:58.320 被討厭的原因有可能是階級偏見、[br]種族歧視或是對同性戀的憎惡。 0:02:58.498,0:03:01.736 當然,大部分的檢察官很聰明, 0:03:01.760,0:03:07.240 他們不會以違反兒童色情文物的罪名[br]來起訴青少年,但有些還是會。 0:03:07.720,0:03:11.376 根據新罕布夏大學的研究人員指出, 0:03:11.400,0:03:17.056 因持有兒童色情文物而被定罪的[br]有 7% 是青少年, 0:03:17.080,0:03:21.140 且是經雙方彼此同意下所傳的調情內容。 0:03:21.480,0:03:24.016 持有兒童色情文物是一個嚴重的罪行, 0:03:24.040,0:03:27.720 但它和青少年互傳調情簡訊的情況[br]是迥然不同的。 0:03:29.040,0:03:32.456 父母與教育工作者[br]對調情簡訊的回應也是一樣, 0:03:32.480,0:03:35.616 他們並沒有認真思考過[br]兩廂情願的情況。 0:03:35.640,0:03:39.760 他們對青少年所傳達的訊息通常是:[br]不要傳就對了。 0:03:40.200,0:03:43.696 而我完全能理解,[br]因為有很嚴重的法律風險, 0:03:43.720,0:03:47.376 當然,還有潛在侵害隱私權的問題。 0:03:47.400,0:03:48.656 當你還是個青少年時, 0:03:48.680,0:03:52.080 我相信你一定照大人說的去做,[br]對吧? 0:03:53.440,0:03:56.896 你可能認為我的孩子[br]絕對不會傳情色簡訊。 0:03:56.920,0:04:00.376 對,是真的。你的小天使[br]也許不會傳情色簡訊, 0:04:00.400,0:04:03.536 因為只有 33% 的 0:04:03.560,0:04:05.920 16-17 歲的青少年在傳。 0:04:07.200,0:04:11.816 但不好意思,等到他們再長大一些,[br]他們會傳情色簡訊的機率會變高。 0:04:11.840,0:04:18.040 我看過的每個研究數據皆顯示,[br]18-24 歲會傳的比例,超過一半 0:04:18.720,0:04:21.776 而大多數時間,沒出什麼差錯。 0:04:21.800,0:04:27.176 人們常問我這樣的問題,[br]傳性愛簡訊不是很危險嗎? 0:04:27.200,0:04:30.776 就像你不會將你的皮包留在[br]公園的長凳上, 0:04:30.800,0:04:34.240 如果你這樣做的話,[br]皮包會被偷走,對吧? 0:04:34.880,0:04:36.336 我是這麼想的: 0:04:36.360,0:04:40.296 性愛簡訊就像妳把皮包[br]留在男友家中, 0:04:40.320,0:04:42.096 如果隔天你回去男友家 0:04:42.120,0:04:44.400 發現皮包裡的錢都不見了, 0:04:45.040,0:04:47.160 你真的要把那個男生給甩了。 0:04:47.690,0:04:49.860 (笑聲) 0:04:51.360,0:04:53.840 所以,與其加諸罪名在性愛簡訊上 0:04:53.840,0:04:56.336 以此來防範隱私受到侵害, 0:04:56.360,0:04:59.656 反而應該著重在彼此同意 0:04:59.680,0:05:03.760 我們的私訊如何流通。 0:05:04.480,0:05:08.736 每一個新媒體科技的出現,[br]都會引發我們對隱私權的關注。 0:05:08.760,0:05:13.376 實際上,美國史上首次有關[br]隱私權的辯論, 0:05:13.400,0:05:17.896 就是為了因應當時相當嶄新的科技。 0:05:17.920,0:05:21.816 在十九世紀末,人們擔心相機, 0:05:21.840,0:05:25.296 因為突然間它變得更方便、輕巧; 0:05:25.320,0:05:27.816 還擔心報紙的八卦專欄。 0:05:27.840,0:05:31.650 他們擔心相機拍到他們的相關動態, 0:05:31.650,0:05:35.250 看圖說故事斷章取義地[br]將圖片廣為散播。 0:05:35.250,0:05:36.856 這聽起來很耳熟嗎? 0:05:36.880,0:05:41.736 這正是我們現在所擔心的[br]社群媒體與無人機相機; 0:05:41.760,0:05:43.400 當然,還有情色簡訊。 0:05:43.920,0:05:46.136 這些對科技的恐懼, 0:05:46.160,0:05:47.376 不無道理, 0:05:47.400,0:05:50.816 因為科技能夠放大並將我們人類 0:05:50.840,0:05:53.560 最糟糕的特質與行為展露出來。 0:05:54.160,0:05:56.536 但還是有解決之道。 0:05:56.560,0:06:00.120 我們以前也曾經歷過所謂[br]危險的新科技。 0:06:00.720,0:06:04.496 1980 年,福特推出了福特 T 型車。 0:06:04.520,0:06:07.096 交通事故的死亡率節節攀升。 0:06:07.120,0:06:10.580 這是個嚴重的問題。[br]它看起來很安全,對吧? 0:06:12.080,0:06:16.056 我們第一個反應是[br]嘗試改變駕駛人的駕駛行為, 0:06:16.080,0:06:19.800 所以我們有了速限並[br]藉由罰鍰來強制執行。 0:06:20.240,0:06:22.096 但,經過幾十年後, 0:06:22.120,0:06:27.616 我們開始了解到汽車科技本身[br]並非停滯不前的, 0:06:27.640,0:06:30.856 我們可以把車子設計得更安全。 0:06:30.880,0:06:34.336 所以,在 1920 年代,[br]我們有了抗碎的擋風玻璃。 0:06:34.360,0:06:36.856 1950 年代,安全帶問世。 0:06:36.880,0:06:39.960 以及 1990 年代的安全氣囊。 0:06:40.440,0:06:42.816 這三個領域: 0:06:42.840,0:06:47.150 法律、個人和產業界,會聚在一起 0:06:47.150,0:06:51.416 共同尋求解決新科技所帶來的問題。 0:06:51.440,0:06:54.680 我們對數位隱私權也可以如法炮製。 0:06:55.160,0:06:57.920 當然,這又回到[br]取得對方同意的議題上了。 0:06:58.360,0:06:59.576 我是這麼想的。 0:06:59.600,0:07:03.416 在任何人可以將你的私人訊息[br]傳播出去之前, 0:07:03.440,0:07:05.680 他們必須先取得你的同意。 0:07:06.240,0:07:11.056 確認同意的概念,[br]是從反性侵害活動中得到的, 0:07:11.080,0:07:14.856 它告訴我們每次的性行為都需要[br]經過彼此的同意。 0:07:14.880,0:07:19.456 在其他的領域上,我們對同意權的[br]行使有著極高的標準。 0:07:19.480,0:07:21.336 想想當我們要進行手術。 0:07:21.360,0:07:22.976 你的醫師必須確認 0:07:23.000,0:07:27.040 你知情、瞭解並同意醫療程序。 0:07:27.520,0:07:31.976 這跟只需要把螢幕滑到最底下,[br]然後點選喜歡、同意、全都同意的[br] 0:07:31.976,0:07:34.896 iTunes 服務條款同意書[br]是不同的。 0:07:34.920,0:07:36.640 (笑聲) 0:07:37.160,0:07:42.416 假如我們對同意這個議題多些關注,[br]我們就能有比較好的隱私權法律。 0:07:42.440,0:07:45.856 目前,我們並沒有那麼多的[br]隱私權保護政策。 0:07:45.880,0:07:49.456 假如你的前夫或前妻是個可怕的人, 0:07:49.480,0:07:53.696 他們可以將你的裸照上傳到[br]色情網站上面。 0:07:53.720,0:07:56.936 要將那些裸照下架非常困難。 0:07:56.960,0:07:58.176 在很多的州, 0:07:58.200,0:08:02.016 如果那些照片是你自己拍攝的,[br]會比較好處理, 0:08:02.040,0:08:04.840 因為你可以提出版權的聲明。 0:08:05.320,0:08:07.376 (笑聲) 0:08:07.400,0:08:10.376 現在,如果有人侵犯你的隱私權, 0:08:10.400,0:08:14.600 不論侵權者是個人或公司[br]或美國國家安全局, 0:08:15.280,0:08:18.016 你都可以試著提起訴訟; 0:08:18.040,0:08:20.176 雖然你未必會成功, 0:08:20.200,0:08:24.976 因為多數法庭認為數位隱私權[br]是無法掌控管理的。 0:08:25.000,0:08:28.440 所以,他們不想要懲罰違反的人。 0:08:29.200,0:08:32.096 我仍然一直聽到有人問我, 0:08:32.120,0:08:37.416 數位影像模糊了公眾與隱私的界限, 0:08:37.440,0:08:39.080 因為它是數位的,對嗎? 0:08:39.600,0:08:40.936 不 ! 不是這樣的 ! 0:08:40.960,0:08:44.296 數位化的東西,並不是[br]自然而然就變成公有的。 0:08:44.320,0:08:46.216 那太沒有道理了。 0:08:46.240,0:08:49.736 紐約大學法律學者[br]海倫·尼森鮑姆告訴我們, 0:08:49.760,0:08:52.376 我們有法律、政策和社會規範 0:08:52.400,0:08:55.536 能夠保護所有種類的隱私資訊, 0:08:55.560,0:08:58.976 跟數位化與否並無關係。 0:08:59.000,0:09:01.656 所有的醫療紀錄都是數位化的, 0:09:01.680,0:09:04.816 但是你的醫師不能將其[br]任意分享給別人。 0:09:04.840,0:09:09.296 所有的財務資訊[br]也都存在數位資料庫裡, 0:09:09.320,0:09:13.760 但你的信用卡公司不能將你的[br]購物明細放在網站上供人閱覽。 0:09:15.080,0:09:20.536 更好的法律能在事後[br]幫助解決隱私權的侵害問題, 0:09:20.560,0:09:24.170 但保護彼此隱私權最簡單的方法, 0:09:24.170,0:09:27.640 就是改變個人的使用習慣。 0:09:28.360,0:09:30.256 我們總是被告知隱私 0:09:30.280,0:09:33.336 是我們自身、獨有、個人的責任。 0:09:33.360,0:09:37.616 我們被告知要經常性地偵測、[br]更新隱私設定。 0:09:37.640,0:09:43.120 我們被告知絕對不要將你不想[br]被全世界看到的東西分享出去。 0:09:43.400,0:09:44.616 這沒有道理。 0:09:44.640,0:09:47.616 數位媒體是個社群環境, 0:09:47.640,0:09:51.920 我們每天與所信任的人[br]分享喜怒哀樂。 0:09:52.760,0:09:55.736 普林斯頓研究員[br]珍妮· 瓦爾特絲認為, 0:09:55.760,0:09:59.776 我們的資訊與隱私,[br]它們不僅僅只是私人的, 0:09:59.800,0:10:02.376 它們實際上還是一種人際關係。 0:10:02.400,0:10:05.656 所以,我們能做的事非常簡單, 0:10:05.680,0:10:10.776 就是當你要分享別人的資訊時,[br]先徵得當事人的同意。 0:10:10.800,0:10:15.336 假如你要在網站上貼別人的照片,[br]先徵得當事人的同意。 0:10:15.360,0:10:17.816 如果你想要轉寄電子郵件, 0:10:17.840,0:10:19.216 先徵得當事人的同意。 0:10:19.240,0:10:22.016 如果你要分享某人的自拍裸照, 0:10:22.040,0:10:25.390 顯然地,請先徵得自拍者的同意。 0:10:25.560,0:10:30.016 這些經由個人使用習慣的改變,[br]才能真正幫助我們保護彼此的隱私, 0:10:30.040,0:10:33.840 但我們仍需要科技公司的協助。 0:10:34.360,0:10:38.856 這些公司幾乎沒有動機[br]要協助我們保護我們的隱私, 0:10:38.880,0:10:42.176 因為它們的商業模式有賴於[br]大家盡可能地 0:10:42.200,0:10:44.440 分享所有的東西給更多的人。 0:10:45.080,0:10:47.016 現在,我寄給你一張照片, 0:10:47.040,0:10:50.136 你可以轉寄給任何人。 0:10:50.160,0:10:54.416 但,假如我能夠決定[br]這張照片可不可以被轉寄呢? 0:10:54.440,0:10:58.496 這會告訴你,[br]我沒允許你寄照片出去。 0:10:58.520,0:11:02.656 我們總是做這個動作來保護版權。 0:11:02.680,0:11:07.456 假如你買了一本電子書,[br]你不能隨便就寄給別人。 0:11:07.480,0:11:10.720 為何我們不在手機上試試這個呢? 0:11:10.960,0:11:15.736 你我能要求科技公司把保護警語 0:11:15.760,0:11:19.496 設成我們裝置與平台的預設值。 0:11:19.520,0:11:22.936 畢竟,你可以選擇自己車子的顏色, 0:11:22.960,0:11:26.800 但是,安全氣囊一定是標準配備。 0:11:28.080,0:11:31.896 如果我們不對數位隱私與同意權[br]多加考慮思索, 0:11:31.920,0:11:34.640 可能會造成嚴重的後果。 0:11:35.360,0:11:37.616 有一個來自俄亥俄州的少女, 0:11:37.640,0:11:40.480 為了保護她的隱私,[br]姑且稱她為珍妮佛。 0:11:41.120,0:11:44.696 她將自己的裸照分享給[br]她的高中男友, 0:11:44.720,0:11:47.090 她以為他值得信任。 0:11:47.720,0:11:49.656 不幸的是,他背叛了她 0:11:49.680,0:11:52.656 將她的裸照寄給全校的同學。 0:11:52.680,0:11:56.200 珍妮佛覺得受辱與無地自容, 0:11:56.800,0:12:00.936 她的同學非但沒有同情心,[br]還不斷騷擾她。 0:12:00.960,0:12:02.816 他們罵她是蕩婦和妓女, 0:12:02.840,0:12:04.850 讓她的人生陷入了愁雲慘霧。 0:12:05.360,0:12:09.040 珍妮佛開始缺課,成績也一落千丈。 0:12:09.520,0:12:13.320 最終,珍妮佛選擇結束自己的生命。 0:12:14.720,0:12:17.416 珍妮佛並沒有做錯什麼。 0:12:17.440,0:12:19.696 她只是把自己的裸照分享給 0:12:19.720,0:12:22.536 自認可以信得過的人。 0:12:22.560,0:12:25.176 然而,法律告訴她, 0:12:25.200,0:12:29.360 她犯了一個很可怕的罪,[br]相當於違反兒童色情文物法的罪。 0:12:29.920,0:12:31.416 我們的性別規範告訴她, 0:12:31.440,0:12:34.656 她自拍裸照的這個行為, 0:12:34.680,0:12:37.880 是最可怕且最羞恥的事。 0:12:38.400,0:12:42.616 當我們認為隱私權在[br]數位媒體的時代是無所遁形的, 0:12:42.640,0:12:48.160 我們等於完全無視她男友所犯的過錯[br]並給與他脫罪的藉口。 0:12:49.200,0:12:54.936 人們還是常對隱私被侵害的人說 : 0:12:54.960,0:12:56.216 「你到底在想什麼? 0:12:56.240,0:12:59.290 你本來就不應該把那照片寄出去。」 0:12:59.640,0:13:03.640 如果你在想如何反駁的話,[br]試試這個。 0:13:04.160,0:13:07.680 想像你遇到了一個[br]滑雪摔斷腿的朋友, 0:13:08.240,0:13:12.816 他們當時冒險做了一些有趣的動作,[br]結果不小心摔傷了。 0:13:12.840,0:13:15.376 你應該不會白目到去告訴他: 0:13:15.400,0:13:19.050 「嗯,我早猜到你不應該滑雪的。」 0:13:20.080,0:13:22.216 假如我們多想想同意與否的問題, 0:13:22.240,0:13:25.496 我們就能夠知道那些[br]隱私受到侵害的人, 0:13:25.520,0:13:27.256 是值得我們同情的; 0:13:27.280,0:13:31.880 而不是將他們定罪、羞辱、[br]騷擾或懲罰。 0:13:32.440,0:13:36.936 我們可以支持受害者,[br]藉由法律、個人和科技的改變 0:13:36.960,0:13:41.280 來防止隱私權受到侵害。 0:13:41.840,0:13:47.656 因為問題不是性愛簡訊,[br]而是數位隱私。 0:13:47.680,0:13:50.040 而解決的方法之一就是徵得同意。 0:13:50.680,0:13:55.256 所以,下一次當隱私權[br]受到侵害的人來找你時, 0:13:55.280,0:13:58.016 不要責備他們,[br]反之,我們應該這樣做: 0:13:58.040,0:14:01.456 讓我們改變對數位隱私的窠臼觀點, 0:14:01.480,0:14:04.120 以同情心、同理心來回應吧。 0:14:04.680,0:14:05.896 謝謝。 0:14:05.920,0:14:12.056 (掌聲)