1 00:00:18,524 --> 00:00:23,564 人々は昔から性的な会話に メディアを使ってきました 2 00:00:23,564 --> 00:00:27,345 ラブレター テレホンセックス きわどいポラロイド写真 3 00:00:27,345 --> 00:00:33,375 電報で知り合った男と駆け落ちした 少女の話さえあります 4 00:00:33,375 --> 00:00:35,256 1886年のことです 5 00:00:35,256 --> 00:00:36,556 (笑) 6 00:00:36,556 --> 00:00:39,306 現在はセクスティングがあり 7 00:00:39,306 --> 00:00:41,697 私はそのエキスパートです 8 00:00:41,697 --> 00:00:44,007 セクスティングする エキスパートじゃありませんよ 9 00:00:44,007 --> 00:00:44,856 (笑) 10 00:00:44,856 --> 00:00:47,757 でもこれが何を意味するかは 知っています 11 00:00:47,757 --> 00:00:49,177 皆さんもご存じでしょうけど 12 00:00:49,177 --> 00:00:50,677 [これはペニスの意] 13 00:00:50,677 --> 00:00:52,306 (笑) 14 00:00:52,306 --> 00:00:55,127 セクスティングが メディアに注目され出した 15 00:00:55,127 --> 00:00:58,487 2008年から 私は研究するようになり 16 00:00:58,487 --> 00:01:01,680 セクスティングに関わる モラルの混乱について本も書きました 17 00:01:01,680 --> 00:01:03,289 それでわかったのは 18 00:01:03,289 --> 00:01:06,459 多くの人が的外れなことを 心配していることです 19 00:01:06,459 --> 00:01:10,659 みんなセクスティング自体を なくそうとしています 20 00:01:10,659 --> 00:01:12,209 でも考えてほしいんです 21 00:01:12,209 --> 00:01:17,149 完全な合意の上でなら セクスティングの 何が問題だというのでしょう? 22 00:01:17,149 --> 00:01:21,220 世の中 変なものが 好きな人もいます 23 00:01:21,220 --> 00:01:23,756 ブルーチーズとか パクチーとか 24 00:01:23,756 --> 00:01:26,561 (笑) 25 00:01:26,561 --> 00:01:30,762 楽しいことの例に漏れず セクスティングにはリスクがあります 26 00:01:30,762 --> 00:01:31,772 でも… 27 00:01:31,772 --> 00:01:32,421 (笑) 28 00:01:32,421 --> 00:01:37,352 受け取りたくない人に きわどい写真を送ったりしない限りは 29 00:01:37,352 --> 00:01:39,131 害はありません 30 00:01:39,131 --> 00:01:41,892 本当に問題があるのは 31 00:01:41,892 --> 00:01:46,873 他人のプライベートな写真を 許可も得ずに公開することです 32 00:01:47,283 --> 00:01:49,702 セクスティングについて 心配をするよりも 33 00:01:49,702 --> 00:01:54,803 私たちがすべきなのは デジタル情報の プライバシーについて考えることで 34 00:01:54,803 --> 00:01:57,114 その鍵になるのは「合意」です 35 00:01:57,544 --> 00:02:00,874 現在のところ 多くの人は セクスティングについて考えるとき 36 00:02:00,874 --> 00:02:04,325 合意の有無を まったく考慮していません 37 00:02:04,325 --> 00:02:08,665 現在 ティーンのセクスティングは 犯罪だとされているのをご存じですか? 38 00:02:09,295 --> 00:02:11,085 犯罪になる理由は 39 00:02:11,085 --> 00:02:15,716 18歳未満の裸の画像は 児童ポルノと見なされるためで 40 00:02:15,716 --> 00:02:19,385 たとえそれが自分で撮って 合意の上で渡されたものであっても 41 00:02:19,385 --> 00:02:21,716 関係ありません 42 00:02:21,716 --> 00:02:24,716 そのため法的に 非常に奇妙な状況が生じます 43 00:02:24,716 --> 00:02:29,226 アメリカのほとんどの州で 17歳の男女は合法的にセックスできますが 44 00:02:29,226 --> 00:02:31,667 その写真を撮ることは できないのです 45 00:02:32,587 --> 00:02:36,678 州によってはセクスティングのための 軽犯罪法を作ろうとしていますが 46 00:02:36,678 --> 00:02:39,778 同じ間違いを 繰り返しています 47 00:02:39,778 --> 00:02:43,858 合意の上でのセクスティングを 違法としているからです 48 00:02:44,418 --> 00:02:47,718 プライバシー侵害に 対処するために 49 00:02:47,718 --> 00:02:50,379 セクスティング自体を 禁止しようとするのは筋違いです 50 00:02:50,379 --> 00:02:52,869 それはデートレイプをなくすために 51 00:02:52,869 --> 00:02:57,820 デート自体を違法にしようと するようなものです 52 00:02:59,010 --> 00:03:04,450 ティーンの多くはセクスティングで逮捕されはしませんが 逮捕されているのがどんな人か分かりますか? 53 00:03:04,450 --> 00:03:09,362 相手の親に嫌われている ティーンです 54 00:03:09,362 --> 00:03:14,791 そしてその本当の理由は 階級意識や 人種差別や 同性愛嫌悪のためかも知れません 55 00:03:14,825 --> 00:03:17,686 もちろん検事の多くは 馬鹿じゃありませんから 56 00:03:17,686 --> 00:03:21,865 子供を児童ポルノで 訴えたりはしませんが 57 00:03:21,865 --> 00:03:23,605 する人もいます 58 00:03:23,605 --> 00:03:27,165 ニューハンプシャー大学の 研究者らによると 59 00:03:27,165 --> 00:03:31,857 児童ポルノ所持で 逮捕されたうちの7%が 60 00:03:31,857 --> 00:03:36,397 合意の上でセクスティングしていた ティーンだったそうです 61 00:03:37,417 --> 00:03:39,958 児童ポルノは 重大な犯罪ですが 62 00:03:39,958 --> 00:03:44,068 ティーンのセクスティングは まったく別の話です 63 00:03:44,978 --> 00:03:47,328 親や教師というのも 64 00:03:47,328 --> 00:03:51,419 合意について考慮せずに セクスティングに反応しています 65 00:03:51,419 --> 00:03:56,069 彼らのメッセージはたいてい 「一切やめろ」です 66 00:03:56,069 --> 00:03:57,639 理解は出来ます 67 00:03:57,639 --> 00:04:03,309 深刻な法的リスクや プライバシー侵害の危険がありますから 68 00:04:03,309 --> 00:04:04,940 皆さんは10代の頃 69 00:04:04,940 --> 00:04:08,676 言い付けを何でも 良く守っていたことでしょう 70 00:04:09,366 --> 00:04:12,841 我が子に限ってセクスティングなんか するわけがないと 71 00:04:12,841 --> 00:04:16,527 それはそうです 皆さんの 天使のようなお子さんはしないでしょうとも 72 00:04:16,527 --> 00:04:22,298 16〜17歳でセクスティング しているのは33%だけですから 73 00:04:23,058 --> 00:04:25,438 でも大人になるまでには 74 00:04:25,438 --> 00:04:27,651 セクスティングするようになる 可能性が高いです 75 00:04:27,651 --> 00:04:34,103 私の見てきたどの調査でも 18〜24歳の50%以上がセクスティングしています 76 00:04:34,603 --> 00:04:37,803 そしてほとんどの場合 悪いことは何も起こりません 77 00:04:38,273 --> 00:04:42,113 「でもセクスティングはやっぱり 危ないんじゃないの?」と 78 00:04:42,113 --> 00:04:43,703 よく聞かれます 79 00:04:43,703 --> 00:04:47,323 公園のベンチに財布を 置き忘れないようにするのと同じで 80 00:04:47,323 --> 00:04:51,394 そんなの盗まれるに 決まっているでしょうと 81 00:04:51,394 --> 00:04:52,775 私に言わせると 82 00:04:52,775 --> 00:04:56,675 セクスティングは彼氏の家に 財布を置き忘れるようなものです 83 00:04:56,675 --> 00:05:01,475 次の日に行くと財布のお金が全部 なくなっていたとしたら 84 00:05:01,475 --> 00:05:04,276 そんな男とはすぐ 別れるべきでしょう 85 00:05:04,276 --> 00:05:05,745 (笑) 86 00:05:07,845 --> 00:05:12,746 プライバシー侵害を防ぐために セクスティングを犯罪化するのではなく 87 00:05:12,746 --> 00:05:16,057 個人のプライベートな 情報を流すときに 88 00:05:16,057 --> 00:05:20,498 合意を第一に考えるべきです 89 00:05:20,868 --> 00:05:25,188 新しいメディア技術はいつも プライバシーへの懸念を生んできました 90 00:05:25,188 --> 00:05:29,758 事実アメリカにおいて最初の プライバシーに関する議論は 91 00:05:29,758 --> 00:05:34,249 当時 比較的新しかった技術への 反応として起こりました 92 00:05:34,249 --> 00:05:37,509 1800年代末 人々が懸念を抱いたのは 93 00:05:37,509 --> 00:05:41,730 以前よりも ずっと 持ち運びやすくなったカメラと 94 00:05:41,730 --> 00:05:44,130 新聞のゴシップ欄でした 95 00:05:44,130 --> 00:05:48,030 自分の情報が カメラで写し取られ 96 00:05:48,030 --> 00:05:51,509 元の文脈を離れて 広められたりはしないかと 97 00:05:51,509 --> 00:05:53,521 聞いたことのある ような話ですよね? 98 00:05:53,521 --> 00:05:58,200 私たちがまさに今懸念していることです ソーシャルメディアに カメラ搭載ドローン 99 00:05:58,200 --> 00:06:00,321 そしてもちろん セクスティング 100 00:06:00,321 --> 00:06:03,652 そういったテクノロジーに 対する恐怖は理にかなっています 101 00:06:03,652 --> 00:06:06,812 テクノロジーには 私たちの最低な面や振る舞いを 102 00:06:06,812 --> 00:06:10,563 引き出し増幅する 力がありますから 103 00:06:10,563 --> 00:06:12,893 しかし解決法があります 104 00:06:12,893 --> 00:06:17,193 危険な新技術というのは 以前にもありました 105 00:06:17,193 --> 00:06:21,023 1908年 T型フォードが発売され 106 00:06:21,023 --> 00:06:23,822 交通死亡事故が増加しました 107 00:06:23,822 --> 00:06:27,113 深刻な問題です なんて安全そうな車でしょう! 108 00:06:27,113 --> 00:06:28,474 (笑) 109 00:06:29,234 --> 00:06:33,245 最初の反応は ドライバーの行動を 変えようというものでした 110 00:06:33,245 --> 00:06:37,285 それで速度制限が設けられ 違反には罰金が科せられました 111 00:06:37,285 --> 00:06:40,765 しかしその後の 数十年の間に 112 00:06:40,765 --> 00:06:44,716 自動車の技術は中立的なんかじゃないと 気付くようになりました 113 00:06:44,716 --> 00:06:47,966 より安全な車を デザインすることもできるのです 114 00:06:47,966 --> 00:06:51,466 それで1920年代に 飛散防止フロントガラスができ 115 00:06:51,466 --> 00:06:57,446 1950年代にはシートベルトが 90年代にはエアバッグが装備されるようになりました 116 00:06:58,256 --> 00:07:03,307 法・個人・業界の三者が歩み寄り 117 00:07:03,307 --> 00:07:09,348 時間を掛けて新技術が引き起こす 問題を解決していきました 118 00:07:09,348 --> 00:07:12,918 デジタルプライバシーについても 同じことができるはずです 119 00:07:12,918 --> 00:07:16,218 もちろん鍵になるのは合意です 120 00:07:16,218 --> 00:07:17,558 考え方としては 121 00:07:17,558 --> 00:07:21,239 誰かのプライベートな情報を 配布する場合には 122 00:07:21,239 --> 00:07:24,069 その人の許可を得る必要がある ということです 123 00:07:24,069 --> 00:07:27,280 この積極的合意という考え方は 124 00:07:27,280 --> 00:07:32,760 どんな性行為にも合意が必要という 反レイプ活動家から来ています 125 00:07:32,760 --> 00:07:37,327 他の様々な分野では 合意について とても高い基準があります 126 00:07:37,327 --> 00:07:39,127 手術を受ける場合を 考えてください 127 00:07:39,127 --> 00:07:43,069 自分の受ける医療について 患者が 確かに理解した上で合意していることを 128 00:07:43,069 --> 00:07:45,359 医者は確認する 必要があります 129 00:07:45,359 --> 00:07:49,098 iTunesの利用規約への合意なんかとは わけが違います 130 00:07:49,098 --> 00:07:53,009 みんなただスクロールして 何か知らずにOKしてると思いますが 131 00:07:53,009 --> 00:07:54,460 (笑) 132 00:07:55,079 --> 00:08:00,260 合意についてみんながもっとよく考えるなら もっと良いプライバシー保護法ができるはずです 133 00:08:00,260 --> 00:08:03,681 現在はそんなに 保護されてはいません 134 00:08:03,681 --> 00:08:07,381 元夫や元妻が酷い人間で 135 00:08:07,381 --> 00:08:11,531 自分の裸の写真をポルノサイトに アップロードされたとしたら 136 00:08:11,531 --> 00:08:14,750 そういった写真をすっかり 削除するのは大変です 137 00:08:14,750 --> 00:08:16,022 多くの州では 138 00:08:16,022 --> 00:08:19,912 その写真を自分で 撮っていた方が好都合です 139 00:08:19,912 --> 00:08:23,122 著作権を主張できますから 140 00:08:23,472 --> 00:08:24,760 (笑) 141 00:08:25,353 --> 00:08:28,283 現在のところ 個人であれ企業であれNSAであれ 142 00:08:28,283 --> 00:08:32,644 誰かにプライバシーを 侵害されたというとき 143 00:08:33,154 --> 00:08:38,044 法に訴えることはできますが うまくいかない可能性が多分にあります 144 00:08:38,044 --> 00:08:42,904 多くの裁判所が デジタルプライバシーは 実現不能だと考えているからです 145 00:08:42,904 --> 00:08:46,694 だからプライバシー侵害での裁判を したがらないのです 146 00:08:47,154 --> 00:08:50,055 未だに絶えず聞かれるのは 147 00:08:50,055 --> 00:08:54,166 デジタル画像だと 私的なものと公のものの区別が 148 00:08:54,166 --> 00:08:57,556 曖昧になるのでは という話です 149 00:08:57,556 --> 00:08:58,936 そんなことありません! 150 00:08:58,936 --> 00:09:02,236 デジタルだと自動的に 公のものになるわけじゃありません 151 00:09:02,236 --> 00:09:04,086 そんな道理はありません 152 00:09:04,086 --> 00:09:07,597 ニューヨーク大学の法学者 ヘレン・ニッセンバウムが言っています 153 00:09:07,597 --> 00:09:10,326 あらゆる種類の プライベートな情報を保護する 154 00:09:10,326 --> 00:09:13,467 法・方針・規範があるが 155 00:09:13,467 --> 00:09:16,846 デジタルかどうかは 区別されていないと 156 00:09:16,846 --> 00:09:19,628 医療データはデジタル化 されていますが 157 00:09:19,628 --> 00:09:22,748 医者がそれを漏らす ことはできません 158 00:09:22,748 --> 00:09:27,098 個人のファイナンス情報は デジタルのデータベースに保存されていますが 159 00:09:27,098 --> 00:09:32,039 クレジットカード会社は人の購入履歴を 勝手にネットで公開したりできません 160 00:09:32,879 --> 00:09:38,010 より良い法律は 起きてしまった プライバシー侵害に対処することができますが 161 00:09:38,420 --> 00:09:40,999 もっと簡単なのは 162 00:09:40,999 --> 00:09:45,930 お互いのプライバシーを守るよう 個々人が変わることです 163 00:09:46,250 --> 00:09:51,271 プライバシーは その人自身の責任だとずっと言われてきました 164 00:09:51,271 --> 00:09:55,431 プライバシー設定にいつも注意を払って 更新するようにとか 165 00:09:55,431 --> 00:10:00,902 世界中の人に見られて困るようなものは 共有してはいけないとか言われてきました 166 00:10:01,352 --> 00:10:02,522 そんなの変です 167 00:10:02,522 --> 00:10:05,582 デジタルメディアというのは 社会的な環境であり 168 00:10:05,582 --> 00:10:10,413 人々は信用している相手に対して 絶えず共有をしています 169 00:10:10,723 --> 00:10:13,613 プリンストン大学の研究者 ジャネット・ヴァーテッシは 170 00:10:13,613 --> 00:10:17,523 データやプライバシーというのは 単なる個人のものではなく 171 00:10:17,523 --> 00:10:20,284 個人間のものなのだ と言っています 172 00:10:20,284 --> 00:10:23,564 皆さんにできる 簡単なことは 173 00:10:23,564 --> 00:10:28,654 他の人の情報を共有する時には 本人の許可を得るということです 174 00:10:28,654 --> 00:10:33,335 誰かの写真をネットに上げようと思ったら 許可を得ましょう 175 00:10:33,335 --> 00:10:37,076 メールを転送しようと思ったら 許可を得ましょう 176 00:10:37,076 --> 00:10:39,776 誰かの裸の自撮り写真を 共有したいと思ったら 177 00:10:39,776 --> 00:10:42,466 言うまでもなく 許可を得ましょう 178 00:10:43,386 --> 00:10:47,826 そういった個々人の変化は お互いのプライバシーを守る助けになりますが 179 00:10:47,826 --> 00:10:52,246 テクノロジー企業にも 協力してもらう必要があります 180 00:10:52,246 --> 00:10:56,697 そういった会社は プライバシーを守る動機が低いものです 181 00:10:56,697 --> 00:11:00,139 みんながあらゆるものを 可能な限り多くの人と共有することに 182 00:11:00,139 --> 00:11:02,918 彼らのビジネスモデルが 依存しているからです 183 00:11:02,918 --> 00:11:05,268 現在は 私が皆さんに 写真を送ったら 184 00:11:05,268 --> 00:11:08,008 皆さんはそれを 誰にでも転送できます 185 00:11:08,008 --> 00:11:12,319 でも転送して良いかどうかを 私が決められたとしたらどうでしょう? 186 00:11:12,319 --> 00:11:16,379 「この画像の送信は許可されていません」と 言えるとしたら? 187 00:11:16,379 --> 00:11:20,600 著作権を守るためであれば そういうことは よく行われています 188 00:11:20,600 --> 00:11:25,300 電子書籍を買っても それをいろんな人に送ったりはできません 189 00:11:25,300 --> 00:11:28,371 携帯でも同じように したらどうでしょう? 190 00:11:29,151 --> 00:11:30,271 私たちにできることは 191 00:11:30,271 --> 00:11:35,101 デバイスやプラットフォームに そういう保護を標準で付けるよう 192 00:11:35,101 --> 00:11:37,651 テクノロジー企業に求めることです 193 00:11:37,651 --> 00:11:41,061 車だって ボディカラーは 好きに選べても 194 00:11:41,061 --> 00:11:44,342 エアバッグは常に標準品です 195 00:11:45,432 --> 00:11:49,223 デジタルプライバシーと合意について ちゃんと考えないなら 196 00:11:49,223 --> 00:11:52,053 大変な結果を招くことに なるかもしれません 197 00:11:52,573 --> 00:11:55,003 オハイオ州に ある十代の女の子がいました 198 00:11:55,003 --> 00:11:58,509 彼女の名を仮に ジェニファーとしておきましょう 199 00:11:58,509 --> 00:12:02,143 彼女は自分の裸の画像を 高校のボーイフレンドにあげました 200 00:12:02,143 --> 00:12:04,040 彼を信用できると思ったんです 201 00:12:05,080 --> 00:12:10,034 不幸にも彼女は裏切られ 彼はその写真を学校のみんなに送りました 202 00:12:10,034 --> 00:12:14,064 ジェニファーは さらし者にされて 恥ずかしい思いをし 203 00:12:14,064 --> 00:12:18,205 クラスメートは同情するどころか 彼女をいじめました 204 00:12:18,205 --> 00:12:22,626 彼女をあばずれだの売女だのと罵り 彼女の人生をみじめなものにしました 205 00:12:22,626 --> 00:12:26,795 ジェニファーは学校を休みがちになり 成績が落ちました 206 00:12:26,795 --> 00:12:31,137 最終的に彼女は 自らの命を絶つことを選びました 207 00:12:32,067 --> 00:12:34,697 ジェニファーは何も悪いことを したわけではありません 208 00:12:34,697 --> 00:12:37,127 ただ信用できると思った人に 209 00:12:37,127 --> 00:12:39,818 裸の写真を送ったというだけです 210 00:12:39,818 --> 00:12:42,108 それなのに法律では 211 00:12:42,108 --> 00:12:47,317 彼女が児童ポルノに等しい 大変な罪を犯したことにされてしまいます 212 00:12:47,317 --> 00:12:48,888 我々の性の規範では 213 00:12:48,888 --> 00:12:52,068 自分のヌード写真を撮ることは 214 00:12:52,068 --> 00:12:55,779 甚だしい恥ずべき行為だと されているんです 215 00:12:55,779 --> 00:12:59,860 デジタルメディアでプライバシーを 守ることは不可能だと考えるのは 216 00:12:59,860 --> 00:13:05,950 彼女のボーイフレンドの 極めて悪い行為を忘れ 許すことになります 217 00:13:06,420 --> 00:13:12,181 人々はいまだプライバシーを侵害された 被害者たちに こう言っています 218 00:13:12,181 --> 00:13:13,930 「いったい何を考えているんだ? 219 00:13:13,930 --> 00:13:16,390 そんな写真を送る方が悪い」 220 00:13:16,950 --> 00:13:21,552 どう言うべきか迷っているなら こう考えてみてください 221 00:13:21,552 --> 00:13:25,442 スキーで脚を折った友達に ばったり出会ったとしましょう 222 00:13:25,442 --> 00:13:30,102 何か楽しいことをやろうとリスクを冒し まずい結果になったわけです 223 00:13:30,102 --> 00:13:32,243 でも皆さんはそういう人に 224 00:13:32,243 --> 00:13:35,943 「スキーなんかに行くのが悪い」 などと言うイヤな奴ではないでしょう 225 00:13:37,343 --> 00:13:39,563 合意について よく考えたなら 226 00:13:39,563 --> 00:13:44,594 プライバシー侵害の被害者は 同情すべきであって 227 00:13:44,594 --> 00:13:49,784 犯罪者扱いしたり 辱めたり 嫌がらせしたり 罰したりすべきではないと分かるはずです 228 00:13:49,784 --> 00:13:54,335 被害者を支え プライバシー侵害をある程度防ぐことが 229 00:13:54,335 --> 00:13:59,145 お話ししたような法的・個人的・技術的な 変化によって可能です 230 00:13:59,145 --> 00:14:04,935 問題なのはセクスティングではなく デジタルプライバシーだからです 231 00:14:04,935 --> 00:14:07,876 そして解決法の1つは 合意を得ることです 232 00:14:07,876 --> 00:14:12,637 だから今度プライバシー侵害の 被害者に会うことがあれば 233 00:14:12,637 --> 00:14:15,346 その人を非難するのではなく 234 00:14:15,346 --> 00:14:18,807 デジタルプライバシーに 対する考えを変え 235 00:14:18,807 --> 00:14:22,027 思いやりの気持ちをもって あたりましょう 236 00:14:22,027 --> 00:14:23,247 ありがとうございました 237 00:14:23,247 --> 00:14:25,697 (拍手)