1 00:00:00,720 --> 00:00:05,000 人々は昔から性的な会話に メディアを使ってきました 2 00:00:05,600 --> 00:00:09,040 ラブレター テレホンセックス きわどいポラロイド写真 3 00:00:09,480 --> 00:00:15,420 電報で知り合った男と駆け落ちした 少女の話さえあります 4 00:00:15,420 --> 00:00:17,500 1886年のことです 5 00:00:18,560 --> 00:00:23,560 現在はセクスティングがあり 私はそのエキスパートです 6 00:00:23,560 --> 00:00:26,430 セクスティングする エキスパートじゃありませんよ 7 00:00:26,650 --> 00:00:31,136 でもこれが何を意味するかは知っています 皆さんもご存じでしょうけど 8 00:00:31,136 --> 00:00:32,375 [これはペニスの意] 9 00:00:32,400 --> 00:00:34,760 (笑) 10 00:00:36,360 --> 00:00:42,440 セクスティングがメディアに注目され出した 2008年から 私は研究するようになり 11 00:00:42,440 --> 00:00:45,816 セクスティングに関わる モラルの混乱について本も書きました 12 00:00:45,816 --> 00:00:47,336 それでわかったのは 13 00:00:47,360 --> 00:00:50,576 多くの人が的外れなことを 心配していることです 14 00:00:50,600 --> 00:00:54,776 みんなセクスティング自体を なくそうとしています 15 00:00:54,800 --> 00:00:56,336 でも考えてほしいんです 16 00:00:56,360 --> 00:01:01,216 完全な合意の上でなら セクスティングの 何が問題だというのでしょう? 17 00:01:01,240 --> 00:01:05,256 世の中 変なものが 好きな人もいます 18 00:01:05,280 --> 00:01:07,576 ブルーチーズとか パクチーとか 19 00:01:07,600 --> 00:01:09,240 (笑) 20 00:01:10,600 --> 00:01:14,736 楽しいことの例に漏れず セクスティングにはリスクがあります 21 00:01:14,760 --> 00:01:21,456 でも 受け取りたくない人に きわどい写真を送ったりしない限りは 22 00:01:21,480 --> 00:01:23,256 害はありません 23 00:01:23,280 --> 00:01:25,896 本当に問題があるのは 24 00:01:25,920 --> 00:01:28,450 他人のプライベートな写真を 25 00:01:28,450 --> 00:01:31,280 許可も得ずに 公開することです 26 00:01:31,300 --> 00:01:33,896 セクスティングについて 心配をするよりも 27 00:01:33,896 --> 00:01:38,680 私たちがすべきなのは デジタル情報の プライバシーについて考えることで 28 00:01:38,680 --> 00:01:41,080 その鍵になるのは「合意」です 29 00:01:41,680 --> 00:01:44,976 現在のところ 多くの人は セクスティングについて考えるとき 30 00:01:45,000 --> 00:01:48,200 合意の有無を まったく考慮していません 31 00:01:48,250 --> 00:01:53,200 現在 ティーンのセクスティングは 犯罪だとされているのをご存じですか? 32 00:01:53,400 --> 00:01:55,010 犯罪になる理由は 33 00:01:55,010 --> 00:01:59,620 18歳未満の裸の画像は 児童ポルノと見なされるためで 34 00:01:59,620 --> 00:02:03,576 たとえそれが自分で撮って 合意の上で渡されたものであっても 35 00:02:03,576 --> 00:02:05,320 関係ありません 36 00:02:05,800 --> 00:02:08,776 そのため法的に 非常に奇妙な状況が生じます 37 00:02:08,800 --> 00:02:13,336 アメリカのほとんどの州で 17歳の男女は合法的にセックスできますが 38 00:02:13,360 --> 00:02:15,710 その写真を撮ることは できないのです 39 00:02:16,560 --> 00:02:20,816 州によってはセクスティングのための 軽犯罪法を作ろうとしていますが 40 00:02:20,840 --> 00:02:23,856 同じ間違いを 繰り返しています 41 00:02:23,880 --> 00:02:28,000 合意の上でのセクスティングを 違法としているからです 42 00:02:28,520 --> 00:02:31,176 プライバシー侵害に 対処するために 43 00:02:31,176 --> 00:02:34,536 セクスティング自体を 禁止しようとするのは筋違いです 44 00:02:34,560 --> 00:02:37,486 それはデートレイプをなくすために 45 00:02:37,486 --> 00:02:41,720 デート自体を違法にしようと するようなものです 46 00:02:42,960 --> 00:02:48,556 ティーンの多くはセクスティングで逮捕されはしませんが 逮捕されているのがどんな人か分かりますか? 47 00:02:48,556 --> 00:02:53,390 相手の親に嫌われている ティーンです 48 00:02:53,390 --> 00:02:58,870 そしてその本当の理由は 階級意識や 人種差別や 同性愛嫌悪のためかも知れません 49 00:02:58,900 --> 00:03:01,736 もちろん検事の多くは 馬鹿じゃありませんから 50 00:03:01,760 --> 00:03:07,490 子供を児童ポルノで訴えたりは しませんが する人もいます 51 00:03:07,720 --> 00:03:11,350 ニューハンプシャー大学の 研究者らによると 52 00:03:11,350 --> 00:03:14,820 児童ポルノ所持で 逮捕されたうちの7%が 53 00:03:14,820 --> 00:03:20,400 合意の上でセクスティングしていた ティーンだったそうです 54 00:03:21,480 --> 00:03:24,016 児童ポルノは 重大な犯罪ですが 55 00:03:24,040 --> 00:03:28,260 ティーンのセクスティングは まったく別の話です 56 00:03:29,040 --> 00:03:30,660 親や教師というのも 57 00:03:30,660 --> 00:03:35,616 合意について考慮せずに セクスティングに反応しています 58 00:03:35,640 --> 00:03:40,180 彼らのメッセージはたいてい 「一切やめろ」です 59 00:03:40,200 --> 00:03:41,830 理解は出来ます 60 00:03:41,830 --> 00:03:47,330 深刻な法的リスクや プライバシー侵害の危険がありますから 61 00:03:47,330 --> 00:03:48,866 皆さんは10代の頃 62 00:03:48,866 --> 00:03:52,580 言い付けを何でも 良く守っていたことでしょう 63 00:03:53,240 --> 00:03:56,870 我が子に限ってセクスティングなんか するわけがないと 64 00:03:56,870 --> 00:04:00,566 それはそうです 皆さんの 天使のようなお子さんはしないでしょうとも 65 00:04:00,566 --> 00:04:03,536 16〜17歳でセクスティング しているのは 66 00:04:03,560 --> 00:04:06,080 33%だけですから 67 00:04:07,200 --> 00:04:11,816 でも大人になるまでには セクスティングするようになる可能性が高いです 68 00:04:11,840 --> 00:04:18,410 私の見てきたどの調査でも 18〜24歳の50%以上がセクスティングしています 69 00:04:18,630 --> 00:04:21,776 そしてほとんどの場合 悪いことは何も起こりません 70 00:04:21,800 --> 00:04:27,080 「でもセクスティングはやっぱり 危ないんじゃないの?」とよく聞かれます 71 00:04:27,080 --> 00:04:30,916 公園のベンチに財布を 置き忘れないようにするのと同じで 72 00:04:30,916 --> 00:04:34,510 そんなの盗まれるに 決まっているでしょうと 73 00:04:34,880 --> 00:04:36,336 私に言わせると 74 00:04:36,360 --> 00:04:40,296 セクスティングは彼氏の家に 財布を置き忘れるようなものです 75 00:04:40,320 --> 00:04:42,096 次の日に行くと 76 00:04:42,120 --> 00:04:44,980 財布のお金が全部 なくなっていたとしたら 77 00:04:45,000 --> 00:04:47,600 そんな男とはすぐ 別れるべきでしょう 78 00:04:47,600 --> 00:04:49,860 (笑) 79 00:04:51,360 --> 00:04:53,680 プライバシー侵害を防ぐために 80 00:04:53,720 --> 00:04:56,336 セクスティングを 犯罪化するのではなく 81 00:04:56,360 --> 00:04:59,656 個人のプライベートな 情報を流すときに 82 00:04:59,680 --> 00:05:03,830 合意を第一に考えるべきです 83 00:05:04,350 --> 00:05:08,736 新しいメディア技術はいつも プライバシーへの懸念を生んできました 84 00:05:08,760 --> 00:05:13,376 事実アメリカにおいて最初の プライバシーに関する議論は 85 00:05:13,400 --> 00:05:17,890 当時 比較的新しかった技術への 反応として起こりました 86 00:05:17,890 --> 00:05:21,010 1800年代末 人々が懸念を抱いたのは 87 00:05:21,010 --> 00:05:24,980 以前よりも ずっと 持ち運びやすくなったカメラと 88 00:05:24,980 --> 00:05:27,816 新聞のゴシップ欄でした 89 00:05:27,840 --> 00:05:31,530 自分の情報が カメラで写し取られ 90 00:05:31,530 --> 00:05:35,060 元の文脈を離れて 広められたりはしないかと 91 00:05:35,060 --> 00:05:37,066 聞いたことのある ような話ですよね? 92 00:05:37,066 --> 00:05:41,856 私たちがまさに今 懸念していることです ソーシャルメディアに カメラ搭載ドローン 93 00:05:41,856 --> 00:05:43,790 そしてもちろんセクスティング 94 00:05:43,920 --> 00:05:46,120 そういったテクノロジーに 対する恐怖は 95 00:05:46,120 --> 00:05:47,466 理にかなっています 96 00:05:47,466 --> 00:05:51,276 テクノロジーには 私たちの最低な面や振る舞いを 97 00:05:51,276 --> 00:05:54,070 引き出し増幅する 力がありますから 98 00:05:54,160 --> 00:05:56,536 しかし解決法があります 99 00:05:56,560 --> 00:06:00,370 危険な新技術というのは 以前にもありました 100 00:06:00,720 --> 00:06:04,496 1908年 T型フォードが発売され 101 00:06:04,520 --> 00:06:07,096 交通死亡事故が増加しました 102 00:06:07,120 --> 00:06:10,410 深刻な問題です なんて安全そうな車でしょう! 103 00:06:12,080 --> 00:06:16,056 最初の反応は ドライバーの行動を 変えようというものでした 104 00:06:16,080 --> 00:06:20,170 それで速度制限が設けられ 違反には罰金が科せられました 105 00:06:20,170 --> 00:06:22,096 しかしその後の 数十年の間に 106 00:06:22,120 --> 00:06:27,616 自動車の技術は中立的なんかじゃないと 気付くようになりました 107 00:06:27,640 --> 00:06:30,856 より安全な車を デザインすることもできるのです 108 00:06:30,880 --> 00:06:34,336 それで1920年代に 飛散防止フロントガラスができ 109 00:06:34,360 --> 00:06:36,856 1950年代にはシートベルトが 110 00:06:36,880 --> 00:06:40,380 1990年代にはエアバッグが 装備されるようになりました 111 00:06:40,400 --> 00:06:43,096 法・個人・業界の三者が歩み寄り 112 00:06:43,096 --> 00:06:46,950 時間を掛けて 新技術が引き起こす問題を 113 00:06:46,950 --> 00:06:51,416 解決していきました 114 00:06:51,440 --> 00:06:55,140 デジタルプライバシーについても 同じことができるはずです 115 00:06:55,160 --> 00:06:58,200 もちろん鍵になるのは合意です 116 00:06:58,360 --> 00:06:59,576 考え方としては 117 00:06:59,600 --> 00:07:03,416 誰かのプライベートな情報を 配布する場合には 118 00:07:03,440 --> 00:07:06,290 その人の許可を得る必要がある ということです 119 00:07:06,290 --> 00:07:09,030 この積極的合意という考え方は 120 00:07:09,030 --> 00:07:14,856 どんな性行為にも合意が必要という 反レイプ活動家から来ています 121 00:07:14,880 --> 00:07:19,380 他の様々な分野では 合意について とても高い基準があります 122 00:07:19,380 --> 00:07:21,336 手術を受ける場合を 考えてください 123 00:07:21,360 --> 00:07:25,626 自分の受ける医療について 患者が 確かに理解した上で合意していることを 124 00:07:25,626 --> 00:07:27,510 医者は確認する 必要があります 125 00:07:27,520 --> 00:07:31,216 iTunesの利用規約への合意なんかとは わけが違います 126 00:07:31,240 --> 00:07:35,136 みんなただスクロールして 何か知らずにOKしてると思いますが 127 00:07:35,136 --> 00:07:36,640 (笑) 128 00:07:37,160 --> 00:07:42,416 合意についてみんながもっとよく考えるなら もっと良いプライバシー保護法ができるはずです 129 00:07:42,440 --> 00:07:45,856 現在はそんなに 保護されてはいません 130 00:07:45,880 --> 00:07:49,300 元夫や元妻が酷い人間で 131 00:07:49,300 --> 00:07:53,696 自分の裸の写真をポルノサイトに アップロードされたとしたら 132 00:07:53,720 --> 00:07:56,936 そういった写真をすっかり 削除するのは大変です 133 00:07:56,960 --> 00:07:58,176 多くの州では 134 00:07:58,200 --> 00:08:02,016 その写真を自分で 撮っていた方が好都合です 135 00:08:02,040 --> 00:08:05,120 著作権を主張できますから 136 00:08:05,320 --> 00:08:07,376 (笑) 137 00:08:07,400 --> 00:08:10,866 現在のところ 個人であれ企業であれNSAであれ 138 00:08:10,866 --> 00:08:15,040 誰かにプライバシーを 侵害されたというとき 139 00:08:15,090 --> 00:08:18,016 法に訴えることはできますが 140 00:08:18,040 --> 00:08:20,176 うまくいかない可能性が 多分にあります 141 00:08:20,200 --> 00:08:24,976 多くの裁判所が デジタルプライバシーは 実現不能だと考えているからです 142 00:08:25,000 --> 00:08:28,800 だからプライバシー侵害での裁判を したがらないのです 143 00:08:29,200 --> 00:08:32,020 未だに絶えず聞かれるのは 144 00:08:32,020 --> 00:08:34,340 デジタル画像だと 145 00:08:34,340 --> 00:08:39,560 私的なものと公のものの区別が 曖昧になるのでは という話です 146 00:08:39,560 --> 00:08:40,936 そんなことありません! 147 00:08:40,960 --> 00:08:44,296 デジタルだと自動的に 公のものになるわけじゃありません 148 00:08:44,320 --> 00:08:46,216 そんな道理はありません 149 00:08:46,240 --> 00:08:49,736 ニューヨーク大学の法学者 ヘレン・ニッセンバウムが言っています 150 00:08:49,760 --> 00:08:52,506 あらゆる種類の プライベートな情報を保護する 151 00:08:52,506 --> 00:08:55,500 法・方針・規範があるが 152 00:08:55,500 --> 00:08:59,036 デジタルかどうかは 区別されていないと 153 00:08:59,036 --> 00:09:01,756 医療データはデジタル化 されていますが 154 00:09:01,756 --> 00:09:04,816 医者がそれを漏らす ことはできません 155 00:09:04,840 --> 00:09:09,296 個人のファイナンス情報は デジタルのデータベースに保存されていますが 156 00:09:09,320 --> 00:09:14,140 クレジットカード会社は人の購入履歴を 勝手にネットで公開したりできません 157 00:09:14,890 --> 00:09:20,596 より良い法律は 起きてしまった プライバシー侵害に対処することができますが 158 00:09:20,596 --> 00:09:23,100 もっと簡単なのは 159 00:09:23,100 --> 00:09:28,090 お互いのプライバシーを守るよう 個々人が変わることです 160 00:09:28,360 --> 00:09:31,356 プライバシーは その人自身の責任だと 161 00:09:31,356 --> 00:09:33,336 ずっと言われてきました 162 00:09:33,360 --> 00:09:37,616 プライバシー設定にいつも注意を払って 更新するようにとか 163 00:09:37,640 --> 00:09:43,270 世界中の人に見られて困るようなものは 共有してはいけないとか言われてきました 164 00:09:43,290 --> 00:09:44,616 そんなの変です 165 00:09:44,640 --> 00:09:47,616 デジタルメディアというのは 社会的な環境であり 166 00:09:47,640 --> 00:09:52,440 人々は信用している相手に対して 絶えず共有をしています 167 00:09:52,760 --> 00:09:55,736 プリンストン大学の研究者 ジャネット・ヴァーテッシは 168 00:09:55,760 --> 00:09:59,730 データやプライバシーというのは 単なる個人のものではなく 169 00:09:59,730 --> 00:10:02,426 個人間のものなのだ と言っています 170 00:10:02,426 --> 00:10:05,656 皆さんにできる 簡単なことは 171 00:10:05,680 --> 00:10:10,776 他の人の情報を共有する時には 本人の許可を得るということです 172 00:10:10,800 --> 00:10:15,336 誰かの写真をネットに上げようと思ったら 許可を得ましょう 173 00:10:15,360 --> 00:10:17,816 メールを転送しようと思ったら 174 00:10:17,840 --> 00:10:19,190 許可を得ましょう 175 00:10:19,190 --> 00:10:22,126 誰かの裸の自撮り写真を 共有したいと思ったら 176 00:10:22,126 --> 00:10:24,660 言うまでもなく 許可を得ましょう 177 00:10:25,560 --> 00:10:30,016 そういった個々人の変化は お互いのプライバシーを守る助けになりますが 178 00:10:30,040 --> 00:10:34,160 テクノロジー企業にも 協力してもらう必要があります 179 00:10:34,360 --> 00:10:38,856 そういった会社は プライバシーを守る動機が低いものです 180 00:10:38,880 --> 00:10:42,476 みんながあらゆるものを 可能な限り多くの人と共有することに 181 00:10:42,476 --> 00:10:45,050 彼らのビジネスモデルが 依存しているからです 182 00:10:45,080 --> 00:10:47,156 現在は 私が皆さんに 写真を送ったら 183 00:10:47,156 --> 00:10:50,136 皆さんはそれを 誰にでも転送できます 184 00:10:50,160 --> 00:10:54,416 でも転送して良いかどうかを 私が決められたとしたらどうでしょう? 185 00:10:54,440 --> 00:10:58,496 「この画像の送信は許可されていません」と 言えるとしたら? 186 00:10:58,520 --> 00:11:02,656 著作権を守るためであれば そういうことは よく行われています 187 00:11:02,680 --> 00:11:07,456 電子書籍を買っても それをいろんな人に送ったりはできません 188 00:11:07,480 --> 00:11:10,340 携帯でも同じように したらどうでしょう? 189 00:11:10,960 --> 00:11:14,290 私たちにできることは デバイスやプラットフォームに 190 00:11:14,290 --> 00:11:19,496 そういう保護を標準で付けるよう テクノロジー企業に求めることです 191 00:11:19,520 --> 00:11:22,936 車だって ボディカラーは 好きに選べても 192 00:11:22,960 --> 00:11:26,030 エアバッグは常に標準品です 193 00:11:28,080 --> 00:11:31,896 デジタルプライバシーと合意について ちゃんと考えないなら 194 00:11:31,920 --> 00:11:34,990 大変な結果を招くことに なるかもしれません 195 00:11:35,360 --> 00:11:37,616 オハイオ州に ある十代の女の子がいました 196 00:11:37,640 --> 00:11:41,000 彼女の名を仮に ジェニファーとしておきましょう 197 00:11:41,030 --> 00:11:44,696 彼女は自分の裸の画像を 高校のボーイフレンドにあげました 198 00:11:44,720 --> 00:11:46,840 彼を信用できると思ったんです 199 00:11:47,720 --> 00:11:49,656 不幸にも彼女は裏切られ 200 00:11:49,680 --> 00:11:52,656 彼はその写真を 学校のみんなに送りました 201 00:11:52,680 --> 00:11:56,690 ジェニファーは さらし者にされて 恥ずかしい思いをし 202 00:11:56,710 --> 00:12:00,880 クラスメートは同情するどころか 彼女をいじめました 203 00:12:00,880 --> 00:12:03,086 彼女をあばずれだの 売女だのと罵り 204 00:12:03,086 --> 00:12:05,310 彼女の人生を みじめなものにしました 205 00:12:05,310 --> 00:12:09,500 ジェニファーは学校を休みがちになり 成績が落ちました 206 00:12:09,520 --> 00:12:13,850 最終的に彼女は 自らの命を絶つことを選びました 207 00:12:14,720 --> 00:12:17,416 ジェニファーは何も悪いことを したわけではありません 208 00:12:17,440 --> 00:12:19,696 ただ信用できると思った人に 209 00:12:19,720 --> 00:12:22,536 裸の写真を送ったというだけです 210 00:12:22,560 --> 00:12:24,620 それなのに法律では 211 00:12:24,620 --> 00:12:29,650 彼女が児童ポルノに等しい 大変な罪を犯したことにされてしまいます 212 00:12:29,920 --> 00:12:31,416 我々の性の規範では 213 00:12:31,440 --> 00:12:34,420 自分のヌード写真を撮ることは 214 00:12:34,420 --> 00:12:38,160 甚だしい恥ずべき行為だと されているんです 215 00:12:38,400 --> 00:12:42,616 デジタルメディアでプライバシーを 守ることは不可能だと考えるのは 216 00:12:42,640 --> 00:12:48,610 彼女のボーイフレンドの 極めて悪い行為を忘れ 許すことになります 217 00:12:49,200 --> 00:12:54,680 人々はいまだプライバシーを侵害された 被害者たちに こう言っています 218 00:12:54,680 --> 00:12:56,486 「いったい何を考えているんだ? 219 00:12:56,486 --> 00:12:58,960 そんな写真を送る方が悪い」 220 00:12:59,640 --> 00:13:04,070 どう言うべきか迷っているなら こう考えてみてください 221 00:13:04,110 --> 00:13:08,000 スキーで脚を折った友達に ばったり出会ったとしましょう 222 00:13:08,240 --> 00:13:12,816 何か楽しいことをやろうとリスクを冒し まずい結果になったわけです 223 00:13:12,840 --> 00:13:14,620 でも皆さんはそういう人に 224 00:13:14,620 --> 00:13:18,940 「スキーなんかに行くのが悪い」 などと言うイヤな奴ではないでしょう 225 00:13:20,080 --> 00:13:22,216 合意について よく考えたなら 226 00:13:22,240 --> 00:13:25,496 プライバシー侵害の被害者は 同情すべきであって 227 00:13:25,520 --> 00:13:28,926 犯罪者扱いしたり 辱めたり 嫌がらせしたり 228 00:13:28,926 --> 00:13:32,170 罰したりすべきではないと 分かるはずです 229 00:13:32,440 --> 00:13:36,936 被害者を支え プライバシー侵害をある程度防ぐことが 230 00:13:36,960 --> 00:13:41,810 お話ししたような法的・個人的・技術的な 変化によって可能です 231 00:13:41,840 --> 00:13:47,656 問題なのはセクスティングではなく デジタルプライバシーだからです 232 00:13:47,680 --> 00:13:50,650 そして解決法の1つは 合意を得ることです 233 00:13:50,680 --> 00:13:55,256 だから今度プライバシー侵害の 被害者に会うことがあれば 234 00:13:55,280 --> 00:13:58,016 その人を非難するのではなく 235 00:13:58,040 --> 00:14:01,456 デジタルプライバシーに 対する考えを変え 236 00:14:01,480 --> 00:14:04,690 思いやりの気持ちをもって あたりましょう 237 00:14:04,690 --> 00:14:05,896 ありがとうございました 238 00:14:05,920 --> 00:14:12,056 (拍手)