0:00:18.524,0:00:23.564 人々は昔から性的な会話に[br]メディアを使ってきました 0:00:23.564,0:00:27.345 ラブレター テレホンセックス [br]きわどいポラロイド写真 0:00:27.345,0:00:33.375 電報で知り合った男と駆け落ちした[br]少女の話さえあります 0:00:33.375,0:00:35.256 1886年のことです 0:00:35.256,0:00:36.556 (笑) 0:00:36.556,0:00:39.306 現在はセクスティングがあり 0:00:39.306,0:00:41.697 私はそのエキスパートです 0:00:41.697,0:00:44.007 セクスティングする[br]エキスパートじゃありませんよ 0:00:44.007,0:00:44.856 (笑) 0:00:44.856,0:00:47.757 でもこれが何を意味するかは[br]知っています 0:00:47.757,0:00:49.177 皆さんもご存じでしょうけど 0:00:49.177,0:00:50.677 [これはペニスの意] 0:00:50.677,0:00:52.306 (笑) 0:00:52.306,0:00:55.127 セクスティングが[br]メディアに注目され出した 0:00:55.127,0:00:58.487 2008年から [br]私は研究するようになり 0:00:58.487,0:01:01.680 セクスティングに関わる[br]モラルの混乱について本も書きました 0:01:01.680,0:01:03.289 それでわかったのは 0:01:03.289,0:01:06.459 多くの人が的外れなことを[br]心配していることです 0:01:06.459,0:01:10.659 みんなセクスティング自体を[br]なくそうとしています 0:01:10.659,0:01:12.209 でも考えてほしいんです 0:01:12.209,0:01:17.149 完全な合意の上でなら セクスティングの[br]何が問題だというのでしょう? 0:01:17.149,0:01:21.220 世の中 変なものが[br]好きな人もいます 0:01:21.220,0:01:23.756 ブルーチーズとか パクチーとか 0:01:23.756,0:01:26.561 (笑) 0:01:26.561,0:01:30.762 楽しいことの例に漏れず [br]セクスティングにはリスクがあります 0:01:30.762,0:01:31.772 でも… 0:01:31.772,0:01:32.421 (笑) 0:01:32.421,0:01:37.352 受け取りたくない人に[br]きわどい写真を送ったりしない限りは 0:01:37.352,0:01:39.131 害はありません 0:01:39.131,0:01:41.892 本当に問題があるのは 0:01:41.892,0:01:46.873 他人のプライベートな写真を[br]許可も得ずに公開することです 0:01:47.283,0:01:49.702 セクスティングについて[br]心配をするよりも 0:01:49.702,0:01:54.803 私たちがすべきなのは デジタル情報の[br]プライバシーについて考えることで 0:01:54.803,0:01:57.114 その鍵になるのは「合意」です 0:01:57.544,0:02:00.874 現在のところ 多くの人は[br]セクスティングについて考えるとき 0:02:00.874,0:02:04.325 合意の有無を[br]まったく考慮していません 0:02:04.325,0:02:08.665 現在 ティーンのセクスティングは[br]犯罪だとされているのをご存じですか? 0:02:09.295,0:02:11.085 犯罪になる理由は 0:02:11.085,0:02:15.716 18歳未満の裸の画像は[br]児童ポルノと見なされるためで 0:02:15.716,0:02:19.385 たとえそれが自分で撮って[br]合意の上で渡されたものであっても 0:02:19.385,0:02:21.716 関係ありません 0:02:21.716,0:02:24.716 そのため法的に[br]非常に奇妙な状況が生じます 0:02:24.716,0:02:29.226 アメリカのほとんどの州で [br]17歳の男女は合法的にセックスできますが 0:02:29.226,0:02:31.667 その写真を撮ることは[br]できないのです 0:02:32.587,0:02:36.678 州によってはセクスティングのための[br]軽犯罪法を作ろうとしていますが 0:02:36.678,0:02:39.778 同じ間違いを[br]繰り返しています 0:02:39.778,0:02:43.858 合意の上でのセクスティングを[br]違法としているからです 0:02:44.418,0:02:47.718 プライバシー侵害に[br]対処するために 0:02:47.718,0:02:50.379 セクスティング自体を[br]禁止しようとするのは筋違いです 0:02:50.379,0:02:52.869 それはデートレイプをなくすために 0:02:52.869,0:02:57.820 デート自体を違法にしようと[br]するようなものです 0:02:59.010,0:03:04.450 ティーンの多くはセクスティングで逮捕されはしませんが [br]逮捕されているのがどんな人か分かりますか? 0:03:04.450,0:03:09.362 相手の親に嫌われている[br]ティーンです 0:03:09.362,0:03:14.791 そしてその本当の理由は 階級意識や 人種差別や [br]同性愛嫌悪のためかも知れません 0:03:14.825,0:03:17.686 もちろん検事の多くは[br]馬鹿じゃありませんから 0:03:17.686,0:03:21.865 子供を児童ポルノで[br]訴えたりはしませんが 0:03:21.865,0:03:23.605 する人もいます 0:03:23.605,0:03:27.165 ニューハンプシャー大学の[br]研究者らによると 0:03:27.165,0:03:31.857 児童ポルノ所持で[br]逮捕されたうちの7%が 0:03:31.857,0:03:36.397 合意の上でセクスティングしていた[br]ティーンだったそうです 0:03:37.417,0:03:39.958 児童ポルノは[br]重大な犯罪ですが 0:03:39.958,0:03:44.068 ティーンのセクスティングは[br]まったく別の話です 0:03:44.978,0:03:47.328 親や教師というのも 0:03:47.328,0:03:51.419 合意について考慮せずに[br]セクスティングに反応しています 0:03:51.419,0:03:56.069 彼らのメッセージはたいてい[br]「一切やめろ」です 0:03:56.069,0:03:57.639 理解は出来ます 0:03:57.639,0:04:03.309 深刻な法的リスクや[br]プライバシー侵害の危険がありますから 0:04:03.309,0:04:04.940 皆さんは10代の頃 0:04:04.940,0:04:08.676 言い付けを何でも[br]良く守っていたことでしょう 0:04:09.366,0:04:12.841 我が子に限ってセクスティングなんか[br]するわけがないと 0:04:12.841,0:04:16.527 それはそうです 皆さんの[br]天使のようなお子さんはしないでしょうとも 0:04:16.527,0:04:22.298 16〜17歳でセクスティング[br]しているのは33%だけですから 0:04:23.058,0:04:25.438 でも大人になるまでには [br] 0:04:25.438,0:04:27.651 セクスティングするようになる[br]可能性が高いです 0:04:27.651,0:04:34.103 私の見てきたどの調査でも [br]18〜24歳の50%以上がセクスティングしています 0:04:34.603,0:04:37.803 そしてほとんどの場合 [br]悪いことは何も起こりません 0:04:38.273,0:04:42.113 「でもセクスティングはやっぱり[br]危ないんじゃないの?」と 0:04:42.113,0:04:43.703 よく聞かれます 0:04:43.703,0:04:47.323 公園のベンチに財布を[br]置き忘れないようにするのと同じで 0:04:47.323,0:04:51.394 そんなの盗まれるに[br]決まっているでしょうと 0:04:51.394,0:04:52.775 私に言わせると 0:04:52.775,0:04:56.675 セクスティングは彼氏の家に[br]財布を置き忘れるようなものです 0:04:56.675,0:05:01.475 次の日に行くと財布のお金が全部[br]なくなっていたとしたら 0:05:01.475,0:05:04.276 そんな男とはすぐ[br]別れるべきでしょう 0:05:04.276,0:05:05.745 (笑) 0:05:07.845,0:05:12.746 プライバシー侵害を防ぐために[br]セクスティングを犯罪化するのではなく 0:05:12.746,0:05:16.057 個人のプライベートな[br]情報を流すときに 0:05:16.057,0:05:20.498 合意を第一に考えるべきです 0:05:20.868,0:05:25.188 新しいメディア技術はいつも[br]プライバシーへの懸念を生んできました 0:05:25.188,0:05:29.758 事実アメリカにおいて最初の[br]プライバシーに関する議論は 0:05:29.758,0:05:34.249 当時 比較的新しかった技術への[br]反応として起こりました 0:05:34.249,0:05:37.509 1800年代末[br]人々が懸念を抱いたのは 0:05:37.509,0:05:41.730 以前よりも ずっと[br]持ち運びやすくなったカメラと 0:05:41.730,0:05:44.130 新聞のゴシップ欄でした 0:05:44.130,0:05:48.030 自分の情報が[br]カメラで写し取られ 0:05:48.030,0:05:51.509 元の文脈を離れて[br]広められたりはしないかと 0:05:51.509,0:05:53.521 聞いたことのある[br]ような話ですよね? 0:05:53.521,0:05:58.200 私たちがまさに今懸念していることです[br]ソーシャルメディアに カメラ搭載ドローン 0:05:58.200,0:06:00.321 そしてもちろん[br]セクスティング 0:06:00.321,0:06:03.652 そういったテクノロジーに[br]対する恐怖は理にかなっています 0:06:03.652,0:06:06.812 テクノロジーには[br]私たちの最低な面や振る舞いを 0:06:06.812,0:06:10.563 引き出し増幅する[br]力がありますから 0:06:10.563,0:06:12.893 しかし解決法があります 0:06:12.893,0:06:17.193 危険な新技術というのは[br]以前にもありました 0:06:17.193,0:06:21.023 1908年 T型フォードが発売され 0:06:21.023,0:06:23.822 交通死亡事故が増加しました 0:06:23.822,0:06:27.113 深刻な問題です[br]なんて安全そうな車でしょう! 0:06:27.113,0:06:28.474 (笑) 0:06:29.234,0:06:33.245 最初の反応は ドライバーの行動を[br]変えようというものでした 0:06:33.245,0:06:37.285 それで速度制限が設けられ [br]違反には罰金が科せられました 0:06:37.285,0:06:40.765 しかしその後の[br]数十年の間に 0:06:40.765,0:06:44.716 自動車の技術は中立的なんかじゃないと[br]気付くようになりました 0:06:44.716,0:06:47.966 より安全な車を[br]デザインすることもできるのです 0:06:47.966,0:06:51.466 それで1920年代に[br]飛散防止フロントガラスができ 0:06:51.466,0:06:57.446 1950年代にはシートベルトが[br]90年代にはエアバッグが装備されるようになりました 0:06:58.256,0:07:03.307 法・個人・業界の三者が歩み寄り 0:07:03.307,0:07:09.348 時間を掛けて新技術が引き起こす[br]問題を解決していきました 0:07:09.348,0:07:12.918 デジタルプライバシーについても[br]同じことができるはずです 0:07:12.918,0:07:16.218 もちろん鍵になるのは合意です 0:07:16.218,0:07:17.558 考え方としては 0:07:17.558,0:07:21.239 誰かのプライベートな情報を[br]配布する場合には 0:07:21.239,0:07:24.069 その人の許可を得る必要がある[br]ということです 0:07:24.069,0:07:27.280 この積極的合意という考え方は 0:07:27.280,0:07:32.760 どんな性行為にも合意が必要という [br]反レイプ活動家から来ています 0:07:32.760,0:07:37.327 他の様々な分野では 合意について[br]とても高い基準があります 0:07:37.327,0:07:39.127 手術を受ける場合を[br]考えてください 0:07:39.127,0:07:43.069 自分の受ける医療について 患者が[br]確かに理解した上で合意していることを 0:07:43.069,0:07:45.359 医者は確認する[br]必要があります 0:07:45.359,0:07:49.098 iTunesの利用規約への合意なんかとは[br]わけが違います 0:07:49.098,0:07:53.009 みんなただスクロールして [br]何か知らずにOKしてると思いますが 0:07:53.009,0:07:54.460 (笑) 0:07:55.079,0:08:00.260 合意についてみんながもっとよく考えるなら [br]もっと良いプライバシー保護法ができるはずです 0:08:00.260,0:08:03.681 現在はそんなに[br]保護されてはいません 0:08:03.681,0:08:07.381 元夫や元妻が酷い人間で 0:08:07.381,0:08:11.531 自分の裸の写真をポルノサイトに[br]アップロードされたとしたら 0:08:11.531,0:08:14.750 そういった写真をすっかり[br]削除するのは大変です 0:08:14.750,0:08:16.022 多くの州では 0:08:16.022,0:08:19.912 その写真を自分で[br]撮っていた方が好都合です 0:08:19.912,0:08:23.122 著作権を主張できますから 0:08:23.472,0:08:24.760 (笑) 0:08:25.353,0:08:28.283 現在のところ [br]個人であれ企業であれNSAであれ 0:08:28.283,0:08:32.644 誰かにプライバシーを[br]侵害されたというとき 0:08:33.154,0:08:38.044 法に訴えることはできますが[br]うまくいかない可能性が多分にあります 0:08:38.044,0:08:42.904 多くの裁判所が デジタルプライバシーは[br]実現不能だと考えているからです 0:08:42.904,0:08:46.694 だからプライバシー侵害での裁判を[br]したがらないのです 0:08:47.154,0:08:50.055 未だに絶えず聞かれるのは 0:08:50.055,0:08:54.166 デジタル画像だと[br]私的なものと公のものの区別が 0:08:54.166,0:08:57.556 曖昧になるのでは という話です 0:08:57.556,0:08:58.936 そんなことありません! 0:08:58.936,0:09:02.236 デジタルだと自動的に[br]公のものになるわけじゃありません 0:09:02.236,0:09:04.086 そんな道理はありません 0:09:04.086,0:09:07.597 ニューヨーク大学の法学者[br]ヘレン・ニッセンバウムが言っています 0:09:07.597,0:09:10.326 あらゆる種類の[br]プライベートな情報を保護する 0:09:10.326,0:09:13.467 法・方針・規範があるが 0:09:13.467,0:09:16.846 デジタルかどうかは[br]区別されていないと 0:09:16.846,0:09:19.628 医療データはデジタル化[br]されていますが 0:09:19.628,0:09:22.748 医者がそれを漏らす[br]ことはできません 0:09:22.748,0:09:27.098 個人のファイナンス情報は[br]デジタルのデータベースに保存されていますが 0:09:27.098,0:09:32.039 クレジットカード会社は人の購入履歴を[br]勝手にネットで公開したりできません 0:09:32.879,0:09:38.010 より良い法律は 起きてしまった[br]プライバシー侵害に対処することができますが 0:09:38.420,0:09:40.999 もっと簡単なのは 0:09:40.999,0:09:45.930 お互いのプライバシーを守るよう[br]個々人が変わることです 0:09:46.250,0:09:51.271 プライバシーは[br]その人自身の責任だとずっと言われてきました 0:09:51.271,0:09:55.431 プライバシー設定にいつも注意を払って[br]更新するようにとか 0:09:55.431,0:10:00.902 世界中の人に見られて困るようなものは[br]共有してはいけないとか言われてきました 0:10:01.352,0:10:02.522 そんなの変です 0:10:02.522,0:10:05.582 デジタルメディアというのは[br]社会的な環境であり 0:10:05.582,0:10:10.413 人々は信用している相手に対して[br]絶えず共有をしています 0:10:10.723,0:10:13.613 プリンストン大学の研究者[br]ジャネット・ヴァーテッシは 0:10:13.613,0:10:17.523 データやプライバシーというのは[br]単なる個人のものではなく 0:10:17.523,0:10:20.284 個人間のものなのだ[br]と言っています 0:10:20.284,0:10:23.564 皆さんにできる[br]簡単なことは 0:10:23.564,0:10:28.654 他の人の情報を共有する時には[br]本人の許可を得るということです 0:10:28.654,0:10:33.335 誰かの写真をネットに上げようと思ったら [br]許可を得ましょう 0:10:33.335,0:10:37.076 メールを転送しようと思ったら[br]許可を得ましょう 0:10:37.076,0:10:39.776 誰かの裸の自撮り写真を[br]共有したいと思ったら 0:10:39.776,0:10:42.466 言うまでもなく[br]許可を得ましょう 0:10:43.386,0:10:47.826 そういった個々人の変化は [br]お互いのプライバシーを守る助けになりますが 0:10:47.826,0:10:52.246 テクノロジー企業にも[br]協力してもらう必要があります 0:10:52.246,0:10:56.697 そういった会社は[br]プライバシーを守る動機が低いものです 0:10:56.697,0:11:00.139 みんながあらゆるものを[br]可能な限り多くの人と共有することに 0:11:00.139,0:11:02.918 彼らのビジネスモデルが[br]依存しているからです 0:11:02.918,0:11:05.268 現在は 私が皆さんに[br]写真を送ったら 0:11:05.268,0:11:08.008 皆さんはそれを[br]誰にでも転送できます 0:11:08.008,0:11:12.319 でも転送して良いかどうかを[br]私が決められたとしたらどうでしょう? 0:11:12.319,0:11:16.379 「この画像の送信は許可されていません」と[br]言えるとしたら? 0:11:16.379,0:11:20.600 著作権を守るためであれば [br]そういうことは よく行われています 0:11:20.600,0:11:25.300 電子書籍を買っても [br]それをいろんな人に送ったりはできません 0:11:25.300,0:11:28.371 携帯でも同じように[br]したらどうでしょう? 0:11:29.151,0:11:30.271 私たちにできることは [br] 0:11:30.271,0:11:35.101 デバイスやプラットフォームに[br]そういう保護を標準で付けるよう 0:11:35.101,0:11:37.651 テクノロジー企業に求めることです 0:11:37.651,0:11:41.061 車だって ボディカラーは[br]好きに選べても 0:11:41.061,0:11:44.342 エアバッグは常に標準品です 0:11:45.432,0:11:49.223 デジタルプライバシーと合意について[br]ちゃんと考えないなら 0:11:49.223,0:11:52.053 大変な結果を招くことに[br]なるかもしれません 0:11:52.573,0:11:55.003 オハイオ州に[br]ある十代の女の子がいました 0:11:55.003,0:11:58.509 彼女の名を仮に[br]ジェニファーとしておきましょう 0:11:58.509,0:12:02.143 彼女は自分の裸の画像を[br]高校のボーイフレンドにあげました 0:12:02.143,0:12:04.040 彼を信用できると思ったんです 0:12:05.080,0:12:10.034 不幸にも彼女は裏切られ[br]彼はその写真を学校のみんなに送りました 0:12:10.034,0:12:14.064 ジェニファーは さらし者にされて[br]恥ずかしい思いをし 0:12:14.064,0:12:18.205 クラスメートは同情するどころか[br]彼女をいじめました 0:12:18.205,0:12:22.626 彼女をあばずれだの売女だのと罵り[br]彼女の人生をみじめなものにしました 0:12:22.626,0:12:26.795 ジェニファーは学校を休みがちになり [br]成績が落ちました 0:12:26.795,0:12:31.137 最終的に彼女は[br]自らの命を絶つことを選びました 0:12:32.067,0:12:34.697 ジェニファーは何も悪いことを[br]したわけではありません 0:12:34.697,0:12:37.127 ただ信用できると思った人に 0:12:37.127,0:12:39.818 裸の写真を送ったというだけです 0:12:39.818,0:12:42.108 それなのに法律では 0:12:42.108,0:12:47.317 彼女が児童ポルノに等しい[br]大変な罪を犯したことにされてしまいます 0:12:47.317,0:12:48.888 我々の性の規範では 0:12:48.888,0:12:52.068 自分のヌード写真を撮ることは 0:12:52.068,0:12:55.779 甚だしい恥ずべき行為だと[br]されているんです 0:12:55.779,0:12:59.860 デジタルメディアでプライバシーを[br]守ることは不可能だと考えるのは 0:12:59.860,0:13:05.950 彼女のボーイフレンドの[br]極めて悪い行為を忘れ 許すことになります 0:13:06.420,0:13:12.181 人々はいまだプライバシーを侵害された[br]被害者たちに こう言っています 0:13:12.181,0:13:13.930 「いったい何を考えているんだ? 0:13:13.930,0:13:16.390 そんな写真を送る方が悪い」 0:13:16.950,0:13:21.552 どう言うべきか迷っているなら [br]こう考えてみてください 0:13:21.552,0:13:25.442 スキーで脚を折った友達に[br]ばったり出会ったとしましょう 0:13:25.442,0:13:30.102 何か楽しいことをやろうとリスクを冒し [br]まずい結果になったわけです 0:13:30.102,0:13:32.243 でも皆さんはそういう人に 0:13:32.243,0:13:35.943 「スキーなんかに行くのが悪い」[br]などと言うイヤな奴ではないでしょう 0:13:37.343,0:13:39.563 合意について[br]よく考えたなら 0:13:39.563,0:13:44.594 プライバシー侵害の被害者は[br]同情すべきであって 0:13:44.594,0:13:49.784 犯罪者扱いしたり 辱めたり 嫌がらせしたり[br]罰したりすべきではないと分かるはずです 0:13:49.784,0:13:54.335 被害者を支え [br]プライバシー侵害をある程度防ぐことが 0:13:54.335,0:13:59.145 お話ししたような法的・個人的・技術的な[br]変化によって可能です 0:13:59.145,0:14:04.935 問題なのはセクスティングではなく [br]デジタルプライバシーだからです 0:14:04.935,0:14:07.876 そして解決法の1つは[br]合意を得ることです 0:14:07.876,0:14:12.637 だから今度プライバシー侵害の[br]被害者に会うことがあれば 0:14:12.637,0:14:15.346 その人を非難するのではなく 0:14:15.346,0:14:18.807 デジタルプライバシーに[br]対する考えを変え 0:14:18.807,0:14:22.027 思いやりの気持ちをもって[br]あたりましょう 0:14:22.027,0:14:23.247 ありがとうございました 0:14:23.247,0:14:25.697 (拍手)