0:00:00.720,0:00:05.000 人々は昔から性的な会話に[br]メディアを使ってきました 0:00:05.600,0:00:09.040 ラブレター テレホンセックス [br]きわどいポラロイド写真 0:00:09.480,0:00:15.420 電報で知り合った男と駆け落ちした[br]少女の話さえあります 0:00:15.420,0:00:17.500 1886年のことです 0:00:18.560,0:00:23.560 現在はセクスティングがあり [br]私はそのエキスパートです 0:00:23.560,0:00:26.430 セクスティングする[br]エキスパートじゃありませんよ 0:00:26.650,0:00:31.136 でもこれが何を意味するかは知っています[br]皆さんもご存じでしょうけど 0:00:31.136,0:00:32.375 [これはペニスの意] 0:00:32.400,0:00:34.760 (笑) 0:00:36.360,0:00:42.440 セクスティングがメディアに注目され出した[br]2008年から 私は研究するようになり 0:00:42.440,0:00:45.816 セクスティングに関わる[br]モラルの混乱について本も書きました 0:00:45.816,0:00:47.336 それでわかったのは 0:00:47.360,0:00:50.576 多くの人が的外れなことを[br]心配していることです 0:00:50.600,0:00:54.776 みんなセクスティング自体を[br]なくそうとしています 0:00:54.800,0:00:56.336 でも考えてほしいんです 0:00:56.360,0:01:01.216 完全な合意の上でなら セクスティングの[br]何が問題だというのでしょう? 0:01:01.240,0:01:05.256 世の中 変なものが[br]好きな人もいます 0:01:05.280,0:01:07.576 ブルーチーズとか パクチーとか 0:01:07.600,0:01:09.240 (笑) 0:01:10.600,0:01:14.736 楽しいことの例に漏れず [br]セクスティングにはリスクがあります 0:01:14.760,0:01:21.456 でも 受け取りたくない人に[br]きわどい写真を送ったりしない限りは 0:01:21.480,0:01:23.256 害はありません 0:01:23.280,0:01:25.896 本当に問題があるのは 0:01:25.920,0:01:28.450 他人のプライベートな写真を 0:01:28.450,0:01:31.280 許可も得ずに[br]公開することです 0:01:31.300,0:01:33.896 セクスティングについて[br]心配をするよりも 0:01:33.896,0:01:38.680 私たちがすべきなのは デジタル情報の[br]プライバシーについて考えることで 0:01:38.680,0:01:41.080 その鍵になるのは「合意」です 0:01:41.680,0:01:44.976 現在のところ 多くの人は[br]セクスティングについて考えるとき 0:01:45.000,0:01:48.200 合意の有無を[br]まったく考慮していません 0:01:48.250,0:01:53.200 現在 ティーンのセクスティングは[br]犯罪だとされているのをご存じですか? 0:01:53.400,0:01:55.010 犯罪になる理由は 0:01:55.010,0:01:59.620 18歳未満の裸の画像は[br]児童ポルノと見なされるためで 0:01:59.620,0:02:03.576 たとえそれが自分で撮って[br]合意の上で渡されたものであっても 0:02:03.576,0:02:05.320 関係ありません 0:02:05.800,0:02:08.776 そのため法的に[br]非常に奇妙な状況が生じます 0:02:08.800,0:02:13.336 アメリカのほとんどの州で [br]17歳の男女は合法的にセックスできますが 0:02:13.360,0:02:15.710 その写真を撮ることは[br]できないのです 0:02:16.560,0:02:20.816 州によってはセクスティングのための[br]軽犯罪法を作ろうとしていますが 0:02:20.840,0:02:23.856 同じ間違いを[br]繰り返しています 0:02:23.880,0:02:28.000 合意の上でのセクスティングを[br]違法としているからです 0:02:28.520,0:02:31.176 プライバシー侵害に[br]対処するために 0:02:31.176,0:02:34.536 セクスティング自体を[br]禁止しようとするのは筋違いです 0:02:34.560,0:02:37.486 それはデートレイプをなくすために 0:02:37.486,0:02:41.720 デート自体を違法にしようと[br]するようなものです 0:02:42.960,0:02:48.556 ティーンの多くはセクスティングで逮捕されはしませんが [br]逮捕されているのがどんな人か分かりますか? 0:02:48.556,0:02:53.390 相手の親に嫌われている[br]ティーンです 0:02:53.390,0:02:58.870 そしてその本当の理由は 階級意識や 人種差別や [br]同性愛嫌悪のためかも知れません 0:02:58.900,0:03:01.736 もちろん検事の多くは[br]馬鹿じゃありませんから 0:03:01.760,0:03:07.490 子供を児童ポルノで訴えたりは[br]しませんが する人もいます 0:03:07.720,0:03:11.350 ニューハンプシャー大学の[br]研究者らによると 0:03:11.350,0:03:14.820 児童ポルノ所持で[br]逮捕されたうちの7%が 0:03:14.820,0:03:20.400 合意の上でセクスティングしていた[br]ティーンだったそうです 0:03:21.480,0:03:24.016 児童ポルノは[br]重大な犯罪ですが 0:03:24.040,0:03:28.260 ティーンのセクスティングは[br]まったく別の話です 0:03:29.040,0:03:30.660 親や教師というのも 0:03:30.660,0:03:35.616 合意について考慮せずに[br]セクスティングに反応しています 0:03:35.640,0:03:40.180 彼らのメッセージはたいてい[br]「一切やめろ」です 0:03:40.200,0:03:41.830 理解は出来ます 0:03:41.830,0:03:47.330 深刻な法的リスクや[br]プライバシー侵害の危険がありますから 0:03:47.330,0:03:48.866 皆さんは10代の頃 0:03:48.866,0:03:52.580 言い付けを何でも[br]良く守っていたことでしょう 0:03:53.240,0:03:56.870 我が子に限ってセクスティングなんか[br]するわけがないと 0:03:56.870,0:04:00.566 それはそうです 皆さんの[br]天使のようなお子さんはしないでしょうとも 0:04:00.566,0:04:03.536 16〜17歳でセクスティング[br]しているのは 0:04:03.560,0:04:06.080 33%だけですから 0:04:07.200,0:04:11.816 でも大人になるまでには [br]セクスティングするようになる可能性が高いです 0:04:11.840,0:04:18.410 私の見てきたどの調査でも [br]18〜24歳の50%以上がセクスティングしています 0:04:18.630,0:04:21.776 そしてほとんどの場合 [br]悪いことは何も起こりません 0:04:21.800,0:04:27.080 「でもセクスティングはやっぱり[br]危ないんじゃないの?」とよく聞かれます 0:04:27.080,0:04:30.916 公園のベンチに財布を[br]置き忘れないようにするのと同じで 0:04:30.916,0:04:34.510 そんなの盗まれるに[br]決まっているでしょうと 0:04:34.880,0:04:36.336 私に言わせると 0:04:36.360,0:04:40.296 セクスティングは彼氏の家に[br]財布を置き忘れるようなものです 0:04:40.320,0:04:42.096 次の日に行くと 0:04:42.120,0:04:44.980 財布のお金が全部[br]なくなっていたとしたら 0:04:45.000,0:04:47.600 そんな男とはすぐ[br]別れるべきでしょう 0:04:47.600,0:04:49.860 (笑) 0:04:51.360,0:04:53.680 プライバシー侵害を防ぐために 0:04:53.720,0:04:56.336 セクスティングを[br]犯罪化するのではなく 0:04:56.360,0:04:59.656 個人のプライベートな[br]情報を流すときに 0:04:59.680,0:05:03.830 合意を第一に考えるべきです 0:05:04.350,0:05:08.736 新しいメディア技術はいつも[br]プライバシーへの懸念を生んできました 0:05:08.760,0:05:13.376 事実アメリカにおいて最初の[br]プライバシーに関する議論は 0:05:13.400,0:05:17.890 当時 比較的新しかった技術への[br]反応として起こりました 0:05:17.890,0:05:21.010 1800年代末[br]人々が懸念を抱いたのは 0:05:21.010,0:05:24.980 以前よりも ずっと[br]持ち運びやすくなったカメラと 0:05:24.980,0:05:27.816 新聞のゴシップ欄でした 0:05:27.840,0:05:31.530 自分の情報が[br]カメラで写し取られ 0:05:31.530,0:05:35.060 元の文脈を離れて[br]広められたりはしないかと 0:05:35.060,0:05:37.066 聞いたことのある[br]ような話ですよね? 0:05:37.066,0:05:41.856 私たちがまさに今 懸念していることです[br]ソーシャルメディアに カメラ搭載ドローン 0:05:41.856,0:05:43.790 そしてもちろんセクスティング 0:05:43.920,0:05:46.120 そういったテクノロジーに[br]対する恐怖は 0:05:46.120,0:05:47.466 理にかなっています 0:05:47.466,0:05:51.276 テクノロジーには[br]私たちの最低な面や振る舞いを 0:05:51.276,0:05:54.070 引き出し増幅する[br]力がありますから 0:05:54.160,0:05:56.536 しかし解決法があります 0:05:56.560,0:06:00.370 危険な新技術というのは[br]以前にもありました 0:06:00.720,0:06:04.496 1908年 T型フォードが発売され 0:06:04.520,0:06:07.096 交通死亡事故が増加しました 0:06:07.120,0:06:10.410 深刻な問題です[br]なんて安全そうな車でしょう! 0:06:12.080,0:06:16.056 最初の反応は ドライバーの行動を[br]変えようというものでした 0:06:16.080,0:06:20.170 それで速度制限が設けられ [br]違反には罰金が科せられました 0:06:20.170,0:06:22.096 しかしその後の[br]数十年の間に 0:06:22.120,0:06:27.616 自動車の技術は中立的なんかじゃないと[br]気付くようになりました 0:06:27.640,0:06:30.856 より安全な車を[br]デザインすることもできるのです 0:06:30.880,0:06:34.336 それで1920年代に[br]飛散防止フロントガラスができ 0:06:34.360,0:06:36.856 1950年代にはシートベルトが 0:06:36.880,0:06:40.380 1990年代にはエアバッグが[br]装備されるようになりました 0:06:40.400,0:06:43.096 法・個人・業界の三者が歩み寄り 0:06:43.096,0:06:46.950 時間を掛けて[br]新技術が引き起こす問題を 0:06:46.950,0:06:51.416 解決していきました 0:06:51.440,0:06:55.140 デジタルプライバシーについても[br]同じことができるはずです 0:06:55.160,0:06:58.200 もちろん鍵になるのは合意です 0:06:58.360,0:06:59.576 考え方としては 0:06:59.600,0:07:03.416 誰かのプライベートな情報を[br]配布する場合には 0:07:03.440,0:07:06.290 その人の許可を得る必要がある[br]ということです 0:07:06.290,0:07:09.030 この積極的合意という考え方は 0:07:09.030,0:07:14.856 どんな性行為にも合意が必要という [br]反レイプ活動家から来ています 0:07:14.880,0:07:19.380 他の様々な分野では 合意について[br]とても高い基準があります 0:07:19.380,0:07:21.336 手術を受ける場合を[br]考えてください 0:07:21.360,0:07:25.626 自分の受ける医療について 患者が[br]確かに理解した上で合意していることを 0:07:25.626,0:07:27.510 医者は確認する[br]必要があります 0:07:27.520,0:07:31.216 iTunesの利用規約への合意なんかとは[br]わけが違います 0:07:31.240,0:07:35.136 みんなただスクロールして [br]何か知らずにOKしてると思いますが 0:07:35.136,0:07:36.640 (笑) 0:07:37.160,0:07:42.416 合意についてみんながもっとよく考えるなら [br]もっと良いプライバシー保護法ができるはずです 0:07:42.440,0:07:45.856 現在はそんなに[br]保護されてはいません 0:07:45.880,0:07:49.300 元夫や元妻が酷い人間で 0:07:49.300,0:07:53.696 自分の裸の写真をポルノサイトに[br]アップロードされたとしたら 0:07:53.720,0:07:56.936 そういった写真をすっかり[br]削除するのは大変です 0:07:56.960,0:07:58.176 多くの州では 0:07:58.200,0:08:02.016 その写真を自分で[br]撮っていた方が好都合です 0:08:02.040,0:08:05.120 著作権を主張できますから 0:08:05.320,0:08:07.376 (笑) 0:08:07.400,0:08:10.866 現在のところ [br]個人であれ企業であれNSAであれ 0:08:10.866,0:08:15.040 誰かにプライバシーを[br]侵害されたというとき 0:08:15.090,0:08:18.016 法に訴えることはできますが 0:08:18.040,0:08:20.176 うまくいかない可能性が[br]多分にあります 0:08:20.200,0:08:24.976 多くの裁判所が デジタルプライバシーは[br]実現不能だと考えているからです 0:08:25.000,0:08:28.800 だからプライバシー侵害での裁判を[br]したがらないのです 0:08:29.200,0:08:32.020 未だに絶えず聞かれるのは 0:08:32.020,0:08:34.340 デジタル画像だと 0:08:34.340,0:08:39.560 私的なものと公のものの区別が[br]曖昧になるのでは という話です 0:08:39.560,0:08:40.936 そんなことありません! 0:08:40.960,0:08:44.296 デジタルだと自動的に[br]公のものになるわけじゃありません 0:08:44.320,0:08:46.216 そんな道理はありません 0:08:46.240,0:08:49.736 ニューヨーク大学の法学者[br]ヘレン・ニッセンバウムが言っています 0:08:49.760,0:08:52.506 あらゆる種類の[br]プライベートな情報を保護する 0:08:52.506,0:08:55.500 法・方針・規範があるが 0:08:55.500,0:08:59.036 デジタルかどうかは[br]区別されていないと 0:08:59.036,0:09:01.756 医療データはデジタル化[br]されていますが 0:09:01.756,0:09:04.816 医者がそれを漏らす[br]ことはできません 0:09:04.840,0:09:09.296 個人のファイナンス情報は[br]デジタルのデータベースに保存されていますが 0:09:09.320,0:09:14.140 クレジットカード会社は人の購入履歴を[br]勝手にネットで公開したりできません 0:09:14.890,0:09:20.596 より良い法律は 起きてしまった[br]プライバシー侵害に対処することができますが 0:09:20.596,0:09:23.100 もっと簡単なのは 0:09:23.100,0:09:28.090 お互いのプライバシーを守るよう[br]個々人が変わることです 0:09:28.360,0:09:31.356 プライバシーは[br]その人自身の責任だと 0:09:31.356,0:09:33.336 ずっと言われてきました 0:09:33.360,0:09:37.616 プライバシー設定にいつも注意を払って[br]更新するようにとか 0:09:37.640,0:09:43.270 世界中の人に見られて困るようなものは[br]共有してはいけないとか言われてきました 0:09:43.290,0:09:44.616 そんなの変です 0:09:44.640,0:09:47.616 デジタルメディアというのは[br]社会的な環境であり 0:09:47.640,0:09:52.440 人々は信用している相手に対して[br]絶えず共有をしています 0:09:52.760,0:09:55.736 プリンストン大学の研究者[br]ジャネット・ヴァーテッシは 0:09:55.760,0:09:59.730 データやプライバシーというのは[br]単なる個人のものではなく 0:09:59.730,0:10:02.426 個人間のものなのだ[br]と言っています 0:10:02.426,0:10:05.656 皆さんにできる[br]簡単なことは 0:10:05.680,0:10:10.776 他の人の情報を共有する時には[br]本人の許可を得るということです 0:10:10.800,0:10:15.336 誰かの写真をネットに上げようと思ったら [br]許可を得ましょう 0:10:15.360,0:10:17.816 メールを転送しようと思ったら 0:10:17.840,0:10:19.190 許可を得ましょう 0:10:19.190,0:10:22.126 誰かの裸の自撮り写真を[br]共有したいと思ったら 0:10:22.126,0:10:24.660 言うまでもなく[br]許可を得ましょう 0:10:25.560,0:10:30.016 そういった個々人の変化は [br]お互いのプライバシーを守る助けになりますが 0:10:30.040,0:10:34.160 テクノロジー企業にも[br]協力してもらう必要があります 0:10:34.360,0:10:38.856 そういった会社は[br]プライバシーを守る動機が低いものです 0:10:38.880,0:10:42.476 みんながあらゆるものを[br]可能な限り多くの人と共有することに 0:10:42.476,0:10:45.050 彼らのビジネスモデルが[br]依存しているからです 0:10:45.080,0:10:47.156 現在は 私が皆さんに[br]写真を送ったら 0:10:47.156,0:10:50.136 皆さんはそれを[br]誰にでも転送できます 0:10:50.160,0:10:54.416 でも転送して良いかどうかを[br]私が決められたとしたらどうでしょう? 0:10:54.440,0:10:58.496 「この画像の送信は許可されていません」と[br]言えるとしたら? 0:10:58.520,0:11:02.656 著作権を守るためであれば [br]そういうことは よく行われています 0:11:02.680,0:11:07.456 電子書籍を買っても [br]それをいろんな人に送ったりはできません 0:11:07.480,0:11:10.340 携帯でも同じように[br]したらどうでしょう? 0:11:10.960,0:11:14.290 私たちにできることは [br]デバイスやプラットフォームに 0:11:14.290,0:11:19.496 そういう保護を標準で付けるよう [br]テクノロジー企業に求めることです 0:11:19.520,0:11:22.936 車だって ボディカラーは[br]好きに選べても 0:11:22.960,0:11:26.030 エアバッグは常に標準品です 0:11:28.080,0:11:31.896 デジタルプライバシーと合意について[br]ちゃんと考えないなら 0:11:31.920,0:11:34.990 大変な結果を招くことに[br]なるかもしれません 0:11:35.360,0:11:37.616 オハイオ州に[br]ある十代の女の子がいました 0:11:37.640,0:11:41.000 彼女の名を仮に[br]ジェニファーとしておきましょう 0:11:41.030,0:11:44.696 彼女は自分の裸の画像を[br]高校のボーイフレンドにあげました 0:11:44.720,0:11:46.840 彼を信用できると思ったんです 0:11:47.720,0:11:49.656 不幸にも彼女は裏切られ 0:11:49.680,0:11:52.656 彼はその写真を[br]学校のみんなに送りました 0:11:52.680,0:11:56.690 ジェニファーは さらし者にされて[br]恥ずかしい思いをし 0:11:56.710,0:12:00.880 クラスメートは同情するどころか[br]彼女をいじめました 0:12:00.880,0:12:03.086 彼女をあばずれだの[br]売女だのと罵り 0:12:03.086,0:12:05.310 彼女の人生を[br]みじめなものにしました 0:12:05.310,0:12:09.500 ジェニファーは学校を休みがちになり [br]成績が落ちました 0:12:09.520,0:12:13.850 最終的に彼女は[br]自らの命を絶つことを選びました 0:12:14.720,0:12:17.416 ジェニファーは何も悪いことを[br]したわけではありません 0:12:17.440,0:12:19.696 ただ信用できると思った人に 0:12:19.720,0:12:22.536 裸の写真を送ったというだけです 0:12:22.560,0:12:24.620 それなのに法律では 0:12:24.620,0:12:29.650 彼女が児童ポルノに等しい[br]大変な罪を犯したことにされてしまいます 0:12:29.920,0:12:31.416 我々の性の規範では 0:12:31.440,0:12:34.420 自分のヌード写真を撮ることは 0:12:34.420,0:12:38.160 甚だしい恥ずべき行為だと[br]されているんです 0:12:38.400,0:12:42.616 デジタルメディアでプライバシーを[br]守ることは不可能だと考えるのは 0:12:42.640,0:12:48.610 彼女のボーイフレンドの[br]極めて悪い行為を忘れ 許すことになります 0:12:49.200,0:12:54.680 人々はいまだプライバシーを侵害された[br]被害者たちに こう言っています 0:12:54.680,0:12:56.486 「いったい何を考えているんだ? 0:12:56.486,0:12:58.960 そんな写真を送る方が悪い」 0:12:59.640,0:13:04.070 どう言うべきか迷っているなら [br]こう考えてみてください 0:13:04.110,0:13:08.000 スキーで脚を折った友達に[br]ばったり出会ったとしましょう 0:13:08.240,0:13:12.816 何か楽しいことをやろうとリスクを冒し [br]まずい結果になったわけです 0:13:12.840,0:13:14.620 でも皆さんはそういう人に 0:13:14.620,0:13:18.940 「スキーなんかに行くのが悪い」[br]などと言うイヤな奴ではないでしょう 0:13:20.080,0:13:22.216 合意について[br]よく考えたなら 0:13:22.240,0:13:25.496 プライバシー侵害の被害者は[br]同情すべきであって 0:13:25.520,0:13:28.926 犯罪者扱いしたり 辱めたり [br]嫌がらせしたり 0:13:28.926,0:13:32.170 罰したりすべきではないと[br]分かるはずです 0:13:32.440,0:13:36.936 被害者を支え [br]プライバシー侵害をある程度防ぐことが 0:13:36.960,0:13:41.810 お話ししたような法的・個人的・技術的な[br]変化によって可能です 0:13:41.840,0:13:47.656 問題なのはセクスティングではなく [br]デジタルプライバシーだからです 0:13:47.680,0:13:50.650 そして解決法の1つは[br]合意を得ることです 0:13:50.680,0:13:55.256 だから今度プライバシー侵害の[br]被害者に会うことがあれば 0:13:55.280,0:13:58.016 その人を非難するのではなく 0:13:58.040,0:14:01.456 デジタルプライバシーに[br]対する考えを変え 0:14:01.480,0:14:04.690 思いやりの気持ちをもって[br]あたりましょう 0:14:04.690,0:14:05.896 ありがとうございました 0:14:05.920,0:14:12.056 (拍手)