WEBVTT 00:00:00.720 --> 00:00:05.000 人々は昔から性的な会話に メディアを使ってきました 00:00:05.600 --> 00:00:09.040 ラブレター テレホンセックス きわどいポラロイド写真 00:00:09.480 --> 00:00:15.420 電報で知り合った男と駆け落ちした 少女の話さえあります 00:00:15.420 --> 00:00:17.500 1886年のことです 00:00:18.560 --> 00:00:23.560 現在はセクスティングがあり 私はそのエキスパートです 00:00:23.560 --> 00:00:26.430 セクスティングする エキスパートじゃありませんよ 00:00:26.650 --> 00:00:31.136 でもこれが何を意味するかは知っています 皆さんもご存じでしょうけど NOTE Paragraph 00:00:31.136 --> 00:00:32.375 [これはペニスの意] NOTE Paragraph 00:00:32.400 --> 00:00:34.760 (笑) NOTE Paragraph 00:00:36.360 --> 00:00:42.440 セクスティングがメディアに注目され出した 2008年から 私は研究するようになり 00:00:42.440 --> 00:00:45.816 セクスティングに関わる モラルの混乱について本も書きました 00:00:45.816 --> 00:00:47.336 それでわかったのは 00:00:47.360 --> 00:00:50.576 多くの人が的外れなことを 心配していることです 00:00:50.600 --> 00:00:54.776 みんなセクスティング自体を なくそうとしています 00:00:54.800 --> 00:00:56.336 でも考えてほしいんです 00:00:56.360 --> 00:01:01.216 完全な合意の上でなら セクスティングの 何が問題だというのでしょう? 00:01:01.240 --> 00:01:05.256 世の中 変なものが 好きな人もいます 00:01:05.280 --> 00:01:07.576 ブルーチーズとか パクチーとか NOTE Paragraph 00:01:07.600 --> 00:01:09.240 (笑) NOTE Paragraph 00:01:10.600 --> 00:01:14.736 楽しいことの例に漏れず セクスティングにはリスクがあります 00:01:14.760 --> 00:01:21.456 でも 受け取りたくない人に きわどい写真を送ったりしない限りは 00:01:21.480 --> 00:01:23.256 害はありません 00:01:23.280 --> 00:01:25.896 本当に問題があるのは 00:01:25.920 --> 00:01:28.450 他人のプライベートな写真を 00:01:28.450 --> 00:01:31.280 許可も得ずに 公開することです 00:01:31.300 --> 00:01:33.896 セクスティングについて 心配をするよりも 00:01:33.896 --> 00:01:38.680 私たちがすべきなのは デジタル情報の プライバシーについて考えることで 00:01:38.680 --> 00:01:41.080 その鍵になるのは「合意」です NOTE Paragraph 00:01:41.680 --> 00:01:44.976 現在のところ 多くの人は セクスティングについて考えるとき 00:01:45.000 --> 00:01:48.200 合意の有無を まったく考慮していません 00:01:48.250 --> 00:01:53.200 現在 ティーンのセクスティングは 犯罪だとされているのをご存じですか? 00:01:53.400 --> 00:01:55.010 犯罪になる理由は 00:01:55.010 --> 00:01:59.620 18歳未満の裸の画像は 児童ポルノと見なされるためで 00:01:59.620 --> 00:02:03.576 たとえそれが自分で撮って 合意の上で渡されたものであっても 00:02:03.576 --> 00:02:05.320 関係ありません 00:02:05.800 --> 00:02:08.776 そのため法的に 非常に奇妙な状況が生じます 00:02:08.800 --> 00:02:13.336 アメリカのほとんどの州で 17歳の男女は合法的にセックスできますが 00:02:13.360 --> 00:02:15.710 その写真を撮ることは できないのです 00:02:16.560 --> 00:02:20.816 州によってはセクスティングのための 軽犯罪法を作ろうとしていますが 00:02:20.840 --> 00:02:23.856 同じ間違いを 繰り返しています 00:02:23.880 --> 00:02:28.000 合意の上でのセクスティングを 違法としているからです 00:02:28.520 --> 00:02:31.176 プライバシー侵害に 対処するために 00:02:31.176 --> 00:02:34.536 セクスティング自体を 禁止しようとするのは筋違いです 00:02:34.560 --> 00:02:37.486 それはデートレイプをなくすために 00:02:37.486 --> 00:02:41.720 デート自体を違法にしようと するようなものです 00:02:42.960 --> 00:02:48.556 ティーンの多くはセクスティングで逮捕されはしませんが 逮捕されているのがどんな人か分かりますか? 00:02:48.556 --> 00:02:53.390 相手の親に嫌われている ティーンです 00:02:53.390 --> 00:02:58.870 そしてその本当の理由は 階級意識や 人種差別や 同性愛嫌悪のためかも知れません 00:02:58.900 --> 00:03:01.736 もちろん検事の多くは 馬鹿じゃありませんから 00:03:01.760 --> 00:03:07.490 子供を児童ポルノで訴えたりは しませんが する人もいます NOTE Paragraph 00:03:07.720 --> 00:03:11.350 ニューハンプシャー大学の 研究者らによると 00:03:11.350 --> 00:03:14.820 児童ポルノ所持で 逮捕されたうちの7%が 00:03:14.820 --> 00:03:20.400 合意の上でセクスティングしていた ティーンだったそうです 00:03:21.480 --> 00:03:24.016 児童ポルノは 重大な犯罪ですが 00:03:24.040 --> 00:03:28.260 ティーンのセクスティングは まったく別の話です 00:03:29.040 --> 00:03:30.660 親や教師というのも 00:03:30.660 --> 00:03:35.616 合意について考慮せずに セクスティングに反応しています 00:03:35.640 --> 00:03:40.180 彼らのメッセージはたいてい 「一切やめろ」です NOTE Paragraph 00:03:40.200 --> 00:03:41.830 理解は出来ます 00:03:41.830 --> 00:03:47.330 深刻な法的リスクや プライバシー侵害の危険がありますから 00:03:47.330 --> 00:03:48.866 皆さんは10代の頃 00:03:48.866 --> 00:03:52.580 言い付けを何でも 良く守っていたことでしょう NOTE Paragraph 00:03:53.240 --> 00:03:56.870 我が子に限ってセクスティングなんか するわけがないと 00:03:56.870 --> 00:04:00.566 それはそうです 皆さんの 天使のようなお子さんはしないでしょうとも 00:04:00.566 --> 00:04:03.536 16〜17歳でセクスティング しているのは 00:04:03.560 --> 00:04:06.080 33%だけですから 00:04:07.200 --> 00:04:11.816 でも大人になるまでには セクスティングするようになる可能性が高いです 00:04:11.840 --> 00:04:18.410 私の見てきたどの調査でも 18〜24歳の50%以上がセクスティングしています 00:04:18.630 --> 00:04:21.776 そしてほとんどの場合 悪いことは何も起こりません 00:04:21.800 --> 00:04:27.080 「でもセクスティングはやっぱり 危ないんじゃないの?」とよく聞かれます 00:04:27.080 --> 00:04:30.916 公園のベンチに財布を 置き忘れないようにするのと同じで 00:04:30.916 --> 00:04:34.510 そんなの盗まれるに 決まっているでしょうと 00:04:34.880 --> 00:04:36.336 私に言わせると 00:04:36.360 --> 00:04:40.296 セクスティングは彼氏の家に 財布を置き忘れるようなものです 00:04:40.320 --> 00:04:42.096 次の日に行くと 00:04:42.120 --> 00:04:44.980 財布のお金が全部 なくなっていたとしたら 00:04:45.000 --> 00:04:47.600 そんな男とはすぐ 別れるべきでしょう 00:04:47.600 --> 00:04:49.860 (笑) 00:04:51.360 --> 00:04:53.680 プライバシー侵害を防ぐために 00:04:53.720 --> 00:04:56.336 セクスティングを 犯罪化するのではなく 00:04:56.360 --> 00:04:59.656 個人のプライベートな 情報を流すときに 00:04:59.680 --> 00:05:03.830 合意を第一に考えるべきです NOTE Paragraph 00:05:04.350 --> 00:05:08.736 新しいメディア技術はいつも プライバシーへの懸念を生んできました 00:05:08.760 --> 00:05:13.376 事実アメリカにおいて最初の プライバシーに関する議論は 00:05:13.400 --> 00:05:17.890 当時 比較的新しかった技術への 反応として起こりました 00:05:17.890 --> 00:05:21.010 1800年代末 人々が懸念を抱いたのは 00:05:21.010 --> 00:05:24.980 以前よりも ずっと 持ち運びやすくなったカメラと 00:05:24.980 --> 00:05:27.816 新聞のゴシップ欄でした 00:05:27.840 --> 00:05:31.530 自分の情報が カメラで写し取られ 00:05:31.530 --> 00:05:35.060 元の文脈を離れて 広められたりはしないかと 00:05:35.060 --> 00:05:37.066 聞いたことのある ような話ですよね? 00:05:37.066 --> 00:05:41.856 私たちがまさに今 懸念していることです ソーシャルメディアに カメラ搭載ドローン 00:05:41.856 --> 00:05:43.790 そしてもちろんセクスティング 00:05:43.920 --> 00:05:46.120 そういったテクノロジーに 対する恐怖は 00:05:46.120 --> 00:05:47.466 理にかなっています 00:05:47.466 --> 00:05:51.276 テクノロジーには 私たちの最低な面や振る舞いを 00:05:51.276 --> 00:05:54.070 引き出し増幅する 力がありますから 00:05:54.160 --> 00:05:56.536 しかし解決法があります 00:05:56.560 --> 00:06:00.370 危険な新技術というのは 以前にもありました NOTE Paragraph 00:06:00.720 --> 00:06:04.496 1908年 T型フォードが発売され 00:06:04.520 --> 00:06:07.096 交通死亡事故が増加しました 00:06:07.120 --> 00:06:10.410 深刻な問題です なんて安全そうな車でしょう! 00:06:12.080 --> 00:06:16.056 最初の反応は ドライバーの行動を 変えようというものでした 00:06:16.080 --> 00:06:20.170 それで速度制限が設けられ 違反には罰金が科せられました 00:06:20.170 --> 00:06:22.096 しかしその後の 数十年の間に 00:06:22.120 --> 00:06:27.616 自動車の技術は中立的なんかじゃないと 気付くようになりました 00:06:27.640 --> 00:06:30.856 より安全な車を デザインすることもできるのです 00:06:30.880 --> 00:06:34.336 それで1920年代に 飛散防止フロントガラスができ 00:06:34.360 --> 00:06:36.856 1950年代にはシートベルトが 00:06:36.880 --> 00:06:40.380 1990年代にはエアバッグが 装備されるようになりました 00:06:40.400 --> 00:06:43.096 法・個人・業界の三者が歩み寄り 00:06:43.096 --> 00:06:46.950 時間を掛けて 新技術が引き起こす問題を 00:06:46.950 --> 00:06:51.416 解決していきました 00:06:51.440 --> 00:06:55.140 デジタルプライバシーについても 同じことができるはずです 00:06:55.160 --> 00:06:58.200 もちろん鍵になるのは合意です 00:06:58.360 --> 00:06:59.576 考え方としては 00:06:59.600 --> 00:07:03.416 誰かのプライベートな情報を 配布する場合には 00:07:03.440 --> 00:07:06.290 その人の許可を得る必要がある ということです 00:07:06.290 --> 00:07:09.030 この積極的合意という考え方は 00:07:09.030 --> 00:07:14.856 どんな性行為にも合意が必要という 反レイプ活動家から来ています 00:07:14.880 --> 00:07:19.380 他の様々な分野では 合意について とても高い基準があります NOTE Paragraph 00:07:19.380 --> 00:07:21.336 手術を受ける場合を 考えてください 00:07:21.360 --> 00:07:25.626 自分の受ける医療について 患者が 確かに理解した上で合意していることを 00:07:25.626 --> 00:07:27.510 医者は確認する 必要があります 00:07:27.520 --> 00:07:31.216 iTunesの利用規約への合意なんかとは わけが違います 00:07:31.240 --> 00:07:35.136 みんなただスクロールして 何か知らずにOKしてると思いますが NOTE Paragraph 00:07:35.136 --> 00:07:36.640 (笑) NOTE Paragraph 00:07:37.160 --> 00:07:42.416 合意についてみんながもっとよく考えるなら もっと良いプライバシー保護法ができるはずです 00:07:42.440 --> 00:07:45.856 現在はそんなに 保護されてはいません 00:07:45.880 --> 00:07:49.300 元夫や元妻が酷い人間で 00:07:49.300 --> 00:07:53.696 自分の裸の写真をポルノサイトに アップロードされたとしたら 00:07:53.720 --> 00:07:56.936 そういった写真をすっかり 削除するのは大変です 00:07:56.960 --> 00:07:58.176 多くの州では 00:07:58.200 --> 00:08:02.016 その写真を自分で 撮っていた方が好都合です 00:08:02.040 --> 00:08:05.120 著作権を主張できますから NOTE Paragraph 00:08:05.320 --> 00:08:07.376 (笑) NOTE Paragraph 00:08:07.400 --> 00:08:10.866 現在のところ 個人であれ企業であれNSAであれ 00:08:10.866 --> 00:08:15.040 誰かにプライバシーを 侵害されたというとき 00:08:15.090 --> 00:08:18.016 法に訴えることはできますが 00:08:18.040 --> 00:08:20.176 うまくいかない可能性が 多分にあります 00:08:20.200 --> 00:08:24.976 多くの裁判所が デジタルプライバシーは 実現不能だと考えているからです 00:08:25.000 --> 00:08:28.800 だからプライバシー侵害での裁判を したがらないのです 00:08:29.200 --> 00:08:32.020 未だに絶えず聞かれるのは 00:08:32.020 --> 00:08:34.340 デジタル画像だと 00:08:34.340 --> 00:08:39.560 私的なものと公のものの区別が 曖昧になるのでは という話です 00:08:39.560 --> 00:08:40.936 そんなことありません! 00:08:40.960 --> 00:08:44.296 デジタルだと自動的に 公のものになるわけじゃありません 00:08:44.320 --> 00:08:46.216 そんな道理はありません NOTE Paragraph 00:08:46.240 --> 00:08:49.736 ニューヨーク大学の法学者 ヘレン・ニッセンバウムが言っています 00:08:49.760 --> 00:08:52.506 あらゆる種類の プライベートな情報を保護する 00:08:52.506 --> 00:08:55.500 法・方針・規範があるが 00:08:55.500 --> 00:08:59.036 デジタルかどうかは 区別されていないと 00:08:59.036 --> 00:09:01.756 医療データはデジタル化 されていますが 00:09:01.756 --> 00:09:04.816 医者がそれを漏らす ことはできません 00:09:04.840 --> 00:09:09.296 個人のファイナンス情報は デジタルのデータベースに保存されていますが 00:09:09.320 --> 00:09:14.140 クレジットカード会社は人の購入履歴を 勝手にネットで公開したりできません 00:09:14.890 --> 00:09:20.596 より良い法律は 起きてしまった プライバシー侵害に対処することができますが 00:09:20.596 --> 00:09:23.100 もっと簡単なのは 00:09:23.100 --> 00:09:28.090 お互いのプライバシーを守るよう 個々人が変わることです 00:09:28.360 --> 00:09:31.356 プライバシーは その人自身の責任だと 00:09:31.356 --> 00:09:33.336 ずっと言われてきました 00:09:33.360 --> 00:09:37.616 プライバシー設定にいつも注意を払って 更新するようにとか 00:09:37.640 --> 00:09:43.270 世界中の人に見られて困るようなものは 共有してはいけないとか言われてきました 00:09:43.290 --> 00:09:44.616 そんなの変です 00:09:44.640 --> 00:09:47.616 デジタルメディアというのは 社会的な環境であり 00:09:47.640 --> 00:09:52.440 人々は信用している相手に対して 絶えず共有をしています NOTE Paragraph 00:09:52.760 --> 00:09:55.736 プリンストン大学の研究者 ジャネット・ヴァーテッシは 00:09:55.760 --> 00:09:59.730 データやプライバシーというのは 単なる個人のものではなく 00:09:59.730 --> 00:10:02.426 個人間のものなのだ と言っています 00:10:02.426 --> 00:10:05.656 皆さんにできる 簡単なことは 00:10:05.680 --> 00:10:10.776 他の人の情報を共有する時には 本人の許可を得るということです 00:10:10.800 --> 00:10:15.336 誰かの写真をネットに上げようと思ったら 許可を得ましょう 00:10:15.360 --> 00:10:17.816 メールを転送しようと思ったら 00:10:17.840 --> 00:10:19.190 許可を得ましょう 00:10:19.190 --> 00:10:22.126 誰かの裸の自撮り写真を 共有したいと思ったら 00:10:22.126 --> 00:10:24.660 言うまでもなく 許可を得ましょう NOTE Paragraph 00:10:25.560 --> 00:10:30.016 そういった個々人の変化は お互いのプライバシーを守る助けになりますが 00:10:30.040 --> 00:10:34.160 テクノロジー企業にも 協力してもらう必要があります 00:10:34.360 --> 00:10:38.856 そういった会社は プライバシーを守る動機が低いものです 00:10:38.880 --> 00:10:42.476 みんながあらゆるものを 可能な限り多くの人と共有することに 00:10:42.476 --> 00:10:45.050 彼らのビジネスモデルが 依存しているからです 00:10:45.080 --> 00:10:47.156 現在は 私が皆さんに 写真を送ったら 00:10:47.156 --> 00:10:50.136 皆さんはそれを 誰にでも転送できます 00:10:50.160 --> 00:10:54.416 でも転送して良いかどうかを 私が決められたとしたらどうでしょう? 00:10:54.440 --> 00:10:58.496 「この画像の送信は許可されていません」と 言えるとしたら? 00:10:58.520 --> 00:11:02.656 著作権を守るためであれば そういうことは よく行われています 00:11:02.680 --> 00:11:07.456 電子書籍を買っても それをいろんな人に送ったりはできません 00:11:07.480 --> 00:11:10.340 携帯でも同じように したらどうでしょう? 00:11:10.960 --> 00:11:14.290 私たちにできることは デバイスやプラットフォームに 00:11:14.290 --> 00:11:19.496 そういう保護を標準で付けるよう テクノロジー企業に求めることです 00:11:19.520 --> 00:11:22.936 車だって ボディカラーは 好きに選べても 00:11:22.960 --> 00:11:26.030 エアバッグは常に標準品です NOTE Paragraph 00:11:28.080 --> 00:11:31.896 デジタルプライバシーと合意について ちゃんと考えないなら 00:11:31.920 --> 00:11:34.990 大変な結果を招くことに なるかもしれません 00:11:35.360 --> 00:11:37.616 オハイオ州に ある十代の女の子がいました 00:11:37.640 --> 00:11:41.000 彼女の名を仮に ジェニファーとしておきましょう 00:11:41.030 --> 00:11:44.696 彼女は自分の裸の画像を 高校のボーイフレンドにあげました 00:11:44.720 --> 00:11:46.840 彼を信用できると思ったんです 00:11:47.720 --> 00:11:49.656 不幸にも彼女は裏切られ 00:11:49.680 --> 00:11:52.656 彼はその写真を 学校のみんなに送りました 00:11:52.680 --> 00:11:56.690 ジェニファーは さらし者にされて 恥ずかしい思いをし 00:11:56.710 --> 00:12:00.880 クラスメートは同情するどころか 彼女をいじめました 00:12:00.880 --> 00:12:03.086 彼女をあばずれだの 売女だのと罵り 00:12:03.086 --> 00:12:05.310 彼女の人生を みじめなものにしました 00:12:05.310 --> 00:12:09.500 ジェニファーは学校を休みがちになり 成績が落ちました 00:12:09.520 --> 00:12:13.850 最終的に彼女は 自らの命を絶つことを選びました NOTE Paragraph 00:12:14.720 --> 00:12:17.416 ジェニファーは何も悪いことを したわけではありません 00:12:17.440 --> 00:12:19.696 ただ信用できると思った人に 00:12:19.720 --> 00:12:22.536 裸の写真を送ったというだけです 00:12:22.560 --> 00:12:24.620 それなのに法律では 00:12:24.620 --> 00:12:29.650 彼女が児童ポルノに等しい 大変な罪を犯したことにされてしまいます 00:12:29.920 --> 00:12:31.416 我々の性の規範では 00:12:31.440 --> 00:12:34.420 自分のヌード写真を撮ることは 00:12:34.420 --> 00:12:38.160 甚だしい恥ずべき行為だと されているんです 00:12:38.400 --> 00:12:42.616 デジタルメディアでプライバシーを 守ることは不可能だと考えるのは 00:12:42.640 --> 00:12:48.610 彼女のボーイフレンドの 極めて悪い行為を忘れ 許すことになります 00:12:49.200 --> 00:12:54.680 人々はいまだプライバシーを侵害された 被害者たちに こう言っています 00:12:54.680 --> 00:12:56.486 「いったい何を考えているんだ? 00:12:56.486 --> 00:12:58.960 そんな写真を送る方が悪い」 NOTE Paragraph 00:12:59.640 --> 00:13:04.070 どう言うべきか迷っているなら こう考えてみてください 00:13:04.110 --> 00:13:08.000 スキーで脚を折った友達に ばったり出会ったとしましょう 00:13:08.240 --> 00:13:12.816 何か楽しいことをやろうとリスクを冒し まずい結果になったわけです 00:13:12.840 --> 00:13:14.620 でも皆さんはそういう人に 00:13:14.620 --> 00:13:18.940 「スキーなんかに行くのが悪い」 などと言うイヤな奴ではないでしょう 00:13:20.080 --> 00:13:22.216 合意について よく考えたなら 00:13:22.240 --> 00:13:25.496 プライバシー侵害の被害者は 同情すべきであって 00:13:25.520 --> 00:13:28.926 犯罪者扱いしたり 辱めたり 嫌がらせしたり 00:13:28.926 --> 00:13:32.170 罰したりすべきではないと 分かるはずです 00:13:32.440 --> 00:13:36.936 被害者を支え プライバシー侵害をある程度防ぐことが 00:13:36.960 --> 00:13:41.810 お話ししたような法的・個人的・技術的な 変化によって可能です 00:13:41.840 --> 00:13:47.656 問題なのはセクスティングではなく デジタルプライバシーだからです 00:13:47.680 --> 00:13:50.650 そして解決法の1つは 合意を得ることです NOTE Paragraph 00:13:50.680 --> 00:13:55.256 だから今度プライバシー侵害の 被害者に会うことがあれば 00:13:55.280 --> 00:13:58.016 その人を非難するのではなく 00:13:58.040 --> 00:14:01.456 デジタルプライバシーに 対する考えを変え 00:14:01.480 --> 00:14:04.690 思いやりの気持ちをもって あたりましょう NOTE Paragraph 00:14:04.690 --> 00:14:05.896 ありがとうございました NOTE Paragraph 00:14:05.920 --> 00:14:12.056 (拍手)