0:00:00.095,0:00:03.302 [このトークには[br]成人向けの内容が含まれます] 0:00:05.762,0:00:08.784 ラナ・アイユーブはインドの記者で 0:00:08.784,0:00:14.568 政府の汚職や人権侵害を[br]記事にしてきました 0:00:14.990,0:00:16.157 何年も経つうちに 0:00:16.181,0:00:19.484 彼女は自分の仕事への[br]非難や論争に慣れてきました 0:00:20.149,0:00:25.258 しかし 2018年4月に直面したことは[br]予期していなかったでしょう 0:00:26.125,0:00:29.776 最初にそれを目にしたとき[br]彼女は友人とカフェで座っていました 0:00:29.800,0:00:34.743 彼女が見たものは[br]2分20秒の自分のセックスの動画でした 0:00:35.188,0:00:37.537 彼女は目を疑いました 0:00:37.561,0:00:40.084 セックスの動画を撮ったことなど[br]1度もありませんでした 0:00:40.506,0:00:43.971 しかし 悲しいことに大勢の人々が 0:00:43.995,0:00:45.831 動画に映っているのは彼女だと思いました 0:00:46.673,0:00:49.617 性的プライバシーに関する本を[br]書いていた私は 0:00:49.641,0:00:52.235 3ヶ月前 彼女にインタビューをしました 0:00:52.681,0:00:55.879 私は法律学の教授で[br]弁護士で市民権を支持しています 0:00:56.204,0:01:00.815 ですから 今の法律が彼女を助けるために[br]ほぼ何もできないことを知っていて 0:01:00.839,0:01:03.077 非常に悔しい思いをしています 0:01:03.458,0:01:05.005 話の中で彼女は 0:01:05.029,0:01:09.541 偽物のセックス動画が作られることを[br]想定しておくべきだったと言いました 0:01:10.038,0:01:15.634 「結局 セックスは女性の品位を落とし[br]辱める常套手段なのです 0:01:15.658,0:01:18.086 特に少数派女性たち 0:01:18.110,0:01:22.522 とりわけ権力のある男性に敢然と立ち向かう[br]少数派の女性を辱めるためです」 0:01:22.522,0:01:24.429 彼女も権力に立ち向かってきました 0:01:25.191,0:01:29.167 偽物のセックスの動画は[br]48時間で拡散しました 0:01:30.064,0:01:35.371 彼女の全てのオンラインアカウントは[br]動画のスクリーンショットや 0:01:35.395,0:01:38.022 生々しい性的暴行や殺害の予告 0:01:38.046,0:01:40.632 イスラム教徒である彼女の[br]信仰に関する中傷で溢れました 0:01:41.426,0:01:45.990 オンラインの掲示板には彼女がセックスに[br]「いつでも応ずる」と書かれました 0:01:46.014,0:01:47.624 さらに 彼女は「晒され」ました 0:01:47.648,0:01:50.426 つまり 彼女の住所と電話番号が 0:01:50.450,0:01:52.286 ネット上に広まったのです 0:01:52.879,0:01:56.963 その動画は4万回以上も共有されました 0:01:57.760,0:02:01.696 誰かがこの種の[br]サイバーモブ攻撃の標的にされると 0:02:01.720,0:02:03.783 その被害は甚大です 0:02:04.482,0:02:07.521 ラナ・アイユーブの人生は[br]滅茶苦茶になりました 0:02:08.211,0:02:11.545 数週間 彼女は食事も会話も[br]ほとんどできなくなりました 0:02:11.919,0:02:15.608 記事の執筆をやめて ソーシャルメディアの[br]アカウントも全て閉鎖しました 0:02:15.632,0:02:18.790 ご存知の通り ジャーナリストとして[br]この行為はつらい決断です 0:02:19.188,0:02:22.672 彼女は実家を出ることが怖くなりました 0:02:22.696,0:02:25.718 もし投稿者が脅迫を実行したら[br]どうなるでしょう? 0:02:26.395,0:02:30.760 国連人権理事会は[br]彼女が正気であることを確認し 0:02:30.784,0:02:35.421 安全上の懸念があるという[br]声明を発表しました 0:02:36.776,0:02:41.005 ラナ・アイユーブが直面したものは[br]ディープフェイクです 0:02:41.029,0:02:43.569 機械学習の技術で 0:02:43.593,0:02:47.704 音声や動画を改ざんしたり 捏造して 0:02:47.728,0:02:50.451 本人が実際にしていないことや[br]言っていないことを 0:02:50.475,0:02:52.341 したように見せかけます 0:02:52.807,0:02:56.168 ディープフェイクは本物そっくりに[br]見えますが それは違っていて 0:02:56.192,0:02:57.964 完全な偽物です 0:02:59.228,0:03:03.022 この技術は現在 まだ完成途上ですが 0:03:03.046,0:03:04.660 簡単に利用出来ます 0:03:05.371,0:03:08.443 最近 ディープフェイクに[br]注目が集まった分野は 0:03:08.467,0:03:10.628 ネット上のあらゆるものが[br]注目している分野― 0:03:10.652,0:03:11.907 ポルノグラフィです 0:03:12.498,0:03:14.609 2018年の初頭 0:03:14.633,0:03:17.101 誰かがRedditに あるツールを投稿しました 0:03:17.125,0:03:21.537 ポルノ動画に別人の顔を[br]はめられるようにするものです 0:03:21.561,0:03:25.001 そして 自分たちの好きな女性有名人の 0:03:25.025,0:03:27.822 偽物のポルノ動画が次々と作られました 0:03:28.712,0:03:32.189 今ではYouTubeを見れば[br]無数のチュートリアルを見つけて 0:03:32.213,0:03:34.499 デスクトップアプリケーション上での 0:03:34.523,0:03:37.686 ディープフェイクの作り方を[br]順を追って学習することができます 0:03:38.260,0:03:41.966 もうすぐ 携帯でも動画を[br]作れるようになるかもしれません 0:03:43.072,0:03:49.940 私たち人間の弱い部分と[br]ネットワークツールの相互作用によって 0:03:50.184,0:03:52.850 ディープフェイクが凶器となりうるのです 0:03:52.874,0:03:54.074 では 説明しましょう 0:03:54.875,0:03:59.441 私たちは人間として 音や動画に対して[br]本能的な反応をします 0:03:59.860,0:04:01.408 私たちはそれらを正しいと感じますが 0:04:01.408,0:04:03.450 それは 自分の目や耳で体感したことは 0:04:03.474,0:04:05.952 信じられるはずという[br]考えに基づいています 0:04:06.476,0:04:08.175 この仕組みがあるため 0:04:08.199,0:04:11.897 私たちの共有する現実感を[br]損ないかねません 0:04:11.921,0:04:15.068 私たちはディープフェイクを[br]本物であると感じますが 実際は違います 0:04:15.604,0:04:19.761 私たちは猥褻で刺激的なものに[br]惹きつけられます 0:04:20.365,0:04:25.459 否定的で 今までにない情報を信じて[br]共有する傾向があります 0:04:25.809,0:04:30.252 研究者たちはオンラインのデマが正しい情報の 0:04:30.252,0:04:32.479 10倍速く広まることを発見しました 0:04:34.015,0:04:40.311 また 私たちは自分のものの見方に合う[br]情報に引き付けられます 0:04:40.950,0:04:44.511 心理学者はこの傾向を[br]「確証バイアス」と呼んでいます 0:04:45.300,0:04:49.687 ソーシャルメディアプラットフォームは 0:04:49.711,0:04:53.592 私たちの見方に合う情報を[br]即座に広く共有できるようにすることで 0:04:53.616,0:04:55.408 確証バイアスを強化します 0:04:56.735,0:05:02.303 今や ディープフェイクは個人と社会に[br]深刻な被害を及ぼす可能性があります 0:05:03.204,0:05:05.228 アフガニスタンにいるアメリカ兵が 0:05:05.252,0:05:09.434 イスラム教の聖典を燃やしている[br]ディープフェイク動画を想像してください 0:05:10.807,0:05:13.765 その動画が兵士たちへの[br]暴力を招くことは 0:05:13.795,0:05:15.388 容易に想像できます 0:05:15.847,0:05:18.290 そして もし翌日に 0:05:18.294,0:05:20.998 ロンドンに拠点を置く[br]有名なイスラム教の指導者が 0:05:21.022,0:05:24.339 兵士たちへの攻撃を賞賛する[br]別のディープフェイク動画が 0:05:24.363,0:05:26.830 投稿されたらどうでしょうか? 0:05:27.617,0:05:30.790 アフガニスタンとイギリスだけでなく 0:05:30.790,0:05:35.592 世界中で暴力と社会不安が[br]起こるかもしれません 0:05:36.171,0:05:37.919 私にこう言う方もいるかもしれません 0:05:37.919,0:05:39.680 「ダニエルさん 考えすぎだよ」と 0:05:39.680,0:05:41.014 考えすぎではありません 0:05:41.293,0:05:43.484 WhatsAppやそれ以外の 0:05:43.508,0:05:46.230 オンラインメッセージサービスで[br]広まった噂によって 0:05:46.254,0:05:49.015 少数民族への暴力が起こっています 0:05:49.039,0:05:50.926 それらはただの文章でしたが 0:05:50.950,0:05:53.174 動画なら どうだったでしょう 0:05:54.593,0:05:59.950 ディープフェイクは [br]私たちが持つ民主主義制度への 0:05:59.974,0:06:01.966 信頼を失わせる可能性があります 0:06:03.006,0:06:05.673 選挙前日の夜を想像してください 0:06:05.996,0:06:09.178 優位政党の候補者の1人が[br]重病にかかっている 0:06:09.178,0:06:10.628 ディープフェイク動画があるとします 0:06:11.202,0:06:13.535 そのディープフェイクが選挙をひっくり返し 0:06:13.559,0:06:16.994 選挙が公正であるという感覚を[br]揺るがす可能性があります 0:06:18.515,0:06:24.198 大手のグローバル銀行の[br]新規上場株の公開の前夜に 0:06:24.222,0:06:27.561 銀行のCEOが酔って[br]陰謀論をベラベラしゃべる 0:06:27.561,0:06:30.092 ディープフェイク動画が[br]出ることを想像してください 0:06:30.887,0:06:33.934 IPOは失敗し 0:06:33.958,0:06:38.073 ひどければ 金融市場が安定しているという[br]感覚を揺るがす可能性があります 0:06:39.065,0:06:46.069 ディープフェイクは政治家やビジネスリーダー[br]その他の有力なリーダーに対して 0:06:46.398,0:06:50.612 私たちが すでに持っている深い不信感を[br]悪用し増幅させることができます 0:06:50.945,0:06:54.229 ディープフェイクは[br]信じそうな聴衆を見つけます 0:06:55.287,0:06:58.052 そして 真実の追求も同様な危険に[br]曝されています 0:06:59.077,0:07:02.641 技術者はAIの進歩を予想しています 0:07:02.665,0:07:06.347 本物と偽物の動画の違いを見分けることは 0:07:06.371,0:07:10.140 不可能ではないにしても[br]難しくなるかもしれません 0:07:11.022,0:07:16.363 フェイクだらけの「思想の自由市場」に[br]真実など見いだせるでしょうか? 0:07:16.752,0:07:19.916 障害が最も少ない道を選んで 0:07:19.916,0:07:22.497 自分たちが信じたいことを信じて 0:07:22.497,0:07:24.347 真実を永久に無視するだけでしょうか? 0:07:24.831,0:07:28.006 それから 偽物を信じるだけでなく 0:07:28.030,0:07:31.356 真実を信じないということが[br]起き始めるかもしれません 0:07:31.887,0:07:35.966 ディープフェイクを使って[br]自分の不正行為の物的証拠に 0:07:35.990,0:07:39.910 疑問を生じさせようとする人が[br]すでに現れています 0:07:39.934,0:07:45.527 自分がした不都合な発言の録音ついて[br]こう発言した政治家が何人もいました 0:07:45.527,0:07:47.713 「まさか それはフェイクニュースだよ 0:07:47.713,0:07:51.617 見聞きしたものを全部信じちゃ[br]いけないよ」と 0:07:52.402,0:07:59.593 それはロバート・チェズニー教授と私が[br]「嘘つきの分け前」と呼ぶリスクです 0:07:59.617,0:08:02.974 嘘つきが 自分の悪行の[br]責任から逃れるために 0:08:02.998,0:08:05.903 ディープフェイクを持ち出す[br]リスクのことです 0:08:06.963,0:08:10.034 私たちのすべき仕事がはっきりしました[br]疑いの余地はありません 0:08:10.606,0:08:13.931 テクノロジー企業や議員 0:08:13.955,0:08:17.466 警察やメディアによる 0:08:17.490,0:08:19.614 予防的解決策が必要になるでしょう 0:08:20.093,0:08:24.109 そして 社会的レジリエンスが[br]かなり必要になります 0:08:25.506,0:08:29.402 そこで テクノロジー企業の責任について 0:08:29.426,0:08:32.339 公開の対話を広く実施しています 0:08:32.926,0:08:35.958 ソーシャルメディアプラットフォームに対する[br]私のアドバイスは 0:08:35.982,0:08:39.805 被害を引き起こす[br]ディープフェイクを禁止するために 0:08:39.839,0:08:42.275 利用規約とコミュニティガイドラインを[br]変更することです 0:08:42.712,0:08:46.536 この決定には人間の判断が必要とされ 0:08:46.536,0:08:48.267 コストがかかるでしょう 0:08:48.673,0:08:54.855 けれども ディープフェイクの[br]内容や文脈を検討して 0:08:54.879,0:08:58.561 それが有害な偽物なのか それとも 0:08:58.585,0:09:03.167 価値のある風刺や芸術 教育なのかを[br]見極めるには 人間の力が必要です 0:09:04.118,0:09:05.763 では 法律面はどうでしょう? 0:09:06.666,0:09:09.015 法律は私たちの先生です 0:09:09.515,0:09:13.553 何が良くないもので[br]何が間違っているものかを教えてくれます 0:09:13.577,0:09:18.132 加害者を罰して[br]被害者の救済策を確保することで 0:09:18.156,0:09:20.423 抑止すべき行動を決定します 0:09:21.148,0:09:25.428 現在 法律はディープフェイクという[br]新たな問題に対応できていません 0:09:26.116,0:09:29.974 世界中で 性的プライバシーを侵害し 0:09:29.998,0:09:33.568 評判を傷つけ 精神的苦痛を引き起こす 0:09:33.592,0:09:37.048 なりすまし行為に対応できるように設計され 0:09:37.048,0:09:39.209 適切に定められた法律がありません 0:09:39.725,0:09:43.598 ラナ・アイユーブに起きたことは[br]ありふれたことになりつつあります 0:09:44.074,0:09:46.288 彼女がデリーの警察に行ったとき 0:09:46.312,0:09:48.447 出来ることは何もないと言われたそうです 0:09:49.101,0:09:52.284 悲しいことに アメリカやヨーロッパにも 0:09:52.308,0:09:54.574 同じことが当てはまります 0:09:55.300,0:09:59.656 法律に埋めなければならない[br]空白があるのです 0:10:00.292,0:10:04.384 同僚のメアリー・アン・フランクス博士と私は 0:10:04.408,0:10:09.212 米国の議員と協力して 身元の盗用に当たる[br]有害なデジタルのなりすましを 0:10:09.236,0:10:11.769 禁止する法律を考案しています 0:10:12.252,0:10:14.378 また似たような取り組みが 0:10:14.402,0:10:17.703 アイスランドやイギリス[br]オーストラリアでも進んでいます 0:10:18.157,0:10:21.416 ただ これは規制というパズルの[br]ほんの1ピースに過ぎません 0:10:22.911,0:10:26.080 法律で全部解決する訳ではありませんよね 0:10:26.104,0:10:27.704 法律は鈍器のようなもので 0:10:28.346,0:10:29.885 賢く使わねばなりません 0:10:30.411,0:10:33.223 法律は実用的な障害も抱えています 0:10:33.657,0:10:38.701 身元の特定や探すことが出来ない人々に対して[br]法律は適用できないのです 0:10:39.463,0:10:44.341 被害者の住む国に加害者がいない場合 0:10:44.341,0:10:46.180 正当な裁判を受けさせるため 0:10:46.204,0:10:49.727 地元の裁判所に来ることを[br]要求できないかもしれません 0:10:50.236,0:10:54.299 したがって 各国が協調して[br]対応する必要があるでしょう 0:10:55.819,0:10:59.152 私たちの対応には 教育も[br]含まれなければなりません 0:10:59.803,0:11:03.534 警察が 自分たちの知らない法律を[br]順守させることはないし 0:11:03.558,0:11:05.016 理解していない問題を 0:11:05.040,0:11:07.636 提起することもありません 0:11:08.376,0:11:10.567 サイバーストーカーに関する私の調査で 0:11:10.591,0:11:14.090 警察には利用可能な法律と 0:11:14.114,0:11:16.696 オンラインでの虐待の問題を[br]理解するための訓練が 0:11:16.720,0:11:19.069 欠けていることがわかりました 0:11:19.093,0:11:21.775 彼らは頻繁に被害者にこう言いました 0:11:21.799,0:11:25.770 「コンピューターの電源を切るだけです[br]無視してください 解決しますから」と 0:11:26.261,0:11:28.727 ラナのときもそうでした 0:11:29.102,0:11:32.570 彼女は こう言われたのです[br]「たいしたことない 騒ぎ過ぎです 0:11:32.594,0:11:34.637 男の子のいたずらみたいなものですよ」 0:11:35.268,0:11:40.520 新しい法律と訓練を[br]組み合わせる必要があります 0:11:42.053,0:11:45.482 また メディアで[br]教育する必要もあります 0:11:46.180,0:11:50.440 記者はディープフェイクという現象について[br]教育する必要があります 0:11:50.464,0:11:53.503 ディープフェイクを増長させたり[br]広めたりしないためです 0:11:54.583,0:11:56.501 これは私たち全員が関わっていることです 0:11:56.501,0:12:00.630 私たち一人一人が教育する必要があります 0:12:01.375,0:12:05.050 私たちはクリックし 共有し いいねを押し[br]そのことについて考えません 0:12:05.551,0:12:07.258 もっと努力が必要です 0:12:07.726,0:12:10.535 偽物をもっとよく見分ける手段が必要です 0:12:13.744,0:12:17.585 これらの解決策で取り組んでいくと 0:12:17.609,0:12:20.172 多くの苦労が待ち受けています 0:12:21.093,0:12:23.839 ラナ・アイユーブは[br]今だにフェイクの余波と闘っています 0:12:24.669,0:12:28.858 彼女は今でもオンラインでもオフラインでも[br]自分を表現することはできません 0:12:29.566,0:12:30.931 そして こう話してくれました 0:12:30.955,0:12:36.029 あのフェイクは自分の体ではなかったと[br]頭ではわかっていても 0:12:36.053,0:12:39.714 今も自分の裸体に何千という[br]視線が注がれている気がすると 0:12:40.371,0:12:42.720 知らない誰かが写真を撮ろうとすると 0:12:42.744,0:12:46.844 彼女は頻繁にパニック発作を起こします 0:12:46.868,0:12:50.379 「ディープフェイクを作る気だったら」と[br]考えてしまうからです 0:12:51.082,0:12:55.003 だから ラナ・アイユーブのような個人のため 0:12:55.027,0:12:57.333 そして 私たちの民主主義のために 0:12:57.357,0:12:59.539 私たちは今すぐ [br]行動を起こす必要があるのです 0:12:59.563,0:13:00.714 ありがとうございました 0:13:00.738,0:13:03.246 (拍手)