1 00:00:00,095 --> 00:00:03,302 [このトークには 成人向けの内容が含まれます] 2 00:00:05,762 --> 00:00:08,784 ラナ・アイユーブはインドの記者で 3 00:00:08,784 --> 00:00:14,568 政府の汚職や人権侵害を 記事にしてきました 4 00:00:14,990 --> 00:00:16,157 何年も経つうちに 5 00:00:16,181 --> 00:00:19,484 彼女は自分の仕事への 非難や論争に慣れてきました 6 00:00:20,149 --> 00:00:25,258 しかし 2018年4月に直面したことは 予期していなかったでしょう 7 00:00:26,125 --> 00:00:29,776 最初にそれを目にしたとき 彼女は友人とカフェで座っていました 8 00:00:29,800 --> 00:00:34,743 彼女が見たものは 2分20秒の自分のセックスの動画でした 9 00:00:35,188 --> 00:00:37,537 彼女は目を疑いました 10 00:00:37,561 --> 00:00:40,084 セックスの動画を撮ったことなど 1度もありませんでした 11 00:00:40,506 --> 00:00:43,971 しかし 悲しいことに大勢の人々が 12 00:00:43,995 --> 00:00:45,831 動画に映っているのは彼女だと思いました 13 00:00:46,673 --> 00:00:49,617 性的プライバシーに関する本を 書いていた私は 14 00:00:49,641 --> 00:00:52,235 3ヶ月前 彼女にインタビューをしました 15 00:00:52,681 --> 00:00:55,879 私は法律学の教授で 弁護士で市民権を支持しています 16 00:00:56,204 --> 00:01:00,815 ですから 今の法律が彼女を助けるために ほぼ何もできないことを知っていて 17 00:01:00,839 --> 00:01:03,077 非常に悔しい思いをしています 18 00:01:03,458 --> 00:01:05,005 話の中で彼女は 19 00:01:05,029 --> 00:01:09,541 偽物のセックス動画が作られることを 想定しておくべきだったと言いました 20 00:01:10,038 --> 00:01:15,634 「結局 セックスは女性の品位を落とし 辱める常套手段なのです 21 00:01:15,658 --> 00:01:18,086 特に少数派女性たち 22 00:01:18,110 --> 00:01:22,522 とりわけ権力のある男性に敢然と立ち向かう 少数派の女性を辱めるためです」 23 00:01:22,522 --> 00:01:24,429 彼女も権力に立ち向かってきました 24 00:01:25,191 --> 00:01:29,167 偽物のセックスの動画は 48時間で拡散しました 25 00:01:30,064 --> 00:01:35,371 彼女の全てのオンラインアカウントは 動画のスクリーンショットや 26 00:01:35,395 --> 00:01:38,022 生々しい性的暴行や殺害の予告 27 00:01:38,046 --> 00:01:40,632 イスラム教徒である彼女の 信仰に関する中傷で溢れました 28 00:01:41,426 --> 00:01:45,990 オンラインの掲示板には彼女がセックスに 「いつでも応ずる」と書かれました 29 00:01:46,014 --> 00:01:47,624 さらに 彼女は「晒され」ました 30 00:01:47,648 --> 00:01:50,426 つまり 彼女の住所と電話番号が 31 00:01:50,450 --> 00:01:52,286 ネット上に広まったのです 32 00:01:52,879 --> 00:01:56,963 その動画は4万回以上も共有されました 33 00:01:57,760 --> 00:02:01,696 誰かがこの種の サイバーモブ攻撃の標的にされると 34 00:02:01,720 --> 00:02:03,783 その被害は甚大です 35 00:02:04,482 --> 00:02:07,521 ラナ・アイユーブの人生は 滅茶苦茶になりました 36 00:02:08,211 --> 00:02:11,545 数週間 彼女は食事も会話も ほとんどできなくなりました 37 00:02:11,919 --> 00:02:15,608 記事の執筆をやめて ソーシャルメディアの アカウントも全て閉鎖しました 38 00:02:15,632 --> 00:02:18,790 ご存知の通り ジャーナリストとして この行為はつらい決断です 39 00:02:19,188 --> 00:02:22,672 彼女は実家を出ることが怖くなりました 40 00:02:22,696 --> 00:02:25,718 もし投稿者が脅迫を実行したら どうなるでしょう? 41 00:02:26,395 --> 00:02:30,760 国連人権理事会は 彼女が正気であることを確認し 42 00:02:30,784 --> 00:02:35,421 安全上の懸念があるという 声明を発表しました 43 00:02:36,776 --> 00:02:41,005 ラナ・アイユーブが直面したものは ディープフェイクです 44 00:02:41,029 --> 00:02:43,569 機械学習の技術で 45 00:02:43,593 --> 00:02:47,704 音声や動画を改ざんしたり 捏造して 46 00:02:47,728 --> 00:02:50,451 本人が実際にしていないことや 言っていないことを 47 00:02:50,475 --> 00:02:52,341 したように見せかけます 48 00:02:52,807 --> 00:02:56,168 ディープフェイクは本物そっくりに 見えますが それは違っていて 49 00:02:56,192 --> 00:02:57,964 完全な偽物です 50 00:02:59,228 --> 00:03:03,022 この技術は現在 まだ完成途上ですが 51 00:03:03,046 --> 00:03:04,660 簡単に利用出来ます 52 00:03:05,371 --> 00:03:08,443 最近 ディープフェイクに 注目が集まった分野は 53 00:03:08,467 --> 00:03:10,628 ネット上のあらゆるものが 注目している分野― 54 00:03:10,652 --> 00:03:11,907 ポルノグラフィです 55 00:03:12,498 --> 00:03:14,609 2018年の初頭 56 00:03:14,633 --> 00:03:17,101 誰かがRedditに あるツールを投稿しました 57 00:03:17,125 --> 00:03:21,537 ポルノ動画に別人の顔を はめられるようにするものです 58 00:03:21,561 --> 00:03:25,001 そして 自分たちの好きな女性有名人の 59 00:03:25,025 --> 00:03:27,822 偽物のポルノ動画が次々と作られました 60 00:03:28,712 --> 00:03:32,189 今ではYouTubeを見れば 無数のチュートリアルを見つけて 61 00:03:32,213 --> 00:03:34,499 デスクトップアプリケーション上での 62 00:03:34,523 --> 00:03:37,686 ディープフェイクの作り方を 順を追って学習することができます 63 00:03:38,260 --> 00:03:41,966 もうすぐ 携帯でも動画を 作れるようになるかもしれません 64 00:03:43,072 --> 00:03:49,940 私たち人間の弱い部分と ネットワークツールの相互作用によって 65 00:03:50,184 --> 00:03:52,850 ディープフェイクが凶器となりうるのです 66 00:03:52,874 --> 00:03:54,074 では 説明しましょう 67 00:03:54,875 --> 00:03:59,441 私たちは人間として 音や動画に対して 本能的な反応をします 68 00:03:59,860 --> 00:04:01,408 私たちはそれらを正しいと感じますが 69 00:04:01,408 --> 00:04:03,450 それは 自分の目や耳で体感したことは 70 00:04:03,474 --> 00:04:05,952 信じられるはずという 考えに基づいています 71 00:04:06,476 --> 00:04:08,175 この仕組みがあるため 72 00:04:08,199 --> 00:04:11,897 私たちの共有する現実感を 損ないかねません 73 00:04:11,921 --> 00:04:15,068 私たちはディープフェイクを 本物であると感じますが 実際は違います 74 00:04:15,604 --> 00:04:19,761 私たちは猥褻で刺激的なものに 惹きつけられます 75 00:04:20,365 --> 00:04:25,459 否定的で 今までにない情報を信じて 共有する傾向があります 76 00:04:25,809 --> 00:04:30,252 研究者たちはオンラインのデマが正しい情報の 77 00:04:30,252 --> 00:04:32,479 10倍速く広まることを発見しました 78 00:04:34,015 --> 00:04:40,311 また 私たちは自分のものの見方に合う 情報に引き付けられます 79 00:04:40,950 --> 00:04:44,511 心理学者はこの傾向を 「確証バイアス」と呼んでいます 80 00:04:45,300 --> 00:04:49,687 ソーシャルメディアプラットフォームは 81 00:04:49,711 --> 00:04:53,592 私たちの見方に合う情報を 即座に広く共有できるようにすることで 82 00:04:53,616 --> 00:04:55,408 確証バイアスを強化します 83 00:04:56,735 --> 00:05:02,303 今や ディープフェイクは個人と社会に 深刻な被害を及ぼす可能性があります 84 00:05:03,204 --> 00:05:05,228 アフガニスタンにいるアメリカ兵が 85 00:05:05,252 --> 00:05:09,434 イスラム教の聖典を燃やしている ディープフェイク動画を想像してください 86 00:05:10,807 --> 00:05:13,765 その動画が兵士たちへの 暴力を招くことは 87 00:05:13,795 --> 00:05:15,388 容易に想像できます 88 00:05:15,847 --> 00:05:18,290 そして もし翌日に 89 00:05:18,294 --> 00:05:20,998 ロンドンに拠点を置く 有名なイスラム教の指導者が 90 00:05:21,022 --> 00:05:24,339 兵士たちへの攻撃を賞賛する 別のディープフェイク動画が 91 00:05:24,363 --> 00:05:26,830 投稿されたらどうでしょうか? 92 00:05:27,617 --> 00:05:30,790 アフガニスタンとイギリスだけでなく 93 00:05:30,790 --> 00:05:35,592 世界中で暴力と社会不安が 起こるかもしれません 94 00:05:36,171 --> 00:05:37,919 私にこう言う方もいるかもしれません 95 00:05:37,919 --> 00:05:39,680 「ダニエルさん 考えすぎだよ」と 96 00:05:39,680 --> 00:05:41,014 考えすぎではありません 97 00:05:41,293 --> 00:05:43,484 WhatsAppやそれ以外の 98 00:05:43,508 --> 00:05:46,230 オンラインメッセージサービスで 広まった噂によって 99 00:05:46,254 --> 00:05:49,015 少数民族への暴力が起こっています 100 00:05:49,039 --> 00:05:50,926 それらはただの文章でしたが 101 00:05:50,950 --> 00:05:53,174 動画なら どうだったでしょう 102 00:05:54,593 --> 00:05:59,950 ディープフェイクは  私たちが持つ民主主義制度への 103 00:05:59,974 --> 00:06:01,966 信頼を失わせる可能性があります 104 00:06:03,006 --> 00:06:05,673 選挙前日の夜を想像してください 105 00:06:05,996 --> 00:06:09,178 優位政党の候補者の1人が 重病にかかっている 106 00:06:09,178 --> 00:06:10,628 ディープフェイク動画があるとします 107 00:06:11,202 --> 00:06:13,535 そのディープフェイクが選挙をひっくり返し 108 00:06:13,559 --> 00:06:16,994 選挙が公正であるという感覚を 揺るがす可能性があります 109 00:06:18,515 --> 00:06:24,198 大手のグローバル銀行の 新規上場株の公開の前夜に 110 00:06:24,222 --> 00:06:27,561 銀行のCEOが酔って 陰謀論をベラベラしゃべる 111 00:06:27,561 --> 00:06:30,092 ディープフェイク動画が 出ることを想像してください 112 00:06:30,887 --> 00:06:33,934 IPOは失敗し 113 00:06:33,958 --> 00:06:38,073 ひどければ 金融市場が安定しているという 感覚を揺るがす可能性があります 114 00:06:39,065 --> 00:06:46,069 ディープフェイクは政治家やビジネスリーダー その他の有力なリーダーに対して 115 00:06:46,398 --> 00:06:50,612 私たちが すでに持っている深い不信感を 悪用し増幅させることができます 116 00:06:50,945 --> 00:06:54,229 ディープフェイクは 信じそうな聴衆を見つけます 117 00:06:55,287 --> 00:06:58,052 そして 真実の追求も同様な危険に 曝されています 118 00:06:59,077 --> 00:07:02,641 技術者はAIの進歩を予想しています 119 00:07:02,665 --> 00:07:06,347 本物と偽物の動画の違いを見分けることは 120 00:07:06,371 --> 00:07:10,140 不可能ではないにしても 難しくなるかもしれません 121 00:07:11,022 --> 00:07:16,363 フェイクだらけの「思想の自由市場」に 真実など見いだせるでしょうか? 122 00:07:16,752 --> 00:07:19,916 障害が最も少ない道を選んで 123 00:07:19,916 --> 00:07:22,497 自分たちが信じたいことを信じて 124 00:07:22,497 --> 00:07:24,347 真実を永久に無視するだけでしょうか? 125 00:07:24,831 --> 00:07:28,006 それから 偽物を信じるだけでなく 126 00:07:28,030 --> 00:07:31,356 真実を信じないということが 起き始めるかもしれません 127 00:07:31,887 --> 00:07:35,966 ディープフェイクを使って 自分の不正行為の物的証拠に 128 00:07:35,990 --> 00:07:39,910 疑問を生じさせようとする人が すでに現れています 129 00:07:39,934 --> 00:07:45,527 自分がした不都合な発言の録音ついて こう発言した政治家が何人もいました 130 00:07:45,527 --> 00:07:47,713 「まさか それはフェイクニュースだよ 131 00:07:47,713 --> 00:07:51,617 見聞きしたものを全部信じちゃ いけないよ」と 132 00:07:52,402 --> 00:07:59,593 それはロバート・チェズニー教授と私が 「嘘つきの分け前」と呼ぶリスクです 133 00:07:59,617 --> 00:08:02,974 嘘つきが 自分の悪行の 責任から逃れるために 134 00:08:02,998 --> 00:08:05,903 ディープフェイクを持ち出す リスクのことです 135 00:08:06,963 --> 00:08:10,034 私たちのすべき仕事がはっきりしました 疑いの余地はありません 136 00:08:10,606 --> 00:08:13,931 テクノロジー企業や議員 137 00:08:13,955 --> 00:08:17,466 警察やメディアによる 138 00:08:17,490 --> 00:08:19,614 予防的解決策が必要になるでしょう 139 00:08:20,093 --> 00:08:24,109 そして 社会的レジリエンスが かなり必要になります 140 00:08:25,506 --> 00:08:29,402 そこで テクノロジー企業の責任について 141 00:08:29,426 --> 00:08:32,339 公開の対話を広く実施しています 142 00:08:32,926 --> 00:08:35,958 ソーシャルメディアプラットフォームに対する 私のアドバイスは 143 00:08:35,982 --> 00:08:39,805 被害を引き起こす ディープフェイクを禁止するために 144 00:08:39,839 --> 00:08:42,275 利用規約とコミュニティガイドラインを 変更することです 145 00:08:42,712 --> 00:08:46,536 この決定には人間の判断が必要とされ 146 00:08:46,536 --> 00:08:48,267 コストがかかるでしょう 147 00:08:48,673 --> 00:08:54,855 けれども ディープフェイクの 内容や文脈を検討して 148 00:08:54,879 --> 00:08:58,561 それが有害な偽物なのか それとも 149 00:08:58,585 --> 00:09:03,167 価値のある風刺や芸術 教育なのかを 見極めるには 人間の力が必要です 150 00:09:04,118 --> 00:09:05,763 では 法律面はどうでしょう? 151 00:09:06,666 --> 00:09:09,015 法律は私たちの先生です 152 00:09:09,515 --> 00:09:13,553 何が良くないもので 何が間違っているものかを教えてくれます 153 00:09:13,577 --> 00:09:18,132 加害者を罰して 被害者の救済策を確保することで 154 00:09:18,156 --> 00:09:20,423 抑止すべき行動を決定します 155 00:09:21,148 --> 00:09:25,428 現在 法律はディープフェイクという 新たな問題に対応できていません 156 00:09:26,116 --> 00:09:29,974 世界中で 性的プライバシーを侵害し 157 00:09:29,998 --> 00:09:33,568 評判を傷つけ 精神的苦痛を引き起こす 158 00:09:33,592 --> 00:09:37,048 なりすまし行為に対応できるように設計され 159 00:09:37,048 --> 00:09:39,209 適切に定められた法律がありません 160 00:09:39,725 --> 00:09:43,598 ラナ・アイユーブに起きたことは ありふれたことになりつつあります 161 00:09:44,074 --> 00:09:46,288 彼女がデリーの警察に行ったとき 162 00:09:46,312 --> 00:09:48,447 出来ることは何もないと言われたそうです 163 00:09:49,101 --> 00:09:52,284 悲しいことに アメリカやヨーロッパにも 164 00:09:52,308 --> 00:09:54,574 同じことが当てはまります 165 00:09:55,300 --> 00:09:59,656 法律に埋めなければならない 空白があるのです 166 00:10:00,292 --> 00:10:04,384 同僚のメアリー・アン・フランクス博士と私は 167 00:10:04,408 --> 00:10:09,212 米国の議員と協力して 身元の盗用に当たる 有害なデジタルのなりすましを 168 00:10:09,236 --> 00:10:11,769 禁止する法律を考案しています 169 00:10:12,252 --> 00:10:14,378 また似たような取り組みが 170 00:10:14,402 --> 00:10:17,703 アイスランドやイギリス オーストラリアでも進んでいます 171 00:10:18,157 --> 00:10:21,416 ただ これは規制というパズルの ほんの1ピースに過ぎません 172 00:10:22,911 --> 00:10:26,080 法律で全部解決する訳ではありませんよね 173 00:10:26,104 --> 00:10:27,704 法律は鈍器のようなもので 174 00:10:28,346 --> 00:10:29,885 賢く使わねばなりません 175 00:10:30,411 --> 00:10:33,223 法律は実用的な障害も抱えています 176 00:10:33,657 --> 00:10:38,701 身元の特定や探すことが出来ない人々に対して 法律は適用できないのです 177 00:10:39,463 --> 00:10:44,341 被害者の住む国に加害者がいない場合 178 00:10:44,341 --> 00:10:46,180 正当な裁判を受けさせるため 179 00:10:46,204 --> 00:10:49,727 地元の裁判所に来ることを 要求できないかもしれません 180 00:10:50,236 --> 00:10:54,299 したがって 各国が協調して 対応する必要があるでしょう 181 00:10:55,819 --> 00:10:59,152 私たちの対応には 教育も 含まれなければなりません 182 00:10:59,803 --> 00:11:03,534 警察が 自分たちの知らない法律を 順守させることはないし 183 00:11:03,558 --> 00:11:05,016 理解していない問題を 184 00:11:05,040 --> 00:11:07,636 提起することもありません 185 00:11:08,376 --> 00:11:10,567 サイバーストーカーに関する私の調査で 186 00:11:10,591 --> 00:11:14,090 警察には利用可能な法律と 187 00:11:14,114 --> 00:11:16,696 オンラインでの虐待の問題を 理解するための訓練が 188 00:11:16,720 --> 00:11:19,069 欠けていることがわかりました 189 00:11:19,093 --> 00:11:21,775 彼らは頻繁に被害者にこう言いました 190 00:11:21,799 --> 00:11:25,770 「コンピューターの電源を切るだけです 無視してください 解決しますから」と 191 00:11:26,261 --> 00:11:28,727 ラナのときもそうでした 192 00:11:29,102 --> 00:11:32,570 彼女は こう言われたのです 「たいしたことない 騒ぎ過ぎです 193 00:11:32,594 --> 00:11:34,637 男の子のいたずらみたいなものですよ」 194 00:11:35,268 --> 00:11:40,520 新しい法律と訓練を 組み合わせる必要があります 195 00:11:42,053 --> 00:11:45,482 また メディアで 教育する必要もあります 196 00:11:46,180 --> 00:11:50,440 記者はディープフェイクという現象について 教育する必要があります 197 00:11:50,464 --> 00:11:53,503 ディープフェイクを増長させたり 広めたりしないためです 198 00:11:54,583 --> 00:11:56,501 これは私たち全員が関わっていることです 199 00:11:56,501 --> 00:12:00,630 私たち一人一人が教育する必要があります 200 00:12:01,375 --> 00:12:05,050 私たちはクリックし 共有し いいねを押し そのことについて考えません 201 00:12:05,551 --> 00:12:07,258 もっと努力が必要です 202 00:12:07,726 --> 00:12:10,535 偽物をもっとよく見分ける手段が必要です 203 00:12:13,744 --> 00:12:17,585 これらの解決策で取り組んでいくと 204 00:12:17,609 --> 00:12:20,172 多くの苦労が待ち受けています 205 00:12:21,093 --> 00:12:23,839 ラナ・アイユーブは 今だにフェイクの余波と闘っています 206 00:12:24,669 --> 00:12:28,858 彼女は今でもオンラインでもオフラインでも 自分を表現することはできません 207 00:12:29,566 --> 00:12:30,931 そして こう話してくれました 208 00:12:30,955 --> 00:12:36,029 あのフェイクは自分の体ではなかったと 頭ではわかっていても 209 00:12:36,053 --> 00:12:39,714 今も自分の裸体に何千という 視線が注がれている気がすると 210 00:12:40,371 --> 00:12:42,720 知らない誰かが写真を撮ろうとすると 211 00:12:42,744 --> 00:12:46,844 彼女は頻繁にパニック発作を起こします 212 00:12:46,868 --> 00:12:50,379 「ディープフェイクを作る気だったら」と 考えてしまうからです 213 00:12:51,082 --> 00:12:55,003 だから ラナ・アイユーブのような個人のため 214 00:12:55,027 --> 00:12:57,333 そして 私たちの民主主義のために 215 00:12:57,357 --> 00:12:59,539 私たちは今すぐ 行動を起こす必要があるのです 216 00:12:59,563 --> 00:13:00,714 ありがとうございました 217 00:13:00,738 --> 00:13:03,246 (拍手)