Return to Video

どのようにディープフェイクは真実を揺るがし、民主主義を脅かすのか

  • 0:00 - 0:03
    [このトークには
    成人向けの内容が含まれます]
  • 0:06 - 0:09
    ラナ・アイユーブはインドの記者で
  • 0:09 - 0:15
    政府の汚職や人権侵害を
    記事にしてきました
  • 0:15 - 0:16
    何年も経つうちに
  • 0:16 - 0:19
    彼女は自分の仕事への
    非難や論争に慣れてきました
  • 0:20 - 0:25
    しかし 2018年4月に直面したことは
    予期していなかったでしょう
  • 0:26 - 0:30
    最初にそれを目にしたとき
    彼女は友人とカフェで座っていました
  • 0:30 - 0:35
    彼女が見たものは
    2分20秒の自分のセックスの動画でした
  • 0:35 - 0:38
    彼女は目を疑いました
  • 0:38 - 0:40
    セックスの動画を撮ったことなど
    1度もありませんでした
  • 0:41 - 0:44
    しかし 悲しいことに大勢の人々が
  • 0:44 - 0:46
    動画に映っているのは彼女だと思いました
  • 0:47 - 0:50
    性的プライバシーに関する本を
    書いていた私は
  • 0:50 - 0:52
    3ヶ月前 彼女にインタビューをしました
  • 0:53 - 0:56
    私は法律学の教授で
    弁護士で市民権を支持しています
  • 0:56 - 1:01
    ですから 今の法律が彼女を助けるために
    ほぼ何もできないことを知っていて
  • 1:01 - 1:03
    非常に悔しい思いをしています
  • 1:03 - 1:05
    話の中で彼女は
  • 1:05 - 1:10
    偽物のセックス動画が作られることを
    想定しておくべきだったと言いました
  • 1:10 - 1:16
    「結局 セックスは女性の品位を落とし
    辱める常套手段なのです
  • 1:16 - 1:18
    特に少数派女性たち
  • 1:18 - 1:23
    とりわけ権力のある男性に敢然と立ち向かう
    少数派の女性を辱めるためです」
  • 1:23 - 1:24
    彼女も権力に立ち向かってきました
  • 1:25 - 1:29
    偽物のセックスの動画は
    48時間で拡散しました
  • 1:30 - 1:35
    彼女の全てのオンラインアカウントは
    動画のスクリーンショットや
  • 1:35 - 1:38
    生々しい性的暴行や殺害の予告
  • 1:38 - 1:41
    イスラム教徒である彼女の
    信仰に関する中傷で溢れました
  • 1:41 - 1:46
    オンラインの掲示板には彼女がセックスに
    「いつでも応ずる」と書かれました
  • 1:46 - 1:48
    さらに 彼女は「晒され」ました
  • 1:48 - 1:50
    つまり 彼女の住所と電話番号が
  • 1:50 - 1:52
    ネット上に広まったのです
  • 1:53 - 1:57
    その動画は4万回以上も共有されました
  • 1:58 - 2:02
    誰かがこの種の
    サイバーモブ攻撃の標的にされると
  • 2:02 - 2:04
    その被害は甚大です
  • 2:04 - 2:08
    ラナ・アイユーブの人生は
    滅茶苦茶になりました
  • 2:08 - 2:12
    数週間 彼女は食事も会話も
    ほとんどできなくなりました
  • 2:12 - 2:16
    記事の執筆をやめて ソーシャルメディアの
    アカウントも全て閉鎖しました
  • 2:16 - 2:19
    ご存知の通り ジャーナリストとして
    この行為はつらい決断です
  • 2:19 - 2:23
    彼女は実家を出ることが怖くなりました
  • 2:23 - 2:26
    もし投稿者が脅迫を実行したら
    どうなるでしょう?
  • 2:26 - 2:31
    国連人権理事会は
    彼女が正気であることを確認し
  • 2:31 - 2:35
    安全上の懸念があるという
    声明を発表しました
  • 2:37 - 2:41
    ラナ・アイユーブが直面したものは
    ディープフェイクです
  • 2:41 - 2:44
    機械学習の技術で
  • 2:44 - 2:48
    音声や動画を改ざんしたり 捏造して
  • 2:48 - 2:50
    本人が実際にしていないことや
    言っていないことを
  • 2:50 - 2:52
    したように見せかけます
  • 2:53 - 2:56
    ディープフェイクは本物そっくりに
    見えますが それは違っていて
  • 2:56 - 2:58
    完全な偽物です
  • 2:59 - 3:03
    この技術は現在 まだ完成途上ですが
  • 3:03 - 3:05
    簡単に利用出来ます
  • 3:05 - 3:08
    最近 ディープフェイクに
    注目が集まった分野は
  • 3:08 - 3:11
    ネット上のあらゆるものが
    注目している分野―
  • 3:11 - 3:12
    ポルノグラフィです
  • 3:12 - 3:15
    2018年の初頭
  • 3:15 - 3:17
    誰かがRedditに あるツールを投稿しました
  • 3:17 - 3:22
    ポルノ動画に別人の顔を
    はめられるようにするものです
  • 3:22 - 3:25
    そして 自分たちの好きな女性有名人の
  • 3:25 - 3:28
    偽物のポルノ動画が次々と作られました
  • 3:29 - 3:32
    今ではYouTubeを見れば
    無数のチュートリアルを見つけて
  • 3:32 - 3:34
    デスクトップアプリケーション上での
  • 3:35 - 3:38
    ディープフェイクの作り方を
    順を追って学習することができます
  • 3:38 - 3:42
    もうすぐ 携帯でも動画を
    作れるようになるかもしれません
  • 3:43 - 3:50
    私たち人間の弱い部分と
    ネットワークツールの相互作用によって
  • 3:50 - 3:53
    ディープフェイクが凶器となりうるのです
  • 3:53 - 3:54
    では 説明しましょう
  • 3:55 - 3:59
    私たちは人間として 音や動画に対して
    本能的な反応をします
  • 4:00 - 4:01
    私たちはそれらを正しいと感じますが
  • 4:01 - 4:03
    それは 自分の目や耳で体感したことは
  • 4:03 - 4:06
    信じられるはずという
    考えに基づいています
  • 4:06 - 4:08
    この仕組みがあるため
  • 4:08 - 4:12
    私たちの共有する現実感を
    損ないかねません
  • 4:12 - 4:15
    私たちはディープフェイクを
    本物であると感じますが 実際は違います
  • 4:16 - 4:20
    私たちは猥褻で刺激的なものに
    惹きつけられます
  • 4:20 - 4:25
    否定的で 今までにない情報を信じて
    共有する傾向があります
  • 4:26 - 4:30
    研究者たちはオンラインのデマが正しい情報の
  • 4:30 - 4:32
    10倍速く広まることを発見しました
  • 4:34 - 4:40
    また 私たちは自分のものの見方に合う
    情報に引き付けられます
  • 4:41 - 4:45
    心理学者はこの傾向を
    「確証バイアス」と呼んでいます
  • 4:45 - 4:50
    ソーシャルメディアプラットフォームは
  • 4:50 - 4:54
    私たちの見方に合う情報を
    即座に広く共有できるようにすることで
  • 4:54 - 4:55
    確証バイアスを強化します
  • 4:57 - 5:02
    今や ディープフェイクは個人と社会に
    深刻な被害を及ぼす可能性があります
  • 5:03 - 5:05
    アフガニスタンにいるアメリカ兵が
  • 5:05 - 5:09
    イスラム教の聖典を燃やしている
    ディープフェイク動画を想像してください
  • 5:11 - 5:14
    その動画が兵士たちへの
    暴力を招くことは
  • 5:14 - 5:15
    容易に想像できます
  • 5:16 - 5:18
    そして もし翌日に
  • 5:18 - 5:21
    ロンドンに拠点を置く
    有名なイスラム教の指導者が
  • 5:21 - 5:24
    兵士たちへの攻撃を賞賛する
    別のディープフェイク動画が
  • 5:24 - 5:27
    投稿されたらどうでしょうか?
  • 5:28 - 5:31
    アフガニスタンとイギリスだけでなく
  • 5:31 - 5:36
    世界中で暴力と社会不安が
    起こるかもしれません
  • 5:36 - 5:38
    私にこう言う方もいるかもしれません
  • 5:38 - 5:40
    「ダニエルさん 考えすぎだよ」と
  • 5:40 - 5:41
    考えすぎではありません
  • 5:41 - 5:43
    WhatsAppやそれ以外の
  • 5:44 - 5:46
    オンラインメッセージサービスで
    広まった噂によって
  • 5:46 - 5:49
    少数民族への暴力が起こっています
  • 5:49 - 5:51
    それらはただの文章でしたが
  • 5:51 - 5:53
    動画なら どうだったでしょう
  • 5:55 - 6:00
    ディープフェイクは 
    私たちが持つ民主主義制度への
  • 6:00 - 6:02
    信頼を失わせる可能性があります
  • 6:03 - 6:06
    選挙前日の夜を想像してください
  • 6:06 - 6:09
    優位政党の候補者の1人が
    重病にかかっている
  • 6:09 - 6:11
    ディープフェイク動画があるとします
  • 6:11 - 6:14
    そのディープフェイクが選挙をひっくり返し
  • 6:14 - 6:17
    選挙が公正であるという感覚を
    揺るがす可能性があります
  • 6:19 - 6:24
    大手のグローバル銀行の
    新規上場株の公開の前夜に
  • 6:24 - 6:28
    銀行のCEOが酔って
    陰謀論をベラベラしゃべる
  • 6:28 - 6:30
    ディープフェイク動画が
    出ることを想像してください
  • 6:31 - 6:34
    IPOは失敗し
  • 6:34 - 6:38
    ひどければ 金融市場が安定しているという
    感覚を揺るがす可能性があります
  • 6:39 - 6:46
    ディープフェイクは政治家やビジネスリーダー
    その他の有力なリーダーに対して
  • 6:46 - 6:51
    私たちが すでに持っている深い不信感を
    悪用し増幅させることができます
  • 6:51 - 6:54
    ディープフェイクは
    信じそうな聴衆を見つけます
  • 6:55 - 6:58
    そして 真実の追求も同様な危険に
    曝されています
  • 6:59 - 7:03
    技術者はAIの進歩を予想しています
  • 7:03 - 7:06
    本物と偽物の動画の違いを見分けることは
  • 7:06 - 7:10
    不可能ではないにしても
    難しくなるかもしれません
  • 7:11 - 7:16
    フェイクだらけの「思想の自由市場」に
    真実など見いだせるでしょうか?
  • 7:17 - 7:20
    障害が最も少ない道を選んで
  • 7:20 - 7:22
    自分たちが信じたいことを信じて
  • 7:22 - 7:24
    真実を永久に無視するだけでしょうか?
  • 7:25 - 7:28
    それから 偽物を信じるだけでなく
  • 7:28 - 7:31
    真実を信じないということが
    起き始めるかもしれません
  • 7:32 - 7:36
    ディープフェイクを使って
    自分の不正行為の物的証拠に
  • 7:36 - 7:40
    疑問を生じさせようとする人が
    すでに現れています
  • 7:40 - 7:46
    自分がした不都合な発言の録音ついて
    こう発言した政治家が何人もいました
  • 7:46 - 7:48
    「まさか それはフェイクニュースだよ
  • 7:48 - 7:52
    見聞きしたものを全部信じちゃ
    いけないよ」と
  • 7:52 - 8:00
    それはロバート・チェズニー教授と私が
    「嘘つきの分け前」と呼ぶリスクです
  • 8:00 - 8:03
    嘘つきが 自分の悪行の
    責任から逃れるために
  • 8:03 - 8:06
    ディープフェイクを持ち出す
    リスクのことです
  • 8:07 - 8:10
    私たちのすべき仕事がはっきりしました
    疑いの余地はありません
  • 8:11 - 8:14
    テクノロジー企業や議員
  • 8:14 - 8:17
    警察やメディアによる
  • 8:17 - 8:20
    予防的解決策が必要になるでしょう
  • 8:20 - 8:24
    そして 社会的レジリエンスが
    かなり必要になります
  • 8:26 - 8:29
    そこで テクノロジー企業の責任について
  • 8:29 - 8:32
    公開の対話を広く実施しています
  • 8:33 - 8:36
    ソーシャルメディアプラットフォームに対する
    私のアドバイスは
  • 8:36 - 8:40
    被害を引き起こす
    ディープフェイクを禁止するために
  • 8:40 - 8:42
    利用規約とコミュニティガイドラインを
    変更することです
  • 8:43 - 8:47
    この決定には人間の判断が必要とされ
  • 8:47 - 8:48
    コストがかかるでしょう
  • 8:49 - 8:55
    けれども ディープフェイクの
    内容や文脈を検討して
  • 8:55 - 8:59
    それが有害な偽物なのか それとも
  • 8:59 - 9:03
    価値のある風刺や芸術 教育なのかを
    見極めるには 人間の力が必要です
  • 9:04 - 9:06
    では 法律面はどうでしょう?
  • 9:07 - 9:09
    法律は私たちの先生です
  • 9:10 - 9:14
    何が良くないもので
    何が間違っているものかを教えてくれます
  • 9:14 - 9:18
    加害者を罰して
    被害者の救済策を確保することで
  • 9:18 - 9:20
    抑止すべき行動を決定します
  • 9:21 - 9:25
    現在 法律はディープフェイクという
    新たな問題に対応できていません
  • 9:26 - 9:30
    世界中で 性的プライバシーを侵害し
  • 9:30 - 9:34
    評判を傷つけ 精神的苦痛を引き起こす
  • 9:34 - 9:37
    なりすまし行為に対応できるように設計され
  • 9:37 - 9:39
    適切に定められた法律がありません
  • 9:40 - 9:44
    ラナ・アイユーブに起きたことは
    ありふれたことになりつつあります
  • 9:44 - 9:46
    彼女がデリーの警察に行ったとき
  • 9:46 - 9:48
    出来ることは何もないと言われたそうです
  • 9:49 - 9:52
    悲しいことに アメリカやヨーロッパにも
  • 9:52 - 9:55
    同じことが当てはまります
  • 9:55 - 10:00
    法律に埋めなければならない
    空白があるのです
  • 10:00 - 10:04
    同僚のメアリー・アン・フランクス博士と私は
  • 10:04 - 10:09
    米国の議員と協力して 身元の盗用に当たる
    有害なデジタルのなりすましを
  • 10:09 - 10:12
    禁止する法律を考案しています
  • 10:12 - 10:14
    また似たような取り組みが
  • 10:14 - 10:18
    アイスランドやイギリス
    オーストラリアでも進んでいます
  • 10:18 - 10:21
    ただ これは規制というパズルの
    ほんの1ピースに過ぎません
  • 10:23 - 10:26
    法律で全部解決する訳ではありませんよね
  • 10:26 - 10:28
    法律は鈍器のようなもので
  • 10:28 - 10:30
    賢く使わねばなりません
  • 10:30 - 10:33
    法律は実用的な障害も抱えています
  • 10:34 - 10:39
    身元の特定や探すことが出来ない人々に対して
    法律は適用できないのです
  • 10:39 - 10:44
    被害者の住む国に加害者がいない場合
  • 10:44 - 10:46
    正当な裁判を受けさせるため
  • 10:46 - 10:50
    地元の裁判所に来ることを
    要求できないかもしれません
  • 10:50 - 10:54
    したがって 各国が協調して
    対応する必要があるでしょう
  • 10:56 - 10:59
    私たちの対応には 教育も
    含まれなければなりません
  • 11:00 - 11:04
    警察が 自分たちの知らない法律を
    順守させることはないし
  • 11:04 - 11:05
    理解していない問題を
  • 11:05 - 11:08
    提起することもありません
  • 11:08 - 11:11
    サイバーストーカーに関する私の調査で
  • 11:11 - 11:14
    警察には利用可能な法律と
  • 11:14 - 11:17
    オンラインでの虐待の問題を
    理解するための訓練が
  • 11:17 - 11:19
    欠けていることがわかりました
  • 11:19 - 11:22
    彼らは頻繁に被害者にこう言いました
  • 11:22 - 11:26
    「コンピューターの電源を切るだけです
    無視してください 解決しますから」と
  • 11:26 - 11:29
    ラナのときもそうでした
  • 11:29 - 11:33
    彼女は こう言われたのです
    「たいしたことない 騒ぎ過ぎです
  • 11:33 - 11:35
    男の子のいたずらみたいなものですよ」
  • 11:35 - 11:41
    新しい法律と訓練を
    組み合わせる必要があります
  • 11:42 - 11:45
    また メディアで
    教育する必要もあります
  • 11:46 - 11:50
    記者はディープフェイクという現象について
    教育する必要があります
  • 11:50 - 11:54
    ディープフェイクを増長させたり
    広めたりしないためです
  • 11:55 - 11:57
    これは私たち全員が関わっていることです
  • 11:57 - 12:01
    私たち一人一人が教育する必要があります
  • 12:01 - 12:05
    私たちはクリックし 共有し いいねを押し
    そのことについて考えません
  • 12:06 - 12:07
    もっと努力が必要です
  • 12:08 - 12:11
    偽物をもっとよく見分ける手段が必要です
  • 12:14 - 12:18
    これらの解決策で取り組んでいくと
  • 12:18 - 12:20
    多くの苦労が待ち受けています
  • 12:21 - 12:24
    ラナ・アイユーブは
    今だにフェイクの余波と闘っています
  • 12:25 - 12:29
    彼女は今でもオンラインでもオフラインでも
    自分を表現することはできません
  • 12:30 - 12:31
    そして こう話してくれました
  • 12:31 - 12:36
    あのフェイクは自分の体ではなかったと
    頭ではわかっていても
  • 12:36 - 12:40
    今も自分の裸体に何千という
    視線が注がれている気がすると
  • 12:40 - 12:43
    知らない誰かが写真を撮ろうとすると
  • 12:43 - 12:47
    彼女は頻繁にパニック発作を起こします
  • 12:47 - 12:50
    「ディープフェイクを作る気だったら」と
    考えてしまうからです
  • 12:51 - 12:55
    だから ラナ・アイユーブのような個人のため
  • 12:55 - 12:57
    そして 私たちの民主主義のために
  • 12:57 - 13:00
    私たちは今すぐ
    行動を起こす必要があるのです
  • 13:00 - 13:01
    ありがとうございました
  • 13:01 - 13:03
    (拍手)
Title:
どのようにディープフェイクは真実を揺るがし、民主主義を脅かすのか
Speaker:
ダニエル・シトロン
Description:

暴力を煽ったり、政治家やジャーナリストを中傷したりするような悪意ある目的で、ディープフェイク技術を使って動画や音声を操作することが本物の脅威になりつつあります。そのためのツールがより利用しやすくなり、生成された動画や音声がより本物らしくなるにつれて、私たちの信じるものはどう影響を受けるのでしょうか。不吉な未来を予期させるトークを通じて、法学部教授ダニエル・シトロンは、ディープフェイクがいかに私たちの不信感を増幅させるかを明らかにし、真実を守るためのアプローチを提案します。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Japanese subtitles

Revisions