どのようにディープフェイクは真実を揺るがし、民主主義を脅かすのか
-
0:00 - 0:03[このトークには
成人向けの内容が含まれます] -
0:06 - 0:09ラナ・アイユーブはインドの記者で
-
0:09 - 0:15政府の汚職や人権侵害を
記事にしてきました -
0:15 - 0:16何年も経つうちに
-
0:16 - 0:19彼女は自分の仕事への
非難や論争に慣れてきました -
0:20 - 0:25しかし 2018年4月に直面したことは
予期していなかったでしょう -
0:26 - 0:30最初にそれを目にしたとき
彼女は友人とカフェで座っていました -
0:30 - 0:35彼女が見たものは
2分20秒の自分のセックスの動画でした -
0:35 - 0:38彼女は目を疑いました
-
0:38 - 0:40セックスの動画を撮ったことなど
1度もありませんでした -
0:41 - 0:44しかし 悲しいことに大勢の人々が
-
0:44 - 0:46動画に映っているのは彼女だと思いました
-
0:47 - 0:50性的プライバシーに関する本を
書いていた私は -
0:50 - 0:523ヶ月前 彼女にインタビューをしました
-
0:53 - 0:56私は法律学の教授で
弁護士で市民権を支持しています -
0:56 - 1:01ですから 今の法律が彼女を助けるために
ほぼ何もできないことを知っていて -
1:01 - 1:03非常に悔しい思いをしています
-
1:03 - 1:05話の中で彼女は
-
1:05 - 1:10偽物のセックス動画が作られることを
想定しておくべきだったと言いました -
1:10 - 1:16「結局 セックスは女性の品位を落とし
辱める常套手段なのです -
1:16 - 1:18特に少数派女性たち
-
1:18 - 1:23とりわけ権力のある男性に敢然と立ち向かう
少数派の女性を辱めるためです」 -
1:23 - 1:24彼女も権力に立ち向かってきました
-
1:25 - 1:29偽物のセックスの動画は
48時間で拡散しました -
1:30 - 1:35彼女の全てのオンラインアカウントは
動画のスクリーンショットや -
1:35 - 1:38生々しい性的暴行や殺害の予告
-
1:38 - 1:41イスラム教徒である彼女の
信仰に関する中傷で溢れました -
1:41 - 1:46オンラインの掲示板には彼女がセックスに
「いつでも応ずる」と書かれました -
1:46 - 1:48さらに 彼女は「晒され」ました
-
1:48 - 1:50つまり 彼女の住所と電話番号が
-
1:50 - 1:52ネット上に広まったのです
-
1:53 - 1:57その動画は4万回以上も共有されました
-
1:58 - 2:02誰かがこの種の
サイバーモブ攻撃の標的にされると -
2:02 - 2:04その被害は甚大です
-
2:04 - 2:08ラナ・アイユーブの人生は
滅茶苦茶になりました -
2:08 - 2:12数週間 彼女は食事も会話も
ほとんどできなくなりました -
2:12 - 2:16記事の執筆をやめて ソーシャルメディアの
アカウントも全て閉鎖しました -
2:16 - 2:19ご存知の通り ジャーナリストとして
この行為はつらい決断です -
2:19 - 2:23彼女は実家を出ることが怖くなりました
-
2:23 - 2:26もし投稿者が脅迫を実行したら
どうなるでしょう? -
2:26 - 2:31国連人権理事会は
彼女が正気であることを確認し -
2:31 - 2:35安全上の懸念があるという
声明を発表しました -
2:37 - 2:41ラナ・アイユーブが直面したものは
ディープフェイクです -
2:41 - 2:44機械学習の技術で
-
2:44 - 2:48音声や動画を改ざんしたり 捏造して
-
2:48 - 2:50本人が実際にしていないことや
言っていないことを -
2:50 - 2:52したように見せかけます
-
2:53 - 2:56ディープフェイクは本物そっくりに
見えますが それは違っていて -
2:56 - 2:58完全な偽物です
-
2:59 - 3:03この技術は現在 まだ完成途上ですが
-
3:03 - 3:05簡単に利用出来ます
-
3:05 - 3:08最近 ディープフェイクに
注目が集まった分野は -
3:08 - 3:11ネット上のあらゆるものが
注目している分野― -
3:11 - 3:12ポルノグラフィです
-
3:12 - 3:152018年の初頭
-
3:15 - 3:17誰かがRedditに あるツールを投稿しました
-
3:17 - 3:22ポルノ動画に別人の顔を
はめられるようにするものです -
3:22 - 3:25そして 自分たちの好きな女性有名人の
-
3:25 - 3:28偽物のポルノ動画が次々と作られました
-
3:29 - 3:32今ではYouTubeを見れば
無数のチュートリアルを見つけて -
3:32 - 3:34デスクトップアプリケーション上での
-
3:35 - 3:38ディープフェイクの作り方を
順を追って学習することができます -
3:38 - 3:42もうすぐ 携帯でも動画を
作れるようになるかもしれません -
3:43 - 3:50私たち人間の弱い部分と
ネットワークツールの相互作用によって -
3:50 - 3:53ディープフェイクが凶器となりうるのです
-
3:53 - 3:54では 説明しましょう
-
3:55 - 3:59私たちは人間として 音や動画に対して
本能的な反応をします -
4:00 - 4:01私たちはそれらを正しいと感じますが
-
4:01 - 4:03それは 自分の目や耳で体感したことは
-
4:03 - 4:06信じられるはずという
考えに基づいています -
4:06 - 4:08この仕組みがあるため
-
4:08 - 4:12私たちの共有する現実感を
損ないかねません -
4:12 - 4:15私たちはディープフェイクを
本物であると感じますが 実際は違います -
4:16 - 4:20私たちは猥褻で刺激的なものに
惹きつけられます -
4:20 - 4:25否定的で 今までにない情報を信じて
共有する傾向があります -
4:26 - 4:30研究者たちはオンラインのデマが正しい情報の
-
4:30 - 4:3210倍速く広まることを発見しました
-
4:34 - 4:40また 私たちは自分のものの見方に合う
情報に引き付けられます -
4:41 - 4:45心理学者はこの傾向を
「確証バイアス」と呼んでいます -
4:45 - 4:50ソーシャルメディアプラットフォームは
-
4:50 - 4:54私たちの見方に合う情報を
即座に広く共有できるようにすることで -
4:54 - 4:55確証バイアスを強化します
-
4:57 - 5:02今や ディープフェイクは個人と社会に
深刻な被害を及ぼす可能性があります -
5:03 - 5:05アフガニスタンにいるアメリカ兵が
-
5:05 - 5:09イスラム教の聖典を燃やしている
ディープフェイク動画を想像してください -
5:11 - 5:14その動画が兵士たちへの
暴力を招くことは -
5:14 - 5:15容易に想像できます
-
5:16 - 5:18そして もし翌日に
-
5:18 - 5:21ロンドンに拠点を置く
有名なイスラム教の指導者が -
5:21 - 5:24兵士たちへの攻撃を賞賛する
別のディープフェイク動画が -
5:24 - 5:27投稿されたらどうでしょうか?
-
5:28 - 5:31アフガニスタンとイギリスだけでなく
-
5:31 - 5:36世界中で暴力と社会不安が
起こるかもしれません -
5:36 - 5:38私にこう言う方もいるかもしれません
-
5:38 - 5:40「ダニエルさん 考えすぎだよ」と
-
5:40 - 5:41考えすぎではありません
-
5:41 - 5:43WhatsAppやそれ以外の
-
5:44 - 5:46オンラインメッセージサービスで
広まった噂によって -
5:46 - 5:49少数民族への暴力が起こっています
-
5:49 - 5:51それらはただの文章でしたが
-
5:51 - 5:53動画なら どうだったでしょう
-
5:55 - 6:00ディープフェイクは
私たちが持つ民主主義制度への -
6:00 - 6:02信頼を失わせる可能性があります
-
6:03 - 6:06選挙前日の夜を想像してください
-
6:06 - 6:09優位政党の候補者の1人が
重病にかかっている -
6:09 - 6:11ディープフェイク動画があるとします
-
6:11 - 6:14そのディープフェイクが選挙をひっくり返し
-
6:14 - 6:17選挙が公正であるという感覚を
揺るがす可能性があります -
6:19 - 6:24大手のグローバル銀行の
新規上場株の公開の前夜に -
6:24 - 6:28銀行のCEOが酔って
陰謀論をベラベラしゃべる -
6:28 - 6:30ディープフェイク動画が
出ることを想像してください -
6:31 - 6:34IPOは失敗し
-
6:34 - 6:38ひどければ 金融市場が安定しているという
感覚を揺るがす可能性があります -
6:39 - 6:46ディープフェイクは政治家やビジネスリーダー
その他の有力なリーダーに対して -
6:46 - 6:51私たちが すでに持っている深い不信感を
悪用し増幅させることができます -
6:51 - 6:54ディープフェイクは
信じそうな聴衆を見つけます -
6:55 - 6:58そして 真実の追求も同様な危険に
曝されています -
6:59 - 7:03技術者はAIの進歩を予想しています
-
7:03 - 7:06本物と偽物の動画の違いを見分けることは
-
7:06 - 7:10不可能ではないにしても
難しくなるかもしれません -
7:11 - 7:16フェイクだらけの「思想の自由市場」に
真実など見いだせるでしょうか? -
7:17 - 7:20障害が最も少ない道を選んで
-
7:20 - 7:22自分たちが信じたいことを信じて
-
7:22 - 7:24真実を永久に無視するだけでしょうか?
-
7:25 - 7:28それから 偽物を信じるだけでなく
-
7:28 - 7:31真実を信じないということが
起き始めるかもしれません -
7:32 - 7:36ディープフェイクを使って
自分の不正行為の物的証拠に -
7:36 - 7:40疑問を生じさせようとする人が
すでに現れています -
7:40 - 7:46自分がした不都合な発言の録音ついて
こう発言した政治家が何人もいました -
7:46 - 7:48「まさか それはフェイクニュースだよ
-
7:48 - 7:52見聞きしたものを全部信じちゃ
いけないよ」と -
7:52 - 8:00それはロバート・チェズニー教授と私が
「嘘つきの分け前」と呼ぶリスクです -
8:00 - 8:03嘘つきが 自分の悪行の
責任から逃れるために -
8:03 - 8:06ディープフェイクを持ち出す
リスクのことです -
8:07 - 8:10私たちのすべき仕事がはっきりしました
疑いの余地はありません -
8:11 - 8:14テクノロジー企業や議員
-
8:14 - 8:17警察やメディアによる
-
8:17 - 8:20予防的解決策が必要になるでしょう
-
8:20 - 8:24そして 社会的レジリエンスが
かなり必要になります -
8:26 - 8:29そこで テクノロジー企業の責任について
-
8:29 - 8:32公開の対話を広く実施しています
-
8:33 - 8:36ソーシャルメディアプラットフォームに対する
私のアドバイスは -
8:36 - 8:40被害を引き起こす
ディープフェイクを禁止するために -
8:40 - 8:42利用規約とコミュニティガイドラインを
変更することです -
8:43 - 8:47この決定には人間の判断が必要とされ
-
8:47 - 8:48コストがかかるでしょう
-
8:49 - 8:55けれども ディープフェイクの
内容や文脈を検討して -
8:55 - 8:59それが有害な偽物なのか それとも
-
8:59 - 9:03価値のある風刺や芸術 教育なのかを
見極めるには 人間の力が必要です -
9:04 - 9:06では 法律面はどうでしょう?
-
9:07 - 9:09法律は私たちの先生です
-
9:10 - 9:14何が良くないもので
何が間違っているものかを教えてくれます -
9:14 - 9:18加害者を罰して
被害者の救済策を確保することで -
9:18 - 9:20抑止すべき行動を決定します
-
9:21 - 9:25現在 法律はディープフェイクという
新たな問題に対応できていません -
9:26 - 9:30世界中で 性的プライバシーを侵害し
-
9:30 - 9:34評判を傷つけ 精神的苦痛を引き起こす
-
9:34 - 9:37なりすまし行為に対応できるように設計され
-
9:37 - 9:39適切に定められた法律がありません
-
9:40 - 9:44ラナ・アイユーブに起きたことは
ありふれたことになりつつあります -
9:44 - 9:46彼女がデリーの警察に行ったとき
-
9:46 - 9:48出来ることは何もないと言われたそうです
-
9:49 - 9:52悲しいことに アメリカやヨーロッパにも
-
9:52 - 9:55同じことが当てはまります
-
9:55 - 10:00法律に埋めなければならない
空白があるのです -
10:00 - 10:04同僚のメアリー・アン・フランクス博士と私は
-
10:04 - 10:09米国の議員と協力して 身元の盗用に当たる
有害なデジタルのなりすましを -
10:09 - 10:12禁止する法律を考案しています
-
10:12 - 10:14また似たような取り組みが
-
10:14 - 10:18アイスランドやイギリス
オーストラリアでも進んでいます -
10:18 - 10:21ただ これは規制というパズルの
ほんの1ピースに過ぎません -
10:23 - 10:26法律で全部解決する訳ではありませんよね
-
10:26 - 10:28法律は鈍器のようなもので
-
10:28 - 10:30賢く使わねばなりません
-
10:30 - 10:33法律は実用的な障害も抱えています
-
10:34 - 10:39身元の特定や探すことが出来ない人々に対して
法律は適用できないのです -
10:39 - 10:44被害者の住む国に加害者がいない場合
-
10:44 - 10:46正当な裁判を受けさせるため
-
10:46 - 10:50地元の裁判所に来ることを
要求できないかもしれません -
10:50 - 10:54したがって 各国が協調して
対応する必要があるでしょう -
10:56 - 10:59私たちの対応には 教育も
含まれなければなりません -
11:00 - 11:04警察が 自分たちの知らない法律を
順守させることはないし -
11:04 - 11:05理解していない問題を
-
11:05 - 11:08提起することもありません
-
11:08 - 11:11サイバーストーカーに関する私の調査で
-
11:11 - 11:14警察には利用可能な法律と
-
11:14 - 11:17オンラインでの虐待の問題を
理解するための訓練が -
11:17 - 11:19欠けていることがわかりました
-
11:19 - 11:22彼らは頻繁に被害者にこう言いました
-
11:22 - 11:26「コンピューターの電源を切るだけです
無視してください 解決しますから」と -
11:26 - 11:29ラナのときもそうでした
-
11:29 - 11:33彼女は こう言われたのです
「たいしたことない 騒ぎ過ぎです -
11:33 - 11:35男の子のいたずらみたいなものですよ」
-
11:35 - 11:41新しい法律と訓練を
組み合わせる必要があります -
11:42 - 11:45また メディアで
教育する必要もあります -
11:46 - 11:50記者はディープフェイクという現象について
教育する必要があります -
11:50 - 11:54ディープフェイクを増長させたり
広めたりしないためです -
11:55 - 11:57これは私たち全員が関わっていることです
-
11:57 - 12:01私たち一人一人が教育する必要があります
-
12:01 - 12:05私たちはクリックし 共有し いいねを押し
そのことについて考えません -
12:06 - 12:07もっと努力が必要です
-
12:08 - 12:11偽物をもっとよく見分ける手段が必要です
-
12:14 - 12:18これらの解決策で取り組んでいくと
-
12:18 - 12:20多くの苦労が待ち受けています
-
12:21 - 12:24ラナ・アイユーブは
今だにフェイクの余波と闘っています -
12:25 - 12:29彼女は今でもオンラインでもオフラインでも
自分を表現することはできません -
12:30 - 12:31そして こう話してくれました
-
12:31 - 12:36あのフェイクは自分の体ではなかったと
頭ではわかっていても -
12:36 - 12:40今も自分の裸体に何千という
視線が注がれている気がすると -
12:40 - 12:43知らない誰かが写真を撮ろうとすると
-
12:43 - 12:47彼女は頻繁にパニック発作を起こします
-
12:47 - 12:50「ディープフェイクを作る気だったら」と
考えてしまうからです -
12:51 - 12:55だから ラナ・アイユーブのような個人のため
-
12:55 - 12:57そして 私たちの民主主義のために
-
12:57 - 13:00私たちは今すぐ
行動を起こす必要があるのです -
13:00 - 13:01ありがとうございました
-
13:01 - 13:03(拍手)
- Title:
- どのようにディープフェイクは真実を揺るがし、民主主義を脅かすのか
- Speaker:
- ダニエル・シトロン
- Description:
-
暴力を煽ったり、政治家やジャーナリストを中傷したりするような悪意ある目的で、ディープフェイク技術を使って動画や音声を操作することが本物の脅威になりつつあります。そのためのツールがより利用しやすくなり、生成された動画や音声がより本物らしくなるにつれて、私たちの信じるものはどう影響を受けるのでしょうか。不吉な未来を予期させるトークを通じて、法学部教授ダニエル・シトロンは、ディープフェイクがいかに私たちの不信感を増幅させるかを明らかにし、真実を守るためのアプローチを提案します。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Retired user approved Japanese subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user edited Japanese subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user edited Japanese subtitles for How deepfakes undermine truth and threaten democracy | ||
Masaki Yanagishita accepted Japanese subtitles for How deepfakes undermine truth and threaten democracy | ||
Mishima Ryosuke edited Japanese subtitles for How deepfakes undermine truth and threaten democracy | ||
Masaki Yanagishita declined Japanese subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user rejected Japanese subtitles for How deepfakes undermine truth and threaten democracy | ||
Retired user edited Japanese subtitles for How deepfakes undermine truth and threaten democracy |