[このトークには
成人向けの内容が含まれます]
ラナ・アイユーブはインドの記者で
政府の汚職や人権侵害を
記事にしてきました
何年も経つうちに
彼女は自分の仕事への
非難や論争に慣れてきました
しかし 2018年4月に直面したことは
予期していなかったでしょう
最初にそれを目にしたとき
彼女は友人とカフェで座っていました
彼女が見たものは
2分20秒の自分のセックスの動画でした
彼女は目を疑いました
セックスの動画を撮ったことなど
1度もありませんでした
しかし 悲しいことに大勢の人々が
動画に映っているのは彼女だと思いました
性的プライバシーに関する本を
書いていた私は
3ヶ月前 彼女にインタビューをしました
私は法律学の教授で
弁護士で市民権を支持しています
ですから 今の法律が彼女を助けるために
ほぼ何もできないことを知っていて
非常に悔しい思いをしています
話の中で彼女は
偽物のセックス動画が作られることを
想定しておくべきだったと言いました
「結局 セックスは女性の品位を落とし
辱める常套手段なのです
特に少数派女性たち
とりわけ権力のある男性に敢然と立ち向かう
少数派の女性を辱めるためです」
彼女も権力に立ち向かってきました
偽物のセックスの動画は
48時間で拡散しました
彼女の全てのオンラインアカウントは
動画のスクリーンショットや
生々しい性的暴行や殺害の予告
イスラム教徒である彼女の
信仰に関する中傷で溢れました
オンラインの掲示板には彼女がセックスに
「いつでも応ずる」と書かれました
さらに 彼女は「晒され」ました
つまり 彼女の住所と電話番号が
ネット上に広まったのです
その動画は4万回以上も共有されました
誰かがこの種の
サイバーモブ攻撃の標的にされると
その被害は甚大です
ラナ・アイユーブの人生は
滅茶苦茶になりました
数週間 彼女は食事も会話も
ほとんどできなくなりました
記事の執筆をやめて ソーシャルメディアの
アカウントも全て閉鎖しました
ご存知の通り ジャーナリストとして
この行為はつらい決断です
彼女は実家を出ることが怖くなりました
もし投稿者が脅迫を実行したら
どうなるでしょう?
国連人権理事会は
彼女が正気であることを確認し
安全上の懸念があるという
声明を発表しました
ラナ・アイユーブが直面したものは
ディープフェイクです
機械学習の技術で
音声や動画を改ざんしたり 捏造して
本人が実際にしていないことや
言っていないことを
したように見せかけます
ディープフェイクは本物そっくりに
見えますが それは違っていて
完全な偽物です
この技術は現在 まだ完成途上ですが
簡単に利用出来ます
最近 ディープフェイクに
注目が集まった分野は
ネット上のあらゆるものが
注目している分野―
ポルノグラフィです
2018年の初頭
誰かがRedditに あるツールを投稿しました
ポルノ動画に別人の顔を
はめられるようにするものです
そして 自分たちの好きな女性有名人の
偽物のポルノ動画が次々と作られました
今ではYouTubeを見れば
無数のチュートリアルを見つけて
デスクトップアプリケーション上での
ディープフェイクの作り方を
順を追って学習することができます
もうすぐ 携帯でも動画を
作れるようになるかもしれません
私たち人間の弱い部分と
ネットワークツールの相互作用によって
ディープフェイクが凶器となりうるのです
では 説明しましょう
私たちは人間として 音や動画に対して
本能的な反応をします
私たちはそれらを正しいと感じますが
それは 自分の目や耳で体感したことは
信じられるはずという
考えに基づいています
この仕組みがあるため
私たちの共有する現実感を
損ないかねません
私たちはディープフェイクを
本物であると感じますが 実際は違います
私たちは猥褻で刺激的なものに
惹きつけられます
否定的で 今までにない情報を信じて
共有する傾向があります
研究者たちはオンラインのデマが正しい情報の
10倍速く広まることを発見しました
また 私たちは自分のものの見方に合う
情報に引き付けられます
心理学者はこの傾向を
「確証バイアス」と呼んでいます
ソーシャルメディアプラットフォームは
私たちの見方に合う情報を
即座に広く共有できるようにすることで
確証バイアスを強化します
今や ディープフェイクは個人と社会に
深刻な被害を及ぼす可能性があります
アフガニスタンにいるアメリカ兵が
イスラム教の聖典を燃やしている
ディープフェイク動画を想像してください
その動画が兵士たちへの
暴力を招くことは
容易に想像できます
そして もし翌日に
ロンドンに拠点を置く
有名なイスラム教の指導者が
兵士たちへの攻撃を賞賛する
別のディープフェイク動画が
投稿されたらどうでしょうか?
アフガニスタンとイギリスだけでなく
世界中で暴力と社会不安が
起こるかもしれません
私にこう言う方もいるかもしれません
「ダニエルさん 考えすぎだよ」と
考えすぎではありません
WhatsAppやそれ以外の
オンラインメッセージサービスで
広まった噂によって
少数民族への暴力が起こっています
それらはただの文章でしたが
動画なら どうだったでしょう
ディープフェイクは
私たちが持つ民主主義制度への
信頼を失わせる可能性があります
選挙前日の夜を想像してください
優位政党の候補者の1人が
重病にかかっている
ディープフェイク動画があるとします
そのディープフェイクが選挙をひっくり返し
選挙が公正であるという感覚を
揺るがす可能性があります
大手のグローバル銀行の
新規上場株の公開の前夜に
銀行のCEOが酔って
陰謀論をベラベラしゃべる
ディープフェイク動画が
出ることを想像してください
IPOは失敗し
ひどければ 金融市場が安定しているという
感覚を揺るがす可能性があります
ディープフェイクは政治家やビジネスリーダー
その他の有力なリーダーに対して
私たちが すでに持っている深い不信感を
悪用し増幅させることができます
ディープフェイクは
信じそうな聴衆を見つけます
そして 真実の追求も同様な危険に
曝されています
技術者はAIの進歩を予想しています
本物と偽物の動画の違いを見分けることは
不可能ではないにしても
難しくなるかもしれません
フェイクだらけの「思想の自由市場」に
真実など見いだせるでしょうか?
障害が最も少ない道を選んで
自分たちが信じたいことを信じて
真実を永久に無視するだけでしょうか?
それから 偽物を信じるだけでなく
真実を信じないということが
起き始めるかもしれません
ディープフェイクを使って
自分の不正行為の物的証拠に
疑問を生じさせようとする人が
すでに現れています
自分がした不都合な発言の録音ついて
こう発言した政治家が何人もいました
「まさか それはフェイクニュースだよ
見聞きしたものを全部信じちゃ
いけないよ」と
それはロバート・チェズニー教授と私が
「嘘つきの分け前」と呼ぶリスクです
嘘つきが 自分の悪行の
責任から逃れるために
ディープフェイクを持ち出す
リスクのことです
私たちのすべき仕事がはっきりしました
疑いの余地はありません
テクノロジー企業や議員
警察やメディアによる
予防的解決策が必要になるでしょう
そして 社会的レジリエンスが
かなり必要になります
そこで テクノロジー企業の責任について
公開の対話を広く実施しています
ソーシャルメディアプラットフォームに対する
私のアドバイスは
被害を引き起こす
ディープフェイクを禁止するために
利用規約とコミュニティガイドラインを
変更することです
この決定には人間の判断が必要とされ
コストがかかるでしょう
けれども ディープフェイクの
内容や文脈を検討して
それが有害な偽物なのか それとも
価値のある風刺や芸術 教育なのかを
見極めるには 人間の力が必要です
では 法律面はどうでしょう?
法律は私たちの先生です
何が良くないもので
何が間違っているものかを教えてくれます
加害者を罰して
被害者の救済策を確保することで
抑止すべき行動を決定します
現在 法律はディープフェイクという
新たな問題に対応できていません
世界中で 性的プライバシーを侵害し
評判を傷つけ 精神的苦痛を引き起こす
なりすまし行為に対応できるように設計され
適切に定められた法律がありません
ラナ・アイユーブに起きたことは
ありふれたことになりつつあります
彼女がデリーの警察に行ったとき
出来ることは何もないと言われたそうです
悲しいことに アメリカやヨーロッパにも
同じことが当てはまります
法律に埋めなければならない
空白があるのです
同僚のメアリー・アン・フランクス博士と私は
米国の議員と協力して 身元の盗用に当たる
有害なデジタルのなりすましを
禁止する法律を考案しています
また似たような取り組みが
アイスランドやイギリス
オーストラリアでも進んでいます
ただ これは規制というパズルの
ほんの1ピースに過ぎません
法律で全部解決する訳ではありませんよね
法律は鈍器のようなもので
賢く使わねばなりません
法律は実用的な障害も抱えています
身元の特定や探すことが出来ない人々に対して
法律は適用できないのです
被害者の住む国に加害者がいない場合
正当な裁判を受けさせるため
地元の裁判所に来ることを
要求できないかもしれません
したがって 各国が協調して
対応する必要があるでしょう
私たちの対応には 教育も
含まれなければなりません
警察が 自分たちの知らない法律を
順守させることはないし
理解していない問題を
提起することもありません
サイバーストーカーに関する私の調査で
警察には利用可能な法律と
オンラインでの虐待の問題を
理解するための訓練が
欠けていることがわかりました
彼らは頻繁に被害者にこう言いました
「コンピューターの電源を切るだけです
無視してください 解決しますから」と
ラナのときもそうでした
彼女は こう言われたのです
「たいしたことない 騒ぎ過ぎです
男の子のいたずらみたいなものですよ」
新しい法律と訓練を
組み合わせる必要があります
また メディアで
教育する必要もあります
記者はディープフェイクという現象について
教育する必要があります
ディープフェイクを増長させたり
広めたりしないためです
これは私たち全員が関わっていることです
私たち一人一人が教育する必要があります
私たちはクリックし 共有し いいねを押し
そのことについて考えません
もっと努力が必要です
偽物をもっとよく見分ける手段が必要です
これらの解決策で取り組んでいくと
多くの苦労が待ち受けています
ラナ・アイユーブは
今だにフェイクの余波と闘っています
彼女は今でもオンラインでもオフラインでも
自分を表現することはできません
そして こう話してくれました
あのフェイクは自分の体ではなかったと
頭ではわかっていても
今も自分の裸体に何千という
視線が注がれている気がすると
知らない誰かが写真を撮ろうとすると
彼女は頻繁にパニック発作を起こします
「ディープフェイクを作る気だったら」と
考えてしまうからです
だから ラナ・アイユーブのような個人のため
そして 私たちの民主主義のために
私たちは今すぐ
行動を起こす必要があるのです
ありがとうございました
(拍手)