Return to Video

デマ情報の時代に真実を守るには

  • 0:01 - 0:07
    2013年 4月23日
  • 0:07 - 0:12
    AP通信は次のようなツイートを
    投稿しました
  • 0:12 - 0:15
    「速報
  • 0:15 - 0:17
    ホワイトハウスで2度の爆発
  • 0:17 - 0:20
    バラク・オバマ大統領が負傷」
  • 0:20 - 0:26
    このツイートは5分足らずで
    4000回以上リツイートされ
  • 0:26 - 0:28
    その後 バズりました
  • 0:29 - 0:33
    しかし これはAP通信によって出された
    本物のニュースではなく
  • 0:33 - 0:36
    虚偽のニュース
    フェイクニュースだったのです
  • 0:36 - 0:39
    これはAP通信のツイッターを乗っ取った
  • 0:39 - 0:44
    シリアのハッカーたちによって
    流布されたものでした
  • 0:44 - 0:48
    社会を混乱させるのが彼らの目的でしたが
    混乱は予想を超えました
  • 0:48 - 0:51
    自動化された市場取引のアルゴリズムが
  • 0:51 - 0:54
    このツイートによる市場心理の変化を
    瞬時に察知し
  • 0:54 - 0:57
    アメリカ大統領がこの爆発で負傷―
  • 0:57 - 1:01
    もしくは殺されたという見込みで
  • 1:01 - 1:02
    取引を始めたからです
  • 1:02 - 1:04
    ツイートが投稿されると
  • 1:04 - 1:08
    株式市場はすぐに大混乱に陥りました
  • 1:08 - 1:13
    たった1日で 1400億ドルに相当する
    株式価値が消し飛びました
  • 1:13 - 1:18
    アメリカ合衆国特別検察官
    ロバート・モラーは
  • 1:18 - 1:21
    ロシアの会社3社と13人のロシア人を
  • 1:21 - 1:24
    2016年のアメリカ大統領選に干渉して
  • 1:24 - 1:27
    アメリカに対し詐欺を働こうとした罪で
  • 1:27 - 1:31
    起訴しています
  • 1:32 - 1:35
    起訴された会社の1つは
  • 1:35 - 1:39
    「インターネット・リサーチ・
    エージェンシー」
  • 1:39 - 1:42
    ソーシャルメディアに携わる
    クレムリンの影の機関です
  • 1:43 - 1:46
    大統領選期間中だけでも
  • 1:46 - 1:48
    インターネット・エージェンシーは
  • 1:48 - 1:53
    フェイスブック上で
    1億2600万人のアメリカ人にリーチし
  • 1:53 - 1:56
    300万もの個人名義のツイートをし
  • 1:56 - 2:00
    43時間分のYoutubeの動画を
    作成しました
  • 2:00 - 2:02
    そのすべてがフェイク つまり―
  • 2:02 - 2:08
    アメリカ大統領選で不和の種を
    蒔くために作られたデマ情報でした
  • 2:09 - 2:12
    オックスフォード大による
    近年の研究によると
  • 2:12 - 2:15
    最近のスウェーデンの選挙では
  • 2:15 - 2:19
    ソーシャルメディアで拡散された
    選挙に関する全情報のうち
  • 2:19 - 2:21
    3分の1が
  • 2:21 - 2:23
    フェイクかデマ情報でした
  • 2:23 - 2:28
    さらに こうしたソーシャルメディア上の
    デマ情報活動というのは
  • 2:28 - 2:32
    「集団虐殺プロパガンダ」と呼ばれてきた
    ものを拡散させかねません
  • 2:32 - 2:35
    たとえばミャンマーでの
    ロヒンギャを対象にしたものや
  • 2:35 - 2:38
    インドでのリンチ殺人の
    引き金になったものです
  • 2:38 - 2:40
    私たちはこの言葉が一般的なものになる前から
  • 2:40 - 2:43
    フェイクニュースを研究してきました
  • 2:43 - 2:48
    そして最近 ネットでの
    フェイクニュースの広がりについて
  • 2:48 - 2:50
    史上最大規模の長期研究の成果を
    発表し
  • 2:50 - 2:54
    それが今年の3月の「サイエンス」誌の
    表紙を飾りました
  • 2:55 - 2:59
    研究対象にしたのは ツイッターが
    サービスを開始した2006年から
  • 2:59 - 3:00
    2017年までの間に拡散された
  • 3:00 - 3:04
    裏の取れている真実のニュースと
    虚偽のニュース全部です
  • 3:05 - 3:07
    これらの情報を調べるにあたり
  • 3:07 - 3:10
    6つの独立した
    ファクトチェック機関によって
  • 3:10 - 3:14
    確認されたニュースを扱いました
  • 3:14 - 3:17
    ですからどのニュースが真実で
  • 3:17 - 3:19
    どれが虚偽なのか 分かっていました
  • 3:19 - 3:21
    調べたのはニュースの拡散の度合いや
  • 3:21 - 3:22
    拡散するスピード
  • 3:22 - 3:24
    拡散の深さと広がり
  • 3:24 - 3:29
    どれくらい多くの人が その情報の
    流れに巻き込まれたか などです
  • 3:29 - 3:30
    さらに この論文では
  • 3:30 - 3:34
    真実のニュースと虚偽のニュースの
    拡散スピードを比較しました
  • 3:34 - 3:36
    その結果分かったのは
  • 3:36 - 3:40
    虚偽のニュースは 真実よりも
    遠くまで 速く 深く
  • 3:40 - 3:42
    そして大勢の人に広まるということです
  • 3:42 - 3:45
    それも 研究対象にしたどのカテゴリの
    情報においてもです
  • 3:45 - 3:47
    その差が桁違いというケースもありました
  • 3:48 - 3:51
    とりわけ 虚偽の政治ニュースは
    もっともバズりやすいものでした
  • 3:51 - 3:55
    ほかのどの種類のニュースよりも
    遠くまで 速く
  • 3:55 - 3:57
    深く 大勢の人に広まったのです
  • 3:57 - 3:59
    このことを発見したとき
  • 3:59 - 4:02
    私たちは心配になると同時に
    好奇心も覚えました
  • 4:02 - 4:03
    なぜ?
  • 4:03 - 4:06
    なぜ虚偽のニュースは真実よりも
    ずっと遠くまで 速く 深く
  • 4:06 - 4:08
    大勢の人に届くのか?
  • 4:08 - 4:11
    私たちが思いついた第一の仮説は
    こういうものでした
  • 4:11 - 4:16
    「虚偽のニュースを広めている人たちは
    フォロー・フォロワー数が多いとか
  • 4:16 - 4:18
    ツイートの頻度が高いとか
  • 4:18 - 4:22
    ツイッターの認証を受けていて
    より信頼性が高いとか
  • 4:22 - 4:24
    ツイッターの利用時間が多いとか
    だろう」
  • 4:24 - 4:26
    そこでこれらの仮説を
    1つずつ検証してみました
  • 4:27 - 4:30
    ところが まったく逆でした
  • 4:30 - 4:32
    虚偽のニュースを広めている人は
    フォロー数が少なく
  • 4:32 - 4:34
    フォロワー数も少なく
    アクティブでもなく
  • 4:34 - 4:36
    認証を受けていないことが多く
  • 4:36 - 4:39
    ツイッターの利用時間も短かったのです
  • 4:39 - 4:40
    さらに
  • 4:40 - 4:45
    これら全てと 他の多くの要素を
    調整すると 虚偽のニュースは
  • 4:45 - 4:48
    真実よりも 70%も リツイート
    されやすいことがわかりました
  • 4:48 - 4:51
    ですから 他の説明を
    探す必要がありました
  • 4:51 - 4:55
    それで考えついたのが
    「新奇性仮説」と呼んでいるものです
  • 4:55 - 4:57
    記事を読む人の注目というのは
  • 4:57 - 5:01
    新奇性へと吸い寄せられることが
    よく知られています
  • 5:01 - 5:03
    新奇性とは その環境において
    新しいものです
  • 5:03 - 5:05
    社会学の文献を読んだことがあれば
  • 5:05 - 5:10
    人は新奇性の高い情報を共有したく
    なるものだとご存知でしょう
  • 5:10 - 5:14
    そうすることで 内部情報へのアクセスを
    持っているように見えますし
  • 5:14 - 5:17
    新奇性のある情報を広げることで
    自分の地位が高まるからです
  • 5:18 - 5:24
    そこで 流れてくる真実 あるいは
    虚偽のツイートの新奇性を測るために
  • 5:24 - 5:31
    当該のツイートを その人がツイッター上で
    その前の60日間に見た情報と比較しました
  • 5:31 - 5:34
    でもこれでは不十分でした
    内心ではこう考えていたからです
  • 5:34 - 5:38
    「虚偽のニュースは情報理論的な意味では
    真実よりも新奇性があるかもしれないが
  • 5:38 - 5:41
    だからといって より新奇性があると
    人々が思うとは限らない」
  • 5:42 - 5:46
    ですから 虚偽のニュースが
    どう受け止められるかを理解するために
  • 5:46 - 5:49
    真実のツイートと虚偽のツイートへの
    リプライに含まれている
  • 5:50 - 5:54
    情報と感情を検証してみることにしました
  • 5:54 - 5:55
    その結果―
  • 5:55 - 5:59
    それぞれに異なる種類の感情として
  • 5:59 - 6:03
    ここでは 驚き 嫌悪 恐怖 悲しみ
  • 6:03 - 6:05
    期待 喜び そして信頼を考えましたが
  • 6:05 - 6:11
    虚偽のツイートへのリプライには
    驚き そして嫌悪が
  • 6:11 - 6:14
    有意に多く含まれていたことが分かりました
  • 6:14 - 6:17
    そして真実のツイートへのリプライには
  • 6:17 - 6:20
    期待や喜び そして信頼が
  • 6:20 - 6:22
    有意に多く含まれていました
  • 6:22 - 6:26
    この驚きの発見は
    私たちの新奇性仮説を裏付けるものです
  • 6:26 - 6:31
    新しくて驚かされるものは
    共有したい気持ちが高まるのです
  • 6:31 - 6:34
    そして同じころ アメリカでは両議会で
  • 6:34 - 6:37
    議会証言が行われていました
  • 6:37 - 6:41
    デマ情報の拡散で ボットが
    どんな役割を果たしているかについてでした
  • 6:41 - 6:42
    これについても調べてみました
  • 6:42 - 6:46
    複数の高性能な
    ボット検出アルゴリズムを用いて
  • 6:46 - 6:49
    データの中のボットを見つけ 取り出します
  • 6:49 - 6:52
    そして取り出した場合と
    ボットも含む場合とで
  • 6:52 - 6:55
    計測結果がどう変化するか 比較しました
  • 6:55 - 6:57
    これで分かったのは
    そう 確かに
  • 6:57 - 7:01
    ボットはネットの虚偽ニュースの
    拡散を加速させていましたが
  • 7:01 - 7:04
    真実のニュースの拡散もほぼ同じ度合いで
  • 7:04 - 7:06
    加速させていました
  • 7:06 - 7:09
    つまり ボットの存在では
    ネットにおける
  • 7:09 - 7:14
    真実と虚偽の拡散度合いの違いを
    説明できなかったのです
  • 7:14 - 7:17
    私たちがこの説明責任を
    放棄することはできません
  • 7:17 - 7:21
    なぜなら私たち人間こそが
    虚偽の情報の拡散の責任を負っているからです
  • 7:22 - 7:26
    さて ここまでお話したことはすべて
  • 7:26 - 7:28
    大変残念ながら―
  • 7:28 - 7:29
    まだマシなお知らせです
  • 7:31 - 7:35
    というのも まさにこれから 何もかもが
    どんどん悪化していくところだからです
  • 7:36 - 7:40
    事態を悪化させるのは
    2つのテクノロジーです
  • 7:40 - 7:45
    合成メディアの巨大な波が
    今押し寄せようとしているのです
  • 7:45 - 7:51
    人の目にとって 極めてもっともらしい
    フェイク動画やフェイク音声です
  • 7:51 - 7:54
    2つのテクノロジーが
    この巨大な波を推進していくでしょう
  • 7:54 - 7:58
    1つめは「敵対的生成ネットワーク
    (GANs)」と呼ばれるもの
  • 7:58 - 8:01
    これは機械学習モデルで
    2つのネットワークから成ります
  • 8:01 - 8:02
    1つは識別ネットワーク
  • 8:02 - 8:06
    ある情報が真実か虚偽かを
    決定する役割を持ちます
  • 8:06 - 8:08
    そして生成ネットワーク
  • 8:08 - 8:11
    合成動画を出力する役割を持ちます
  • 8:11 - 8:16
    生成ネットワークが
    合成動画や音声を出力すると
  • 8:16 - 8:21
    識別ネットワークがこれが「リアルか
    フェイクか」を判定しようとします
  • 8:21 - 8:24
    生成ネットワークの仕事というのは
  • 8:24 - 8:28
    作り出す動画や音声がリアルだと
    識別ネットワークを騙せるまで
  • 8:28 - 8:32
    合成動画のもっともらしさを
  • 8:32 - 8:33
    最大化することなのです
  • 8:33 - 8:36
    これは 機械が処理を高速で繰り返し
  • 8:36 - 8:39
    人間を騙すテクを どんどん
    磨こうとするようなものです
  • 8:39 - 8:42
    これが
    2つめのテクノロジーと合体します
  • 8:42 - 8:47
    そのテクノロジーは本質的には
    AIの民主化ともいうべきものです
  • 8:47 - 8:50
    誰でも
  • 8:50 - 8:54
    AIや機械学習の基礎知識がなくても
    合成メディアを出力するための
  • 8:54 - 8:58
    この手のアルゴリズムを使えるようになる
    AIの民主化
  • 8:58 - 9:02
    これがGANsと融合し 合成動画を
    作り出すことが果てしなく簡単になるのです
  • 9:02 - 9:07
    たとえばホワイトハウスは
    虚偽の加工動画を公開しました
  • 9:07 - 9:11
    これはホワイトハウスのインターンが記者から
    マイクを返してもらおうとしたときの動画で
  • 9:11 - 9:13
    動画から数フレームを取り除き
  • 9:13 - 9:17
    記者の動きを より攻撃的に
    見せようとしたものです
  • 9:17 - 9:21
    映像作家やスタントを仕事とする人たちは
  • 9:21 - 9:23
    この手の技術について聞かれて
  • 9:23 - 9:27
    こう答えていました
    「ええ 映画ではいつも使っていますよ
  • 9:27 - 9:32
    パンチやキックをより激しく
    攻撃的に見せるためにね」
  • 9:32 - 9:34
    でも この加工動画の目的の一部は
  • 9:34 - 9:37
    ジム・アコスタという記者から
  • 9:37 - 9:41
    ホワイトハウスへの入館許可証を
    はく奪するのを
  • 9:41 - 9:42
    正当化するためでした
  • 9:42 - 9:47
    CNNは許可証を取り戻すために
    政権を提訴しなければなりませんでした
  • 9:49 - 9:54
    これらは非常に難しい問題ですが
    その一部にでも取り組み 解決するために
  • 9:54 - 9:58
    5つの手段があると私は見ています
  • 9:58 - 10:00
    それぞれに可能性がありますが
  • 10:00 - 10:03
    また それぞれに課題もあります
  • 10:03 - 10:05
    1つめはラベリング
  • 10:05 - 10:07
    こういうものです
  • 10:07 - 10:10
    食料品店に行って食べ物を買うとします
  • 10:10 - 10:12
    どの商品もラベルがついていますね
  • 10:12 - 10:14
    カロリーはどれくらいか
  • 10:14 - 10:16
    どれくらい脂肪分が含まれているか
  • 10:16 - 10:20
    けれど情報を消費するときは
    ラベルなんて全然ついていません
  • 10:20 - 10:22
    この情報には何が含まれているか?
  • 10:22 - 10:24
    情報源は信頼できるか?
  • 10:24 - 10:26
    どこで集められた情報か?
  • 10:26 - 10:28
    こうしたことを 何も知らずに
  • 10:28 - 10:30
    情報を消費しているのです
  • 10:30 - 10:33
    情報へのラベリングは見込みのある
    手段ですが 課題もあります
  • 10:33 - 10:40
    たとえば 何が真実で何が虚偽か この社会で
    誰が決めることになるんでしょう?
  • 10:40 - 10:42
    政府?
  • 10:42 - 10:43
    フェイスブック?
  • 10:44 - 10:47
    それともファクトチェックをする
    独立したコンソーシアム?
  • 10:47 - 10:50
    そしてファクトチェックを
    チェックするのは誰?
  • 10:50 - 10:54
    2つめの見込みある手段は
    インセンティブです
  • 10:54 - 10:56
    前回のアメリカの大統領選では
  • 10:56 - 11:00
    マケドニアから誤情報が
    流れこんできていました
  • 11:00 - 11:02
    政治的動機をまったく持たず
  • 11:02 - 11:05
    経済的動機で行われたものです
  • 11:05 - 11:07
    こうした経済的動機が存在するのは
  • 11:07 - 11:10
    虚偽のニュースが 真実よりも
    遠くまで 速く
  • 11:10 - 11:12
    深く届くゆえに
  • 11:13 - 11:17
    この手の情報で注目と関心を集めれば
  • 11:17 - 11:19
    その分広告収入を得られるからです
  • 11:19 - 11:23
    しかしこうした情報の拡散を
    抑えることができれば
  • 11:23 - 11:26
    そもそもデマ情報を生み出そうとする
    インセンティブを
  • 11:26 - 11:29
    減らせるかもしれません
  • 11:29 - 11:31
    3つめに考えられるのは規制です
  • 11:31 - 11:34
    避けることなく
    この選択肢を考えるべきです
  • 11:34 - 11:35
    現在私たちは アメリカ国内で
  • 11:35 - 11:40
    もしフェイスブックなどの企業が規制を
    受けたらどうなるかを研究しています
  • 11:40 - 11:44
    今後検討すべきなのは 政治的な発言の規制や
  • 11:44 - 11:47
    事実に基づいて 政治的発言だと
    ラベリングすること
  • 11:47 - 11:51
    政治的な発言に外国勢力が資金投入して
    介入できないようにすることなどですが
  • 11:51 - 11:53
    この手段には危険もつきまといます
  • 11:54 - 11:58
    たとえば マレーシアでは
    デマ情報を拡散した人に対して
  • 11:58 - 12:01
    懲役6年を課す法を制定しました
  • 12:02 - 12:04
    独裁政権下では
  • 12:04 - 12:08
    この手の制度は少数派の意見を
    封じ込めるために
  • 12:08 - 12:12
    そして抑圧を拡大し続けるために
    使われかねません
  • 12:13 - 12:16
    4つめの選択肢は透明性です
  • 12:17 - 12:21
    私たちが知りたいのは フェイスブックの
    アルゴリズムはどう動いているのか
  • 12:21 - 12:23
    データはアルゴリズムとどう組み合わされて
  • 12:23 - 12:26
    私たちが目にするものを
    出力しているのかということです
  • 12:26 - 12:29
    フェイスブックに情報を開示してもらい
  • 12:29 - 12:33
    内部の動きがどうなっているのかを
    正確に教えてもらうのです
  • 12:33 - 12:36
    そしてソーシャルメディアが
    社会へ及ぼす影響について知るには
  • 12:36 - 12:38
    科学者や研究者といった人々が
  • 12:38 - 12:41
    この手の情報へ
    アクセスできる必要があります
  • 12:41 - 12:43
    けれど同時に
  • 12:43 - 12:46
    フェイスブックには
    すべての厳重な保管―
  • 12:46 - 12:49
    全データの安全な管理が
    求められてもいます
  • 12:49 - 12:52
    つまりフェイスブックなどの
    ソーシャルメディアプラットフォームは
  • 12:52 - 12:55
    私が「透明性のパラドックス」と呼ぶものに
    直面しているわけです
  • 12:55 - 12:58
    彼らは 同時に
  • 12:58 - 13:03
    オープンで透明であること そして
    安全であることを求められているのです
  • 13:03 - 13:05
    これはごく小さい針に糸を通すような難題です
  • 13:06 - 13:07
    でも やってもらわなければなりません
  • 13:07 - 13:11
    ソーシャルメディアの技術は
    素晴らしい未来を約束していますが
  • 13:11 - 13:13
    同時に危機も内包していますから
  • 13:13 - 13:18
    最後の5つめは アルゴリズムと機械学習です
  • 13:18 - 13:22
    これはフェイクニュースを探し出して
    それがどう広まるかを理解し
  • 13:22 - 13:25
    その流れを押しとどめる技術です
  • 13:26 - 13:29
    人間自身が このテクノロジーに
    関わっていく必要があります
  • 13:29 - 13:31
    なぜなら
  • 13:31 - 13:35
    どんな技術的解決策や
    アプローチの根底にも
  • 13:35 - 13:39
    根本的な倫理的・哲学的問いが
    潜んでいるからです
  • 13:39 - 13:42
    「真実と虚偽をどう定義するのか」
  • 13:42 - 13:46
    「それを定義する力を誰に与えるのか」
  • 13:46 - 13:48
    「いずれの意見が正当なのか」
  • 13:48 - 13:52
    「どのタイプの発言が許されるべきか」
    といった疑問です
  • 13:52 - 13:54
    テクノロジーは答えを出してはくれません
  • 13:54 - 13:58
    答えを出せるとしたら
    それは倫理学 そして哲学です
  • 13:59 - 14:02
    人間の意志決定 協力行動
  • 14:02 - 14:05
    そして協調行動に関する理論はほぼすべて
  • 14:05 - 14:09
    真実を判別する能力を
    中核に据えています
  • 14:09 - 14:11
    けれどフェイクニュースや
  • 14:11 - 14:13
    フェイク動画
  • 14:13 - 14:15
    フェイク音声の台頭によって
  • 14:15 - 14:19
    現実がフェイクに浸食されていき
  • 14:19 - 14:23
    今や何が現実で何がフェイクか
    分からなくなっているのです
  • 14:23 - 14:26
    この事態には
    途方もない危機が潜んでいます
  • 14:27 - 14:31
    デマ情報から真実を守るために
  • 14:31 - 14:32
    用心しなければなりません
  • 14:33 - 14:36
    そのために必要なのは
    テクノロジーと規制ですが
  • 14:36 - 14:38
    それ以上に欠けてはならないのは
  • 14:38 - 14:42
    私たち個人個人の責任と
  • 14:42 - 14:45
    決意 態度 そして行動なのです
  • 14:46 - 14:47
    ありがとうございました
  • 14:47 - 14:51
    (拍手)
Title:
デマ情報の時代に真実を守るには
Speaker:
シナン・アラル
Description:

フェイクニュースによって選挙結果が左右され、株が暴落し、日常に不和の種がまかれる時代。データサイエンティストのシナン・アラルが、フェイクニュースはなぜ、どのように、こんなにも速く広まるのか、デマ情報に関する最大規模の研究を引用しつつ分かりやすく説明します。そして、真実と虚偽の間のもつれた糸をときほぐすのを手助けしてくれる5つの戦略を示してくれます。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Japanese subtitles

Revisions