デマ情報の時代に真実を守るには
-
0:01 - 0:072013年 4月23日
-
0:07 - 0:12AP通信は次のようなツイートを
投稿しました -
0:12 - 0:15「速報
-
0:15 - 0:17ホワイトハウスで2度の爆発
-
0:17 - 0:20バラク・オバマ大統領が負傷」
-
0:20 - 0:26このツイートは5分足らずで
4000回以上リツイートされ -
0:26 - 0:28その後 バズりました
-
0:29 - 0:33しかし これはAP通信によって出された
本物のニュースではなく -
0:33 - 0:36虚偽のニュース
フェイクニュースだったのです -
0:36 - 0:39これはAP通信のツイッターを乗っ取った
-
0:39 - 0:44シリアのハッカーたちによって
流布されたものでした -
0:44 - 0:48社会を混乱させるのが彼らの目的でしたが
混乱は予想を超えました -
0:48 - 0:51自動化された市場取引のアルゴリズムが
-
0:51 - 0:54このツイートによる市場心理の変化を
瞬時に察知し -
0:54 - 0:57アメリカ大統領がこの爆発で負傷―
-
0:57 - 1:01もしくは殺されたという見込みで
-
1:01 - 1:02取引を始めたからです
-
1:02 - 1:04ツイートが投稿されると
-
1:04 - 1:08株式市場はすぐに大混乱に陥りました
-
1:08 - 1:13たった1日で 1400億ドルに相当する
株式価値が消し飛びました -
1:13 - 1:18アメリカ合衆国特別検察官
ロバート・モラーは -
1:18 - 1:21ロシアの会社3社と13人のロシア人を
-
1:21 - 1:242016年のアメリカ大統領選に干渉して
-
1:24 - 1:27アメリカに対し詐欺を働こうとした罪で
-
1:27 - 1:31起訴しています
-
1:32 - 1:35起訴された会社の1つは
-
1:35 - 1:39「インターネット・リサーチ・
エージェンシー」 -
1:39 - 1:42ソーシャルメディアに携わる
クレムリンの影の機関です -
1:43 - 1:46大統領選期間中だけでも
-
1:46 - 1:48インターネット・エージェンシーは
-
1:48 - 1:53フェイスブック上で
1億2600万人のアメリカ人にリーチし -
1:53 - 1:56300万もの個人名義のツイートをし
-
1:56 - 2:0043時間分のYoutubeの動画を
作成しました -
2:00 - 2:02そのすべてがフェイク つまり―
-
2:02 - 2:08アメリカ大統領選で不和の種を
蒔くために作られたデマ情報でした -
2:09 - 2:12オックスフォード大による
近年の研究によると -
2:12 - 2:15最近のスウェーデンの選挙では
-
2:15 - 2:19ソーシャルメディアで拡散された
選挙に関する全情報のうち -
2:19 - 2:213分の1が
-
2:21 - 2:23フェイクかデマ情報でした
-
2:23 - 2:28さらに こうしたソーシャルメディア上の
デマ情報活動というのは -
2:28 - 2:32「集団虐殺プロパガンダ」と呼ばれてきた
ものを拡散させかねません -
2:32 - 2:35たとえばミャンマーでの
ロヒンギャを対象にしたものや -
2:35 - 2:38インドでのリンチ殺人の
引き金になったものです -
2:38 - 2:40私たちはこの言葉が一般的なものになる前から
-
2:40 - 2:43フェイクニュースを研究してきました
-
2:43 - 2:48そして最近 ネットでの
フェイクニュースの広がりについて -
2:48 - 2:50史上最大規模の長期研究の成果を
発表し -
2:50 - 2:54それが今年の3月の「サイエンス」誌の
表紙を飾りました -
2:55 - 2:59研究対象にしたのは ツイッターが
サービスを開始した2006年から -
2:59 - 3:002017年までの間に拡散された
-
3:00 - 3:04裏の取れている真実のニュースと
虚偽のニュース全部です -
3:05 - 3:07これらの情報を調べるにあたり
-
3:07 - 3:106つの独立した
ファクトチェック機関によって -
3:10 - 3:14確認されたニュースを扱いました
-
3:14 - 3:17ですからどのニュースが真実で
-
3:17 - 3:19どれが虚偽なのか 分かっていました
-
3:19 - 3:21調べたのはニュースの拡散の度合いや
-
3:21 - 3:22拡散するスピード
-
3:22 - 3:24拡散の深さと広がり
-
3:24 - 3:29どれくらい多くの人が その情報の
流れに巻き込まれたか などです -
3:29 - 3:30さらに この論文では
-
3:30 - 3:34真実のニュースと虚偽のニュースの
拡散スピードを比較しました -
3:34 - 3:36その結果分かったのは
-
3:36 - 3:40虚偽のニュースは 真実よりも
遠くまで 速く 深く -
3:40 - 3:42そして大勢の人に広まるということです
-
3:42 - 3:45それも 研究対象にしたどのカテゴリの
情報においてもです -
3:45 - 3:47その差が桁違いというケースもありました
-
3:48 - 3:51とりわけ 虚偽の政治ニュースは
もっともバズりやすいものでした -
3:51 - 3:55ほかのどの種類のニュースよりも
遠くまで 速く -
3:55 - 3:57深く 大勢の人に広まったのです
-
3:57 - 3:59このことを発見したとき
-
3:59 - 4:02私たちは心配になると同時に
好奇心も覚えました -
4:02 - 4:03なぜ?
-
4:03 - 4:06なぜ虚偽のニュースは真実よりも
ずっと遠くまで 速く 深く -
4:06 - 4:08大勢の人に届くのか?
-
4:08 - 4:11私たちが思いついた第一の仮説は
こういうものでした -
4:11 - 4:16「虚偽のニュースを広めている人たちは
フォロー・フォロワー数が多いとか -
4:16 - 4:18ツイートの頻度が高いとか
-
4:18 - 4:22ツイッターの認証を受けていて
より信頼性が高いとか -
4:22 - 4:24ツイッターの利用時間が多いとか
だろう」 -
4:24 - 4:26そこでこれらの仮説を
1つずつ検証してみました -
4:27 - 4:30ところが まったく逆でした
-
4:30 - 4:32虚偽のニュースを広めている人は
フォロー数が少なく -
4:32 - 4:34フォロワー数も少なく
アクティブでもなく -
4:34 - 4:36認証を受けていないことが多く
-
4:36 - 4:39ツイッターの利用時間も短かったのです
-
4:39 - 4:40さらに
-
4:40 - 4:45これら全てと 他の多くの要素を
調整すると 虚偽のニュースは -
4:45 - 4:48真実よりも 70%も リツイート
されやすいことがわかりました -
4:48 - 4:51ですから 他の説明を
探す必要がありました -
4:51 - 4:55それで考えついたのが
「新奇性仮説」と呼んでいるものです -
4:55 - 4:57記事を読む人の注目というのは
-
4:57 - 5:01新奇性へと吸い寄せられることが
よく知られています -
5:01 - 5:03新奇性とは その環境において
新しいものです -
5:03 - 5:05社会学の文献を読んだことがあれば
-
5:05 - 5:10人は新奇性の高い情報を共有したく
なるものだとご存知でしょう -
5:10 - 5:14そうすることで 内部情報へのアクセスを
持っているように見えますし -
5:14 - 5:17新奇性のある情報を広げることで
自分の地位が高まるからです -
5:18 - 5:24そこで 流れてくる真実 あるいは
虚偽のツイートの新奇性を測るために -
5:24 - 5:31当該のツイートを その人がツイッター上で
その前の60日間に見た情報と比較しました -
5:31 - 5:34でもこれでは不十分でした
内心ではこう考えていたからです -
5:34 - 5:38「虚偽のニュースは情報理論的な意味では
真実よりも新奇性があるかもしれないが -
5:38 - 5:41だからといって より新奇性があると
人々が思うとは限らない」 -
5:42 - 5:46ですから 虚偽のニュースが
どう受け止められるかを理解するために -
5:46 - 5:49真実のツイートと虚偽のツイートへの
リプライに含まれている -
5:50 - 5:54情報と感情を検証してみることにしました
-
5:54 - 5:55その結果―
-
5:55 - 5:59それぞれに異なる種類の感情として
-
5:59 - 6:03ここでは 驚き 嫌悪 恐怖 悲しみ
-
6:03 - 6:05期待 喜び そして信頼を考えましたが
-
6:05 - 6:11虚偽のツイートへのリプライには
驚き そして嫌悪が -
6:11 - 6:14有意に多く含まれていたことが分かりました
-
6:14 - 6:17そして真実のツイートへのリプライには
-
6:17 - 6:20期待や喜び そして信頼が
-
6:20 - 6:22有意に多く含まれていました
-
6:22 - 6:26この驚きの発見は
私たちの新奇性仮説を裏付けるものです -
6:26 - 6:31新しくて驚かされるものは
共有したい気持ちが高まるのです -
6:31 - 6:34そして同じころ アメリカでは両議会で
-
6:34 - 6:37議会証言が行われていました
-
6:37 - 6:41デマ情報の拡散で ボットが
どんな役割を果たしているかについてでした -
6:41 - 6:42これについても調べてみました
-
6:42 - 6:46複数の高性能な
ボット検出アルゴリズムを用いて -
6:46 - 6:49データの中のボットを見つけ 取り出します
-
6:49 - 6:52そして取り出した場合と
ボットも含む場合とで -
6:52 - 6:55計測結果がどう変化するか 比較しました
-
6:55 - 6:57これで分かったのは
そう 確かに -
6:57 - 7:01ボットはネットの虚偽ニュースの
拡散を加速させていましたが -
7:01 - 7:04真実のニュースの拡散もほぼ同じ度合いで
-
7:04 - 7:06加速させていました
-
7:06 - 7:09つまり ボットの存在では
ネットにおける -
7:09 - 7:14真実と虚偽の拡散度合いの違いを
説明できなかったのです -
7:14 - 7:17私たちがこの説明責任を
放棄することはできません -
7:17 - 7:21なぜなら私たち人間こそが
虚偽の情報の拡散の責任を負っているからです -
7:22 - 7:26さて ここまでお話したことはすべて
-
7:26 - 7:28大変残念ながら―
-
7:28 - 7:29まだマシなお知らせです
-
7:31 - 7:35というのも まさにこれから 何もかもが
どんどん悪化していくところだからです -
7:36 - 7:40事態を悪化させるのは
2つのテクノロジーです -
7:40 - 7:45合成メディアの巨大な波が
今押し寄せようとしているのです -
7:45 - 7:51人の目にとって 極めてもっともらしい
フェイク動画やフェイク音声です -
7:51 - 7:542つのテクノロジーが
この巨大な波を推進していくでしょう -
7:54 - 7:581つめは「敵対的生成ネットワーク
(GANs)」と呼ばれるもの -
7:58 - 8:01これは機械学習モデルで
2つのネットワークから成ります -
8:01 - 8:021つは識別ネットワーク
-
8:02 - 8:06ある情報が真実か虚偽かを
決定する役割を持ちます -
8:06 - 8:08そして生成ネットワーク
-
8:08 - 8:11合成動画を出力する役割を持ちます
-
8:11 - 8:16生成ネットワークが
合成動画や音声を出力すると -
8:16 - 8:21識別ネットワークがこれが「リアルか
フェイクか」を判定しようとします -
8:21 - 8:24生成ネットワークの仕事というのは
-
8:24 - 8:28作り出す動画や音声がリアルだと
識別ネットワークを騙せるまで -
8:28 - 8:32合成動画のもっともらしさを
-
8:32 - 8:33最大化することなのです
-
8:33 - 8:36これは 機械が処理を高速で繰り返し
-
8:36 - 8:39人間を騙すテクを どんどん
磨こうとするようなものです -
8:39 - 8:42これが
2つめのテクノロジーと合体します -
8:42 - 8:47そのテクノロジーは本質的には
AIの民主化ともいうべきものです -
8:47 - 8:50誰でも
-
8:50 - 8:54AIや機械学習の基礎知識がなくても
合成メディアを出力するための -
8:54 - 8:58この手のアルゴリズムを使えるようになる
AIの民主化 -
8:58 - 9:02これがGANsと融合し 合成動画を
作り出すことが果てしなく簡単になるのです -
9:02 - 9:07たとえばホワイトハウスは
虚偽の加工動画を公開しました -
9:07 - 9:11これはホワイトハウスのインターンが記者から
マイクを返してもらおうとしたときの動画で -
9:11 - 9:13動画から数フレームを取り除き
-
9:13 - 9:17記者の動きを より攻撃的に
見せようとしたものです -
9:17 - 9:21映像作家やスタントを仕事とする人たちは
-
9:21 - 9:23この手の技術について聞かれて
-
9:23 - 9:27こう答えていました
「ええ 映画ではいつも使っていますよ -
9:27 - 9:32パンチやキックをより激しく
攻撃的に見せるためにね」 -
9:32 - 9:34でも この加工動画の目的の一部は
-
9:34 - 9:37ジム・アコスタという記者から
-
9:37 - 9:41ホワイトハウスへの入館許可証を
はく奪するのを -
9:41 - 9:42正当化するためでした
-
9:42 - 9:47CNNは許可証を取り戻すために
政権を提訴しなければなりませんでした -
9:49 - 9:54これらは非常に難しい問題ですが
その一部にでも取り組み 解決するために -
9:54 - 9:585つの手段があると私は見ています
-
9:58 - 10:00それぞれに可能性がありますが
-
10:00 - 10:03また それぞれに課題もあります
-
10:03 - 10:051つめはラベリング
-
10:05 - 10:07こういうものです
-
10:07 - 10:10食料品店に行って食べ物を買うとします
-
10:10 - 10:12どの商品もラベルがついていますね
-
10:12 - 10:14カロリーはどれくらいか
-
10:14 - 10:16どれくらい脂肪分が含まれているか
-
10:16 - 10:20けれど情報を消費するときは
ラベルなんて全然ついていません -
10:20 - 10:22この情報には何が含まれているか?
-
10:22 - 10:24情報源は信頼できるか?
-
10:24 - 10:26どこで集められた情報か?
-
10:26 - 10:28こうしたことを 何も知らずに
-
10:28 - 10:30情報を消費しているのです
-
10:30 - 10:33情報へのラベリングは見込みのある
手段ですが 課題もあります -
10:33 - 10:40たとえば 何が真実で何が虚偽か この社会で
誰が決めることになるんでしょう? -
10:40 - 10:42政府?
-
10:42 - 10:43フェイスブック?
-
10:44 - 10:47それともファクトチェックをする
独立したコンソーシアム? -
10:47 - 10:50そしてファクトチェックを
チェックするのは誰? -
10:50 - 10:542つめの見込みある手段は
インセンティブです -
10:54 - 10:56前回のアメリカの大統領選では
-
10:56 - 11:00マケドニアから誤情報が
流れこんできていました -
11:00 - 11:02政治的動機をまったく持たず
-
11:02 - 11:05経済的動機で行われたものです
-
11:05 - 11:07こうした経済的動機が存在するのは
-
11:07 - 11:10虚偽のニュースが 真実よりも
遠くまで 速く -
11:10 - 11:12深く届くゆえに
-
11:13 - 11:17この手の情報で注目と関心を集めれば
-
11:17 - 11:19その分広告収入を得られるからです
-
11:19 - 11:23しかしこうした情報の拡散を
抑えることができれば -
11:23 - 11:26そもそもデマ情報を生み出そうとする
インセンティブを -
11:26 - 11:29減らせるかもしれません
-
11:29 - 11:313つめに考えられるのは規制です
-
11:31 - 11:34避けることなく
この選択肢を考えるべきです -
11:34 - 11:35現在私たちは アメリカ国内で
-
11:35 - 11:40もしフェイスブックなどの企業が規制を
受けたらどうなるかを研究しています -
11:40 - 11:44今後検討すべきなのは 政治的な発言の規制や
-
11:44 - 11:47事実に基づいて 政治的発言だと
ラベリングすること -
11:47 - 11:51政治的な発言に外国勢力が資金投入して
介入できないようにすることなどですが -
11:51 - 11:53この手段には危険もつきまといます
-
11:54 - 11:58たとえば マレーシアでは
デマ情報を拡散した人に対して -
11:58 - 12:01懲役6年を課す法を制定しました
-
12:02 - 12:04独裁政権下では
-
12:04 - 12:08この手の制度は少数派の意見を
封じ込めるために -
12:08 - 12:12そして抑圧を拡大し続けるために
使われかねません -
12:13 - 12:164つめの選択肢は透明性です
-
12:17 - 12:21私たちが知りたいのは フェイスブックの
アルゴリズムはどう動いているのか -
12:21 - 12:23データはアルゴリズムとどう組み合わされて
-
12:23 - 12:26私たちが目にするものを
出力しているのかということです -
12:26 - 12:29フェイスブックに情報を開示してもらい
-
12:29 - 12:33内部の動きがどうなっているのかを
正確に教えてもらうのです -
12:33 - 12:36そしてソーシャルメディアが
社会へ及ぼす影響について知るには -
12:36 - 12:38科学者や研究者といった人々が
-
12:38 - 12:41この手の情報へ
アクセスできる必要があります -
12:41 - 12:43けれど同時に
-
12:43 - 12:46フェイスブックには
すべての厳重な保管― -
12:46 - 12:49全データの安全な管理が
求められてもいます -
12:49 - 12:52つまりフェイスブックなどの
ソーシャルメディアプラットフォームは -
12:52 - 12:55私が「透明性のパラドックス」と呼ぶものに
直面しているわけです -
12:55 - 12:58彼らは 同時に
-
12:58 - 13:03オープンで透明であること そして
安全であることを求められているのです -
13:03 - 13:05これはごく小さい針に糸を通すような難題です
-
13:06 - 13:07でも やってもらわなければなりません
-
13:07 - 13:11ソーシャルメディアの技術は
素晴らしい未来を約束していますが -
13:11 - 13:13同時に危機も内包していますから
-
13:13 - 13:18最後の5つめは アルゴリズムと機械学習です
-
13:18 - 13:22これはフェイクニュースを探し出して
それがどう広まるかを理解し -
13:22 - 13:25その流れを押しとどめる技術です
-
13:26 - 13:29人間自身が このテクノロジーに
関わっていく必要があります -
13:29 - 13:31なぜなら
-
13:31 - 13:35どんな技術的解決策や
アプローチの根底にも -
13:35 - 13:39根本的な倫理的・哲学的問いが
潜んでいるからです -
13:39 - 13:42「真実と虚偽をどう定義するのか」
-
13:42 - 13:46「それを定義する力を誰に与えるのか」
-
13:46 - 13:48「いずれの意見が正当なのか」
-
13:48 - 13:52「どのタイプの発言が許されるべきか」
といった疑問です -
13:52 - 13:54テクノロジーは答えを出してはくれません
-
13:54 - 13:58答えを出せるとしたら
それは倫理学 そして哲学です -
13:59 - 14:02人間の意志決定 協力行動
-
14:02 - 14:05そして協調行動に関する理論はほぼすべて
-
14:05 - 14:09真実を判別する能力を
中核に据えています -
14:09 - 14:11けれどフェイクニュースや
-
14:11 - 14:13フェイク動画
-
14:13 - 14:15フェイク音声の台頭によって
-
14:15 - 14:19現実がフェイクに浸食されていき
-
14:19 - 14:23今や何が現実で何がフェイクか
分からなくなっているのです -
14:23 - 14:26この事態には
途方もない危機が潜んでいます -
14:27 - 14:31デマ情報から真実を守るために
-
14:31 - 14:32用心しなければなりません
-
14:33 - 14:36そのために必要なのは
テクノロジーと規制ですが -
14:36 - 14:38それ以上に欠けてはならないのは
-
14:38 - 14:42私たち個人個人の責任と
-
14:42 - 14:45決意 態度 そして行動なのです
-
14:46 - 14:47ありがとうございました
-
14:47 - 14:51(拍手)
- Title:
- デマ情報の時代に真実を守るには
- Speaker:
- シナン・アラル
- Description:
-
フェイクニュースによって選挙結果が左右され、株が暴落し、日常に不和の種がまかれる時代。データサイエンティストのシナン・アラルが、フェイクニュースはなぜ、どのように、こんなにも速く広まるのか、デマ情報に関する最大規模の研究を引用しつつ分かりやすく説明します。そして、真実と虚偽の間のもつれた糸をときほぐすのを手助けしてくれる5つの戦略を示してくれます。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Natsuhiko Mizutani approved Japanese subtitles for How we can protect truth in the age of misinformation | ||
Natsuhiko Mizutani edited Japanese subtitles for How we can protect truth in the age of misinformation | ||
Eriko Tsukamoto accepted Japanese subtitles for How we can protect truth in the age of misinformation | ||
Eriko Tsukamoto edited Japanese subtitles for How we can protect truth in the age of misinformation | ||
Eriko Tsukamoto edited Japanese subtitles for How we can protect truth in the age of misinformation | ||
Kyohei Uto edited Japanese subtitles for How we can protect truth in the age of misinformation | ||
Eriko Tsukamoto declined Japanese subtitles for How we can protect truth in the age of misinformation | ||
Eriko Tsukamoto edited Japanese subtitles for How we can protect truth in the age of misinformation |