0:00:01.468,0:00:06.690 2013年 4月23日 0:00:06.714,0:00:12.228 AP通信は次のようなツイートを[br]投稿しました 0:00:12.252,0:00:14.649 「速報 0:00:14.673,0:00:17.244 ホワイトハウスで2度の爆発 0:00:17.268,0:00:19.601 バラク・オバマ大統領が負傷」 0:00:20.212,0:00:25.637 このツイートは5分足らずで[br]4000回以上リツイートされ 0:00:25.661,0:00:27.878 その後 バズりました 0:00:28.760,0:00:33.110 しかし これはAP通信によって出された[br]本物のニュースではなく 0:00:33.134,0:00:36.467 虚偽のニュース[br]フェイクニュースだったのです 0:00:36.491,0:00:39.316 これはAP通信のツイッターを乗っ取った 0:00:39.340,0:00:44.034 シリアのハッカーたちによって[br]流布されたものでした 0:00:44.407,0:00:48.296 社会を混乱させるのが彼らの目的でしたが[br]混乱は予想を超えました 0:00:48.320,0:00:50.796 自動化された市場取引のアルゴリズムが 0:00:50.820,0:00:54.180 このツイートによる市場心理の変化を[br]瞬時に察知し 0:00:54.204,0:00:57.172 アメリカ大統領がこの爆発で負傷― 0:00:57.196,0:01:00.577 もしくは殺されたという見込みで 0:01:00.601,0:01:01.801 取引を始めたからです 0:01:02.188,0:01:04.180 ツイートが投稿されると 0:01:04.204,0:01:07.553 株式市場はすぐに大混乱に陥りました 0:01:07.577,0:01:12.744 たった1日で 1400億ドルに相当する[br]株式価値が消し飛びました 0:01:13.062,0:01:17.538 アメリカ合衆国特別検察官[br]ロバート・モラーは 0:01:17.562,0:01:21.454 ロシアの会社3社と13人のロシア人を 0:01:21.478,0:01:24.097 2016年のアメリカ大統領選に干渉して 0:01:24.121,0:01:27.288 アメリカに対し詐欺を働こうとした罪で 0:01:27.312,0:01:31.092 起訴しています 0:01:31.855,0:01:35.419 起訴された会社の1つは 0:01:35.443,0:01:38.585 「インターネット・リサーチ・[br]エージェンシー」 0:01:38.609,0:01:42.203 ソーシャルメディアに携わる[br]クレムリンの影の機関です 0:01:42.815,0:01:45.592 大統領選期間中だけでも 0:01:45.616,0:01:47.505 インターネット・エージェンシーは 0:01:47.529,0:01:52.696 フェイスブック上で[br]1億2600万人のアメリカ人にリーチし 0:01:52.720,0:01:55.997 300万もの個人名義のツイートをし 0:01:56.021,0:01:59.863 43時間分のYoutubeの動画を[br]作成しました 0:01:59.887,0:02:01.539 そのすべてがフェイク つまり― 0:02:01.563,0:02:07.886 アメリカ大統領選で不和の種を[br]蒔くために作られたデマ情報でした 0:02:08.996,0:02:11.646 オックスフォード大による[br]近年の研究によると 0:02:11.670,0:02:14.940 最近のスウェーデンの選挙では 0:02:14.964,0:02:19.339 ソーシャルメディアで拡散された[br]選挙に関する全情報のうち 0:02:19.363,0:02:20.561 3分の1が 0:02:20.585,0:02:22.672 フェイクかデマ情報でした 0:02:23.037,0:02:28.115 さらに こうしたソーシャルメディア上の[br]デマ情報活動というのは 0:02:28.139,0:02:32.290 「集団虐殺プロパガンダ」と呼ばれてきた[br]ものを拡散させかねません 0:02:32.314,0:02:35.425 たとえばミャンマーでの[br]ロヒンギャを対象にしたものや 0:02:35.449,0:02:37.752 インドでのリンチ殺人の[br]引き金になったものです 0:02:37.776,0:02:40.174 私たちはこの言葉が一般的なものになる前から 0:02:40.204,0:02:42.513 フェイクニュースを研究してきました 0:02:43.030,0:02:48.070 そして最近 ネットでの[br]フェイクニュースの広がりについて 0:02:48.094,0:02:50.380 史上最大規模の長期研究の成果を[br]発表し 0:02:50.404,0:02:53.608 それが今年の3月の「サイエンス」誌の[br]表紙を飾りました 0:02:54.523,0:02:58.684 研究対象にしたのは ツイッターが[br]サービスを開始した2006年から 0:02:58.708,0:03:00.461 2017年までの間に拡散された 0:03:00.485,0:03:04.303 裏の取れている真実のニュースと[br]虚偽のニュース全部です 0:03:04.612,0:03:06.926 これらの情報を調べるにあたり 0:03:06.950,0:03:09.826 6つの独立した[br]ファクトチェック機関によって 0:03:09.850,0:03:13.768 確認されたニュースを扱いました 0:03:13.792,0:03:16.554 ですからどのニュースが真実で 0:03:16.578,0:03:18.704 どれが虚偽なのか 分かっていました 0:03:18.728,0:03:20.601 調べたのはニュースの拡散の度合いや 0:03:20.625,0:03:22.276 拡散するスピード 0:03:22.300,0:03:24.395 拡散の深さと広がり 0:03:24.419,0:03:28.561 どれくらい多くの人が その情報の[br]流れに巻き込まれたか などです 0:03:28.942,0:03:30.426 さらに この論文では 0:03:30.450,0:03:34.315 真実のニュースと虚偽のニュースの[br]拡散スピードを比較しました 0:03:34.339,0:03:36.022 その結果分かったのは 0:03:36.046,0:03:40.025 虚偽のニュースは 真実よりも[br]遠くまで 速く 深く 0:03:40.049,0:03:41.855 そして大勢の人に広まるということです 0:03:41.879,0:03:44.882 それも 研究対象にしたどのカテゴリの[br]情報においてもです 0:03:44.906,0:03:47.405 その差が桁違いというケースもありました 0:03:47.842,0:03:51.366 とりわけ 虚偽の政治ニュースは[br]もっともバズりやすいものでした 0:03:51.390,0:03:54.537 ほかのどの種類のニュースよりも[br]遠くまで 速く 0:03:54.561,0:03:57.363 深く 大勢の人に広まったのです 0:03:57.387,0:03:58.680 このことを発見したとき 0:03:58.704,0:04:01.545 私たちは心配になると同時に[br]好奇心も覚えました 0:04:01.569,0:04:02.720 なぜ? 0:04:02.744,0:04:06.117 なぜ虚偽のニュースは真実よりも[br]ずっと遠くまで 速く 深く 0:04:06.141,0:04:08.005 大勢の人に届くのか? 0:04:08.339,0:04:11.300 私たちが思いついた第一の仮説は[br]こういうものでした 0:04:11.324,0:04:16.116 「虚偽のニュースを広めている人たちは[br]フォロー・フォロワー数が多いとか 0:04:16.140,0:04:17.697 ツイートの頻度が高いとか 0:04:17.721,0:04:21.847 ツイッターの認証を受けていて[br]より信頼性が高いとか 0:04:21.871,0:04:24.053 ツイッターの利用時間が多いとか[br]だろう」 0:04:24.077,0:04:26.375 そこでこれらの仮説を[br]1つずつ検証してみました 0:04:26.691,0:04:29.611 ところが まったく逆でした 0:04:29.635,0:04:32.071 虚偽のニュースを広めている人は[br]フォロー数が少なく 0:04:32.095,0:04:34.349 フォロワー数も少なく[br]アクティブでもなく 0:04:34.373,0:04:35.833 認証を受けていないことが多く 0:04:35.857,0:04:38.817 ツイッターの利用時間も短かったのです 0:04:38.841,0:04:40.030 さらに 0:04:40.054,0:04:45.087 これら全てと 他の多くの要素を[br]調整すると 虚偽のニュースは 0:04:45.111,0:04:48.474 真実よりも 70%も リツイート[br]されやすいことがわかりました 0:04:48.498,0:04:51.188 ですから 他の説明を[br]探す必要がありました 0:04:51.212,0:04:54.679 それで考えついたのが [br]「新奇性仮説」と呼んでいるものです 0:04:55.038,0:04:56.998 記事を読む人の注目というのは 0:04:57.022,0:05:00.776 新奇性へと吸い寄せられることが[br]よく知られています 0:05:00.800,0:05:03.319 新奇性とは その環境において[br]新しいものです 0:05:03.343,0:05:05.328 社会学の文献を読んだことがあれば 0:05:05.352,0:05:09.652 人は新奇性の高い情報を共有したく[br]なるものだとご存知でしょう 0:05:09.676,0:05:13.514 そうすることで 内部情報へのアクセスを[br]持っているように見えますし 0:05:13.538,0:05:17.323 新奇性のある情報を広げることで[br]自分の地位が高まるからです 0:05:17.792,0:05:24.244 そこで 流れてくる真実 あるいは[br]虚偽のツイートの新奇性を測るために 0:05:24.268,0:05:31.299 当該のツイートを その人がツイッター上で[br]その前の60日間に見た情報と比較しました 0:05:31.323,0:05:33.982 でもこれでは不十分でした[br]内心ではこう考えていたからです 0:05:34.006,0:05:38.214 「虚偽のニュースは情報理論的な意味では[br]真実よりも新奇性があるかもしれないが 0:05:38.238,0:05:41.496 だからといって より新奇性があると[br]人々が思うとは限らない」 0:05:41.849,0:05:45.776 ですから 虚偽のニュースが[br]どう受け止められるかを理解するために 0:05:45.800,0:05:49.490 真実のツイートと虚偽のツイートへの[br]リプライに含まれている 0:05:49.514,0:05:53.720 情報と感情を検証してみることにしました 0:05:54.022,0:05:55.228 その結果― 0:05:55.252,0:05:59.466 それぞれに異なる種類の感情として 0:05:59.490,0:06:02.791 ここでは 驚き 嫌悪 恐怖 悲しみ 0:06:02.815,0:06:05.299 期待 喜び そして信頼を考えましたが 0:06:05.323,0:06:11.180 虚偽のツイートへのリプライには[br]驚き そして嫌悪が 0:06:11.204,0:06:14.010 有意に多く含まれていたことが分かりました 0:06:14.392,0:06:16.816 そして真実のツイートへのリプライには 0:06:16.816,0:06:19.752 期待や喜び そして信頼が 0:06:19.776,0:06:22.323 有意に多く含まれていました 0:06:22.347,0:06:26.133 この驚きの発見は[br]私たちの新奇性仮説を裏付けるものです 0:06:26.157,0:06:30.766 新しくて驚かされるものは[br]共有したい気持ちが高まるのです 0:06:31.092,0:06:34.017 そして同じころ アメリカでは両議会で 0:06:34.041,0:06:37.077 議会証言が行われていました 0:06:37.101,0:06:40.839 デマ情報の拡散で ボットが[br]どんな役割を果たしているかについてでした 0:06:40.863,0:06:42.217 これについても調べてみました 0:06:42.241,0:06:45.839 複数の高性能な[br]ボット検出アルゴリズムを用いて 0:06:45.863,0:06:48.937 データの中のボットを見つけ 取り出します 0:06:49.347,0:06:52.006 そして取り出した場合と[br]ボットも含む場合とで 0:06:52.030,0:06:55.149 計測結果がどう変化するか 比較しました 0:06:55.173,0:06:57.466 これで分かったのは[br]そう 確かに 0:06:57.490,0:07:01.172 ボットはネットの虚偽ニュースの[br]拡散を加速させていましたが 0:07:01.196,0:07:03.847 真実のニュースの拡散もほぼ同じ度合いで 0:07:03.871,0:07:06.276 加速させていました 0:07:06.300,0:07:09.158 つまり ボットの存在では[br]ネットにおける 0:07:09.182,0:07:13.895 真実と虚偽の拡散度合いの違いを[br]説明できなかったのです 0:07:13.919,0:07:16.768 私たちがこの説明責任を[br]放棄することはできません 0:07:16.792,0:07:21.051 なぜなら私たち人間こそが[br]虚偽の情報の拡散の責任を負っているからです 0:07:22.472,0:07:25.806 さて ここまでお話したことはすべて 0:07:25.830,0:07:27.584 大変残念ながら― 0:07:27.608,0:07:28.869 まだマシなお知らせです 0:07:30.670,0:07:35.120 というのも まさにこれから 何もかもが[br]どんどん悪化していくところだからです 0:07:35.850,0:07:39.532 事態を悪化させるのは[br]2つのテクノロジーです 0:07:40.207,0:07:45.379 合成メディアの巨大な波が[br]今押し寄せようとしているのです 0:07:45.403,0:07:51.434 人の目にとって 極めてもっともらしい[br]フェイク動画やフェイク音声です 0:07:51.458,0:07:54.212 2つのテクノロジーが[br]この巨大な波を推進していくでしょう 0:07:54.236,0:07:58.069 1つめは「敵対的生成ネットワーク[br](GANs)」と呼ばれるもの 0:07:58.093,0:08:00.656 これは機械学習モデルで[br]2つのネットワークから成ります 0:08:00.680,0:08:02.227 1つは識別ネットワーク 0:08:02.251,0:08:06.451 ある情報が真実か虚偽かを[br]決定する役割を持ちます 0:08:06.475,0:08:07.642 そして生成ネットワーク 0:08:07.666,0:08:10.816 合成動画を出力する役割を持ちます 0:08:10.840,0:08:15.942 生成ネットワークが[br]合成動画や音声を出力すると 0:08:15.966,0:08:20.641 識別ネットワークがこれが「リアルか [br]フェイクか」を判定しようとします 0:08:20.665,0:08:23.539 生成ネットワークの仕事というのは 0:08:23.563,0:08:27.998 作り出す動画や音声がリアルだと[br]識別ネットワークを騙せるまで 0:08:28.022,0:08:31.609 合成動画のもっともらしさを 0:08:31.633,0:08:33.363 最大化することなのです 0:08:33.387,0:08:35.760 これは 機械が処理を高速で繰り返し 0:08:35.784,0:08:38.587 人間を騙すテクを どんどん[br]磨こうとするようなものです 0:08:39.114,0:08:41.614 これが[br]2つめのテクノロジーと合体します 0:08:41.638,0:08:47.360 そのテクノロジーは本質的には[br]AIの民主化ともいうべきものです 0:08:47.384,0:08:49.573 誰でも 0:08:49.597,0:08:53.633 AIや機械学習の基礎知識がなくても[br]合成メディアを出力するための 0:08:53.657,0:08:57.760 この手のアルゴリズムを使えるようになる[br]AIの民主化 0:08:57.784,0:09:02.331 これがGANsと融合し 合成動画を[br]作り出すことが果てしなく簡単になるのです 0:09:02.355,0:09:06.776 たとえばホワイトハウスは[br]虚偽の加工動画を公開しました 0:09:06.800,0:09:11.088 これはホワイトハウスのインターンが記者から[br]マイクを返してもらおうとしたときの動画で 0:09:11.427,0:09:13.426 動画から数フレームを取り除き 0:09:13.450,0:09:16.737 記者の動きを より攻撃的に[br]見せようとしたものです 0:09:17.157,0:09:20.542 映像作家やスタントを仕事とする人たちは 0:09:20.566,0:09:22.993 この手の技術について聞かれて 0:09:23.017,0:09:26.845 こう答えていました[br]「ええ 映画ではいつも使っていますよ 0:09:26.869,0:09:31.632 パンチやキックをより激しく[br]攻撃的に見せるためにね」 0:09:32.268,0:09:34.135 でも この加工動画の目的の一部は 0:09:34.159,0:09:36.659 ジム・アコスタという記者から 0:09:36.683,0:09:40.682 ホワイトハウスへの入館許可証を[br]はく奪するのを 0:09:40.706,0:09:42.045 正当化するためでした 0:09:42.069,0:09:46.878 CNNは許可証を取り戻すために[br]政権を提訴しなければなりませんでした 0:09:48.538,0:09:54.141 これらは非常に難しい問題ですが[br]その一部にでも取り組み 解決するために 0:09:54.165,0:09:57.904 5つの手段があると私は見ています 0:09:58.379,0:10:00.189 それぞれに可能性がありますが 0:10:00.213,0:10:03.212 また それぞれに課題もあります 0:10:03.236,0:10:05.244 1つめはラベリング 0:10:05.268,0:10:06.625 こういうものです 0:10:06.649,0:10:10.260 食料品店に行って食べ物を買うとします 0:10:10.284,0:10:12.188 どの商品もラベルがついていますね 0:10:12.212,0:10:14.204 カロリーはどれくらいか 0:10:14.228,0:10:16.029 どれくらい脂肪分が含まれているか 0:10:16.053,0:10:20.331 けれど情報を消費するときは[br]ラベルなんて全然ついていません 0:10:20.355,0:10:22.283 この情報には何が含まれているか? 0:10:22.307,0:10:23.760 情報源は信頼できるか? 0:10:23.784,0:10:26.101 どこで集められた情報か? 0:10:26.125,0:10:27.950 こうしたことを 何も知らずに 0:10:27.974,0:10:30.077 情報を消費しているのです 0:10:30.101,0:10:33.339 情報へのラベリングは見込みのある[br]手段ですが 課題もあります 0:10:33.363,0:10:39.814 たとえば 何が真実で何が虚偽か この社会で[br]誰が決めることになるんでしょう? 0:10:40.387,0:10:42.029 政府? 0:10:42.053,0:10:43.203 フェイスブック? 0:10:43.601,0:10:47.363 それともファクトチェックをする[br]独立したコンソーシアム? 0:10:47.387,0:10:49.853 そしてファクトチェックを[br]チェックするのは誰? 0:10:50.427,0:10:53.511 2つめの見込みある手段は[br]インセンティブです 0:10:53.535,0:10:56.169 前回のアメリカの大統領選では 0:10:56.193,0:10:59.883 マケドニアから誤情報が[br]流れこんできていました 0:10:59.907,0:11:02.244 政治的動機をまったく持たず 0:11:02.268,0:11:04.728 経済的動機で行われたものです 0:11:04.752,0:11:06.900 こうした経済的動機が存在するのは 0:11:06.924,0:11:10.448 虚偽のニュースが 真実よりも[br]遠くまで 速く 0:11:10.472,0:11:12.482 深く届くゆえに 0:11:12.506,0:11:17.466 この手の情報で注目と関心を集めれば 0:11:17.490,0:11:19.450 その分広告収入を得られるからです 0:11:19.474,0:11:23.307 しかしこうした情報の拡散を[br]抑えることができれば 0:11:23.331,0:11:26.228 そもそもデマ情報を生み出そうとする[br]インセンティブを 0:11:26.252,0:11:28.942 減らせるかもしれません 0:11:28.966,0:11:31.466 3つめに考えられるのは規制です 0:11:31.490,0:11:33.815 避けることなく[br]この選択肢を考えるべきです 0:11:33.839,0:11:35.450 現在私たちは アメリカ国内で 0:11:35.474,0:11:40.322 もしフェイスブックなどの企業が規制を[br]受けたらどうなるかを研究しています 0:11:40.346,0:11:44.147 今後検討すべきなのは 政治的な発言の規制や 0:11:44.171,0:11:46.679 事実に基づいて 政治的発言だと[br]ラベリングすること 0:11:46.703,0:11:50.522 政治的な発言に外国勢力が資金投入して[br]介入できないようにすることなどですが 0:11:50.546,0:11:53.093 この手段には危険もつきまといます 0:11:53.522,0:11:58.400 たとえば マレーシアでは[br]デマ情報を拡散した人に対して 0:11:58.424,0:12:01.158 懲役6年を課す法を制定しました 0:12:01.696,0:12:03.775 独裁政権下では 0:12:03.799,0:12:08.465 この手の制度は少数派の意見を[br]封じ込めるために 0:12:08.489,0:12:11.997 そして抑圧を拡大し続けるために[br]使われかねません 0:12:12.680,0:12:16.223 4つめの選択肢は透明性です 0:12:16.843,0:12:20.557 私たちが知りたいのは フェイスブックの[br]アルゴリズムはどう動いているのか 0:12:20.581,0:12:23.461 データはアルゴリズムとどう組み合わされて 0:12:23.485,0:12:26.323 私たちが目にするものを[br]出力しているのかということです 0:12:26.347,0:12:28.696 フェイスブックに情報を開示してもらい 0:12:28.720,0:12:32.934 内部の動きがどうなっているのかを[br]正確に教えてもらうのです 0:12:32.958,0:12:35.737 そしてソーシャルメディアが[br]社会へ及ぼす影響について知るには 0:12:35.761,0:12:37.847 科学者や研究者といった人々が 0:12:37.871,0:12:41.014 この手の情報へ[br]アクセスできる必要があります 0:12:41.038,0:12:42.585 けれど同時に 0:12:42.609,0:12:46.410 フェイスブックには[br]すべての厳重な保管― 0:12:46.434,0:12:48.607 全データの安全な管理が[br]求められてもいます 0:12:48.631,0:12:51.790 つまりフェイスブックなどの[br]ソーシャルメディアプラットフォームは 0:12:51.814,0:12:54.948 私が「透明性のパラドックス」と呼ぶものに[br]直面しているわけです 0:12:55.266,0:12:57.940 彼らは 同時に 0:12:57.964,0:13:02.773 オープンで透明であること そして[br]安全であることを求められているのです 0:13:02.797,0:13:05.488 これはごく小さい針に糸を通すような難題です 0:13:05.512,0:13:07.425 でも やってもらわなければなりません 0:13:07.449,0:13:11.236 ソーシャルメディアの技術は[br]素晴らしい未来を約束していますが 0:13:11.260,0:13:12.902 同時に危機も内包していますから 0:13:12.926,0:13:17.617 最後の5つめは アルゴリズムと機械学習です 0:13:17.641,0:13:21.858 これはフェイクニュースを探し出して[br]それがどう広まるかを理解し 0:13:21.882,0:13:25.273 その流れを押しとどめる技術です 0:13:25.824,0:13:28.721 人間自身が このテクノロジーに[br]関わっていく必要があります 0:13:28.745,0:13:31.023 なぜなら 0:13:31.047,0:13:35.085 どんな技術的解決策や[br]アプローチの根底にも 0:13:35.109,0:13:39.156 根本的な倫理的・哲学的問いが[br]潜んでいるからです 0:13:39.180,0:13:42.450 「真実と虚偽をどう定義するのか」 0:13:42.474,0:13:45.654 「それを定義する力を誰に与えるのか」 0:13:45.678,0:13:48.138 「いずれの意見が正当なのか」 0:13:48.162,0:13:51.868 「どのタイプの発言が許されるべきか」[br]といった疑問です 0:13:51.892,0:13:54.220 テクノロジーは答えを出してはくれません 0:13:54.244,0:13:57.942 答えを出せるとしたら[br]それは倫理学 そして哲学です 0:13:58.950,0:14:02.268 人間の意志決定 協力行動 0:14:02.292,0:14:05.053 そして協調行動に関する理論はほぼすべて 0:14:05.077,0:14:08.751 真実を判別する能力を[br]中核に据えています 0:14:09.347,0:14:11.403 けれどフェイクニュースや 0:14:11.427,0:14:12.870 フェイク動画 0:14:12.894,0:14:14.776 フェイク音声の台頭によって 0:14:14.800,0:14:18.724 現実がフェイクに浸食されていき 0:14:18.748,0:14:22.637 今や何が現実で何がフェイクか[br]分からなくなっているのです 0:14:22.661,0:14:25.700 この事態には[br]途方もない危機が潜んでいます 0:14:26.931,0:14:30.879 デマ情報から真実を守るために 0:14:30.903,0:14:32.437 用心しなければなりません 0:14:32.919,0:14:36.355 そのために必要なのは[br]テクノロジーと規制ですが 0:14:36.379,0:14:38.299 それ以上に欠けてはならないのは 0:14:38.323,0:14:41.537 私たち個人個人の責任と 0:14:41.561,0:14:45.116 決意 態度 そして行動なのです 0:14:45.553,0:14:46.990 ありがとうございました 0:14:47.014,0:14:50.531 (拍手)