0:00:01.468,0:00:06.690 2013 年 4 月 23 日, 0:00:06.714,0:00:12.228 美聯社在推特上發推文稱, 0:00:12.252,0:00:14.649 「突發新聞: 0:00:14.673,0:00:17.244 白宮發生兩起爆炸, 0:00:17.268,0:00:19.601 總統奧巴馬受傷。」 0:00:20.212,0:00:25.637 不到五分鐘內,[br]這篇推文被轉發了四千多次, 0:00:25.661,0:00:27.878 接着病毒式擴散。 0:00:28.760,0:00:33.110 然而,這則推文並不是[br]由美聯社發佈的真實新聞, 0:00:33.134,0:00:36.467 這則錯誤的新聞,[br]或者說,假新聞, 0:00:36.491,0:00:39.316 是敘利亞的黑客 0:00:39.340,0:00:44.034 在入侵美聯社的推特帳號後發佈的。 0:00:44.407,0:00:48.296 他們的目的是擾亂社會,[br]但實際破壞遠大於此。 0:00:48.320,0:00:50.796 因為自動交易算法 0:00:50.820,0:00:54.180 立即對這條推文進行情感分析, 0:00:54.204,0:00:57.172 並開始根據美國總統 0:00:57.196,0:01:00.577 在爆炸中受傷或喪生的可能性 0:01:00.601,0:01:01.801 進行自動交易。 0:01:02.188,0:01:04.180 推文被瘋狂轉發的同時, 0:01:04.204,0:01:07.553 股市立刻隨之崩盤, 0:01:07.577,0:01:12.744 一天之內蒸發了 1400 億美金市值。 0:01:13.062,0:01:17.538 美國特別檢察官羅伯特·穆勒 0:01:17.562,0:01:21.454 曾起訴三家俄羅斯公司 0:01:21.478,0:01:24.097 及十三名俄羅斯公民, 0:01:24.121,0:01:27.288 指控他們合謀擾亂美國, 0:01:27.312,0:01:31.092 干涉 2016 年的總統大選。 0:01:31.855,0:01:35.419 這項指控針對的事件 0:01:35.443,0:01:38.585 與俄羅斯網路水軍有關,[br](Internet Research Agency) 0:01:38.609,0:01:42.203 那是個俄羅斯政府用來[br]操控社交網路的機構。 0:01:42.815,0:01:45.592 僅在(美國)總統大選期間, 0:01:45.616,0:01:47.505 這個網路水軍的功夫 0:01:47.529,0:01:52.696 就觸及了 1.26 億美國臉書用戶, 0:01:52.720,0:01:55.997 發佈了 3 百萬條推文 0:01:56.021,0:01:59.863 和 43 小時的 YouTube 內容, 0:01:59.887,0:02:01.539 全都是精心設計的虛假資訊, 0:02:01.563,0:02:07.886 用來干擾美國總統選舉。 0:02:08.996,0:02:11.646 牛津大學最近的一項研究表明, 0:02:11.670,0:02:14.940 在近期的瑞典大選中, 0:02:14.964,0:02:20.585 社交網路上有三分之一[br]關於選舉的資訊 0:02:20.585,0:02:22.672 是虛假資訊或是謠言。 0:02:23.037,0:02:28.115 另外,這些社交網路上的虛假資訊, 0:02:28.139,0:02:32.290 可以傳播「種族屠殺宣傳」, 0:02:32.314,0:02:35.425 比如,在緬甸煽動[br]對羅興亞人的種族仇恨, 0:02:35.449,0:02:37.752 在印度引發暴民殺戮。 0:02:37.776,0:02:42.515 我們在假新聞廣受關注前[br]就開始對其研究。 0:02:43.030,0:02:48.070 我們最近公佈了一項迄今最大的 0:02:48.094,0:02:50.380 針對網路傳播上假新聞的縱向研究, 0:02:50.404,0:02:53.608 登上了今年 3 月的《科學》封面。 0:02:54.523,0:02:58.684 我們研究所有經過查核的 0:02:58.708,0:03:00.461 推特上傳播的真、假新聞, 0:03:00.485,0:03:04.303 範圍從推特創立的 2006 年到 2017 年。 0:03:04.612,0:03:06.926 我們研究的新聞樣本 0:03:06.950,0:03:09.826 是明確的真/假新聞, 0:03:09.850,0:03:13.768 它們經過了 6 個獨立的[br]事實查核機構的驗證, 0:03:13.792,0:03:16.554 所以我們知道哪些是真新聞, 0:03:16.578,0:03:18.704 哪些是假新聞。 0:03:18.728,0:03:20.601 我們測量它們的傳播程度, 0:03:20.625,0:03:22.276 比如傳播速度、 0:03:22.300,0:03:24.395 傳播範圍、 0:03:24.419,0:03:28.561 被假新聞迷惑的人數等等。 0:03:28.942,0:03:30.426 在這項研究中, 0:03:30.450,0:03:34.315 我們比對了真、假新聞的傳播程度, 0:03:34.339,0:03:36.022 這是研究結果。 0:03:36.046,0:03:41.879 我們發現,假新聞較真新聞[br]傳播得更遠、更快、更深、更廣, 0:03:41.879,0:03:44.882 在每類新聞中都是如此, 0:03:44.906,0:03:47.405 有時甚至相差一個數量級。[br](意即:數十倍之差) 0:03:47.842,0:03:51.366 在假新聞中,虛假政治新聞[br]傳播程度最嚴重, 0:03:51.390,0:03:57.312 它比其他假新聞傳播得[br]更遠、更快、更深、更廣。 0:03:57.312,0:03:58.541 看到這個結果, 0:03:58.541,0:04:01.569 我們擔心、同時好奇著, 0:04:01.569,0:04:02.720 為什麼? 0:04:02.744,0:04:07.943 為什麼假新聞比真新聞傳播得[br]更遠、更快、更深、更廣? 0:04:08.339,0:04:11.300 我們首先想到的假設是, 0:04:11.324,0:04:14.926 也許傳播假新聞的人有更多的關注者, 0:04:14.926,0:04:17.697 或是關注了更多人,發推更頻繁, 0:04:17.721,0:04:21.847 也許他們在公衆眼裡更「可信」, 0:04:21.871,0:04:24.053 或是他們更早開始使用推特。 0:04:24.077,0:04:26.375 於是我們一一驗證, 0:04:26.691,0:04:29.611 得出的結果卻正好相反。 0:04:29.635,0:04:32.071 假新聞傳播帳號有更少的關注者, 0:04:32.095,0:04:34.349 關注更少的用戶, 0:04:34.373,0:04:35.833 可信度更低, 0:04:35.857,0:04:38.817 使用推特的時間更短。 0:04:38.841,0:04:40.030 然而, 0:04:40.054,0:04:45.087 即便在控制了這些變量後, 0:04:45.111,0:04:48.474 假新聞被轉發的可能性[br]仍然比真新聞高 70%。 0:04:48.498,0:04:51.188 所以我們轉向其他假設。 0:04:51.212,0:04:54.679 我們引入了一個名詞「新奇假設」,[br](novelty hypothesis) 0:04:55.038,0:04:56.998 讀過文獻的人應該知道, 0:04:57.022,0:05:00.776 我們的注意力會被新奇事物吸引, 0:05:00.800,0:05:03.319 那些在環境中未曾有過的東西。 0:05:03.343,0:05:05.328 如果你讀過社會學作品, 0:05:05.352,0:05:09.652 會知道人們傾向於分享新奇的資訊, 0:05:09.676,0:05:13.514 因為這讓我們看起來掌握了內部資訊。 0:05:13.538,0:05:17.323 透過傳播這些資訊,我們提升了地位。 0:05:17.792,0:05:24.244 因此我們會將推文內容 0:05:24.268,0:05:28.323 同前 60 天看到過的相關內容比較, 0:05:28.347,0:05:31.299 以此評估一條推文的新奇度。 0:05:31.323,0:05:33.982 但這還不夠,因為我們想到, 0:05:34.006,0:05:38.214 也許假新聞本身更新奇, 0:05:38.238,0:05:41.496 但人們不認為它們很新奇呢? 0:05:41.849,0:05:45.776 所以為了研究人們對假新聞的感知, 0:05:45.800,0:05:49.490 我們從對真、假新聞的回覆中 0:05:49.514,0:05:53.720 提取人們的感受。 0:05:54.022,0:05:55.228 我們發現, 0:05:55.252,0:05:59.466 在對不同反應情緒的統計中, 0:05:59.490,0:06:02.791 有驚訝、噁心、恐懼、悲傷、 0:06:02.815,0:06:05.299 期待、愉快和信任, 0:06:05.323,0:06:11.180 假新聞的回覆中,[br]驚訝和噁心的情緒 0:06:11.204,0:06:14.010 顯著高於真新聞。 0:06:14.392,0:06:18.181 真新聞收到的回覆中 0:06:18.205,0:06:19.752 包含更多的期待、 0:06:19.776,0:06:22.323 愉快和信任。 0:06:22.347,0:06:26.133 驚訝情緒驗證了「新奇假設」, 0:06:26.157,0:06:30.766 因為它更新、更令人驚訝,[br]所以我們更願意轉發。 0:06:31.092,0:06:34.017 同時,不論在白宮 0:06:34.041,0:06:37.077 還是國會的證詞中, 0:06:37.101,0:06:40.839 提到了機器人帳號[br]對傳播虛擬資訊的作用。 0:06:40.863,0:06:42.217 於是我們進行了針對性研究。 0:06:42.241,0:06:45.839 我們使用多種複雜的[br]機器人帳號探測算法, 0:06:45.863,0:06:48.937 找出機器人發佈的資訊, 0:06:49.347,0:06:52.006 把它剔除出,又放回去, 0:06:52.030,0:06:55.149 然後比較兩種情況的數據。 0:06:55.173,0:06:56.604 我們發現, 0:06:56.604,0:07:01.172 機器人確實促進了假新聞的傳播, 0:07:01.196,0:07:03.847 但它們也幾乎同樣程度地 0:07:03.871,0:07:06.276 促進了真新聞的傳播。 0:07:06.276,0:07:13.895 這表明,機器人與真假新聞[br]傳播程度的差異無關。 0:07:13.919,0:07:16.768 所以不是機器人的問題, 0:07:16.792,0:07:21.051 而是我們,人類的問題。 0:07:22.472,0:07:25.806 直到現在,我跟你們說的, 0:07:25.830,0:07:27.584 很不幸, 0:07:27.608,0:07:28.869 還不算最糟糕。 0:07:30.670,0:07:35.470 原因是,情況將要變得更糟。 0:07:35.850,0:07:39.532 兩種技術將惡化形式。 0:07:40.207,0:07:45.379 我們將迎來合成媒體的浪潮, 0:07:45.403,0:07:51.434 人眼無法分辨的假影片、假音頻。 0:07:51.458,0:07:54.212 這背後由兩種技術支持。 0:07:54.236,0:07:58.069 第一種技術是「生成對抗網路」, 0:07:58.093,0:08:00.656 是一種包含兩個神經網路的[br]機器學習方法: 0:08:00.680,0:08:02.227 判別網路 0:08:02.251,0:08:06.451 用來判斷數據的真僞; 0:08:06.475,0:08:07.642 生成網路 0:08:07.666,0:08:10.816 用來生成合成數據,也就是假數據。 0:08:10.840,0:08:15.942 所以生成網路生成假影片、假音頻, 0:08:15.966,0:08:20.641 判別網路嘗試分辨真假。 0:08:20.665,0:08:23.539 事實上,生成網路的目標就是 0:08:23.563,0:08:27.998 讓假數據看起來盡可能「真」, 0:08:28.022,0:08:33.387 以欺騙判別網路,[br]讓它認為這是真的。 0:08:33.387,0:08:35.760 想像一下,透過無休止的博弈, 0:08:35.784,0:08:38.587 機器越發擅長欺騙,以假亂真。 0:08:39.114,0:08:41.614 接著第二種技術登場, 0:08:41.638,0:08:47.360 它可說是人工智慧的平民化。 0:08:47.384,0:08:49.573 所有人都可使用, 0:08:49.597,0:08:53.657 無需任何人工智慧或機器學習背景。 0:08:53.657,0:08:57.760 這些算法在合成媒體的應用, 0:08:57.784,0:09:02.331 大大降低了修改影片的門檻。 0:09:02.355,0:09:06.776 白宮曾發佈一段修改過的假影片, 0:09:06.800,0:09:11.088 影片中的記者正阻止[br]白宮實習生拿走麥克風, 0:09:11.427,0:09:13.426 白宮刪除了幾幀影片, 0:09:13.450,0:09:16.737 讓記者的動作看起來更蠻橫。 0:09:17.157,0:09:20.542 接受採訪的攝影師和特效師 0:09:20.566,0:09:22.993 在被問到這類技術時, 0:09:23.017,0:09:26.845 他們說:「是的,這是[br]電影製作的常用技術, 0:09:26.869,0:09:31.632 使拳打腳踢顯得[br]更震撼和更具侵略性。」 0:09:32.268,0:09:34.135 白宮放出這段影片, 0:09:34.159,0:09:36.659 以對女實習生的「侵略性動作」為由, 0:09:36.683,0:09:38.712 撤銷了吉姆·阿科斯塔[br](影片中的記者) 0:09:38.712,0:09:42.045 進入白宮的記者通行證, 0:09:42.069,0:09:46.878 CNN 不得不透過訴訟[br]來要回通行證的權限。 0:09:48.538,0:09:54.141 我想到了五個方式 0:09:54.165,0:09:57.904 來應對這些難題。 0:09:58.379,0:10:00.189 每一種方式都帶來希望, 0:10:00.213,0:10:03.212 但也各有挑戰。 0:10:03.236,0:10:05.244 第一個方式是標示。 0:10:05.268,0:10:06.625 想一想, 0:10:06.649,0:10:10.260 你去商場買的吃食 0:10:10.284,0:10:12.188 有廣泛的標示。 0:10:12.212,0:10:14.204 你知道其中有多少卡路里, 0:10:14.228,0:10:16.029 有多少脂肪。 0:10:16.053,0:10:20.331 然而我們獲取的資訊[br]卻看不到任何標示。 0:10:20.355,0:10:22.283 這則資訊中包含什麼? 0:10:22.307,0:10:23.760 資訊來源可信嗎? 0:10:23.784,0:10:26.101 資訊的依據可靠嗎? 0:10:26.125,0:10:29.587 我們在消耗資訊時並不知道這些。 0:10:30.101,0:10:33.339 這可能是種解決方法,但也有困難。 0:10:33.363,0:10:39.814 比如說,社會中誰來決定真假, 0:10:40.387,0:10:42.029 是政府嗎? 0:10:42.053,0:10:43.203 是臉書嗎? 0:10:43.601,0:10:47.363 是獨立的事實查核組織嗎? 0:10:47.387,0:10:49.853 誰負責查證這些查核組織呢? 0:10:50.427,0:10:53.511 另一種可能的方式是獎勵機制。 0:10:53.535,0:10:56.169 美國總統大選期間, 0:10:56.193,0:10:59.883 其中一部分假新聞來自馬其頓。 0:10:59.907,0:11:02.244 他們沒有任何政治動機, 0:11:02.268,0:11:04.728 而是出於背後的經濟利益。 0:11:04.752,0:11:06.900 傳播假新聞的暴利在於, 0:11:06.924,0:11:12.506 假新聞傳播得比真新聞[br]更遠、更快、更深, 0:11:12.506,0:11:17.466 它們新奇而博人眼球, 0:11:17.490,0:11:19.450 於是有更多的廣告費。 0:11:19.474,0:11:23.307 如果我們能抑制這些假新聞的傳播, 0:11:23.331,0:11:26.228 也許就能降低經濟利益, 0:11:26.252,0:11:28.942 從源頭減少假新聞數量。 0:11:28.966,0:11:31.466 第三,可以用法律規範新聞。 0:11:31.490,0:11:33.815 這也是必要的應對方式。 0:11:33.839,0:11:35.450 在美國, 0:11:35.474,0:11:40.322 我們正在嘗試用法律[br]規範臉書及其他社交網路。 0:11:40.346,0:11:44.147 我們可以監管政治言論、 0:11:44.171,0:11:46.679 標明演講性質、 0:11:46.703,0:11:50.522 禁止外國參與者資助政治演說。 0:11:50.546,0:11:53.093 但這個方法同樣存在危險。 0:11:53.522,0:11:58.400 例如,馬來西亞最近頒布新法案, 0:11:58.424,0:12:01.158 假新聞傳播者將會面臨六年監禁。 0:12:01.696,0:12:03.775 在專制政權中, 0:12:03.799,0:12:08.465 這類法律可能被用來鎮壓少數異見, 0:12:08.489,0:12:11.997 進一步擴大政治壓迫。 0:12:12.680,0:12:16.223 第四種方法是透明化。 0:12:16.843,0:12:20.557 我們想知道臉書的算法如何, 0:12:20.581,0:12:23.461 算法如何運用數據 0:12:23.485,0:12:26.323 呈現出我們看到的內容。 0:12:26.347,0:12:28.696 我們要讓他們開誠佈公, 0:12:28.720,0:12:32.934 讓我們看到臉書的內部運作方式。 0:12:32.958,0:12:35.737 而要想知道社交網路對社會的影響, 0:12:35.761,0:12:41.038 我們需要讓科學家[br]和其他研究人員獲得這些數據。 0:12:41.038,0:12:42.585 但同時, 0:12:42.609,0:12:46.410 我們也在要求臉書封鎖所有數據, 0:12:46.434,0:12:48.607 確保隱私安全, 0:12:48.631,0:12:51.790 所以,臉書及同類社交平臺 0:12:51.814,0:12:54.948 正面臨著「透明化悖論」。 0:12:55.266,0:12:57.940 因為我們要求他們 0:12:57.964,0:13:02.773 在公開透明化的同時確保隱私安全。 0:13:02.797,0:13:05.488 這是個極其困難的任務, 0:13:05.512,0:13:07.425 但它們必須完成, 0:13:07.449,0:13:11.236 才能在避免其巨大隱患的同時 0:13:11.260,0:13:12.902 放心使用技術。 0:13:12.926,0:13:17.617 最後一種方法是機器學習算法。 0:13:17.641,0:13:20.128 開發防範假新聞的算法, 0:13:20.128,0:13:22.843 研究假新聞的傳播, 0:13:22.843,0:13:25.454 抑制假新聞的擴散。 0:13:25.824,0:13:28.721 在技術開發過程中,人類不可缺位, 0:13:28.745,0:13:31.023 因為我們無法逃避的是, 0:13:31.047,0:13:35.085 所有的技術方案之下, 0:13:35.109,0:13:39.156 是根本的倫理與哲學問題: 0:13:39.180,0:13:42.450 我們如何定義真實與虛假, 0:13:42.474,0:13:45.654 誰有權定義真實與虛假, 0:13:45.678,0:13:48.138 哪些觀點是合法的, 0:13:48.162,0:13:50.760 哪些言論可被允許, 0:13:50.760,0:13:51.892 諸如此類。 0:13:51.892,0:13:54.220 科技無法給出答案, 0:13:54.244,0:13:57.942 只有倫理和哲學能夠回答。 0:13:58.950,0:14:02.268 幾乎所有關於人類決策、 0:14:02.292,0:14:05.053 人類合作與協調的理論, 0:14:05.077,0:14:08.751 其核心都包含追求真實。 0:14:09.347,0:14:14.800 但隨著假新聞、假影片 [br]和假音頻大行其道, 0:14:14.800,0:14:18.724 我們正滑向真實消亡的邊緣。 0:14:18.748,0:14:22.637 我們正逐漸失去辨別真假的能力, 0:14:22.661,0:14:25.700 這或許將是極其危險的。 0:14:26.931,0:14:28.901 我們必須時刻警惕, 0:14:28.901,0:14:32.437 守護真實,阻止虛假。 0:14:32.919,0:14:36.355 透過科技、透過政策, 0:14:36.379,0:14:38.299 或許最重要的是 0:14:38.323,0:14:41.537 透過我們每個人的責任感、 0:14:41.561,0:14:43.771 每個人的選擇、行為 0:14:43.771,0:14:45.253 來守護真實。 0:14:45.553,0:14:46.990 謝謝大家。 0:14:47.014,0:14:50.531 (掌聲)