1 00:00:01,468 --> 00:00:06,690 2013 年 4 月 23 日, 2 00:00:06,714 --> 00:00:12,228 美聯社在推特上發推文稱, 3 00:00:12,252 --> 00:00:14,649 「突發新聞: 4 00:00:14,673 --> 00:00:17,244 白宮發生兩起爆炸, 5 00:00:17,268 --> 00:00:19,601 總統奧巴馬受傷。」 6 00:00:20,212 --> 00:00:25,637 不到五分鐘內, 這篇推文被轉發了四千多次, 7 00:00:25,661 --> 00:00:27,878 接着病毒式擴散。 8 00:00:28,760 --> 00:00:33,110 然而,這則推文並不是 由美聯社發佈的真實新聞, 9 00:00:33,134 --> 00:00:36,467 這則錯誤的新聞, 或者說,假新聞, 10 00:00:36,491 --> 00:00:39,316 是敘利亞的黑客 11 00:00:39,340 --> 00:00:44,034 在入侵美聯社的推特帳號後發佈的。 12 00:00:44,407 --> 00:00:48,296 他們的目的是擾亂社會, 但實際破壞遠大於此。 13 00:00:48,320 --> 00:00:50,796 因為自動交易算法 14 00:00:50,820 --> 00:00:54,180 立即對這條推文進行情感分析, 15 00:00:54,204 --> 00:00:57,172 並開始根據美國總統 16 00:00:57,196 --> 00:01:00,577 在爆炸中受傷或喪生的可能性 17 00:01:00,601 --> 00:01:01,801 進行自動交易。 18 00:01:02,188 --> 00:01:04,180 推文被瘋狂轉發的同時, 19 00:01:04,204 --> 00:01:07,553 股市立刻隨之崩盤, 20 00:01:07,577 --> 00:01:12,744 一天之內蒸發了 1400 億美金市值。 21 00:01:13,062 --> 00:01:17,538 美國特別檢察官羅伯特·穆勒 22 00:01:17,562 --> 00:01:21,454 曾起訴三家俄羅斯公司 23 00:01:21,478 --> 00:01:24,097 及十三名俄羅斯公民, 24 00:01:24,121 --> 00:01:27,288 指控他們合謀擾亂美國, 25 00:01:27,312 --> 00:01:31,092 干涉 2016 年的總統大選。 26 00:01:31,855 --> 00:01:35,419 這項指控針對的事件 27 00:01:35,443 --> 00:01:38,585 與俄羅斯網路水軍有關, (Internet Research Agency) 28 00:01:38,609 --> 00:01:42,203 那是個俄羅斯政府用來 操控社交網路的機構。 29 00:01:42,815 --> 00:01:45,592 僅在(美國)總統大選期間, 30 00:01:45,616 --> 00:01:47,505 這個網路水軍的功夫 31 00:01:47,529 --> 00:01:52,696 就觸及了 1.26 億美國臉書用戶, 32 00:01:52,720 --> 00:01:55,997 發佈了 3 百萬條推文 33 00:01:56,021 --> 00:01:59,863 和 43 小時的 YouTube 內容, 34 00:01:59,887 --> 00:02:01,539 全都是精心設計的虛假資訊, 35 00:02:01,563 --> 00:02:07,886 用來干擾美國總統選舉。 36 00:02:08,996 --> 00:02:11,646 牛津大學最近的一項研究表明, 37 00:02:11,670 --> 00:02:14,940 在近期的瑞典大選中, 38 00:02:14,964 --> 00:02:20,585 社交網路上有三分之一 關於選舉的資訊 39 00:02:20,585 --> 00:02:22,672 是虛假資訊或是謠言。 40 00:02:23,037 --> 00:02:28,115 另外,這些社交網路上的虛假資訊, 41 00:02:28,139 --> 00:02:32,290 可以傳播「種族屠殺宣傳」, 42 00:02:32,314 --> 00:02:35,425 比如,在緬甸煽動 對羅興亞人的種族仇恨, 43 00:02:35,449 --> 00:02:37,752 在印度引發暴民殺戮。 44 00:02:37,776 --> 00:02:42,515 我們在假新聞廣受關注前 就開始對其研究。 45 00:02:43,030 --> 00:02:48,070 我們最近公佈了一項迄今最大的 46 00:02:48,094 --> 00:02:50,380 針對網路傳播上假新聞的縱向研究, 47 00:02:50,404 --> 00:02:53,608 登上了今年 3 月的《科學》封面。 48 00:02:54,523 --> 00:02:58,684 我們研究所有經過查核的 49 00:02:58,708 --> 00:03:00,461 推特上傳播的真、假新聞, 50 00:03:00,485 --> 00:03:04,303 範圍從推特創立的 2006 年到 2017 年。 51 00:03:04,612 --> 00:03:06,926 我們研究的新聞樣本 52 00:03:06,950 --> 00:03:09,826 是明確的真/假新聞, 53 00:03:09,850 --> 00:03:13,768 它們經過了 6 個獨立的 事實查核機構的驗證, 54 00:03:13,792 --> 00:03:16,554 所以我們知道哪些是真新聞, 55 00:03:16,578 --> 00:03:18,704 哪些是假新聞。 56 00:03:18,728 --> 00:03:20,601 我們測量它們的傳播程度, 57 00:03:20,625 --> 00:03:22,276 比如傳播速度、 58 00:03:22,300 --> 00:03:24,395 傳播範圍、 59 00:03:24,419 --> 00:03:28,561 被假新聞迷惑的人數等等。 60 00:03:28,942 --> 00:03:30,426 在這項研究中, 61 00:03:30,450 --> 00:03:34,315 我們比對了真、假新聞的傳播程度, 62 00:03:34,339 --> 00:03:36,022 這是研究結果。 63 00:03:36,046 --> 00:03:41,879 我們發現,假新聞較真新聞 傳播得更遠、更快、更深、更廣, 64 00:03:41,879 --> 00:03:44,882 在每類新聞中都是如此, 65 00:03:44,906 --> 00:03:47,405 有時甚至相差一個數量級。 (意即:數十倍之差) 66 00:03:47,842 --> 00:03:51,366 在假新聞中,虛假政治新聞 傳播程度最嚴重, 67 00:03:51,390 --> 00:03:57,312 它比其他假新聞傳播得 更遠、更快、更深、更廣。 68 00:03:57,312 --> 00:03:58,541 看到這個結果, 69 00:03:58,541 --> 00:04:01,569 我們擔心、同時好奇著, 70 00:04:01,569 --> 00:04:02,720 為什麼? 71 00:04:02,744 --> 00:04:07,943 為什麼假新聞比真新聞傳播得 更遠、更快、更深、更廣? 72 00:04:08,339 --> 00:04:11,300 我們首先想到的假設是, 73 00:04:11,324 --> 00:04:14,926 也許傳播假新聞的人有更多的關注者, 74 00:04:14,926 --> 00:04:17,697 或是關注了更多人,發推更頻繁, 75 00:04:17,721 --> 00:04:21,847 也許他們在公衆眼裡更「可信」, 76 00:04:21,871 --> 00:04:24,053 或是他們更早開始使用推特。 77 00:04:24,077 --> 00:04:26,375 於是我們一一驗證, 78 00:04:26,691 --> 00:04:29,611 得出的結果卻正好相反。 79 00:04:29,635 --> 00:04:32,071 假新聞傳播帳號有更少的關注者, 80 00:04:32,095 --> 00:04:34,349 關注更少的用戶, 81 00:04:34,373 --> 00:04:35,833 可信度更低, 82 00:04:35,857 --> 00:04:38,817 使用推特的時間更短。 83 00:04:38,841 --> 00:04:40,030 然而, 84 00:04:40,054 --> 00:04:45,087 即便在控制了這些變量後, 85 00:04:45,111 --> 00:04:48,474 假新聞被轉發的可能性 仍然比真新聞高 70%。 86 00:04:48,498 --> 00:04:51,188 所以我們轉向其他假設。 87 00:04:51,212 --> 00:04:54,679 我們引入了一個名詞「新奇假設」, (novelty hypothesis) 88 00:04:55,038 --> 00:04:56,998 讀過文獻的人應該知道, 89 00:04:57,022 --> 00:05:00,776 我們的注意力會被新奇事物吸引, 90 00:05:00,800 --> 00:05:03,319 那些在環境中未曾有過的東西。 91 00:05:03,343 --> 00:05:05,328 如果你讀過社會學作品, 92 00:05:05,352 --> 00:05:09,652 會知道人們傾向於分享新奇的資訊, 93 00:05:09,676 --> 00:05:13,514 因為這讓我們看起來掌握了內部資訊。 94 00:05:13,538 --> 00:05:17,323 透過傳播這些資訊,我們提升了地位。 95 00:05:17,792 --> 00:05:24,244 因此我們會將推文內容 96 00:05:24,268 --> 00:05:28,323 同前 60 天看到過的相關內容比較, 97 00:05:28,347 --> 00:05:31,299 以此評估一條推文的新奇度。 98 00:05:31,323 --> 00:05:33,982 但這還不夠,因為我們想到, 99 00:05:34,006 --> 00:05:38,214 也許假新聞本身更新奇, 100 00:05:38,238 --> 00:05:41,496 但人們不認為它們很新奇呢? 101 00:05:41,849 --> 00:05:45,776 所以為了研究人們對假新聞的感知, 102 00:05:45,800 --> 00:05:49,490 我們從對真、假新聞的回覆中 103 00:05:49,514 --> 00:05:53,720 提取人們的感受。 104 00:05:54,022 --> 00:05:55,228 我們發現, 105 00:05:55,252 --> 00:05:59,466 在對不同反應情緒的統計中, 106 00:05:59,490 --> 00:06:02,791 有驚訝、噁心、恐懼、悲傷、 107 00:06:02,815 --> 00:06:05,299 期待、愉快和信任, 108 00:06:05,323 --> 00:06:11,180 假新聞的回覆中, 驚訝和噁心的情緒 109 00:06:11,204 --> 00:06:14,010 顯著高於真新聞。 110 00:06:14,392 --> 00:06:18,181 真新聞收到的回覆中 111 00:06:18,205 --> 00:06:19,752 包含更多的期待、 112 00:06:19,776 --> 00:06:22,323 愉快和信任。 113 00:06:22,347 --> 00:06:26,133 驚訝情緒驗證了「新奇假設」, 114 00:06:26,157 --> 00:06:30,766 因為它更新、更令人驚訝, 所以我們更願意轉發。 115 00:06:31,092 --> 00:06:34,017 同時,不論在白宮 116 00:06:34,041 --> 00:06:37,077 還是國會的證詞中, 117 00:06:37,101 --> 00:06:40,839 提到了機器人帳號 對傳播虛擬資訊的作用。 118 00:06:40,863 --> 00:06:42,217 於是我們進行了針對性研究。 119 00:06:42,241 --> 00:06:45,839 我們使用多種複雜的 機器人帳號探測算法, 120 00:06:45,863 --> 00:06:48,937 找出機器人發佈的資訊, 121 00:06:49,347 --> 00:06:52,006 把它剔除出,又放回去, 122 00:06:52,030 --> 00:06:55,149 然後比較兩種情況的數據。 123 00:06:55,173 --> 00:06:56,604 我們發現, 124 00:06:56,604 --> 00:07:01,172 機器人確實促進了假新聞的傳播, 125 00:07:01,196 --> 00:07:03,847 但它們也幾乎同樣程度地 126 00:07:03,871 --> 00:07:06,276 促進了真新聞的傳播。 127 00:07:06,276 --> 00:07:13,895 這表明,機器人與真假新聞 傳播程度的差異無關。 128 00:07:13,919 --> 00:07:16,768 所以不是機器人的問題, 129 00:07:16,792 --> 00:07:21,051 而是我們,人類的問題。 130 00:07:22,472 --> 00:07:25,806 直到現在,我跟你們說的, 131 00:07:25,830 --> 00:07:27,584 很不幸, 132 00:07:27,608 --> 00:07:28,869 還不算最糟糕。 133 00:07:30,670 --> 00:07:35,470 原因是,情況將要變得更糟。 134 00:07:35,850 --> 00:07:39,532 兩種技術將惡化形式。 135 00:07:40,207 --> 00:07:45,379 我們將迎來合成媒體的浪潮, 136 00:07:45,403 --> 00:07:51,434 人眼無法分辨的假影片、假音頻。 137 00:07:51,458 --> 00:07:54,212 這背後由兩種技術支持。 138 00:07:54,236 --> 00:07:58,069 第一種技術是「生成對抗網路」, 139 00:07:58,093 --> 00:08:00,656 是一種包含兩個神經網路的 機器學習方法: 140 00:08:00,680 --> 00:08:02,227 判別網路 141 00:08:02,251 --> 00:08:06,451 用來判斷數據的真僞; 142 00:08:06,475 --> 00:08:07,642 生成網路 143 00:08:07,666 --> 00:08:10,816 用來生成合成數據,也就是假數據。 144 00:08:10,840 --> 00:08:15,942 所以生成網路生成假影片、假音頻, 145 00:08:15,966 --> 00:08:20,641 判別網路嘗試分辨真假。 146 00:08:20,665 --> 00:08:23,539 事實上,生成網路的目標就是 147 00:08:23,563 --> 00:08:27,998 讓假數據看起來盡可能「真」, 148 00:08:28,022 --> 00:08:33,387 以欺騙判別網路, 讓它認為這是真的。 149 00:08:33,387 --> 00:08:35,760 想像一下,透過無休止的博弈, 150 00:08:35,784 --> 00:08:38,587 機器越發擅長欺騙,以假亂真。 151 00:08:39,114 --> 00:08:41,614 接著第二種技術登場, 152 00:08:41,638 --> 00:08:47,360 它可說是人工智慧的平民化。 153 00:08:47,384 --> 00:08:49,573 所有人都可使用, 154 00:08:49,597 --> 00:08:53,657 無需任何人工智慧或機器學習背景。 155 00:08:53,657 --> 00:08:57,760 這些算法在合成媒體的應用, 156 00:08:57,784 --> 00:09:02,331 大大降低了修改影片的門檻。 157 00:09:02,355 --> 00:09:06,776 白宮曾發佈一段修改過的假影片, 158 00:09:06,800 --> 00:09:11,088 影片中的記者正阻止 白宮實習生拿走麥克風, 159 00:09:11,427 --> 00:09:13,426 白宮刪除了幾幀影片, 160 00:09:13,450 --> 00:09:16,737 讓記者的動作看起來更蠻橫。 161 00:09:17,157 --> 00:09:20,542 接受採訪的攝影師和特效師 162 00:09:20,566 --> 00:09:22,993 在被問到這類技術時, 163 00:09:23,017 --> 00:09:26,845 他們說:「是的,這是 電影製作的常用技術, 164 00:09:26,869 --> 00:09:31,632 使拳打腳踢顯得 更震撼和更具侵略性。」 165 00:09:32,268 --> 00:09:34,135 白宮放出這段影片, 166 00:09:34,159 --> 00:09:36,659 以對女實習生的「侵略性動作」為由, 167 00:09:36,683 --> 00:09:38,712 撤銷了吉姆·阿科斯塔 (影片中的記者) 168 00:09:38,712 --> 00:09:42,045 進入白宮的記者通行證, 169 00:09:42,069 --> 00:09:46,878 CNN 不得不透過訴訟 來要回通行證的權限。 170 00:09:48,538 --> 00:09:54,141 我想到了五個方式 171 00:09:54,165 --> 00:09:57,904 來應對這些難題。 172 00:09:58,379 --> 00:10:00,189 每一種方式都帶來希望, 173 00:10:00,213 --> 00:10:03,212 但也各有挑戰。 174 00:10:03,236 --> 00:10:05,244 第一個方式是標示。 175 00:10:05,268 --> 00:10:06,625 想一想, 176 00:10:06,649 --> 00:10:10,260 你去商場買的吃食 177 00:10:10,284 --> 00:10:12,188 有廣泛的標示。 178 00:10:12,212 --> 00:10:14,204 你知道其中有多少卡路里, 179 00:10:14,228 --> 00:10:16,029 有多少脂肪。 180 00:10:16,053 --> 00:10:20,331 然而我們獲取的資訊 卻看不到任何標示。 181 00:10:20,355 --> 00:10:22,283 這則資訊中包含什麼? 182 00:10:22,307 --> 00:10:23,760 資訊來源可信嗎? 183 00:10:23,784 --> 00:10:26,101 資訊的依據可靠嗎? 184 00:10:26,125 --> 00:10:29,587 我們在消耗資訊時並不知道這些。 185 00:10:30,101 --> 00:10:33,339 這可能是種解決方法,但也有困難。 186 00:10:33,363 --> 00:10:39,814 比如說,社會中誰來決定真假, 187 00:10:40,387 --> 00:10:42,029 是政府嗎? 188 00:10:42,053 --> 00:10:43,203 是臉書嗎? 189 00:10:43,601 --> 00:10:47,363 是獨立的事實查核組織嗎? 190 00:10:47,387 --> 00:10:49,853 誰負責查證這些查核組織呢? 191 00:10:50,427 --> 00:10:53,511 另一種可能的方式是獎勵機制。 192 00:10:53,535 --> 00:10:56,169 美國總統大選期間, 193 00:10:56,193 --> 00:10:59,883 其中一部分假新聞來自馬其頓。 194 00:10:59,907 --> 00:11:02,244 他們沒有任何政治動機, 195 00:11:02,268 --> 00:11:04,728 而是出於背後的經濟利益。 196 00:11:04,752 --> 00:11:06,900 傳播假新聞的暴利在於, 197 00:11:06,924 --> 00:11:12,506 假新聞傳播得比真新聞 更遠、更快、更深, 198 00:11:12,506 --> 00:11:17,466 它們新奇而博人眼球, 199 00:11:17,490 --> 00:11:19,450 於是有更多的廣告費。 200 00:11:19,474 --> 00:11:23,307 如果我們能抑制這些假新聞的傳播, 201 00:11:23,331 --> 00:11:26,228 也許就能降低經濟利益, 202 00:11:26,252 --> 00:11:28,942 從源頭減少假新聞數量。 203 00:11:28,966 --> 00:11:31,466 第三,可以用法律規範新聞。 204 00:11:31,490 --> 00:11:33,815 這也是必要的應對方式。 205 00:11:33,839 --> 00:11:35,450 在美國, 206 00:11:35,474 --> 00:11:40,322 我們正在嘗試用法律 規範臉書及其他社交網路。 207 00:11:40,346 --> 00:11:44,147 我們可以監管政治言論、 208 00:11:44,171 --> 00:11:46,679 標明演講性質、 209 00:11:46,703 --> 00:11:50,522 禁止外國參與者資助政治演說。 210 00:11:50,546 --> 00:11:53,093 但這個方法同樣存在危險。 211 00:11:53,522 --> 00:11:58,400 例如,馬來西亞最近頒布新法案, 212 00:11:58,424 --> 00:12:01,158 假新聞傳播者將會面臨六年監禁。 213 00:12:01,696 --> 00:12:03,775 在專制政權中, 214 00:12:03,799 --> 00:12:08,465 這類法律可能被用來鎮壓少數異見, 215 00:12:08,489 --> 00:12:11,997 進一步擴大政治壓迫。 216 00:12:12,680 --> 00:12:16,223 第四種方法是透明化。 217 00:12:16,843 --> 00:12:20,557 我們想知道臉書的算法如何, 218 00:12:20,581 --> 00:12:23,461 算法如何運用數據 219 00:12:23,485 --> 00:12:26,323 呈現出我們看到的內容。 220 00:12:26,347 --> 00:12:28,696 我們要讓他們開誠佈公, 221 00:12:28,720 --> 00:12:32,934 讓我們看到臉書的內部運作方式。 222 00:12:32,958 --> 00:12:35,737 而要想知道社交網路對社會的影響, 223 00:12:35,761 --> 00:12:41,038 我們需要讓科學家 和其他研究人員獲得這些數據。 224 00:12:41,038 --> 00:12:42,585 但同時, 225 00:12:42,609 --> 00:12:46,410 我們也在要求臉書封鎖所有數據, 226 00:12:46,434 --> 00:12:48,607 確保隱私安全, 227 00:12:48,631 --> 00:12:51,790 所以,臉書及同類社交平臺 228 00:12:51,814 --> 00:12:54,948 正面臨著「透明化悖論」。 229 00:12:55,266 --> 00:12:57,940 因為我們要求他們 230 00:12:57,964 --> 00:13:02,773 在公開透明化的同時確保隱私安全。 231 00:13:02,797 --> 00:13:05,488 這是個極其困難的任務, 232 00:13:05,512 --> 00:13:07,425 但它們必須完成, 233 00:13:07,449 --> 00:13:11,236 才能在避免其巨大隱患的同時 234 00:13:11,260 --> 00:13:12,902 放心使用技術。 235 00:13:12,926 --> 00:13:17,617 最後一種方法是機器學習算法。 236 00:13:17,641 --> 00:13:20,128 開發防範假新聞的算法, 237 00:13:20,128 --> 00:13:22,843 研究假新聞的傳播, 238 00:13:22,843 --> 00:13:25,454 抑制假新聞的擴散。 239 00:13:25,824 --> 00:13:28,721 在技術開發過程中,人類不可缺位, 240 00:13:28,745 --> 00:13:31,023 因為我們無法逃避的是, 241 00:13:31,047 --> 00:13:35,085 所有的技術方案之下, 242 00:13:35,109 --> 00:13:39,156 是根本的倫理與哲學問題: 243 00:13:39,180 --> 00:13:42,450 我們如何定義真實與虛假, 244 00:13:42,474 --> 00:13:45,654 誰有權定義真實與虛假, 245 00:13:45,678 --> 00:13:48,138 哪些觀點是合法的, 246 00:13:48,162 --> 00:13:50,760 哪些言論可被允許, 247 00:13:50,760 --> 00:13:51,892 諸如此類。 248 00:13:51,892 --> 00:13:54,220 科技無法給出答案, 249 00:13:54,244 --> 00:13:57,942 只有倫理和哲學能夠回答。 250 00:13:58,950 --> 00:14:02,268 幾乎所有關於人類決策、 251 00:14:02,292 --> 00:14:05,053 人類合作與協調的理論, 252 00:14:05,077 --> 00:14:08,751 其核心都包含追求真實。 253 00:14:09,347 --> 00:14:14,800 但隨著假新聞、假影片 和假音頻大行其道, 254 00:14:14,800 --> 00:14:18,724 我們正滑向真實消亡的邊緣。 255 00:14:18,748 --> 00:14:22,637 我們正逐漸失去辨別真假的能力, 256 00:14:22,661 --> 00:14:25,700 這或許將是極其危險的。 257 00:14:26,931 --> 00:14:28,901 我們必須時刻警惕, 258 00:14:28,901 --> 00:14:32,437 守護真實,阻止虛假。 259 00:14:32,919 --> 00:14:36,355 透過科技、透過政策, 260 00:14:36,379 --> 00:14:38,299 或許最重要的是 261 00:14:38,323 --> 00:14:41,537 透過我們每個人的責任感、 262 00:14:41,561 --> 00:14:43,771 每個人的選擇、行為 263 00:14:43,771 --> 00:14:45,253 來守護真實。 264 00:14:45,553 --> 00:14:46,990 謝謝大家。 265 00:14:47,014 --> 00:14:50,531 (掌聲)