2013 年 4 月 23 日, 美聯社在推特上發推文稱, 「突發新聞: 白宮發生兩起爆炸, 總統奧巴馬受傷。」 不到五分鐘內, 這篇推文被轉發了四千多次, 接着病毒式擴散。 然而,這則推文並不是 由美聯社發佈的真實新聞, 這則錯誤的新聞, 或者說,假新聞, 是敘利亞的黑客 在入侵美聯社的推特帳號後發佈的。 他們的目的是擾亂社會, 但實際破壞遠大於此。 因為自動交易算法 立即對這條推文進行情感分析, 並開始根據美國總統 在爆炸中受傷或喪生的可能性 進行自動交易。 推文被瘋狂轉發的同時, 股市立刻隨之崩盤, 一天之內蒸發了 1400 億美金市值。 美國特別檢察官羅伯特·穆勒 曾起訴三家俄羅斯公司 及十三名俄羅斯公民, 指控他們合謀擾亂美國, 干涉 2016 年的總統大選。 這項指控針對的事件 與俄羅斯網路水軍有關, (Internet Research Agency) 那是個俄羅斯政府用來 操控社交網路的機構。 僅在(美國)總統大選期間, 這個網路水軍的功夫 就觸及了 1.26 億美國臉書用戶, 發佈了 3 百萬條推文 和 43 小時的 YouTube 內容, 全都是精心設計的虛假資訊, 用來干擾美國總統選舉。 牛津大學最近的一項研究表明, 在近期的瑞典大選中, 社交網路上有三分之一 關於選舉的資訊 是虛假資訊或是謠言。 另外,這些社交網路上的虛假資訊, 可以傳播「種族屠殺宣傳」, 比如,在緬甸煽動 對羅興亞人的種族仇恨, 在印度引發暴民殺戮。 我們在假新聞廣受關注前 就開始對其研究。 我們最近公佈了一項迄今最大的 針對網路傳播上假新聞的縱向研究, 登上了今年 3 月的《科學》封面。 我們研究所有經過查核的 推特上傳播的真、假新聞, 範圍從推特創立的 2006 年到 2017 年。 我們研究的新聞樣本 是明確的真/假新聞, 它們經過了 6 個獨立的 事實查核機構的驗證, 所以我們知道哪些是真新聞, 哪些是假新聞。 我們測量它們的傳播程度, 比如傳播速度、 傳播範圍、 被假新聞迷惑的人數等等。 在這項研究中, 我們比對了真、假新聞的傳播程度, 這是研究結果。 我們發現,假新聞較真新聞 傳播得更遠、更快、更深、更廣, 在每類新聞中都是如此, 有時甚至相差一個數量級。 (意即:數十倍之差) 在假新聞中,虛假政治新聞 傳播程度最嚴重, 它比其他假新聞傳播得 更遠、更快、更深、更廣。 看到這個結果, 我們擔心、同時好奇著, 為什麼? 為什麼假新聞比真新聞傳播得 更遠、更快、更深、更廣? 我們首先想到的假設是, 也許傳播假新聞的人有更多的關注者, 或是關注了更多人,發推更頻繁, 也許他們在公衆眼裡更「可信」, 或是他們更早開始使用推特。 於是我們一一驗證, 得出的結果卻正好相反。 假新聞傳播帳號有更少的關注者, 關注更少的用戶, 可信度更低, 使用推特的時間更短。 然而, 即便在控制了這些變量後, 假新聞被轉發的可能性 仍然比真新聞高 70%。 所以我們轉向其他假設。 我們引入了一個名詞「新奇假設」, (novelty hypothesis) 讀過文獻的人應該知道, 我們的注意力會被新奇事物吸引, 那些在環境中未曾有過的東西。 如果你讀過社會學作品, 會知道人們傾向於分享新奇的資訊, 因為這讓我們看起來掌握了內部資訊。 透過傳播這些資訊,我們提升了地位。 因此我們會將推文內容 同前 60 天看到過的相關內容比較, 以此評估一條推文的新奇度。 但這還不夠,因為我們想到, 也許假新聞本身更新奇, 但人們不認為它們很新奇呢? 所以為了研究人們對假新聞的感知, 我們從對真、假新聞的回覆中 提取人們的感受。 我們發現, 在對不同反應情緒的統計中, 有驚訝、噁心、恐懼、悲傷、 期待、愉快和信任, 假新聞的回覆中, 驚訝和噁心的情緒 顯著高於真新聞。 真新聞收到的回覆中 包含更多的期待、 愉快和信任。 驚訝情緒驗證了「新奇假設」, 因為它更新、更令人驚訝, 所以我們更願意轉發。 同時,不論在白宮 還是國會的證詞中, 提到了機器人帳號 對傳播虛擬資訊的作用。 於是我們進行了針對性研究。 我們使用多種複雜的 機器人帳號探測算法, 找出機器人發佈的資訊, 把它剔除出,又放回去, 然後比較兩種情況的數據。 我們發現, 機器人確實促進了假新聞的傳播, 但它們也幾乎同樣程度地 促進了真新聞的傳播。 這表明,機器人與真假新聞 傳播程度的差異無關。 所以不是機器人的問題, 而是我們,人類的問題。 直到現在,我跟你們說的, 很不幸, 還不算最糟糕。 原因是,情況將要變得更糟。 兩種技術將惡化形式。 我們將迎來合成媒體的浪潮, 人眼無法分辨的假影片、假音頻。 這背後由兩種技術支持。 第一種技術是「生成對抗網路」, 是一種包含兩個神經網路的 機器學習方法: 判別網路 用來判斷數據的真僞; 生成網路 用來生成合成數據,也就是假數據。 所以生成網路生成假影片、假音頻, 判別網路嘗試分辨真假。 事實上,生成網路的目標就是 讓假數據看起來盡可能「真」, 以欺騙判別網路, 讓它認為這是真的。 想像一下,透過無休止的博弈, 機器越發擅長欺騙,以假亂真。 接著第二種技術登場, 它可說是人工智慧的平民化。 所有人都可使用, 無需任何人工智慧或機器學習背景。 這些算法在合成媒體的應用, 大大降低了修改影片的門檻。 白宮曾發佈一段修改過的假影片, 影片中的記者正阻止 白宮實習生拿走麥克風, 白宮刪除了幾幀影片, 讓記者的動作看起來更蠻橫。 接受採訪的攝影師和特效師 在被問到這類技術時, 他們說:「是的,這是 電影製作的常用技術, 使拳打腳踢顯得 更震撼和更具侵略性。」 白宮放出這段影片, 以對女實習生的「侵略性動作」為由, 撤銷了吉姆·阿科斯塔 (影片中的記者) 進入白宮的記者通行證, CNN 不得不透過訴訟 來要回通行證的權限。 我想到了五個方式 來應對這些難題。 每一種方式都帶來希望, 但也各有挑戰。 第一個方式是標示。 想一想, 你去商場買的吃食 有廣泛的標示。 你知道其中有多少卡路里, 有多少脂肪。 然而我們獲取的資訊 卻看不到任何標示。 這則資訊中包含什麼? 資訊來源可信嗎? 資訊的依據可靠嗎? 我們在消耗資訊時並不知道這些。 這可能是種解決方法,但也有困難。 比如說,社會中誰來決定真假, 是政府嗎? 是臉書嗎? 是獨立的事實查核組織嗎? 誰負責查證這些查核組織呢? 另一種可能的方式是獎勵機制。 美國總統大選期間, 其中一部分假新聞來自馬其頓。 他們沒有任何政治動機, 而是出於背後的經濟利益。 傳播假新聞的暴利在於, 假新聞傳播得比真新聞 更遠、更快、更深, 它們新奇而博人眼球, 於是有更多的廣告費。 如果我們能抑制這些假新聞的傳播, 也許就能降低經濟利益, 從源頭減少假新聞數量。 第三,可以用法律規範新聞。 這也是必要的應對方式。 在美國, 我們正在嘗試用法律 規範臉書及其他社交網路。 我們可以監管政治言論、 標明演講性質、 禁止外國參與者資助政治演說。 但這個方法同樣存在危險。 例如,馬來西亞最近頒布新法案, 假新聞傳播者將會面臨六年監禁。 在專制政權中, 這類法律可能被用來鎮壓少數異見, 進一步擴大政治壓迫。 第四種方法是透明化。 我們想知道臉書的算法如何, 算法如何運用數據 呈現出我們看到的內容。 我們要讓他們開誠佈公, 讓我們看到臉書的內部運作方式。 而要想知道社交網路對社會的影響, 我們需要讓科學家 和其他研究人員獲得這些數據。 但同時, 我們也在要求臉書封鎖所有數據, 確保隱私安全, 所以,臉書及同類社交平臺 正面臨著「透明化悖論」。 因為我們要求他們 在公開透明化的同時確保隱私安全。 這是個極其困難的任務, 但它們必須完成, 才能在避免其巨大隱患的同時 放心使用技術。 最後一種方法是機器學習算法。 開發防範假新聞的算法, 研究假新聞的傳播, 抑制假新聞的擴散。 在技術開發過程中,人類不可缺位, 因為我們無法逃避的是, 所有的技術方案之下, 是根本的倫理與哲學問題: 我們如何定義真實與虛假, 誰有權定義真實與虛假, 哪些觀點是合法的, 哪些言論可被允許, 諸如此類。 科技無法給出答案, 只有倫理和哲學能夠回答。 幾乎所有關於人類決策、 人類合作與協調的理論, 其核心都包含追求真實。 但隨著假新聞、假影片 和假音頻大行其道, 我們正滑向真實消亡的邊緣。 我們正逐漸失去辨別真假的能力, 這或許將是極其危險的。 我們必須時刻警惕, 守護真實,阻止虛假。 透過科技、透過政策, 或許最重要的是 透過我們每個人的責任感、 每個人的選擇、行為 來守護真實。 謝謝大家。 (掌聲)