Return to Video

如何在虛假資訊時代守護真相

  • 0:01 - 0:07
    2013 年 4 月 23 日,
  • 0:07 - 0:12
    美聯社在推特上發推文稱,
  • 0:12 - 0:15
    「突發新聞:
  • 0:15 - 0:17
    白宮發生兩起爆炸,
  • 0:17 - 0:20
    總統奧巴馬受傷。」
  • 0:20 - 0:26
    不到五分鐘內,
    這篇推文被轉發了四千多次,
  • 0:26 - 0:28
    接着病毒式擴散。
  • 0:29 - 0:33
    然而,這則推文並不是
    由美聯社發佈的真實新聞,
  • 0:33 - 0:36
    這則錯誤的新聞,
    或者說,假新聞,
  • 0:36 - 0:39
    是敘利亞的黑客
  • 0:39 - 0:44
    在入侵美聯社的推特帳號後發佈的。
  • 0:44 - 0:48
    他們的目的是擾亂社會,
    但實際破壞遠大於此。
  • 0:48 - 0:51
    因為自動交易算法
  • 0:51 - 0:54
    立即對這條推文進行情感分析,
  • 0:54 - 0:57
    並開始根據美國總統
  • 0:57 - 1:01
    在爆炸中受傷或喪生的可能性
  • 1:01 - 1:02
    進行自動交易。
  • 1:02 - 1:04
    推文被瘋狂轉發的同時,
  • 1:04 - 1:08
    股市立刻隨之崩盤,
  • 1:08 - 1:13
    一天之內蒸發了 1400 億美金市值。
  • 1:13 - 1:18
    美國特別檢察官羅伯特·穆勒
  • 1:18 - 1:21
    曾起訴三家俄羅斯公司
  • 1:21 - 1:24
    及十三名俄羅斯公民,
  • 1:24 - 1:27
    指控他們合謀擾亂美國,
  • 1:27 - 1:31
    干涉 2016 年的總統大選。
  • 1:32 - 1:35
    這項指控針對的事件
  • 1:35 - 1:39
    與俄羅斯網路水軍有關,
    (Internet Research Agency)
  • 1:39 - 1:42
    那是個俄羅斯政府用來
    操控社交網路的機構。
  • 1:43 - 1:46
    僅在(美國)總統大選期間,
  • 1:46 - 1:48
    這個網路水軍的功夫
  • 1:48 - 1:53
    就觸及了 1.26 億美國臉書用戶,
  • 1:53 - 1:56
    發佈了 3 百萬條推文
  • 1:56 - 2:00
    和 43 小時的 YouTube 內容,
  • 2:00 - 2:02
    全都是精心設計的虛假資訊,
  • 2:02 - 2:08
    用來干擾美國總統選舉。
  • 2:09 - 2:12
    牛津大學最近的一項研究表明,
  • 2:12 - 2:15
    在近期的瑞典大選中,
  • 2:15 - 2:21
    社交網路上有三分之一
    關於選舉的資訊
  • 2:21 - 2:23
    是虛假資訊或是謠言。
  • 2:23 - 2:28
    另外,這些社交網路上的虛假資訊,
  • 2:28 - 2:32
    可以傳播「種族屠殺宣傳」,
  • 2:32 - 2:35
    比如,在緬甸煽動
    對羅興亞人的種族仇恨,
  • 2:35 - 2:38
    在印度引發暴民殺戮。
  • 2:38 - 2:43
    我們在假新聞廣受關注前
    就開始對其研究。
  • 2:43 - 2:48
    我們最近公佈了一項迄今最大的
  • 2:48 - 2:50
    針對網路傳播上假新聞的縱向研究,
  • 2:50 - 2:54
    登上了今年 3 月的《科學》封面。
  • 2:55 - 2:59
    我們研究所有經過查核的
  • 2:59 - 3:00
    推特上傳播的真、假新聞,
  • 3:00 - 3:04
    範圍從推特創立的 2006 年到 2017 年。
  • 3:05 - 3:07
    我們研究的新聞樣本
  • 3:07 - 3:10
    是明確的真/假新聞,
  • 3:10 - 3:14
    它們經過了 6 個獨立的
    事實查核機構的驗證,
  • 3:14 - 3:17
    所以我們知道哪些是真新聞,
  • 3:17 - 3:19
    哪些是假新聞。
  • 3:19 - 3:21
    我們測量它們的傳播程度,
  • 3:21 - 3:22
    比如傳播速度、
  • 3:22 - 3:24
    傳播範圍、
  • 3:24 - 3:29
    被假新聞迷惑的人數等等。
  • 3:29 - 3:30
    在這項研究中,
  • 3:30 - 3:34
    我們比對了真、假新聞的傳播程度,
  • 3:34 - 3:36
    這是研究結果。
  • 3:36 - 3:42
    我們發現,假新聞較真新聞
    傳播得更遠、更快、更深、更廣,
  • 3:42 - 3:45
    在每類新聞中都是如此,
  • 3:45 - 3:47
    有時甚至相差一個數量級。
    (意即:數十倍之差)
  • 3:48 - 3:51
    在假新聞中,虛假政治新聞
    傳播程度最嚴重,
  • 3:51 - 3:57
    它比其他假新聞傳播得
    更遠、更快、更深、更廣。
  • 3:57 - 3:59
    看到這個結果,
  • 3:59 - 4:02
    我們擔心、同時好奇著,
  • 4:02 - 4:03
    為什麼?
  • 4:03 - 4:08
    為什麼假新聞比真新聞傳播得
    更遠、更快、更深、更廣?
  • 4:08 - 4:11
    我們首先想到的假設是,
  • 4:11 - 4:15
    也許傳播假新聞的人有更多的關注者,
  • 4:15 - 4:18
    或是關注了更多人,發推更頻繁,
  • 4:18 - 4:22
    也許他們在公衆眼裡更「可信」,
  • 4:22 - 4:24
    或是他們更早開始使用推特。
  • 4:24 - 4:26
    於是我們一一驗證,
  • 4:27 - 4:30
    得出的結果卻正好相反。
  • 4:30 - 4:32
    假新聞傳播帳號有更少的關注者,
  • 4:32 - 4:34
    關注更少的用戶,
  • 4:34 - 4:36
    可信度更低,
  • 4:36 - 4:39
    使用推特的時間更短。
  • 4:39 - 4:40
    然而,
  • 4:40 - 4:45
    即便在控制了這些變量後,
  • 4:45 - 4:48
    假新聞被轉發的可能性
    仍然比真新聞高 70%。
  • 4:48 - 4:51
    所以我們轉向其他假設。
  • 4:51 - 4:55
    我們引入了一個名詞「新奇假設」,
    (novelty hypothesis)
  • 4:55 - 4:57
    讀過文獻的人應該知道,
  • 4:57 - 5:01
    我們的注意力會被新奇事物吸引,
  • 5:01 - 5:03
    那些在環境中未曾有過的東西。
  • 5:03 - 5:05
    如果你讀過社會學作品,
  • 5:05 - 5:10
    會知道人們傾向於分享新奇的資訊,
  • 5:10 - 5:14
    因為這讓我們看起來掌握了內部資訊。
  • 5:14 - 5:17
    透過傳播這些資訊,我們提升了地位。
  • 5:18 - 5:24
    因此我們會將推文內容
  • 5:24 - 5:28
    同前 60 天看到過的相關內容比較,
  • 5:28 - 5:31
    以此評估一條推文的新奇度。
  • 5:31 - 5:34
    但這還不夠,因為我們想到,
  • 5:34 - 5:38
    也許假新聞本身更新奇,
  • 5:38 - 5:41
    但人們不認為它們很新奇呢?
  • 5:42 - 5:46
    所以為了研究人們對假新聞的感知,
  • 5:46 - 5:49
    我們從對真、假新聞的回覆中
  • 5:50 - 5:54
    提取人們的感受。
  • 5:54 - 5:55
    我們發現,
  • 5:55 - 5:59
    在對不同反應情緒的統計中,
  • 5:59 - 6:03
    有驚訝、噁心、恐懼、悲傷、
  • 6:03 - 6:05
    期待、愉快和信任,
  • 6:05 - 6:11
    假新聞的回覆中,
    驚訝和噁心的情緒
  • 6:11 - 6:14
    顯著高於真新聞。
  • 6:14 - 6:18
    真新聞收到的回覆中
  • 6:18 - 6:20
    包含更多的期待、
  • 6:20 - 6:22
    愉快和信任。
  • 6:22 - 6:26
    驚訝情緒驗證了「新奇假設」,
  • 6:26 - 6:31
    因為它更新、更令人驚訝,
    所以我們更願意轉發。
  • 6:31 - 6:34
    同時,不論在白宮
  • 6:34 - 6:37
    還是國會的證詞中,
  • 6:37 - 6:41
    提到了機器人帳號
    對傳播虛擬資訊的作用。
  • 6:41 - 6:42
    於是我們進行了針對性研究。
  • 6:42 - 6:46
    我們使用多種複雜的
    機器人帳號探測算法,
  • 6:46 - 6:49
    找出機器人發佈的資訊,
  • 6:49 - 6:52
    把它剔除出,又放回去,
  • 6:52 - 6:55
    然後比較兩種情況的數據。
  • 6:55 - 6:57
    我們發現,
  • 6:57 - 7:01
    機器人確實促進了假新聞的傳播,
  • 7:01 - 7:04
    但它們也幾乎同樣程度地
  • 7:04 - 7:06
    促進了真新聞的傳播。
  • 7:06 - 7:14
    這表明,機器人與真假新聞
    傳播程度的差異無關。
  • 7:14 - 7:17
    所以不是機器人的問題,
  • 7:17 - 7:21
    而是我們,人類的問題。
  • 7:22 - 7:26
    直到現在,我跟你們說的,
  • 7:26 - 7:28
    很不幸,
  • 7:28 - 7:29
    還不算最糟糕。
  • 7:31 - 7:35
    原因是,情況將要變得更糟。
  • 7:36 - 7:40
    兩種技術將惡化形式。
  • 7:40 - 7:45
    我們將迎來合成媒體的浪潮,
  • 7:45 - 7:51
    人眼無法分辨的假影片、假音頻。
  • 7:51 - 7:54
    這背後由兩種技術支持。
  • 7:54 - 7:58
    第一種技術是「生成對抗網路」,
  • 7:58 - 8:01
    是一種包含兩個神經網路的
    機器學習方法:
  • 8:01 - 8:02
    判別網路
  • 8:02 - 8:06
    用來判斷數據的真僞;
  • 8:06 - 8:08
    生成網路
  • 8:08 - 8:11
    用來生成合成數據,也就是假數據。
  • 8:11 - 8:16
    所以生成網路生成假影片、假音頻,
  • 8:16 - 8:21
    判別網路嘗試分辨真假。
  • 8:21 - 8:24
    事實上,生成網路的目標就是
  • 8:24 - 8:28
    讓假數據看起來盡可能「真」,
  • 8:28 - 8:33
    以欺騙判別網路,
    讓它認為這是真的。
  • 8:33 - 8:36
    想像一下,透過無休止的博弈,
  • 8:36 - 8:39
    機器越發擅長欺騙,以假亂真。
  • 8:39 - 8:42
    接著第二種技術登場,
  • 8:42 - 8:47
    它可說是人工智慧的平民化。
  • 8:47 - 8:50
    所有人都可使用,
  • 8:50 - 8:54
    無需任何人工智慧或機器學習背景。
  • 8:54 - 8:58
    這些算法在合成媒體的應用,
  • 8:58 - 9:02
    大大降低了修改影片的門檻。
  • 9:02 - 9:07
    白宮曾發佈一段修改過的假影片,
  • 9:07 - 9:11
    影片中的記者正阻止
    白宮實習生拿走麥克風,
  • 9:11 - 9:13
    白宮刪除了幾幀影片,
  • 9:13 - 9:17
    讓記者的動作看起來更蠻橫。
  • 9:17 - 9:21
    接受採訪的攝影師和特效師
  • 9:21 - 9:23
    在被問到這類技術時,
  • 9:23 - 9:27
    他們說:「是的,這是
    電影製作的常用技術,
  • 9:27 - 9:32
    使拳打腳踢顯得
    更震撼和更具侵略性。」
  • 9:32 - 9:34
    白宮放出這段影片,
  • 9:34 - 9:37
    以對女實習生的「侵略性動作」為由,
  • 9:37 - 9:39
    撤銷了吉姆·阿科斯塔
    (影片中的記者)
  • 9:39 - 9:42
    進入白宮的記者通行證,
  • 9:42 - 9:47
    CNN 不得不透過訴訟
    來要回通行證的權限。
  • 9:49 - 9:54
    我想到了五個方式
  • 9:54 - 9:58
    來應對這些難題。
  • 9:58 - 10:00
    每一種方式都帶來希望,
  • 10:00 - 10:03
    但也各有挑戰。
  • 10:03 - 10:05
    第一個方式是標示。
  • 10:05 - 10:07
    想一想,
  • 10:07 - 10:10
    你去商場買的吃食
  • 10:10 - 10:12
    有廣泛的標示。
  • 10:12 - 10:14
    你知道其中有多少卡路里,
  • 10:14 - 10:16
    有多少脂肪。
  • 10:16 - 10:20
    然而我們獲取的資訊
    卻看不到任何標示。
  • 10:20 - 10:22
    這則資訊中包含什麼?
  • 10:22 - 10:24
    資訊來源可信嗎?
  • 10:24 - 10:26
    資訊的依據可靠嗎?
  • 10:26 - 10:30
    我們在消耗資訊時並不知道這些。
  • 10:30 - 10:33
    這可能是種解決方法,但也有困難。
  • 10:33 - 10:40
    比如說,社會中誰來決定真假,
  • 10:40 - 10:42
    是政府嗎?
  • 10:42 - 10:43
    是臉書嗎?
  • 10:44 - 10:47
    是獨立的事實查核組織嗎?
  • 10:47 - 10:50
    誰負責查證這些查核組織呢?
  • 10:50 - 10:54
    另一種可能的方式是獎勵機制。
  • 10:54 - 10:56
    美國總統大選期間,
  • 10:56 - 11:00
    其中一部分假新聞來自馬其頓。
  • 11:00 - 11:02
    他們沒有任何政治動機,
  • 11:02 - 11:05
    而是出於背後的經濟利益。
  • 11:05 - 11:07
    傳播假新聞的暴利在於,
  • 11:07 - 11:13
    假新聞傳播得比真新聞
    更遠、更快、更深,
  • 11:13 - 11:17
    它們新奇而博人眼球,
  • 11:17 - 11:19
    於是有更多的廣告費。
  • 11:19 - 11:23
    如果我們能抑制這些假新聞的傳播,
  • 11:23 - 11:26
    也許就能降低經濟利益,
  • 11:26 - 11:29
    從源頭減少假新聞數量。
  • 11:29 - 11:31
    第三,可以用法律規範新聞。
  • 11:31 - 11:34
    這也是必要的應對方式。
  • 11:34 - 11:35
    在美國,
  • 11:35 - 11:40
    我們正在嘗試用法律
    規範臉書及其他社交網路。
  • 11:40 - 11:44
    我們可以監管政治言論、
  • 11:44 - 11:47
    標明演講性質、
  • 11:47 - 11:51
    禁止外國參與者資助政治演說。
  • 11:51 - 11:53
    但這個方法同樣存在危險。
  • 11:54 - 11:58
    例如,馬來西亞最近頒布新法案,
  • 11:58 - 12:01
    假新聞傳播者將會面臨六年監禁。
  • 12:02 - 12:04
    在專制政權中,
  • 12:04 - 12:08
    這類法律可能被用來鎮壓少數異見,
  • 12:08 - 12:12
    進一步擴大政治壓迫。
  • 12:13 - 12:16
    第四種方法是透明化。
  • 12:17 - 12:21
    我們想知道臉書的算法如何,
  • 12:21 - 12:23
    算法如何運用數據
  • 12:23 - 12:26
    呈現出我們看到的內容。
  • 12:26 - 12:29
    我們要讓他們開誠佈公,
  • 12:29 - 12:33
    讓我們看到臉書的內部運作方式。
  • 12:33 - 12:36
    而要想知道社交網路對社會的影響,
  • 12:36 - 12:41
    我們需要讓科學家
    和其他研究人員獲得這些數據。
  • 12:41 - 12:43
    但同時,
  • 12:43 - 12:46
    我們也在要求臉書封鎖所有數據,
  • 12:46 - 12:49
    確保隱私安全,
  • 12:49 - 12:52
    所以,臉書及同類社交平臺
  • 12:52 - 12:55
    正面臨著「透明化悖論」。
  • 12:55 - 12:58
    因為我們要求他們
  • 12:58 - 13:03
    在公開透明化的同時確保隱私安全。
  • 13:03 - 13:05
    這是個極其困難的任務,
  • 13:06 - 13:07
    但它們必須完成,
  • 13:07 - 13:11
    才能在避免其巨大隱患的同時
  • 13:11 - 13:13
    放心使用技術。
  • 13:13 - 13:18
    最後一種方法是機器學習算法。
  • 13:18 - 13:20
    開發防範假新聞的算法,
  • 13:20 - 13:23
    研究假新聞的傳播,
  • 13:23 - 13:25
    抑制假新聞的擴散。
  • 13:26 - 13:29
    在技術開發過程中,人類不可缺位,
  • 13:29 - 13:31
    因為我們無法逃避的是,
  • 13:31 - 13:35
    所有的技術方案之下,
  • 13:35 - 13:39
    是根本的倫理與哲學問題:
  • 13:39 - 13:42
    我們如何定義真實與虛假,
  • 13:42 - 13:46
    誰有權定義真實與虛假,
  • 13:46 - 13:48
    哪些觀點是合法的,
  • 13:48 - 13:51
    哪些言論可被允許,
  • 13:51 - 13:52
    諸如此類。
  • 13:52 - 13:54
    科技無法給出答案,
  • 13:54 - 13:58
    只有倫理和哲學能夠回答。
  • 13:59 - 14:02
    幾乎所有關於人類決策、
  • 14:02 - 14:05
    人類合作與協調的理論,
  • 14:05 - 14:09
    其核心都包含追求真實。
  • 14:09 - 14:15
    但隨著假新聞、假影片
    和假音頻大行其道,
  • 14:15 - 14:19
    我們正滑向真實消亡的邊緣。
  • 14:19 - 14:23
    我們正逐漸失去辨別真假的能力,
  • 14:23 - 14:26
    這或許將是極其危險的。
  • 14:27 - 14:29
    我們必須時刻警惕,
  • 14:29 - 14:32
    守護真實,阻止虛假。
  • 14:33 - 14:36
    透過科技、透過政策,
  • 14:36 - 14:38
    或許最重要的是
  • 14:38 - 14:42
    透過我們每個人的責任感、
  • 14:42 - 14:44
    每個人的選擇、行為
  • 14:44 - 14:45
    來守護真實。
  • 14:46 - 14:47
    謝謝大家。
  • 14:47 - 14:51
    (掌聲)
Title:
如何在虛假資訊時代守護真相
Speaker:
思南·阿拉爾
Description:

假新聞會影響選舉,引起經濟下跌,混淆人們對是非真假的認知。數據科學家思南·阿拉爾(Sinan Aral)透過分析對虛假資訊時代的最大研究之一,揭露了假新聞傳播迅速的表現和原因,並傳授了五個辨別真假的方法。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Chinese, Traditional subtitles

Revisions