如何在虛假資訊時代守護真相
-
0:01 - 0:072013 年 4 月 23 日,
-
0:07 - 0:12美聯社在推特上發推文稱,
-
0:12 - 0:15「突發新聞:
-
0:15 - 0:17白宮發生兩起爆炸,
-
0:17 - 0:20總統奧巴馬受傷。」
-
0:20 - 0:26不到五分鐘內,
這篇推文被轉發了四千多次, -
0:26 - 0:28接着病毒式擴散。
-
0:29 - 0:33然而,這則推文並不是
由美聯社發佈的真實新聞, -
0:33 - 0:36這則錯誤的新聞,
或者說,假新聞, -
0:36 - 0:39是敘利亞的黑客
-
0:39 - 0:44在入侵美聯社的推特帳號後發佈的。
-
0:44 - 0:48他們的目的是擾亂社會,
但實際破壞遠大於此。 -
0:48 - 0:51因為自動交易算法
-
0:51 - 0:54立即對這條推文進行情感分析,
-
0:54 - 0:57並開始根據美國總統
-
0:57 - 1:01在爆炸中受傷或喪生的可能性
-
1:01 - 1:02進行自動交易。
-
1:02 - 1:04推文被瘋狂轉發的同時,
-
1:04 - 1:08股市立刻隨之崩盤,
-
1:08 - 1:13一天之內蒸發了 1400 億美金市值。
-
1:13 - 1:18美國特別檢察官羅伯特·穆勒
-
1:18 - 1:21曾起訴三家俄羅斯公司
-
1:21 - 1:24及十三名俄羅斯公民,
-
1:24 - 1:27指控他們合謀擾亂美國,
-
1:27 - 1:31干涉 2016 年的總統大選。
-
1:32 - 1:35這項指控針對的事件
-
1:35 - 1:39與俄羅斯網路水軍有關,
(Internet Research Agency) -
1:39 - 1:42那是個俄羅斯政府用來
操控社交網路的機構。 -
1:43 - 1:46僅在(美國)總統大選期間,
-
1:46 - 1:48這個網路水軍的功夫
-
1:48 - 1:53就觸及了 1.26 億美國臉書用戶,
-
1:53 - 1:56發佈了 3 百萬條推文
-
1:56 - 2:00和 43 小時的 YouTube 內容,
-
2:00 - 2:02全都是精心設計的虛假資訊,
-
2:02 - 2:08用來干擾美國總統選舉。
-
2:09 - 2:12牛津大學最近的一項研究表明,
-
2:12 - 2:15在近期的瑞典大選中,
-
2:15 - 2:21社交網路上有三分之一
關於選舉的資訊 -
2:21 - 2:23是虛假資訊或是謠言。
-
2:23 - 2:28另外,這些社交網路上的虛假資訊,
-
2:28 - 2:32可以傳播「種族屠殺宣傳」,
-
2:32 - 2:35比如,在緬甸煽動
對羅興亞人的種族仇恨, -
2:35 - 2:38在印度引發暴民殺戮。
-
2:38 - 2:43我們在假新聞廣受關注前
就開始對其研究。 -
2:43 - 2:48我們最近公佈了一項迄今最大的
-
2:48 - 2:50針對網路傳播上假新聞的縱向研究,
-
2:50 - 2:54登上了今年 3 月的《科學》封面。
-
2:55 - 2:59我們研究所有經過查核的
-
2:59 - 3:00推特上傳播的真、假新聞,
-
3:00 - 3:04範圍從推特創立的 2006 年到 2017 年。
-
3:05 - 3:07我們研究的新聞樣本
-
3:07 - 3:10是明確的真/假新聞,
-
3:10 - 3:14它們經過了 6 個獨立的
事實查核機構的驗證, -
3:14 - 3:17所以我們知道哪些是真新聞,
-
3:17 - 3:19哪些是假新聞。
-
3:19 - 3:21我們測量它們的傳播程度,
-
3:21 - 3:22比如傳播速度、
-
3:22 - 3:24傳播範圍、
-
3:24 - 3:29被假新聞迷惑的人數等等。
-
3:29 - 3:30在這項研究中,
-
3:30 - 3:34我們比對了真、假新聞的傳播程度,
-
3:34 - 3:36這是研究結果。
-
3:36 - 3:42我們發現,假新聞較真新聞
傳播得更遠、更快、更深、更廣, -
3:42 - 3:45在每類新聞中都是如此,
-
3:45 - 3:47有時甚至相差一個數量級。
(意即:數十倍之差) -
3:48 - 3:51在假新聞中,虛假政治新聞
傳播程度最嚴重, -
3:51 - 3:57它比其他假新聞傳播得
更遠、更快、更深、更廣。 -
3:57 - 3:59看到這個結果,
-
3:59 - 4:02我們擔心、同時好奇著,
-
4:02 - 4:03為什麼?
-
4:03 - 4:08為什麼假新聞比真新聞傳播得
更遠、更快、更深、更廣? -
4:08 - 4:11我們首先想到的假設是,
-
4:11 - 4:15也許傳播假新聞的人有更多的關注者,
-
4:15 - 4:18或是關注了更多人,發推更頻繁,
-
4:18 - 4:22也許他們在公衆眼裡更「可信」,
-
4:22 - 4:24或是他們更早開始使用推特。
-
4:24 - 4:26於是我們一一驗證,
-
4:27 - 4:30得出的結果卻正好相反。
-
4:30 - 4:32假新聞傳播帳號有更少的關注者,
-
4:32 - 4:34關注更少的用戶,
-
4:34 - 4:36可信度更低,
-
4:36 - 4:39使用推特的時間更短。
-
4:39 - 4:40然而,
-
4:40 - 4:45即便在控制了這些變量後,
-
4:45 - 4:48假新聞被轉發的可能性
仍然比真新聞高 70%。 -
4:48 - 4:51所以我們轉向其他假設。
-
4:51 - 4:55我們引入了一個名詞「新奇假設」,
(novelty hypothesis) -
4:55 - 4:57讀過文獻的人應該知道,
-
4:57 - 5:01我們的注意力會被新奇事物吸引,
-
5:01 - 5:03那些在環境中未曾有過的東西。
-
5:03 - 5:05如果你讀過社會學作品,
-
5:05 - 5:10會知道人們傾向於分享新奇的資訊,
-
5:10 - 5:14因為這讓我們看起來掌握了內部資訊。
-
5:14 - 5:17透過傳播這些資訊,我們提升了地位。
-
5:18 - 5:24因此我們會將推文內容
-
5:24 - 5:28同前 60 天看到過的相關內容比較,
-
5:28 - 5:31以此評估一條推文的新奇度。
-
5:31 - 5:34但這還不夠,因為我們想到,
-
5:34 - 5:38也許假新聞本身更新奇,
-
5:38 - 5:41但人們不認為它們很新奇呢?
-
5:42 - 5:46所以為了研究人們對假新聞的感知,
-
5:46 - 5:49我們從對真、假新聞的回覆中
-
5:50 - 5:54提取人們的感受。
-
5:54 - 5:55我們發現,
-
5:55 - 5:59在對不同反應情緒的統計中,
-
5:59 - 6:03有驚訝、噁心、恐懼、悲傷、
-
6:03 - 6:05期待、愉快和信任,
-
6:05 - 6:11假新聞的回覆中,
驚訝和噁心的情緒 -
6:11 - 6:14顯著高於真新聞。
-
6:14 - 6:18真新聞收到的回覆中
-
6:18 - 6:20包含更多的期待、
-
6:20 - 6:22愉快和信任。
-
6:22 - 6:26驚訝情緒驗證了「新奇假設」,
-
6:26 - 6:31因為它更新、更令人驚訝,
所以我們更願意轉發。 -
6:31 - 6:34同時,不論在白宮
-
6:34 - 6:37還是國會的證詞中,
-
6:37 - 6:41提到了機器人帳號
對傳播虛擬資訊的作用。 -
6:41 - 6:42於是我們進行了針對性研究。
-
6:42 - 6:46我們使用多種複雜的
機器人帳號探測算法, -
6:46 - 6:49找出機器人發佈的資訊,
-
6:49 - 6:52把它剔除出,又放回去,
-
6:52 - 6:55然後比較兩種情況的數據。
-
6:55 - 6:57我們發現,
-
6:57 - 7:01機器人確實促進了假新聞的傳播,
-
7:01 - 7:04但它們也幾乎同樣程度地
-
7:04 - 7:06促進了真新聞的傳播。
-
7:06 - 7:14這表明,機器人與真假新聞
傳播程度的差異無關。 -
7:14 - 7:17所以不是機器人的問題,
-
7:17 - 7:21而是我們,人類的問題。
-
7:22 - 7:26直到現在,我跟你們說的,
-
7:26 - 7:28很不幸,
-
7:28 - 7:29還不算最糟糕。
-
7:31 - 7:35原因是,情況將要變得更糟。
-
7:36 - 7:40兩種技術將惡化形式。
-
7:40 - 7:45我們將迎來合成媒體的浪潮,
-
7:45 - 7:51人眼無法分辨的假影片、假音頻。
-
7:51 - 7:54這背後由兩種技術支持。
-
7:54 - 7:58第一種技術是「生成對抗網路」,
-
7:58 - 8:01是一種包含兩個神經網路的
機器學習方法: -
8:01 - 8:02判別網路
-
8:02 - 8:06用來判斷數據的真僞;
-
8:06 - 8:08生成網路
-
8:08 - 8:11用來生成合成數據,也就是假數據。
-
8:11 - 8:16所以生成網路生成假影片、假音頻,
-
8:16 - 8:21判別網路嘗試分辨真假。
-
8:21 - 8:24事實上,生成網路的目標就是
-
8:24 - 8:28讓假數據看起來盡可能「真」,
-
8:28 - 8:33以欺騙判別網路,
讓它認為這是真的。 -
8:33 - 8:36想像一下,透過無休止的博弈,
-
8:36 - 8:39機器越發擅長欺騙,以假亂真。
-
8:39 - 8:42接著第二種技術登場,
-
8:42 - 8:47它可說是人工智慧的平民化。
-
8:47 - 8:50所有人都可使用,
-
8:50 - 8:54無需任何人工智慧或機器學習背景。
-
8:54 - 8:58這些算法在合成媒體的應用,
-
8:58 - 9:02大大降低了修改影片的門檻。
-
9:02 - 9:07白宮曾發佈一段修改過的假影片,
-
9:07 - 9:11影片中的記者正阻止
白宮實習生拿走麥克風, -
9:11 - 9:13白宮刪除了幾幀影片,
-
9:13 - 9:17讓記者的動作看起來更蠻橫。
-
9:17 - 9:21接受採訪的攝影師和特效師
-
9:21 - 9:23在被問到這類技術時,
-
9:23 - 9:27他們說:「是的,這是
電影製作的常用技術, -
9:27 - 9:32使拳打腳踢顯得
更震撼和更具侵略性。」 -
9:32 - 9:34白宮放出這段影片,
-
9:34 - 9:37以對女實習生的「侵略性動作」為由,
-
9:37 - 9:39撤銷了吉姆·阿科斯塔
(影片中的記者) -
9:39 - 9:42進入白宮的記者通行證,
-
9:42 - 9:47CNN 不得不透過訴訟
來要回通行證的權限。 -
9:49 - 9:54我想到了五個方式
-
9:54 - 9:58來應對這些難題。
-
9:58 - 10:00每一種方式都帶來希望,
-
10:00 - 10:03但也各有挑戰。
-
10:03 - 10:05第一個方式是標示。
-
10:05 - 10:07想一想,
-
10:07 - 10:10你去商場買的吃食
-
10:10 - 10:12有廣泛的標示。
-
10:12 - 10:14你知道其中有多少卡路里,
-
10:14 - 10:16有多少脂肪。
-
10:16 - 10:20然而我們獲取的資訊
卻看不到任何標示。 -
10:20 - 10:22這則資訊中包含什麼?
-
10:22 - 10:24資訊來源可信嗎?
-
10:24 - 10:26資訊的依據可靠嗎?
-
10:26 - 10:30我們在消耗資訊時並不知道這些。
-
10:30 - 10:33這可能是種解決方法,但也有困難。
-
10:33 - 10:40比如說,社會中誰來決定真假,
-
10:40 - 10:42是政府嗎?
-
10:42 - 10:43是臉書嗎?
-
10:44 - 10:47是獨立的事實查核組織嗎?
-
10:47 - 10:50誰負責查證這些查核組織呢?
-
10:50 - 10:54另一種可能的方式是獎勵機制。
-
10:54 - 10:56美國總統大選期間,
-
10:56 - 11:00其中一部分假新聞來自馬其頓。
-
11:00 - 11:02他們沒有任何政治動機,
-
11:02 - 11:05而是出於背後的經濟利益。
-
11:05 - 11:07傳播假新聞的暴利在於,
-
11:07 - 11:13假新聞傳播得比真新聞
更遠、更快、更深, -
11:13 - 11:17它們新奇而博人眼球,
-
11:17 - 11:19於是有更多的廣告費。
-
11:19 - 11:23如果我們能抑制這些假新聞的傳播,
-
11:23 - 11:26也許就能降低經濟利益,
-
11:26 - 11:29從源頭減少假新聞數量。
-
11:29 - 11:31第三,可以用法律規範新聞。
-
11:31 - 11:34這也是必要的應對方式。
-
11:34 - 11:35在美國,
-
11:35 - 11:40我們正在嘗試用法律
規範臉書及其他社交網路。 -
11:40 - 11:44我們可以監管政治言論、
-
11:44 - 11:47標明演講性質、
-
11:47 - 11:51禁止外國參與者資助政治演說。
-
11:51 - 11:53但這個方法同樣存在危險。
-
11:54 - 11:58例如,馬來西亞最近頒布新法案,
-
11:58 - 12:01假新聞傳播者將會面臨六年監禁。
-
12:02 - 12:04在專制政權中,
-
12:04 - 12:08這類法律可能被用來鎮壓少數異見,
-
12:08 - 12:12進一步擴大政治壓迫。
-
12:13 - 12:16第四種方法是透明化。
-
12:17 - 12:21我們想知道臉書的算法如何,
-
12:21 - 12:23算法如何運用數據
-
12:23 - 12:26呈現出我們看到的內容。
-
12:26 - 12:29我們要讓他們開誠佈公,
-
12:29 - 12:33讓我們看到臉書的內部運作方式。
-
12:33 - 12:36而要想知道社交網路對社會的影響,
-
12:36 - 12:41我們需要讓科學家
和其他研究人員獲得這些數據。 -
12:41 - 12:43但同時,
-
12:43 - 12:46我們也在要求臉書封鎖所有數據,
-
12:46 - 12:49確保隱私安全,
-
12:49 - 12:52所以,臉書及同類社交平臺
-
12:52 - 12:55正面臨著「透明化悖論」。
-
12:55 - 12:58因為我們要求他們
-
12:58 - 13:03在公開透明化的同時確保隱私安全。
-
13:03 - 13:05這是個極其困難的任務,
-
13:06 - 13:07但它們必須完成,
-
13:07 - 13:11才能在避免其巨大隱患的同時
-
13:11 - 13:13放心使用技術。
-
13:13 - 13:18最後一種方法是機器學習算法。
-
13:18 - 13:20開發防範假新聞的算法,
-
13:20 - 13:23研究假新聞的傳播,
-
13:23 - 13:25抑制假新聞的擴散。
-
13:26 - 13:29在技術開發過程中,人類不可缺位,
-
13:29 - 13:31因為我們無法逃避的是,
-
13:31 - 13:35所有的技術方案之下,
-
13:35 - 13:39是根本的倫理與哲學問題:
-
13:39 - 13:42我們如何定義真實與虛假,
-
13:42 - 13:46誰有權定義真實與虛假,
-
13:46 - 13:48哪些觀點是合法的,
-
13:48 - 13:51哪些言論可被允許,
-
13:51 - 13:52諸如此類。
-
13:52 - 13:54科技無法給出答案,
-
13:54 - 13:58只有倫理和哲學能夠回答。
-
13:59 - 14:02幾乎所有關於人類決策、
-
14:02 - 14:05人類合作與協調的理論,
-
14:05 - 14:09其核心都包含追求真實。
-
14:09 - 14:15但隨著假新聞、假影片
和假音頻大行其道, -
14:15 - 14:19我們正滑向真實消亡的邊緣。
-
14:19 - 14:23我們正逐漸失去辨別真假的能力,
-
14:23 - 14:26這或許將是極其危險的。
-
14:27 - 14:29我們必須時刻警惕,
-
14:29 - 14:32守護真實,阻止虛假。
-
14:33 - 14:36透過科技、透過政策,
-
14:36 - 14:38或許最重要的是
-
14:38 - 14:42透過我們每個人的責任感、
-
14:42 - 14:44每個人的選擇、行為
-
14:44 - 14:45來守護真實。
-
14:46 - 14:47謝謝大家。
-
14:47 - 14:51(掌聲)
- Title:
- 如何在虛假資訊時代守護真相
- Speaker:
- 思南·阿拉爾
- Description:
-
假新聞會影響選舉,引起經濟下跌,混淆人們對是非真假的認知。數據科學家思南·阿拉爾(Sinan Aral)透過分析對虛假資訊時代的最大研究之一,揭露了假新聞傳播迅速的表現和原因,並傳授了五個辨別真假的方法。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Helen Chang approved Chinese, Traditional subtitles for How we can protect truth in the age of misinformation | ||
Helen Chang accepted Chinese, Traditional subtitles for How we can protect truth in the age of misinformation | ||
Helen Chang edited Chinese, Traditional subtitles for How we can protect truth in the age of misinformation | ||
Helen Chang edited Chinese, Traditional subtitles for How we can protect truth in the age of misinformation | ||
Helen Chang edited Chinese, Traditional subtitles for How we can protect truth in the age of misinformation | ||
Harper Chang edited Chinese, Traditional subtitles for How we can protect truth in the age of misinformation | ||
Harper Chang edited Chinese, Traditional subtitles for How we can protect truth in the age of misinformation | ||
Harper Chang edited Chinese, Traditional subtitles for How we can protect truth in the age of misinformation |