在虚假信息的时代如何捍卫真相
-
0:01 - 0:072013 年 4 月 23 日,
-
0:07 - 0:12美联社在推特上发布了
这样一条推文: -
0:12 - 0:15“突发新闻:
-
0:15 - 0:17白宫发生两起爆炸,
-
0:17 - 0:20巴拉克·奥巴马受伤。”
-
0:20 - 0:26在不到五分钟的时间里,
这条推文被转发了四千次, -
0:26 - 0:28随后也在网络上被疯传。
-
0:29 - 0:33不过,这条推文并不是
美联社发布的真实新闻。 -
0:33 - 0:36事实上,这是一则不实新闻,
或者说是虚假新闻, -
0:36 - 0:40是由入侵了美联社推特账号
-
0:40 - 0:44的叙利亚黑客扩散的。
-
0:44 - 0:48他们的目的是扰乱社会,
但他们扰乱的远不止于此。 -
0:48 - 0:51因为自动交易算法
-
0:51 - 0:54立刻捕捉了这条推文的情感,
【注:机器学习中对主观性文本的情感分析】 -
0:54 - 0:57并且根据美国总统在这次爆炸中
-
0:57 - 1:00受伤或丧生的可能性,
-
1:00 - 1:02开始了交易。
-
1:02 - 1:04而当他们开始发推时,
-
1:04 - 1:08股市迅速随之崩盘,
-
1:08 - 1:13一日之内便蒸发了
1400 亿美元的市值。 -
1:13 - 1:18美国特别检察官罗伯特·穆勒
-
1:18 - 1:21起诉了三家俄罗斯公司
-
1:21 - 1:24以及十三个俄罗斯人,
-
1:24 - 1:27指控他们干预 2016 年美国总统大选,
-
1:27 - 1:31合谋诓骗美国。
-
1:32 - 1:35而这次起诉讲述的
-
1:35 - 1:39是互联网研究机构的故事,
-
1:39 - 1:42即俄罗斯政府在社交媒体上
布下的影影绰绰的手腕。 -
1:43 - 1:46仅在总统大选期间,
-
1:46 - 1:48互联网机构就
-
1:48 - 1:53影响了 1.26 亿名
美国 Facebook 用户, -
1:53 - 1:56发布了 300 万条推文,
-
1:56 - 2:00以及 43 个小时的 Youtube 内容。
-
2:00 - 2:02这一切都是虚假的——
-
2:02 - 2:08通过精心设计的虚假信息,
在美国总统大选中播下不和的种子。 -
2:09 - 2:12牛津大学最近的一项研究显示,
-
2:12 - 2:15在近期的瑞典大选中,
-
2:15 - 2:19在社交媒体上传播
的关于大选的信息中, -
2:19 - 2:20有三分之一
-
2:20 - 2:23是虚假或谬误信息。
-
2:23 - 2:28另外,这些通过社交媒体
进行的误导活动 -
2:28 - 2:32可以传播所谓的“种族清洗宣传”,
-
2:32 - 2:35例如在缅甸煽动对罗兴亚人的迫害,
-
2:35 - 2:38或者在印度引发暴徒杀人。
-
2:38 - 2:40我们在虚假新闻变成热点之前
-
2:40 - 2:43就开始了对虚假新闻的研究。
-
2:43 - 2:48最近,我们发表了一项
迄今最大型的关于虚假新闻 -
2:48 - 2:50在网络传播的纵向研究,
-
2:50 - 2:54在今年三月登上了《科学》期刊封面。
-
2:55 - 2:59我们研究了推特上传播的所有
-
2:59 - 3:00核实过的真假新闻,
-
3:00 - 3:05范围是自 2006 年推特创立到 2017 年。
-
3:05 - 3:07在我们研究这些讯息时,
-
3:07 - 3:11我们通过六家独立的
事实核查机构验证, -
3:11 - 3:14以确认新闻故事的真实性。
-
3:14 - 3:17所以我们清楚哪些新闻是真的,
-
3:17 - 3:19哪些是假的。
-
3:19 - 3:21我们可以测量
这些新闻的扩散程度, -
3:21 - 3:22扩散速度,
-
3:22 - 3:24以及深度与广度,
-
3:24 - 3:29有多少人被卷入这个信息级联。
【注:人们加入信息更具说服力的团体】 -
3:29 - 3:30我们在这篇论文中
-
3:30 - 3:34比较了真实新闻和
虚假新闻的传播程度。 -
3:34 - 3:36这是我们的研究发现。
-
3:36 - 3:40我们发现,在我们研究
的所有新闻类别中, -
3:40 - 3:42虚假新闻都比真实新闻传播得
-
3:42 - 3:45更远、更快、更深、更广,
-
3:45 - 3:47有时甚至超出一个数量级。
-
3:48 - 3:51事实上,虚假的政治新闻
传播速度最快。 -
3:51 - 3:55它比任何其他种类的虚假新闻
-
3:55 - 3:57都扩散得更远、更快、更深、更广。
-
3:57 - 3:59我们看到这个结果时,
-
3:59 - 4:02我们立刻感到担忧,
但同时也很好奇。 -
4:02 - 4:03为什么?
-
4:03 - 4:06为什么虚假新闻比真相
-
4:06 - 4:08传播得更远、更快、更深、更广?
-
4:08 - 4:11我们想到的第一个假设是,
-
4:11 - 4:16“可能传播虚假新闻的人
有更多的关注者,或者关注了更多人, -
4:16 - 4:18或者发推更频繁,
-
4:18 - 4:22或者他们中有更多
推特的‘认证’用户,可信度更高, -
4:22 - 4:24或者他们在推特上的时间更长。”
-
4:24 - 4:26因此,我们挨个检验了这些假设。
-
4:27 - 4:30我们发现,结果恰恰相反。
-
4:30 - 4:32假新闻散布者有更少关注者,
-
4:32 - 4:34关注的人更少,活跃度更低,
-
4:34 - 4:36更少被“认证”,
-
4:36 - 4:39使用推特的时间更短。
-
4:39 - 4:40然而,
-
4:40 - 4:45在控制了这些和很多其他变量之后,
-
4:45 - 4:48虚假新闻比真实新闻
被转发的可能性高出了 70%。 -
4:48 - 4:51我们不得不提出别的解释。
-
4:51 - 4:55于是,我们设想了一个
“新颖性假设”。 -
4:55 - 4:57如果各位对文献有所了解,
-
4:57 - 5:01会知道一个广为人知的现象是,
人类的注意力会被新颖性所吸引, -
5:01 - 5:03也就是环境中的新事物。
-
5:03 - 5:05如果各位了解社会学文献的话,
-
5:05 - 5:10你们应该知道,我们喜欢分享
新鲜的信息。 -
5:10 - 5:14这使我们看上去像是
能够获得内部消息, -
5:14 - 5:17通过传播这类信息,
我们的地位可以获得提升。 -
5:18 - 5:24因此我们把刚收到的真假推文
-
5:24 - 5:28和用户前 60 天内
在推特上看过的语库比较, -
5:28 - 5:31以衡量刚收到的推文的新颖度。
-
5:31 - 5:34但这还不够,
因为我们想到, -
5:34 - 5:38“可能在信息论的层面
虚假新闻更加新颖, -
5:38 - 5:41但也许在人们的感知里,
它并没有很新鲜。” -
5:42 - 5:46因此,为了理解
人们对虚假新闻的感知, -
5:46 - 5:49我们研究了对真假推文的回复中
-
5:50 - 5:54包含的信息和情感。
-
5:54 - 5:55我们发现,
-
5:55 - 5:59在多种不同的情感量表上——
-
5:59 - 6:03惊讶,厌恶,恐惧,悲伤,
-
6:03 - 6:05期待,喜悦,信任——
-
6:05 - 6:11对虚假新闻的回复里
明显表现出了 -
6:11 - 6:14更多的惊讶和厌恶。
-
6:14 - 6:18而对真实新闻的回复里,
-
6:18 - 6:20表现出的则是
-
6:20 - 6:22更多的期待、喜悦,和信任。
-
6:22 - 6:26这个意外事件证实了
我们的新颖性假设。 -
6:26 - 6:31这很新鲜、很令人惊讶,
所以我们更可能把它分享出去。 -
6:31 - 6:34同时,在美国国会两院前
进行的国会作证 -
6:34 - 6:37提到了机器人账号(注:一种使用
自动化脚本执行大量简单任务的软件) -
6:37 - 6:41在传播虚假信息时的作用。
-
6:41 - 6:43因此我们也对这一点进行了研究——
-
6:43 - 6:46我们使用多个复杂的
机器人账号探测算法, -
6:46 - 6:49寻找并提取出了
我们数据中的机器人账号。 -
6:49 - 6:52我们把机器人账号移除,
再把它们放回去, -
6:52 - 6:55并比较其对我们的测量
产生的影响。 -
6:55 - 6:57我们发现,确实,
-
6:57 - 7:01机器人账号加速了
虚假新闻在网络上的传播, -
7:01 - 7:04但它们也在以大约相同的速度
-
7:04 - 7:06加速真实新闻的传播。
-
7:06 - 7:09这意味着,机器人账号
-
7:09 - 7:14并不是造成网上虚实信息
传播差距的原因。 -
7:14 - 7:17我们不能推脱这个责任,
-
7:17 - 7:21因为要对这种传播负责的,
是我们人类自己。 -
7:22 - 7:26对于我们大家来说
都很不幸的是, -
7:26 - 7:28刚刚我告诉各位的一切
-
7:28 - 7:29都是好消息。
-
7:31 - 7:35原因在于,形势马上要大幅恶化了。
-
7:36 - 7:40而两种特定的技术
会将形势变得更加糟糕。 -
7:40 - 7:45我们将会目睹
一大波合成媒体的剧增。 -
7:45 - 7:51虚假视频、虚假音频,
对于人类来说都能以假乱真。 -
7:51 - 7:54这是由两项技术支持的。
-
7:54 - 7:58其一是所谓的“生成对抗网络”。
-
7:58 - 8:01这是一个由两个网络组成
的机器学习模型: -
8:01 - 8:02一个是判别网络,
-
8:02 - 8:06负责分辨样本的真假;
-
8:06 - 8:08另一个是生成网络,
-
8:08 - 8:11负责产生合成媒体。
-
8:11 - 8:16生成网络产生
合成视频或音频, -
8:16 - 8:21而判别网络则试图分辨,
“这是真的还是假的?” -
8:21 - 8:23事实上,生成网络的任务是
-
8:23 - 8:28尽可能地欺骗判别网络,
让判别网络误以为 -
8:28 - 8:32它合成的视频和音频
-
8:32 - 8:33其实是真的。
-
8:33 - 8:36想象一台处于超级循环中的机器,
-
8:36 - 8:39试图变得越来越擅长欺骗我们。
-
8:39 - 8:42第二项技术,
简而言之, -
8:42 - 8:47就是在民众中
的人工智能的民主化, -
8:47 - 8:50即让任何人
-
8:50 - 8:52不需要任何人工智能或
-
8:52 - 8:54机器学习的背景,
-
8:54 - 8:58也能调用这些算法
生成人工合成媒体。 -
8:58 - 9:02这两种技术相结合,
让制作视频变得如此容易。 -
9:02 - 9:07白宫曾发布过一个
虚假的、篡改过的视频, -
9:07 - 9:11内容为一名记者和一个试图抢夺
他的麦克风的实习生的互动。 -
9:11 - 9:13他们从视频中移除了一些帧,
-
9:13 - 9:17让他的行动显得更有攻击性。
-
9:17 - 9:21而当摄影师和替身演员
-
9:21 - 9:23被采访问及这种技术时,
-
9:23 - 9:27他们说,“是的,我们经常
在电影中使用这种技术, -
9:27 - 9:32让我们的出拳和踢腿动作
看上去更具打击感,更加有气势。” -
9:32 - 9:34他们于是发布了这个视频,
-
9:34 - 9:37将其作为部分证据,
-
9:37 - 9:40试图撤销视频中的记者,
吉姆·阿考斯塔 -
9:40 - 9:42的白宫新闻通行证。
-
9:42 - 9:47于是 CNN 不得不提出诉讼,
要求恢复该新闻通行证。 -
9:49 - 9:54我能想到我们可以走
的五条不同道路, -
9:54 - 9:58以试图解决当今我们面对
的这些异常艰难的问题。 -
9:58 - 10:00每一种措施都带来希望,
-
10:00 - 10:03但每一种也有其自身的挑战。
-
10:03 - 10:05第一种措施是贴上标签。
-
10:05 - 10:07可以这么想:
-
10:07 - 10:10当你去超市购买食品时,
-
10:10 - 10:12食品上会有详细的标签。
-
10:12 - 10:14你可以得知它有多少卡路里,
-
10:14 - 10:16含有多少脂肪——
-
10:16 - 10:20然而当我们摄取信息时,
我们没有任何标签。 -
10:20 - 10:22这个信息中含有什么?
-
10:22 - 10:24其来源是否可信?
-
10:24 - 10:26这个信息是从哪里收集的?
-
10:26 - 10:28在我们摄取信息时,
-
10:28 - 10:30我们并没有以上的任何信息。
-
10:30 - 10:33这是一种可能的解决办法,
但它有自身的挑战。 -
10:33 - 10:40比如说,在社会中,
有谁能决定信息的真伪? -
10:40 - 10:42是政府吗?
-
10:42 - 10:43是 Facebook 吗?
-
10:44 - 10:47是由事实核查机构
组成的独立联盟吗? -
10:47 - 10:50谁又来对事实核查机构
进行核查呢? -
10:50 - 10:54另一种可能的解决手段是奖励措施。
-
10:54 - 10:56我们知道,在美国总统大选期间,
-
10:56 - 11:00有一波虚假信息来源于马其顿,
-
11:00 - 11:02他们没有任何政治动机,
-
11:02 - 11:05相反,他们有经济动机。
-
11:05 - 11:07这个经济动机之所以存在,
-
11:07 - 11:10是因为虚假新闻比真相传播得
-
11:10 - 11:12更远、更快、更深,
-
11:12 - 11:17你可以使用这类信息
博取眼球、吸引注意, -
11:17 - 11:19从而通过广告赚钱。
-
11:19 - 11:23但如果我们能抑制
这类信息的传播, -
11:23 - 11:26或许就能在源头减少
-
11:26 - 11:29生产这类信息的经济动机。
-
11:29 - 11:31第三,我们可以考虑进行监管,
-
11:31 - 11:34毫无疑问,我们应当考虑这个选项。
-
11:34 - 11:35现在,在美国,
-
11:35 - 11:40我们在探索当 Facebook 和其它平台
受到监管时,会发生什么事情。 -
11:40 - 11:44我们应当考虑的措施包括:
监管政治言论, -
11:44 - 11:47对政治言论进行标签,
-
11:47 - 11:51确保外国参与者无法资助政治言论,
-
11:51 - 11:53但这也有自己的风险。
-
11:54 - 11:58举个例子,马来西亚刚刚颁布法案,
对任何散布不实消息的人 -
11:58 - 12:01处以六年监禁。
-
12:02 - 12:04而在独裁政权中,
-
12:04 - 12:08这种政策可以被利用
以压制少数群体的意见, -
12:08 - 12:12继续扩大压迫。
-
12:13 - 12:16第四种可能的解决方法是透明度。
-
12:17 - 12:21我们想了解 Facebook
的算法是怎样运作的。 -
12:21 - 12:23数据是怎样与算法结合,
-
12:23 - 12:26得出我们看到的结果?
-
12:26 - 12:29我们想让他们开诚布公,
-
12:29 - 12:33为我们披露 Facebook 内部
具体是如何运作的。 -
12:33 - 12:36而如果我们想知道
社交媒体对社会的影响, -
12:36 - 12:38我们需要科学家、研究人员
-
12:38 - 12:41和其他人能够入手这种信息。
-
12:41 - 12:43但与此同时,
-
12:43 - 12:46我们还要求 Facebook 锁上一切,
-
12:46 - 12:49保证所有数据的安全。
-
12:49 - 12:52因此,Facebook 和其他社交媒体平台
-
12:52 - 12:55正面对我称之为的“透明性悖论”。
-
12:55 - 12:58我们要求他们
-
12:58 - 13:03在开放、透明的同时
保证安全。 -
13:03 - 13:06这是非常艰难的挑战,
-
13:06 - 13:08这些公司必须直面挑战,
-
13:08 - 13:11才能在实现社交科技承诺的同时
-
13:11 - 13:13回避它们带来的危害。
-
13:13 - 13:18我们能想到的最后一个解决手段是
算法和机器学习。 -
13:18 - 13:22有的科技被开发出来,
用于拔除和理解虚假新闻, -
13:22 - 13:26了解它们的传播方式,
并试图降低其扩散。 -
13:26 - 13:29人类需要跟进这种科技,
-
13:29 - 13:31因为我们无法逃避的是,
-
13:31 - 13:35在任何科技解答或手段的背后
-
13:35 - 13:39都有一个根本的伦理与哲学问题:
-
13:39 - 13:42我们如何定义真实和虚伪,
-
13:42 - 13:46我们将定义真伪的权力托付于谁,
-
13:46 - 13:48哪些意见是合法的,
-
13:48 - 13:52哪种言论能被允许,
诸如此类。 -
13:52 - 13:54科技并非对这个问题的解答,
-
13:54 - 13:58伦理学和哲学才是。
-
13:59 - 14:02人类决策、人类合作和人类协调
-
14:02 - 14:05的几乎每一个理论,
-
14:05 - 14:09其核心都存在某种程度的真相。
-
14:09 - 14:11但随着虚假新闻、
-
14:11 - 14:13虚假视频、
-
14:13 - 14:15虚假音频的崛起,
-
14:15 - 14:19我们正在现实终结
的边缘摇摇欲坠, -
14:19 - 14:23在这里我们无法分辨
何为真实,何为虚假。 -
14:23 - 14:26这有可能是极度危险的。
-
14:27 - 14:31我们必须保持警惕,拒绝虚假信息,
-
14:31 - 14:33捍卫真相——
-
14:33 - 14:36通过我们的技术,我们的政策,
-
14:36 - 14:38以及,或许也是最重要的,
-
14:38 - 14:42通过我们自己的责任感、
-
14:42 - 14:45决定、行为,和举动。
-
14:46 - 14:47谢谢大家。
-
14:47 - 14:51(掌声)
- Title:
- 在虚假信息的时代如何捍卫真相
- Speaker:
- 希南·阿莱尔
- Description:
-
虚假新闻能够左右选举,摧毁经济,并在日常生活播下不和的种子。数据科学家希南·阿莱尔(Sinan Aral)将揭秘虚假新闻得以如此迅速传播的方式和原因。他援引了关于虚假新闻的一项最大型的研究,并提出五项策略,帮助我们理清真实与虚伪之间错综复杂的网。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Cissy Yun approved Chinese, Simplified subtitles for How we can protect truth in the age of misinformation | ||
Yolanda Zhang accepted Chinese, Simplified subtitles for How we can protect truth in the age of misinformation | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How we can protect truth in the age of misinformation | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How we can protect truth in the age of misinformation | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How we can protect truth in the age of misinformation | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How we can protect truth in the age of misinformation | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How we can protect truth in the age of misinformation | ||
Yolanda Zhang edited Chinese, Simplified subtitles for How we can protect truth in the age of misinformation |