Return to Video

在虚假信息的时代如何捍卫真相

  • 0:01 - 0:07
    2013 年 4 月 23 日,
  • 0:07 - 0:12
    美联社在推特上发布了
    这样一条推文:
  • 0:12 - 0:15
    “突发新闻:
  • 0:15 - 0:17
    白宫发生两起爆炸,
  • 0:17 - 0:20
    巴拉克·奥巴马受伤。”
  • 0:20 - 0:26
    在不到五分钟的时间里,
    这条推文被转发了四千次,
  • 0:26 - 0:28
    随后也在网络上被疯传。
  • 0:29 - 0:33
    不过,这条推文并不是
    美联社发布的真实新闻。
  • 0:33 - 0:36
    事实上,这是一则不实新闻,
    或者说是虚假新闻,
  • 0:36 - 0:40
    是由入侵了美联社推特账号
  • 0:40 - 0:44
    的叙利亚黑客扩散的。
  • 0:44 - 0:48
    他们的目的是扰乱社会,
    但他们扰乱的远不止于此。
  • 0:48 - 0:51
    因为自动交易算法
  • 0:51 - 0:54
    立刻捕捉了这条推文的情感,
    【注:机器学习中对主观性文本的情感分析】
  • 0:54 - 0:57
    并且根据美国总统在这次爆炸中
  • 0:57 - 1:00
    受伤或丧生的可能性,
  • 1:00 - 1:02
    开始了交易。
  • 1:02 - 1:04
    而当他们开始发推时,
  • 1:04 - 1:08
    股市迅速随之崩盘,
  • 1:08 - 1:13
    一日之内便蒸发了
    1400 亿美元的市值。
  • 1:13 - 1:18
    美国特别检察官罗伯特·穆勒
  • 1:18 - 1:21
    起诉了三家俄罗斯公司
  • 1:21 - 1:24
    以及十三个俄罗斯人,
  • 1:24 - 1:27
    指控他们干预 2016 年美国总统大选,
  • 1:27 - 1:31
    合谋诓骗美国。
  • 1:32 - 1:35
    而这次起诉讲述的
  • 1:35 - 1:39
    是互联网研究机构的故事,
  • 1:39 - 1:42
    即俄罗斯政府在社交媒体上
    布下的影影绰绰的手腕。
  • 1:43 - 1:46
    仅在总统大选期间,
  • 1:46 - 1:48
    互联网机构就
  • 1:48 - 1:53
    影响了 1.26 亿名
    美国 Facebook 用户,
  • 1:53 - 1:56
    发布了 300 万条推文,
  • 1:56 - 2:00
    以及 43 个小时的 Youtube 内容。
  • 2:00 - 2:02
    这一切都是虚假的——
  • 2:02 - 2:08
    通过精心设计的虚假信息,
    在美国总统大选中播下不和的种子。
  • 2:09 - 2:12
    牛津大学最近的一项研究显示,
  • 2:12 - 2:15
    在近期的瑞典大选中,
  • 2:15 - 2:19
    在社交媒体上传播
    的关于大选的信息中,
  • 2:19 - 2:20
    有三分之一
  • 2:20 - 2:23
    是虚假或谬误信息。
  • 2:23 - 2:28
    另外,这些通过社交媒体
    进行的误导活动
  • 2:28 - 2:32
    可以传播所谓的“种族清洗宣传”,
  • 2:32 - 2:35
    例如在缅甸煽动对罗兴亚人的迫害,
  • 2:35 - 2:38
    或者在印度引发暴徒杀人。
  • 2:38 - 2:40
    我们在虚假新闻变成热点之前
  • 2:40 - 2:43
    就开始了对虚假新闻的研究。
  • 2:43 - 2:48
    最近,我们发表了一项
    迄今最大型的关于虚假新闻
  • 2:48 - 2:50
    在网络传播的纵向研究,
  • 2:50 - 2:54
    在今年三月登上了《科学》期刊封面。
  • 2:55 - 2:59
    我们研究了推特上传播的所有
  • 2:59 - 3:00
    核实过的真假新闻,
  • 3:00 - 3:05
    范围是自 2006 年推特创立到 2017 年。
  • 3:05 - 3:07
    在我们研究这些讯息时,
  • 3:07 - 3:11
    我们通过六家独立的
    事实核查机构验证,
  • 3:11 - 3:14
    以确认新闻故事的真实性。
  • 3:14 - 3:17
    所以我们清楚哪些新闻是真的,
  • 3:17 - 3:19
    哪些是假的。
  • 3:19 - 3:21
    我们可以测量
    这些新闻的扩散程度,
  • 3:21 - 3:22
    扩散速度,
  • 3:22 - 3:24
    以及深度与广度,
  • 3:24 - 3:29
    有多少人被卷入这个信息级联。
    【注:人们加入信息更具说服力的团体】
  • 3:29 - 3:30
    我们在这篇论文中
  • 3:30 - 3:34
    比较了真实新闻和
    虚假新闻的传播程度。
  • 3:34 - 3:36
    这是我们的研究发现。
  • 3:36 - 3:40
    我们发现,在我们研究
    的所有新闻类别中,
  • 3:40 - 3:42
    虚假新闻都比真实新闻传播得
  • 3:42 - 3:45
    更远、更快、更深、更广,
  • 3:45 - 3:47
    有时甚至超出一个数量级。
  • 3:48 - 3:51
    事实上,虚假的政治新闻
    传播速度最快。
  • 3:51 - 3:55
    它比任何其他种类的虚假新闻
  • 3:55 - 3:57
    都扩散得更远、更快、更深、更广。
  • 3:57 - 3:59
    我们看到这个结果时,
  • 3:59 - 4:02
    我们立刻感到担忧,
    但同时也很好奇。
  • 4:02 - 4:03
    为什么?
  • 4:03 - 4:06
    为什么虚假新闻比真相
  • 4:06 - 4:08
    传播得更远、更快、更深、更广?
  • 4:08 - 4:11
    我们想到的第一个假设是,
  • 4:11 - 4:16
    “可能传播虚假新闻的人
    有更多的关注者,或者关注了更多人,
  • 4:16 - 4:18
    或者发推更频繁,
  • 4:18 - 4:22
    或者他们中有更多
    推特的‘认证’用户,可信度更高,
  • 4:22 - 4:24
    或者他们在推特上的时间更长。”
  • 4:24 - 4:26
    因此,我们挨个检验了这些假设。
  • 4:27 - 4:30
    我们发现,结果恰恰相反。
  • 4:30 - 4:32
    假新闻散布者有更少关注者,
  • 4:32 - 4:34
    关注的人更少,活跃度更低,
  • 4:34 - 4:36
    更少被“认证”,
  • 4:36 - 4:39
    使用推特的时间更短。
  • 4:39 - 4:40
    然而,
  • 4:40 - 4:45
    在控制了这些和很多其他变量之后,
  • 4:45 - 4:48
    虚假新闻比真实新闻
    被转发的可能性高出了 70%。
  • 4:48 - 4:51
    我们不得不提出别的解释。
  • 4:51 - 4:55
    于是,我们设想了一个
    “新颖性假设”。
  • 4:55 - 4:57
    如果各位对文献有所了解,
  • 4:57 - 5:01
    会知道一个广为人知的现象是,
    人类的注意力会被新颖性所吸引,
  • 5:01 - 5:03
    也就是环境中的新事物。
  • 5:03 - 5:05
    如果各位了解社会学文献的话,
  • 5:05 - 5:10
    你们应该知道,我们喜欢分享
    新鲜的信息。
  • 5:10 - 5:14
    这使我们看上去像是
    能够获得内部消息,
  • 5:14 - 5:17
    通过传播这类信息,
    我们的地位可以获得提升。
  • 5:18 - 5:24
    因此我们把刚收到的真假推文
  • 5:24 - 5:28
    和用户前 60 天内
    在推特上看过的语库比较,
  • 5:28 - 5:31
    以衡量刚收到的推文的新颖度。
  • 5:31 - 5:34
    但这还不够,
    因为我们想到,
  • 5:34 - 5:38
    “可能在信息论的层面
    虚假新闻更加新颖,
  • 5:38 - 5:41
    但也许在人们的感知里,
    它并没有很新鲜。”
  • 5:42 - 5:46
    因此,为了理解
    人们对虚假新闻的感知,
  • 5:46 - 5:49
    我们研究了对真假推文的回复中
  • 5:50 - 5:54
    包含的信息和情感。
  • 5:54 - 5:55
    我们发现,
  • 5:55 - 5:59
    在多种不同的情感量表上——
  • 5:59 - 6:03
    惊讶,厌恶,恐惧,悲伤,
  • 6:03 - 6:05
    期待,喜悦,信任——
  • 6:05 - 6:11
    对虚假新闻的回复里
    明显表现出了
  • 6:11 - 6:14
    更多的惊讶和厌恶。
  • 6:14 - 6:18
    而对真实新闻的回复里,
  • 6:18 - 6:20
    表现出的则是
  • 6:20 - 6:22
    更多的期待、喜悦,和信任。
  • 6:22 - 6:26
    这个意外事件证实了
    我们的新颖性假设。
  • 6:26 - 6:31
    这很新鲜、很令人惊讶,
    所以我们更可能把它分享出去。
  • 6:31 - 6:34
    同时,在美国国会两院前
    进行的国会作证
  • 6:34 - 6:37
    提到了机器人账号(注:一种使用
    自动化脚本执行大量简单任务的软件)
  • 6:37 - 6:41
    在传播虚假信息时的作用。
  • 6:41 - 6:43
    因此我们也对这一点进行了研究——
  • 6:43 - 6:46
    我们使用多个复杂的
    机器人账号探测算法,
  • 6:46 - 6:49
    寻找并提取出了
    我们数据中的机器人账号。
  • 6:49 - 6:52
    我们把机器人账号移除,
    再把它们放回去,
  • 6:52 - 6:55
    并比较其对我们的测量
    产生的影响。
  • 6:55 - 6:57
    我们发现,确实,
  • 6:57 - 7:01
    机器人账号加速了
    虚假新闻在网络上的传播,
  • 7:01 - 7:04
    但它们也在以大约相同的速度
  • 7:04 - 7:06
    加速真实新闻的传播。
  • 7:06 - 7:09
    这意味着,机器人账号
  • 7:09 - 7:14
    并不是造成网上虚实信息
    传播差距的原因。
  • 7:14 - 7:17
    我们不能推脱这个责任,
  • 7:17 - 7:21
    因为要对这种传播负责的,
    是我们人类自己。
  • 7:22 - 7:26
    对于我们大家来说
    都很不幸的是,
  • 7:26 - 7:28
    刚刚我告诉各位的一切
  • 7:28 - 7:29
    都是好消息。
  • 7:31 - 7:35
    原因在于,形势马上要大幅恶化了。
  • 7:36 - 7:40
    而两种特定的技术
    会将形势变得更加糟糕。
  • 7:40 - 7:45
    我们将会目睹
    一大波合成媒体的剧增。
  • 7:45 - 7:51
    虚假视频、虚假音频,
    对于人类来说都能以假乱真。
  • 7:51 - 7:54
    这是由两项技术支持的。
  • 7:54 - 7:58
    其一是所谓的“生成对抗网络”。
  • 7:58 - 8:01
    这是一个由两个网络组成
    的机器学习模型:
  • 8:01 - 8:02
    一个是判别网络,
  • 8:02 - 8:06
    负责分辨样本的真假;
  • 8:06 - 8:08
    另一个是生成网络,
  • 8:08 - 8:11
    负责产生合成媒体。
  • 8:11 - 8:16
    生成网络产生
    合成视频或音频,
  • 8:16 - 8:21
    而判别网络则试图分辨,
    “这是真的还是假的?”
  • 8:21 - 8:23
    事实上,生成网络的任务是
  • 8:23 - 8:28
    尽可能地欺骗判别网络,
    让判别网络误以为
  • 8:28 - 8:32
    它合成的视频和音频
  • 8:32 - 8:33
    其实是真的。
  • 8:33 - 8:36
    想象一台处于超级循环中的机器,
  • 8:36 - 8:39
    试图变得越来越擅长欺骗我们。
  • 8:39 - 8:42
    第二项技术,
    简而言之,
  • 8:42 - 8:47
    就是在民众中
    的人工智能的民主化,
  • 8:47 - 8:50
    即让任何人
  • 8:50 - 8:52
    不需要任何人工智能或
  • 8:52 - 8:54
    机器学习的背景,
  • 8:54 - 8:58
    也能调用这些算法
    生成人工合成媒体。
  • 8:58 - 9:02
    这两种技术相结合,
    让制作视频变得如此容易。
  • 9:02 - 9:07
    白宫曾发布过一个
    虚假的、篡改过的视频,
  • 9:07 - 9:11
    内容为一名记者和一个试图抢夺
    他的麦克风的实习生的互动。
  • 9:11 - 9:13
    他们从视频中移除了一些帧,
  • 9:13 - 9:17
    让他的行动显得更有攻击性。
  • 9:17 - 9:21
    而当摄影师和替身演员
  • 9:21 - 9:23
    被采访问及这种技术时,
  • 9:23 - 9:27
    他们说,“是的,我们经常
    在电影中使用这种技术,
  • 9:27 - 9:32
    让我们的出拳和踢腿动作
    看上去更具打击感,更加有气势。”
  • 9:32 - 9:34
    他们于是发布了这个视频,
  • 9:34 - 9:37
    将其作为部分证据,
  • 9:37 - 9:40
    试图撤销视频中的记者,
    吉姆·阿考斯塔
  • 9:40 - 9:42
    的白宫新闻通行证。
  • 9:42 - 9:47
    于是 CNN 不得不提出诉讼,
    要求恢复该新闻通行证。
  • 9:49 - 9:54
    我能想到我们可以走
    的五条不同道路,
  • 9:54 - 9:58
    以试图解决当今我们面对
    的这些异常艰难的问题。
  • 9:58 - 10:00
    每一种措施都带来希望,
  • 10:00 - 10:03
    但每一种也有其自身的挑战。
  • 10:03 - 10:05
    第一种措施是贴上标签。
  • 10:05 - 10:07
    可以这么想:
  • 10:07 - 10:10
    当你去超市购买食品时,
  • 10:10 - 10:12
    食品上会有详细的标签。
  • 10:12 - 10:14
    你可以得知它有多少卡路里,
  • 10:14 - 10:16
    含有多少脂肪——
  • 10:16 - 10:20
    然而当我们摄取信息时,
    我们没有任何标签。
  • 10:20 - 10:22
    这个信息中含有什么?
  • 10:22 - 10:24
    其来源是否可信?
  • 10:24 - 10:26
    这个信息是从哪里收集的?
  • 10:26 - 10:28
    在我们摄取信息时,
  • 10:28 - 10:30
    我们并没有以上的任何信息。
  • 10:30 - 10:33
    这是一种可能的解决办法,
    但它有自身的挑战。
  • 10:33 - 10:40
    比如说,在社会中,
    有谁能决定信息的真伪?
  • 10:40 - 10:42
    是政府吗?
  • 10:42 - 10:43
    是 Facebook 吗?
  • 10:44 - 10:47
    是由事实核查机构
    组成的独立联盟吗?
  • 10:47 - 10:50
    谁又来对事实核查机构
    进行核查呢?
  • 10:50 - 10:54
    另一种可能的解决手段是奖励措施。
  • 10:54 - 10:56
    我们知道,在美国总统大选期间,
  • 10:56 - 11:00
    有一波虚假信息来源于马其顿,
  • 11:00 - 11:02
    他们没有任何政治动机,
  • 11:02 - 11:05
    相反,他们有经济动机。
  • 11:05 - 11:07
    这个经济动机之所以存在,
  • 11:07 - 11:10
    是因为虚假新闻比真相传播得
  • 11:10 - 11:12
    更远、更快、更深,
  • 11:12 - 11:17
    你可以使用这类信息
    博取眼球、吸引注意,
  • 11:17 - 11:19
    从而通过广告赚钱。
  • 11:19 - 11:23
    但如果我们能抑制
    这类信息的传播,
  • 11:23 - 11:26
    或许就能在源头减少
  • 11:26 - 11:29
    生产这类信息的经济动机。
  • 11:29 - 11:31
    第三,我们可以考虑进行监管,
  • 11:31 - 11:34
    毫无疑问,我们应当考虑这个选项。
  • 11:34 - 11:35
    现在,在美国,
  • 11:35 - 11:40
    我们在探索当 Facebook 和其它平台
    受到监管时,会发生什么事情。
  • 11:40 - 11:44
    我们应当考虑的措施包括:
    监管政治言论,
  • 11:44 - 11:47
    对政治言论进行标签,
  • 11:47 - 11:51
    确保外国参与者无法资助政治言论,
  • 11:51 - 11:53
    但这也有自己的风险。
  • 11:54 - 11:58
    举个例子,马来西亚刚刚颁布法案,
    对任何散布不实消息的人
  • 11:58 - 12:01
    处以六年监禁。
  • 12:02 - 12:04
    而在独裁政权中,
  • 12:04 - 12:08
    这种政策可以被利用
    以压制少数群体的意见,
  • 12:08 - 12:12
    继续扩大压迫。
  • 12:13 - 12:16
    第四种可能的解决方法是透明度。
  • 12:17 - 12:21
    我们想了解 Facebook
    的算法是怎样运作的。
  • 12:21 - 12:23
    数据是怎样与算法结合,
  • 12:23 - 12:26
    得出我们看到的结果?
  • 12:26 - 12:29
    我们想让他们开诚布公,
  • 12:29 - 12:33
    为我们披露 Facebook 内部
    具体是如何运作的。
  • 12:33 - 12:36
    而如果我们想知道
    社交媒体对社会的影响,
  • 12:36 - 12:38
    我们需要科学家、研究人员
  • 12:38 - 12:41
    和其他人能够入手这种信息。
  • 12:41 - 12:43
    但与此同时,
  • 12:43 - 12:46
    我们还要求 Facebook 锁上一切,
  • 12:46 - 12:49
    保证所有数据的安全。
  • 12:49 - 12:52
    因此,Facebook 和其他社交媒体平台
  • 12:52 - 12:55
    正面对我称之为的“透明性悖论”。
  • 12:55 - 12:58
    我们要求他们
  • 12:58 - 13:03
    在开放、透明的同时
    保证安全。
  • 13:03 - 13:06
    这是非常艰难的挑战,
  • 13:06 - 13:08
    这些公司必须直面挑战,
  • 13:08 - 13:11
    才能在实现社交科技承诺的同时
  • 13:11 - 13:13
    回避它们带来的危害。
  • 13:13 - 13:18
    我们能想到的最后一个解决手段是
    算法和机器学习。
  • 13:18 - 13:22
    有的科技被开发出来,
    用于拔除和理解虚假新闻,
  • 13:22 - 13:26
    了解它们的传播方式,
    并试图降低其扩散。
  • 13:26 - 13:29
    人类需要跟进这种科技,
  • 13:29 - 13:31
    因为我们无法逃避的是,
  • 13:31 - 13:35
    在任何科技解答或手段的背后
  • 13:35 - 13:39
    都有一个根本的伦理与哲学问题:
  • 13:39 - 13:42
    我们如何定义真实和虚伪,
  • 13:42 - 13:46
    我们将定义真伪的权力托付于谁,
  • 13:46 - 13:48
    哪些意见是合法的,
  • 13:48 - 13:52
    哪种言论能被允许,
    诸如此类。
  • 13:52 - 13:54
    科技并非对这个问题的解答,
  • 13:54 - 13:58
    伦理学和哲学才是。
  • 13:59 - 14:02
    人类决策、人类合作和人类协调
  • 14:02 - 14:05
    的几乎每一个理论,
  • 14:05 - 14:09
    其核心都存在某种程度的真相。
  • 14:09 - 14:11
    但随着虚假新闻、
  • 14:11 - 14:13
    虚假视频、
  • 14:13 - 14:15
    虚假音频的崛起,
  • 14:15 - 14:19
    我们正在现实终结
    的边缘摇摇欲坠,
  • 14:19 - 14:23
    在这里我们无法分辨
    何为真实,何为虚假。
  • 14:23 - 14:26
    这有可能是极度危险的。
  • 14:27 - 14:31
    我们必须保持警惕,拒绝虚假信息,
  • 14:31 - 14:33
    捍卫真相——
  • 14:33 - 14:36
    通过我们的技术,我们的政策,
  • 14:36 - 14:38
    以及,或许也是最重要的,
  • 14:38 - 14:42
    通过我们自己的责任感、
  • 14:42 - 14:45
    决定、行为,和举动。
  • 14:46 - 14:47
    谢谢大家。
  • 14:47 - 14:51
    (掌声)
Title:
在虚假信息的时代如何捍卫真相
Speaker:
希南·阿莱尔
Description:

虚假新闻能够左右选举,摧毁经济,并在日常生活播下不和的种子。数据科学家希南·阿莱尔(Sinan Aral)将揭秘虚假新闻得以如此迅速传播的方式和原因。他援引了关于虚假新闻的一项最大型的研究,并提出五项策略,帮助我们理清真实与虚伪之间错综复杂的网。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Chinese, Simplified subtitles

Revisions