脸谱网,你们正在破坏民主
-
0:01 - 0:03大约五年前,
-
0:03 - 0:05我突然发现我在丧失
-
0:05 - 0:08与立场不同的人交流的能力。
-
0:09 - 0:13单是跟美国同胞讨论
争议性话题这个想法 -
0:13 - 0:15让我感到心累的程度,
-
0:15 - 0:19甚至就超过了我和海外可疑的
极端主义者有过的交流。 -
0:20 - 0:23这开始让我感到更加痛苦和沮丧。
-
0:23 - 0:25于是就这样,
-
0:25 - 0:27我把我的焦点
-
0:27 - 0:29从影响全球国家安全的威胁,
-
0:29 - 0:32转移到了寻找那个导致
-
0:32 - 0:36国内民众两极化的原因上。
-
0:36 - 0:38作为一名前中情局警官和外交官,
-
0:38 - 0:41我在解决反极端主义的问题上
有着多年的工作经验。 -
0:41 - 0:45我开始担心,这对
我们国家的民主造成的威胁 -
0:45 - 0:48会超过来自国外对手的威胁。
-
0:48 - 0:50于是我开始深究,
-
0:50 - 0:51开始发声,
-
0:51 - 0:54后来脸谱网聘请了我,
-
0:54 - 0:57也最终引领我来到了这里,
-
0:57 - 1:02使我能继续警告各位,
这些平台在如何 -
1:02 - 1:04操控和极端化我们的思想,
-
1:04 - 1:07并谈谈我们应该如何
夺回自己的公共空间。 -
1:08 - 1:10就在 911 事件发生的几年后,
-
1:10 - 1:13我曾担任过肯尼亚外交官,
-
1:13 - 1:15那时我在索马里的
边境领导了一个叫 -
1:15 - 1:17“心灵与精神”的项目。
-
1:17 - 1:21我的主要工作是与那些最容易
-
1:21 - 1:23被极端主义思想
影响的群体建立信任。 -
1:24 - 1:28我花了大量的时间与
直言不讳的反西方教士喝茶, -
1:28 - 1:32甚至跟疑似恐怖份子的人
进行过谈话, -
1:32 - 1:35虽然这些交谈都是从
互相怀疑开始的, -
1:35 - 1:39他们却从来没有大喊
或说过任何辱骂的话, -
1:39 - 1:43有些时候,我们甚至能在
共同感兴趣的领域一起合作。 -
1:44 - 1:48我们拥有的最有效的工具
就是聆听、学习 -
1:48 - 1:50还有建立同理心。
-
1:50 - 1:53这就是“心灵与精神”
这份工作的核心, -
1:53 - 1:56因为我多次发现,
他们大多数人想要的 -
1:56 - 2:00无非是被聆听、被认可,
还有被尊重。 -
2:00 - 2:03我相信这也是我们
大多数人想要的。 -
2:03 - 2:06可如今,网络上
发生的一切却令我心碎, -
2:06 - 2:08也让我明白,这是一个
很难解决的问题。 -
2:09 - 2:13我们正被目前的
信息网络操纵, -
2:13 - 2:16陷入了绝对主义中,
-
2:16 - 2:19在这里,“妥协”已经成为
一个肮脏的字眼。 -
2:20 - 2:21因为当今,
-
2:21 - 2:23类似于脸谱网的社交媒体公司
-
2:23 - 2:27通过为我们提供
个性化的内容来获利, -
2:27 - 2:31而这些内容既认可,
也利用了我们的偏见。 -
2:31 - 2:34他们的底线就是,
通过激起强烈的情绪 -
2:34 - 2:36来让我们沉迷,
-
2:36 - 2:40持续强调那些煽性的,
十分两极化的声音, -
2:40 - 2:45直到找到共同点变得不再可能。
-
2:45 - 2:49虽然越来越多的人开始
要求这些平台做出改变, -
2:49 - 2:52但单靠它们是明显不够的。
-
2:52 - 2:55所以,政府必须定义
-
2:55 - 2:59这些对社会造成危害的商业模式
需承担什么样的责任, -
2:59 - 3:02并让它们因严重损害
-
3:02 - 3:07我们的公共健康、公共空间,
还有我们的民主付出代价。 -
3:07 - 3:12但不幸的是,在美国大选
之前这都不可能发生, -
3:12 - 3:15所以我只能继续发出警告,
-
3:15 - 3:18因为即使有一天
我们有了强有力的法律, -
3:18 - 3:20还是需要大家一起来解决问题。
-
3:21 - 3:24当我的注意力从海外威胁
-
3:24 - 3:26转移到已然破碎的
国内民众对话时, -
3:26 - 3:30我曾想过,是否可以重新利用
“心灵与精神”这个项目 -
3:30 - 3:32来缓解国内的分歧。
-
3:32 - 3:36我们过去 200 多年的
民主实验之所以有效, -
3:36 - 3:40很大程度是因为我们
可以公开并且热情地 -
3:40 - 3:43讨论想法,
以找到最佳解决方案。 -
3:43 - 3:45我始终坚信,
-
3:45 - 3:47面对面的民间对话是有效的,
-
3:47 - 3:49但它确实难以对抗
-
3:49 - 3:53如今社交媒体带来的
两极分化的效应和规模。 -
3:53 - 3:55与我曾经合作过的
那些弱势群体相比, -
3:55 - 3:56那些沉陷于
-
3:56 - 4:00社交媒体上激进内容的人
-
4:00 - 4:03更难脱离他们的固有观念。
-
4:04 - 4:06所以在 2018 年,
当脸谱网找到我, -
4:06 - 4:07并给我提供了这份
-
4:07 - 4:11负责政治广告管理的工作时,
-
4:11 - 4:13我觉得我必须答应。
-
4:13 - 4:16我知道我可能
无法解决所有的问题, -
4:16 - 4:18但有了这个可以
-
4:18 - 4:20引导民众的机会,
-
4:20 - 4:21我必须至少尝试一下。
-
4:23 - 4:25虽然我们没有研究过两极分化,
-
4:25 - 4:29但是我确实研究过哪些问题
最容易引起社会分裂, -
4:29 - 4:33在选举干扰中也最易被利用,
-
4:33 - 4:36这也是俄罗斯在 2016 年前的策略。
-
4:37 - 4:39所以我从提问开始。
-
4:39 - 4:42我想找到导致这一切发生的
-
4:42 - 4:44潜在的系统性问题,
-
4:44 - 4:46以便找到解决的方法。
-
4:48 - 4:50现在,我仍然相信互联网的力量
-
4:50 - 4:53能让更多的声音参与进来,
-
4:53 - 4:56尽管它们宣称的目标是建立社区,
-
4:56 - 4:59目前最大的
社交媒体公司的构建方式 -
4:59 - 5:03与理性言论的概念
却是背道而驰的。 -
5:03 - 5:05在一个把优化用户参与度
-
5:05 - 5:07和用户增长量
-
5:07 - 5:11作为衡量成功的两大指标的行业里,
-
5:11 - 5:14你没有办法奖励倾听、
鼓励民众讨论, -
5:14 - 5:17你也没有办法去保护
那些诚恳提问的人。 -
5:17 - 5:21没有任何激励因素
去帮助人们慢下来, -
5:21 - 5:24没有去建立足够的摩擦
让人们不得不停下来, -
5:24 - 5:27认识到自己
对某事的情绪化反应, -
5:27 - 5:29并且在参与之前
质疑自己的假设。 -
5:31 - 5:33令人遗憾的事实是:
-
5:33 - 5:36在一个优化无摩擦的,
病毒式传播的世界里, -
5:36 - 5:39网络上的谎言比真相更吸引人,
-
5:39 - 5:42淫秽信息胜过了
基于事实的推理。 -
5:43 - 5:47只要算法的目标是保持我们的参与,
-
5:47 - 5:51它们就会继续“喂”迎合
我们最糟糕的本能 -
5:51 - 5:52和人性弱点的毒药。
-
5:53 - 5:56当然,愤怒、不信任、
-
5:56 - 5:58恐惧和仇恨的文化:
-
5:58 - 6:01这些在美国都不是新事物。
-
6:01 - 6:04但近年来,社交软件
充分利用了这一切, -
6:04 - 6:08并且在我看来,
还起到了决定性的作用。 -
6:08 - 6:10脸谱网也深谙这一点。
-
6:10 - 6:12《华尔街日报》最近的一篇文章
-
6:12 - 6:16披露的一项脸谱网
2018 年的内部演示中, -
6:16 - 6:20特别提到了该公司自己的算法
-
6:20 - 6:23让越来越多的极端组织信息
出现在其平台上, -
6:23 - 6:26并导致了用户两极分化。
-
6:27 - 6:30但让我们参与其中
正是它们赚钱的方式。 -
6:30 - 6:35现代信息环境是通过
我们的信息画像而构建的, -
6:35 - 6:38再将我们分割成
越来越细小的类别, -
6:38 - 6:41从而完善这个个性化的过程。
-
6:41 - 6:45然后,我们被可以证实
我们观点的信息狂轰滥炸, -
6:45 - 6:47强化我们的偏见,
-
6:47 - 6:50并且让我们感觉属于某类群体。
-
6:50 - 6:54这些策略和那些
恐怖分子用于招募 -
6:54 - 6:56弱势青少年的伎俩如出一辙,
-
6:56 - 7:00尽管是用比社交媒体更小、
更本土化的方式, -
7:00 - 7:03但最终目标都是灌输某种行为。
-
7:03 - 7:08不幸的是,我从未被脸谱网
授权去产生实质影响。 -
7:08 - 7:12事实上,在我工作的第二天,
我的头衔和具体工作就发生了变化, -
7:12 - 7:15并且被排除在决策会议外。
-
7:15 - 7:16我最大的努力,
-
7:16 - 7:18试图制定计划,
-
7:18 - 7:21以打击政治广告中的
虚假信息和投票权压制 -
7:22 - 7:23被拒绝了。
-
7:23 - 7:26所以我只坚持了
不到 6 个月就辞职了。 -
7:26 - 7:30但这是我在这段期间最大的收获。
-
7:30 - 7:32成千上万的人在脸谱网工作,
-
7:32 - 7:34充满热情的投入于这个
-
7:34 - 7:38他们相信能将世界
变得更美好的产品, -
7:38 - 7:42但是,只要公司依然仅仅只是
-
7:42 - 7:44在内容政策和合理性的边缘试探,
-
7:44 - 7:46而不考虑
-
7:46 - 7:49整个平台的设计和赚钱方式,
-
7:49 - 7:52那它们永远不会真正解决
平台是如何助长 -
7:52 - 7:57仇恨、分裂和激进这些问题的。
-
7:57 - 8:01而这也正是我在那里
从未听到过的对话, -
8:01 - 8:04因为那将会需要你从根本上接受
-
8:04 - 8:08你所创造的东西可能
不是对社会最有益的东西, -
8:08 - 8:11并同意改变整个产品和盈利模式。
-
8:12 - 8:14那么我们能做些什么呢?
-
8:15 - 8:19我并不是说社交媒体
要为我们国家的现状 -
8:19 - 8:21承担唯一的责任。
-
8:21 - 8:26显然,我们有一些根深蒂固的
社会问题需要解决。 -
8:26 - 8:30但脸谱网的回应
只是社会的一面镜子, -
8:30 - 8:33这是一种转移其平台
-
8:34 - 8:38放大有害言论,并将一些用户
-
8:38 - 8:41推向极端观点的责任的方便说辞。
-
8:42 - 8:44当然,如果脸谱网
的确有这方面的主观意愿, -
8:44 - 8:46是可以解决其中一些问题的。
-
8:46 - 8:50他们可以停止推荐和放大
阴谋理论家、 -
8:50 - 8:53仇恨组织和
虚假信息散布者的影响, -
8:53 - 8:57是的,在某些情况下,
甚至包括我们的总统。 -
8:57 - 9:02它们可以停止使用
与推销跑鞋同样的个性化推荐服务 -
9:02 - 9:04来传递政治说辞。
-
9:04 - 9:06它们可以重新修改算法,
-
9:06 - 9:08去专注于一个
非用户互动类的度量指标, -
9:08 - 9:13也可以建立信息护栏,
防止某些内容在被审核之前 -
9:13 - 9:14像病毒一样被传播。
-
9:15 - 9:17他们可以做到所有这一切。
-
9:17 - 9:21而不必成为他们所谓的
“真理仲裁者”。 -
9:21 - 9:24但是他们已经明确表示,
除非被强制这样做, -
9:24 - 9:27否则他们就不会
积极采取正确的行动, -
9:27 - 9:30毕竟,坦白说,
他们为什么要这么做呢? -
9:30 - 9:34市场一直在奖励他们,
他们也没有违法。 -
9:34 - 9:35因为就现在的情况而言,
-
9:35 - 9:40美国并没有法律强制脸谱网
或者其他社交媒体公司 -
9:40 - 9:42去保护我们的公共广场、
-
9:42 - 9:43民主,
-
9:43 - 9:46甚至是我们的选举。
-
9:46 - 9:50我们已经将制定和执行
哪些计划的决定权交给了 -
9:50 - 9:53盈利性互联网公司的
首席执行官们。 -
9:54 - 9:56这是我们想要的吗?
-
9:56 - 9:59一个有毒言论和部落主义
-
9:59 - 10:02彻底压倒打造沟通桥梁
和追求共识的后真相世界? -
10:03 - 10:08我仍然乐观的认为,我们要比
现存的媒体和网络环境所描绘的彼此 -
10:08 - 10:10拥有更多的共同点,
-
10:10 - 10:14我也坚信相信,拥有更多视角
-
10:14 - 10:17会让民主更加健康和包容,
-
10:17 - 10:20但不是以目前的方式。
-
10:20 - 10:24需要强调的是,
我并不想搞垮这些公司。 -
10:24 - 10:28我只想让它们承担
一定程度的责任, -
10:28 - 10:29就像社会中的其他人一样。
-
10:31 - 10:35我们的政府是时候站出来
-
10:35 - 10:37做好保护我们公民的工作了。
-
10:37 - 10:40虽然还没有一项神奇的立法
-
10:40 - 10:41可以解决所有的问题,
-
10:41 - 10:46但我的确相信,
政府可以,而且必须在 -
10:46 - 10:48保护自由言论和让这些平台
-
10:48 - 10:52为它们的社会影响负责之间找到平衡。
-
10:52 - 10:57他们可以通过保证
这些推荐引擎如何工作, -
10:57 - 11:03如何进行管理、
放大和定位的透明度 -
11:03 - 11:05来做到这一点。
-
11:05 - 11:07我希望这些公司
-
11:07 - 11:10不仅是对个人发布虚假信息
-
11:10 - 11:12或者极端言论负责,
-
11:12 - 11:15还要对他们的推荐引擎
如何传播这些信息, -
11:16 - 11:19他们的算法如何
引导人们使用这些信息, -
11:19 - 11:22以及他们的工具
如何被用来针对这些人负责。 -
11:23 - 11:27我试图从脸谱网内部
做出改变,但是我失败了, -
11:27 - 11:30所以在过去几年,
我一直在用自己的声音 -
11:30 - 11:33不断发出警告,
-
11:33 - 11:37希望能激发更多的人
来要求这种责任。 -
11:37 - 11:40我要传递给你们的信息很简单:
-
11:40 - 11:42对你们的政府代表施压,
让他们站出来, -
11:42 - 11:47停止将我们的公共空间
拱手让给以营利为目的获利行为。 -
11:47 - 11:49帮助你的朋友和家人了解
-
11:49 - 11:52他们在网上是如何被操纵的。
-
11:52 - 11:56推动自己和没有共同想法的人交流。
-
11:56 - 11:59把这个问题当作优先事项。
-
11:59 - 12:02我们需要一个能动员
全社会的方法来解决它。 -
12:03 - 12:09我对我的前雇主,
脸谱网的领导们想要说的是: -
12:09 - 12:15现在,人们正在使用
你们设计好的工具 -
12:15 - 12:17传播仇恨、分裂和不信任,
-
12:17 - 12:21而你们不仅允许了,
而且还在加剧这种情况。 -
12:21 - 12:24没错,在全球范围内
-
12:24 - 12:28你们的平台上发生了很多积极的事,
-
12:28 - 12:31但这并不意味着这一切
都是可以接受的。 -
12:31 - 12:34随着选举的临近,
情况越来越糟, -
12:34 - 12:36更值得担忧的是,
-
12:36 - 12:38如果选举结果不被信任,
如果暴力事件爆发, -
12:38 - 12:42那么迄今为止
最大的潜在危机将不可避免。 -
12:42 - 12:47所以到 2021 年,当你们再说,
“我们知道我们必须做得更好”时, -
12:47 - 12:50我想要你们记住现在这一刻,
-
12:50 - 12:53因为这再也不只是
一些局外人的声音。 -
12:53 - 12:56民权领袖、学者、
-
12:56 - 12:59记者、广告商和你们自己的员工
-
12:59 - 13:01都会在屋顶上大声呼吁,
-
13:01 - 13:03你们的政策和商业行为
-
13:03 - 13:06一直都在危害人民和民主。
-
13:07 - 13:09决定权在你们手中,
-
13:09 - 13:13但是你们再也不能说,
你们不可能预见这样的后果。 -
13:14 - 13:15谢谢。
- Title:
- 脸谱网,你们正在破坏民主
- Speaker:
- 耶尔·艾森斯塔
- Description:
-
“在网络上,谎言比真相更有吸引力”,前美国中情局分析官、前外交官,以及前脸谱网(Facebook)员工的耶尔·艾森斯塔(Yaël Eisenstat)如是说。“只要社交媒体算法的目的是保持我们的参与度,他们就会提供迎合我们最恶劣的本能和人性弱点的毒药。”在这场大胆的演讲中,艾森斯塔探讨了像脸谱网这样的社交媒体企业是如何鼓励煽动性内容,促进政治两极化和不信任的文化,并且呼吁政府追究平台责任以维护民事讨论和民主。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Yolanda Zhang approved Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy | ||
Yolanda Zhang edited Chinese, Simplified subtitles for Dear Facebook, this is how you're breaking democracy |