推特需要改进的地方
-
0:01 - 0:04克里斯·安德森:
你现在担心什么? -
0:04 - 0:06一直以来你都敞开探讨
推特上的问题。 -
0:06 - 0:09对于现在的情况,
-
0:09 - 0:11你最担心的是什么?
-
0:11 - 0:14杰克·多西:
现在我最担心的是谈话的质量。 -
0:14 - 0:18我们的目标是促进大众交流,
-
0:18 - 0:23但我们已经在上面看到了
很多攻击性言论。 -
0:23 - 0:26我们看到了侮辱,我们看到了骚扰,
-
0:26 - 0:29我们还看到了诱导性言论,
-
0:29 - 0:33机器回复、水军、错误信息。
-
0:34 - 0:38这些变化
-
0:38 - 0:42是我们在13年前创建公司时
没有想到的。 -
0:42 - 0:45然而,现在这些言论数量巨大,
-
0:45 - 0:50我最担心的是我们是否有能力
解决这个问题, -
0:50 - 0:53通过一种可延展的系统性方式,
-
0:53 - 1:00有一个严格的处理标准,
-
1:00 - 1:03过程公开透明,大众可以理解,
-
1:03 - 1:06并且在我们犯错的时候
有一个而严格的上诉机制, -
1:06 - 1:08因为每个人都会犯错。
-
1:09 - 1:11惠特尼·彭宁顿·罗杰斯:
我非常高兴 -
1:11 - 1:13听到你谈论你的担心,
-
1:13 - 1:16因为我觉得有很多人
-
1:16 - 1:18都觉得自己在推特上被侮辱和骚扰,
-
1:18 - 1:22并且我觉得首当其冲的
-
1:22 - 1:23就是女性,非白人女性和黑人女性。
-
1:23 - 1:25有数据表明,
-
1:25 - 1:28来自国际特赦组织几个月前的一份报告称
-
1:28 - 1:33有一部分活跃的黑人女性推特用户
-
1:33 - 1:36平均每10条推文
-
1:36 - 1:38就会收到一条骚扰回复。
-
1:38 - 1:42当你谈论到为推特用户
塑造健康环境的时候, -
1:42 - 1:46我对你说的“大众的健康”很感兴趣,
-
1:46 - 1:49但具体来讲:你准备如何为这个群体、
为女性、为非白人女性和黑人女性 -
1:49 - 1:54营造一个安全的环境呢?
-
1:54 - 1:55多西:好的。
-
1:55 - 1:57现在状况比较糟糕,
-
1:57 - 1:59当你来到这个平台,
-
1:59 - 2:03理想情况下,你想了解这个世界,
-
2:03 - 2:09但你要花费大量时间来举报
和受到侮辱信息, -
2:09 - 2:11还有骚扰信息。
-
2:11 - 2:18所以我们现在研究的是
-
2:18 - 2:22平台和服务所提供的动机。
-
2:22 - 2:27现在,系统的动态性使得在平台上
-
2:27 - 2:31骚扰和侮辱他人非常容易,
-
2:31 - 2:34不幸的是,过去我们大部分系统
-
2:34 - 2:39完全依赖于用户举报骚扰和侮辱信息。
-
2:39 - 2:45大约在去年年中,我们决定更多采用
-
2:45 - 2:49机器学习与深度学习,
-
2:49 - 2:53使其能够主动发现侮辱信息,
-
2:53 - 2:57这样我们就能让受害者卸下重担。
-
2:57 - 3:00最近我们颇有成效。
-
3:00 - 3:06机器自主学习算法
-
3:06 - 3:08能够主动发现38%的侮辱性推文,
-
3:08 - 3:10这样人们就不用举报这些了。
-
3:10 - 3:14但即使机器识别了那些信息,
也还需要人来审查, -
3:14 - 3:19所以在有人审查之前,
我们不会删除任何评论或账号。 -
3:19 - 3:22但重点是我们一年前是从零起步。
-
3:22 - 3:24我的意思是,以前,
-
3:24 - 3:28每个受到侮辱的人都需要亲自举报,
-
3:28 - 3:31对于他们和我们而言是一项大工程,
-
3:31 - 3:33并且这非常不公平。
-
3:35 - 3:38我们在做的另外一件事,
是确保在公司里 -
3:38 - 3:42有足够的员工来代表反映
我们服务的所有群体。 -
3:42 - 3:44若我们的团队没有多元的观念,
-
3:44 - 3:47若没有员工会每天亲身经历这些问题,
-
3:47 - 3:51我们将无法成功地建立一个企业。
-
3:51 - 3:55这一点不仅仅适用于开发小组,
-
3:55 - 3:57也适用于领导团队。
-
3:57 - 4:03所以我们要继续在
同情人们的遭遇的同时, -
4:03 - 4:06给他们创造更好的交流平台,
-
4:06 - 4:10并且为我们的用户打造更好而简便的方法
-
4:10 - 4:13来处理一些问题。
-
4:13 - 4:16所以我们的大部分工作都是
围绕科技展开的, -
4:16 - 4:20但我们同时也在思考这个服务的动机:
-
4:20 - 4:25当你第一次登录的时候,
推特鼓励你做了什么事? -
4:25 - 4:27在过去,
-
4:29 - 4:34这个平台催生了许多愤怒,
催生了许多暴徒行为, -
4:34 - 4:37也催生了许多团体骚扰。
-
4:37 - 4:40我们正在深入研究我们服务的基本原则,
-
4:40 - 4:43以探求这种行为现象的原因。
-
4:43 - 4:47正如我刚才所描述的,
我们可以在科技方面做出许多小的改变, -
4:47 - 4:52但最终,我们必须深入研究
网络本身的动态性, -
4:52 - 4:53而这就是我们现在所做的。
-
4:53 - 4:55安德森:但在你看来——
-
4:55 - 4:59哪些方面的改动是你力所能及
-
4:59 - 5:02并且可以从根本上改善人们行为的呢?
-
5:03 - 5:05多西:有一件事——
-
5:05 - 5:10我们开设的关注别人账号的这个功能,
-
5:10 - 5:12我举一个例子,
-
5:12 - 5:16我猜这不是吸引人们用推特的主要原因。
-
5:16 - 5:21我相信推特的最佳用途是构建兴趣网络。
-
5:21 - 5:25人们来到这里,每个人兴趣不同,
-
5:25 - 5:28他们需要花很大的工夫
才能找到志同道合的人, -
5:28 - 5:30关注兴趣相同的账号。
-
5:30 - 5:34我们可以改进的地方在于
让你关注一项兴趣爱好, -
5:34 - 5:36关注一个标签,关注一种趋势,
-
5:36 - 5:38关注一个群体。
-
5:38 - 5:42通过这种方式,我们可以给你推荐
与你兴趣有关的 -
5:42 - 5:45所有账号、所有话题、
-
5:45 - 5:49所有时刻以及所有标签,
-
5:49 - 5:54这可以开拓用户的视野。
-
5:54 - 5:56但要从只关注特定账号、
话题和兴趣爱好, -
5:56 - 6:00转而关注整个社交网络,
-
6:00 - 6:03这是一个非常巨大的转变。
-
6:03 - 6:10安德森:但之所以推特上内容丰富,
-
6:10 - 6:11是因为
-
6:11 - 6:18推特使全球很多人
在“角斗场”中相互竞争, -
6:18 - 6:20看谁有更多的粉丝,获得更多的关注吗?
-
6:21 - 6:24我是说,对于那些关注者而言,
-
6:24 - 6:25这并不是什么大问题。
-
6:25 - 6:28但对于那些博主而言,每个人都在说,
-
6:28 - 6:32“你知道吗,我希望我也能有更多的赞、
更多的粉丝和转发,” -
6:32 - 6:34所以他们不断地尝试,
-
6:34 - 6:36希望通过某种方式来做到这一点。
-
6:36 - 6:40并且我们发现,能达成这个目的
最有效方法, -
6:40 - 6:44就是发表挑衅的、
-
6:44 - 6:47讨厌的、词藻华丽而令人憎恶的言论,
-
6:47 - 6:50比方说,在推特上花式骂人,
-
6:50 - 6:53如果你不停地侮辱他人——
-
6:53 - 6:57最终愤怒的情绪就会
自然不断地蔓延到其他人。 -
6:57 - 7:00你要怎么解决这个问题?
-
7:01 - 7:04多西:是的,我觉得你讲的正中要害,
-
7:04 - 7:06但这反过来回到了刚才所说的动机问题。
-
7:06 - 7:09在早期,我们设计的系统是这样的:
-
7:09 - 7:13系统会显示关注你账号的人数。
-
7:13 - 7:16我们决定让这个数字放大又加粗显示,
-
7:16 - 7:20你界面上放大粗体的字体都很重要,
-
7:20 - 7:22这些就是你想推动的东西。
-
7:22 - 7:24对当时而言,这是否是正确的做法呢?
-
7:24 - 7:25也许不是。
-
7:25 - 7:27如果让我重头来过,
-
7:27 - 7:29我不会再这么强调关注人数。
-
7:29 - 7:32我不会再这么强调推文的“喜爱”数量。
-
7:32 - 7:35我甚至不觉得我会创造“喜爱”这个功能,
-
7:35 - 7:38因为这个功能并不能推动
-
7:38 - 7:42我们眼中最重要的事:
-
7:42 - 7:45对网络提供健康的贡献,
-
7:45 - 7:48促进交流,
-
7:48 - 7:49推动人们参与交流,
-
7:49 - 7:52在交流中学习。
-
7:52 - 7:55我们在13年前没有考虑到这些,
-
7:55 - 7:57但现在我们却认为它们非常重要。
-
7:57 - 8:00所以我们需要审视系统如何呈现粉丝数,
-
8:00 - 8:02呈现转推数,
-
8:02 - 8:04呈现“喜爱”的数量,
-
8:04 - 8:06并且问这个深奥的问题:
-
8:06 - 8:09我们想让人们提升的是否就是这个数字?
-
8:09 - 8:12我们是否希望人们打开推特,
-
8:12 - 8:14意识到,“这就是我要提升的东西?”
-
8:14 - 8:16我相信现在答案是否定的。
-
8:16 - 8:19(掌声)
-
8:19 - 8:21罗杰斯:我觉得我们也应该看看
-
8:21 - 8:24一部分来自听众的推文。
-
8:24 - 8:27安德森:让我们看看你们在问什么。
-
8:27 - 8:29我觉得,这是——总体而言,
推特的特点之一 -
8:29 - 8:33在于它能够集中大众智慧,
-
8:33 - 8:36推特上的知识,问题和观点
-
8:36 - 8:39多得超乎你的想象。
-
8:39 - 8:42而且有时候,很多观点意见质量都很高。
-
8:42 - 8:45罗杰斯:刚才我看到的这个很好,在下面,
-
8:45 - 8:48“在2020年美国大选中,
推特准备采取什么措施对抗外国干涉?” -
8:48 - 8:51我觉得这是我们在互联网上见到的
-
8:51 - 8:53非常重要的一个问题,
-
8:53 - 8:57网络上有着许多恶意的机器操作,
-
8:57 - 9:00用推特打个比方,
-
9:00 - 9:05来自齐格努实验室的朋友
给了我们一些资料, -
9:05 - 9:08也许我们可以把这当做一个例子,
-
9:08 - 9:10来引出我想谈论的这个问题,
-
9:10 - 9:13有很多机器人小号,
-
9:13 - 9:17或者说一系列的自动化恶意账号活动,
-
9:17 - 9:20它们被用来影响选举这类的事件。
-
9:20 - 9:24在这个例子中,齐格努给我们分享了一些
-
9:24 - 9:26他们从推特上收集到的数据,
-
9:26 - 9:28你能在这里看到,
-
9:28 - 9:33白色代表——人类账号,
每个点代表一个账号, -
9:33 - 9:34颜色越粉,
-
9:34 - 9:36说明这个账号活动越像机器人。
-
9:36 - 9:42你能到看到有一些人与机器账号互动,
-
9:42 - 9:46在这里,互动内容是关于
以色列选举的, -
9:46 - 9:50机器账号散播关于
本尼·甘茨的虚假信息, -
9:50 - 9:53我们都知道,选举的结果,
-
9:53 - 9:57最终内塔尼亚胡以微弱优势获胜,
-
9:57 - 9:59而这个结果可能被这些互动影响了。
-
9:59 - 10:01当你想到推特上的这些事情时,
-
10:01 - 10:03你正在采取具体什么措施,
-
10:03 - 10:07来保证类似的虚假信息不会传播,
-
10:07 - 10:11影响他人,以致于影响民主制度呢?
-
10:12 - 10:14多西:让我们倒回去一点,
-
10:14 - 10:16我们问了自己一个问题:
-
10:16 - 10:21我们是否能测量对话的质量?
-
10:21 - 10:22而对质量的定义又是什么?
-
10:22 - 10:26就像你我
-
10:26 - 10:29作为人类会有显示
我们健不健康的指标, -
10:29 - 10:33比如说体温,脸上的红晕,
-
10:33 - 10:38我们相信我们能够找到反应
谈话健康程度的指标。 -
10:38 - 10:43我们与麻省理工学院的
一个名叫匡提科的实验室合作, -
10:43 - 10:49提出了四项指标,
-
10:49 - 10:52我们认为最终可以运用在系统上。
-
10:54 - 10:58第一项指标叫作共同关注。
-
10:59 - 11:02这个指标用于测量对话中
人们多大程度集中于 -
11:02 - 11:05同一个话题,还是不同的话题。
-
11:06 - 11:09第二个指标叫作共同现实。
-
11:09 - 11:11这个指标用于测量这段对话有多少部分
-
11:11 - 11:14是基于共同事实的——
-
11:14 - 11:17不是指这些事实真实与否,
-
11:17 - 11:20而是我们认为的事实是否相同?
-
11:20 - 11:23第三个指标是感受性:
-
11:23 - 11:27一段对话在多大程度上是温和,
让人容易接受的, -
11:27 - 11:30亦或者是完全相反,会使人不快呢?
-
11:30 - 11:34第四个指标是观点多样性。
-
11:34 - 11:37我们所接收的信息是否被筛选过,
人云亦云, -
11:37 - 11:40又或者是我们能在谈话中
-
11:40 - 11:42接收到许多不同的观点呢?
-
11:42 - 11:45而这四个指标背后蕴含意思是
-
11:45 - 11:49指标越高,谈话的质量就越高。
-
11:49 - 11:54所以第一步是试验是否能在网上
检测这些指标, -
11:54 - 11:56我们内心持肯定的态度。
-
11:56 - 11:59我们在感受性方面势头较大。
-
11:59 - 12:02我们在系统中建立了反感分,
一个反感模型, -
12:02 - 12:05它能够检测在推特上
-
12:05 - 12:09你是否会终止某个你正在参与的话题,
-
12:09 - 12:11因为这个话题让你感到不快,
-
12:11 - 12:14并且是非常不愉快。
-
12:15 - 12:16我们正在努力测量其他指标,
-
12:16 - 12:19而下一步是,
-
12:19 - 12:22在我们制定解决方案之后,
-
12:22 - 12:25观察这些指标长期的趋势走向,
-
12:25 - 12:28并且继续试验。
-
12:28 - 12:32我们的目标是保证这些指标的平衡,
-
12:32 - 12:35因为一个指标的提升可能会导致
另一个的降低。 -
12:35 - 12:37如果你提高观点的多样性,
-
12:37 - 12:40可能就会导致共同现实值的降低。
-
12:40 - 12:44安德森:让我们选择屏幕上的
一些问题提问。 -
12:45 - 12:46多西:持续不断地发问。
-
12:47 - 12:51安德森:许多人好奇,
-
12:51 - 12:54在推特上把纳粹清除出去有多难?
-
12:57 - 12:58多西:(笑声)
-
12:59 - 13:04我们对于暴力极端组织制定了规则,
-
13:05 - 13:09而我们的大部分工作和服务条款
-
13:09 - 13:13是研究用户行为,而非网站内容。
-
13:13 - 13:16所以我们实际上在研究行为模式。
-
13:16 - 13:19比如说,有人利用这个平台
-
13:19 - 13:23来持续或是间断性地骚扰他人,
-
13:23 - 13:25利用可憎的意象,
-
13:25 - 13:27比如可能与3K党有关的意象,
-
13:27 - 13:30或是与美国纳粹党有关的。
-
13:30 - 13:35这些都是我们会立即处理的问题。
-
13:35 - 13:41现在,这些术语被使用的次数相对较多,
用词不严谨, -
13:41 - 13:46所以我们不能因为有人提到这些单词,
-
13:46 - 13:49就指控某人有罪,
-
13:49 - 13:52并且以此为证据将他们赶出这个平台。
-
13:52 - 13:55所以我们的许多模型
要检测的第一件事是: -
13:55 - 13:58这个账号是否与暴力极端组织
有联系? -
13:58 - 14:00如果答案是肯定的,
那我们可以采取措施。 -
14:00 - 14:04我们对于3K党、美国纳粹党
以及其他组织就采取了措施。 -
14:04 - 14:08第二个问题:这些账号是否在使用
与上述组织有关的图片, -
14:08 - 14:11或是其行为是否与上述组织有关?
-
14:11 - 14:13安德森:你安排了多少人给账号行为评分,
-
14:13 - 14:14来检查这些行为?
-
14:15 - 14:16多西:人数不固定。
-
14:16 - 14:18我们希望能灵活应对这件事,
-
14:18 - 14:21因为我们想保证,第一,
-
14:21 - 14:25建立算法而不是雇佣大量的人,
-
14:25 - 14:29因为我们这项任务是会延展的
-
14:29 - 14:32雇多少人都会显得不够。
-
14:33 - 14:38这就是为什么我们要努力建立
能积极检测辱骂信息的系统, -
14:38 - 14:40然后让人来审阅这些信息。
-
14:40 - 14:42我们希望可以做到让
-
14:42 - 14:46算法能够不断检测所有的推文,
-
14:46 - 14:49把其中问题最大的挑出来,
-
14:49 - 14:52这样人就可以决定到底要不要采取措施,
-
14:52 - 14:53基于我们的服务条款。
-
14:54 - 14:57罗杰斯:你说从事这项工作的人数
永远不够, -
14:57 - 15:00那么你现在到底雇佣了多少人
来监控账号? -
15:00 - 15:02你怎么知道这些人足够完成任务?
-
15:03 - 15:05多西:我们的安排非常灵活。
-
15:05 - 15:08有时我们让人监控垃圾信息。
-
15:08 - 15:12有时我们让人监控侮辱和
骚扰信息。 -
15:12 - 15:14我们要确保我们的人事安排足够灵活,
-
15:14 - 15:17这样我们就能把他们派往
最有需要的地方。 -
15:17 - 15:19有时,他们监控选举信息。
-
15:19 - 15:24我们在墨西哥有一组人,
马上在印度也会成立一个小组。 -
15:24 - 15:28很明显,去年有选举,中期选举,
-
15:28 - 15:31所以我们希望确保人员流动性。
-
15:31 - 15:33当人们——
-
15:33 - 15:39举个例子,如果你现在去查
我们的服务条款, -
15:39 - 15:41然后你打开页面,
-
15:41 - 15:45然后你想弄明白你刚刚收到的
侮辱和骚扰, -
15:45 - 15:48它们是否违反我们的服务条款,
是否要举报, -
15:48 - 15:51你打开页面后看到的第一个东西,
-
15:51 - 15:54是知识产权保护。
-
15:54 - 15:59你向下看就能看到侮辱,骚扰有关,
-
15:59 - 16:02以及其他所有你可能会遭遇的事情。
-
16:02 - 16:06尽管我不清楚为什么近几年来
推特上会出现这些问题, -
16:06 - 16:13但我们把这些信息列为人们
最需要的信息, -
16:13 - 16:16并且正在着手解决这些问题。
-
16:16 - 16:21这些信息排列的先后顺序
代表了我们对其的重视程度。 -
16:21 - 16:24所以我们正在改变。
-
16:24 - 16:26我们以正确的顺序排列信息,
-
16:26 - 16:29但同时我们也在简化规则,
使其简单易懂, -
16:29 - 16:33这样人们就能理解
-
16:33 - 16:36哪些行为违反了条例,哪些没有。
-
16:36 - 16:39接下来我们——
-
16:39 - 16:45正如我刚才所说,现在工作的重点
是减少受害者的操作压力。 -
16:45 - 16:48这意味着继续发展科技,
-
16:48 - 16:50代替真人做这些工作——
-
16:50 - 16:52真人会接收侮辱信息,
-
16:52 - 16:55同时还要亲自举报。
-
16:55 - 16:58所以我们并不希望
-
16:58 - 17:00我们一步步
-
17:00 - 17:02朝一些负面的东西发展,
-
17:02 - 17:04我们希望
-
17:04 - 17:08在科技和人类创新中取得平衡,
-
17:08 - 17:10让人类来审查规则,
-
17:10 - 17:14而非机械地发现问题,报告问题。
-
17:14 - 17:16以上就是我们的想法。
-
17:16 - 17:18安德森:我想进一步了解你刚刚讲的事。
-
17:18 - 17:21我的意思是,我很开心听到你说
你在寻求方法 -
17:21 - 17:25来调整重构系统设计,
-
17:25 - 17:29来阻止一些反应性行为,并且或许——
-
17:29 - 17:32引用特里斯坦·哈里斯的说法——
-
17:32 - 17:36鼓励人们反思。
-
17:36 - 17:38你现在进行到哪一步?
-
17:38 - 17:43你准备用什么功能
来代替“喜欢”功能? -
17:45 - 17:47多西:首先,
-
17:47 - 17:51我对于推特的个人目标来自于
-
17:51 - 17:56我认为公众交流是最关键的。
-
17:56 - 17:59世界上有一些问题,
-
17:59 - 18:03不仅仅某个特定国家地区,
全世界都面临这些问题, -
18:03 - 18:06而全球公共交流
有助于解决这些问题。 -
18:06 - 18:08这就是推特独特的活力之一,
-
18:08 - 18:10这个平台完全开放,
-
18:10 - 18:11完全公共,
-
18:11 - 18:13完全流动,
-
18:13 - 18:16任何人可以浏览和参与和人话题。
-
18:17 - 18:19所以会有气候变化的讨论。
-
18:19 - 18:23有对人工智能取代人类的讨论。
-
18:24 - 18:27有对经济差距的讨论。
-
18:27 - 18:29无论你来自哪个国家或地区,
-
18:29 - 18:32人类都无法独自解决这些问题。
-
18:32 - 18:34这需要全球合作,
-
18:34 - 18:38我们认为这就是推特发挥作用的地方。
-
18:38 - 18:43第二,现在你登录推特,
-
18:43 - 18:47当你离开的时候,
也许你觉得没什么收获, -
18:47 - 18:49但有些人觉得有收获。
-
18:49 - 18:52有些人的社交网络非常丰富,
-
18:52 - 18:54他们身处一个庞大的社区,
每天都可以学习到新的知识。 -
18:54 - 18:58但要想建造这样的社区,
需要大量的精力和时间。 -
18:58 - 19:01所以我们让人们可以更快得
-
19:01 - 19:03找到那些主题、那些兴趣。
-
19:03 - 19:07并确保他们有所收获,
-
19:07 - 19:09无论他们每天在推特上花多少时间——
-
19:09 - 19:11我不想扩大用户使用推特的时间,
-
19:11 - 19:14我想扩大用户在推特上的收获,
-
19:14 - 19:18让他们在推特上学到更多知识,并且——
-
19:18 - 19:20安德森:你是这么想的吗?
-
19:20 - 19:23这是许多人想问的一个核心问题。
-
19:23 - 19:26当然,杰克,你在很大程度上受到约束,
-
19:26 - 19:28因为这是一家上市公司,
-
19:28 - 19:30你会收到投资者的压力,
-
19:30 - 19:33你赚钱的方法之一是广告——
-
19:33 - 19:37而广告的数量取决于用户参与度。
-
19:37 - 19:41如果有需要的话,
你是否愿意牺牲用户参与度, -
19:41 - 19:44来换取更加有效的交流呢?
-
19:45 - 19:48多西:当然;高效交流意味着
用户使用时间的减少, -
19:48 - 19:50我完全可以接受这个,
-
19:50 - 19:53因为我们希望确保,当你来到推特,
-
19:53 - 19:58你马上就能看到一些你感兴趣,
想学的东西。 -
19:58 - 20:01在这个基础上,我们依然能投放广告。
-
20:01 - 20:03这并不意味着你需要加快速度
看更多的东西。 -
20:03 - 20:06第二件我们正在研究的事情是...
-
20:06 - 20:07安德森:但是,就你的目标而言,
-
20:07 - 20:10如果每日活跃参与度
是你追求的东西的话, -
20:10 - 20:13这个指数并不意味着人们
每天参与了兴趣相关的事务。 -
20:13 - 20:14它可能指
-
20:14 - 20:18人们每天出于好奇围观的事务。
-
20:18 - 20:21我们之所以沉迷于此,因为我们
看到一些惹怒我们的东西, -
20:21 - 20:24然后我们参与进去,与别人争论,
-
20:24 - 20:27然后每日活跃参与度就上升了,
-
20:27 - 20:28因此广告收益也增多了,
-
20:28 - 20:31但最终结果是我们愈发互相仇恨。
-
20:31 - 20:33你是如何定义...
-
20:33 - 20:38过于美化“每日活跃参与度”这个数值
似乎是一件危险的事。 -
20:38 - 20:40(掌声)
-
20:42 - 20:44多西:确实,如果你单独
讨论这个数值的话, -
20:44 - 20:46但你得让我介绍其他衡量标准,
-
20:46 - 20:50我们同时也在检测谈话
-
20:50 - 20:52和谈话链。
-
20:52 - 20:57我们希望鼓励平台发展健康交流,
-
20:57 - 20:59而我们认为健康交流的定义是
-
20:59 - 21:02参与有益的交流,
-
21:02 - 21:07这里的有益通过我刚刚所
提到的四个指标来测量。 -
21:07 - 21:10所以你不能只看一个指标。
-
21:10 - 21:13你得平衡一下,不断观察
-
21:13 - 21:17在平台上什么因素可以创造健康交流,
-
21:17 - 21:19可以为人们创造健康的体验。
-
21:19 - 21:22最终,我们希望可以达到这样的标准,
-
21:22 - 21:25人们会说:“嘿,我从推特上
学到了一些东西, -
21:25 - 21:27它让我增长了见识。”
-
21:27 - 21:29这是我们未来的最终目标,
-
21:29 - 21:31但距离这个目标的实现还有一段时间。
-
21:31 - 21:36安德森:你在很多人看来,是一个谜。
我也这样觉得。 -
21:37 - 21:41这可能不公平,
但当我之前某天醒来的时候, -
21:41 - 21:45脑海中的画面是你和这个现状,
-
21:45 - 21:51我们正乘坐在一艘名为“推坦尼克号”
的巨轮上前进... -
21:51 - 21:54(笑声)
-
21:54 - 21:57在船上,普通舱的一些人
-
21:57 - 22:00感觉非常不舒服,
-
22:00 - 22:03而你,和其他船长不同,
-
22:03 - 22:06说:“嘿,告诉我,
我想知道你们的意见。” -
22:06 - 22:09所以人们过来跟你讲话,他们说:
“我们担心前方的冰山。” -
22:09 - 22:12然后你回答:“你们知道吗,
那是一个巨大的挑战, -
22:12 - 22:14说实话,我们的船可能不像
它看上去的那样 -
22:14 - 22:16可以轻松转向。”
-
22:16 - 22:17然后人们说:“请想想办法。”
-
22:17 - 22:19然后你登上舰桥,
-
22:19 - 22:21我们就在等待。
-
22:21 - 22:26我们向外看,发现你神态自若,
-
22:26 - 22:30但我们都站在外面,
喊着:“杰克,求你快点转向!” -
22:30 - 22:31你能懂吗?
-
22:31 - 22:33(笑声)
-
22:33 - 22:34(掌声)
-
22:35 - 22:35我是说
-
22:35 - 22:39(掌声)
-
22:41 - 22:42民主制度危在旦夕。
-
22:42 - 22:45我们的文化、我们的世界危在旦夕。
-
22:45 - 22:50推特非常了不起,变化非常巨大。
-
22:50 - 22:52它也许没有另一些平台那么大,
-
22:52 - 22:56但有影响力的人用它来设定世界议程,
-
22:56 - 23:02很难想象世界上比它更重要的角色。
-
23:02 - 23:06我的意思是,杰克,你现在
听取他人意见,你做得很好, -
23:06 - 23:10但讲到真正专心推动解决的办法——
-
23:10 - 23:12你会这么做吗?
-
23:13 - 23:17多西:能,我们取得了
一些实质性的进展。 -
23:17 - 23:19我的意思是,在推特的历史上
有着一些巨大变化。 -
23:19 - 23:24当我重回到公司时,
-
23:24 - 23:30我们对未来情形一筹莫展,
-
23:30 - 23:35不仅仅是因为人们使用这个平台的方法,
-
23:35 - 23:37还因为公司结构的问题。
-
23:37 - 23:40所以我们得改变一些公司基础,
-
23:40 - 23:42转变公司的方向,
-
23:42 - 23:45经历两次疯狂的裁员,
-
23:45 - 23:49因为对于当时的业务而言雇员太多,
-
23:49 - 23:51然后我们将工作重心
-
23:51 - 23:54放在为公众交流服务上。
-
23:54 - 23:56这花了一点时间。
-
23:56 - 23:59当我们开始关注这方面时,
-
23:59 - 24:03我们意识到一些原则性的问题。
-
24:03 - 24:07为了达成你所说的目的,
我们可以采取一系列浅层措施, -
24:07 - 24:09但我们需要找到可持续的改进措施,
-
24:09 - 24:12而这意味着非常深入,
-
24:12 - 24:16观察我们13年前建立的东西,
-
24:16 - 24:18并且反省
-
24:18 - 24:22这个系统是怎样工作的,
这个框架是怎样工作的, -
24:22 - 24:25现今社会需要的是什么,
-
24:25 - 24:29考虑到世界变化之快和
人们使用它的方法。 -
24:29 - 24:35所以我们已经尽快努力了,
但速度无法帮我们完成任务。 -
24:35 - 24:38重要的是专注、优先级、
-
24:38 - 24:41是对网络之基的理解,
-
24:41 - 24:46构建可以灵活变动、适应变化的机制。
-
24:47 - 24:51坦诚布公我们的现状,
-
24:51 - 24:53这样我们才能继续赢得人们的信任。
-
24:53 - 24:57所以我对已经投入执行的机制感到自豪。
-
24:57 - 25:01我对我们选定的前进方向感到自豪。
-
25:01 - 25:04显然,我们可以更快进步,
-
25:04 - 25:08但这需要我们放弃过去一系列愚蠢的决定。
-
25:09 - 25:10安德森:很好。
-
25:10 - 25:14那么,我觉得如果有机会的话,
在场的很多人 -
25:14 - 25:18都愿意帮助你完场这一项重大改变,
-
25:18 - 25:20我不知道惠特尼是否还有问题,
-
25:20 - 25:23杰克,感谢你能来与我们
开诚布公地讨论。 -
25:23 - 25:24这非常需要勇气。
-
25:24 - 25:28我对你所说的非常感激,
祝你好运完成任务。 -
25:28 - 25:30多西:非常感谢。谢谢你们邀请我。
-
25:30 - 25:32(掌声)
-
25:33 - 25:34谢谢。
- Title:
- 推特需要改进的地方
- Speaker:
- 杰克 · 多西
- Description:
-
推特还有救吗?在与TED的克里斯·安德森和惠特尼·彭宁顿·罗杰斯的一场广泛谈话中,推特的CEO杰克 · 多西探讨了该平台的未来——他承认推特存在骚扰和监管问题,并提出了一些根本性的改革,希望能鼓励健康、互敬的谈话。“我们是否能够传达人们每天所重视的事物呢?”多西问到。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
Cissy Yun approved Chinese, Simplified subtitles for How Twitter needs to change | ||
Cissy Yun edited Chinese, Simplified subtitles for How Twitter needs to change | ||
Cissy Yun edited Chinese, Simplified subtitles for How Twitter needs to change | ||
Cissy Yun edited Chinese, Simplified subtitles for How Twitter needs to change | ||
Cissy Yun edited Chinese, Simplified subtitles for How Twitter needs to change | ||
Cissy Yun edited Chinese, Simplified subtitles for How Twitter needs to change | ||
Tianji (Homer) Li accepted Chinese, Simplified subtitles for How Twitter needs to change | ||
Tianji (Homer) Li edited Chinese, Simplified subtitles for How Twitter needs to change |