推特需要如何調整
-
0:01 - 0:04克里斯•安德森(安):
你目前擔心的是什麼? -
0:04 - 0:06你對許多推特爭議持開放的態度。
-
0:06 - 0:11對於現狀你最擔心的是什麼?
-
0:11 - 0:14傑克•多爾西(多):
目前擔心對話是否良性。 -
0:14 - 0:18我們致力於為公眾提供對話平臺,
-
0:18 - 0:23但也看到對此的攻擊不斷。
-
0:23 - 0:28像是那些濫用、騷擾、操弄、
-
0:29 - 0:33自動化、人類協作、錯誤資訊。
-
0:34 - 0:42這並非 13 年前我們
創立時,所預期的變化。 -
0:42 - 0:45但這些現象現已不容小覷,
-
0:45 - 0:49而最讓我擔心的是,我們是否有能力
-
0:49 - 0:53大規模、系統性地處理這些狀況,
-
0:53 - 0:57能有一套嚴謹的系統、
-
0:57 - 1:03透徹地瞭解我們該如何採取行動,
-
1:03 - 1:06當我們犯錯時,
也有嚴謹的上訴程序, -
1:06 - 1:08因為我們一定會犯錯。
-
1:09 - 1:11惠妮•潘尼頓•羅傑斯(羅):
我很高興聽到 -
1:11 - 1:12你關心這個議題,
-
1:12 - 1:14因為常看到有人寫到
-
1:14 - 1:17他們覺得自己在推特上
被辱罵和騷擾, -
1:17 - 1:22最常遇到這種事的
就是女性、有色人種女性 -
1:22 - 1:23和黑人女性。
-
1:23 - 1:25已經有些資料顯示——
-
1:25 - 1:28幾個月前,國際特赦組織發表報告,
-
1:28 - 1:33報告顯示,部分活躍使用
推特的黑人女性中, -
1:33 - 1:36平均每十則回覆中就有一則
-
1:36 - 1:38是某種形式的騷擾。
-
1:38 - 1:42當想到推特社群的良性發展,
-
1:42 - 1:46我很想要聽到「人人良性對話」,
-
1:46 - 1:49但明確地說:你打算如何
將推特變成安全的空間, -
1:49 - 1:54尤其是對那些少數,包含女性、
有色人種的女性及黑人女性而言? -
1:54 - 1:55多:是的。
-
1:55 - 1:57這是個很糟的情況,
-
1:57 - 1:59當你使用一項服務,
-
1:59 - 2:03理想情況下,
只是想了解世界資訊, -
2:03 - 2:09但你卻花了多數的時間於:
檢舉或受到辱罵、 -
2:09 - 2:11被人騷擾。
-
2:11 - 2:17我們在探究的是
-
2:17 - 2:22由平臺及服務所產生的誘因。
-
2:22 - 2:25目前系統的互動模式,讓使用者
-
2:25 - 2:31被輕易地利用來騷擾和辱罵他人,
-
2:31 - 2:34不幸的是,過去系統的運作,
-
2:34 - 2:39絕大部分都依賴使用者
主動檢舉騷擾以及濫用。 -
2:39 - 2:45大約在去年,
我們決定針對這個問題 -
2:45 - 2:49採用更多的機器學習、深度學習,
-
2:49 - 2:53並嘗試在發生濫用前先發制人,
-
2:53 - 2:57替受害者完全卸下負擔。
-
2:57 - 3:00最近我們有些進展。
-
3:00 - 3:05機器學習演算法可以主動找出
-
3:05 - 3:08大約 38% 的濫用推文,
-
3:08 - 3:10使用者不需要主動檢舉這些推文。
-
3:10 - 3:14但被識別出來的濫用推文
會再由人工複審, -
3:14 - 3:19在人工複審前,我們不會
刪除任何的推文或帳號。 -
3:19 - 3:22這比一年前的 0% 大有進步。
-
3:22 - 3:24意思就是,在 0% 時,
-
3:24 - 3:28每個收到辱罵的人都得主動檢舉,
-
3:28 - 3:31對他們和我們來說都很麻煩,
-
3:31 - 3:33歸根究柢就是很不公平。
-
3:35 - 3:38我們做的另外一件事
是確保作為一個企業 -
3:38 - 3:42被服務的所有群體皆有其代表。
-
3:42 - 3:44我們要打造一個成功的企業,
-
3:44 - 3:46內部就必須擁有多元觀點,
-
3:46 - 3:51且每天都深切地體會這些爭議。
-
3:51 - 3:55不只是前端負責
執行的團隊要夠多元, -
3:55 - 3:57領導階層也一樣。
-
3:57 - 4:03我們要對人們的感受保有同理心
-
4:03 - 4:06並為客戶提供更好的工具,
-
4:06 - 4:10還有更優質、更簡易的方法,
-
4:10 - 4:13來處理他們所目睹的事情。
-
4:13 - 4:16我們做的事大多環繞著科技,
-
4:16 - 4:20但我們也在研究因服務產生的誘因:
-
4:20 - 4:25當你一打開推特,
它誘使你去做什麼? -
4:25 - 4:27在過去,
-
4:29 - 4:37推特誘導了許多紛爭、
暴行、集體騷擾。 -
4:37 - 4:42我們得更深入地探討
服務內容的本質, -
4:42 - 4:43才能做重大調整。
-
4:43 - 4:47我們可以在技術上
做許多小改變,如剛所敘, -
4:47 - 4:52但最終我們得更深入
觀察網絡裡的動態, -
4:52 - 4:53那正是我們在做的。
-
4:53 - 4:55安:你的看法是什麼——
-
4:55 - 4:59你可能做出什麼樣的改變,
-
4:59 - 5:02才能從根本上改變使用者行為呢?
-
5:03 - 5:05多:其中一樣——
-
5:05 - 5:09舉例來說,我們推出了一種服務,
-
5:09 - 5:12概念是跟隨帳號,
-
5:12 - 5:16我不認為這是大家
使用推特的原因。 -
5:16 - 5:21我認為推特最好定位為
以興趣為基礎的網絡。 -
5:21 - 5:25大家因為某種特定的興趣而來。
-
5:25 - 5:28他們得要花很多心力
才能找到並跟隨 -
5:28 - 5:30和那些興趣相關的帳號。
-
5:30 - 5:34我們可以換一種方式,
讓你跟隨一種興趣, -
5:34 - 5:36跟隨一個「#主題標籤」、一種趨勢、
-
5:36 - 5:38跟隨一個社群,
-
5:38 - 5:42這樣我們就有機會
呈現所有相關的帳號、 -
5:42 - 5:46所有相關的主題、時刻、「#主題標籤」,
-
5:46 - 5:50只要是和那個主題及興趣
有關的都會呈現出來, -
5:50 - 5:54這真的能夠開拓你的視野。
-
5:54 - 5:56但這樣大幅度的結構性轉變
-
5:56 - 6:00讓整個平臺從偏重於帳號
-
6:00 - 6:03轉而偏向於主題和興趣 。
-
6:03 - 6:06安:現實情況不是這樣的嗎?
-
6:07 - 6:11推特之所以有那麼多內容的原因之一
-
6:11 - 6:15不就是將全世界幾百萬人放在一個
-
6:15 - 6:18類似競技場式的比賽
-
6:18 - 6:20去競爭跟隨者、關注?
-
6:20 - 6:24對只看而不發推特的人來說,
-
6:24 - 6:25這不是問題,
-
6:25 - 6:29但對創造內容的人而言,
許多人會說: -
6:29 - 6:32「我真希望有多一點
喜歡、跟隨者、轉推。」 -
6:32 - 6:34所以他們經常在做實驗,
-
6:34 - 6:36試著找出方法達到目的。
-
6:36 - 6:40而我們所發現的是最常見途徑就是:
-
6:40 - 6:44帶有挑釁成分的、
-
6:44 - 6:47罵起人來頭頭是道,
-
6:47 - 6:50彷彿,頭頭是道的辱罵,
是人們在推特的目標。 -
6:50 - 6:53這樣便能快速傳播——
-
6:53 - 6:57而這變成一種導致憤怒的惡性循環。
-
6:57 - 7:00你要如何平息這個狀況?
-
7:01 - 7:04多:是的,你切中核心,
-
7:04 - 7:05但這又回到誘因。
-
7:06 - 7:08在早期,我們所做的選擇之一
-
7:08 - 7:13就是突出你的跟隨者人數。
-
7:13 - 7:16我們決定讓那個數字
要用粗體大字呈現, -
7:16 - 7:20網頁上只要用到粗體大字,
通常都是重要的, -
7:20 - 7:22那些就會是你想要追求的東西。
-
7:22 - 7:24在那時,那個決策正確嗎?
-
7:24 - 7:25可能不正確。
-
7:25 - 7:27如果能重頭來過,
-
7:27 - 7:29我不會這麼強調跟隨者人數。
-
7:29 - 7:32我不會這麼強調「喜歡」的數目。
-
7:32 - 7:35我甚至根本不會創造
「喜歡」這個功能, -
7:35 - 7:38因為這個功能無法真的
-
7:38 - 7:41推動我們現在最重要的理念,
-
7:41 - 7:44也就是對網路做良性的回饋貢獻,
-
7:44 - 7:47以及與網路對話、
-
7:47 - 7:49參與對話,
-
7:49 - 7:52從對話中學習。
-
7:52 - 7:54我們 13 年前沒有想到這些,
-
7:54 - 7:57現在我們認為這些非常重要。
-
7:57 - 8:00所以我們得要研究
如何呈現跟隨者人數、 -
8:00 - 8:02如何呈現轉推數,
-
8:02 - 8:04如何呈現「喜歡」,
-
8:04 - 8:06並深思:
-
8:06 - 8:09我們真的希望大家
把這個數字衝高嗎? -
8:09 - 8:12我們真的希望當你打開推特時,
-
8:12 - 8:14你會說「我得要增加這個數字」嗎?
-
8:14 - 8:16我不認為是這樣的。
-
8:16 - 8:19(掌聲)
-
8:19 - 8:24羅:我們來看一些觀眾的推文。
-
8:24 - 8:26安:來看看大家想問什麼。
-
8:26 - 8:30一般來說,這是推特
很棒的優點之一, -
8:30 - 8:32可以把它用在群眾智慧上,
-
8:32 - 8:37像是:更多知識、問題、觀點,
-
8:37 - 8:38超越想像,
-
8:38 - 8:42有時,許多內容是非常良性的。
-
8:42 - 8:45羅:有一則訊息進來:
-
8:45 - 8:48「推特對抗外國干預 2020 年
美國大選的計畫是什麼?」 -
8:48 - 8:51這是我們在網路上
-
8:51 - 8:53一般都會看見的議題,
-
8:53 - 8:56有許多惡意的、自動化的活動。
-
8:56 - 9:02在推特上,比如,我們有
-
9:02 - 9:05我們的朋友 Zignal 實驗室的作品,
-
9:05 - 9:07也許我們能以此為例,
-
9:07 - 9:09闡述我的觀點,
-
9:09 - 9:12有些機器人,
-
9:12 - 9:17或自動化協同的惡意帳號活動,
-
9:17 - 9:20被用來影響選舉等等。
-
9:20 - 9:24這個例子是 Zignal 和我們分享的,
-
9:24 - 9:26他們使用來自推特的資料,
-
9:26 - 9:28各位可以看見,
-
9:28 - 9:33在這裡白色代表人——
人的帳戶,每一個點是一個帳戶。 -
9:33 - 9:34顏色越粉紅,
-
9:34 - 9:36就表示越多自動化的活動。
-
9:36 - 9:42可以看見有些人和機器人互動。
-
9:42 - 9:46在這個例子中,這些活動
和以色列大選有關, -
9:46 - 9:49散播關於本尼•甘茨的不實資訊,
-
9:49 - 9:52我們知道,
-
9:52 - 9:56最後尼坦雅胡以些微差距勝出,
-
9:56 - 9:59那結果可能受到推特的影響。
-
9:59 - 10:01想到這樣的事發生在推特,
-
10:01 - 10:04你會採取哪些明確的措施,
-
10:04 - 10:07以確保不會有錯誤資訊
藉此散播出去, -
10:07 - 10:12影響到大家,進而影響到民主?
-
10:12 - 10:13多:先倒帶一下,
-
10:13 - 10:16我們會自問:
-
10:16 - 10:20我們真的能測量良性對話的程度嗎?
-
10:20 - 10:22良性對話是什麼意思?
-
10:22 - 10:25就像你有指標,
-
10:25 - 10:28有指標可以表示人類是否健康,
-
10:28 - 10:33比如體溫、面色紅潤度,
-
10:33 - 10:38我們相信能找到良性對話的指標。
-
10:38 - 10:42我們和麻省理工學院的
Cortico 實驗室合作, -
10:42 - 10:49提出了四個初始指標,
-
10:49 - 10:52我們相信,最終能在系統中測量。
-
10:53 - 10:59第一個指標我們稱之為「共同焦點」。
-
10:59 - 11:00它計算的是:
-
11:00 - 11:05人們對話的主題是集中還是分散。
-
11:06 - 11:09第二個指標叫「共同依據」,
-
11:09 - 11:11它指的是對話有多少比例
-
11:12 - 11:14來自同樣的依據——
-
11:14 - 11:17不論那些依據是否屬實,
-
11:17 - 11:20只看我們對話時
是否有共同的依據。 -
11:20 - 11:23第三個指標是「接納歧見」:
-
11:23 - 11:27對話是否是開放、文明有禮的,
-
11:27 - 11:30或反過來說,是令人無法接受的?
-
11:30 - 11:33第四個指標是「多元觀點」。
-
11:33 - 11:37我們是否身處同溫層,或迴聲室?
-
11:37 - 11:40或我們真的能在對話中
-
11:40 - 11:41聽見多元的聲音?
-
11:41 - 11:45這四個指標蘊含的是:
-
11:45 - 11:49指標越是提升,對話越顯良性。
-
11:49 - 11:54第一步就是嘗試能否
實際測量這些指標, -
11:54 - 11:55我們相信是可行的。
-
11:55 - 11:58「接納歧見」的指標最有具動能。
-
11:58 - 12:03系統裡有不悅度分數及模型,
-
12:03 - 12:07它可以測量你是否有可能會離開
-
12:07 - 12:09你在推特上參與的對話,
-
12:09 - 12:11因為它讓你感到不悅,
-
12:11 - 12:13這個指標已達相當水準。
-
12:14 - 12:17我們正致力於其它指標的測量,
-
12:17 - 12:19下一步是,
-
12:19 - 12:22當我們在建立解決方案時,
-
12:22 - 12:25去觀察這些測量值的變化趨勢,
-
12:25 - 12:27並持續地實驗。
-
12:27 - 12:31目標是要確保這些
指標之間達到平衡, -
12:31 - 12:35因為如果有一項增加,
可能讓另一項減少。 -
12:35 - 12:37如果「多元觀點」提升了,
-
12:37 - 12:40同時亦可能減少「共同依據」。
-
12:40 - 12:45安:從湧入的問題中挑一個。
-
12:45 - 12:46多:不間斷的問題。
-
12:47 - 12:51安:很多人不明白,
-
12:51 - 12:55像是讓極端種族主義分子的言論
從推特上消失有多難? -
12:56 - 12:58多:(笑)
-
12:58 - 13:05針對暴力極端團體
我們有相關的政策, -
13:05 - 13:09我們主要的工作及服務條款
-
13:09 - 13:13是在處理行為,而非內容。
-
13:13 - 13:15所以我們其實在尋找特定行為。
-
13:15 - 13:18比如是使用服務
-
13:18 - 13:22來重覆或不定期騷擾某人,
-
13:22 - 13:25使用仇恨的意象,
-
13:25 - 13:27可能是與三 K 黨有關,
-
13:27 - 13:30或是美國納粹黨。
-
13:30 - 13:34那些都是我們可以立即處理的。
-
13:35 - 13:40目前的情況是大家
並不嚴謹地使用那個字, -
13:40 - 13:46我們實在無法只因為
那個字被提起一次, -
13:46 - 13:48就指控某個人
-
13:48 - 13:52說有事實證據指出
他應該被踢出平臺。 -
13:52 - 13:54我們許多模型的根據都是,第一:
-
13:54 - 13:58這個帳號和暴力極端團體有關聯嗎?
-
13:58 - 14:00如果有,我們就能採取行動。
-
14:00 - 14:03我們已對三 K 黨、美國
納粹黨,及其他團體施行。 -
14:03 - 14:08第二:他們是否也有採用
-
14:08 - 14:10和這些團體相關的意象或是行為?
-
14:10 - 14:13安:有多少員工負責審核內容
-
14:13 - 14:15以觀察這些行為?
-
14:15 - 14:16多:不一定。
-
14:16 - 14:18這方面我們想要保持彈性,
-
14:18 - 14:20因為我們想要確保,第一,
-
14:20 - 14:25我們要運用演算法,
而非僅透過大量人力, -
14:25 - 14:28因為我們必須確保
作法是可以大範圍使用的, -
14:28 - 14:31再多的人力也不足以大規模擴展。
-
14:31 - 14:38這是我們費盡心力做
主動偵測濫用的原因, -
14:38 - 14:39接著讓人類來審查。
-
14:39 - 14:42我們想要做到讓
-
14:42 - 14:46演算法能不斷搜索每一則推文,
-
14:46 - 14:48把最值得注意的推文置頂,
-
14:48 - 14:52這麼一來,人類可以去判斷
我們是否要採取行動, -
14:52 - 14:54依據服務條款來決定。
-
14:54 - 14:57羅:大量人力
對系統性擴展並無幫助, -
14:57 - 15:00但目前有多少人在監控這些帳戶?
-
15:00 - 15:03又如何判斷已經足夠了?
-
15:03 - 15:05多:這部分彈性很大。
-
15:05 - 15:08有時,我們讓大家去處理濫發廣告。
-
15:08 - 15:12有時,我們讓大家去處理辱罵和騷擾。
-
15:12 - 15:14我們要確保人員的彈性,
-
15:14 - 15:16讓我們可以把他們導到
最需要的地方, -
15:16 - 15:18有時,是選舉。
-
15:18 - 15:23在墨西哥有一連串的選舉,
印度馬上也會有一場選舉, -
15:23 - 15:28很顯然,還有去年的美國期中選舉,
-
15:28 - 15:30我們希望能夠彈性運用資源。
-
15:30 - 15:33所以,當人們——
-
15:33 - 15:39舉例,如果去看目前的服務條款,
-
15:39 - 15:41把網頁打開來,
-
15:41 - 15:44你會想說,你遭受到的辱罵和騷擾
-
15:44 - 15:48是否有違反我們的服務條款,
這樣你就可以舉報, -
15:48 - 15:51而你打開頁面之後首先看到的
-
15:51 - 15:54和智慧財產權保護有關。
-
15:55 - 16:00向下拉,就會看到辱罵、騷擾,
-
16:00 - 16:02及其他你可能經歷到的狀況。
-
16:02 - 16:05我不知道在公司歷史上
這是如何發展出來的, -
16:05 - 16:10但我們會把大家最需要的資訊
-
16:12 - 16:15拉到頁面上方,並真的採取行動。
-
16:15 - 16:21順序就是在昭告天下
我們的價值觀。 -
16:21 - 16:24我們在改變這些規則。
-
16:24 - 16:25我們在做正確的排序,
-
16:25 - 16:29但我們也把規則簡化,
讓人們容易閱讀, -
16:29 - 16:33讓大家能夠真的靠自己去瞭解
-
16:33 - 16:36什麼狀況和我們的條款
有抵觸,什麼狀況沒有。 -
16:36 - 16:38接著,我們在——
-
16:38 - 16:44同前述,我們很重視
不要讓受害者承擔。 -
16:44 - 16:47意味著採用更多技術,
-
16:47 - 16:49而不是讓人類來做這些工作——
-
16:49 - 16:52那包括了受到辱罵的人,
-
16:52 - 16:55以及要做審查工作的人。
-
16:55 - 16:56我們想要確保:
-
16:56 - 16:59我們並非只鼓勵花更多心力
-
16:59 - 17:02在極度負面的事物上,
-
17:02 - 17:07而是在運用科技及發揮
人類創意之間取得平衡, -
17:08 - 17:11像是人類對規則的判斷,
-
17:11 - 17:14而不只是所有機械化的方法
去找出、舉報它們。 -
17:14 - 17:15那是我們的看法。
-
17:15 - 17:18安:我想要進一步
討論你剛所說的。 -
17:18 - 17:21我很喜歡你說你們在想辦法
-
17:21 - 17:24重新調整系統的基本設計,
-
17:24 - 17:29來阻止一些反應性行為,也許——
-
17:29 - 17:32用崔斯坦.哈里斯的話說——
-
17:32 - 17:36促使大家做更多反思。
-
17:36 - 17:38這部分的進展如何?
-
17:38 - 17:42「喜歡」按鈕的替代方案會像什麼?
-
17:44 - 17:47多:首先,也是最重要的,
-
17:47 - 17:53對這項服務,我個人的
目標是,基本上我相信, -
17:53 - 17:56公眾對話是至關重要的。
-
17:56 - 17:58現今全世界一同
面臨攸關存亡的問題, -
17:58 - 18:02並不僅限於特定的民族國家,
-
18:02 - 18:05因此全球公眾對話能從中受益。
-
18:05 - 18:08那是推特的獨特動力之一,
-
18:08 - 18:09它是完全開放的、
-
18:09 - 18:11它是完全公開的、
-
18:11 - 18:12它是完全流動的、
-
18:12 - 18:16任何人都能看見並參與任何對話。
-
18:16 - 18:19有些話題是氣候變遷、
-
18:19 - 18:23有些話題是工作被人工智慧取代、
-
18:23 - 18:26有些話題是貧富差距。
-
18:26 - 18:29不論任何單一民族國家怎麼做,
-
18:29 - 18:32都無法獨自解決問題。
-
18:32 - 18:34需要全世界的協調,
-
18:34 - 18:37而我認為推特此時便能發揮影響力。
-
18:37 - 18:43第二,目前你去用推特時,
-
18:43 - 18:47你不見得會在離開時
覺得你獲得了新知。 -
18:47 - 18:48有些人會,
-
18:48 - 18:51有些人擁有非常豐沛的人脈、
-
18:51 - 18:54非常優質的社群,讓他們
每天都能從中學到東西。 -
18:54 - 18:58但要很多時間心力才能建立起來。
-
18:58 - 19:03我們想讓大家以更快的速度,
找到那些主題、興趣, -
19:03 - 19:06並確保他們能找到東西,
-
19:07 - 19:09不論人們花多少時間在推特,
-
19:09 - 19:11我想要最大化的
不是人們花在推特的時間, -
19:11 - 19:14而是人們從推特帶走的東西,
-
19:14 - 19:16讓人們學到東西……
-
19:18 - 19:19安:但你能這麼做嗎?
-
19:19 - 19:22那是許多人想知道的核心問題,
-
19:22 - 19:26當然,傑克,你受到
很大程度的限制, -
19:26 - 19:28因為你們是上市公司,
-
19:28 - 19:30你有來自投資者的壓力,
-
19:30 - 19:33廣告是最大的收入來源.
-
19:33 - 19:36那和使用者參與程度有關。
-
19:36 - 19:41必要的話,你是否願意
犧牲使用者停留時間, -
19:41 - 19:45來換取更具反思性的談話?
-
19:45 - 19:48多:會,若高相關性
意味更短的停留時間, -
19:48 - 19:50那完全沒問題,
-
19:50 - 19:53因為我們想要確保的是,
當你上了推特, -
19:53 - 19:57可以馬上看到某樣東西,
能從中學習,並會轉推。 -
19:57 - 20:01我們仍然能於此情境下搭配廣告。
-
20:01 - 20:03那並不表示需要
花更多時間、看更多東西。 -
20:03 - 20:05我們在研究的第二件事——
-
20:05 - 20:08安:單就那個目標,
每日活躍使用量, -
20:08 - 20:11如果你要測量它,它並不見得是
-
20:11 - 20:13人們真正重視的價值。
-
20:13 - 20:14它也有可能是
-
20:14 - 20:18能把大家像是飛蛾撲火般
吸引過去的東西。 -
20:18 - 20:21我們會上癮,是因為
看到惹毛我們的東西, -
20:21 - 20:24我們就會上推特,去火上加油,
-
20:24 - 20:26而每日活躍使用量就會上升,
-
20:26 - 20:28那就是更多的廣告收入,
-
20:28 - 20:30但大家對彼此更生氣。
-
20:30 - 20:33你要如何定義……
-
20:33 - 20:37若要最佳化「每日活躍
使用量」,似乎挺危險的。 -
20:37 - 20:42(掌聲)
-
20:42 - 20:43多:單獨看的確是,
-
20:44 - 20:46但你還沒讓我講完另一項度量,
-
20:46 - 20:52那就是,我們在留意對話及對話鏈。
-
20:52 - 20:57我們想要提供不同的激勵,
讓良性對話回這個平臺, -
20:57 - 21:02並鼓勵人們參與良性對話,
-
21:02 - 21:07所謂的良性,就是由
前述的四個指標所定義。 -
21:07 - 21:10不能只將一項度量給最佳化。
-
21:10 - 21:13得要平衡,且經常要注意
-
21:13 - 21:17什麼能夠對這個網路
創造出良性的貢獻, -
21:17 - 21:19為大家創造正向的體驗。
-
21:19 - 21:21最終我們想要達到的標準是
-
21:21 - 21:25大家能告訴我們:「嘿,
我從推特學到了些東西, -
21:25 - 21:27我帶著有價值的東西離開。」
-
21:27 - 21:29那是我們的最終目標,
-
21:29 - 21:31但那會花不少時間。
-
21:31 - 21:36安:對許多人來說你是個謎,
對我來說是如此。 -
21:36 - 21:41這樣說可能不公平,
但有天晚上我醒來, -
21:41 - 21:45腦中的畫面是我
想著你和目前的狀態, -
21:45 - 21:48我們和你一同航向偉大的旅程,
-
21:48 - 21:52在艘名為「推達尼號」的船上,
-
21:52 - 21:53(笑聲)
-
21:53 - 21:57船上有些在最低價艙等的人,
-
21:57 - 22:00他們表示感到不舒服,
-
22:00 - 22:02而你和其他船長不同,
-
22:02 - 22:06你說:「告訴我,跟我說,
聽我說,我想要知道。」 -
22:06 - 22:09他們跟你談,他們說:
「我們很擔心前面的冰山。」 -
22:09 - 22:11你說:「那是很有力的論點,
-
22:11 - 22:14老實說,我們的船並沒有妥善製造,
-
22:14 - 22:16無法操作得如預期理想。」
-
22:16 - 22:17我們說:「請做些什麼。」
-
22:17 - 22:19你到了駕駛臺,
-
22:19 - 22:21我們在等待,
-
22:21 - 22:26我們看著,你表現出超凡的冷靜,
-
22:26 - 22:30但我們都站在外面說:
「傑克,轉那他媽的舵!」 -
22:30 - 22:31你知道嗎?
-
22:31 - 22:32(笑聲)
-
22:32 - 22:34(掌聲)
-
22:34 - 22:36我是說——
-
22:36 - 22:37(掌聲)
-
22:40 - 22:42民主岌岌可危。
-
22:42 - 22:45我們的文化和世界岌岌可危。
-
22:45 - 22:50推特很了不起且有極大的影響力。
-
22:50 - 22:52或許它不比其他的平臺大,
-
22:52 - 22:55但有影響力的人用它來排定議程,
-
22:55 - 23:01很難想像世界上
還有更重要的角色, -
23:02 - 23:04我是指,傑克,你在
傾聽這方面做得很出色, -
23:04 - 23:10但正視其急迫性
並努力推動改變—— -
23:10 - 23:12你願意這麼做嗎?
-
23:13 - 23:17多:會的,我們已取得
一些實質進展。 -
23:17 - 23:19推特經歷過一些巨變。
-
23:19 - 23:24當我重回公司時,
-
23:24 - 23:30我們未來的處境非常危急,
-
23:30 - 23:35不僅是因為人們
使用這個平臺的方法, -
23:35 - 23:37還因為公司結構的問題。
-
23:37 - 23:40所以我們得改變一些公司基礎,
-
23:40 - 23:42轉變公司的方向,
-
23:42 - 23:45歷經兩次瘋狂的裁員,
-
23:45 - 23:49因為當時做的太多,
-
23:49 - 23:51我們將工作重心
-
23:51 - 23:54放在為公眾對話服務上。
-
23:54 - 23:56這花了一些心力。
-
23:56 - 23:59當我們開始深入探討時,
-
23:59 - 24:03我們意識到一些根本性的問題。
-
24:03 - 24:07為了達成你所說的目的,
可以採取一些表面功夫, -
24:07 - 24:09但我們需要可長可久的變革,
-
24:09 - 24:12而這意味著必須非常深入,
-
24:12 - 24:16並觀察我們 13 年前建立的東西,
-
24:16 - 24:18並且反思檢視:
-
24:18 - 24:22這個系統和框架是怎樣運作的,
-
24:22 - 24:25現今社會需要的是什麼,
-
24:25 - 24:29考慮到世界變化之快
和人們使用它的方法。 -
24:29 - 24:32我們已經快馬加鞭了,
-
24:32 - 24:35但「快」對完成任務並無幫助。
-
24:35 - 24:38重要的是:專注、優先順序、
-
24:38 - 24:41對網路之基礎的理解,
-
24:41 - 24:46建構可以靈活變動、適應變化的機制。
-
24:47 - 24:51並對進度開誠布公,
-
24:51 - 24:53這樣我們才能繼續贏得人們的信任。
-
24:53 - 24:57我對已經投入執行的機制感到自豪、
-
24:57 - 25:01我對我們選定的前進方向感到自豪。
-
25:01 - 25:04顯然我們可以再加緊腳步,
-
25:04 - 25:08但這包含放棄過去
一連串愚蠢的決定。 -
25:09 - 25:10安:好的。
-
25:10 - 25:14我想如果有機會的話,在場很多人
-
25:14 - 25:18都樂意協助你完成這一項重大改變,
-
25:18 - 25:20惠特尼是否還有問題——
-
25:20 - 25:23傑克,感謝你能來與我們
開誠布公地討論。 -
25:23 - 25:24這需要勇氣。
-
25:24 - 25:28我很欣賞你剛所說的,
祝你好運完成任務。 -
25:28 - 25:30多:非常感謝。謝謝你們邀請我。
-
25:30 - 25:32(掌聲)
-
25:33 - 25:34謝謝。
- Title:
- 推特需要如何調整
- Speaker:
- 傑克・多爾西
- Description:
-
推特還有得救嗎?在這場包含廣泛議題的對話中.TED 的克里斯•安德森、惠妮•潘尼頓•羅傑斯,和推特的執行長傑克•多爾西一同討論平臺的未來,點出問題包含:騷擾、內容審核及對於基礎原則改變的提議,希望能夠鼓勵良性、尊重的對話。多爾西問到,我們提供的服務是否呼應人們所重視的價值?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
Marssi Draw edited Chinese, Traditional subtitles for How Twitter needs to change | ||
Marssi Draw edited Chinese, Traditional subtitles for How Twitter needs to change | ||
Marssi Draw approved Chinese, Traditional subtitles for How Twitter needs to change | ||
Marssi Draw edited Chinese, Traditional subtitles for How Twitter needs to change | ||
Marssi Draw edited Chinese, Traditional subtitles for How Twitter needs to change | ||
Xiaowei Dong accepted Chinese, Traditional subtitles for How Twitter needs to change | ||
Xiaowei Dong edited Chinese, Traditional subtitles for How Twitter needs to change | ||
Marssi Draw rejected Chinese, Traditional subtitles for How Twitter needs to change |