Return to Video

推特需要如何調整

  • 0:01 - 0:04
    克里斯•安德森(安):
    你目前擔心的是什麼?
  • 0:04 - 0:06
    你對許多推特爭議持開放的態度。
  • 0:06 - 0:11
    對於現狀你最擔心的是什麼?
  • 0:11 - 0:14
    傑克•多爾西(多):
    目前擔心對話是否良性。
  • 0:14 - 0:18
    我們致力於為公眾提供對話平臺,
  • 0:18 - 0:23
    但也看到對此的攻擊不斷。
  • 0:23 - 0:28
    像是那些濫用、騷擾、操弄、
  • 0:29 - 0:33
    自動化、人類協作、錯誤資訊。
  • 0:34 - 0:42
    這並非 13 年前我們
    創立時,所預期的變化。
  • 0:42 - 0:45
    但這些現象現已不容小覷,
  • 0:45 - 0:49
    而最讓我擔心的是,我們是否有能力
  • 0:49 - 0:53
    大規模、系統性地處理這些狀況,
  • 0:53 - 0:57
    能有一套嚴謹的系統、
  • 0:57 - 1:03
    透徹地瞭解我們該如何採取行動,
  • 1:03 - 1:06
    當我們犯錯時,
    也有嚴謹的上訴程序,
  • 1:06 - 1:08
    因為我們一定會犯錯。
  • 1:09 - 1:11
    惠妮•潘尼頓•羅傑斯(羅):
    我很高興聽到
  • 1:11 - 1:12
    你關心這個議題,
  • 1:12 - 1:14
    因為常看到有人寫到
  • 1:14 - 1:17
    他們覺得自己在推特上
    被辱罵和騷擾,
  • 1:17 - 1:22
    最常遇到這種事的
    就是女性、有色人種女性
  • 1:22 - 1:23
    和黑人女性。
  • 1:23 - 1:25
    已經有些資料顯示——
  • 1:25 - 1:28
    幾個月前,國際特赦組織發表報告,
  • 1:28 - 1:33
    報告顯示,部分活躍使用
    推特的黑人女性中,
  • 1:33 - 1:36
    平均每十則回覆中就有一則
  • 1:36 - 1:38
    是某種形式的騷擾。
  • 1:38 - 1:42
    當想到推特社群的良性發展,
  • 1:42 - 1:46
    我很想要聽到「人人良性對話」,
  • 1:46 - 1:49
    但明確地說:你打算如何
    將推特變成安全的空間,
  • 1:49 - 1:54
    尤其是對那些少數,包含女性、
    有色人種的女性及黑人女性而言?
  • 1:54 - 1:55
    多:是的。
  • 1:55 - 1:57
    這是個很糟的情況,
  • 1:57 - 1:59
    當你使用一項服務,
  • 1:59 - 2:03
    理想情況下,
    只是想了解世界資訊,
  • 2:03 - 2:09
    但你卻花了多數的時間於:
    檢舉或受到辱罵、
  • 2:09 - 2:11
    被人騷擾。
  • 2:11 - 2:17
    我們在探究的是
  • 2:17 - 2:22
    由平臺及服務所產生的誘因。
  • 2:22 - 2:25
    目前系統的互動模式,讓使用者
  • 2:25 - 2:31
    被輕易地利用來騷擾和辱罵他人,
  • 2:31 - 2:34
    不幸的是,過去系統的運作,
  • 2:34 - 2:39
    絕大部分都依賴使用者
    主動檢舉騷擾以及濫用。
  • 2:39 - 2:45
    大約在去年,
    我們決定針對這個問題
  • 2:45 - 2:49
    採用更多的機器學習、深度學習,
  • 2:49 - 2:53
    並嘗試在發生濫用前先發制人,
  • 2:53 - 2:57
    替受害者完全卸下負擔。
  • 2:57 - 3:00
    最近我們有些進展。
  • 3:00 - 3:05
    機器學習演算法可以主動找出
  • 3:05 - 3:08
    大約 38% 的濫用推文,
  • 3:08 - 3:10
    使用者不需要主動檢舉這些推文。
  • 3:10 - 3:14
    但被識別出來的濫用推文
    會再由人工複審,
  • 3:14 - 3:19
    在人工複審前,我們不會
    刪除任何的推文或帳號。
  • 3:19 - 3:22
    這比一年前的 0% 大有進步。
  • 3:22 - 3:24
    意思就是,在 0% 時,
  • 3:24 - 3:28
    每個收到辱罵的人都得主動檢舉,
  • 3:28 - 3:31
    對他們和我們來說都很麻煩,
  • 3:31 - 3:33
    歸根究柢就是很不公平。
  • 3:35 - 3:38
    我們做的另外一件事
    是確保作為一個企業
  • 3:38 - 3:42
    被服務的所有群體皆有其代表。
  • 3:42 - 3:44
    我們要打造一個成功的企業,
  • 3:44 - 3:46
    內部就必須擁有多元觀點,
  • 3:46 - 3:51
    且每天都深切地體會這些爭議。
  • 3:51 - 3:55
    不只是前端負責
    執行的團隊要夠多元,
  • 3:55 - 3:57
    領導階層也一樣。
  • 3:57 - 4:03
    我們要對人們的感受保有同理心
  • 4:03 - 4:06
    並為客戶提供更好的工具,
  • 4:06 - 4:10
    還有更優質、更簡易的方法,
  • 4:10 - 4:13
    來處理他們所目睹的事情。
  • 4:13 - 4:16
    我們做的事大多環繞著科技,
  • 4:16 - 4:20
    但我們也在研究因服務產生的誘因:
  • 4:20 - 4:25
    當你一打開推特,
    它誘使你去做什麼?
  • 4:25 - 4:27
    在過去,
  • 4:29 - 4:37
    推特誘導了許多紛爭、
    暴行、集體騷擾。
  • 4:37 - 4:42
    我們得更深入地探討
    服務內容的本質,
  • 4:42 - 4:43
    才能做重大調整。
  • 4:43 - 4:47
    我們可以在技術上
    做許多小改變,如剛所敘,
  • 4:47 - 4:52
    但最終我們得更深入
    觀察網絡裡的動態,
  • 4:52 - 4:53
    那正是我們在做的。
  • 4:53 - 4:55
    安:你的看法是什麼——
  • 4:55 - 4:59
    你可能做出什麼樣的改變,
  • 4:59 - 5:02
    才能從根本上改變使用者行為呢?
  • 5:03 - 5:05
    多:其中一樣——
  • 5:05 - 5:09
    舉例來說,我們推出了一種服務,
  • 5:09 - 5:12
    概念是跟隨帳號,
  • 5:12 - 5:16
    我不認為這是大家
    使用推特的原因。
  • 5:16 - 5:21
    我認為推特最好定位為
    以興趣為基礎的網絡。
  • 5:21 - 5:25
    大家因為某種特定的興趣而來。
  • 5:25 - 5:28
    他們得要花很多心力
    才能找到並跟隨
  • 5:28 - 5:30
    和那些興趣相關的帳號。
  • 5:30 - 5:34
    我們可以換一種方式,
    讓你跟隨一種興趣,
  • 5:34 - 5:36
    跟隨一個「#主題標籤」、一種趨勢、
  • 5:36 - 5:38
    跟隨一個社群,
  • 5:38 - 5:42
    這樣我們就有機會
    呈現所有相關的帳號、
  • 5:42 - 5:46
    所有相關的主題、時刻、「#主題標籤」,
  • 5:46 - 5:50
    只要是和那個主題及興趣
    有關的都會呈現出來,
  • 5:50 - 5:54
    這真的能夠開拓你的視野。
  • 5:54 - 5:56
    但這樣大幅度的結構性轉變
  • 5:56 - 6:00
    讓整個平臺從偏重於帳號
  • 6:00 - 6:03
    轉而偏向於主題和興趣 。
  • 6:03 - 6:06
    安:現實情況不是這樣的嗎?
  • 6:07 - 6:11
    推特之所以有那麼多內容的原因之一
  • 6:11 - 6:15
    不就是將全世界幾百萬人放在一個
  • 6:15 - 6:18
    類似競技場式的比賽
  • 6:18 - 6:20
    去競爭跟隨者、關注?
  • 6:20 - 6:24
    對只看而不發推特的人來說,
  • 6:24 - 6:25
    這不是問題,
  • 6:25 - 6:29
    但對創造內容的人而言,
    許多人會說:
  • 6:29 - 6:32
    「我真希望有多一點
    喜歡、跟隨者、轉推。」
  • 6:32 - 6:34
    所以他們經常在做實驗,
  • 6:34 - 6:36
    試著找出方法達到目的。
  • 6:36 - 6:40
    而我們所發現的是最常見途徑就是:
  • 6:40 - 6:44
    帶有挑釁成分的、
  • 6:44 - 6:47
    罵起人來頭頭是道,
  • 6:47 - 6:50
    彷彿,頭頭是道的辱罵,
    是人們在推特的目標。
  • 6:50 - 6:53
    這樣便能快速傳播——
  • 6:53 - 6:57
    而這變成一種導致憤怒的惡性循環。
  • 6:57 - 7:00
    你要如何平息這個狀況?
  • 7:01 - 7:04
    多:是的,你切中核心,
  • 7:04 - 7:05
    但這又回到誘因。
  • 7:06 - 7:08
    在早期,我們所做的選擇之一
  • 7:08 - 7:13
    就是突出你的跟隨者人數。
  • 7:13 - 7:16
    我們決定讓那個數字
    要用粗體大字呈現,
  • 7:16 - 7:20
    網頁上只要用到粗體大字,
    通常都是重要的,
  • 7:20 - 7:22
    那些就會是你想要追求的東西。
  • 7:22 - 7:24
    在那時,那個決策正確嗎?
  • 7:24 - 7:25
    可能不正確。
  • 7:25 - 7:27
    如果能重頭來過,
  • 7:27 - 7:29
    我不會這麼強調跟隨者人數。
  • 7:29 - 7:32
    我不會這麼強調「喜歡」的數目。
  • 7:32 - 7:35
    我甚至根本不會創造
    「喜歡」這個功能,
  • 7:35 - 7:38
    因為這個功能無法真的
  • 7:38 - 7:41
    推動我們現在最重要的理念,
  • 7:41 - 7:44
    也就是對網路做良性的回饋貢獻,
  • 7:44 - 7:47
    以及與網路對話、
  • 7:47 - 7:49
    參與對話,
  • 7:49 - 7:52
    從對話中學習。
  • 7:52 - 7:54
    我們 13 年前沒有想到這些,
  • 7:54 - 7:57
    現在我們認為這些非常重要。
  • 7:57 - 8:00
    所以我們得要研究
    如何呈現跟隨者人數、
  • 8:00 - 8:02
    如何呈現轉推數,
  • 8:02 - 8:04
    如何呈現「喜歡」,
  • 8:04 - 8:06
    並深思:
  • 8:06 - 8:09
    我們真的希望大家
    把這個數字衝高嗎?
  • 8:09 - 8:12
    我們真的希望當你打開推特時,
  • 8:12 - 8:14
    你會說「我得要增加這個數字」嗎?
  • 8:14 - 8:16
    我不認為是這樣的。
  • 8:16 - 8:19
    (掌聲)
  • 8:19 - 8:24
    羅:我們來看一些觀眾的推文。
  • 8:24 - 8:26
    安:來看看大家想問什麼。
  • 8:26 - 8:30
    一般來說,這是推特
    很棒的優點之一,
  • 8:30 - 8:32
    可以把它用在群眾智慧上,
  • 8:32 - 8:37
    像是:更多知識、問題、觀點,
  • 8:37 - 8:38
    超越想像,
  • 8:38 - 8:42
    有時,許多內容是非常良性的。
  • 8:42 - 8:45
    羅:有一則訊息進來:
  • 8:45 - 8:48
    「推特對抗外國干預 2020 年
    美國大選的計畫是什麼?」
  • 8:48 - 8:51
    這是我們在網路上
  • 8:51 - 8:53
    一般都會看見的議題,
  • 8:53 - 8:56
    有許多惡意的、自動化的活動。
  • 8:56 - 9:02
    在推特上,比如,我們有
  • 9:02 - 9:05
    我們的朋友 Zignal 實驗室的作品,
  • 9:05 - 9:07
    也許我們能以此為例,
  • 9:07 - 9:09
    闡述我的觀點,
  • 9:09 - 9:12
    有些機器人,
  • 9:12 - 9:17
    或自動化協同的惡意帳號活動,
  • 9:17 - 9:20
    被用來影響選舉等等。
  • 9:20 - 9:24
    這個例子是 Zignal 和我們分享的,
  • 9:24 - 9:26
    他們使用來自推特的資料,
  • 9:26 - 9:28
    各位可以看見,
  • 9:28 - 9:33
    在這裡白色代表人——
    人的帳戶,每一個點是一個帳戶。
  • 9:33 - 9:34
    顏色越粉紅,
  • 9:34 - 9:36
    就表示越多自動化的活動。
  • 9:36 - 9:42
    可以看見有些人和機器人互動。
  • 9:42 - 9:46
    在這個例子中,這些活動
    和以色列大選有關,
  • 9:46 - 9:49
    散播關於本尼•甘茨的不實資訊,
  • 9:49 - 9:52
    我們知道,
  • 9:52 - 9:56
    最後尼坦雅胡以些微差距勝出,
  • 9:56 - 9:59
    那結果可能受到推特的影響。
  • 9:59 - 10:01
    想到這樣的事發生在推特,
  • 10:01 - 10:04
    你會採取哪些明確的措施,
  • 10:04 - 10:07
    以確保不會有錯誤資訊
    藉此散播出去,
  • 10:07 - 10:12
    影響到大家,進而影響到民主?
  • 10:12 - 10:13
    多:先倒帶一下,
  • 10:13 - 10:16
    我們會自問:
  • 10:16 - 10:20
    我們真的能測量良性對話的程度嗎?
  • 10:20 - 10:22
    良性對話是什麼意思?
  • 10:22 - 10:25
    就像你有指標,
  • 10:25 - 10:28
    有指標可以表示人類是否健康,
  • 10:28 - 10:33
    比如體溫、面色紅潤度,
  • 10:33 - 10:38
    我們相信能找到良性對話的指標。
  • 10:38 - 10:42
    我們和麻省理工學院的
    Cortico 實驗室合作,
  • 10:42 - 10:49
    提出了四個初始指標,
  • 10:49 - 10:52
    我們相信,最終能在系統中測量。
  • 10:53 - 10:59
    第一個指標我們稱之為「共同焦點」。
  • 10:59 - 11:00
    它計算的是:
  • 11:00 - 11:05
    人們對話的主題是集中還是分散。
  • 11:06 - 11:09
    第二個指標叫「共同依據」,
  • 11:09 - 11:11
    它指的是對話有多少比例
  • 11:12 - 11:14
    來自同樣的依據——
  • 11:14 - 11:17
    不論那些依據是否屬實,
  • 11:17 - 11:20
    只看我們對話時
    是否有共同的依據。
  • 11:20 - 11:23
    第三個指標是「接納歧見」:
  • 11:23 - 11:27
    對話是否是開放、文明有禮的,
  • 11:27 - 11:30
    或反過來說,是令人無法接受的?
  • 11:30 - 11:33
    第四個指標是「多元觀點」。
  • 11:33 - 11:37
    我們是否身處同溫層,或迴聲室?
  • 11:37 - 11:40
    或我們真的能在對話中
  • 11:40 - 11:41
    聽見多元的聲音?
  • 11:41 - 11:45
    這四個指標蘊含的是:
  • 11:45 - 11:49
    指標越是提升,對話越顯良性。
  • 11:49 - 11:54
    第一步就是嘗試能否
    實際測量這些指標,
  • 11:54 - 11:55
    我們相信是可行的。
  • 11:55 - 11:58
    「接納歧見」的指標最有具動能。
  • 11:58 - 12:03
    系統裡有不悅度分數及模型,
  • 12:03 - 12:07
    它可以測量你是否有可能會離開
  • 12:07 - 12:09
    你在推特上參與的對話,
  • 12:09 - 12:11
    因為它讓你感到不悅,
  • 12:11 - 12:13
    這個指標已達相當水準。
  • 12:14 - 12:17
    我們正致力於其它指標的測量,
  • 12:17 - 12:19
    下一步是,
  • 12:19 - 12:22
    當我們在建立解決方案時,
  • 12:22 - 12:25
    去觀察這些測量值的變化趨勢,
  • 12:25 - 12:27
    並持續地實驗。
  • 12:27 - 12:31
    目標是要確保這些
    指標之間達到平衡,
  • 12:31 - 12:35
    因為如果有一項增加,
    可能讓另一項減少。
  • 12:35 - 12:37
    如果「多元觀點」提升了,
  • 12:37 - 12:40
    同時亦可能減少「共同依據」。
  • 12:40 - 12:45
    安:從湧入的問題中挑一個。
  • 12:45 - 12:46
    多:不間斷的問題。
  • 12:47 - 12:51
    安:很多人不明白,
  • 12:51 - 12:55
    像是讓極端種族主義分子的言論
    從推特上消失有多難?
  • 12:56 - 12:58
    多:(笑)
  • 12:58 - 13:05
    針對暴力極端團體
    我們有相關的政策,
  • 13:05 - 13:09
    我們主要的工作及服務條款
  • 13:09 - 13:13
    是在處理行為,而非內容。
  • 13:13 - 13:15
    所以我們其實在尋找特定行為。
  • 13:15 - 13:18
    比如是使用服務
  • 13:18 - 13:22
    來重覆或不定期騷擾某人,
  • 13:22 - 13:25
    使用仇恨的意象,
  • 13:25 - 13:27
    可能是與三 K 黨有關,
  • 13:27 - 13:30
    或是美國納粹黨。
  • 13:30 - 13:34
    那些都是我們可以立即處理的。
  • 13:35 - 13:40
    目前的情況是大家
    並不嚴謹地使用那個字,
  • 13:40 - 13:46
    我們實在無法只因為
    那個字被提起一次,
  • 13:46 - 13:48
    就指控某個人
  • 13:48 - 13:52
    說有事實證據指出
    他應該被踢出平臺。
  • 13:52 - 13:54
    我們許多模型的根據都是,第一:
  • 13:54 - 13:58
    這個帳號和暴力極端團體有關聯嗎?
  • 13:58 - 14:00
    如果有,我們就能採取行動。
  • 14:00 - 14:03
    我們已對三 K 黨、美國
    納粹黨,及其他團體施行。
  • 14:03 - 14:08
    第二:他們是否也有採用
  • 14:08 - 14:10
    和這些團體相關的意象或是行為?
  • 14:10 - 14:13
    安:有多少員工負責審核內容
  • 14:13 - 14:15
    以觀察這些行為?
  • 14:15 - 14:16
    多:不一定。
  • 14:16 - 14:18
    這方面我們想要保持彈性,
  • 14:18 - 14:20
    因為我們想要確保,第一,
  • 14:20 - 14:25
    我們要運用演算法,
    而非僅透過大量人力,
  • 14:25 - 14:28
    因為我們必須確保
    作法是可以大範圍使用的,
  • 14:28 - 14:31
    再多的人力也不足以大規模擴展。
  • 14:31 - 14:38
    這是我們費盡心力做
    主動偵測濫用的原因,
  • 14:38 - 14:39
    接著讓人類來審查。
  • 14:39 - 14:42
    我們想要做到讓
  • 14:42 - 14:46
    演算法能不斷搜索每一則推文,
  • 14:46 - 14:48
    把最值得注意的推文置頂,
  • 14:48 - 14:52
    這麼一來,人類可以去判斷
    我們是否要採取行動,
  • 14:52 - 14:54
    依據服務條款來決定。
  • 14:54 - 14:57
    羅:大量人力
    對系統性擴展並無幫助,
  • 14:57 - 15:00
    但目前有多少人在監控這些帳戶?
  • 15:00 - 15:03
    又如何判斷已經足夠了?
  • 15:03 - 15:05
    多:這部分彈性很大。
  • 15:05 - 15:08
    有時,我們讓大家去處理濫發廣告。
  • 15:08 - 15:12
    有時,我們讓大家去處理辱罵和騷擾。
  • 15:12 - 15:14
    我們要確保人員的彈性,
  • 15:14 - 15:16
    讓我們可以把他們導到
    最需要的地方,
  • 15:16 - 15:18
    有時,是選舉。
  • 15:18 - 15:23
    在墨西哥有一連串的選舉,
    印度馬上也會有一場選舉,
  • 15:23 - 15:28
    很顯然,還有去年的美國期中選舉,
  • 15:28 - 15:30
    我們希望能夠彈性運用資源。
  • 15:30 - 15:33
    所以,當人們——
  • 15:33 - 15:39
    舉例,如果去看目前的服務條款,
  • 15:39 - 15:41
    把網頁打開來,
  • 15:41 - 15:44
    你會想說,你遭受到的辱罵和騷擾
  • 15:44 - 15:48
    是否有違反我們的服務條款,
    這樣你就可以舉報,
  • 15:48 - 15:51
    而你打開頁面之後首先看到的
  • 15:51 - 15:54
    和智慧財產權保護有關。
  • 15:55 - 16:00
    向下拉,就會看到辱罵、騷擾,
  • 16:00 - 16:02
    及其他你可能經歷到的狀況。
  • 16:02 - 16:05
    我不知道在公司歷史上
    這是如何發展出來的,
  • 16:05 - 16:10
    但我們會把大家最需要的資訊
  • 16:12 - 16:15
    拉到頁面上方,並真的採取行動。
  • 16:15 - 16:21
    順序就是在昭告天下
    我們的價值觀。
  • 16:21 - 16:24
    我們在改變這些規則。
  • 16:24 - 16:25
    我們在做正確的排序,
  • 16:25 - 16:29
    但我們也把規則簡化,
    讓人們容易閱讀,
  • 16:29 - 16:33
    讓大家能夠真的靠自己去瞭解
  • 16:33 - 16:36
    什麼狀況和我們的條款
    有抵觸,什麼狀況沒有。
  • 16:36 - 16:38
    接著,我們在——
  • 16:38 - 16:44
    同前述,我們很重視
    不要讓受害者承擔。
  • 16:44 - 16:47
    意味著採用更多技術,
  • 16:47 - 16:49
    而不是讓人類來做這些工作——
  • 16:49 - 16:52
    那包括了受到辱罵的人,
  • 16:52 - 16:55
    以及要做審查工作的人。
  • 16:55 - 16:56
    我們想要確保:
  • 16:56 - 16:59
    我們並非只鼓勵花更多心力
  • 16:59 - 17:02
    在極度負面的事物上,
  • 17:02 - 17:07
    而是在運用科技及發揮
    人類創意之間取得平衡,
  • 17:08 - 17:11
    像是人類對規則的判斷,
  • 17:11 - 17:14
    而不只是所有機械化的方法
    去找出、舉報它們。
  • 17:14 - 17:15
    那是我們的看法。
  • 17:15 - 17:18
    安:我想要進一步
    討論你剛所說的。
  • 17:18 - 17:21
    我很喜歡你說你們在想辦法
  • 17:21 - 17:24
    重新調整系統的基本設計,
  • 17:24 - 17:29
    來阻止一些反應性行為,也許——
  • 17:29 - 17:32
    用崔斯坦.哈里斯的話說——
  • 17:32 - 17:36
    促使大家做更多反思。
  • 17:36 - 17:38
    這部分的進展如何?
  • 17:38 - 17:42
    「喜歡」按鈕的替代方案會像什麼?
  • 17:44 - 17:47
    多:首先,也是最重要的,
  • 17:47 - 17:53
    對這項服務,我個人的
    目標是,基本上我相信,
  • 17:53 - 17:56
    公眾對話是至關重要的。
  • 17:56 - 17:58
    現今全世界一同
    面臨攸關存亡的問題,
  • 17:58 - 18:02
    並不僅限於特定的民族國家,
  • 18:02 - 18:05
    因此全球公眾對話能從中受益。
  • 18:05 - 18:08
    那是推特的獨特動力之一,
  • 18:08 - 18:09
    它是完全開放的、
  • 18:09 - 18:11
    它是完全公開的、
  • 18:11 - 18:12
    它是完全流動的、
  • 18:12 - 18:16
    任何人都能看見並參與任何對話。
  • 18:16 - 18:19
    有些話題是氣候變遷、
  • 18:19 - 18:23
    有些話題是工作被人工智慧取代、
  • 18:23 - 18:26
    有些話題是貧富差距。
  • 18:26 - 18:29
    不論任何單一民族國家怎麼做,
  • 18:29 - 18:32
    都無法獨自解決問題。
  • 18:32 - 18:34
    需要全世界的協調,
  • 18:34 - 18:37
    而我認為推特此時便能發揮影響力。
  • 18:37 - 18:43
    第二,目前你去用推特時,
  • 18:43 - 18:47
    你不見得會在離開時
    覺得你獲得了新知。
  • 18:47 - 18:48
    有些人會,
  • 18:48 - 18:51
    有些人擁有非常豐沛的人脈、
  • 18:51 - 18:54
    非常優質的社群,讓他們
    每天都能從中學到東西。
  • 18:54 - 18:58
    但要很多時間心力才能建立起來。
  • 18:58 - 19:03
    我們想讓大家以更快的速度,
    找到那些主題、興趣,
  • 19:03 - 19:06
    並確保他們能找到東西,
  • 19:07 - 19:09
    不論人們花多少時間在推特,
  • 19:09 - 19:11
    我想要最大化的
    不是人們花在推特的時間,
  • 19:11 - 19:14
    而是人們從推特帶走的東西,
  • 19:14 - 19:16
    讓人們學到東西……
  • 19:18 - 19:19
    安:但你能這麼做嗎?
  • 19:19 - 19:22
    那是許多人想知道的核心問題,
  • 19:22 - 19:26
    當然,傑克,你受到
    很大程度的限制,
  • 19:26 - 19:28
    因為你們是上市公司,
  • 19:28 - 19:30
    你有來自投資者的壓力,
  • 19:30 - 19:33
    廣告是最大的收入來源.
  • 19:33 - 19:36
    那和使用者參與程度有關。
  • 19:36 - 19:41
    必要的話,你是否願意
    犧牲使用者停留時間,
  • 19:41 - 19:45
    來換取更具反思性的談話?
  • 19:45 - 19:48
    多:會,若高相關性
    意味更短的停留時間,
  • 19:48 - 19:50
    那完全沒問題,
  • 19:50 - 19:53
    因為我們想要確保的是,
    當你上了推特,
  • 19:53 - 19:57
    可以馬上看到某樣東西,
    能從中學習,並會轉推。
  • 19:57 - 20:01
    我們仍然能於此情境下搭配廣告。
  • 20:01 - 20:03
    那並不表示需要
    花更多時間、看更多東西。
  • 20:03 - 20:05
    我們在研究的第二件事——
  • 20:05 - 20:08
    安:單就那個目標,
    每日活躍使用量,
  • 20:08 - 20:11
    如果你要測量它,它並不見得是
  • 20:11 - 20:13
    人們真正重視的價值。
  • 20:13 - 20:14
    它也有可能是
  • 20:14 - 20:18
    能把大家像是飛蛾撲火般
    吸引過去的東西。
  • 20:18 - 20:21
    我們會上癮,是因為
    看到惹毛我們的東西,
  • 20:21 - 20:24
    我們就會上推特,去火上加油,
  • 20:24 - 20:26
    而每日活躍使用量就會上升,
  • 20:26 - 20:28
    那就是更多的廣告收入,
  • 20:28 - 20:30
    但大家對彼此更生氣。
  • 20:30 - 20:33
    你要如何定義……
  • 20:33 - 20:37
    若要最佳化「每日活躍
    使用量」,似乎挺危險的。
  • 20:37 - 20:42
    (掌聲)
  • 20:42 - 20:43
    多:單獨看的確是,
  • 20:44 - 20:46
    但你還沒讓我講完另一項度量,
  • 20:46 - 20:52
    那就是,我們在留意對話及對話鏈。
  • 20:52 - 20:57
    我們想要提供不同的激勵,
    讓良性對話回這個平臺,
  • 20:57 - 21:02
    並鼓勵人們參與良性對話,
  • 21:02 - 21:07
    所謂的良性,就是由
    前述的四個指標所定義。
  • 21:07 - 21:10
    不能只將一項度量給最佳化。
  • 21:10 - 21:13
    得要平衡,且經常要注意
  • 21:13 - 21:17
    什麼能夠對這個網路
    創造出良性的貢獻,
  • 21:17 - 21:19
    為大家創造正向的體驗。
  • 21:19 - 21:21
    最終我們想要達到的標準是
  • 21:21 - 21:25
    大家能告訴我們:「嘿,
    我從推特學到了些東西,
  • 21:25 - 21:27
    我帶著有價值的東西離開。」
  • 21:27 - 21:29
    那是我們的最終目標,
  • 21:29 - 21:31
    但那會花不少時間。
  • 21:31 - 21:36
    安:對許多人來說你是個謎,
    對我來說是如此。
  • 21:36 - 21:41
    這樣說可能不公平,
    但有天晚上我醒來,
  • 21:41 - 21:45
    腦中的畫面是我
    想著你和目前的狀態,
  • 21:45 - 21:48
    我們和你一同航向偉大的旅程,
  • 21:48 - 21:52
    在艘名為「推達尼號」的船上,
  • 21:52 - 21:53
    (笑聲)
  • 21:53 - 21:57
    船上有些在最低價艙等的人,
  • 21:57 - 22:00
    他們表示感到不舒服,
  • 22:00 - 22:02
    而你和其他船長不同,
  • 22:02 - 22:06
    你說:「告訴我,跟我說,
    聽我說,我想要知道。」
  • 22:06 - 22:09
    他們跟你談,他們說:
    「我們很擔心前面的冰山。」
  • 22:09 - 22:11
    你說:「那是很有力的論點,
  • 22:11 - 22:14
    老實說,我們的船並沒有妥善製造,
  • 22:14 - 22:16
    無法操作得如預期理想。」
  • 22:16 - 22:17
    我們說:「請做些什麼。」
  • 22:17 - 22:19
    你到了駕駛臺,
  • 22:19 - 22:21
    我們在等待,
  • 22:21 - 22:26
    我們看著,你表現出超凡的冷靜,
  • 22:26 - 22:30
    但我們都站在外面說:
    「傑克,轉那他媽的舵!」
  • 22:30 - 22:31
    你知道嗎?
  • 22:31 - 22:32
    (笑聲)
  • 22:32 - 22:34
    (掌聲)
  • 22:34 - 22:36
    我是說——
  • 22:36 - 22:37
    (掌聲)
  • 22:40 - 22:42
    民主岌岌可危。
  • 22:42 - 22:45
    我們的文化和世界岌岌可危。
  • 22:45 - 22:50
    推特很了不起且有極大的影響力。
  • 22:50 - 22:52
    或許它不比其他的平臺大,
  • 22:52 - 22:55
    但有影響力的人用它來排定議程,
  • 22:55 - 23:01
    很難想像世界上
    還有更重要的角色,
  • 23:02 - 23:04
    我是指,傑克,你在
    傾聽這方面做得很出色,
  • 23:04 - 23:10
    但正視其急迫性
    並努力推動改變——
  • 23:10 - 23:12
    你願意這麼做嗎?
  • 23:13 - 23:17
    多:會的,我們已取得
    一些實質進展。
  • 23:17 - 23:19
    推特經歷過一些巨變。
  • 23:19 - 23:24
    當我重回公司時,
  • 23:24 - 23:30
    我們未來的處境非常危急,
  • 23:30 - 23:35
    不僅是因為人們
    使用這個平臺的方法,
  • 23:35 - 23:37
    還因為公司結構的問題。
  • 23:37 - 23:40
    所以我們得改變一些公司基礎,
  • 23:40 - 23:42
    轉變公司的方向,
  • 23:42 - 23:45
    歷經兩次瘋狂的裁員,
  • 23:45 - 23:49
    因為當時做的太多,
  • 23:49 - 23:51
    我們將工作重心
  • 23:51 - 23:54
    放在為公眾對話服務上。
  • 23:54 - 23:56
    這花了一些心力。
  • 23:56 - 23:59
    當我們開始深入探討時,
  • 23:59 - 24:03
    我們意識到一些根本性的問題。
  • 24:03 - 24:07
    為了達成你所說的目的,
    可以採取一些表面功夫,
  • 24:07 - 24:09
    但我們需要可長可久的變革,
  • 24:09 - 24:12
    而這意味著必須非常深入,
  • 24:12 - 24:16
    並觀察我們 13 年前建立的東西,
  • 24:16 - 24:18
    並且反思檢視:
  • 24:18 - 24:22
    這個系統和框架是怎樣運作的,
  • 24:22 - 24:25
    現今社會需要的是什麼,
  • 24:25 - 24:29
    考慮到世界變化之快
    和人們使用它的方法。
  • 24:29 - 24:32
    我們已經快馬加鞭了,
  • 24:32 - 24:35
    但「快」對完成任務並無幫助。
  • 24:35 - 24:38
    重要的是:專注、優先順序、
  • 24:38 - 24:41
    對網路之基礎的理解,
  • 24:41 - 24:46
    建構可以靈活變動、適應變化的機制。
  • 24:47 - 24:51
    並對進度開誠布公,
  • 24:51 - 24:53
    這樣我們才能繼續贏得人們的信任。
  • 24:53 - 24:57
    我對已經投入執行的機制感到自豪、
  • 24:57 - 25:01
    我對我們選定的前進方向感到自豪。
  • 25:01 - 25:04
    顯然我們可以再加緊腳步,
  • 25:04 - 25:08
    但這包含放棄過去
    一連串愚蠢的決定。
  • 25:09 - 25:10
    安:好的。
  • 25:10 - 25:14
    我想如果有機會的話,在場很多人
  • 25:14 - 25:18
    都樂意協助你完成這一項重大改變,
  • 25:18 - 25:20
    惠特尼是否還有問題——
  • 25:20 - 25:23
    傑克,感謝你能來與我們
    開誠布公地討論。
  • 25:23 - 25:24
    這需要勇氣。
  • 25:24 - 25:28
    我很欣賞你剛所說的,
    祝你好運完成任務。
  • 25:28 - 25:30
    多:非常感謝。謝謝你們邀請我。
  • 25:30 - 25:32
    (掌聲)
  • 25:33 - 25:34
    謝謝。
Title:
推特需要如何調整
Speaker:
傑克・多爾西
Description:

推特還有得救嗎?在這場包含廣泛議題的對話中.TED 的克里斯•安德森、惠妮•潘尼頓•羅傑斯,和推特的執行長傑克•多爾西一同討論平臺的未來,點出問題包含:騷擾、內容審核及對於基礎原則改變的提議,希望能夠鼓勵良性、尊重的對話。多爾西問到,我們提供的服務是否呼應人們所重視的價值?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47

Chinese, Traditional subtitles

Revisions Compare revisions