Return to Video

親愛的臉書,這就是你破壞民主的方式

  • 0:01 - 0:03
    大約五年前,
  • 0:03 - 0:05
    我感到很震驚,因為我無法
  • 0:05 - 0:08
    跟那些立場和我不同的人對話討論。
  • 0:09 - 0:13
    我與美國同胞討論敏感議題的想法
  • 0:13 - 0:15
    讓我胃痛的程度,
  • 0:15 - 0:19
    比和海外的可疑極端分子對話還嚴重。
  • 0:20 - 0:23
    這件事開始讓我更加苦惱和沮喪。
  • 0:23 - 0:25
    就這樣,
  • 0:25 - 0:27
    我轉移我的焦點,
  • 0:27 - 0:29
    從一開始的全球國家安全威脅
  • 0:29 - 0:32
    轉移到試著了解是什麼造成
  • 0:32 - 0:36
    國內極端分化的原因。
  • 0:36 - 0:38
    我身為前中情局的官員和外交官,
  • 0:38 - 0:41
    曾經花了好幾年的時間
    處理反極端主義的問題,
  • 0:41 - 0:45
    我開始感到害怕,因為這件事情
    對我們的民主產生巨大威脅,
  • 0:45 - 0:48
    更甚任何國外的威脅。
  • 0:48 - 0:50
    所以我開始深入發掘,
  • 0:50 - 0:51
    而且開始疾呼,
  • 0:51 - 0:54
    這最終讓我在臉書找到一份工作,
  • 0:54 - 0:57
    最後讓我今天能夠站在這裡,
  • 0:57 - 1:00
    繼續提醒各位這些社群平台
  • 1:00 - 1:04
    如何操縱我們,
    讓我們許多人變得激進,
  • 1:04 - 1:07
    並且告訴大家如何
    奪回我們的輿論制度。
  • 1:08 - 1:10
    我在肯亞的時候是名外交人員,
  • 1:10 - 1:13
    那是 911 攻擊事件過後沒幾年,
  • 1:13 - 1:15
    我在沿著索馬利亞的邊境
  • 1:15 - 1:17
    發起了一個所謂
    「贏得民心」的運動。
  • 1:17 - 1:21
    很大一部分的工作是,
    在社群之間建立信任,
  • 1:21 - 1:23
    這些社群被認為最容易受到
    極端主義訊息的影響。
  • 1:24 - 1:28
    我花了數小時與個性坦率的
    反西方宗教領袖喝茶,
  • 1:28 - 1:32
    甚至與疑似恐怖分子的人交談,
  • 1:32 - 1:35
    儘管許多這樣的交涉
    剛開始都出於互相懷疑,
  • 1:35 - 1:39
    但我不記得有哪次引起爭執或侮辱,
  • 1:39 - 1:43
    在某些情況下,我們甚至在
    共同關心的領域中一同努力。
  • 1:44 - 1:48
    我們擁有最有力的工具就是
    單純的傾聽、學習,
  • 1:48 - 1:50
    而且建立同理心。
  • 1:50 - 1:53
    這是贏得人心工作的本質,
  • 1:53 - 1:56
    因為我一再發現到大部分人想要的
  • 1:56 - 2:00
    就是感覺被人傾聽、認可和尊重。
  • 2:00 - 2:03
    我相信這就是大多數人想要的。
  • 2:03 - 2:06
    而我看到現今網路上發生的事
    特別令人心痛,
  • 2:06 - 2:08
    而這是更難解決的問題。
  • 2:09 - 2:13
    我們正被目前的資訊生態系統操縱,
  • 2:13 - 2:16
    讓我們許多人深陷
    難以動搖的絕對主義中,
  • 2:16 - 2:19
    以致於「妥協」已成了骯髒的字眼。
  • 2:20 - 2:21
    因為目前,
  • 2:21 - 2:23
    社群媒體公司,像是臉書,
  • 2:23 - 2:27
    它們的獲利方式就是區分我們
    和提供我們個人化的內容,
  • 2:27 - 2:31
    這既可以驗證我們的偏好
    還可以利用我們的偏見來獲利。
  • 2:31 - 2:34
    他們的獲利取決於
    激發人們強烈的情緒,
  • 2:34 - 2:36
    讓我們保持參與,
  • 2:36 - 2:40
    通常會激發最具煽動性
    和兩極分化的聲音,
  • 2:40 - 2:45
    直到我們覺得不可能達成共識。
  • 2:45 - 2:49
    儘管越來越多人大聲疾呼
    要這些社群平台做出改變,
  • 2:49 - 2:52
    但很顯然,他們自己不會做足這些事。
  • 2:52 - 2:55
    所以政府一定要界定出
  • 2:55 - 2:59
    這些商業模式對現實世界
    造成危害的責任,
  • 2:59 - 3:02
    並要求他們對
    帶來破壞的影響付出代價,
  • 3:02 - 3:07
    他們破壞了我們的公共健康、
    輿論制度,以及我們的民主制度。
  • 3:07 - 3:12
    但很不幸的是,這不會發生在
    美國總統大選期間,
  • 3:12 - 3:15
    所以我繼續疾呼這項警訊,
  • 3:15 - 3:18
    因為即使有一天
    我們確實有嚴格的規定,
  • 3:18 - 3:20
    也需要我們所有人來解決這問題。
  • 3:21 - 3:24
    當我開始轉移焦點,從國外的威脅
  • 3:24 - 3:26
    轉移到國內公民對話的瓦解,
  • 3:26 - 3:30
    我在想,我們是否可能重新調整
    一些贏得民心運動的目標,
  • 3:30 - 3:32
    來修復我們的隔閡。
  • 3:32 - 3:36
    我們兩百多年的民主實驗能夠有效,
  • 3:36 - 3:40
    很大程度是因為我們能夠
    公開並且熱情地
  • 3:40 - 3:43
    辯論我們的想法,
    以尋求最佳的解決方法。
  • 3:43 - 3:45
    即便我仍深信
  • 3:45 - 3:47
    面對面的公民對話所產生的力量,
  • 3:47 - 3:50
    但這都無法和兩極分化的影響力
  • 3:50 - 3:53
    和當今社群媒體的規模來抗衡。
  • 3:53 - 3:55
    那些被社群媒體的憤慨深淵
  • 3:55 - 3:56
    所吸引的人群,
  • 3:56 - 4:00
    比那些我曾合作過的脆弱社群來說,
  • 4:00 - 4:03
    通常更難打破他們的思想觀念。
  • 4:04 - 4:06
    所以當臉書在 2018 年邀請我,
  • 4:06 - 4:07
    並且提供我這個職位,
  • 4:07 - 4:11
    讓我領導公正選舉業務進行政治宣傳,
  • 4:11 - 4:13
    我覺得我必須答應。
  • 4:13 - 4:16
    我沒有天真以為能夠解決所有問題,
  • 4:16 - 4:18
    但當我得到這個機會
  • 4:18 - 4:20
    能夠協助去導正方向時,
  • 4:20 - 4:21
    我至少要盡力去嘗試。
  • 4:23 - 4:25
    我當時並沒有直接針對
    兩極分化的問題,
  • 4:25 - 4:29
    但我確實關注哪些問題
    在我們社會中分歧最大,
  • 4:29 - 4:33
    因此最容易被利用來干預選舉。
  • 4:33 - 4:36
    這是俄羅斯在 2016 選前的策略。
  • 4:37 - 4:39
    所以我從提出問題著手。
  • 4:39 - 4:42
    我想了解檯面下,
  • 4:42 - 4:44
    讓所有事情爆發的系統性問題。
  • 4:44 - 4:46
    就是為了想通如何解決這事。
  • 4:48 - 4:50
    現在我還是相信網路的力量
  • 4:50 - 4:53
    能把更多聲音帶到檯面上,
  • 4:53 - 4:56
    但儘管他們聲稱目標是建立社群,
  • 4:56 - 4:59
    然而目前建立起來的
    最大社群媒體公司,
  • 4:59 - 5:03
    與理性對話的概念互相牴觸。
  • 5:03 - 5:05
    用心傾聽無法得到任何回報,
  • 5:05 - 5:07
    無法去鼓勵公民辯論
  • 5:07 - 5:11
    還有保護那些真心想提問的人,
  • 5:11 - 5:14
    而這是在一個追求參與度和用戶增長
  • 5:14 - 5:17
    作為成功最重要的
    兩個指標的商業模式下。
  • 5:17 - 5:21
    沒有動機去幫助人們放慢腳步,
  • 5:21 - 5:24
    去製造足夠的摩擦力讓大家停下來,
  • 5:24 - 5:27
    辨識他們對某些事物的情緒反應,
  • 5:27 - 5:29
    並且在投入之前,
    質疑他們自己的假設。
  • 5:31 - 5:33
    但不幸的事實是,
  • 5:33 - 5:36
    謊言比真相得到更多的共鳴,
  • 5:36 - 5:39
    淫邪擊敗了講究細節
    且基於事實的真知灼見,
  • 5:39 - 5:42
    而這都發生在這個特別讓人毫不費力
    就能瘋傳訊息的世界裡。
  • 5:43 - 5:47
    只要演算法的目標
    是要讓我們繼續參與,
  • 5:47 - 5:49
    他們就會繼續餵我們毒藥
  • 5:49 - 5:52
    激出我們最壞的本能和人性弱點。
  • 5:53 - 5:56
    沒錯,就是憤怒、懷疑、
  • 5:56 - 5:58
    恐懼的文化、仇恨:
  • 5:58 - 6:01
    這些在美國早已不是什麼新鮮事了。
  • 6:01 - 6:04
    但在最近幾年,
    社群媒體已經駕馭所有事情,
  • 6:04 - 6:08
    就我看來,天秤已經嚴重的傾斜了。
  • 6:08 - 6:10
    臉書知道這個問題。
  • 6:10 - 6:12
    華爾街日報近期的文章
  • 6:12 - 6:16
    揭露臉書 2018 年的內部會議,
  • 6:16 - 6:20
    特別指出公司自己的演算法
  • 6:20 - 6:23
    助長極端分子組織在平臺上活動,
  • 6:23 - 6:26
    兩極分化他們的用戶。
  • 6:27 - 6:30
    但讓我們持續參與
    就是他們賺錢的方法。
  • 6:30 - 6:35
    現代訊息環境
    是透過我們的個資形成,
  • 6:35 - 6:38
    然後將我們細分到
    越來越狹窄的類別,
  • 6:38 - 6:41
    讓個人化的過程能更加完善。
  • 6:41 - 6:45
    然後我們被和我們觀點
    相符的訊息轟炸,
  • 6:45 - 6:47
    這些訊息強化我們的偏見,
  • 6:47 - 6:50
    而且讓我們感覺自己有所歸屬。
  • 6:50 - 6:54
    這些是我們看到恐怖分子招募者
  • 6:54 - 6:56
    對弱勢青年使用的相同策略,
  • 6:56 - 7:00
    儘管在社群媒體前,這招募方式
    規模小,且較為本地化,
  • 7:00 - 7:03
    但其最終目的還是說服他們。
  • 7:03 - 7:08
    不幸的是,臉書從來沒給我權力
    發揮實際的影響。
  • 7:08 - 7:12
    事實上,我工作的第二天,
    我的職銜和工作內容就被改掉了,
  • 7:12 - 7:15
    而且我被排除在決策會議之外。
  • 7:15 - 7:16
    我付出的最大努力被否決。
  • 7:16 - 7:18
    我那時試著擬定計畫
  • 7:18 - 7:21
    打擊政治廣告中的虛假訊息
  • 7:22 - 7:23
    和選民受阻的事件,
  • 7:23 - 7:26
    所以我只待了不到六個月的時間。
  • 7:26 - 7:30
    但是我當時在那工作最大的收穫是,
  • 7:30 - 7:32
    有數千人在臉書公司,
  • 7:32 - 7:34
    他們投注熱情在一個產品上,
  • 7:34 - 7:38
    且深信這讓世界變得更好。
  • 7:38 - 7:42
    但是只要公司還繼續只在
  • 7:42 - 7:44
    內容政策與審核的
    枝微末節上進行修改,
  • 7:44 - 7:46
    而不是考慮
  • 7:46 - 7:49
    如何設計整個機器和獲利方式,
  • 7:49 - 7:51
    他們將永遠無法真正解決
  • 7:51 - 7:57
    該平台如何助長仇恨、
    分裂和激進化的問題。
  • 7:57 - 8:01
    我在那裡工作的日子,
    從沒聽過這樣的談話,
  • 8:01 - 8:04
    因為這需要從根本上接受一件事:
  • 8:04 - 8:08
    你所打造的東西
    可能對社會來說不是最好的,
  • 8:08 - 8:11
    並且同意更改整個產品和獲利模式。
  • 8:12 - 8:14
    所以我們可以針對這事做些什麼?
  • 8:15 - 8:17
    我並不是說社交媒體
  • 8:17 - 8:21
    要對我們今天的處境承擔全部責任。
  • 8:21 - 8:26
    我們顯然有根深柢固的
    社會議題需要解決。
  • 8:26 - 8:30
    但臉書的回應是:
    它們只是社會的一面鏡子。
  • 8:30 - 8:33
    這個便利想法
    讓他們可以轉移任何責任,
  • 8:34 - 8:38
    像是它們的平台上
    放大有害內容的方式,
  • 8:38 - 8:41
    還有把使用者推向極端觀點的責任。
  • 8:42 - 8:44
    臉書是做得到的,如果他們願意的話。
  • 8:44 - 8:46
    去解決這些問題吧。
  • 8:46 - 8:50
    他們可以停止放大,
    且停止推薦陰謀論者、
  • 8:50 - 8:53
    仇恨團體、虛假訊息提供者,
  • 8:53 - 8:57
    還有,甚至在一些案例中,
    停止推薦我們的總統。
  • 8:57 - 8:58
    他們可以停止使用
  • 8:58 - 9:04
    向我們出售運動鞋時相同的
    個人化技術來傳達政治言論。
  • 9:04 - 9:06
    他們可以重新訓練演算法,
  • 9:06 - 9:08
    聚焦在參與度之外的指標,
  • 9:08 - 9:13
    而且他們可以打造一個防護網
    阻止特定訊息在審核前
  • 9:13 - 9:14
    被大肆宣傳。
  • 9:15 - 9:17
    他們可以做到這所有事情,
  • 9:17 - 9:21
    無須成為他們所說的「真理仲裁者」。
  • 9:21 - 9:23
    但是他們已經表明,
  • 9:23 - 9:27
    要是沒有被逼迫
    就不會花力氣去做對的事,
  • 9:27 - 9:30
    而且說實話,他們為什麼應該這麼做?
  • 9:30 - 9:34
    這個市場持續給予他們回報,
    而且他們又沒有違法。
  • 9:34 - 9:35
    因為就目前而言,
  • 9:35 - 9:40
    美國沒有法律能夠制裁臉書,
    或是制裁任何一家社群媒體公司,
  • 9:40 - 9:42
    去保獲我們的輿論空間、
  • 9:42 - 9:43
    我們的民主,
  • 9:43 - 9:46
    甚至是我們的選舉。
  • 9:46 - 9:50
    我們已經將決策權交給
    營利性網路公司的執行長,
  • 9:50 - 9:53
    讓他們決定制定什麼規則
    以及執行什麼規則。
  • 9:54 - 9:56
    這就是我們想要的嗎?
  • 9:56 - 9:59
    我們想要一個
    「真相是次要的世界」?
  • 9:59 - 10:02
    希望毒素和部落主義
    比調解和尋求共識更為重要?
  • 10:03 - 10:07
    我保持樂觀相信:
    相較現在媒體和網路環境所描繪的,
  • 10:07 - 10:10
    我們彼此仍有更多相似之處,
  • 10:10 - 10:14
    而且我確實相信,擁有更多的視角
  • 10:14 - 10:17
    可以建立一個更加健全
    和包容的民主體制。
  • 10:17 - 10:20
    但是並非指現在這種呈現方式。
  • 10:20 - 10:24
    而且需要強調的是,
    我不想弄倒這些公司。
  • 10:24 - 10:28
    我只希望他們承擔一定的責任,
  • 10:28 - 10:29
    就像社會上其他人一樣。
  • 10:31 - 10:35
    現在正是時候讓我們的政府挺身而出
  • 10:35 - 10:37
    保護自己的公民。
  • 10:37 - 10:40
    而且當沒有一條具有威力的法律
  • 10:40 - 10:41
    來解決這所有問題時,
  • 10:41 - 10:46
    我相信政府有辦法,
    且一定要找到平衡點,
  • 10:46 - 10:48
    兼顧言論自由,
  • 10:48 - 10:52
    同時讓這些平台負責
    其對社會所造成的影響。
  • 10:52 - 10:57
    他們可藉著堅持公開實際情形
    來做到這一點,
  • 10:57 - 11:00
    像是公開這些推薦引擎是如何運作,
  • 11:00 - 11:05
    公開如何呈現、擴大用戶看到的資訊,
    以及如何選擇廣告目標群眾。
  • 11:05 - 11:07
    你知道,我想讓這些公司負起責任,
  • 11:07 - 11:10
    不是為了個人張貼錯誤訊息
  • 11:10 - 11:12
    或是極端言詞負責,
  • 11:12 - 11:15
    而是要對他們的推薦引擎
    散播這些訊息而負責,
  • 11:16 - 11:19
    對他們的演算法
    引導大家接觸這些訊息負責,
  • 11:19 - 11:22
    對他們的工具
    鎖定特定大眾而負責。
  • 11:23 - 11:27
    我嘗試從臉書內部進行改變
    但是失敗了。
  • 11:27 - 11:30
    因此過去幾年我一直發聲,
  • 11:30 - 11:33
    持續呼籲大家,
  • 11:33 - 11:37
    希望啟發更多人,
    要求這些公司負起責任。
  • 11:37 - 11:40
    我想告訴大家的事很簡單:
  • 11:40 - 11:42
    對你的政府官員施壓,
  • 11:42 - 11:47
    請他們挺身而出,並且禁止
    我們的輿論空間割讓給營利團體。
  • 11:47 - 11:49
    協助教導你的親朋好友,
  • 11:49 - 11:52
    他們在網路上是怎麼被操控。
  • 11:52 - 11:56
    鼓勵自己與立場不同的人對話。
  • 11:56 - 11:59
    優先處理這個問題。
  • 11:59 - 12:02
    我們需要一個遍及社會的方法
    來解決這個問題。
  • 12:03 - 12:09
    而我想對臉書的領導們說:
  • 12:09 - 12:15
    現在,大家正在使用你們設計的工具
  • 12:15 - 12:17
    來散播仇恨,分裂和不信任,
  • 12:17 - 12:21
    你們不只允許這件事發生,
    而且還協助這件事發生。
  • 12:21 - 12:24
    沒錯,世界上有很多正面的好故事
  • 12:24 - 12:28
    在你們的平台上發生,
  • 12:28 - 12:31
    但這不意味著可以分裂群眾。
  • 12:31 - 12:34
    而且當我們進入選舉期間,
    事情只會變得越來越糟,
  • 12:34 - 12:36
    更令人擔心的是,
  • 12:36 - 12:38
    我們將面臨最大的潛在危機,
  • 12:38 - 12:42
    如果選舉結果不可信,
    如果爆發暴力衝突。
  • 12:42 - 12:47
    所以 2021 年,你們又會說:
    「我們知道必須做得更好。」
  • 12:47 - 12:50
    我希望大家記得這個時刻,
  • 12:50 - 12:53
    因為這不再是一些局外人的聲音。
  • 12:53 - 12:56
    民權領袖、學者、
  • 12:56 - 12:59
    記者、廣告商、你自己的員工,
  • 12:59 - 13:01
    都在大聲疾呼:
  • 13:01 - 13:03
    你們的政策和商業行為
  • 13:03 - 13:06
    正在傷害人民及民主。
  • 13:07 - 13:09
    你們擁有自己的決定,
  • 13:09 - 13:13
    但你們不能再說看不到問題的到來。
  • 13:14 - 13:15
    謝謝大家。
Title:
親愛的臉書,這就是你破壞民主的方式
Speaker:
耶爾·艾森斯塔
Description:

前中情局分析師、外交官並曾任職臉書的耶爾·艾森斯塔說:「網路上的謊言比真相更具吸引力。」 「只要社群媒體演算法的目標是保持我們的參與度,它們就會餵食我們毒藥,展現我們惡劣的本能及人性弱點。」這場大膽的演講中,艾森斯塔探討像臉書這樣的社群媒體公司如何激起煽動性內容,助長政治兩極分化和不信任的文化,並呼籲政府要求這些平台負起責任,以保護公民對話和民主。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Chinese, Traditional subtitles

Revisions