親愛的臉書,這就是你破壞民主的方式
-
0:01 - 0:03大約五年前,
-
0:03 - 0:05我感到很震驚,因為我無法
-
0:05 - 0:08跟那些立場和我不同的人對話討論。
-
0:09 - 0:13我與美國同胞討論敏感議題的想法
-
0:13 - 0:15讓我胃痛的程度,
-
0:15 - 0:19比和海外的可疑極端分子對話還嚴重。
-
0:20 - 0:23這件事開始讓我更加苦惱和沮喪。
-
0:23 - 0:25就這樣,
-
0:25 - 0:27我轉移我的焦點,
-
0:27 - 0:29從一開始的全球國家安全威脅
-
0:29 - 0:32轉移到試著了解是什麼造成
-
0:32 - 0:36國內極端分化的原因。
-
0:36 - 0:38我身為前中情局的官員和外交官,
-
0:38 - 0:41曾經花了好幾年的時間
處理反極端主義的問題, -
0:41 - 0:45我開始感到害怕,因為這件事情
對我們的民主產生巨大威脅, -
0:45 - 0:48更甚任何國外的威脅。
-
0:48 - 0:50所以我開始深入發掘,
-
0:50 - 0:51而且開始疾呼,
-
0:51 - 0:54這最終讓我在臉書找到一份工作,
-
0:54 - 0:57最後讓我今天能夠站在這裡,
-
0:57 - 1:00繼續提醒各位這些社群平台
-
1:00 - 1:04如何操縱我們,
讓我們許多人變得激進, -
1:04 - 1:07並且告訴大家如何
奪回我們的輿論制度。 -
1:08 - 1:10我在肯亞的時候是名外交人員,
-
1:10 - 1:13那是 911 攻擊事件過後沒幾年,
-
1:13 - 1:15我在沿著索馬利亞的邊境
-
1:15 - 1:17發起了一個所謂
「贏得民心」的運動。 -
1:17 - 1:21很大一部分的工作是,
在社群之間建立信任, -
1:21 - 1:23這些社群被認為最容易受到
極端主義訊息的影響。 -
1:24 - 1:28我花了數小時與個性坦率的
反西方宗教領袖喝茶, -
1:28 - 1:32甚至與疑似恐怖分子的人交談,
-
1:32 - 1:35儘管許多這樣的交涉
剛開始都出於互相懷疑, -
1:35 - 1:39但我不記得有哪次引起爭執或侮辱,
-
1:39 - 1:43在某些情況下,我們甚至在
共同關心的領域中一同努力。 -
1:44 - 1:48我們擁有最有力的工具就是
單純的傾聽、學習, -
1:48 - 1:50而且建立同理心。
-
1:50 - 1:53這是贏得人心工作的本質,
-
1:53 - 1:56因為我一再發現到大部分人想要的
-
1:56 - 2:00就是感覺被人傾聽、認可和尊重。
-
2:00 - 2:03我相信這就是大多數人想要的。
-
2:03 - 2:06而我看到現今網路上發生的事
特別令人心痛, -
2:06 - 2:08而這是更難解決的問題。
-
2:09 - 2:13我們正被目前的資訊生態系統操縱,
-
2:13 - 2:16讓我們許多人深陷
難以動搖的絕對主義中, -
2:16 - 2:19以致於「妥協」已成了骯髒的字眼。
-
2:20 - 2:21因為目前,
-
2:21 - 2:23社群媒體公司,像是臉書,
-
2:23 - 2:27它們的獲利方式就是區分我們
和提供我們個人化的內容, -
2:27 - 2:31這既可以驗證我們的偏好
還可以利用我們的偏見來獲利。 -
2:31 - 2:34他們的獲利取決於
激發人們強烈的情緒, -
2:34 - 2:36讓我們保持參與,
-
2:36 - 2:40通常會激發最具煽動性
和兩極分化的聲音, -
2:40 - 2:45直到我們覺得不可能達成共識。
-
2:45 - 2:49儘管越來越多人大聲疾呼
要這些社群平台做出改變, -
2:49 - 2:52但很顯然,他們自己不會做足這些事。
-
2:52 - 2:55所以政府一定要界定出
-
2:55 - 2:59這些商業模式對現實世界
造成危害的責任, -
2:59 - 3:02並要求他們對
帶來破壞的影響付出代價, -
3:02 - 3:07他們破壞了我們的公共健康、
輿論制度,以及我們的民主制度。 -
3:07 - 3:12但很不幸的是,這不會發生在
美國總統大選期間, -
3:12 - 3:15所以我繼續疾呼這項警訊,
-
3:15 - 3:18因為即使有一天
我們確實有嚴格的規定, -
3:18 - 3:20也需要我們所有人來解決這問題。
-
3:21 - 3:24當我開始轉移焦點,從國外的威脅
-
3:24 - 3:26轉移到國內公民對話的瓦解,
-
3:26 - 3:30我在想,我們是否可能重新調整
一些贏得民心運動的目標, -
3:30 - 3:32來修復我們的隔閡。
-
3:32 - 3:36我們兩百多年的民主實驗能夠有效,
-
3:36 - 3:40很大程度是因為我們能夠
公開並且熱情地 -
3:40 - 3:43辯論我們的想法,
以尋求最佳的解決方法。 -
3:43 - 3:45即便我仍深信
-
3:45 - 3:47面對面的公民對話所產生的力量,
-
3:47 - 3:50但這都無法和兩極分化的影響力
-
3:50 - 3:53和當今社群媒體的規模來抗衡。
-
3:53 - 3:55那些被社群媒體的憤慨深淵
-
3:55 - 3:56所吸引的人群,
-
3:56 - 4:00比那些我曾合作過的脆弱社群來說,
-
4:00 - 4:03通常更難打破他們的思想觀念。
-
4:04 - 4:06所以當臉書在 2018 年邀請我,
-
4:06 - 4:07並且提供我這個職位,
-
4:07 - 4:11讓我領導公正選舉業務進行政治宣傳,
-
4:11 - 4:13我覺得我必須答應。
-
4:13 - 4:16我沒有天真以為能夠解決所有問題,
-
4:16 - 4:18但當我得到這個機會
-
4:18 - 4:20能夠協助去導正方向時,
-
4:20 - 4:21我至少要盡力去嘗試。
-
4:23 - 4:25我當時並沒有直接針對
兩極分化的問題, -
4:25 - 4:29但我確實關注哪些問題
在我們社會中分歧最大, -
4:29 - 4:33因此最容易被利用來干預選舉。
-
4:33 - 4:36這是俄羅斯在 2016 選前的策略。
-
4:37 - 4:39所以我從提出問題著手。
-
4:39 - 4:42我想了解檯面下,
-
4:42 - 4:44讓所有事情爆發的系統性問題。
-
4:44 - 4:46就是為了想通如何解決這事。
-
4:48 - 4:50現在我還是相信網路的力量
-
4:50 - 4:53能把更多聲音帶到檯面上,
-
4:53 - 4:56但儘管他們聲稱目標是建立社群,
-
4:56 - 4:59然而目前建立起來的
最大社群媒體公司, -
4:59 - 5:03與理性對話的概念互相牴觸。
-
5:03 - 5:05用心傾聽無法得到任何回報,
-
5:05 - 5:07無法去鼓勵公民辯論
-
5:07 - 5:11還有保護那些真心想提問的人,
-
5:11 - 5:14而這是在一個追求參與度和用戶增長
-
5:14 - 5:17作為成功最重要的
兩個指標的商業模式下。 -
5:17 - 5:21沒有動機去幫助人們放慢腳步,
-
5:21 - 5:24去製造足夠的摩擦力讓大家停下來,
-
5:24 - 5:27辨識他們對某些事物的情緒反應,
-
5:27 - 5:29並且在投入之前,
質疑他們自己的假設。 -
5:31 - 5:33但不幸的事實是,
-
5:33 - 5:36謊言比真相得到更多的共鳴,
-
5:36 - 5:39淫邪擊敗了講究細節
且基於事實的真知灼見, -
5:39 - 5:42而這都發生在這個特別讓人毫不費力
就能瘋傳訊息的世界裡。 -
5:43 - 5:47只要演算法的目標
是要讓我們繼續參與, -
5:47 - 5:49他們就會繼續餵我們毒藥
-
5:49 - 5:52激出我們最壞的本能和人性弱點。
-
5:53 - 5:56沒錯,就是憤怒、懷疑、
-
5:56 - 5:58恐懼的文化、仇恨:
-
5:58 - 6:01這些在美國早已不是什麼新鮮事了。
-
6:01 - 6:04但在最近幾年,
社群媒體已經駕馭所有事情, -
6:04 - 6:08就我看來,天秤已經嚴重的傾斜了。
-
6:08 - 6:10臉書知道這個問題。
-
6:10 - 6:12華爾街日報近期的文章
-
6:12 - 6:16揭露臉書 2018 年的內部會議,
-
6:16 - 6:20特別指出公司自己的演算法
-
6:20 - 6:23助長極端分子組織在平臺上活動,
-
6:23 - 6:26兩極分化他們的用戶。
-
6:27 - 6:30但讓我們持續參與
就是他們賺錢的方法。 -
6:30 - 6:35現代訊息環境
是透過我們的個資形成, -
6:35 - 6:38然後將我們細分到
越來越狹窄的類別, -
6:38 - 6:41讓個人化的過程能更加完善。
-
6:41 - 6:45然後我們被和我們觀點
相符的訊息轟炸, -
6:45 - 6:47這些訊息強化我們的偏見,
-
6:47 - 6:50而且讓我們感覺自己有所歸屬。
-
6:50 - 6:54這些是我們看到恐怖分子招募者
-
6:54 - 6:56對弱勢青年使用的相同策略,
-
6:56 - 7:00儘管在社群媒體前,這招募方式
規模小,且較為本地化, -
7:00 - 7:03但其最終目的還是說服他們。
-
7:03 - 7:08不幸的是,臉書從來沒給我權力
發揮實際的影響。 -
7:08 - 7:12事實上,我工作的第二天,
我的職銜和工作內容就被改掉了, -
7:12 - 7:15而且我被排除在決策會議之外。
-
7:15 - 7:16我付出的最大努力被否決。
-
7:16 - 7:18我那時試著擬定計畫
-
7:18 - 7:21打擊政治廣告中的虛假訊息
-
7:22 - 7:23和選民受阻的事件,
-
7:23 - 7:26所以我只待了不到六個月的時間。
-
7:26 - 7:30但是我當時在那工作最大的收穫是,
-
7:30 - 7:32有數千人在臉書公司,
-
7:32 - 7:34他們投注熱情在一個產品上,
-
7:34 - 7:38且深信這讓世界變得更好。
-
7:38 - 7:42但是只要公司還繼續只在
-
7:42 - 7:44內容政策與審核的
枝微末節上進行修改, -
7:44 - 7:46而不是考慮
-
7:46 - 7:49如何設計整個機器和獲利方式,
-
7:49 - 7:51他們將永遠無法真正解決
-
7:51 - 7:57該平台如何助長仇恨、
分裂和激進化的問題。 -
7:57 - 8:01我在那裡工作的日子,
從沒聽過這樣的談話, -
8:01 - 8:04因為這需要從根本上接受一件事:
-
8:04 - 8:08你所打造的東西
可能對社會來說不是最好的, -
8:08 - 8:11並且同意更改整個產品和獲利模式。
-
8:12 - 8:14所以我們可以針對這事做些什麼?
-
8:15 - 8:17我並不是說社交媒體
-
8:17 - 8:21要對我們今天的處境承擔全部責任。
-
8:21 - 8:26我們顯然有根深柢固的
社會議題需要解決。 -
8:26 - 8:30但臉書的回應是:
它們只是社會的一面鏡子。 -
8:30 - 8:33這個便利想法
讓他們可以轉移任何責任, -
8:34 - 8:38像是它們的平台上
放大有害內容的方式, -
8:38 - 8:41還有把使用者推向極端觀點的責任。
-
8:42 - 8:44臉書是做得到的,如果他們願意的話。
-
8:44 - 8:46去解決這些問題吧。
-
8:46 - 8:50他們可以停止放大,
且停止推薦陰謀論者、 -
8:50 - 8:53仇恨團體、虛假訊息提供者,
-
8:53 - 8:57還有,甚至在一些案例中,
停止推薦我們的總統。 -
8:57 - 8:58他們可以停止使用
-
8:58 - 9:04向我們出售運動鞋時相同的
個人化技術來傳達政治言論。 -
9:04 - 9:06他們可以重新訓練演算法,
-
9:06 - 9:08聚焦在參與度之外的指標,
-
9:08 - 9:13而且他們可以打造一個防護網
阻止特定訊息在審核前 -
9:13 - 9:14被大肆宣傳。
-
9:15 - 9:17他們可以做到這所有事情,
-
9:17 - 9:21無須成為他們所說的「真理仲裁者」。
-
9:21 - 9:23但是他們已經表明,
-
9:23 - 9:27要是沒有被逼迫
就不會花力氣去做對的事, -
9:27 - 9:30而且說實話,他們為什麼應該這麼做?
-
9:30 - 9:34這個市場持續給予他們回報,
而且他們又沒有違法。 -
9:34 - 9:35因為就目前而言,
-
9:35 - 9:40美國沒有法律能夠制裁臉書,
或是制裁任何一家社群媒體公司, -
9:40 - 9:42去保獲我們的輿論空間、
-
9:42 - 9:43我們的民主,
-
9:43 - 9:46甚至是我們的選舉。
-
9:46 - 9:50我們已經將決策權交給
營利性網路公司的執行長, -
9:50 - 9:53讓他們決定制定什麼規則
以及執行什麼規則。 -
9:54 - 9:56這就是我們想要的嗎?
-
9:56 - 9:59我們想要一個
「真相是次要的世界」? -
9:59 - 10:02希望毒素和部落主義
比調解和尋求共識更為重要? -
10:03 - 10:07我保持樂觀相信:
相較現在媒體和網路環境所描繪的, -
10:07 - 10:10我們彼此仍有更多相似之處,
-
10:10 - 10:14而且我確實相信,擁有更多的視角
-
10:14 - 10:17可以建立一個更加健全
和包容的民主體制。 -
10:17 - 10:20但是並非指現在這種呈現方式。
-
10:20 - 10:24而且需要強調的是,
我不想弄倒這些公司。 -
10:24 - 10:28我只希望他們承擔一定的責任,
-
10:28 - 10:29就像社會上其他人一樣。
-
10:31 - 10:35現在正是時候讓我們的政府挺身而出
-
10:35 - 10:37保護自己的公民。
-
10:37 - 10:40而且當沒有一條具有威力的法律
-
10:40 - 10:41來解決這所有問題時,
-
10:41 - 10:46我相信政府有辦法,
且一定要找到平衡點, -
10:46 - 10:48兼顧言論自由,
-
10:48 - 10:52同時讓這些平台負責
其對社會所造成的影響。 -
10:52 - 10:57他們可藉著堅持公開實際情形
來做到這一點, -
10:57 - 11:00像是公開這些推薦引擎是如何運作,
-
11:00 - 11:05公開如何呈現、擴大用戶看到的資訊,
以及如何選擇廣告目標群眾。 -
11:05 - 11:07你知道,我想讓這些公司負起責任,
-
11:07 - 11:10不是為了個人張貼錯誤訊息
-
11:10 - 11:12或是極端言詞負責,
-
11:12 - 11:15而是要對他們的推薦引擎
散播這些訊息而負責, -
11:16 - 11:19對他們的演算法
引導大家接觸這些訊息負責, -
11:19 - 11:22對他們的工具
鎖定特定大眾而負責。 -
11:23 - 11:27我嘗試從臉書內部進行改變
但是失敗了。 -
11:27 - 11:30因此過去幾年我一直發聲,
-
11:30 - 11:33持續呼籲大家,
-
11:33 - 11:37希望啟發更多人,
要求這些公司負起責任。 -
11:37 - 11:40我想告訴大家的事很簡單:
-
11:40 - 11:42對你的政府官員施壓,
-
11:42 - 11:47請他們挺身而出,並且禁止
我們的輿論空間割讓給營利團體。 -
11:47 - 11:49協助教導你的親朋好友,
-
11:49 - 11:52他們在網路上是怎麼被操控。
-
11:52 - 11:56鼓勵自己與立場不同的人對話。
-
11:56 - 11:59優先處理這個問題。
-
11:59 - 12:02我們需要一個遍及社會的方法
來解決這個問題。 -
12:03 - 12:09而我想對臉書的領導們說:
-
12:09 - 12:15現在,大家正在使用你們設計的工具
-
12:15 - 12:17來散播仇恨,分裂和不信任,
-
12:17 - 12:21你們不只允許這件事發生,
而且還協助這件事發生。 -
12:21 - 12:24沒錯,世界上有很多正面的好故事
-
12:24 - 12:28在你們的平台上發生,
-
12:28 - 12:31但這不意味著可以分裂群眾。
-
12:31 - 12:34而且當我們進入選舉期間,
事情只會變得越來越糟, -
12:34 - 12:36更令人擔心的是,
-
12:36 - 12:38我們將面臨最大的潛在危機,
-
12:38 - 12:42如果選舉結果不可信,
如果爆發暴力衝突。 -
12:42 - 12:47所以 2021 年,你們又會說:
「我們知道必須做得更好。」 -
12:47 - 12:50我希望大家記得這個時刻,
-
12:50 - 12:53因為這不再是一些局外人的聲音。
-
12:53 - 12:56民權領袖、學者、
-
12:56 - 12:59記者、廣告商、你自己的員工,
-
12:59 - 13:01都在大聲疾呼:
-
13:01 - 13:03你們的政策和商業行為
-
13:03 - 13:06正在傷害人民及民主。
-
13:07 - 13:09你們擁有自己的決定,
-
13:09 - 13:13但你們不能再說看不到問題的到來。
-
13:14 - 13:15謝謝大家。
- Title:
- 親愛的臉書,這就是你破壞民主的方式
- Speaker:
- 耶爾·艾森斯塔
- Description:
-
前中情局分析師、外交官並曾任職臉書的耶爾·艾森斯塔說:「網路上的謊言比真相更具吸引力。」 「只要社群媒體演算法的目標是保持我們的參與度,它們就會餵食我們毒藥,展現我們惡劣的本能及人性弱點。」這場大膽的演講中,艾森斯塔探討像臉書這樣的社群媒體公司如何激起煽動性內容,助長政治兩極分化和不信任的文化,並呼籲政府要求這些平台負起責任,以保護公民對話和民主。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Regina Chu approved Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy | ||
Regina Chu edited Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy | ||
Regina Chu edited Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy | ||
Regina Chu edited Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy | ||
Regina Chu edited Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy | ||
Marssi Draw accepted Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy | ||
Marssi Draw edited Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy | ||
Marssi Draw edited Chinese, Traditional subtitles for Dear Facebook, this is how you're breaking democracy |