< Return to Video

如何協助將互聯網轉變為可信的地方

  • 0:02 - 0:04
    不論你是誰,不論你住在哪裡,
  • 0:04 - 0:06
    我猜想你應該至少有一位親戚
  • 0:06 - 0:09
    會喜歡轉傳那些電子郵件。
  • 0:09 - 0:14
    你們知道,我指的是那種
    內容可疑的郵件或陰謀論的影片。
  • 0:14 - 0:17
    你可能已經因為他們
    會分享這類社交貼文
  • 0:17 - 0:19
    而在臉書上取消追蹤他們了。
  • 0:19 - 0:23
    像這張圖片中的香蕉
    中間有個奇怪的紅色十字。
  • 0:23 - 0:28
    周圍的文字則是在警告大家
    不要吃這樣的食物,
  • 0:28 - 0:32
    指出這類食物已經被注入了
    感染愛滋病病毒的血液。
  • 0:32 - 0:35
    分享這個資訊的社群只是說:
  • 0:35 - 0:37
    「請轉傳,以拯救人命。」
  • 0:38 - 0:41
    事實查核早在數年前
    就揭穿這則假消息了,
  • 0:41 - 0:44
    但有些謠言就是殺不死,
    這是其中之一。
  • 0:44 - 0:45
    喪屍級謠言。
  • 0:46 - 0:48
    當然,這完全是錯誤資訊。
  • 0:48 - 0:51
    我們會很想笑看這種例子,並說:
  • 0:51 - 0:53
    「反正,誰會相信啊?」
  • 0:53 - 0:56
    但,它之所以是喪屍級謠言,
  • 0:56 - 0:58
    就是因為它觸及了
    人們最深的恐懼,
  • 0:58 - 1:01
    擔心他們自己和愛人的安全。
  • 1:02 - 1:05
    如果你跟我一樣花足夠
    時間去研究錯誤資訊,
  • 1:05 - 1:08
    你會就知道,還有很多像這樣的例子,
  • 1:08 - 1:11
    都會觸及人們最深的恐懼和弱點。
  • 1:11 - 1:16
    每天,在全世界都會在 IG 上
    看到許多新的網路迷因,
  • 1:16 - 1:19
    鼓勵父母不要帶孩子去接種疫苗。
  • 1:19 - 1:23
    在 YouTube 上會有新的影片出來,
    解釋氣候變遷只是個騙局。
  • 1:23 - 1:26
    在各平台上,都有無數貼文
  • 1:26 - 1:31
    目的是在將某些種族、宗教,
    或性向的人給妖魔化。
  • 1:32 - 1:35
    歡迎來到這個時代的核心挑戰之一。
  • 1:36 - 1:40
    我們要如何讓網路保有
    自由發表意見的核心價值,
  • 1:40 - 1:43
    同時確保被散播出去的內容
  • 1:43 - 1:46
    不會對我們的民主、我們的社會、
  • 1:46 - 1:50
    我們的身心安康,
    造成無法修復的傷害?
  • 1:50 - 1:52
    因為我們生活在資訊的時代,
  • 1:52 - 1:56
    但我們所有人仰賴的
    中心貨幣——即,資訊——
  • 1:56 - 1:58
    已經不再能被完全信任,
  • 1:58 - 2:01
    有些時候,甚至會造成危險。
  • 2:01 - 2:05
    這背後有部分原因是因為
    社交分享平台的脫韁成長,
  • 2:05 - 2:09
    在那裡,謊言和事實
    混在一起供我們瀏覽,
  • 2:09 - 2:12
    傳統的信任價值已蕩然無存。
  • 2:12 - 2:16
    且,老天,我們
    在這方面的用語是一團亂。
  • 2:16 - 2:19
    大家對「假新聞」上癮,
  • 2:19 - 2:22
    這些新聞不但沒有幫助,
  • 2:22 - 2:25
    且常被用來包裝各式各樣的東西:
  • 2:25 - 2:29
    謊言、謠言、騙局、陰謀、洗腦文。
  • 2:29 - 2:32
    我真希望我們能不要
    再用「假新聞」這詞了,
  • 2:32 - 2:35
    它已經被全世界政治人物汙染,
  • 2:35 - 2:36
    從左派到右派都一樣,
  • 2:36 - 2:40
    用來當作武器,
    攻擊自由、獨立的媒體。
  • 2:40 - 2:45
    (掌聲)
  • 2:45 - 2:49
    因為,比起過去,現在我們
    更需要專業的新聞媒體。
  • 2:49 - 2:52
    此外,這類內容根本
    還稱不上是新聞。
  • 2:52 - 2:55
    它們只是迷因、影片、社群貼文。
  • 2:55 - 2:58
    且它們大部分不是假的,
    而是會誤導的。
  • 2:58 - 3:01
    我們總是想把事情二分為對或錯。
  • 3:01 - 3:06
    但最讓人擔憂的,
    是把情境變成武器。
  • 3:07 - 3:09
    因為,最有效的虛假資訊
  • 3:09 - 3:12
    通常在核心還是有某些真相。
  • 3:12 - 3:15
    舉個倫敦的例子,2017 年三月,
  • 3:15 - 3:18
    在西敏橋的恐攻事件之後,
  • 3:18 - 3:21
    出現了一則廣為流傳的推文。
  • 3:21 - 3:23
    這是真實的照片,不是假的。
  • 3:23 - 3:26
    照片中的女子後來有被訪問,
  • 3:26 - 3:29
    她解釋說她心理受到很大的創傷。
  • 3:29 - 3:30
    她當時在和愛人講電話,
  • 3:30 - 3:33
    去被誤會成對受害者毫無同情心。
  • 3:33 - 3:35
    但這張照片仍然被扣上了
  • 3:35 - 3:37
    恐伊斯蘭的誣陷文字
    之後廣為流傳,
  • 3:37 - 3:40
    還附上許多主題標籤,
    包括 #禁伊斯蘭。
  • 3:40 - 3:43
    如果你在推特工作,你會怎麼做?
  • 3:43 - 3:46
    你會把這則推文拿掉?
    還是留在上面?
  • 3:47 - 3:50
    我的直覺反應,我的
    情緒反應,是把它拿掉。
  • 3:50 - 3:52
    我很不喜歡這張照片的說明。
  • 3:53 - 3:55
    但人權本來就包括表達的自由,
  • 3:55 - 3:59
    如果我們開始把讓我們不舒服的
    言論都拿掉,就會有麻煩了。
  • 4:00 - 4:02
    這可能看起來是個很明確的案例,
  • 4:02 - 4:06
    但,大部分的言論沒這麼清楚。
    因為那條界線非常難拿捏。
  • 4:06 - 4:08
    一個出於善意的舉動,
  • 4:08 - 4:11
    對其它人來說,可能就是無情的審查。
  • 4:11 - 4:14
    我們知道,Texas Lone Star
    (德州孤星)這個帳號
  • 4:14 - 4:17
    曾經是俄國用來散播
    虛假資訊活動的帳號,
  • 4:17 - 4:19
    雖然事後被下架了。
  • 4:19 - 4:21
    但會改變你的觀點嗎?
  • 4:21 - 4:22
    會改變我的,
  • 4:23 - 4:26
    因為它是一個製造爭端的協作案例。
  • 4:26 - 4:31
    如果你認為人工智慧將會
    解決我們所有的問題,
  • 4:31 - 4:33
    我想大家都同意,
    我們還有很長的路要走,
  • 4:33 - 4:36
    才能讓人工智慧能夠
    理解像這樣的貼文。
  • 4:37 - 4:40
    所以我想解釋一下,
    讓這件事變得如此複雜的
  • 4:40 - 4:42
    三個相關議題,
  • 4:42 - 4:45
    接著,想想我們要
    如何處理這些挑戰。
  • 4:45 - 4:49
    首先,我們只是沒有和資訊
    建立起理性的關係,
  • 4:49 - 4:51
    我們建立的是情緒化的關係。
  • 4:51 - 4:55
    並非有越多事實就能搞定一切,
  • 4:55 - 4:58
    因為,那些用來判定
    我們想看什麼內容的演算法,
  • 4:58 - 5:01
    它們是設計來獎勵
    我們的情緒反應。
  • 5:01 - 5:04
    當我們恐懼時,過度簡化的說詞、
  • 5:04 - 5:05
    陰謀論的解釋,
  • 5:05 - 5:09
    將他人妖魔化的用語,
    都會更有效許多。
  • 5:10 - 5:14
    此外,許多這類公司的商業模型
    和注意力息息相關,
  • 5:14 - 5:18
    也就是說,這些演算法
    一定都會偏向情緒那一邊。
  • 5:18 - 5:23
    第二,我所說的這些言論,
    大部分是合法的。
  • 5:23 - 5:26
    這完全不像是談論兒童性侵的意象
  • 5:26 - 5:29
    或者煽動暴力的內容。
  • 5:29 - 5:32
    張貼徹頭徹尾的謊言並不違法。
  • 5:33 - 5:37
    但大家不斷地討論「有問題的」
    或「會造成傷害」的內容,
  • 5:37 - 5:40
    卻無法清楚定義他們指的是什麼,
  • 5:40 - 5:45
    就連最近呼籲建立全球規制
    來管理言論的馬克祖柏格也一樣。
  • 5:45 - 5:48
    我擔心的是,我們看到
    世界各地的政府
  • 5:48 - 5:51
    趕著推出政策決定,
  • 5:51 - 5:56
    在言論方面,這些決定
    可能會觸發更嚴重的後果。
  • 5:56 - 6:00
    就算我們能判定哪些言論
    可以放上網,哪些要拿掉,
  • 6:00 - 6:02
    我們以前也從未有這麼多言論。
  • 6:02 - 6:06
    每秒鐘就有數百萬則內容
    被世界各地的人上傳到網路上,
  • 6:06 - 6:10
    用的是不同語言,背景是
    數以千計不同的文化情境。
  • 6:10 - 6:15
    我們實在沒有任何有效的機制
    可以管理這麼大規模的言論,
  • 6:15 - 6:17
    不論用人力或技術都辦不到。
  • 6:18 - 6:22
    第三,這些公司——Google、
    推特、臉書、WhatsApp——
  • 6:22 - 6:25
    它們都是廣闊資訊生態系統的一部分。
  • 6:25 - 6:28
    我們喜歡把所有責任
    都推到它們身上,但事實是,
  • 6:28 - 6:32
    大眾媒體和民選官員
    也都有同樣的影響力,
  • 6:32 - 6:36
    只要他們想,也可以在放大謠言和
    陰謀上,發揮等同的影響力。
  • 6:36 - 6:37
    我們也是,
  • 6:37 - 6:42
    我們會無心且毫不費力地轉傳
    造成分化或誤導的內容。
  • 6:42 - 6:44
    我們也在助長污染。
  • 6:45 - 6:48
    我知道大家都想要
    有簡單的解決方式。
  • 6:48 - 6:50
    但就是沒有。
  • 6:50 - 6:54
    要推出解決方式,就要以
    極大的規模推出,網路的規模,
  • 6:54 - 6:58
    是的,平台就是在網路
    這麼大的規模下運作的。
  • 6:58 - 7:01
    但我們能讓它們去解決這些問題嗎?
  • 7:02 - 7:05
    他們肯定有在試。
    但我們大部分人都認同,
  • 7:05 - 7:07
    其實,我們並不希望全球大企業
  • 7:07 - 7:09
    成為網路真相和公平的守護者。
  • 7:09 - 7:12
    我認為平台也不希望如此。
  • 7:12 - 7:15
    此刻,他們是球員兼裁判。
  • 7:15 - 7:18
    他們想要告訴我們,
    他們推出的干預方式奏效了,
  • 7:18 - 7:22
    但,因為他們的透明度
    報告是自己撰寫的,
  • 7:22 - 7:26
    我們沒有辦法獨立地
    去驗證發生了什麼事。
  • 7:26 - 7:30
    (掌聲)
  • 7:30 - 7:33
    另外要說清楚一件事,
    我們看到的大部分改變發生的時機,
  • 7:33 - 7:36
    都是在記者進行調查
  • 7:36 - 7:37
    並找到偏見的證據
  • 7:37 - 7:40
    或違反業界原則的內容之後。
  • 7:41 - 7:45
    所以,是的,在這個過程中,
    這些企業扮演了很重要的角色,
  • 7:45 - 7:47
    但他們不能控制言論。
  • 7:48 - 7:49
    那政府呢?
  • 7:50 - 7:53
    許多人認為,全球規制
    是我們最後的希望,
  • 7:53 - 7:56
    清理資訊生態系統的最後希望。
  • 7:56 - 7:58
    但我看到立法者
  • 7:58 - 8:01
    非常難跟上科技的快速改變。
  • 8:01 - 8:03
    更糟的是,他們還在瞎子摸象,
  • 8:03 - 8:05
    因為他們無法取得資料
  • 8:05 - 8:08
    來了解這些平台發生了什麼事。
  • 8:08 - 8:11
    總之,在這件事情上,
    我們能相信哪個政府?
  • 8:11 - 8:15
    我們需要的是全球性的
    因應,而非全國性的。
  • 8:15 - 8:18
    這當中遺失的環節就是我們。
  • 8:18 - 8:21
    就是每天使用這些科技的人。
  • 8:21 - 8:26
    我們能否設計新的基礎結構
    來支持有品質的資訊?
  • 8:26 - 8:28
    我相信可以,
  • 8:28 - 8:31
    對於我們能做什麼,
    我有幾個想法。
  • 8:31 - 8:34
    首先,如果我們當真
    想要讓大眾介入,
  • 8:34 - 8:37
    我們能否從維基百科來找靈感?
  • 8:37 - 8:38
    他們讓我們看到了可能性。
  • 8:38 - 8:41
    是的,它並不完美,但它證明了
  • 8:41 - 8:44
    有對的架構,有全球的目光,
    有很高的透明度,
  • 8:44 - 8:48
    就能建造出讓多數人信賴的東西。
  • 8:48 - 8:51
    因為我們得要找到方法,去挖掘
  • 8:51 - 8:53
    所有使用者的集體智慧和經驗。
  • 8:54 - 8:58
    對於女性、有色人種,
    及少數弱勢族群更是如此。
  • 8:58 - 9:01
    因為,你猜如何?他們是
    仇恨和虛假資訊的專家,
  • 9:02 - 9:05
    因為長久以來他們都是
    這些活動的目標對象。
  • 9:05 - 9:07
    這些年來,他們一直
    都在小心提防,
  • 9:07 - 9:09
    但沒有人傾聽他們。
  • 9:09 - 9:11
    這點必須要改變。
  • 9:11 - 9:15
    我們能建造出信任的維基百科嗎?
  • 9:15 - 9:19
    我們能否找到方法,
    讓使用者真正提供洞見?
  • 9:19 - 9:23
    他們可以針對很困難的
    內容管理決策來提供洞見。
  • 9:23 - 9:26
    當平台決定想要推出新改變時,
  • 9:26 - 9:28
    他們可以回饋意見。
  • 9:28 - 9:32
    第二,人對於資訊的體驗
    是很個人化的。
  • 9:32 - 9:35
    我的臉書新聞饋送內容
    和你的非常不一樣。
  • 9:35 - 9:38
    你的 YouTube 推薦
    和我的非常不一樣。
  • 9:38 - 9:40
    因此我們不可能去真正檢查
  • 9:40 - 9:43
    大家看到了什麼資訊。
  • 9:43 - 9:45
    我們能否想像開發一種
  • 9:45 - 9:49
    中央化的開放貯藏庫,
    用來存放匿名的資料,
  • 9:49 - 9:52
    且把隱私和倫理考量
    都內建在其中?
  • 9:52 - 9:54
    想想我們能夠學到多少,
  • 9:54 - 9:57
    若我們能打造一個全球網路,
    由在乎的公民構成,
  • 9:57 - 10:01
    他們想要把他們的
    社交資料貢獻給科學。
  • 10:01 - 10:03
    因為我們幾乎不了解
  • 10:03 - 10:06
    仇恨和虛假資訊對於人的態度
  • 10:06 - 10:08
    和行為會有什麼長期後果。
  • 10:08 - 10:12
    我們確實知道的是,
    雖然這是個全球性的問題,
  • 10:12 - 10:14
    卻大部分發生在美國。
  • 10:14 - 10:16
    我們也得處理這一點。
  • 10:16 - 10:20
    第三,我們能不能
    想辦法把點連起來?
  • 10:20 - 10:22
    這個問題不是單一部門能解決的,
  • 10:22 - 10:25
    更別說非營利組織、
    新創公司、政府。
  • 10:25 - 10:29
    但全世界都有非常聰明的人
    在處理這些難題,
  • 10:29 - 10:32
    他們可能在新聞編輯部、
    公民社會、學術圈、活動團體裡。
  • 10:32 - 10:34
    在這裡也有一些。
  • 10:34 - 10:38
    有些人在建造內容可信度指標。
    也有人在做事實查核,
  • 10:38 - 10:42
    讓虛假的主張、影片,
    和影像在平台上的排名下降。
  • 10:42 - 10:44
    我協助成立了非營利組織
    「第一版草稿」,
  • 10:44 - 10:47
    它和全球各地平時會互相
    競爭的新聞編輯室合作,
  • 10:47 - 10:51
    目的在協助他們建造
    調查性的協同作業方案。
  • 10:51 - 10:54
    軟體架構工程師丹尼希利斯
  • 10:54 - 10:56
    在設計一個新系統,
    叫做「The Underlay」,
  • 10:56 - 11:00
    它能記錄事實的所有公開陳述,
    並和其源頭連結,
  • 11:00 - 11:04
    供人及演算法參考,
    更能判斷資訊的可信度。
  • 11:05 - 11:08
    世界各地的教育家
    正在測試不同的技術,
  • 11:08 - 11:12
    找方法讓大家可以對自己
    觀看的內容進行批判。
  • 11:13 - 11:16
    這些做法都很棒,但他們
    都在自己的地窖中努力,
  • 11:16 - 11:18
    很遺憾的是,很多人還資金不足。
  • 11:19 - 11:22
    還有數百名非常聰明的人
    在這些公司中工作,
  • 11:22 - 11:25
    但,同樣的,他們做的努力
    似乎也沒有相連結,
  • 11:25 - 11:29
    因為他們是針對同樣的問題
    在開發不同的解決方案。
  • 11:29 - 11:31
    我們要如何想辦法集合大家,
  • 11:31 - 11:35
    於特定時間,在實體地點
    聚會幾天或幾週,
  • 11:35 - 11:39
    讓他們能真正從他們不同的觀點
    來一起處理這些問題?
  • 11:39 - 11:40
    我們能做到嗎?
  • 11:40 - 11:44
    我們能否建造一個組織良好
    且有野心的因應方式,
  • 11:44 - 11:47
    且能夠符合問題的規模和複雜度?
  • 11:48 - 11:49
    我真心認為可以。
  • 11:49 - 11:53
    讓我們同心協力一起重建
    我們對資訊的共識。
  • 11:53 - 11:54
    謝謝。
  • 11:54 - 11:58
    (掌聲)
Title:
如何協助將互聯網轉變為可信的地方
Speaker:
克萊兒 · 瓦多
Description:

要如何阻止誤導、散播危險的資訊,同時還保有網路的言論自由核心?虛假資訊專家克萊兒 · 瓦多帶大家探究受污染的線上環境遭遇了哪些難題,並規劃將網路轉變成可信之地的一個計畫。這需要日常使用者的協助。她說:「讓我們同心協力一起重建我們對資訊的共識。」

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Chinese, Traditional subtitles

Revisions