Return to Video

深偽技術如何破壞真相、威脅民主

  • 0:01 - 0:03
    〔本演說含有成人內容〕
  • 0:06 - 0:09
    拉娜‧阿尤布是印度的記者,
  • 0:09 - 0:11
    她的報導曾經揭露過政府腐敗
  • 0:12 - 0:15
    以及侵犯人權的事件。
  • 0:15 - 0:16
    這些年來,
  • 0:16 - 0:19
    她也習慣了工作
    所引來的尖酸批評和爭議。
  • 0:20 - 0:25
    但這些都不足以讓她準備好
    面對 2018 年四月所發生的事。
  • 0:26 - 0:30
    她第一次看到時,
    正和一名朋友坐在咖啡廳:
  • 0:30 - 0:35
    她看到一個長達兩分二十秒
    以她為主角的性行為影片,
  • 0:35 - 0:38
    她無法相信她的眼睛。
  • 0:38 - 0:40
    她從來沒有拍過性影片。
  • 0:41 - 0:44
    但不幸的是,成千上萬的人
  • 0:44 - 0:46
    都相信那是她。
  • 0:47 - 0:50
    大約三個月前,我為了我所寫的
  • 0:50 - 0:52
    一本關於性隱私的書而去訪問她。
  • 0:53 - 0:56
    我是法律教授、
    律師和民權擁護者。
  • 0:56 - 1:01
    當我知道現行的法律沒辦法協助她時,
  • 1:01 - 1:03
    我感到非常挫折。
  • 1:03 - 1:05
    我們交談時,
  • 1:05 - 1:10
    她解釋說她應該要料到
    會有假的性影片出現。
  • 1:10 - 1:16
    她說:「畢竟,性通常
    被用來貶抑和羞辱女人,
  • 1:16 - 1:18
    特別是少數的弱勢女性、
  • 1:18 - 1:22
    敢挑戰威權男性的少數女性,」
  • 1:22 - 1:24
    比如,她在工作中所扮演的角色。
  • 1:25 - 1:29
    四十八小時內,
    假造的性影片就被瘋傳。
  • 1:30 - 1:35
    她所有的線上帳戶都被
    該影片的截圖給洗版,
  • 1:35 - 1:38
    夾帶著繪聲繪影的強暴和殺害威脅,
  • 1:38 - 1:41
    還汙辱她的穆斯林信仰。
  • 1:41 - 1:46
    線上貼文指出
    她現在「有空」可以約炮。
  • 1:46 - 1:48
    她的個資被外洩,
  • 1:48 - 1:50
    她的住家地址和手機號碼,
  • 1:50 - 1:52
    在網路上處處可見。
  • 1:53 - 1:57
    該影片被分享了超過四萬次。
  • 1:58 - 2:02
    當一個人成為這種
    網路暴民攻擊的目標,
  • 2:02 - 2:04
    所受到的傷害會極度嚴重。
  • 2:04 - 2:08
    拉娜‧阿尤布的人生
    被搞得亂七八糟。
  • 2:08 - 2:12
    好幾週的時間她都幾乎
    食不下嚥或無法說話。
  • 2:12 - 2:16
    她停止寫作並關閉了
    所有的社群媒體帳戶,
  • 2:16 - 2:19
    對於記者來說,這是很難的抉擇。
  • 2:19 - 2:23
    她很怕踏出家門。
  • 2:23 - 2:26
    萬一貼文的人履行了
    他們的威脅怎麼辦?
  • 2:26 - 2:31
    聯合國人權理事會確認她並沒有發瘋。
  • 2:31 - 2:35
    理事會發佈了一份公開聲明,
    說他們擔心她的安全。
  • 2:37 - 2:41
    拉娜‧阿尤布面對的就是深偽技術:
  • 2:41 - 2:44
    它是一種機器學習科技,
  • 2:44 - 2:48
    能操弄或偽造錄音和錄影,
  • 2:48 - 2:50
    偽造的影音呈現出當事人
  • 2:50 - 2:52
    從未做過或說過的內容。
  • 2:53 - 2:56
    深偽技術的產物
    看起來很真實,但不是真相,
  • 2:56 - 2:58
    完全是假造的。
  • 2:59 - 3:03
    雖然這項技術的精密度還在發展中,
  • 3:03 - 3:05
    但它已經可廣泛取得。
  • 3:05 - 3:08
    最近深偽技術的關注度之所以提升,
  • 3:08 - 3:11
    和線上許多其它內容一樣,
  • 3:11 - 3:12
    和色情內容有關。
  • 3:12 - 3:15
    2018 年初,
  • 3:15 - 3:17
    有人在 Reddit 上張貼了一項工具,
  • 3:17 - 3:22
    使用者可以將面孔放入色情影片當中。
  • 3:22 - 3:25
    接踵而來的是
    傾洩而出的偽造色情影片,
  • 3:25 - 3:28
    主打大家最愛的女性名人。
  • 3:29 - 3:32
    現今,你可以上 YouTube
    找到大量的教學影片,
  • 3:32 - 3:34
    內有逐步指示,
  • 3:35 - 3:38
    教你如何用電腦的應用程式
    來製作深偽影片。
  • 3:38 - 3:42
    可能很快我們就能用手機
    來製作深偽影片了。
  • 3:43 - 3:48
    正是我們基本的人性弱點
  • 3:48 - 3:50
    與網路工具的相互作用,
  • 3:50 - 3:53
    使得深偽技術變成了武器。
  • 3:53 - 3:54
    讓我解釋一下。
  • 3:55 - 3:59
    我們人類對影音會直覺反應。
  • 4:00 - 4:01
    我們會相信它們是真的,
  • 4:01 - 4:03
    你認為當然能相信
  • 4:03 - 4:06
    你的眼睛和耳朵所告訴你的事情。
  • 4:06 - 4:08
    而正是這個機制
  • 4:08 - 4:12
    有可能削減了我們感知真實的靈敏度。
  • 4:12 - 4:15
    雖然我們誤信深偽技術下的
    產物是真的,但它們不是。
  • 4:16 - 4:20
    我們會被猥褻的、
    刺激的內容物所吸引。
  • 4:20 - 4:23
    我們傾向相信並轉貼分享
  • 4:23 - 4:25
    這些負面新奇的資訊。
  • 4:26 - 4:30
    研究者發現網路惡作劇散播的速度,
  • 4:30 - 4:32
    比真實故事快十倍。
  • 4:34 - 4:38
    我們也會被和我們觀點
  • 4:38 - 4:40
    相同的資訊所吸引。
  • 4:41 - 4:45
    心理學家稱之為「確認偏差」的傾向。
  • 4:45 - 4:50
    社群媒體平台會強化你偏好的傾向,
  • 4:50 - 4:54
    因為那些平台讓我們
    能夠迅速、廣泛地分享
  • 4:54 - 4:55
    和我們觀點相同的資訊。
  • 4:57 - 5:02
    深偽技術有可能對
    個人及社會造成嚴重的傷害。
  • 5:03 - 5:05
    所以,想像一支深偽影片
  • 5:05 - 5:09
    內容是美國士兵在阿富汗燒毀可蘭經。
  • 5:11 - 5:13
    各位可以想像那種深偽影片
  • 5:13 - 5:15
    會挑起針對這些士兵的暴力反擊。
  • 5:16 - 5:19
    如果隔天
  • 5:19 - 5:21
    又出來了一支深偽影片,
  • 5:21 - 5:24
    內容是在倫敦知名的伊斯蘭教領袖
  • 5:24 - 5:27
    讚美那些對士兵的攻擊行為?
  • 5:28 - 5:31
    我們可能會看到暴力和內亂,
  • 5:31 - 5:34
    不僅是在阿富汗及英國,
  • 5:34 - 5:36
    還有全球各地。
  • 5:36 - 5:37
    各位可能會跟我說:
  • 5:37 - 5:40
    「拜託,丹妮爾,那太牽強了。」
  • 5:40 - 5:41
    但這並不牽強。
  • 5:41 - 5:43
    我們已經見過在 WhatsApp
  • 5:44 - 5:46
    及其它網路訊息上散播的謠言,
  • 5:46 - 5:49
    導致對非主流人群的暴力。
  • 5:49 - 5:51
    那還只是文字訊息——
  • 5:51 - 5:53
    想像一下,若是影片會如何。
  • 5:55 - 5:58
    深偽技術極可能會損害
  • 5:58 - 6:02
    我們對民主制度的信任。
  • 6:03 - 6:06
    想像一下選前之夜。
  • 6:06 - 6:09
    有一支深偽影片播放
    一位主要政黨的候選人
  • 6:09 - 6:10
    病得很重。
  • 6:11 - 6:14
    那支深偽影片有可能影響選舉,
  • 6:14 - 6:17
    並動搖我們對選舉合法性的感受。
  • 6:19 - 6:21
    想像一下,某間大型全球銀行
  • 6:21 - 6:24
    在首次公開募股的前一晚,
  • 6:24 - 6:27
    出現一支深偽影片,
    內容是該銀行的執行長
  • 6:27 - 6:30
    醉醺醺地大放厥詞說著陰謀論。
  • 6:31 - 6:34
    這支深偽影片可能會
    重創這首次公開募股,
  • 6:34 - 6:38
    更糟糕的是,會動搖我們對
    金融市場穩定的感受。
  • 6:39 - 6:46
    所以,深偽技術能利用
    並放大我們對政治人物、企業領袖
  • 6:46 - 6:51
    及其他具影響力之領導人之
    已有的深層不信任感。
  • 6:51 - 6:54
    深偽影片一開始就誤導了它的觀眾。
  • 6:55 - 6:58
    而對真相的追尋也會受到危及。
  • 6:59 - 7:03
    技術人員認為隨著人工智慧的進步,
  • 7:03 - 7:06
    未來想要分辨出真實影片
    和偽造影片的差別
  • 7:06 - 7:10
    可能會變得非常困難
    甚至無法分辨。
  • 7:11 - 7:16
    所以,在一個充斥著深偽影片
    想法的市場中,真相如何能浮現?
  • 7:17 - 7:20
    我們會不會選擇走阻力最少的路,
  • 7:20 - 7:23
    相信我們想要相信的,
  • 7:23 - 7:24
    而不管真相為何呢?
  • 7:25 - 7:28
    我們不僅可能會相信偽造品,
  • 7:28 - 7:31
    我們還可能會開始質疑真相。
  • 7:32 - 7:36
    我們已經看過有人利用
    深偽事件的表象,
  • 7:36 - 7:40
    使他們錯誤行為的真實證據遭到質疑。
  • 7:40 - 7:46
    我們也聽過政客對他們
    不利消息的回應:
  • 7:46 - 7:48
    「拜託,那是假新聞。
  • 7:48 - 7:52
    不要相信你眼睛看到
    和耳朵聽到的東西。」
  • 7:52 - 7:54
    這種風險,
  • 7:54 - 8:00
    羅伯‧特切斯尼教授和我
    稱之為「騙子的紅利」:
  • 8:00 - 8:03
    這風險在於騙子會透過深偽技術
  • 8:03 - 8:06
    來為自己惡行脫罪。
  • 8:07 - 8:10
    所以毫無疑問的,
    我們有艱鉅的工作要完成。
  • 8:11 - 8:14
    我們會需要科技公司、立法者
  • 8:14 - 8:17
    法律執行者以及媒體
  • 8:17 - 8:20
    主動積極地提出解決方案。
  • 8:20 - 8:24
    同時我們也會需要
    社會復原力的健康處方。
  • 8:26 - 8:29
    當下,我們正在與科技公司
  • 8:29 - 8:33
    進行關於社會責任的公開談話。
  • 8:33 - 8:36
    我們對社群媒體平台的建議,
  • 8:36 - 8:40
    已經影響了他們的
    服務條款和社群準則,
  • 8:40 - 8:42
    禁止會造成傷害的深偽技術。
  • 8:43 - 8:47
    這樣的決定,需要人性的判斷,
  • 8:47 - 8:48
    代價很高。
  • 8:49 - 8:51
    但我們需要人類
  • 8:51 - 8:55
    來查看深偽產物的內容和背景,
  • 8:55 - 8:59
    以判定它是否是有害的偽造品,
  • 8:59 - 9:04
    還是具價值的諷刺作品、藝術或教育。
  • 9:04 - 9:06
    那麼,法律呢?
  • 9:07 - 9:09
    法律是我們的老師。
  • 9:10 - 9:14
    法律教導我們什麼
    是有害的、什麼是錯的。
  • 9:14 - 9:18
    法律會透過懲罰犯罪者
    以及讓受害者獲得補償救助,
  • 9:18 - 9:21
    以此來規範行為。
  • 9:21 - 9:25
    現在,法律還無法面對
    深偽技術的挑戰。
  • 9:26 - 9:28
    全球各地
  • 9:28 - 9:30
    都缺乏適當的法律
  • 9:30 - 9:34
    來處理會侵犯性隱私、
  • 9:34 - 9:35
    毀損名譽、
  • 9:35 - 9:39
    造成情緒痛苦的數位偽造行為。
  • 9:40 - 9:44
    發生在拉娜‧阿尤布
    身上的事越來越常見。
  • 9:44 - 9:46
    但,當她去找德里的執法機關,
  • 9:46 - 9:49
    她得到的回應是執法機關無能為力。
  • 9:49 - 9:52
    令人可悲的是,就算在美國和歐洲,
  • 9:52 - 9:55
    結果也是一樣。
  • 9:55 - 10:00
    我們的法律有漏洞,需要填補。
  • 10:00 - 10:04
    我的同事瑪莉‧安‧妮弗蘭克斯博士
    和我跟美國的立法者合作,
  • 10:04 - 10:08
    策劃立法以禁止那些會造成傷害
  • 10:08 - 10:12
    且等同於偷竊身分的數位偽造行為。
  • 10:12 - 10:15
    我們已經看到在冰島、英國
  • 10:15 - 10:18
    和澳洲都有類似的行動。
  • 10:18 - 10:21
    但當然,那只是控管拼圖的
    其中一小片。
  • 10:23 - 10:26
    我知道法律並非萬靈丹,對吧?
  • 10:26 - 10:28
    法律是一種鈍器。
  • 10:28 - 10:30
    我們得要明智地運用它。
  • 10:30 - 10:33
    實際執法上也常遇到障礙。
  • 10:34 - 10:39
    法律對你辨識不出、
    定位不了的人無能為力。
  • 10:39 - 10:43
    如果犯罪者住在國外,
  • 10:43 - 10:45
    和受害者不同國家,
  • 10:45 - 10:47
    那麼你可能無法堅持
  • 10:47 - 10:50
    要犯罪者到當地法庭去面對司法。
  • 10:50 - 10:55
    所以我們需要協調出
    一致性的國際回應方式。
  • 10:56 - 10:59
    我們的回應也得要包含教育。
  • 11:00 - 11:04
    執法者無法執行
  • 11:04 - 11:05
    他們不懂的法律,
  • 11:05 - 11:08
    也無法提出他們不了解的問題。
  • 11:08 - 11:11
    在我的網路跟蹤研究中,
  • 11:11 - 11:14
    我發現執法人員缺乏訓練,
  • 11:14 - 11:17
    不了解他們能使用的法律有哪些,
  • 11:17 - 11:19
    也不了解線上霸凌行為的問題。
  • 11:19 - 11:22
    所以,他們通常會告訴受害者:
  • 11:22 - 11:26
    「把你的電腦關機。
    不要理它。就沒事了。」
  • 11:26 - 11:29
    在拉娜‧阿尤布的案例中就是如此。
  • 11:29 - 11:33
    她得到的回應是:
    「拜託,妳太大驚小怪了。
  • 11:33 - 11:34
    男孩子都是這樣子的。」
  • 11:35 - 11:41
    所以我們在新立法時
    還要搭配對人員的培訓。
  • 11:42 - 11:45
    且媒體也需要被教育。
  • 11:46 - 11:50
    記者需要了解深偽的現象,
  • 11:50 - 11:54
    他們才不會去放大和散播它們。
  • 11:55 - 11:57
    這也是和我們大家都有關的地方。
  • 11:57 - 12:01
    我們每一個人都需要被教育。
  • 12:01 - 12:05
    我們會點閱、分享、按讚,
    做這些時卻不會去思考。
  • 12:06 - 12:07
    我們必須做得更好。
  • 12:08 - 12:11
    我們需要有更好的
    判讀能力來辨識真偽。
  • 12:14 - 12:18
    當我們正在致力於這些解決方案時,
  • 12:18 - 12:20
    也會伴隨著許多的困難和痛苦。
  • 12:21 - 12:24
    拉娜‧阿尤布
    仍在和事件的餘波苦戰。
  • 12:25 - 12:29
    不論在線上或離線,
    她仍然無法自在地表達自己。
  • 12:30 - 12:31
    她告訴我,
  • 12:31 - 12:36
    她仍然覺得好像有成千上萬的人
    在盯著她的裸體看,
  • 12:36 - 12:40
    即使理智上她也知道
    那並不是她的身體。
  • 12:40 - 12:43
    她常常會有突發性的恐慌,
  • 12:43 - 12:47
    尤其是當她不認識的人
    想要拍她的照片時。
  • 12:47 - 12:50
    「如果他們又要拿照片去做
    深偽呢?」她會這麼想。
  • 12:51 - 12:55
    所以,為了像拉娜‧阿尤布這樣的人,
  • 12:55 - 12:57
    以及為了我們的民主,
  • 12:57 - 13:00
    我們現在就得要採取行動。
  • 13:00 - 13:01
    謝謝。
  • 13:01 - 13:03
    (掌聲)
Title:
深偽技術如何破壞真相、威脅民主
Speaker:
丹妮爾‧西倫
Description:

深偽技術可以用來操弄影音,達成有惡意的目的——不論是要煽動暴力或誹謗政治人物和記者——這種技術已經造成真正的威脅。這些工具越來越容易取得,且其做成的產品越來越像是真的,它們會如何影響我們對已知世界的認知?在這場很有預示性的演說中,法律教授丹妮爾‧西倫揭露出深偽如何放大我們的不信任-並建議一些方法來捍衛真相。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Chinese, Traditional subtitles

Revisions