深偽技術如何破壞真相、威脅民主
-
0:01 - 0:03〔本演說含有成人內容〕
-
0:06 - 0:09拉娜‧阿尤布是印度的記者,
-
0:09 - 0:11她的報導曾經揭露過政府腐敗
-
0:12 - 0:15以及侵犯人權的事件。
-
0:15 - 0:16這些年來,
-
0:16 - 0:19她也習慣了工作
所引來的尖酸批評和爭議。 -
0:20 - 0:25但這些都不足以讓她準備好
面對 2018 年四月所發生的事。 -
0:26 - 0:30她第一次看到時,
正和一名朋友坐在咖啡廳: -
0:30 - 0:35她看到一個長達兩分二十秒
以她為主角的性行為影片, -
0:35 - 0:38她無法相信她的眼睛。
-
0:38 - 0:40她從來沒有拍過性影片。
-
0:41 - 0:44但不幸的是,成千上萬的人
-
0:44 - 0:46都相信那是她。
-
0:47 - 0:50大約三個月前,我為了我所寫的
-
0:50 - 0:52一本關於性隱私的書而去訪問她。
-
0:53 - 0:56我是法律教授、
律師和民權擁護者。 -
0:56 - 1:01當我知道現行的法律沒辦法協助她時,
-
1:01 - 1:03我感到非常挫折。
-
1:03 - 1:05我們交談時,
-
1:05 - 1:10她解釋說她應該要料到
會有假的性影片出現。 -
1:10 - 1:16她說:「畢竟,性通常
被用來貶抑和羞辱女人, -
1:16 - 1:18特別是少數的弱勢女性、
-
1:18 - 1:22敢挑戰威權男性的少數女性,」
-
1:22 - 1:24比如,她在工作中所扮演的角色。
-
1:25 - 1:29四十八小時內,
假造的性影片就被瘋傳。 -
1:30 - 1:35她所有的線上帳戶都被
該影片的截圖給洗版, -
1:35 - 1:38夾帶著繪聲繪影的強暴和殺害威脅,
-
1:38 - 1:41還汙辱她的穆斯林信仰。
-
1:41 - 1:46線上貼文指出
她現在「有空」可以約炮。 -
1:46 - 1:48她的個資被外洩,
-
1:48 - 1:50她的住家地址和手機號碼,
-
1:50 - 1:52在網路上處處可見。
-
1:53 - 1:57該影片被分享了超過四萬次。
-
1:58 - 2:02當一個人成為這種
網路暴民攻擊的目標, -
2:02 - 2:04所受到的傷害會極度嚴重。
-
2:04 - 2:08拉娜‧阿尤布的人生
被搞得亂七八糟。 -
2:08 - 2:12好幾週的時間她都幾乎
食不下嚥或無法說話。 -
2:12 - 2:16她停止寫作並關閉了
所有的社群媒體帳戶, -
2:16 - 2:19對於記者來說,這是很難的抉擇。
-
2:19 - 2:23她很怕踏出家門。
-
2:23 - 2:26萬一貼文的人履行了
他們的威脅怎麼辦? -
2:26 - 2:31聯合國人權理事會確認她並沒有發瘋。
-
2:31 - 2:35理事會發佈了一份公開聲明,
說他們擔心她的安全。 -
2:37 - 2:41拉娜‧阿尤布面對的就是深偽技術:
-
2:41 - 2:44它是一種機器學習科技,
-
2:44 - 2:48能操弄或偽造錄音和錄影,
-
2:48 - 2:50偽造的影音呈現出當事人
-
2:50 - 2:52從未做過或說過的內容。
-
2:53 - 2:56深偽技術的產物
看起來很真實,但不是真相, -
2:56 - 2:58完全是假造的。
-
2:59 - 3:03雖然這項技術的精密度還在發展中,
-
3:03 - 3:05但它已經可廣泛取得。
-
3:05 - 3:08最近深偽技術的關注度之所以提升,
-
3:08 - 3:11和線上許多其它內容一樣,
-
3:11 - 3:12和色情內容有關。
-
3:12 - 3:152018 年初,
-
3:15 - 3:17有人在 Reddit 上張貼了一項工具,
-
3:17 - 3:22使用者可以將面孔放入色情影片當中。
-
3:22 - 3:25接踵而來的是
傾洩而出的偽造色情影片, -
3:25 - 3:28主打大家最愛的女性名人。
-
3:29 - 3:32現今,你可以上 YouTube
找到大量的教學影片, -
3:32 - 3:34內有逐步指示,
-
3:35 - 3:38教你如何用電腦的應用程式
來製作深偽影片。 -
3:38 - 3:42可能很快我們就能用手機
來製作深偽影片了。 -
3:43 - 3:48正是我們基本的人性弱點
-
3:48 - 3:50與網路工具的相互作用,
-
3:50 - 3:53使得深偽技術變成了武器。
-
3:53 - 3:54讓我解釋一下。
-
3:55 - 3:59我們人類對影音會直覺反應。
-
4:00 - 4:01我們會相信它們是真的,
-
4:01 - 4:03你認為當然能相信
-
4:03 - 4:06你的眼睛和耳朵所告訴你的事情。
-
4:06 - 4:08而正是這個機制
-
4:08 - 4:12有可能削減了我們感知真實的靈敏度。
-
4:12 - 4:15雖然我們誤信深偽技術下的
產物是真的,但它們不是。 -
4:16 - 4:20我們會被猥褻的、
刺激的內容物所吸引。 -
4:20 - 4:23我們傾向相信並轉貼分享
-
4:23 - 4:25這些負面新奇的資訊。
-
4:26 - 4:30研究者發現網路惡作劇散播的速度,
-
4:30 - 4:32比真實故事快十倍。
-
4:34 - 4:38我們也會被和我們觀點
-
4:38 - 4:40相同的資訊所吸引。
-
4:41 - 4:45心理學家稱之為「確認偏差」的傾向。
-
4:45 - 4:50社群媒體平台會強化你偏好的傾向,
-
4:50 - 4:54因為那些平台讓我們
能夠迅速、廣泛地分享 -
4:54 - 4:55和我們觀點相同的資訊。
-
4:57 - 5:02深偽技術有可能對
個人及社會造成嚴重的傷害。 -
5:03 - 5:05所以,想像一支深偽影片
-
5:05 - 5:09內容是美國士兵在阿富汗燒毀可蘭經。
-
5:11 - 5:13各位可以想像那種深偽影片
-
5:13 - 5:15會挑起針對這些士兵的暴力反擊。
-
5:16 - 5:19如果隔天
-
5:19 - 5:21又出來了一支深偽影片,
-
5:21 - 5:24內容是在倫敦知名的伊斯蘭教領袖
-
5:24 - 5:27讚美那些對士兵的攻擊行為?
-
5:28 - 5:31我們可能會看到暴力和內亂,
-
5:31 - 5:34不僅是在阿富汗及英國,
-
5:34 - 5:36還有全球各地。
-
5:36 - 5:37各位可能會跟我說:
-
5:37 - 5:40「拜託,丹妮爾,那太牽強了。」
-
5:40 - 5:41但這並不牽強。
-
5:41 - 5:43我們已經見過在 WhatsApp
-
5:44 - 5:46及其它網路訊息上散播的謠言,
-
5:46 - 5:49導致對非主流人群的暴力。
-
5:49 - 5:51那還只是文字訊息——
-
5:51 - 5:53想像一下,若是影片會如何。
-
5:55 - 5:58深偽技術極可能會損害
-
5:58 - 6:02我們對民主制度的信任。
-
6:03 - 6:06想像一下選前之夜。
-
6:06 - 6:09有一支深偽影片播放
一位主要政黨的候選人 -
6:09 - 6:10病得很重。
-
6:11 - 6:14那支深偽影片有可能影響選舉,
-
6:14 - 6:17並動搖我們對選舉合法性的感受。
-
6:19 - 6:21想像一下,某間大型全球銀行
-
6:21 - 6:24在首次公開募股的前一晚,
-
6:24 - 6:27出現一支深偽影片,
內容是該銀行的執行長 -
6:27 - 6:30醉醺醺地大放厥詞說著陰謀論。
-
6:31 - 6:34這支深偽影片可能會
重創這首次公開募股, -
6:34 - 6:38更糟糕的是,會動搖我們對
金融市場穩定的感受。 -
6:39 - 6:46所以,深偽技術能利用
並放大我們對政治人物、企業領袖 -
6:46 - 6:51及其他具影響力之領導人之
已有的深層不信任感。 -
6:51 - 6:54深偽影片一開始就誤導了它的觀眾。
-
6:55 - 6:58而對真相的追尋也會受到危及。
-
6:59 - 7:03技術人員認為隨著人工智慧的進步,
-
7:03 - 7:06未來想要分辨出真實影片
和偽造影片的差別 -
7:06 - 7:10可能會變得非常困難
甚至無法分辨。 -
7:11 - 7:16所以,在一個充斥著深偽影片
想法的市場中,真相如何能浮現? -
7:17 - 7:20我們會不會選擇走阻力最少的路,
-
7:20 - 7:23相信我們想要相信的,
-
7:23 - 7:24而不管真相為何呢?
-
7:25 - 7:28我們不僅可能會相信偽造品,
-
7:28 - 7:31我們還可能會開始質疑真相。
-
7:32 - 7:36我們已經看過有人利用
深偽事件的表象, -
7:36 - 7:40使他們錯誤行為的真實證據遭到質疑。
-
7:40 - 7:46我們也聽過政客對他們
不利消息的回應: -
7:46 - 7:48「拜託,那是假新聞。
-
7:48 - 7:52不要相信你眼睛看到
和耳朵聽到的東西。」 -
7:52 - 7:54這種風險,
-
7:54 - 8:00羅伯‧特切斯尼教授和我
稱之為「騙子的紅利」: -
8:00 - 8:03這風險在於騙子會透過深偽技術
-
8:03 - 8:06來為自己惡行脫罪。
-
8:07 - 8:10所以毫無疑問的,
我們有艱鉅的工作要完成。 -
8:11 - 8:14我們會需要科技公司、立法者
-
8:14 - 8:17法律執行者以及媒體
-
8:17 - 8:20主動積極地提出解決方案。
-
8:20 - 8:24同時我們也會需要
社會復原力的健康處方。 -
8:26 - 8:29當下,我們正在與科技公司
-
8:29 - 8:33進行關於社會責任的公開談話。
-
8:33 - 8:36我們對社群媒體平台的建議,
-
8:36 - 8:40已經影響了他們的
服務條款和社群準則, -
8:40 - 8:42禁止會造成傷害的深偽技術。
-
8:43 - 8:47這樣的決定,需要人性的判斷,
-
8:47 - 8:48代價很高。
-
8:49 - 8:51但我們需要人類
-
8:51 - 8:55來查看深偽產物的內容和背景,
-
8:55 - 8:59以判定它是否是有害的偽造品,
-
8:59 - 9:04還是具價值的諷刺作品、藝術或教育。
-
9:04 - 9:06那麼,法律呢?
-
9:07 - 9:09法律是我們的老師。
-
9:10 - 9:14法律教導我們什麼
是有害的、什麼是錯的。 -
9:14 - 9:18法律會透過懲罰犯罪者
以及讓受害者獲得補償救助, -
9:18 - 9:21以此來規範行為。
-
9:21 - 9:25現在,法律還無法面對
深偽技術的挑戰。 -
9:26 - 9:28全球各地
-
9:28 - 9:30都缺乏適當的法律
-
9:30 - 9:34來處理會侵犯性隱私、
-
9:34 - 9:35毀損名譽、
-
9:35 - 9:39造成情緒痛苦的數位偽造行為。
-
9:40 - 9:44發生在拉娜‧阿尤布
身上的事越來越常見。 -
9:44 - 9:46但,當她去找德里的執法機關,
-
9:46 - 9:49她得到的回應是執法機關無能為力。
-
9:49 - 9:52令人可悲的是,就算在美國和歐洲,
-
9:52 - 9:55結果也是一樣。
-
9:55 - 10:00我們的法律有漏洞,需要填補。
-
10:00 - 10:04我的同事瑪莉‧安‧妮弗蘭克斯博士
和我跟美國的立法者合作, -
10:04 - 10:08策劃立法以禁止那些會造成傷害
-
10:08 - 10:12且等同於偷竊身分的數位偽造行為。
-
10:12 - 10:15我們已經看到在冰島、英國
-
10:15 - 10:18和澳洲都有類似的行動。
-
10:18 - 10:21但當然,那只是控管拼圖的
其中一小片。 -
10:23 - 10:26我知道法律並非萬靈丹,對吧?
-
10:26 - 10:28法律是一種鈍器。
-
10:28 - 10:30我們得要明智地運用它。
-
10:30 - 10:33實際執法上也常遇到障礙。
-
10:34 - 10:39法律對你辨識不出、
定位不了的人無能為力。 -
10:39 - 10:43如果犯罪者住在國外,
-
10:43 - 10:45和受害者不同國家,
-
10:45 - 10:47那麼你可能無法堅持
-
10:47 - 10:50要犯罪者到當地法庭去面對司法。
-
10:50 - 10:55所以我們需要協調出
一致性的國際回應方式。 -
10:56 - 10:59我們的回應也得要包含教育。
-
11:00 - 11:04執法者無法執行
-
11:04 - 11:05他們不懂的法律,
-
11:05 - 11:08也無法提出他們不了解的問題。
-
11:08 - 11:11在我的網路跟蹤研究中,
-
11:11 - 11:14我發現執法人員缺乏訓練,
-
11:14 - 11:17不了解他們能使用的法律有哪些,
-
11:17 - 11:19也不了解線上霸凌行為的問題。
-
11:19 - 11:22所以,他們通常會告訴受害者:
-
11:22 - 11:26「把你的電腦關機。
不要理它。就沒事了。」 -
11:26 - 11:29在拉娜‧阿尤布的案例中就是如此。
-
11:29 - 11:33她得到的回應是:
「拜託,妳太大驚小怪了。 -
11:33 - 11:34男孩子都是這樣子的。」
-
11:35 - 11:41所以我們在新立法時
還要搭配對人員的培訓。 -
11:42 - 11:45且媒體也需要被教育。
-
11:46 - 11:50記者需要了解深偽的現象,
-
11:50 - 11:54他們才不會去放大和散播它們。
-
11:55 - 11:57這也是和我們大家都有關的地方。
-
11:57 - 12:01我們每一個人都需要被教育。
-
12:01 - 12:05我們會點閱、分享、按讚,
做這些時卻不會去思考。 -
12:06 - 12:07我們必須做得更好。
-
12:08 - 12:11我們需要有更好的
判讀能力來辨識真偽。 -
12:14 - 12:18當我們正在致力於這些解決方案時,
-
12:18 - 12:20也會伴隨著許多的困難和痛苦。
-
12:21 - 12:24拉娜‧阿尤布
仍在和事件的餘波苦戰。 -
12:25 - 12:29不論在線上或離線,
她仍然無法自在地表達自己。 -
12:30 - 12:31她告訴我,
-
12:31 - 12:36她仍然覺得好像有成千上萬的人
在盯著她的裸體看, -
12:36 - 12:40即使理智上她也知道
那並不是她的身體。 -
12:40 - 12:43她常常會有突發性的恐慌,
-
12:43 - 12:47尤其是當她不認識的人
想要拍她的照片時。 -
12:47 - 12:50「如果他們又要拿照片去做
深偽呢?」她會這麼想。 -
12:51 - 12:55所以,為了像拉娜‧阿尤布這樣的人,
-
12:55 - 12:57以及為了我們的民主,
-
12:57 - 13:00我們現在就得要採取行動。
-
13:00 - 13:01謝謝。
-
13:01 - 13:03(掌聲)
- Title:
- 深偽技術如何破壞真相、威脅民主
- Speaker:
- 丹妮爾‧西倫
- Description:
-
深偽技術可以用來操弄影音,達成有惡意的目的——不論是要煽動暴力或誹謗政治人物和記者——這種技術已經造成真正的威脅。這些工具越來越容易取得,且其做成的產品越來越像是真的,它們會如何影響我們對已知世界的認知?在這場很有預示性的演說中,法律教授丹妮爾‧西倫揭露出深偽如何放大我們的不信任-並建議一些方法來捍衛真相。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Helen Chang approved Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy | ||
Helen Chang edited Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy | ||
Helen Chang edited Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy | ||
易帆 余 accepted Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy | ||
易帆 余 edited Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy | ||
易帆 余 edited Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy | ||
SF Huang edited Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy | ||
SF Huang edited Chinese, Traditional subtitles for How deepfakes undermine truth and threaten democracy |