< Return to Video

當科技能有讀心術時,要如何保護我們的隱私?

  • 0:01 - 0:05
    在 2009 年伊朗
    總統大選之後的數個月,
  • 0:06 - 0:09
    抗議在該國各地爆發。
  • 0:10 - 0:13
    伊朗政府以暴力方式壓制
  • 0:13 - 0:17
    後來大家所知的伊朗綠色革命,
  • 0:17 - 0:19
    政府甚至阻擋手機訊號,
  • 0:19 - 0:21
    切斷抗議者之間的通訊。
  • 0:22 - 0:27
    我父母在六○年代末移民到美國,
  • 0:27 - 0:29
    他們很多時候都在伊朗,
  • 0:29 - 0:32
    我非常大的大家庭
    成員都住在那裡。
  • 0:33 - 0:36
    在政府用最暴力的方式鎮壓抗議時,
  • 0:36 - 0:39
    我會打電話給在德黑蘭的家人,
  • 0:39 - 0:43
    他們通通不敢跟我討論
    發生了什麼事。
  • 0:43 - 0:47
    他們或是我都會知道
    要很快地轉換到其他話題。
  • 0:47 - 0:51
    我們都了解若被認為持有不同意見,
  • 0:51 - 0:53
    會有什麼樣的後果。
  • 0:54 - 0:58
    但我還是希望我當時
    能知道他們在想什麼,
  • 0:58 - 0:59
    或他們有什麼感覺。
  • 1:00 - 1:02
    如果我當初能做到呢?
  • 1:02 - 1:06
    或,更令人害怕的狀況,
    如果伊朗政府當初能夠做到呢?
  • 1:07 - 1:10
    政府是否會基於他們
    腦中所想的就逮捕他們?
  • 1:11 - 1:14
    那一天可能比你想像的還要近。
  • 1:15 - 1:17
    我們在神經科學、
  • 1:17 - 1:20
    人工智慧以及機器學習的
    能力不斷提升,
  • 1:20 - 1:24
    我們可能很快就會知道
    更多人腦裡頭的狀況。
  • 1:25 - 1:27
    我是生物倫理學家、律師、
  • 1:27 - 1:30
    哲學家,以及伊朗裔美國人,
  • 1:30 - 1:34
    我非常在乎這項發展對於
    我們的自由有什麼樣的意涵,
  • 1:34 - 1:36
    以及我們需要怎樣的保護。
  • 1:37 - 1:40
    我認為我們要有
    「認知自由」的權利,
  • 1:40 - 1:43
    它是一種需要被保護的人權,
  • 1:44 - 1:46
    如果沒有保護它,
    我們的思想自由、
  • 1:46 - 1:49
    對我們大腦的存取權以及控制權,
  • 1:49 - 1:53
    還有我們的心理隱私
    都會受到威脅。
  • 1:54 - 1:58
    試想看看:一般人每天
    會有數千個思維想法。
  • 1:59 - 2:02
    一個想法形成時,
    比如一項數學計算、
  • 2:02 - 2:05
    一個數字、一個單字,
  • 2:05 - 2:08
    神經元就會和大腦互動,
  • 2:08 - 2:11
    產生很微小的靜電放電。
  • 2:12 - 2:15
    當你有一種主動支配的
    精神狀態,比如放鬆,
  • 2:15 - 2:19
    腦中會有成千上百個
    神經元串接在一起,
  • 2:19 - 2:24
    創造出依循特徵模式的
    同時靜電放電,
  • 2:24 - 2:28
    可以用腦電圖(EEG)來測量。
  • 2:29 - 2:31
    事實上,就是各位現在所看到的。
  • 2:32 - 2:36
    你們看到的是我的
    即時腦部活動記錄,
  • 2:36 - 2:39
    我頭上只要戴著一個
    簡單的裝置即可。
  • 2:40 - 2:41
    你們看到的,
  • 2:41 - 2:45
    是我放鬆且好奇時的腦部活動。
  • 2:46 - 2:48
    為了和各位分享這些資訊,
  • 2:48 - 2:52
    我戴上了一個早期以消費者
    為基礎的腦電圖裝置,就像這個,
  • 2:52 - 2:56
    它能即時記錄下我腦部的電活動。
  • 2:57 - 3:01
    它並不像有些人健身戴的那種
  • 3:01 - 3:04
    心跳追蹤器,或是計步器,
  • 3:04 - 3:06
    或是睡眠活動監測器。
  • 3:07 - 3:11
    它甚至算不上是市場上
    最精密的神經成像技術。
  • 3:12 - 3:14
    但它是最能攜帶的,
  • 3:14 - 3:17
    且最可能影響我們日常生活的。
  • 3:18 - 3:19
    這很了不起。
  • 3:19 - 3:22
    透過一個簡單、可穿戴的裝置,
  • 3:22 - 3:26
    我們就真的能看見人腦的內部,
  • 3:26 - 3:29
    且完全不用說話就可以
  • 3:29 - 3:32
    知道我們的心景。
  • 3:33 - 3:36
    雖然我們還無法用很可靠的方式
    來解譯複雜的思想,
  • 3:37 - 3:39
    我們已經可以測量人的心情,
  • 3:39 - 3:42
    在人工智慧的協助之下,
  • 3:42 - 3:46
    我們甚至可以將一個人腦中
    在想的一位數數字、
  • 3:46 - 3:51
    一個形狀,或簡單的字詞
    給解譯出來,
  • 3:51 - 3:54
    連他聽見的、看見的也可以。
  • 3:54 - 3:58
    儘管腦電圖有一些先天的限制,
  • 3:58 - 4:02
    我認為我們可以說,
    隨著我們的科技進步,
  • 4:02 - 4:06
    會有越來越多在人腦中發生的狀況
  • 4:06 - 4:09
    隨時間都能夠被解譯出來。
  • 4:09 - 4:12
    現今,使用這種裝置,
  • 4:12 - 4:17
    癲癇症患者就可以
    在癲癇發作之前知道即將發作,
  • 4:17 - 4:21
    截癱患者能夠單單用
    他們的思想在電腦上打字。
  • 4:22 - 4:25
    一間美國公司開發出了一種技術,
  • 4:25 - 4:29
    來將這些感測器裝入汽車的頭枕,
  • 4:29 - 4:31
    他們就能追蹤司機在開車時的
  • 4:31 - 4:34
    注意力、分心,以及認知負載。
  • 4:35 - 4:39
    日產汽車、保險公司,
    以及美國汽車協會都已經在關注。
  • 4:40 - 4:45
    你甚至可以觀賞《時刻》這部
    「選擇你自己的冒險」的電影,
  • 4:45 - 4:49
    看的時候要戴上腦電圖耳機,
  • 4:49 - 4:53
    就能用你腦中的反應來改變電影,
  • 4:53 - 4:57
    每當你的注意力降低,
    就會給你一個不一樣的結局。
  • 4:59 - 5:01
    這可能聽起來很棒,
  • 5:02 - 5:04
    身為生物倫理學家,
  • 5:04 - 5:08
    我非常支持要讓人們有能力
  • 5:08 - 5:10
    去掌控自己的健康和幸福,
  • 5:10 - 5:13
    而讓他們取得關於自己的資訊——
  • 5:13 - 5:17
    包括用這項了不起的大腦解譯新技術,
    就可以做到這一點。
  • 5:18 - 5:19
    但,我會擔心。
  • 5:20 - 5:24
    我擔心我們會自願地或不自願地
  • 5:24 - 5:29
    放棄我們捍衛自由及我們
    心理隱私的最後保壘。
  • 5:29 - 5:32
    我擔心我們會拿
    我們的大腦活動來交易,
  • 5:32 - 5:35
    換取保險的貼現或折扣,
  • 5:36 - 5:39
    或換取免費帳號來使用社交媒體,
  • 5:40 - 5:42
    甚至用來保有工作。
  • 5:43 - 5:45
    事實上,在中國,
  • 5:46 - 5:49
    北京上海之間的高鐵,
  • 5:49 - 5:52
    是世界上最忙碌的高鐵,
  • 5:52 - 5:54
    開這條線的火車司機,
  • 5:55 - 5:57
    被要求要配戴腦電圖裝置,
  • 5:57 - 6:00
    用來監測他們
    在駕駛時的大腦活動。
  • 6:00 - 6:02
    根據一些新聞來源,
  • 6:02 - 6:05
    在中國的國營工廠中,
  • 6:05 - 6:08
    工人被要求要配戴腦電圖感測器,
  • 6:08 - 6:10
    來監測他們的生產力,
  • 6:10 - 6:13
    以及他們工作時的情緒狀態。
  • 6:13 - 6:18
    如果工人的大腦展現出
    他們對於工作沒有做到最專注,
  • 6:18 - 6:22
    或是呈現出情緒煩亂,
    他們就會被送回家。
  • 6:23 - 6:25
    明天還不會發生,
  • 6:25 - 6:28
    但我們正在朝向一個
    透明大腦的世界邁進。
  • 6:29 - 6:32
    我不覺得大家了解那會改變一切。
  • 6:32 - 6:35
    一切都會變,從我們
    對於資料隱私的定義,
  • 6:35 - 6:38
    到我們的法律,
    到我們對於自由的想法。
  • 6:39 - 6:42
    事實上,在我的
    杜克大學實驗室中,
  • 6:42 - 6:45
    我們最近進行了一項
    美國全國性的研究,
  • 6:45 - 6:49
    來看看大家是否知道
    他們的大腦資訊有多敏感。
  • 6:50 - 6:53
    我們請受訪者針對三十三種資訊
  • 6:53 - 6:56
    所認為的敏感度來進行評分,
  • 6:56 - 6:58
    這些資訊包括他們的身分證字號、
  • 6:58 - 7:01
    他們電話交談的內容、
  • 7:01 - 7:03
    他們過去的關係、
  • 7:03 - 7:05
    他們的情緒、他們的焦慮、
  • 7:05 - 7:07
    他們腦中的影像,
  • 7:07 - 7:09
    以及他們腦中的思想。
  • 7:09 - 7:11
    很讓人驚訝的是,
  • 7:11 - 7:15
    大家認為身分證字號的敏感度
  • 7:15 - 7:17
    遠高於任何其他資訊,
  • 7:17 - 7:19
    包括他們腦中的資料。
  • 7:20 - 7:24
    我認為這是因為大家尚未了解
  • 7:24 - 7:28
    或還不相信這種新的
    大腦解譯技術背後的意涵。
  • 7:29 - 7:32
    畢竟,如果我們能夠知道
    人腦內部的運作,
  • 7:32 - 7:35
    我們的身分證字號
    是最不用擔心的了。
  • 7:35 - 7:36
    (笑聲)
  • 7:36 - 7:37
    想想看。
  • 7:37 - 7:40
    在一個大腦完全透明的世界中,
  • 7:40 - 7:42
    誰敢有在政治上意見不同的念頭?
  • 7:43 - 7:45
    或是有創意的想法?
  • 7:46 - 7:48
    我擔心大家會因為害怕
  • 7:48 - 7:52
    被社會排斥而做自我審查,
  • 7:52 - 7:55
    或者,大家丟掉飯碗可能是
  • 7:55 - 7:58
    因為注意力下降或是情緒不穩定,
  • 7:58 - 8:02
    或是因為他們在想著
    要集體會抗僱主的行動。
  • 8:02 - 8:06
    出櫃與否也不再是個選擇,
  • 8:06 - 8:09
    因為人腦會揭露出
  • 8:09 - 8:13
    他們的性向、
    他們的政治意識形態,
  • 8:13 - 8:14
    或是他們的宗教偏好,
  • 8:15 - 8:19
    在他們有意識地準備好和他人
    分享之前,大腦都先做了。
  • 8:20 - 8:24
    我擔心我們的法律是否
    能夠跟上科技的改變。
  • 8:25 - 8:27
    比如美國憲法第一修正案
  • 8:27 - 8:29
    保障的是言論的自由。
  • 8:29 - 8:31
    它是否也保護思想的自由?
  • 8:32 - 8:36
    如果是的話,那是否表示我們
    可以任意改變想法?
  • 8:36 - 8:39
    或者,政府或社會是否能
  • 8:39 - 8:41
    告訴我們能用自己的大腦做什麼?
  • 8:42 - 8:46
    國家安全協會是否能用這些新的
    行動裝置來監視我們的大腦?
  • 8:46 - 8:49
    透過應用程式收集大腦資料的公司
  • 8:49 - 8:52
    是否能將這些資訊販售給第三方?
  • 8:53 - 8:56
    目前,沒有法律阻止他們這麼做。
  • 8:57 - 8:59
    有些國家問題可能更大,
  • 8:59 - 9:02
    如人民不像美國人能享有
  • 9:02 - 9:04
    那種自由的那些國家。
  • 9:05 - 9:09
    在伊朗綠色革命中,
  • 9:09 - 9:13
    如果政府能夠監視
    我家人的大腦活動,
  • 9:13 - 9:17
    因而認為他們同情抗議者,
    會發生什麼事?
  • 9:18 - 9:21
    真的有這麼難想像這樣的社會嗎?
  • 9:21 - 9:25
    人民因為他們有想要
    犯罪的念頭而被逮捕,
  • 9:25 - 9:30
    就像是科幻電影《關鍵報告》中的
    反烏托邦社會一樣。
  • 9:30 - 9:35
    在美國印第安納州,
  • 9:35 - 9:40
    已經有一位十八歲的男子
    被控試圖威嚇他的學校,
  • 9:40 - 9:43
    因為他張貼了一支他自己
    在走廊射殺他人的影片……
  • 9:44 - 9:47
    只不過,被殺的人是殭屍,
  • 9:47 - 9:51
    那支影片的內容其實是
    他在玩虛擬實境的遊戲,
  • 9:52 - 9:57
    這全都被解讀為
    他主觀意圖的心理投射。
  • 9:58 - 10:03
    這正是為什麼我們的大腦
    需要特殊的保護。
  • 10:03 - 10:07
    如果我們的大腦就像
    我們的財務記錄和交易一樣
  • 10:07 - 10:09
    會受到資料追蹤和整合,
  • 10:09 - 10:13
    如果我們的大腦能像
    我們的線上活動、手機,
  • 10:13 - 10:16
    及應用程式一樣被駭入和被追蹤,
  • 10:16 - 10:20
    那麼我們就是處於集體人性
    受到危險威脅的邊緣。
  • 10:21 - 10:23
    在你們慌張之前,
  • 10:24 - 10:27
    我相信這些擔憂都有解決方案,
  • 10:27 - 10:30
    但我們一開始就得
    把焦點放在對的地方。
  • 10:31 - 10:33
    就一般性的隱私保護而言,
  • 10:34 - 10:38
    我認為我們在打一場會輸的仗,
    因為我們在試圖限制資訊流。
  • 10:38 - 10:42
    反之,我們應該要把焦點放在
    保衛我們的權利並做出補救,
  • 10:42 - 10:45
    確保我們的資訊不會被濫用。
  • 10:45 - 10:49
    如果人民有權決定
    他們的資訊要如何被分享,
  • 10:49 - 10:52
    更重要的,要有法律補救方法,
  • 10:52 - 10:54
    以免他們的資訊被濫用
    來對他們不利,
  • 10:54 - 10:57
    比如在應徵時,或健康照護
  • 10:57 - 10:59
    或教育的情境中被用來歧視他們,
  • 11:00 - 11:02
    要花很長的時間才能夠建立信任。
  • 11:03 - 11:05
    事實上,在一些狀況中,
  • 11:05 - 11:08
    我們會想要分享更多的個人資訊。
  • 11:09 - 11:12
    研究整合的資訊能告訴我們許多
  • 11:12 - 11:14
    關於我們健康和幸福的訊息,
  • 11:15 - 11:18
    但若要安全地分享我們的資訊,
  • 11:18 - 11:21
    我們的心理隱私
    會需要特殊的保護。
  • 11:22 - 11:25
    這就是為什麼我們需要
    一種認知自由權。
  • 11:26 - 11:30
    這種權利能確保
    我們的思想和沉思自由,
  • 11:30 - 11:32
    我們的自我決定自由,
  • 11:32 - 11:37
    且能保證我們有權同意或拒絕他人
  • 11:37 - 11:39
    取得和變更我們大腦內容的權利。
  • 11:40 - 11:42
    這種權利可以被視為是
  • 11:42 - 11:45
    世界人權宣言的一部分,
  • 11:45 - 11:47
    該宣言是在建立一些機制
  • 11:47 - 11:50
    以強制執行這類社會權利。
  • 11:52 - 11:54
    在伊朗綠色革命時,
  • 11:54 - 11:57
    抗議者用網路
  • 11:57 - 11:59
    以及傳統的口耳相傳,
  • 11:59 - 12:01
    來協調他們的遊行。
  • 12:02 - 12:04
    結果,伊朗政府解除了
  • 12:04 - 12:07
    一些最壓迫的限制。
  • 12:08 - 12:12
    但,如果伊朗政府
    當初使用大腦監視
  • 12:12 - 12:15
    來偵測並預防抗議呢?
  • 12:17 - 12:20
    世界還會有機會
    聽到抗議者的吶喊嗎?
  • 12:22 - 12:27
    該是我們來進行一場
    認知自由革命的時候了。
  • 12:28 - 12:31
    以確保我們的科技是以
    負責任的方式在進步,
  • 12:31 - 12:34
    讓我們能夠擁抱未來,
  • 12:34 - 12:37
    同時強力保護我們所有人,
  • 12:37 - 12:40
    不受到任何人、公司,或政府
  • 12:41 - 12:46
    以不合法的方式嘗試取得
    或變更我們最內在的生活。
  • 12:47 - 12:48
    謝謝。
  • 12:48 - 12:51
    (掌聲)
Title:
當科技能有讀心術時,要如何保護我們的隱私?
Speaker:
妮塔 A. 法拉漢尼
Description:

法律學者及倫理學家妮塔法拉漢尼說:能夠解譯你的腦部活動並揭示出你想法的技術已經近在眼前。對於我們那已經被侵犯的隱私感而言,這個趨勢有什麼意涵?在這場警示性的演講中,法拉漢尼警告我們,將來的社會可能會是人民只因為想著要犯罪就被逮捕(如同《關鍵報告》),並為了私人利益而出賣我們的大腦資料。她也提出要建立一種認知自由的權利,來保護我們的思想自由和自我決定自由。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:04

Chinese, Traditional subtitles

Revisions