當科技能有讀心術時,要如何保護我們的隱私?
-
0:01 - 0:05在 2009 年伊朗
總統大選之後的數個月, -
0:06 - 0:09抗議在該國各地爆發。
-
0:10 - 0:13伊朗政府以暴力方式壓制
-
0:13 - 0:17後來大家所知的伊朗綠色革命,
-
0:17 - 0:19政府甚至阻擋手機訊號,
-
0:19 - 0:21切斷抗議者之間的通訊。
-
0:22 - 0:27我父母在六○年代末移民到美國,
-
0:27 - 0:29他們很多時候都在伊朗,
-
0:29 - 0:32我非常大的大家庭
成員都住在那裡。 -
0:33 - 0:36在政府用最暴力的方式鎮壓抗議時,
-
0:36 - 0:39我會打電話給在德黑蘭的家人,
-
0:39 - 0:43他們通通不敢跟我討論
發生了什麼事。 -
0:43 - 0:47他們或是我都會知道
要很快地轉換到其他話題。 -
0:47 - 0:51我們都了解若被認為持有不同意見,
-
0:51 - 0:53會有什麼樣的後果。
-
0:54 - 0:58但我還是希望我當時
能知道他們在想什麼, -
0:58 - 0:59或他們有什麼感覺。
-
1:00 - 1:02如果我當初能做到呢?
-
1:02 - 1:06或,更令人害怕的狀況,
如果伊朗政府當初能夠做到呢? -
1:07 - 1:10政府是否會基於他們
腦中所想的就逮捕他們? -
1:11 - 1:14那一天可能比你想像的還要近。
-
1:15 - 1:17我們在神經科學、
-
1:17 - 1:20人工智慧以及機器學習的
能力不斷提升, -
1:20 - 1:24我們可能很快就會知道
更多人腦裡頭的狀況。 -
1:25 - 1:27我是生物倫理學家、律師、
-
1:27 - 1:30哲學家,以及伊朗裔美國人,
-
1:30 - 1:34我非常在乎這項發展對於
我們的自由有什麼樣的意涵, -
1:34 - 1:36以及我們需要怎樣的保護。
-
1:37 - 1:40我認為我們要有
「認知自由」的權利, -
1:40 - 1:43它是一種需要被保護的人權,
-
1:44 - 1:46如果沒有保護它,
我們的思想自由、 -
1:46 - 1:49對我們大腦的存取權以及控制權,
-
1:49 - 1:53還有我們的心理隱私
都會受到威脅。 -
1:54 - 1:58試想看看:一般人每天
會有數千個思維想法。 -
1:59 - 2:02一個想法形成時,
比如一項數學計算、 -
2:02 - 2:05一個數字、一個單字,
-
2:05 - 2:08神經元就會和大腦互動,
-
2:08 - 2:11產生很微小的靜電放電。
-
2:12 - 2:15當你有一種主動支配的
精神狀態,比如放鬆, -
2:15 - 2:19腦中會有成千上百個
神經元串接在一起, -
2:19 - 2:24創造出依循特徵模式的
同時靜電放電, -
2:24 - 2:28可以用腦電圖(EEG)來測量。
-
2:29 - 2:31事實上,就是各位現在所看到的。
-
2:32 - 2:36你們看到的是我的
即時腦部活動記錄, -
2:36 - 2:39我頭上只要戴著一個
簡單的裝置即可。 -
2:40 - 2:41你們看到的,
-
2:41 - 2:45是我放鬆且好奇時的腦部活動。
-
2:46 - 2:48為了和各位分享這些資訊,
-
2:48 - 2:52我戴上了一個早期以消費者
為基礎的腦電圖裝置,就像這個, -
2:52 - 2:56它能即時記錄下我腦部的電活動。
-
2:57 - 3:01它並不像有些人健身戴的那種
-
3:01 - 3:04心跳追蹤器,或是計步器,
-
3:04 - 3:06或是睡眠活動監測器。
-
3:07 - 3:11它甚至算不上是市場上
最精密的神經成像技術。 -
3:12 - 3:14但它是最能攜帶的,
-
3:14 - 3:17且最可能影響我們日常生活的。
-
3:18 - 3:19這很了不起。
-
3:19 - 3:22透過一個簡單、可穿戴的裝置,
-
3:22 - 3:26我們就真的能看見人腦的內部,
-
3:26 - 3:29且完全不用說話就可以
-
3:29 - 3:32知道我們的心景。
-
3:33 - 3:36雖然我們還無法用很可靠的方式
來解譯複雜的思想, -
3:37 - 3:39我們已經可以測量人的心情,
-
3:39 - 3:42在人工智慧的協助之下,
-
3:42 - 3:46我們甚至可以將一個人腦中
在想的一位數數字、 -
3:46 - 3:51一個形狀,或簡單的字詞
給解譯出來, -
3:51 - 3:54連他聽見的、看見的也可以。
-
3:54 - 3:58儘管腦電圖有一些先天的限制,
-
3:58 - 4:02我認為我們可以說,
隨著我們的科技進步, -
4:02 - 4:06會有越來越多在人腦中發生的狀況
-
4:06 - 4:09隨時間都能夠被解譯出來。
-
4:09 - 4:12現今,使用這種裝置,
-
4:12 - 4:17癲癇症患者就可以
在癲癇發作之前知道即將發作, -
4:17 - 4:21截癱患者能夠單單用
他們的思想在電腦上打字。 -
4:22 - 4:25一間美國公司開發出了一種技術,
-
4:25 - 4:29來將這些感測器裝入汽車的頭枕,
-
4:29 - 4:31他們就能追蹤司機在開車時的
-
4:31 - 4:34注意力、分心,以及認知負載。
-
4:35 - 4:39日產汽車、保險公司,
以及美國汽車協會都已經在關注。 -
4:40 - 4:45你甚至可以觀賞《時刻》這部
「選擇你自己的冒險」的電影, -
4:45 - 4:49看的時候要戴上腦電圖耳機,
-
4:49 - 4:53就能用你腦中的反應來改變電影,
-
4:53 - 4:57每當你的注意力降低,
就會給你一個不一樣的結局。 -
4:59 - 5:01這可能聽起來很棒,
-
5:02 - 5:04身為生物倫理學家,
-
5:04 - 5:08我非常支持要讓人們有能力
-
5:08 - 5:10去掌控自己的健康和幸福,
-
5:10 - 5:13而讓他們取得關於自己的資訊——
-
5:13 - 5:17包括用這項了不起的大腦解譯新技術,
就可以做到這一點。 -
5:18 - 5:19但,我會擔心。
-
5:20 - 5:24我擔心我們會自願地或不自願地
-
5:24 - 5:29放棄我們捍衛自由及我們
心理隱私的最後保壘。 -
5:29 - 5:32我擔心我們會拿
我們的大腦活動來交易, -
5:32 - 5:35換取保險的貼現或折扣,
-
5:36 - 5:39或換取免費帳號來使用社交媒體,
-
5:40 - 5:42甚至用來保有工作。
-
5:43 - 5:45事實上,在中國,
-
5:46 - 5:49北京上海之間的高鐵,
-
5:49 - 5:52是世界上最忙碌的高鐵,
-
5:52 - 5:54開這條線的火車司機,
-
5:55 - 5:57被要求要配戴腦電圖裝置,
-
5:57 - 6:00用來監測他們
在駕駛時的大腦活動。 -
6:00 - 6:02根據一些新聞來源,
-
6:02 - 6:05在中國的國營工廠中,
-
6:05 - 6:08工人被要求要配戴腦電圖感測器,
-
6:08 - 6:10來監測他們的生產力,
-
6:10 - 6:13以及他們工作時的情緒狀態。
-
6:13 - 6:18如果工人的大腦展現出
他們對於工作沒有做到最專注, -
6:18 - 6:22或是呈現出情緒煩亂,
他們就會被送回家。 -
6:23 - 6:25明天還不會發生,
-
6:25 - 6:28但我們正在朝向一個
透明大腦的世界邁進。 -
6:29 - 6:32我不覺得大家了解那會改變一切。
-
6:32 - 6:35一切都會變,從我們
對於資料隱私的定義, -
6:35 - 6:38到我們的法律,
到我們對於自由的想法。 -
6:39 - 6:42事實上,在我的
杜克大學實驗室中, -
6:42 - 6:45我們最近進行了一項
美國全國性的研究, -
6:45 - 6:49來看看大家是否知道
他們的大腦資訊有多敏感。 -
6:50 - 6:53我們請受訪者針對三十三種資訊
-
6:53 - 6:56所認為的敏感度來進行評分,
-
6:56 - 6:58這些資訊包括他們的身分證字號、
-
6:58 - 7:01他們電話交談的內容、
-
7:01 - 7:03他們過去的關係、
-
7:03 - 7:05他們的情緒、他們的焦慮、
-
7:05 - 7:07他們腦中的影像,
-
7:07 - 7:09以及他們腦中的思想。
-
7:09 - 7:11很讓人驚訝的是,
-
7:11 - 7:15大家認為身分證字號的敏感度
-
7:15 - 7:17遠高於任何其他資訊,
-
7:17 - 7:19包括他們腦中的資料。
-
7:20 - 7:24我認為這是因為大家尚未了解
-
7:24 - 7:28或還不相信這種新的
大腦解譯技術背後的意涵。 -
7:29 - 7:32畢竟,如果我們能夠知道
人腦內部的運作, -
7:32 - 7:35我們的身分證字號
是最不用擔心的了。 -
7:35 - 7:36(笑聲)
-
7:36 - 7:37想想看。
-
7:37 - 7:40在一個大腦完全透明的世界中,
-
7:40 - 7:42誰敢有在政治上意見不同的念頭?
-
7:43 - 7:45或是有創意的想法?
-
7:46 - 7:48我擔心大家會因為害怕
-
7:48 - 7:52被社會排斥而做自我審查,
-
7:52 - 7:55或者,大家丟掉飯碗可能是
-
7:55 - 7:58因為注意力下降或是情緒不穩定,
-
7:58 - 8:02或是因為他們在想著
要集體會抗僱主的行動。 -
8:02 - 8:06出櫃與否也不再是個選擇,
-
8:06 - 8:09因為人腦會揭露出
-
8:09 - 8:13他們的性向、
他們的政治意識形態, -
8:13 - 8:14或是他們的宗教偏好,
-
8:15 - 8:19在他們有意識地準備好和他人
分享之前,大腦都先做了。 -
8:20 - 8:24我擔心我們的法律是否
能夠跟上科技的改變。 -
8:25 - 8:27比如美國憲法第一修正案
-
8:27 - 8:29保障的是言論的自由。
-
8:29 - 8:31它是否也保護思想的自由?
-
8:32 - 8:36如果是的話,那是否表示我們
可以任意改變想法? -
8:36 - 8:39或者,政府或社會是否能
-
8:39 - 8:41告訴我們能用自己的大腦做什麼?
-
8:42 - 8:46國家安全協會是否能用這些新的
行動裝置來監視我們的大腦? -
8:46 - 8:49透過應用程式收集大腦資料的公司
-
8:49 - 8:52是否能將這些資訊販售給第三方?
-
8:53 - 8:56目前,沒有法律阻止他們這麼做。
-
8:57 - 8:59有些國家問題可能更大,
-
8:59 - 9:02如人民不像美國人能享有
-
9:02 - 9:04那種自由的那些國家。
-
9:05 - 9:09在伊朗綠色革命中,
-
9:09 - 9:13如果政府能夠監視
我家人的大腦活動, -
9:13 - 9:17因而認為他們同情抗議者,
會發生什麼事? -
9:18 - 9:21真的有這麼難想像這樣的社會嗎?
-
9:21 - 9:25人民因為他們有想要
犯罪的念頭而被逮捕, -
9:25 - 9:30就像是科幻電影《關鍵報告》中的
反烏托邦社會一樣。 -
9:30 - 9:35在美國印第安納州,
-
9:35 - 9:40已經有一位十八歲的男子
被控試圖威嚇他的學校, -
9:40 - 9:43因為他張貼了一支他自己
在走廊射殺他人的影片…… -
9:44 - 9:47只不過,被殺的人是殭屍,
-
9:47 - 9:51那支影片的內容其實是
他在玩虛擬實境的遊戲, -
9:52 - 9:57這全都被解讀為
他主觀意圖的心理投射。 -
9:58 - 10:03這正是為什麼我們的大腦
需要特殊的保護。 -
10:03 - 10:07如果我們的大腦就像
我們的財務記錄和交易一樣 -
10:07 - 10:09會受到資料追蹤和整合,
-
10:09 - 10:13如果我們的大腦能像
我們的線上活動、手機, -
10:13 - 10:16及應用程式一樣被駭入和被追蹤,
-
10:16 - 10:20那麼我們就是處於集體人性
受到危險威脅的邊緣。 -
10:21 - 10:23在你們慌張之前,
-
10:24 - 10:27我相信這些擔憂都有解決方案,
-
10:27 - 10:30但我們一開始就得
把焦點放在對的地方。 -
10:31 - 10:33就一般性的隱私保護而言,
-
10:34 - 10:38我認為我們在打一場會輸的仗,
因為我們在試圖限制資訊流。 -
10:38 - 10:42反之,我們應該要把焦點放在
保衛我們的權利並做出補救, -
10:42 - 10:45確保我們的資訊不會被濫用。
-
10:45 - 10:49如果人民有權決定
他們的資訊要如何被分享, -
10:49 - 10:52更重要的,要有法律補救方法,
-
10:52 - 10:54以免他們的資訊被濫用
來對他們不利, -
10:54 - 10:57比如在應徵時,或健康照護
-
10:57 - 10:59或教育的情境中被用來歧視他們,
-
11:00 - 11:02要花很長的時間才能夠建立信任。
-
11:03 - 11:05事實上,在一些狀況中,
-
11:05 - 11:08我們會想要分享更多的個人資訊。
-
11:09 - 11:12研究整合的資訊能告訴我們許多
-
11:12 - 11:14關於我們健康和幸福的訊息,
-
11:15 - 11:18但若要安全地分享我們的資訊,
-
11:18 - 11:21我們的心理隱私
會需要特殊的保護。 -
11:22 - 11:25這就是為什麼我們需要
一種認知自由權。 -
11:26 - 11:30這種權利能確保
我們的思想和沉思自由, -
11:30 - 11:32我們的自我決定自由,
-
11:32 - 11:37且能保證我們有權同意或拒絕他人
-
11:37 - 11:39取得和變更我們大腦內容的權利。
-
11:40 - 11:42這種權利可以被視為是
-
11:42 - 11:45世界人權宣言的一部分,
-
11:45 - 11:47該宣言是在建立一些機制
-
11:47 - 11:50以強制執行這類社會權利。
-
11:52 - 11:54在伊朗綠色革命時,
-
11:54 - 11:57抗議者用網路
-
11:57 - 11:59以及傳統的口耳相傳,
-
11:59 - 12:01來協調他們的遊行。
-
12:02 - 12:04結果,伊朗政府解除了
-
12:04 - 12:07一些最壓迫的限制。
-
12:08 - 12:12但,如果伊朗政府
當初使用大腦監視 -
12:12 - 12:15來偵測並預防抗議呢?
-
12:17 - 12:20世界還會有機會
聽到抗議者的吶喊嗎? -
12:22 - 12:27該是我們來進行一場
認知自由革命的時候了。 -
12:28 - 12:31以確保我們的科技是以
負責任的方式在進步, -
12:31 - 12:34讓我們能夠擁抱未來,
-
12:34 - 12:37同時強力保護我們所有人,
-
12:37 - 12:40不受到任何人、公司,或政府
-
12:41 - 12:46以不合法的方式嘗試取得
或變更我們最內在的生活。 -
12:47 - 12:48謝謝。
-
12:48 - 12:51(掌聲)
- Title:
- 當科技能有讀心術時,要如何保護我們的隱私?
- Speaker:
- 妮塔 A. 法拉漢尼
- Description:
-
法律學者及倫理學家妮塔法拉漢尼說:能夠解譯你的腦部活動並揭示出你想法的技術已經近在眼前。對於我們那已經被侵犯的隱私感而言,這個趨勢有什麼意涵?在這場警示性的演講中,法拉漢尼警告我們,將來的社會可能會是人民只因為想著要犯罪就被逮捕(如同《關鍵報告》),並為了私人利益而出賣我們的大腦資料。她也提出要建立一種認知自由的權利,來保護我們的思想自由和自我決定自由。
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:04
![]() |
Marssi Draw approved Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? | |
![]() |
Marssi Draw edited Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? | |
![]() |
Marssi Draw edited Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? | |
![]() |
Congmei Han accepted Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? | |
![]() |
Congmei Han edited Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? | |
![]() |
Congmei Han edited Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? | |
![]() |
Congmei Han edited Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? | |
![]() |
Congmei Han edited Chinese, Traditional subtitles for When technology can read minds, how will we protect our privacy? |