科技公司對你的孩子有哪些了解
-
0:01 - 0:03每天,每週,
-
0:03 - 0:05我們同意某些「條件及條款」。
-
0:05 - 0:07當我們這麼做時,
-
0:07 - 0:09我們便讓公司擁有合法的權利
-
0:09 - 0:13可以任意使用我們的資料,
-
0:13 - 0:16以及我們孩子的資料。
-
0:17 - 0:19這會讓我們不禁納悶:
-
0:20 - 0:22我們給出了有關孩子的多少資料,
-
0:23 - 0:25以及這背後的意涵是什麼?
-
0:26 - 0:28我是人類學家,
-
0:28 - 0:30同時也是兩個小女孩的母親。
-
0:31 - 0:35我從 2015 年開始
對這個問題感到好奇, -
0:35 - 0:38那年,我突然發現,有很大量——
-
0:38 - 0:42和孩子有關的追蹤資料
被產生出來並收集起來, -
0:42 - 0:44且數量大到無法想像。
-
0:45 - 0:49於是,我展開了一項研究計畫,
名稱叫做「兒童資料公民」, -
0:49 - 0:52我的目標是要填補這些空白。
-
0:53 - 0:56各位可能會認為我是來責怪大家
-
0:56 - 0:58在社群媒體上張貼
自己孩子的照片, -
0:58 - 1:00但那其實不是重點。
-
1:01 - 1:04問題遠大於所謂的
「分享式教養」。 -
1:05 - 1:09重點在於體制,而不是個人。
-
1:09 - 1:11要怪的不是你們和你們的習慣。
-
1:13 - 1:16史無前例,
-
1:16 - 1:20我們遠在孩子出生之前
就開始追蹤他們的個人資料—— -
1:20 - 1:23有時是從懷孕就開始,
-
1:23 - 1:25接著便追蹤他們的一生。
-
1:25 - 1:28要知道,當父母決定要懷孕時,
-
1:28 - 1:31他們會上網搜尋「懷孕的方式」,
-
1:31 - 1:35或者他們會下載
排卵追蹤應用程式。 -
1:35 - 1:38當他們確實懷孕之後,
-
1:38 - 1:41他們會把寶寶的超音波照片
張貼在社群媒體上, -
1:41 - 1:43他們會下載懷孕期應用程式,
-
1:43 - 1:47或者他們會向 Google 大神
諮詢各種相關事項。 -
1:47 - 1:48比如——
-
1:48 - 1:51搜尋「飛行造成的流產風險」,
-
1:51 - 1:54或「懷孕初期的腹痛」。
-
1:54 - 1:57我知道是因為我做過許多次。
-
1:58 - 2:01等寶寶出生了,他們會用各種技術
-
2:01 - 2:05追蹤每次小盹、每次進食、
生命中的每件事。 -
2:06 - 2:09而他們用的這些技術,
-
2:09 - 2:13都會把寶寶最私密的行為
和健康資料分享出去, -
2:13 - 2:16以轉換成利潤。
-
2:17 - 2:19讓我說明一下這是怎麼運作的:
-
2:19 - 2:232019 年,英國醫學期刊
刊出了一篇研究, -
2:23 - 2:27指出在二十四個
行動健康應用程式中, -
2:28 - 2:31有十九個會和第三方分享資訊。
-
2:32 - 2:35而這些第三方會把資訊分享給
-
2:35 - 2:38兩百一十六個其他組織。
-
2:39 - 2:42在這兩百一十六個第四方當中,
-
2:42 - 2:45只有三個屬於健康領域。
-
2:46 - 2:50其他能取得這些資料的公司
則是大型科技公司, -
2:50 - 2:53比如 Google、臉書,
或甲骨文公司, -
2:54 - 2:56還有數位廣告公司,
-
2:56 - 3:00還有一家是消費者信用調查機構。
-
3:01 - 3:03所以,沒錯:
-
3:03 - 3:08廣告公司和信用機構可能
都已經有小寶寶的資料了。 -
3:09 - 3:12但,行動應用程式、
網路搜尋和社群媒體 -
3:12 - 3:15其實只是冰山的一角,
-
3:15 - 3:18因為有許多技術在日常生活中
-
3:18 - 3:20追蹤兒童的資料。
-
3:20 - 3:24在家中,家用科技
和虛擬助理會追蹤兒童。 -
3:24 - 3:28在學校,教育平台
和教育相關技術都會追蹤兒童。 -
3:28 - 3:32在醫生的診間,線上記錄
和線上入口網站都會追蹤兒童。 -
3:33 - 3:36還有需連結網路的玩具、線上遊戲
-
3:36 - 3:39及許多許多其他技術
都會追蹤兒童。 -
3:40 - 3:42所以,在我研究期間,
-
3:42 - 3:46很多父母來找我,
他們會說:「又怎樣? -
3:46 - 3:49我的孩子被追蹤有什麼關係?
-
3:50 - 3:52我們沒啥要隱瞞的。」
-
3:53 - 3:55這是有關係的。
-
3:55 - 3:57有關係是因為,現今,
-
3:57 - 4:01個人不僅受到追蹤,
-
4:01 - 4:05這些追蹤資料還會
被拿來建構他們的側寫評比。 -
4:05 - 4:09人工智慧和預測分析
-
4:09 - 4:12正被用來盡可能多地利用
-
4:12 - 4:14不同來源的個人生活資料:
-
4:15 - 4:19家族史、購買習慣、社群媒體留言。
-
4:19 - 4:21接著,這些資料會被整合,
-
4:21 - 4:24以資料為根據,
做出針對個人的決策。 -
4:25 - 4:28到處都在使用這些技術。
-
4:28 - 4:30銀行用它們來決定貸款,
-
4:31 - 4:33保險公司用它們來決定保費,
-
4:34 - 4:37招聘公司和僱主用它們
-
4:37 - 4:40來判定應徵者是否適合某個職缺。
-
4:41 - 4:44連警方和法庭也會用它們
-
4:44 - 4:47來判斷一個人是否有可能是罪犯,
-
4:47 - 4:50或是否有可能再犯。
-
4:52 - 4:57我們不知道也無法控制
-
4:57 - 4:59購買、銷售、處理我們資料的公司
-
4:59 - 5:03會用什麼方式來對我們
和我們的孩子做側寫評比, -
5:04 - 5:08但那些側寫評比有可能會
顯著影響我們的權利。 -
5:09 - 5:11舉個例子,
-
5:14 - 5:182018 年《紐約時報》
刊載的新聞提到, -
5:18 - 5:23透過大學規劃線上服務
所收集到的資料—— -
5:23 - 5:27這些資料來自全美各地數百萬名
-
5:27 - 5:31想要尋找大學科系
或獎學金的高中生—— -
5:31 - 5:35被販售給教育資料中介商。
-
5:36 - 5:41福坦莫大學裡那些研究
教育資料中介商的研究者 -
5:41 - 5:45揭發出這些公司會根據不同的分類
-
5:45 - 5:49來為小至兩歲的兒童做側寫評比:
-
5:50 - 5:53人種、宗教、富裕程度、
-
5:54 - 5:56社交尷尬
-
5:56 - 5:59及許多其他隨機的分類。
-
5:59 - 6:01接著,它們會賣掉這些側寫評比,
-
6:01 - 6:07連帶附上兒童的姓名、
地址和聯絡細節資訊, -
6:07 - 6:09賣給各種公司,
-
6:09 - 6:11包括貿易和職涯機構、
-
6:12 - 6:15學生貸款以及學生信用卡公司。
-
6:17 - 6:19福坦莫大學的研究者還更進一步,
-
6:19 - 6:24請一家教育資料中介商
提供他們一份名單, -
6:24 - 6:31羅列十四到十五歲
對於避孕措施感興趣的女孩。 -
6:32 - 6:35資料中介商同意
提供他們這份名單。 -
6:35 - 6:40想像這多麼侵害我們孩子的私密。
-
6:41 - 6:45但,教育資料中介商
也只不過是一個例子。 -
6:45 - 6:50事實是,我們無法控制別人
如何對我們的孩子做側寫評比, -
6:50 - 6:53但這些側寫評比卻會明顯影響
他們在人生中的機會。 -
6:54 - 6:57所以,我們得要捫心自問:
-
6:58 - 7:02我們能信任這些
側寫評比孩子的技術嗎? -
7:02 - 7:04能嗎?
-
7:06 - 7:07我的答案是「不能。」
-
7:08 - 7:09身為人類學家,
-
7:09 - 7:13我相信人工智慧和預測分析
-
7:13 - 7:17很擅長預測疾病的過程
或對抗氣候變遷。 -
7:18 - 7:20但我們不能夠信任
-
7:20 - 7:23這些技術能夠客觀地
對人類做側寫評比, -
7:23 - 7:28讓我們依據這些側寫評比資料
來對個人的人生做出判斷, -
7:28 - 7:31因為它們無法對人類做側寫評比。
-
7:31 - 7:34追蹤資料並無法反映出
我們是什麼樣的人。 -
7:34 - 7:37人類說出來的話
可能和心中想的相反, -
7:37 - 7:39做出來的行為
可能和心中的感受不同。 -
7:39 - 7:42用演算法做預測或其他數位做法
-
7:42 - 7:47無法考量到人類經歷中的
不可預測性和複雜性。 -
7:48 - 7:50除此之外,
-
7:50 - 7:52這些技術向來——
-
7:53 - 7:56向來——會以某種方式偏頗。
-
7:57 - 8:02在定義上,演算法就是
一組一組的規則或步驟, -
8:02 - 8:06設計的目的是要達成
一個特定的結果。 -
8:07 - 8:10但這些規則或步驟並不客觀,
-
8:10 - 8:13因為它們是由某種
特定文化情境下的人所設計的, -
8:13 - 8:16且由某些特定的
文化價值觀所形塑出來。 -
8:17 - 8:18所以,機器學習時
-
8:18 - 8:21會自偏頗的演算法學習,
-
8:22 - 8:25通常也會從偏頗的資料庫中學習。
-
8:26 - 8:30現在我們已經開始看見
一些偏頗演算法的初始例子, -
8:30 - 8:33當中有些還挺嚇人的。
-
8:34 - 8:40紐約的 AI Now Institute
今年公佈的一份報告揭露出 -
8:40 - 8:44用來做預測性維安的人工智慧技術
-
8:44 - 8:48是用「髒數據」訓練出來的。
-
8:48 - 8:51收集這些資料的時期,
-
8:51 - 8:55是歷史上已知很有種族偏見
-
8:55 - 8:58以及警方作業不透明的時期。
-
8:59 - 9:02因為訓練這些技術
所用的資料是髒數據, -
9:03 - 9:04不具備客觀性,
-
9:04 - 9:06它們產出的結果
-
9:06 - 9:10只會放大和犯下警方的偏見和錯誤。
-
9:13 - 9:18所以,我認為我們面臨的
是社會中的根本問題。 -
9:18 - 9:23我們開始交由科技技術
來側寫評比人。 -
9:24 - 9:26我們知道在側寫評比人時,
-
9:26 - 9:29這些技術一定會偏頗,
-
9:29 - 9:31永遠不會正確。
-
9:32 - 9:35所以,現在我們需要的
是政治上的解決方案。 -
9:35 - 9:40我們需要政府認可
我們的資料權和人權。 -
9:40 - 9:44(掌聲及歡呼)
-
9:48 - 9:52在那之前,我們不用冀望
會有更公正的未來。 -
9:53 - 9:55我擔心我的女兒會接觸到
-
9:56 - 9:59各種演算法歧視和錯誤。
-
9:59 - 10:01我和我女兒的差別在於
-
10:01 - 10:04我的童年並沒有
公開的記錄可被取得。 -
10:05 - 10:09肯定也沒有資料庫
記錄我在青少女時期 -
10:09 - 10:11做過的所有蠢事和蠢念頭。
-
10:11 - 10:13(笑聲)
-
10:14 - 10:17但我女兒要面臨的情況可能不同。
-
10:17 - 10:20今天收集到和她們有關的資料,
-
10:20 - 10:24未來可能就會被用來評斷她們,
-
10:24 - 10:28且有可能會漸漸阻擋到
她們的希望和夢想。 -
10:29 - 10:31我認為該是我們大家
站出來的時候了。 -
10:31 - 10:34該是我們開始同心協力,
-
10:34 - 10:38以個人、組織、
機構的身份攜手合作, -
10:38 - 10:43我們要為自己及我們的孩子
爭取更高的資料公平性, -
10:43 - 10:44別等到太遲了。
-
10:44 - 10:45謝謝。
-
10:45 - 10:47(掌聲)
- Title:
- 科技公司對你的孩子有哪些了解
- Speaker:
- 薇若妮卡.巴拉西
- Description:
-
人類學家薇若妮卡.巴拉西說:你和家人每天使用的數位平台——從線上遊戲到教育應用程式及醫療入口網站——有可能在收集和銷售與你孩子有關的資料。在這場演說中,巴拉西分享她的研究,讓你大開眼界。她鼓勵父母要仔細閱讀數位的「條件與條款」而不是盲目地按下「接受」。她還要求要制定保護政策,以確保與我們孩子有關的資料不會影響到他們的未來。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Helen Chang approved Chinese, Traditional subtitles for What tech companies know about your kids | ||
Helen Chang edited Chinese, Traditional subtitles for What tech companies know about your kids | ||
Helen Chang edited Chinese, Traditional subtitles for What tech companies know about your kids | ||
Carol Wang accepted Chinese, Traditional subtitles for What tech companies know about your kids | ||
Carol Wang edited Chinese, Traditional subtitles for What tech companies know about your kids | ||
Carol Wang edited Chinese, Traditional subtitles for What tech companies know about your kids | ||
Carol Wang edited Chinese, Traditional subtitles for What tech companies know about your kids | ||
Carol Wang edited Chinese, Traditional subtitles for What tech companies know about your kids |