WEBVTT 00:00:00.792 --> 00:00:03.059 每天,每週, 00:00:03.083 --> 00:00:05.268 我們同意某些「條件及條款」。 00:00:05.292 --> 00:00:06.768 當我們這麼做時, 00:00:06.792 --> 00:00:09.268 我們便讓公司擁有合法的權利 00:00:09.292 --> 00:00:12.649 可以任意使用我們的資料, 00:00:13.000 --> 00:00:15.672 以及我們孩子的資料。 00:00:16.792 --> 00:00:19.445 這會讓我們不禁納悶: 00:00:19.792 --> 00:00:22.339 我們給出了有關孩子的多少資料, 00:00:22.708 --> 00:00:24.978 以及這背後的意涵是什麼? NOTE Paragraph 00:00:26.500 --> 00:00:27.893 我是人類學家, 00:00:27.917 --> 00:00:30.198 同時也是兩個小女孩的母親。 00:00:30.542 --> 00:00:34.846 我從 2015 年開始 對這個問題感到好奇, 00:00:35.042 --> 00:00:37.768 那年,我突然發現,有很大量—— 00:00:37.792 --> 00:00:41.863 和孩子有關的追蹤資料 被產生出來並收集起來, 00:00:41.883 --> 00:00:44.189 且數量大到無法想像。 00:00:44.792 --> 00:00:49.243 於是,我展開了一項研究計畫, 名稱叫做「兒童資料公民」, 00:00:49.292 --> 00:00:51.658 我的目標是要填補這些空白。 NOTE Paragraph 00:00:52.583 --> 00:00:55.601 各位可能會認為我是來責怪大家 00:00:55.625 --> 00:00:58.393 在社群媒體上張貼 自己孩子的照片, 00:00:58.417 --> 00:01:00.318 但那其實不是重點。 00:01:00.583 --> 00:01:04.217 問題遠大於所謂的 「分享式教養」。 00:01:04.792 --> 00:01:08.697 重點在於體制,而不是個人。 00:01:08.917 --> 00:01:11.453 要怪的不是你們和你們的習慣。 NOTE Paragraph 00:01:12.833 --> 00:01:15.555 史無前例, 00:01:15.708 --> 00:01:19.926 我們遠在孩子出生之前 就開始追蹤他們的個人資料—— 00:01:20.083 --> 00:01:22.538 有時是從懷孕就開始, 00:01:22.792 --> 00:01:24.903 接著便追蹤他們的一生。 00:01:25.167 --> 00:01:28.156 要知道,當父母決定要懷孕時, 00:01:28.292 --> 00:01:31.088 他們會上網搜尋「懷孕的方式」, 00:01:31.292 --> 00:01:34.519 或者他們會下載 排卵追蹤應用程式。 00:01:35.250 --> 00:01:37.505 當他們確實懷孕之後, 00:01:37.875 --> 00:01:41.018 他們會把寶寶的超音波照片 張貼在社群媒體上, 00:01:41.042 --> 00:01:43.059 他們會下載懷孕期應用程式, 00:01:43.083 --> 00:01:46.809 或者他們會向 Google 大神 諮詢各種相關事項。 00:01:46.833 --> 00:01:48.351 比如—— 00:01:48.375 --> 00:01:50.934 搜尋「飛行造成的流產風險」, 00:01:50.958 --> 00:01:53.726 或「懷孕初期的腹痛」。 00:01:53.750 --> 00:01:57.380 我知道是因為我做過許多次。 00:01:58.458 --> 00:02:01.453 等寶寶出生了,他們會用各種技術 00:02:01.473 --> 00:02:05.167 追蹤每次小盹、每次進食、 生命中的每件事。 00:02:06.083 --> 00:02:08.963 而他們用的這些技術, 00:02:08.983 --> 00:02:13.234 都會把寶寶最私密的行為 和健康資料分享出去, 00:02:13.234 --> 00:02:15.542 以轉換成利潤。 NOTE Paragraph 00:02:16.583 --> 00:02:18.726 讓我說明一下這是怎麼運作的: 00:02:18.750 --> 00:02:23.109 2019 年,英國醫學期刊 刊出了一篇研究, 00:02:23.269 --> 00:02:27.442 指出在二十四個 行動健康應用程式中, 00:02:27.625 --> 00:02:31.247 有十九個會和第三方分享資訊。 00:02:32.083 --> 00:02:34.862 而這些第三方會把資訊分享給 00:02:34.882 --> 00:02:38.080 兩百一十六個其他組織。 00:02:38.875 --> 00:02:42.166 在這兩百一十六個第四方當中, 00:02:42.333 --> 00:02:45.124 只有三個屬於健康領域。 00:02:45.500 --> 00:02:50.018 其他能取得這些資料的公司 則是大型科技公司, 00:02:50.042 --> 00:02:53.278 比如 Google、臉書, 或甲骨文公司, 00:02:53.583 --> 00:02:55.960 還有數位廣告公司, 00:02:56.208 --> 00:03:00.333 還有一家是消費者信用調查機構。 00:03:01.125 --> 00:03:02.559 所以,沒錯: 00:03:02.583 --> 00:03:07.939 廣告公司和信用機構可能 都已經有小寶寶的資料了。 00:03:09.125 --> 00:03:11.893 但,行動應用程式、 網路搜尋和社群媒體 00:03:11.917 --> 00:03:15.018 其實只是冰山的一角, 00:03:15.042 --> 00:03:17.893 因為有許多技術在日常生活中 00:03:17.917 --> 00:03:19.643 追蹤兒童的資料。 00:03:19.667 --> 00:03:23.809 在家中,家用科技 和虛擬助理會追蹤兒童。 00:03:23.833 --> 00:03:27.822 在學校,教育平台 和教育相關技術都會追蹤兒童。 00:03:28.042 --> 00:03:32.323 在醫生的診間,線上記錄 和線上入口網站都會追蹤兒童。 00:03:32.708 --> 00:03:35.819 還有需連結網路的玩具、線上遊戲 00:03:35.839 --> 00:03:39.083 及許多許多其他技術 都會追蹤兒童。 NOTE Paragraph 00:03:40.250 --> 00:03:41.893 所以,在我研究期間, 00:03:41.917 --> 00:03:45.827 很多父母來找我, 他們會說:「又怎樣? 00:03:46.083 --> 00:03:49.000 我的孩子被追蹤有什麼關係? 00:03:50.042 --> 00:03:51.940 我們沒啥要隱瞞的。」 00:03:52.958 --> 00:03:54.702 這是有關係的。 00:03:55.083 --> 00:03:57.214 有關係是因為,現今, 00:03:57.446 --> 00:04:00.700 個人不僅受到追蹤, 00:04:01.125 --> 00:04:04.907 這些追蹤資料還會 被拿來建構他們的側寫評比。 00:04:05.250 --> 00:04:09.059 人工智慧和預測分析 00:04:09.083 --> 00:04:11.666 正被用來盡可能多地利用 00:04:11.686 --> 00:04:14.171 不同來源的個人生活資料: 00:04:14.625 --> 00:04:18.686 家族史、購買習慣、社群媒體留言。 00:04:19.167 --> 00:04:21.018 接著,這些資料會被整合, 00:04:21.042 --> 00:04:24.156 以資料為根據, 做出針對個人的決策。 00:04:24.792 --> 00:04:28.020 到處都在使用這些技術。 00:04:28.250 --> 00:04:30.391 銀行用它們來決定貸款, 00:04:30.667 --> 00:04:33.209 保險公司用它們來決定保費, 00:04:34.208 --> 00:04:36.684 招聘公司和僱主用它們 00:04:36.708 --> 00:04:39.745 來判定應徵者是否適合某個職缺。 00:04:40.750 --> 00:04:43.506 連警方和法庭也會用它們 00:04:43.875 --> 00:04:47.393 來判斷一個人是否有可能是罪犯, 00:04:47.417 --> 00:04:50.221 或是否有可能再犯。 NOTE Paragraph 00:04:52.458 --> 00:04:56.518 我們不知道也無法控制 00:04:56.542 --> 00:04:59.164 購買、銷售、處理我們資料的公司 00:04:59.184 --> 00:05:03.153 會用什麼方式來對我們 和我們的孩子做側寫評比, 00:05:03.625 --> 00:05:07.913 但那些側寫評比有可能會 顯著影響我們的權利。 NOTE Paragraph 00:05:08.917 --> 00:05:11.387 舉個例子, 00:05:13.792 --> 00:05:17.851 2018 年《紐約時報》 刊載的新聞提到, 00:05:17.875 --> 00:05:22.600 透過大學規劃線上服務 所收集到的資料—— 00:05:22.958 --> 00:05:26.734 這些資料來自全美各地數百萬名 00:05:26.754 --> 00:05:30.979 想要尋找大學科系 或獎學金的高中生—— 00:05:31.375 --> 00:05:34.740 被販售給教育資料中介商。 00:05:35.792 --> 00:05:41.226 福坦莫大學裡那些研究 教育資料中介商的研究者 00:05:41.250 --> 00:05:45.186 揭發出這些公司會根據不同的分類 00:05:45.206 --> 00:05:49.091 來為小至兩歲的兒童做側寫評比: 00:05:49.583 --> 00:05:53.213 人種、宗教、富裕程度、 00:05:53.792 --> 00:05:55.815 社交尷尬 00:05:55.875 --> 00:05:58.700 及許多其他隨機的分類。 00:05:58.833 --> 00:06:01.430 接著,它們會賣掉這些側寫評比, 00:06:01.450 --> 00:06:06.684 連帶附上兒童的姓名、 地址和聯絡細節資訊, 00:06:06.708 --> 00:06:08.559 賣給各種公司, 00:06:08.583 --> 00:06:11.305 包括貿易和職涯機構、 00:06:12.083 --> 00:06:15.200 學生貸款以及學生信用卡公司。 00:06:16.522 --> 00:06:19.367 福坦莫大學的研究者還更進一步, 00:06:19.387 --> 00:06:24.243 請一家教育資料中介商 提供他們一份名單, 00:06:24.263 --> 00:06:30.608 羅列十四到十五歲 對於避孕措施感興趣的女孩。 00:06:32.208 --> 00:06:34.684 資料中介商同意 提供他們這份名單。 00:06:34.708 --> 00:06:39.554 想像這多麼侵害我們孩子的私密。 00:06:40.833 --> 00:06:44.809 但,教育資料中介商 也只不過是一個例子。 00:06:44.833 --> 00:06:49.518 事實是,我們無法控制別人 如何對我們的孩子做側寫評比, 00:06:49.542 --> 00:06:53.367 但這些側寫評比卻會明顯影響 他們在人生中的機會。 NOTE Paragraph 00:06:54.167 --> 00:06:57.246 所以,我們得要捫心自問: 00:06:57.667 --> 00:07:02.351 我們能信任這些 側寫評比孩子的技術嗎? 00:07:02.375 --> 00:07:03.831 能嗎? 00:07:05.708 --> 00:07:07.336 我的答案是「不能。」 00:07:07.792 --> 00:07:09.132 身為人類學家, 00:07:09.132 --> 00:07:12.851 我相信人工智慧和預測分析 00:07:12.875 --> 00:07:16.705 很擅長預測疾病的過程 或對抗氣候變遷。 00:07:18.000 --> 00:07:19.643 但我們不能夠信任 00:07:19.667 --> 00:07:23.351 這些技術能夠客觀地 對人類做側寫評比, 00:07:23.375 --> 00:07:28.488 讓我們依據這些側寫評比資料 來對個人的人生做出判斷, 00:07:28.500 --> 00:07:31.059 因為它們無法對人類做側寫評比。 00:07:31.083 --> 00:07:34.294 追蹤資料並無法反映出 我們是什麼樣的人。 00:07:34.458 --> 00:07:36.559 人類說出來的話 可能和心中想的相反, 00:07:36.583 --> 00:07:39.018 做出來的行為 可能和心中的感受不同。 00:07:39.042 --> 00:07:41.518 用演算法做預測或其他數位做法 00:07:41.542 --> 00:07:46.708 無法考量到人類經歷中的 不可預測性和複雜性。 NOTE Paragraph 00:07:48.417 --> 00:07:49.976 除此之外, 00:07:50.000 --> 00:07:52.315 這些技術向來—— 00:07:52.708 --> 00:07:55.931 向來——會以某種方式偏頗。 00:07:57.125 --> 00:08:02.184 在定義上,演算法就是 一組一組的規則或步驟, 00:08:02.208 --> 00:08:05.917 設計的目的是要達成 一個特定的結果。 00:08:06.833 --> 00:08:09.559 但這些規則或步驟並不客觀, 00:08:09.583 --> 00:08:13.292 因為它們是由某種 特定文化情境下的人所設計的, 00:08:13.312 --> 00:08:16.435 且由某些特定的 文化價值觀所形塑出來。 00:08:16.667 --> 00:08:18.393 所以,機器學習時 00:08:18.417 --> 00:08:21.028 會自偏頗的演算法學習, 00:08:21.625 --> 00:08:25.010 通常也會從偏頗的資料庫中學習。 NOTE Paragraph 00:08:25.833 --> 00:08:29.559 現在我們已經開始看見 一些偏頗演算法的初始例子, 00:08:29.583 --> 00:08:32.969 當中有些還挺嚇人的。 00:08:34.500 --> 00:08:39.709 紐約的 AI Now Institute 今年公佈的一份報告揭露出 00:08:39.715 --> 00:08:44.152 用來做預測性維安的人工智慧技術 00:08:44.500 --> 00:08:47.799 是用「髒數據」訓練出來的。 00:08:48.333 --> 00:08:51.226 收集這些資料的時期, 00:08:51.250 --> 00:08:54.604 是歷史上已知很有種族偏見 00:08:54.624 --> 00:08:57.826 以及警方作業不透明的時期。 00:08:58.542 --> 00:09:02.273 因為訓練這些技術 所用的資料是髒數據, 00:09:02.625 --> 00:09:04.059 不具備客觀性, 00:09:04.083 --> 00:09:06.051 它們產出的結果 00:09:06.051 --> 00:09:10.500 只會放大和犯下警方的偏見和錯誤。 NOTE Paragraph 00:09:13.167 --> 00:09:17.628 所以,我認為我們面臨的 是社會中的根本問題。 00:09:18.000 --> 00:09:22.906 我們開始交由科技技術 來側寫評比人。 00:09:23.750 --> 00:09:26.268 我們知道在側寫評比人時, 00:09:26.292 --> 00:09:29.101 這些技術一定會偏頗, 00:09:29.125 --> 00:09:31.360 永遠不會正確。 00:09:31.875 --> 00:09:34.809 所以,現在我們需要的 是政治上的解決方案。 00:09:34.833 --> 00:09:39.542 我們需要政府認可 我們的資料權和人權。 NOTE Paragraph 00:09:40.292 --> 00:09:44.375 (掌聲及歡呼) NOTE Paragraph 00:09:47.833 --> 00:09:52.045 在那之前,我們不用冀望 會有更公正的未來。 00:09:52.750 --> 00:09:55.476 我擔心我的女兒會接觸到 00:09:55.500 --> 00:09:59.049 各種演算法歧視和錯誤。 00:09:59.250 --> 00:10:01.270 我和我女兒的差別在於 00:10:01.290 --> 00:10:04.395 我的童年並沒有 公開的記錄可被取得。 00:10:04.875 --> 00:10:08.663 肯定也沒有資料庫 記錄我在青少女時期 00:10:08.683 --> 00:10:11.265 做過的所有蠢事和蠢念頭。 NOTE Paragraph 00:10:11.285 --> 00:10:12.603 (笑聲) NOTE Paragraph 00:10:13.833 --> 00:10:16.675 但我女兒要面臨的情況可能不同。 00:10:17.292 --> 00:10:20.466 今天收集到和她們有關的資料, 00:10:20.500 --> 00:10:23.755 未來可能就會被用來評斷她們, 00:10:24.333 --> 00:10:27.648 且有可能會漸漸阻擋到 她們的希望和夢想。 NOTE Paragraph 00:10:28.583 --> 00:10:31.373 我認為該是我們大家 站出來的時候了。 00:10:31.393 --> 00:10:33.859 該是我們開始同心協力, 00:10:34.083 --> 00:10:38.096 以個人、組織、 機構的身份攜手合作, 00:10:38.116 --> 00:10:42.551 我們要為自己及我們的孩子 爭取更高的資料公平性, 00:10:42.571 --> 00:10:44.143 別等到太遲了。 NOTE Paragraph 00:10:44.167 --> 00:10:45.434 謝謝。 NOTE Paragraph 00:10:45.458 --> 00:10:47.451 (掌聲)