0:00:00.792,0:00:03.059 每天,每週, 0:00:03.083,0:00:05.268 我們同意某些「條件及條款」。 0:00:05.292,0:00:06.768 當我們這麼做時, 0:00:06.792,0:00:09.268 我們便讓公司擁有合法的權利 0:00:09.292,0:00:12.649 可以任意使用我們的資料, 0:00:13.000,0:00:15.672 以及我們孩子的資料。 0:00:16.792,0:00:19.445 這會讓我們不禁納悶: 0:00:19.792,0:00:22.339 我們給出了有關孩子的多少資料, 0:00:22.708,0:00:24.978 以及這背後的意涵是什麼? 0:00:26.500,0:00:27.893 我是人類學家, 0:00:27.917,0:00:30.198 同時也是兩個小女孩的母親。 0:00:30.542,0:00:34.846 我從 2015 年開始[br]對這個問題感到好奇, 0:00:35.042,0:00:37.768 那年,我突然發現,有很大量—— 0:00:37.792,0:00:41.863 和孩子有關的追蹤資料[br]被產生出來並收集起來, 0:00:41.883,0:00:44.189 且數量大到無法想像。 0:00:44.792,0:00:49.243 於是,我展開了一項研究計畫,[br]名稱叫做「兒童資料公民」, 0:00:49.292,0:00:51.658 我的目標是要填補這些空白。 0:00:52.583,0:00:55.601 各位可能會認為我是來責怪大家 0:00:55.625,0:00:58.393 在社群媒體上張貼[br]自己孩子的照片, 0:00:58.417,0:01:00.318 但那其實不是重點。 0:01:00.583,0:01:04.217 問題遠大於所謂的[br]「分享式教養」。 0:01:04.792,0:01:08.697 重點在於體制,而不是個人。 0:01:08.917,0:01:11.453 要怪的不是你們和你們的習慣。 0:01:12.833,0:01:15.555 史無前例, 0:01:15.708,0:01:19.926 我們遠在孩子出生之前[br]就開始追蹤他們的個人資料—— 0:01:20.083,0:01:22.538 有時是從懷孕就開始, 0:01:22.792,0:01:24.903 接著便追蹤他們的一生。 0:01:25.167,0:01:28.156 要知道,當父母決定要懷孕時, 0:01:28.292,0:01:31.088 他們會上網搜尋「懷孕的方式」, 0:01:31.292,0:01:34.519 或者他們會下載[br]排卵追蹤應用程式。 0:01:35.250,0:01:37.505 當他們確實懷孕之後, 0:01:37.875,0:01:41.018 他們會把寶寶的超音波照片[br]張貼在社群媒體上, 0:01:41.042,0:01:43.059 他們會下載懷孕期應用程式, 0:01:43.083,0:01:46.809 或者他們會向 Google 大神[br]諮詢各種相關事項。 0:01:46.833,0:01:48.351 比如—— 0:01:48.375,0:01:50.934 搜尋「飛行造成的流產風險」, 0:01:50.958,0:01:53.726 或「懷孕初期的腹痛」。 0:01:53.750,0:01:57.380 我知道是因為我做過許多次。 0:01:58.458,0:02:01.453 等寶寶出生了,他們會用各種技術 0:02:01.473,0:02:05.167 追蹤每次小盹、每次進食、[br]生命中的每件事。 0:02:06.083,0:02:08.963 而他們用的這些技術, 0:02:08.983,0:02:13.234 都會把寶寶最私密的行為[br]和健康資料分享出去, 0:02:13.234,0:02:15.542 以轉換成利潤。 0:02:16.583,0:02:18.726 讓我說明一下這是怎麼運作的: 0:02:18.750,0:02:23.109 2019 年,英國醫學期刊[br]刊出了一篇研究, 0:02:23.269,0:02:27.442 指出在二十四個[br]行動健康應用程式中, 0:02:27.625,0:02:31.247 有十九個會和第三方分享資訊。 0:02:32.083,0:02:34.862 而這些第三方會把資訊分享給 0:02:34.882,0:02:38.080 兩百一十六個其他組織。 0:02:38.875,0:02:42.166 在這兩百一十六個第四方當中, 0:02:42.333,0:02:45.124 只有三個屬於健康領域。 0:02:45.500,0:02:50.018 其他能取得這些資料的公司[br]則是大型科技公司, 0:02:50.042,0:02:53.278 比如 Google、臉書,[br]或甲骨文公司, 0:02:53.583,0:02:55.960 還有數位廣告公司, 0:02:56.208,0:03:00.333 還有一家是消費者信用調查機構。 0:03:01.125,0:03:02.559 所以,沒錯: 0:03:02.583,0:03:07.939 廣告公司和信用機構可能[br]都已經有小寶寶的資料了。 0:03:09.125,0:03:11.893 但,行動應用程式、[br]網路搜尋和社群媒體 0:03:11.917,0:03:15.018 其實只是冰山的一角, 0:03:15.042,0:03:17.893 因為有許多技術在日常生活中 0:03:17.917,0:03:19.643 追蹤兒童的資料。 0:03:19.667,0:03:23.809 在家中,家用科技[br]和虛擬助理會追蹤兒童。 0:03:23.833,0:03:27.822 在學校,教育平台[br]和教育相關技術都會追蹤兒童。 0:03:28.042,0:03:32.323 在醫生的診間,線上記錄[br]和線上入口網站都會追蹤兒童。 0:03:32.708,0:03:35.819 還有需連結網路的玩具、線上遊戲 0:03:35.839,0:03:39.083 及許多許多其他技術[br]都會追蹤兒童。 0:03:40.250,0:03:41.893 所以,在我研究期間, 0:03:41.917,0:03:45.827 很多父母來找我,[br]他們會說:「又怎樣? 0:03:46.083,0:03:49.000 我的孩子被追蹤有什麼關係? 0:03:50.042,0:03:51.940 我們沒啥要隱瞞的。」 0:03:52.958,0:03:54.702 這是有關係的。 0:03:55.083,0:03:57.214 有關係是因為,現今, 0:03:57.446,0:04:00.700 個人不僅受到追蹤, 0:04:01.125,0:04:04.907 這些追蹤資料還會[br]被拿來建構他們的側寫評比。 0:04:05.250,0:04:09.059 人工智慧和預測分析 0:04:09.083,0:04:11.666 正被用來盡可能多地利用 0:04:11.686,0:04:14.171 不同來源的個人生活資料: 0:04:14.625,0:04:18.686 家族史、購買習慣、社群媒體留言。 0:04:19.167,0:04:21.018 接著,這些資料會被整合, 0:04:21.042,0:04:24.156 以資料為根據,[br]做出針對個人的決策。 0:04:24.792,0:04:28.020 到處都在使用這些技術。 0:04:28.250,0:04:30.391 銀行用它們來決定貸款, 0:04:30.667,0:04:33.209 保險公司用它們來決定保費, 0:04:34.208,0:04:36.684 招聘公司和僱主用它們 0:04:36.708,0:04:39.745 來判定應徵者是否適合某個職缺。 0:04:40.750,0:04:43.506 連警方和法庭也會用它們 0:04:43.875,0:04:47.393 來判斷一個人是否有可能是罪犯, 0:04:47.417,0:04:50.221 或是否有可能再犯。 0:04:52.458,0:04:56.518 我們不知道也無法控制 0:04:56.542,0:04:59.164 購買、銷售、處理我們資料的公司 0:04:59.184,0:05:03.153 會用什麼方式來對我們[br]和我們的孩子做側寫評比, 0:05:03.625,0:05:07.913 但那些側寫評比有可能會[br]顯著影響我們的權利。 0:05:08.917,0:05:11.387 舉個例子, 0:05:13.792,0:05:17.851 2018 年《紐約時報》[br]刊載的新聞提到, 0:05:17.875,0:05:22.600 透過大學規劃線上服務[br]所收集到的資料—— 0:05:22.958,0:05:26.734 這些資料來自全美各地數百萬名 0:05:26.754,0:05:30.979 想要尋找大學科系[br]或獎學金的高中生—— 0:05:31.375,0:05:34.740 被販售給教育資料中介商。 0:05:35.792,0:05:41.226 福坦莫大學裡那些研究[br]教育資料中介商的研究者 0:05:41.250,0:05:45.186 揭發出這些公司會根據不同的分類 0:05:45.206,0:05:49.091 來為小至兩歲的兒童做側寫評比: 0:05:49.583,0:05:53.213 人種、宗教、富裕程度、 0:05:53.792,0:05:55.815 社交尷尬 0:05:55.875,0:05:58.700 及許多其他隨機的分類。 0:05:58.833,0:06:01.430 接著,它們會賣掉這些側寫評比, 0:06:01.450,0:06:06.684 連帶附上兒童的姓名、[br]地址和聯絡細節資訊, 0:06:06.708,0:06:08.559 賣給各種公司, 0:06:08.583,0:06:11.305 包括貿易和職涯機構、 0:06:12.083,0:06:15.200 學生貸款以及學生信用卡公司。 0:06:16.522,0:06:19.367 福坦莫大學的研究者還更進一步, 0:06:19.387,0:06:24.243 請一家教育資料中介商[br]提供他們一份名單, 0:06:24.263,0:06:30.608 羅列十四到十五歲[br]對於避孕措施感興趣的女孩。 0:06:32.208,0:06:34.684 資料中介商同意[br]提供他們這份名單。 0:06:34.708,0:06:39.554 想像這多麼侵害我們孩子的私密。 0:06:40.833,0:06:44.809 但,教育資料中介商[br]也只不過是一個例子。 0:06:44.833,0:06:49.518 事實是,我們無法控制別人[br]如何對我們的孩子做側寫評比, 0:06:49.542,0:06:53.367 但這些側寫評比卻會明顯影響[br]他們在人生中的機會。 0:06:54.167,0:06:57.246 所以,我們得要捫心自問: 0:06:57.667,0:07:02.351 我們能信任這些[br]側寫評比孩子的技術嗎? 0:07:02.375,0:07:03.831 能嗎? 0:07:05.708,0:07:07.336 我的答案是「不能。」 0:07:07.792,0:07:09.132 身為人類學家, 0:07:09.132,0:07:12.851 我相信人工智慧和預測分析 0:07:12.875,0:07:16.705 很擅長預測疾病的過程[br]或對抗氣候變遷。 0:07:18.000,0:07:19.643 但我們不能夠信任 0:07:19.667,0:07:23.351 這些技術能夠客觀地[br]對人類做側寫評比, 0:07:23.375,0:07:28.488 讓我們依據這些側寫評比資料[br]來對個人的人生做出判斷, 0:07:28.500,0:07:31.059 因為它們無法對人類做側寫評比。 0:07:31.083,0:07:34.294 追蹤資料並無法反映出[br]我們是什麼樣的人。 0:07:34.458,0:07:36.559 人類說出來的話[br]可能和心中想的相反, 0:07:36.583,0:07:39.018 做出來的行為[br]可能和心中的感受不同。 0:07:39.042,0:07:41.518 用演算法做預測或其他數位做法 0:07:41.542,0:07:46.708 無法考量到人類經歷中的[br]不可預測性和複雜性。 0:07:48.417,0:07:49.976 除此之外, 0:07:50.000,0:07:52.315 這些技術向來—— 0:07:52.708,0:07:55.931 向來——會以某種方式偏頗。 0:07:57.125,0:08:02.184 在定義上,演算法就是[br]一組一組的規則或步驟, 0:08:02.208,0:08:05.917 設計的目的是要達成[br]一個特定的結果。 0:08:06.833,0:08:09.559 但這些規則或步驟並不客觀, 0:08:09.583,0:08:13.292 因為它們是由某種[br]特定文化情境下的人所設計的, 0:08:13.312,0:08:16.435 且由某些特定的[br]文化價值觀所形塑出來。 0:08:16.667,0:08:18.393 所以,機器學習時 0:08:18.417,0:08:21.028 會自偏頗的演算法學習, 0:08:21.625,0:08:25.010 通常也會從偏頗的資料庫中學習。 0:08:25.833,0:08:29.559 現在我們已經開始看見[br]一些偏頗演算法的初始例子, 0:08:29.583,0:08:32.969 當中有些還挺嚇人的。 0:08:34.500,0:08:39.709 紐約的 AI Now Institute[br]今年公佈的一份報告揭露出 0:08:39.715,0:08:44.152 用來做預測性維安的人工智慧技術 0:08:44.500,0:08:47.799 是用「髒數據」訓練出來的。 0:08:48.333,0:08:51.226 收集這些資料的時期, 0:08:51.250,0:08:54.604 是歷史上已知很有種族偏見 0:08:54.624,0:08:57.826 以及警方作業不透明的時期。 0:08:58.542,0:09:02.273 因為訓練這些技術[br]所用的資料是髒數據, 0:09:02.625,0:09:04.059 不具備客觀性, 0:09:04.083,0:09:06.051 它們產出的結果 0:09:06.051,0:09:10.500 只會放大和犯下警方的偏見和錯誤。 0:09:13.167,0:09:17.628 所以,我認為我們面臨的[br]是社會中的根本問題。 0:09:18.000,0:09:22.906 我們開始交由科技技術[br]來側寫評比人。 0:09:23.750,0:09:26.268 我們知道在側寫評比人時, 0:09:26.292,0:09:29.101 這些技術一定會偏頗, 0:09:29.125,0:09:31.360 永遠不會正確。 0:09:31.875,0:09:34.809 所以,現在我們需要的[br]是政治上的解決方案。 0:09:34.833,0:09:39.542 我們需要政府認可[br]我們的資料權和人權。 0:09:40.292,0:09:44.375 (掌聲及歡呼) 0:09:47.833,0:09:52.045 在那之前,我們不用冀望[br]會有更公正的未來。 0:09:52.750,0:09:55.476 我擔心我的女兒會接觸到 0:09:55.500,0:09:59.049 各種演算法歧視和錯誤。 0:09:59.250,0:10:01.270 我和我女兒的差別在於 0:10:01.290,0:10:04.395 我的童年並沒有[br]公開的記錄可被取得。 0:10:04.875,0:10:08.663 肯定也沒有資料庫[br]記錄我在青少女時期 0:10:08.683,0:10:11.265 做過的所有蠢事和蠢念頭。 0:10:11.285,0:10:12.603 (笑聲) 0:10:13.833,0:10:16.675 但我女兒要面臨的情況可能不同。 0:10:17.292,0:10:20.466 今天收集到和她們有關的資料, 0:10:20.500,0:10:23.755 未來可能就會被用來評斷她們, 0:10:24.333,0:10:27.648 且有可能會漸漸阻擋到[br]她們的希望和夢想。 0:10:28.583,0:10:31.373 我認為該是我們大家[br]站出來的時候了。 0:10:31.393,0:10:33.859 該是我們開始同心協力, 0:10:34.083,0:10:38.096 以個人、組織、[br]機構的身份攜手合作, 0:10:38.116,0:10:42.551 我們要為自己及我們的孩子[br]爭取更高的資料公平性, 0:10:42.571,0:10:44.143 別等到太遲了。 0:10:44.167,0:10:45.434 謝謝。 0:10:45.458,0:10:47.451 (掌聲)