1 00:00:00,792 --> 00:00:03,059 每天,每週, 2 00:00:03,083 --> 00:00:05,268 我們同意某些「條件及條款」。 3 00:00:05,292 --> 00:00:06,768 當我們這麼做時, 4 00:00:06,792 --> 00:00:09,268 我們便讓公司擁有合法的權利 5 00:00:09,292 --> 00:00:12,649 可以任意使用我們的資料, 6 00:00:13,000 --> 00:00:15,672 以及我們孩子的資料。 7 00:00:16,792 --> 00:00:19,445 這會讓我們不禁納悶: 8 00:00:19,792 --> 00:00:22,339 我們給出了有關孩子的多少資料, 9 00:00:22,708 --> 00:00:24,978 以及這背後的意涵是什麼? 10 00:00:26,500 --> 00:00:27,893 我是人類學家, 11 00:00:27,917 --> 00:00:30,198 同時也是兩個小女孩的母親。 12 00:00:30,542 --> 00:00:34,846 我從 2015 年開始 對這個問題感到好奇, 13 00:00:35,042 --> 00:00:37,768 那年,我突然發現,有很大量—— 14 00:00:37,792 --> 00:00:41,863 和孩子有關的追蹤資料 被產生出來並收集起來, 15 00:00:41,883 --> 00:00:44,189 且數量大到無法想像。 16 00:00:44,792 --> 00:00:49,243 於是,我展開了一項研究計畫, 名稱叫做「兒童資料公民」, 17 00:00:49,292 --> 00:00:51,658 我的目標是要填補這些空白。 18 00:00:52,583 --> 00:00:55,601 各位可能會認為我是來責怪大家 19 00:00:55,625 --> 00:00:58,393 在社群媒體上張貼 自己孩子的照片, 20 00:00:58,417 --> 00:01:00,318 但那其實不是重點。 21 00:01:00,583 --> 00:01:04,217 問題遠大於所謂的 「分享式教養」。 22 00:01:04,792 --> 00:01:08,697 重點在於體制,而不是個人。 23 00:01:08,917 --> 00:01:11,453 要怪的不是你們和你們的習慣。 24 00:01:12,833 --> 00:01:15,555 史無前例, 25 00:01:15,708 --> 00:01:19,926 我們遠在孩子出生之前 就開始追蹤他們的個人資料—— 26 00:01:20,083 --> 00:01:22,538 有時是從懷孕就開始, 27 00:01:22,792 --> 00:01:24,903 接著便追蹤他們的一生。 28 00:01:25,167 --> 00:01:28,156 要知道,當父母決定要懷孕時, 29 00:01:28,292 --> 00:01:31,088 他們會上網搜尋「懷孕的方式」, 30 00:01:31,292 --> 00:01:34,519 或者他們會下載 排卵追蹤應用程式。 31 00:01:35,250 --> 00:01:37,505 當他們確實懷孕之後, 32 00:01:37,875 --> 00:01:41,018 他們會把寶寶的超音波照片 張貼在社群媒體上, 33 00:01:41,042 --> 00:01:43,059 他們會下載懷孕期應用程式, 34 00:01:43,083 --> 00:01:46,809 或者他們會向 Google 大神 諮詢各種相關事項。 35 00:01:46,833 --> 00:01:48,351 比如—— 36 00:01:48,375 --> 00:01:50,934 搜尋「飛行造成的流產風險」, 37 00:01:50,958 --> 00:01:53,726 或「懷孕初期的腹痛」。 38 00:01:53,750 --> 00:01:57,380 我知道是因為我做過許多次。 39 00:01:58,458 --> 00:02:01,453 等寶寶出生了,他們會用各種技術 40 00:02:01,473 --> 00:02:05,167 追蹤每次小盹、每次進食、 生命中的每件事。 41 00:02:06,083 --> 00:02:08,963 而他們用的這些技術, 42 00:02:08,983 --> 00:02:13,234 都會把寶寶最私密的行為 和健康資料分享出去, 43 00:02:13,234 --> 00:02:15,542 以轉換成利潤。 44 00:02:16,583 --> 00:02:18,726 讓我說明一下這是怎麼運作的: 45 00:02:18,750 --> 00:02:23,109 2019 年,英國醫學期刊 刊出了一篇研究, 46 00:02:23,269 --> 00:02:27,442 指出在二十四個 行動健康應用程式中, 47 00:02:27,625 --> 00:02:31,247 有十九個會和第三方分享資訊。 48 00:02:32,083 --> 00:02:34,862 而這些第三方會把資訊分享給 49 00:02:34,882 --> 00:02:38,080 兩百一十六個其他組織。 50 00:02:38,875 --> 00:02:42,166 在這兩百一十六個第四方當中, 51 00:02:42,333 --> 00:02:45,124 只有三個屬於健康領域。 52 00:02:45,500 --> 00:02:50,018 其他能取得這些資料的公司 則是大型科技公司, 53 00:02:50,042 --> 00:02:53,278 比如 Google、臉書, 或甲骨文公司, 54 00:02:53,583 --> 00:02:55,960 還有數位廣告公司, 55 00:02:56,208 --> 00:03:00,333 還有一家是消費者信用調查機構。 56 00:03:01,125 --> 00:03:02,559 所以,沒錯: 57 00:03:02,583 --> 00:03:07,939 廣告公司和信用機構可能 都已經有小寶寶的資料了。 58 00:03:09,125 --> 00:03:11,893 但,行動應用程式、 網路搜尋和社群媒體 59 00:03:11,917 --> 00:03:15,018 其實只是冰山的一角, 60 00:03:15,042 --> 00:03:17,893 因為有許多技術在日常生活中 61 00:03:17,917 --> 00:03:19,643 追蹤兒童的資料。 62 00:03:19,667 --> 00:03:23,809 在家中,家用科技 和虛擬助理會追蹤兒童。 63 00:03:23,833 --> 00:03:27,822 在學校,教育平台 和教育相關技術都會追蹤兒童。 64 00:03:28,042 --> 00:03:32,323 在醫生的診間,線上記錄 和線上入口網站都會追蹤兒童。 65 00:03:32,708 --> 00:03:35,819 還有需連結網路的玩具、線上遊戲 66 00:03:35,839 --> 00:03:39,083 及許多許多其他技術 都會追蹤兒童。 67 00:03:40,250 --> 00:03:41,893 所以,在我研究期間, 68 00:03:41,917 --> 00:03:45,827 很多父母來找我, 他們會說:「又怎樣? 69 00:03:46,083 --> 00:03:49,000 我的孩子被追蹤有什麼關係? 70 00:03:50,042 --> 00:03:51,940 我們沒啥要隱瞞的。」 71 00:03:52,958 --> 00:03:54,702 這是有關係的。 72 00:03:55,083 --> 00:03:57,214 有關係是因為,現今, 73 00:03:57,446 --> 00:04:00,700 個人不僅受到追蹤, 74 00:04:01,125 --> 00:04:04,907 這些追蹤資料還會 被拿來建構他們的側寫評比。 75 00:04:05,250 --> 00:04:09,059 人工智慧和預測分析 76 00:04:09,083 --> 00:04:11,666 正被用來盡可能多地利用 77 00:04:11,686 --> 00:04:14,171 不同來源的個人生活資料: 78 00:04:14,625 --> 00:04:18,686 家族史、購買習慣、社群媒體留言。 79 00:04:19,167 --> 00:04:21,018 接著,這些資料會被整合, 80 00:04:21,042 --> 00:04:24,156 以資料為根據, 做出針對個人的決策。 81 00:04:24,792 --> 00:04:28,020 到處都在使用這些技術。 82 00:04:28,250 --> 00:04:30,391 銀行用它們來決定貸款, 83 00:04:30,667 --> 00:04:33,209 保險公司用它們來決定保費, 84 00:04:34,208 --> 00:04:36,684 招聘公司和僱主用它們 85 00:04:36,708 --> 00:04:39,745 來判定應徵者是否適合某個職缺。 86 00:04:40,750 --> 00:04:43,506 連警方和法庭也會用它們 87 00:04:43,875 --> 00:04:47,393 來判斷一個人是否有可能是罪犯, 88 00:04:47,417 --> 00:04:50,221 或是否有可能再犯。 89 00:04:52,458 --> 00:04:56,518 我們不知道也無法控制 90 00:04:56,542 --> 00:04:59,164 購買、銷售、處理我們資料的公司 91 00:04:59,184 --> 00:05:03,153 會用什麼方式來對我們 和我們的孩子做側寫評比, 92 00:05:03,625 --> 00:05:07,913 但那些側寫評比有可能會 顯著影響我們的權利。 93 00:05:08,917 --> 00:05:11,387 舉個例子, 94 00:05:13,792 --> 00:05:17,851 2018 年《紐約時報》 刊載的新聞提到, 95 00:05:17,875 --> 00:05:22,600 透過大學規劃線上服務 所收集到的資料—— 96 00:05:22,958 --> 00:05:26,734 這些資料來自全美各地數百萬名 97 00:05:26,754 --> 00:05:30,979 想要尋找大學科系 或獎學金的高中生—— 98 00:05:31,375 --> 00:05:34,740 被販售給教育資料中介商。 99 00:05:35,792 --> 00:05:41,226 福坦莫大學裡那些研究 教育資料中介商的研究者 100 00:05:41,250 --> 00:05:45,186 揭發出這些公司會根據不同的分類 101 00:05:45,206 --> 00:05:49,091 來為小至兩歲的兒童做側寫評比: 102 00:05:49,583 --> 00:05:53,213 人種、宗教、富裕程度、 103 00:05:53,792 --> 00:05:55,815 社交尷尬 104 00:05:55,875 --> 00:05:58,700 及許多其他隨機的分類。 105 00:05:58,833 --> 00:06:01,430 接著,它們會賣掉這些側寫評比, 106 00:06:01,450 --> 00:06:06,684 連帶附上兒童的姓名、 地址和聯絡細節資訊, 107 00:06:06,708 --> 00:06:08,559 賣給各種公司, 108 00:06:08,583 --> 00:06:11,305 包括貿易和職涯機構、 109 00:06:12,083 --> 00:06:15,200 學生貸款以及學生信用卡公司。 110 00:06:16,522 --> 00:06:19,367 福坦莫大學的研究者還更進一步, 111 00:06:19,387 --> 00:06:24,243 請一家教育資料中介商 提供他們一份名單, 112 00:06:24,263 --> 00:06:30,608 羅列十四到十五歲 對於避孕措施感興趣的女孩。 113 00:06:32,208 --> 00:06:34,684 資料中介商同意 提供他們這份名單。 114 00:06:34,708 --> 00:06:39,554 想像這多麼侵害我們孩子的私密。 115 00:06:40,833 --> 00:06:44,809 但,教育資料中介商 也只不過是一個例子。 116 00:06:44,833 --> 00:06:49,518 事實是,我們無法控制別人 如何對我們的孩子做側寫評比, 117 00:06:49,542 --> 00:06:53,367 但這些側寫評比卻會明顯影響 他們在人生中的機會。 118 00:06:54,167 --> 00:06:57,246 所以,我們得要捫心自問: 119 00:06:57,667 --> 00:07:02,351 我們能信任這些 側寫評比孩子的技術嗎? 120 00:07:02,375 --> 00:07:03,831 能嗎? 121 00:07:05,708 --> 00:07:07,336 我的答案是「不能。」 122 00:07:07,792 --> 00:07:09,132 身為人類學家, 123 00:07:09,132 --> 00:07:12,851 我相信人工智慧和預測分析 124 00:07:12,875 --> 00:07:16,705 很擅長預測疾病的過程 或對抗氣候變遷。 125 00:07:18,000 --> 00:07:19,643 但我們不能夠信任 126 00:07:19,667 --> 00:07:23,351 這些技術能夠客觀地 對人類做側寫評比, 127 00:07:23,375 --> 00:07:28,488 讓我們依據這些側寫評比資料 來對個人的人生做出判斷, 128 00:07:28,500 --> 00:07:31,059 因為它們無法對人類做側寫評比。 129 00:07:31,083 --> 00:07:34,294 追蹤資料並無法反映出 我們是什麼樣的人。 130 00:07:34,458 --> 00:07:36,559 人類說出來的話 可能和心中想的相反, 131 00:07:36,583 --> 00:07:39,018 做出來的行為 可能和心中的感受不同。 132 00:07:39,042 --> 00:07:41,518 用演算法做預測或其他數位做法 133 00:07:41,542 --> 00:07:46,708 無法考量到人類經歷中的 不可預測性和複雜性。 134 00:07:48,417 --> 00:07:49,976 除此之外, 135 00:07:50,000 --> 00:07:52,315 這些技術向來—— 136 00:07:52,708 --> 00:07:55,931 向來——會以某種方式偏頗。 137 00:07:57,125 --> 00:08:02,184 在定義上,演算法就是 一組一組的規則或步驟, 138 00:08:02,208 --> 00:08:05,917 設計的目的是要達成 一個特定的結果。 139 00:08:06,833 --> 00:08:09,559 但這些規則或步驟並不客觀, 140 00:08:09,583 --> 00:08:13,292 因為它們是由某種 特定文化情境下的人所設計的, 141 00:08:13,312 --> 00:08:16,435 且由某些特定的 文化價值觀所形塑出來。 142 00:08:16,667 --> 00:08:18,393 所以,機器學習時 143 00:08:18,417 --> 00:08:21,028 會自偏頗的演算法學習, 144 00:08:21,625 --> 00:08:25,010 通常也會從偏頗的資料庫中學習。 145 00:08:25,833 --> 00:08:29,559 現在我們已經開始看見 一些偏頗演算法的初始例子, 146 00:08:29,583 --> 00:08:32,969 當中有些還挺嚇人的。 147 00:08:34,500 --> 00:08:39,709 紐約的 AI Now Institute 今年公佈的一份報告揭露出 148 00:08:39,715 --> 00:08:44,152 用來做預測性維安的人工智慧技術 149 00:08:44,500 --> 00:08:47,799 是用「髒數據」訓練出來的。 150 00:08:48,333 --> 00:08:51,226 收集這些資料的時期, 151 00:08:51,250 --> 00:08:54,604 是歷史上已知很有種族偏見 152 00:08:54,624 --> 00:08:57,826 以及警方作業不透明的時期。 153 00:08:58,542 --> 00:09:02,273 因為訓練這些技術 所用的資料是髒數據, 154 00:09:02,625 --> 00:09:04,059 不具備客觀性, 155 00:09:04,083 --> 00:09:06,051 它們產出的結果 156 00:09:06,051 --> 00:09:10,500 只會放大和犯下警方的偏見和錯誤。 157 00:09:13,167 --> 00:09:17,628 所以,我認為我們面臨的 是社會中的根本問題。 158 00:09:18,000 --> 00:09:22,906 我們開始交由科技技術 來側寫評比人。 159 00:09:23,750 --> 00:09:26,268 我們知道在側寫評比人時, 160 00:09:26,292 --> 00:09:29,101 這些技術一定會偏頗, 161 00:09:29,125 --> 00:09:31,360 永遠不會正確。 162 00:09:31,875 --> 00:09:34,809 所以,現在我們需要的 是政治上的解決方案。 163 00:09:34,833 --> 00:09:39,542 我們需要政府認可 我們的資料權和人權。 164 00:09:40,292 --> 00:09:44,375 (掌聲及歡呼) 165 00:09:47,833 --> 00:09:52,045 在那之前,我們不用冀望 會有更公正的未來。 166 00:09:52,750 --> 00:09:55,476 我擔心我的女兒會接觸到 167 00:09:55,500 --> 00:09:59,049 各種演算法歧視和錯誤。 168 00:09:59,250 --> 00:10:01,270 我和我女兒的差別在於 169 00:10:01,290 --> 00:10:04,395 我的童年並沒有 公開的記錄可被取得。 170 00:10:04,875 --> 00:10:08,663 肯定也沒有資料庫 記錄我在青少女時期 171 00:10:08,683 --> 00:10:11,265 做過的所有蠢事和蠢念頭。 172 00:10:11,285 --> 00:10:12,603 (笑聲) 173 00:10:13,833 --> 00:10:16,675 但我女兒要面臨的情況可能不同。 174 00:10:17,292 --> 00:10:20,466 今天收集到和她們有關的資料, 175 00:10:20,500 --> 00:10:23,755 未來可能就會被用來評斷她們, 176 00:10:24,333 --> 00:10:27,648 且有可能會漸漸阻擋到 她們的希望和夢想。 177 00:10:28,583 --> 00:10:31,373 我認為該是我們大家 站出來的時候了。 178 00:10:31,393 --> 00:10:33,859 該是我們開始同心協力, 179 00:10:34,083 --> 00:10:38,096 以個人、組織、 機構的身份攜手合作, 180 00:10:38,116 --> 00:10:42,551 我們要為自己及我們的孩子 爭取更高的資料公平性, 181 00:10:42,571 --> 00:10:44,143 別等到太遲了。 182 00:10:44,167 --> 00:10:45,434 謝謝。 183 00:10:45,458 --> 00:10:47,451 (掌聲)