每天,每週, 我們同意某些「條件及條款」。 當我們這麼做時, 我們便讓公司擁有合法的權利 可以任意使用我們的資料, 以及我們孩子的資料。 這會讓我們不禁納悶: 我們給出了有關孩子的多少資料, 以及這背後的意涵是什麼? 我是人類學家, 同時也是兩個小女孩的母親。 我從 2015 年開始 對這個問題感到好奇, 那年,我突然發現,有很大量—— 和孩子有關的追蹤資料 被產生出來並收集起來, 且數量大到無法想像。 於是,我展開了一項研究計畫, 名稱叫做「兒童資料公民」, 我的目標是要填補這些空白。 各位可能會認為我是來責怪大家 在社群媒體上張貼 自己孩子的照片, 但那其實不是重點。 問題遠大於所謂的 「分享式教養」。 重點在於體制,而不是個人。 要怪的不是你們和你們的習慣。 史無前例, 我們遠在孩子出生之前 就開始追蹤他們的個人資料—— 有時是從懷孕就開始, 接著便追蹤他們的一生。 要知道,當父母決定要懷孕時, 他們會上網搜尋「懷孕的方式」, 或者他們會下載 排卵追蹤應用程式。 當他們確實懷孕之後, 他們會把寶寶的超音波照片 張貼在社群媒體上, 他們會下載懷孕期應用程式, 或者他們會向 Google 大神 諮詢各種相關事項。 比如—— 搜尋「飛行造成的流產風險」, 或「懷孕初期的腹痛」。 我知道是因為我做過許多次。 等寶寶出生了,他們會用各種技術 追蹤每次小盹、每次進食、 生命中的每件事。 而他們用的這些技術, 都會把寶寶最私密的行為 和健康資料分享出去, 以轉換成利潤。 讓我說明一下這是怎麼運作的: 2019 年,英國醫學期刊 刊出了一篇研究, 指出在二十四個 行動健康應用程式中, 有十九個會和第三方分享資訊。 而這些第三方會把資訊分享給 兩百一十六個其他組織。 在這兩百一十六個第四方當中, 只有三個屬於健康領域。 其他能取得這些資料的公司 則是大型科技公司, 比如 Google、臉書, 或甲骨文公司, 還有數位廣告公司, 還有一家是消費者信用調查機構。 所以,沒錯: 廣告公司和信用機構可能 都已經有小寶寶的資料了。 但,行動應用程式、 網路搜尋和社群媒體 其實只是冰山的一角, 因為有許多技術在日常生活中 追蹤兒童的資料。 在家中,家用科技 和虛擬助理會追蹤兒童。 在學校,教育平台 和教育相關技術都會追蹤兒童。 在醫生的診間,線上記錄 和線上入口網站都會追蹤兒童。 還有需連結網路的玩具、線上遊戲 及許多許多其他技術 都會追蹤兒童。 所以,在我研究期間, 很多父母來找我, 他們會說:「又怎樣? 我的孩子被追蹤有什麼關係? 我們沒啥要隱瞞的。」 這是有關係的。 有關係是因為,現今, 個人不僅受到追蹤, 這些追蹤資料還會 被拿來建構他們的側寫評比。 人工智慧和預測分析 正被用來盡可能多地利用 不同來源的個人生活資料: 家族史、購買習慣、社群媒體留言。 接著,這些資料會被整合, 以資料為根據, 做出針對個人的決策。 到處都在使用這些技術。 銀行用它們來決定貸款, 保險公司用它們來決定保費, 招聘公司和僱主用它們 來判定應徵者是否適合某個職缺。 連警方和法庭也會用它們 來判斷一個人是否有可能是罪犯, 或是否有可能再犯。 我們不知道也無法控制 購買、銷售、處理我們資料的公司 會用什麼方式來對我們 和我們的孩子做側寫評比, 但那些側寫評比有可能會 顯著影響我們的權利。 舉個例子, 2018 年《紐約時報》 刊載的新聞提到, 透過大學規劃線上服務 所收集到的資料—— 這些資料來自全美各地數百萬名 想要尋找大學科系 或獎學金的高中生—— 被販售給教育資料中介商。 福坦莫大學裡那些研究 教育資料中介商的研究者 揭發出這些公司會根據不同的分類 來為小至兩歲的兒童做側寫評比: 人種、宗教、富裕程度、 社交尷尬 及許多其他隨機的分類。 接著,它們會賣掉這些側寫評比, 連帶附上兒童的姓名、 地址和聯絡細節資訊, 賣給各種公司, 包括貿易和職涯機構、 學生貸款以及學生信用卡公司。 福坦莫大學的研究者還更進一步, 請一家教育資料中介商 提供他們一份名單, 羅列十四到十五歲 對於避孕措施感興趣的女孩。 資料中介商同意 提供他們這份名單。 想像這多麼侵害我們孩子的私密。 但,教育資料中介商 也只不過是一個例子。 事實是,我們無法控制別人 如何對我們的孩子做側寫評比, 但這些側寫評比卻會明顯影響 他們在人生中的機會。 所以,我們得要捫心自問: 我們能信任這些 側寫評比孩子的技術嗎? 能嗎? 我的答案是「不能。」 身為人類學家, 我相信人工智慧和預測分析 很擅長預測疾病的過程 或對抗氣候變遷。 但我們不能夠信任 這些技術能夠客觀地 對人類做側寫評比, 讓我們依據這些側寫評比資料 來對個人的人生做出判斷, 因為它們無法對人類做側寫評比。 追蹤資料並無法反映出 我們是什麼樣的人。 人類說出來的話 可能和心中想的相反, 做出來的行為 可能和心中的感受不同。 用演算法做預測或其他數位做法 無法考量到人類經歷中的 不可預測性和複雜性。 除此之外, 這些技術向來—— 向來——會以某種方式偏頗。 在定義上,演算法就是 一組一組的規則或步驟, 設計的目的是要達成 一個特定的結果。 但這些規則或步驟並不客觀, 因為它們是由某種 特定文化情境下的人所設計的, 且由某些特定的 文化價值觀所形塑出來。 所以,機器學習時 會自偏頗的演算法學習, 通常也會從偏頗的資料庫中學習。 現在我們已經開始看見 一些偏頗演算法的初始例子, 當中有些還挺嚇人的。 紐約的 AI Now Institute 今年公佈的一份報告揭露出 用來做預測性維安的人工智慧技術 是用「髒數據」訓練出來的。 收集這些資料的時期, 是歷史上已知很有種族偏見 以及警方作業不透明的時期。 因為訓練這些技術 所用的資料是髒數據, 不具備客觀性, 它們產出的結果 只會放大和犯下警方的偏見和錯誤。 所以,我認為我們面臨的 是社會中的根本問題。 我們開始交由科技技術 來側寫評比人。 我們知道在側寫評比人時, 這些技術一定會偏頗, 永遠不會正確。 所以,現在我們需要的 是政治上的解決方案。 我們需要政府認可 我們的資料權和人權。 (掌聲及歡呼) 在那之前,我們不用冀望 會有更公正的未來。 我擔心我的女兒會接觸到 各種演算法歧視和錯誤。 我和我女兒的差別在於 我的童年並沒有 公開的記錄可被取得。 肯定也沒有資料庫 記錄我在青少女時期 做過的所有蠢事和蠢念頭。 (笑聲) 但我女兒要面臨的情況可能不同。 今天收集到和她們有關的資料, 未來可能就會被用來評斷她們, 且有可能會漸漸阻擋到 她們的希望和夢想。 我認為該是我們大家 站出來的時候了。 該是我們開始同心協力, 以個人、組織、 機構的身份攜手合作, 我們要為自己及我們的孩子 爭取更高的資料公平性, 別等到太遲了。 謝謝。 (掌聲)