Return to Video

科技公司對你的孩子有哪些了解

  • 0:01 - 0:03
    每天,每週,
  • 0:03 - 0:05
    我們同意某些「條件及條款」。
  • 0:05 - 0:07
    當我們這麼做時,
  • 0:07 - 0:09
    我們便讓公司擁有合法的權利
  • 0:09 - 0:13
    可以任意使用我們的資料,
  • 0:13 - 0:16
    以及我們孩子的資料。
  • 0:17 - 0:19
    這會讓我們不禁納悶:
  • 0:20 - 0:22
    我們給出了有關孩子的多少資料,
  • 0:23 - 0:25
    以及這背後的意涵是什麼?
  • 0:26 - 0:28
    我是人類學家,
  • 0:28 - 0:30
    同時也是兩個小女孩的母親。
  • 0:31 - 0:35
    我從 2015 年開始
    對這個問題感到好奇,
  • 0:35 - 0:38
    那年,我突然發現,有很大量——
  • 0:38 - 0:42
    和孩子有關的追蹤資料
    被產生出來並收集起來,
  • 0:42 - 0:44
    且數量大到無法想像。
  • 0:45 - 0:49
    於是,我展開了一項研究計畫,
    名稱叫做「兒童資料公民」,
  • 0:49 - 0:52
    我的目標是要填補這些空白。
  • 0:53 - 0:56
    各位可能會認為我是來責怪大家
  • 0:56 - 0:58
    在社群媒體上張貼
    自己孩子的照片,
  • 0:58 - 1:00
    但那其實不是重點。
  • 1:01 - 1:04
    問題遠大於所謂的
    「分享式教養」。
  • 1:05 - 1:09
    重點在於體制,而不是個人。
  • 1:09 - 1:11
    要怪的不是你們和你們的習慣。
  • 1:13 - 1:16
    史無前例,
  • 1:16 - 1:20
    我們遠在孩子出生之前
    就開始追蹤他們的個人資料——
  • 1:20 - 1:23
    有時是從懷孕就開始,
  • 1:23 - 1:25
    接著便追蹤他們的一生。
  • 1:25 - 1:28
    要知道,當父母決定要懷孕時,
  • 1:28 - 1:31
    他們會上網搜尋「懷孕的方式」,
  • 1:31 - 1:35
    或者他們會下載
    排卵追蹤應用程式。
  • 1:35 - 1:38
    當他們確實懷孕之後,
  • 1:38 - 1:41
    他們會把寶寶的超音波照片
    張貼在社群媒體上,
  • 1:41 - 1:43
    他們會下載懷孕期應用程式,
  • 1:43 - 1:47
    或者他們會向 Google 大神
    諮詢各種相關事項。
  • 1:47 - 1:48
    比如——
  • 1:48 - 1:51
    搜尋「飛行造成的流產風險」,
  • 1:51 - 1:54
    或「懷孕初期的腹痛」。
  • 1:54 - 1:57
    我知道是因為我做過許多次。
  • 1:58 - 2:01
    等寶寶出生了,他們會用各種技術
  • 2:01 - 2:05
    追蹤每次小盹、每次進食、
    生命中的每件事。
  • 2:06 - 2:09
    而他們用的這些技術,
  • 2:09 - 2:13
    都會把寶寶最私密的行為
    和健康資料分享出去,
  • 2:13 - 2:16
    以轉換成利潤。
  • 2:17 - 2:19
    讓我說明一下這是怎麼運作的:
  • 2:19 - 2:23
    2019 年,英國醫學期刊
    刊出了一篇研究,
  • 2:23 - 2:27
    指出在二十四個
    行動健康應用程式中,
  • 2:28 - 2:31
    有十九個會和第三方分享資訊。
  • 2:32 - 2:35
    而這些第三方會把資訊分享給
  • 2:35 - 2:38
    兩百一十六個其他組織。
  • 2:39 - 2:42
    在這兩百一十六個第四方當中,
  • 2:42 - 2:45
    只有三個屬於健康領域。
  • 2:46 - 2:50
    其他能取得這些資料的公司
    則是大型科技公司,
  • 2:50 - 2:53
    比如 Google、臉書,
    或甲骨文公司,
  • 2:54 - 2:56
    還有數位廣告公司,
  • 2:56 - 3:00
    還有一家是消費者信用調查機構。
  • 3:01 - 3:03
    所以,沒錯:
  • 3:03 - 3:08
    廣告公司和信用機構可能
    都已經有小寶寶的資料了。
  • 3:09 - 3:12
    但,行動應用程式、
    網路搜尋和社群媒體
  • 3:12 - 3:15
    其實只是冰山的一角,
  • 3:15 - 3:18
    因為有許多技術在日常生活中
  • 3:18 - 3:20
    追蹤兒童的資料。
  • 3:20 - 3:24
    在家中,家用科技
    和虛擬助理會追蹤兒童。
  • 3:24 - 3:28
    在學校,教育平台
    和教育相關技術都會追蹤兒童。
  • 3:28 - 3:32
    在醫生的診間,線上記錄
    和線上入口網站都會追蹤兒童。
  • 3:33 - 3:36
    還有需連結網路的玩具、線上遊戲
  • 3:36 - 3:39
    及許多許多其他技術
    都會追蹤兒童。
  • 3:40 - 3:42
    所以,在我研究期間,
  • 3:42 - 3:46
    很多父母來找我,
    他們會說:「又怎樣?
  • 3:46 - 3:49
    我的孩子被追蹤有什麼關係?
  • 3:50 - 3:52
    我們沒啥要隱瞞的。」
  • 3:53 - 3:55
    這是有關係的。
  • 3:55 - 3:57
    有關係是因為,現今,
  • 3:57 - 4:01
    個人不僅受到追蹤,
  • 4:01 - 4:05
    這些追蹤資料還會
    被拿來建構他們的側寫評比。
  • 4:05 - 4:09
    人工智慧和預測分析
  • 4:09 - 4:12
    正被用來盡可能多地利用
  • 4:12 - 4:14
    不同來源的個人生活資料:
  • 4:15 - 4:19
    家族史、購買習慣、社群媒體留言。
  • 4:19 - 4:21
    接著,這些資料會被整合,
  • 4:21 - 4:24
    以資料為根據,
    做出針對個人的決策。
  • 4:25 - 4:28
    到處都在使用這些技術。
  • 4:28 - 4:30
    銀行用它們來決定貸款,
  • 4:31 - 4:33
    保險公司用它們來決定保費,
  • 4:34 - 4:37
    招聘公司和僱主用它們
  • 4:37 - 4:40
    來判定應徵者是否適合某個職缺。
  • 4:41 - 4:44
    連警方和法庭也會用它們
  • 4:44 - 4:47
    來判斷一個人是否有可能是罪犯,
  • 4:47 - 4:50
    或是否有可能再犯。
  • 4:52 - 4:57
    我們不知道也無法控制
  • 4:57 - 4:59
    購買、銷售、處理我們資料的公司
  • 4:59 - 5:03
    會用什麼方式來對我們
    和我們的孩子做側寫評比,
  • 5:04 - 5:08
    但那些側寫評比有可能會
    顯著影響我們的權利。
  • 5:09 - 5:11
    舉個例子,
  • 5:14 - 5:18
    2018 年《紐約時報》
    刊載的新聞提到,
  • 5:18 - 5:23
    透過大學規劃線上服務
    所收集到的資料——
  • 5:23 - 5:27
    這些資料來自全美各地數百萬名
  • 5:27 - 5:31
    想要尋找大學科系
    或獎學金的高中生——
  • 5:31 - 5:35
    被販售給教育資料中介商。
  • 5:36 - 5:41
    福坦莫大學裡那些研究
    教育資料中介商的研究者
  • 5:41 - 5:45
    揭發出這些公司會根據不同的分類
  • 5:45 - 5:49
    來為小至兩歲的兒童做側寫評比:
  • 5:50 - 5:53
    人種、宗教、富裕程度、
  • 5:54 - 5:56
    社交尷尬
  • 5:56 - 5:59
    及許多其他隨機的分類。
  • 5:59 - 6:01
    接著,它們會賣掉這些側寫評比,
  • 6:01 - 6:07
    連帶附上兒童的姓名、
    地址和聯絡細節資訊,
  • 6:07 - 6:09
    賣給各種公司,
  • 6:09 - 6:11
    包括貿易和職涯機構、
  • 6:12 - 6:15
    學生貸款以及學生信用卡公司。
  • 6:17 - 6:19
    福坦莫大學的研究者還更進一步,
  • 6:19 - 6:24
    請一家教育資料中介商
    提供他們一份名單,
  • 6:24 - 6:31
    羅列十四到十五歲
    對於避孕措施感興趣的女孩。
  • 6:32 - 6:35
    資料中介商同意
    提供他們這份名單。
  • 6:35 - 6:40
    想像這多麼侵害我們孩子的私密。
  • 6:41 - 6:45
    但,教育資料中介商
    也只不過是一個例子。
  • 6:45 - 6:50
    事實是,我們無法控制別人
    如何對我們的孩子做側寫評比,
  • 6:50 - 6:53
    但這些側寫評比卻會明顯影響
    他們在人生中的機會。
  • 6:54 - 6:57
    所以,我們得要捫心自問:
  • 6:58 - 7:02
    我們能信任這些
    側寫評比孩子的技術嗎?
  • 7:02 - 7:04
    能嗎?
  • 7:06 - 7:07
    我的答案是「不能。」
  • 7:08 - 7:09
    身為人類學家,
  • 7:09 - 7:13
    我相信人工智慧和預測分析
  • 7:13 - 7:17
    很擅長預測疾病的過程
    或對抗氣候變遷。
  • 7:18 - 7:20
    但我們不能夠信任
  • 7:20 - 7:23
    這些技術能夠客觀地
    對人類做側寫評比,
  • 7:23 - 7:28
    讓我們依據這些側寫評比資料
    來對個人的人生做出判斷,
  • 7:28 - 7:31
    因為它們無法對人類做側寫評比。
  • 7:31 - 7:34
    追蹤資料並無法反映出
    我們是什麼樣的人。
  • 7:34 - 7:37
    人類說出來的話
    可能和心中想的相反,
  • 7:37 - 7:39
    做出來的行為
    可能和心中的感受不同。
  • 7:39 - 7:42
    用演算法做預測或其他數位做法
  • 7:42 - 7:47
    無法考量到人類經歷中的
    不可預測性和複雜性。
  • 7:48 - 7:50
    除此之外,
  • 7:50 - 7:52
    這些技術向來——
  • 7:53 - 7:56
    向來——會以某種方式偏頗。
  • 7:57 - 8:02
    在定義上,演算法就是
    一組一組的規則或步驟,
  • 8:02 - 8:06
    設計的目的是要達成
    一個特定的結果。
  • 8:07 - 8:10
    但這些規則或步驟並不客觀,
  • 8:10 - 8:13
    因為它們是由某種
    特定文化情境下的人所設計的,
  • 8:13 - 8:16
    且由某些特定的
    文化價值觀所形塑出來。
  • 8:17 - 8:18
    所以,機器學習時
  • 8:18 - 8:21
    會自偏頗的演算法學習,
  • 8:22 - 8:25
    通常也會從偏頗的資料庫中學習。
  • 8:26 - 8:30
    現在我們已經開始看見
    一些偏頗演算法的初始例子,
  • 8:30 - 8:33
    當中有些還挺嚇人的。
  • 8:34 - 8:40
    紐約的 AI Now Institute
    今年公佈的一份報告揭露出
  • 8:40 - 8:44
    用來做預測性維安的人工智慧技術
  • 8:44 - 8:48
    是用「髒數據」訓練出來的。
  • 8:48 - 8:51
    收集這些資料的時期,
  • 8:51 - 8:55
    是歷史上已知很有種族偏見
  • 8:55 - 8:58
    以及警方作業不透明的時期。
  • 8:59 - 9:02
    因為訓練這些技術
    所用的資料是髒數據,
  • 9:03 - 9:04
    不具備客觀性,
  • 9:04 - 9:06
    它們產出的結果
  • 9:06 - 9:10
    只會放大和犯下警方的偏見和錯誤。
  • 9:13 - 9:18
    所以,我認為我們面臨的
    是社會中的根本問題。
  • 9:18 - 9:23
    我們開始交由科技技術
    來側寫評比人。
  • 9:24 - 9:26
    我們知道在側寫評比人時,
  • 9:26 - 9:29
    這些技術一定會偏頗,
  • 9:29 - 9:31
    永遠不會正確。
  • 9:32 - 9:35
    所以,現在我們需要的
    是政治上的解決方案。
  • 9:35 - 9:40
    我們需要政府認可
    我們的資料權和人權。
  • 9:40 - 9:44
    (掌聲及歡呼)
  • 9:48 - 9:52
    在那之前,我們不用冀望
    會有更公正的未來。
  • 9:53 - 9:55
    我擔心我的女兒會接觸到
  • 9:56 - 9:59
    各種演算法歧視和錯誤。
  • 9:59 - 10:01
    我和我女兒的差別在於
  • 10:01 - 10:04
    我的童年並沒有
    公開的記錄可被取得。
  • 10:05 - 10:09
    肯定也沒有資料庫
    記錄我在青少女時期
  • 10:09 - 10:11
    做過的所有蠢事和蠢念頭。
  • 10:11 - 10:13
    (笑聲)
  • 10:14 - 10:17
    但我女兒要面臨的情況可能不同。
  • 10:17 - 10:20
    今天收集到和她們有關的資料,
  • 10:20 - 10:24
    未來可能就會被用來評斷她們,
  • 10:24 - 10:28
    且有可能會漸漸阻擋到
    她們的希望和夢想。
  • 10:29 - 10:31
    我認為該是我們大家
    站出來的時候了。
  • 10:31 - 10:34
    該是我們開始同心協力,
  • 10:34 - 10:38
    以個人、組織、
    機構的身份攜手合作,
  • 10:38 - 10:43
    我們要為自己及我們的孩子
    爭取更高的資料公平性,
  • 10:43 - 10:44
    別等到太遲了。
  • 10:44 - 10:45
    謝謝。
  • 10:45 - 10:47
    (掌聲)
タイトル:
科技公司對你的孩子有哪些了解
話者:
薇若妮卡.巴拉西
概説:

人類學家薇若妮卡.巴拉西說:你和家人每天使用的數位平台——從線上遊戲到教育應用程式及醫療入口網站——有可能在收集和銷售與你孩子有關的資料。在這場演說中,巴拉西分享她的研究,讓你大開眼界。她鼓勵父母要仔細閱讀數位的「條件與條款」而不是盲目地按下「接受」。她還要求要制定保護政策,以確保與我們孩子有關的資料不會影響到他們的未來。

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Chinese, Traditional subtitles

改訂