0:00:01.041,0:00:04.169 你好 我叫玖伊[br]是個寫媒體程式的詩人 0:00:04.199,0:00:05.492 我的使命是[br] 0:00:05.492,0:00:09.172 終止一個隱形力量的崛起 0:00:09.222,0:00:12.211 我稱這種力量為「數碼凝視」 0:00:12.251,0:00:15.296 是我替偏差演算法取的名稱 0:00:15.396,0:00:17.633 偏差的演算法跟人的偏見一樣[br] 0:00:17.653,0:00:19.703 會導致不公平的結果 0:00:19.753,0:00:22.349 然而演算法更像病毒 0:00:22.379,0:00:24.089 它傳播的偏見 0:00:24.109,0:00:27.211 大量而迅速 0:00:27.881,0:00:32.034 演算法偏差讓人[br]體驗到什麼叫做被排擠 0:00:32.054,0:00:34.256 也會導致差別對待 0:00:34.556,0:00:36.736 讓我告訴你我的意思 0:00:36.776,0:00:40.246 嗨 相機 我有一張臉 0:00:40.276,0:00:42.246 你能看見我的臉嗎? 0:00:42.266,0:00:43.841 不戴眼鏡呢? 0:00:43.861,0:00:46.181 你看得見她啊 0:00:46.221,0:00:48.865 那麼我的臉呢? 0:00:52.090,0:00:55.100 戴上面具 你看得見戴上面具嗎? 0:00:56.681,0:00:58.873 到底是怎麽回事? 0:00:59.120,0:01:02.249 我為什麽要坐在電腦前 0:01:02.249,0:01:03.589 戴著白色面具 0:01:03.589,0:01:07.232 好讓這台廉價的攝影機能看得見我 0:01:07.232,0:01:09.497 如果我沒有忙著對抗數碼凝視 0:01:09.497,0:01:10.977 當個媒體程式詩人 0:01:10.977,0:01:14.366 我就是麻省理工媒體實驗室的研究生 0:01:14.366,0:01:19.225 我在那裡從事一些稀奇古怪的計劃 0:01:19.225,0:01:21.316 包括照妖鏡 0:01:21.385,0:01:22.987 照妖鏡計劃 0:01:22.987,0:01:26.637 讓我能把數位面具投射在自己臉上 0:01:26.637,0:01:28.805 早上起來如果我需要強大的力量 0:01:28.829,0:01:30.263 我就投上一個獅子面具 0:01:30.287,0:01:31.785 如果我缺乏鬥志 0:01:31.785,0:01:34.173 我就放一段名人名言 0:01:34.173,0:01:36.392 因為我使用一般的臉部辨識軟體 0:01:36.477,0:01:38.180 來測試這個系統 0:01:38.180,0:01:39.380 結果竟然發現 0:01:39.380,0:01:41.197 電腦無法偵測到我 0:01:41.197,0:01:43.737 除非我戴上白色面具 0:01:43.997,0:01:48.676 很不幸我之前就碰過這種問題 0:01:48.676,0:01:51.356 先前我在喬治亞理工學院 0:01:51.356,0:01:53.006 攻讀電腦科學學士學位時 0:01:53.006,0:01:55.034 我研究社交機器人 0:01:55.058,0:01:56.639 其中的一個實驗 0:01:56.639,0:01:58.859 就是和機器人玩躲貓貓 0:01:58.859,0:02:00.542 這個簡單的互動遊戲 0:02:00.566,0:02:03.621 讓對手先遮住臉再放開 0:02:03.621,0:02:04.911 同時要說 peek-a-boo 0:02:04.911,0:02:07.154 問題是如果看不到對方 0:02:07.154,0:02:09.494 遊戲就玩不下去了 0:02:09.494,0:02:11.863 我的機器人就是看不到我 0:02:11.887,0:02:15.837 最後我只好借我室友的臉來完成 0:02:15.861,0:02:17.451 做完實驗時我想 0:02:17.451,0:02:21.018 總有一天會有別人解決這個問題 0:02:21.669,0:02:23.672 不久之後 0:02:23.696,0:02:25.089 我去香港參加一個[br] 0:02:25.089,0:02:28.339 業界舉辦的競技比賽 0:02:28.339,0:02:31.033 主辦單位先帶每位參賽者 0:02:31.057,0:02:33.429 去參觀當地的新創市場 0:02:33.453,0:02:36.168 其中一項就是社交機器人 0:02:36.192,0:02:38.104 當他們用社交機器人展示成果時 0:02:38.128,0:02:40.478 社交機器人對每個參賽者都有反應 0:02:40.478,0:02:41.669 直到遇到了我 0:02:41.669,0:02:43.506 接下來的情形你應該能想像 0:02:43.506,0:02:46.044 社交機器人怎樣都偵測不到我的臉 0:02:46.068,0:02:48.803 我問軟體開發人員是怎麼一回事 0:02:48.803,0:02:51.723 才驚覺當年通用的 0:02:51.723,0:02:54.136 人臉辨識軟體 0:02:54.160,0:02:56.210 竟然飄洋過海到了香港 0:02:56.210,0:02:59.686 偏差的演算邏輯快速散播 0:02:59.710,0:03:03.560 只要從網路下載幾個檔案就搞定了 0:03:03.745,0:03:06.821 為什麼機器人就是看不見我的臉? 0:03:06.845,0:03:10.201 得先知道我們如何賦予機器視力 0:03:10.225,0:03:13.512 電腦使用機器學習的技術[br] 0:03:13.512,0:03:15.562 來辨識人臉 0:03:15.562,0:03:18.643 你必須用許多實作測試來訓練他們 0:03:18.643,0:03:20.665 這是人臉這是人臉這是人臉 0:03:20.665,0:03:22.225 這不是人臉 0:03:22.225,0:03:25.148 一而再再而三你就能教機器人 0:03:25.148,0:03:26.868 辨識其他的人臉 0:03:26.868,0:03:30.561 但是如果實作測試不夠多樣化 0:03:30.561,0:03:32.001 當出現的人臉 0:03:32.071,0:03:34.230 與既定規範相去太遠時 0:03:34.254,0:03:35.903 電腦就很難判斷了 0:03:35.927,0:03:37.890 我的親身經驗就是這樣 0:03:37.914,0:03:40.296 但別慌張 有好消息 0:03:40.320,0:03:43.091 實作測試並不是無中生有 0:03:43.115,0:03:44.903 事實上我們能夠建的 0:03:44.927,0:03:49.103 我們可以有一套更周詳的測試樣本 0:03:49.127,0:03:52.811 涵蓋人種的多樣性 0:03:52.975,0:03:55.196 我的實驗說明了 0:03:55.220,0:03:56.596 社交機器人 0:03:56.596,0:03:58.892 產生排他現象 0:03:58.892,0:04:01.623 因為偏差的演算邏輯 0:04:01.647,0:04:03.407 偏差的演算邏輯 0:04:03.407,0:04:07.027 也可能讓偏見成為一種習慣 0:04:07.437,0:04:08.890 美國各地的警方 0:04:08.914,0:04:13.112 正開始使用這套人臉辨識軟體 0:04:13.136,0:04:15.595 來建立警方的打擊犯罪系統 0:04:15.619,0:04:17.374 喬治城大學法律中心的報告指出 0:04:17.374,0:04:20.954 每兩個美國成年人就有一個人 0:04:20.954,0:04:24.287 也就是一億一千七百萬筆臉部資料 0:04:24.480,0:04:27.977 在美國警方這套系統裡 0:04:28.001,0:04:32.553 警方這套系統既缺乏規範 0:04:32.577,0:04:36.863 也缺乏正確合法的演算邏輯 0:04:36.887,0:04:40.751 你要知道人臉辨識並非萬無一失 0:04:40.775,0:04:44.954 要一貫正確地標註人臉[br]往往不是那麼容易 0:04:44.978,0:04:46.511 或許你在臉書上看過 0:04:46.514,0:04:48.754 朋友和我常覺得很好笑 0:04:48.754,0:04:52.066 看見有人標註朋友卻標錯了 0:04:52.258,0:04:55.633 如果標錯的是犯人的臉呢 0:04:55.633,0:04:57.873 那就讓人笑不出來了 0:04:57.873,0:05:00.433 侵害公民自由也同樣讓人笑不出來 0:05:00.724,0:05:03.929 不僅辨識人臉倚賴機器學習的技術 0:05:03.953,0:05:08.458 許多領域其實都要用到機器學習 0:05:09.266,0:05:13.282 《大數據的傲慢與偏見》[br]這本書的作者 0:05:13.306,0:05:16.051 數據科學家凱西 歐尼爾 0:05:16.051,0:05:20.211 談到新 WMD 勢力的崛起 0:05:20.248,0:05:24.388 WMD 是廣泛 神秘和具破壞性的算法 0:05:24.388,0:05:27.352 演算法漸漸取代我們做決定 0:05:27.376,0:05:30.463 影響我們生活的更多層面 0:05:30.577,0:05:32.447 例如誰升了官?誰丟了飯碗? 0:05:32.471,0:05:34.583 你借到錢了嗎?你買保險了嗎? 0:05:34.607,0:05:38.110 你進入心目中理想的大學了嗎? 0:05:38.134,0:05:41.643 我們花同樣多的錢在同樣的平台上 0:05:41.667,0:05:44.109 買到同樣的產品嗎? 0:05:44.133,0:05:47.892 警方也開始使用機器學習 0:05:47.916,0:05:50.205 來防範犯罪 0:05:50.229,0:05:53.723 法官根據電腦顯示的危險因子數據 0:05:53.747,0:05:58.149 來決定一個人要在監獄待幾年 0:05:58.173,0:06:00.627 我們得仔細想想這些判定 0:06:00.651,0:06:01.833 它們真的公平嗎? 0:06:01.857,0:06:04.747 我們親眼看見偏差的演算邏輯 0:06:04.771,0:06:08.145 未必做出正確的判斷 0:06:08.169,0:06:10.133 我們該怎麽辦呢? 0:06:10.157,0:06:13.837 我們要先確定程式碼是否具多樣性 0:06:13.861,0:06:16.851 以及寫程式的過程是否周詳 0:06:16.875,0:06:19.604 事實上全都始於人 0:06:19.708,0:06:21.669 程式是誰寫的有關係 0:06:21.693,0:06:25.812 寫程式的團隊是否由[br]多元的個體組成呢? 0:06:25.836,0:06:28.247 這樣才能互補並找出彼此的盲點 0:06:28.271,0:06:31.816 從技術面而言[br]我們如何寫程式很重要 0:06:31.840,0:06:33.560 我們是否對公平這項要素 0:06:33.560,0:06:35.515 在系統開發階段就考量到呢? 0:06:35.515,0:06:38.528 最後 我們為什麼寫程式也重要 0:06:38.785,0:06:43.868 我們使用計算創造工具[br]開啟了巨額財富之門 0:06:43.892,0:06:48.323 我們現在有機會實現更大的平等 0:06:48.363,0:06:51.123 如果我們將社會變革作為優先事項 0:06:51.147,0:06:53.867 而不是事後的想法 0:06:54.008,0:06:58.530 這裡有改革程式的三元素 0:06:58.554,0:07:00.206 程式是誰寫的重要 0:07:00.230,0:07:01.773 如何寫程式重要 0:07:01.797,0:07:03.820 以及為何寫程式重要 0:07:03.844,0:07:05.857 要成功改革程式 0:07:05.857,0:07:10.131 我們可以先從建立能夠[br]找出偏差的分析平台開始 0:07:10.155,0:07:13.233 作法是收集人們的親身經歷[br]像是我剛才分享的經歷 0:07:13.257,0:07:16.327 也檢視現存的軟體 0:07:16.351,0:07:20.116 我們可以著手建立[br]更具包容性的測試樣本 0:07:20.140,0:07:22.943 想像「包容的自拍」活動 0:07:22.967,0:07:26.622 我們可以幫助開發人員測試和創建 0:07:26.646,0:07:28.969 更具包容性的測試樣本 0:07:29.302,0:07:32.130 我們也要更自省 0:07:32.154,0:07:37.285 我們發展的科技帶給社會的衝擊 0:07:37.569,0:07:39.962 為了著手程式改革 0:07:39.986,0:07:42.833 我發起了「演算邏輯正義聯盟」 0:07:42.857,0:07:45.753 只要你贊同公平 0:07:45.753,0:07:48.753 就可以加入打擊數碼凝視的行列 0:07:48.753,0:07:50.163 只要上 codedgaze.com 網路 0:07:50.163,0:07:52.123 可以舉報你發現的偏差演算邏輯 0:07:52.123,0:07:53.333 可以申請測試 0:07:53.333,0:07:54.838 可以成為受測者 0:07:54.838,0:07:57.313 也可以加入論壇 0:07:57.385,0:08:00.385 只要搜尋 #codedgaze 0:08:00.742,0:08:03.229 我在此邀請大家加入我的行列 0:08:03.253,0:08:06.972 創造一個技術適用於[br]我們所有人的世界 0:08:06.996,0:08:08.893 而不是只適用於某些人 0:08:08.917,0:08:13.469 一個重視包容性[br]和以社會變革為中心的世界 0:08:13.529,0:08:14.704 謝謝 0:08:14.738,0:08:19.009 (掌聲) 0:08:20.873,0:08:23.727 我還有一個問題 0:08:23.751,0:08:25.810 你要和我並肩作戰嗎? 0:08:25.834,0:08:27.119 (笑聲) 0:08:27.143,0:08:30.830 (掌聲)