WEBVTT 00:00:01.041 --> 00:00:04.169 你好 我叫玖伊 是個寫媒體程式的詩人 00:00:04.199 --> 00:00:05.492 我的使命是 00:00:05.492 --> 00:00:09.172 終止一個隱形力量的崛起 00:00:09.222 --> 00:00:12.211 我稱這種力量為「數碼凝視」 00:00:12.251 --> 00:00:15.296 是我替偏差演算法取的名稱 NOTE Paragraph 00:00:15.396 --> 00:00:17.633 偏差的演算法跟人的偏見一樣 00:00:17.653 --> 00:00:19.703 會導致不公平的結果 00:00:19.753 --> 00:00:22.349 然而演算法更像病毒 00:00:22.379 --> 00:00:24.089 它傳播的偏見 NOTE Paragraph 00:00:24.109 --> 00:00:27.211 大量而迅速 00:00:27.881 --> 00:00:32.034 演算法偏差讓人 體驗到什麼叫做被排擠 00:00:32.054 --> 00:00:34.256 也會導致差別對待 00:00:34.556 --> 00:00:36.736 讓我告訴你我的意思 NOTE Paragraph 00:00:36.776 --> 00:00:40.246 嗨 相機 我有一張臉 00:00:40.276 --> 00:00:42.246 你能看見我的臉嗎? 00:00:42.266 --> 00:00:43.841 不戴眼鏡呢? 00:00:43.861 --> 00:00:46.181 你看得見她啊 00:00:46.221 --> 00:00:48.865 那麼我的臉呢? 00:00:52.090 --> 00:00:55.100 戴上面具 你看得見戴上面具嗎? 00:00:56.681 --> 00:00:58.873 到底是怎麽回事? NOTE Paragraph 00:00:59.120 --> 00:01:02.249 我為什麽要坐在電腦前 00:01:02.249 --> 00:01:03.589 戴著白色面具 00:01:03.589 --> 00:01:07.232 好讓這台廉價的攝影機能看得見我 00:01:07.232 --> 00:01:09.497 如果我沒有忙著對抗數碼凝視 00:01:09.497 --> 00:01:10.977 當個媒體程式詩人 00:01:10.977 --> 00:01:14.366 我就是麻省理工媒體實驗室的研究生 00:01:14.366 --> 00:01:19.225 我在那裡從事一些稀奇古怪的計劃 00:01:19.225 --> 00:01:21.316 包括照妖鏡 00:01:21.385 --> 00:01:22.987 照妖鏡計劃 00:01:22.987 --> 00:01:26.637 讓我能把數位面具投射在自己臉上 00:01:26.637 --> 00:01:28.805 早上起來如果我需要強大的力量 00:01:28.829 --> 00:01:30.263 我就投上一個獅子面具 00:01:30.287 --> 00:01:31.785 如果我缺乏鬥志 00:01:31.785 --> 00:01:34.173 我就放一段名人名言 00:01:34.173 --> 00:01:36.392 因為我使用一般的臉部辨識軟體 00:01:36.477 --> 00:01:38.180 來測試這個系統 00:01:38.180 --> 00:01:39.380 結果竟然發現 00:01:39.380 --> 00:01:41.197 電腦無法偵測到我 00:01:41.197 --> 00:01:43.737 除非我戴上白色面具 NOTE Paragraph 00:01:43.997 --> 00:01:48.676 很不幸我之前就碰過這種問題 00:01:48.676 --> 00:01:51.356 先前我在喬治亞理工學院 00:01:51.356 --> 00:01:53.006 攻讀電腦科學學士學位時 00:01:53.006 --> 00:01:55.034 我研究社交機器人 00:01:55.058 --> 00:01:56.639 其中的一個實驗 00:01:56.639 --> 00:01:58.859 就是和機器人玩躲貓貓 00:01:58.859 --> 00:02:00.542 這個簡單的互動遊戲 00:02:00.566 --> 00:02:03.621 讓對手先遮住臉再放開 00:02:03.621 --> 00:02:04.911 同時要說 peek-a-boo 00:02:04.911 --> 00:02:07.154 問題是如果看不到對方 00:02:07.154 --> 00:02:09.494 遊戲就玩不下去了 00:02:09.494 --> 00:02:11.863 我的機器人就是看不到我 00:02:11.887 --> 00:02:15.837 最後我只好借我室友的臉來完成 00:02:15.861 --> 00:02:17.451 做完實驗時我想 00:02:17.451 --> 00:02:21.018 總有一天會有別人解決這個問題 NOTE Paragraph 00:02:21.669 --> 00:02:23.672 不久之後 00:02:23.696 --> 00:02:25.089 我去香港參加一個 00:02:25.089 --> 00:02:28.339 業界舉辦的競技比賽 00:02:28.339 --> 00:02:31.033 主辦單位先帶每位參賽者 00:02:31.057 --> 00:02:33.429 去參觀當地的新創市場 00:02:33.453 --> 00:02:36.168 其中一項就是社交機器人 00:02:36.192 --> 00:02:38.104 當他們用社交機器人展示成果時 00:02:38.128 --> 00:02:40.478 社交機器人對每個參賽者都有反應 00:02:40.478 --> 00:02:41.669 直到遇到了我 00:02:41.669 --> 00:02:43.506 接下來的情形你應該能想像 00:02:43.506 --> 00:02:46.044 社交機器人怎樣都偵測不到我的臉 00:02:46.068 --> 00:02:48.803 我問軟體開發人員是怎麼一回事 00:02:48.803 --> 00:02:51.723 才驚覺當年通用的 00:02:51.723 --> 00:02:54.136 人臉辨識軟體 00:02:54.160 --> 00:02:56.210 竟然飄洋過海到了香港 00:02:56.210 --> 00:02:59.686 偏差的演算邏輯快速散播 00:02:59.710 --> 00:03:03.560 只要從網路下載幾個檔案就搞定了 NOTE Paragraph 00:03:03.745 --> 00:03:06.821 為什麼機器人就是看不見我的臉? 00:03:06.845 --> 00:03:10.201 得先知道我們如何賦予機器視力 00:03:10.225 --> 00:03:13.512 電腦使用機器學習的技術 00:03:13.512 --> 00:03:15.562 來辨識人臉 00:03:15.562 --> 00:03:18.643 你必須用許多實作測試來訓練他們 00:03:18.643 --> 00:03:20.665 這是人臉這是人臉這是人臉 00:03:20.665 --> 00:03:22.225 這不是人臉 00:03:22.225 --> 00:03:25.148 一而再再而三你就能教機器人 00:03:25.148 --> 00:03:26.868 辨識其他的人臉 00:03:26.868 --> 00:03:30.561 但是如果實作測試不夠多樣化 00:03:30.561 --> 00:03:32.001 當出現的人臉 00:03:32.071 --> 00:03:34.230 與既定規範相去太遠時 00:03:34.254 --> 00:03:35.903 電腦就很難判斷了 00:03:35.927 --> 00:03:37.890 我的親身經驗就是這樣 NOTE Paragraph 00:03:37.914 --> 00:03:40.296 但別慌張 有好消息 00:03:40.320 --> 00:03:43.091 實作測試並不是無中生有 00:03:43.115 --> 00:03:44.903 事實上我們能夠建的 00:03:44.927 --> 00:03:49.103 我們可以有一套更周詳的測試樣本 00:03:49.127 --> 00:03:52.811 涵蓋人種的多樣性 NOTE Paragraph 00:03:52.975 --> 00:03:55.196 我的實驗說明了 00:03:55.220 --> 00:03:56.596 社交機器人 00:03:56.596 --> 00:03:58.892 產生排他現象 00:03:58.892 --> 00:04:01.623 因為偏差的演算邏輯 00:04:01.647 --> 00:04:03.407 偏差的演算邏輯 00:04:03.407 --> 00:04:07.027 也可能讓偏見成為一種習慣 00:04:07.437 --> 00:04:08.890 美國各地的警方 00:04:08.914 --> 00:04:13.112 正開始使用這套人臉辨識軟體 00:04:13.136 --> 00:04:15.595 來建立警方的打擊犯罪系統 00:04:15.619 --> 00:04:17.374 喬治城大學法律中心的報告指出 00:04:17.374 --> 00:04:20.954 每兩個美國成年人就有一個人 00:04:20.954 --> 00:04:24.287 也就是一億一千七百萬筆臉部資料 00:04:24.480 --> 00:04:27.977 在美國警方這套系統裡 00:04:28.001 --> 00:04:32.553 警方這套系統既缺乏規範 00:04:32.577 --> 00:04:36.863 也缺乏正確合法的演算邏輯 00:04:36.887 --> 00:04:40.751 你要知道人臉辨識並非萬無一失 00:04:40.775 --> 00:04:44.954 要一貫正確地標註人臉 往往不是那麼容易 00:04:44.978 --> 00:04:46.511 或許你在臉書上看過 00:04:46.514 --> 00:04:48.754 朋友和我常覺得很好笑 00:04:48.754 --> 00:04:52.066 看見有人標註朋友卻標錯了 00:04:52.258 --> 00:04:55.633 如果標錯的是犯人的臉呢 00:04:55.633 --> 00:04:57.873 那就讓人笑不出來了 00:04:57.873 --> 00:05:00.433 侵害公民自由也同樣讓人笑不出來 NOTE Paragraph 00:05:00.724 --> 00:05:03.929 不僅辨識人臉倚賴機器學習的技術 00:05:03.953 --> 00:05:08.458 許多領域其實都要用到機器學習 00:05:09.266 --> 00:05:13.282 《大數據的傲慢與偏見》 這本書的作者 00:05:13.306 --> 00:05:16.051 數據科學家凱西 歐尼爾 00:05:16.051 --> 00:05:20.211 談到新 WMD 勢力的崛起 00:05:20.248 --> 00:05:24.388 WMD 是廣泛 神秘和具破壞性的算法 00:05:24.388 --> 00:05:27.352 演算法漸漸取代我們做決定 00:05:27.376 --> 00:05:30.463 影響我們生活的更多層面 00:05:30.577 --> 00:05:32.447 例如誰升了官?誰丟了飯碗? 00:05:32.471 --> 00:05:34.583 你借到錢了嗎?你買保險了嗎? 00:05:34.607 --> 00:05:38.110 你進入心目中理想的大學了嗎? 00:05:38.134 --> 00:05:41.643 我們花同樣多的錢在同樣的平台上 00:05:41.667 --> 00:05:44.109 買到同樣的產品嗎? NOTE Paragraph 00:05:44.133 --> 00:05:47.892 警方也開始使用機器學習 00:05:47.916 --> 00:05:50.205 來防範犯罪 00:05:50.229 --> 00:05:53.723 法官根據電腦顯示的危險因子數據 00:05:53.747 --> 00:05:58.149 來決定一個人要在監獄待幾年 00:05:58.173 --> 00:06:00.627 我們得仔細想想這些判定 00:06:00.651 --> 00:06:01.833 它們真的公平嗎? 00:06:01.857 --> 00:06:04.747 我們親眼看見偏差的演算邏輯 00:06:04.771 --> 00:06:08.145 未必做出正確的判斷 NOTE Paragraph 00:06:08.169 --> 00:06:10.133 我們該怎麽辦呢? 00:06:10.157 --> 00:06:13.837 我們要先確定程式碼是否具多樣性 00:06:13.861 --> 00:06:16.851 以及寫程式的過程是否周詳 00:06:16.875 --> 00:06:19.604 事實上全都始於人 00:06:19.708 --> 00:06:21.669 程式是誰寫的有關係 00:06:21.693 --> 00:06:25.812 寫程式的團隊是否由 多元的個體組成呢? 00:06:25.836 --> 00:06:28.247 這樣才能互補並找出彼此的盲點 00:06:28.271 --> 00:06:31.816 從技術面而言 我們如何寫程式很重要 00:06:31.840 --> 00:06:33.560 我們是否對公平這項要素 00:06:33.560 --> 00:06:35.515 在系統開發階段就考量到呢? 00:06:35.515 --> 00:06:38.528 最後 我們為什麼寫程式也重要 00:06:38.785 --> 00:06:43.868 我們使用計算創造工具 開啟了巨額財富之門 00:06:43.892 --> 00:06:48.323 我們現在有機會實現更大的平等 00:06:48.363 --> 00:06:51.123 如果我們將社會變革作為優先事項 00:06:51.147 --> 00:06:53.867 而不是事後的想法 00:06:54.008 --> 00:06:58.530 這裡有改革程式的三元素 00:06:58.554 --> 00:07:00.206 程式是誰寫的重要 00:07:00.230 --> 00:07:01.773 如何寫程式重要 00:07:01.797 --> 00:07:03.820 以及為何寫程式重要 NOTE Paragraph 00:07:03.844 --> 00:07:05.857 要成功改革程式 00:07:05.857 --> 00:07:10.131 我們可以先從建立能夠 找出偏差的分析平台開始 00:07:10.155 --> 00:07:13.233 作法是收集人們的親身經歷 像是我剛才分享的經歷 00:07:13.257 --> 00:07:16.327 也檢視現存的軟體 00:07:16.351 --> 00:07:20.116 我們可以著手建立 更具包容性的測試樣本 00:07:20.140 --> 00:07:22.943 想像「包容的自拍」活動 00:07:22.967 --> 00:07:26.622 我們可以幫助開發人員測試和創建 00:07:26.646 --> 00:07:28.969 更具包容性的測試樣本 00:07:29.302 --> 00:07:32.130 我們也要更自省 00:07:32.154 --> 00:07:37.285 我們發展的科技帶給社會的衝擊 NOTE Paragraph 00:07:37.569 --> 00:07:39.962 為了著手程式改革 00:07:39.986 --> 00:07:42.833 我發起了「演算邏輯正義聯盟」 00:07:42.857 --> 00:07:45.753 只要你贊同公平 00:07:45.753 --> 00:07:48.753 就可以加入打擊數碼凝視的行列 00:07:48.753 --> 00:07:50.163 只要上 codedgaze.com 網路 00:07:50.163 --> 00:07:52.123 可以舉報你發現的偏差演算邏輯 00:07:52.123 --> 00:07:53.333 可以申請測試 00:07:53.333 --> 00:07:54.838 可以成為受測者 00:07:54.838 --> 00:07:57.313 也可以加入論壇 00:07:57.385 --> 00:08:00.385 只要搜尋 #codedgaze NOTE Paragraph 00:08:00.742 --> 00:08:03.229 我在此邀請大家加入我的行列 00:08:03.253 --> 00:08:06.972 創造一個技術適用於 我們所有人的世界 00:08:06.996 --> 00:08:08.893 而不是只適用於某些人 00:08:08.917 --> 00:08:13.469 一個重視包容性 和以社會變革為中心的世界 NOTE Paragraph 00:08:13.529 --> 00:08:14.704 謝謝 NOTE Paragraph 00:08:14.738 --> 00:08:19.009 (掌聲) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 我還有一個問題 00:08:23.751 --> 00:08:25.810 你要和我並肩作戰嗎? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (笑聲) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (掌聲)