< Return to Video

我如何對抗偏差的演算邏輯

  • 0:01 - 0:04
    你好 我叫玖伊
    是個寫媒體程式的詩人
  • 0:04 - 0:05
    我的使命是
  • 0:05 - 0:09
    終止一個隱形力量的崛起
  • 0:09 - 0:12
    我稱這種力量為「數碼凝視」
  • 0:12 - 0:15
    是我替偏差演算法取的名稱
  • 0:15 - 0:18
    偏差的演算法跟人的偏見一樣
  • 0:18 - 0:20
    會導致不公平的結果
  • 0:20 - 0:22
    然而演算法更像病毒
  • 0:22 - 0:24
    它傳播的偏見
  • 0:24 - 0:27
    大量而迅速
  • 0:28 - 0:32
    演算法偏差讓人
    體驗到什麼叫做被排擠
  • 0:32 - 0:34
    也會導致差別對待
  • 0:35 - 0:37
    讓我告訴你我的意思
  • 0:37 - 0:40
    嗨 相機 我有一張臉
  • 0:40 - 0:42
    你能看見我的臉嗎?
  • 0:42 - 0:44
    不戴眼鏡呢?
  • 0:44 - 0:46
    你看得見她啊
  • 0:46 - 0:49
    那麼我的臉呢?
  • 0:52 - 0:55
    戴上面具 你看得見戴上面具嗎?
  • 0:57 - 0:59
    到底是怎麽回事?
  • 0:59 - 1:02
    我為什麽要坐在電腦前
  • 1:02 - 1:04
    戴著白色面具
  • 1:04 - 1:07
    好讓這台廉價的攝影機能看得見我
  • 1:07 - 1:09
    如果我沒有忙著對抗數碼凝視
  • 1:09 - 1:11
    當個媒體程式詩人
  • 1:11 - 1:14
    我就是麻省理工媒體實驗室的研究生
  • 1:14 - 1:19
    我在那裡從事一些稀奇古怪的計劃
  • 1:19 - 1:21
    包括照妖鏡
  • 1:21 - 1:23
    照妖鏡計劃
  • 1:23 - 1:27
    讓我能把數位面具投射在自己臉上
  • 1:27 - 1:29
    早上起來如果我需要強大的力量
  • 1:29 - 1:30
    我就投上一個獅子面具
  • 1:30 - 1:32
    如果我缺乏鬥志
  • 1:32 - 1:34
    我就放一段名人名言
  • 1:34 - 1:36
    因為我使用一般的臉部辨識軟體
  • 1:36 - 1:38
    來測試這個系統
  • 1:38 - 1:39
    結果竟然發現
  • 1:39 - 1:41
    電腦無法偵測到我
  • 1:41 - 1:44
    除非我戴上白色面具
  • 1:44 - 1:49
    很不幸我之前就碰過這種問題
  • 1:49 - 1:51
    先前我在喬治亞理工學院
  • 1:51 - 1:53
    攻讀電腦科學學士學位時
  • 1:53 - 1:55
    我研究社交機器人
  • 1:55 - 1:57
    其中的一個實驗
  • 1:57 - 1:59
    就是和機器人玩躲貓貓
  • 1:59 - 2:01
    這個簡單的互動遊戲
  • 2:01 - 2:04
    讓對手先遮住臉再放開
  • 2:04 - 2:05
    同時要說 peek-a-boo
  • 2:05 - 2:07
    問題是如果看不到對方
  • 2:07 - 2:09
    遊戲就玩不下去了
  • 2:09 - 2:12
    我的機器人就是看不到我
  • 2:12 - 2:16
    最後我只好借我室友的臉來完成
  • 2:16 - 2:17
    做完實驗時我想
  • 2:17 - 2:21
    總有一天會有別人解決這個問題
  • 2:22 - 2:24
    不久之後
  • 2:24 - 2:25
    我去香港參加一個
  • 2:25 - 2:28
    業界舉辦的競技比賽
  • 2:28 - 2:31
    主辦單位先帶每位參賽者
  • 2:31 - 2:33
    去參觀當地的新創市場
  • 2:33 - 2:36
    其中一項就是社交機器人
  • 2:36 - 2:38
    當他們用社交機器人展示成果時
  • 2:38 - 2:40
    社交機器人對每個參賽者都有反應
  • 2:40 - 2:42
    直到遇到了我
  • 2:42 - 2:44
    接下來的情形你應該能想像
  • 2:44 - 2:46
    社交機器人怎樣都偵測不到我的臉
  • 2:46 - 2:49
    我問軟體開發人員是怎麼一回事
  • 2:49 - 2:52
    才驚覺當年通用的
  • 2:52 - 2:54
    人臉辨識軟體
  • 2:54 - 2:56
    竟然飄洋過海到了香港
  • 2:56 - 3:00
    偏差的演算邏輯快速散播
  • 3:00 - 3:04
    只要從網路下載幾個檔案就搞定了
  • 3:04 - 3:07
    為什麼機器人就是看不見我的臉?
  • 3:07 - 3:10
    得先知道我們如何賦予機器視力
  • 3:10 - 3:14
    電腦使用機器學習的技術
  • 3:14 - 3:16
    來辨識人臉
  • 3:16 - 3:19
    你必須用許多實作測試來訓練他們
  • 3:19 - 3:21
    這是人臉這是人臉這是人臉
  • 3:21 - 3:22
    這不是人臉
  • 3:22 - 3:25
    一而再再而三你就能教機器人
  • 3:25 - 3:27
    辨識其他的人臉
  • 3:27 - 3:31
    但是如果實作測試不夠多樣化
  • 3:31 - 3:32
    當出現的人臉
  • 3:32 - 3:34
    與既定規範相去太遠時
  • 3:34 - 3:36
    電腦就很難判斷了
  • 3:36 - 3:38
    我的親身經驗就是這樣
  • 3:38 - 3:40
    但別慌張 有好消息
  • 3:40 - 3:43
    實作測試並不是無中生有
  • 3:43 - 3:45
    事實上我們能夠建的
  • 3:45 - 3:49
    我們可以有一套更周詳的測試樣本
  • 3:49 - 3:53
    涵蓋人種的多樣性
  • 3:53 - 3:55
    我的實驗說明了
  • 3:55 - 3:57
    社交機器人
  • 3:57 - 3:59
    產生排他現象
  • 3:59 - 4:02
    因為偏差的演算邏輯
  • 4:02 - 4:03
    偏差的演算邏輯
  • 4:03 - 4:07
    也可能讓偏見成為一種習慣
  • 4:07 - 4:09
    美國各地的警方
  • 4:09 - 4:13
    正開始使用這套人臉辨識軟體
  • 4:13 - 4:16
    來建立警方的打擊犯罪系統
  • 4:16 - 4:17
    喬治城大學法律中心的報告指出
  • 4:17 - 4:21
    每兩個美國成年人就有一個人
  • 4:21 - 4:24
    也就是一億一千七百萬筆臉部資料
  • 4:24 - 4:28
    在美國警方這套系統裡
  • 4:28 - 4:33
    警方這套系統既缺乏規範
  • 4:33 - 4:37
    也缺乏正確合法的演算邏輯
  • 4:37 - 4:41
    你要知道人臉辨識並非萬無一失
  • 4:41 - 4:45
    要一貫正確地標註人臉
    往往不是那麼容易
  • 4:45 - 4:47
    或許你在臉書上看過
  • 4:47 - 4:49
    朋友和我常覺得很好笑
  • 4:49 - 4:52
    看見有人標註朋友卻標錯了
  • 4:52 - 4:56
    如果標錯的是犯人的臉呢
  • 4:56 - 4:58
    那就讓人笑不出來了
  • 4:58 - 5:00
    侵害公民自由也同樣讓人笑不出來
  • 5:01 - 5:04
    不僅辨識人臉倚賴機器學習的技術
  • 5:04 - 5:08
    許多領域其實都要用到機器學習
  • 5:09 - 5:13
    《大數據的傲慢與偏見》
    這本書的作者
  • 5:13 - 5:16
    數據科學家凱西 歐尼爾
  • 5:16 - 5:20
    談到新 WMD 勢力的崛起
  • 5:20 - 5:24
    WMD 是廣泛 神秘和具破壞性的算法
  • 5:24 - 5:27
    演算法漸漸取代我們做決定
  • 5:27 - 5:30
    影響我們生活的更多層面
  • 5:31 - 5:32
    例如誰升了官?誰丟了飯碗?
  • 5:32 - 5:35
    你借到錢了嗎?你買保險了嗎?
  • 5:35 - 5:38
    你進入心目中理想的大學了嗎?
  • 5:38 - 5:42
    我們花同樣多的錢在同樣的平台上
  • 5:42 - 5:44
    買到同樣的產品嗎?
  • 5:44 - 5:48
    警方也開始使用機器學習
  • 5:48 - 5:50
    來防範犯罪
  • 5:50 - 5:54
    法官根據電腦顯示的危險因子數據
  • 5:54 - 5:58
    來決定一個人要在監獄待幾年
  • 5:58 - 6:01
    我們得仔細想想這些判定
  • 6:01 - 6:02
    它們真的公平嗎?
  • 6:02 - 6:05
    我們親眼看見偏差的演算邏輯
  • 6:05 - 6:08
    未必做出正確的判斷
  • 6:08 - 6:10
    我們該怎麽辦呢?
  • 6:10 - 6:14
    我們要先確定程式碼是否具多樣性
  • 6:14 - 6:17
    以及寫程式的過程是否周詳
  • 6:17 - 6:20
    事實上全都始於人
  • 6:20 - 6:22
    程式是誰寫的有關係
  • 6:22 - 6:26
    寫程式的團隊是否由
    多元的個體組成呢?
  • 6:26 - 6:28
    這樣才能互補並找出彼此的盲點
  • 6:28 - 6:32
    從技術面而言
    我們如何寫程式很重要
  • 6:32 - 6:34
    我們是否對公平這項要素
  • 6:34 - 6:36
    在系統開發階段就考量到呢?
  • 6:36 - 6:39
    最後 我們為什麼寫程式也重要
  • 6:39 - 6:44
    我們使用計算創造工具
    開啟了巨額財富之門
  • 6:44 - 6:48
    我們現在有機會實現更大的平等
  • 6:48 - 6:51
    如果我們將社會變革作為優先事項
  • 6:51 - 6:54
    而不是事後的想法
  • 6:54 - 6:59
    這裡有改革程式的三元素
  • 6:59 - 7:00
    程式是誰寫的重要
  • 7:00 - 7:02
    如何寫程式重要
  • 7:02 - 7:04
    以及為何寫程式重要
  • 7:04 - 7:06
    要成功改革程式
  • 7:06 - 7:10
    我們可以先從建立能夠
    找出偏差的分析平台開始
  • 7:10 - 7:13
    作法是收集人們的親身經歷
    像是我剛才分享的經歷
  • 7:13 - 7:16
    也檢視現存的軟體
  • 7:16 - 7:20
    我們可以著手建立
    更具包容性的測試樣本
  • 7:20 - 7:23
    想像「包容的自拍」活動
  • 7:23 - 7:27
    我們可以幫助開發人員測試和創建
  • 7:27 - 7:29
    更具包容性的測試樣本
  • 7:29 - 7:32
    我們也要更自省
  • 7:32 - 7:37
    我們發展的科技帶給社會的衝擊
  • 7:38 - 7:40
    為了著手程式改革
  • 7:40 - 7:43
    我發起了「演算邏輯正義聯盟」
  • 7:43 - 7:46
    只要你贊同公平
  • 7:46 - 7:49
    就可以加入打擊數碼凝視的行列
  • 7:49 - 7:50
    只要上 codedgaze.com 網路
  • 7:50 - 7:52
    可以舉報你發現的偏差演算邏輯
  • 7:52 - 7:53
    可以申請測試
  • 7:53 - 7:55
    可以成為受測者
  • 7:55 - 7:57
    也可以加入論壇
  • 7:57 - 8:00
    只要搜尋 #codedgaze
  • 8:01 - 8:03
    我在此邀請大家加入我的行列
  • 8:03 - 8:07
    創造一個技術適用於
    我們所有人的世界
  • 8:07 - 8:09
    而不是只適用於某些人
  • 8:09 - 8:13
    一個重視包容性
    和以社會變革為中心的世界
  • 8:14 - 8:15
    謝謝
  • 8:15 - 8:19
    (掌聲)
  • 8:21 - 8:24
    我還有一個問題
  • 8:24 - 8:26
    你要和我並肩作戰嗎?
  • 8:26 - 8:27
    (笑聲)
  • 8:27 - 8:31
    (掌聲)
Title:
我如何對抗偏差的演算邏輯
Speaker:
玖伊珀薇妮
Description:

麻省理工學院(MIT)研究生玖伊珀薇妮在使用臉部辨識軟體時發現了一個問題:這個軟體無法辨識她的臉,因為當寫程式的人把偏差的人工智慧邏輯植入這個軟體,導致它對於某些膚色與臉部結構沒有反應。現在她擔負重任,務必要導正這個機器學習的偏差。她稱這個誤差為「數碼凝視」。這場別開生面的演說主要是關於程式的可信度。因為演算邏輯正在鯨吞蠶食我們的生活。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46

Chinese, Traditional subtitles

Revisions