我如何對抗偏差的演算邏輯
-
0:01 - 0:04你好 我叫玖伊
是個寫媒體程式的詩人 -
0:04 - 0:05我的使命是
-
0:05 - 0:09終止一個隱形力量的崛起
-
0:09 - 0:12我稱這種力量為「數碼凝視」
-
0:12 - 0:15是我替偏差演算法取的名稱
-
0:15 - 0:18偏差的演算法跟人的偏見一樣
-
0:18 - 0:20會導致不公平的結果
-
0:20 - 0:22然而演算法更像病毒
-
0:22 - 0:24它傳播的偏見
-
0:24 - 0:27大量而迅速
-
0:28 - 0:32演算法偏差讓人
體驗到什麼叫做被排擠 -
0:32 - 0:34也會導致差別對待
-
0:35 - 0:37讓我告訴你我的意思
-
0:37 - 0:40嗨 相機 我有一張臉
-
0:40 - 0:42你能看見我的臉嗎?
-
0:42 - 0:44不戴眼鏡呢?
-
0:44 - 0:46你看得見她啊
-
0:46 - 0:49那麼我的臉呢?
-
0:52 - 0:55戴上面具 你看得見戴上面具嗎?
-
0:57 - 0:59到底是怎麽回事?
-
0:59 - 1:02我為什麽要坐在電腦前
-
1:02 - 1:04戴著白色面具
-
1:04 - 1:07好讓這台廉價的攝影機能看得見我
-
1:07 - 1:09如果我沒有忙著對抗數碼凝視
-
1:09 - 1:11當個媒體程式詩人
-
1:11 - 1:14我就是麻省理工媒體實驗室的研究生
-
1:14 - 1:19我在那裡從事一些稀奇古怪的計劃
-
1:19 - 1:21包括照妖鏡
-
1:21 - 1:23照妖鏡計劃
-
1:23 - 1:27讓我能把數位面具投射在自己臉上
-
1:27 - 1:29早上起來如果我需要強大的力量
-
1:29 - 1:30我就投上一個獅子面具
-
1:30 - 1:32如果我缺乏鬥志
-
1:32 - 1:34我就放一段名人名言
-
1:34 - 1:36因為我使用一般的臉部辨識軟體
-
1:36 - 1:38來測試這個系統
-
1:38 - 1:39結果竟然發現
-
1:39 - 1:41電腦無法偵測到我
-
1:41 - 1:44除非我戴上白色面具
-
1:44 - 1:49很不幸我之前就碰過這種問題
-
1:49 - 1:51先前我在喬治亞理工學院
-
1:51 - 1:53攻讀電腦科學學士學位時
-
1:53 - 1:55我研究社交機器人
-
1:55 - 1:57其中的一個實驗
-
1:57 - 1:59就是和機器人玩躲貓貓
-
1:59 - 2:01這個簡單的互動遊戲
-
2:01 - 2:04讓對手先遮住臉再放開
-
2:04 - 2:05同時要說 peek-a-boo
-
2:05 - 2:07問題是如果看不到對方
-
2:07 - 2:09遊戲就玩不下去了
-
2:09 - 2:12我的機器人就是看不到我
-
2:12 - 2:16最後我只好借我室友的臉來完成
-
2:16 - 2:17做完實驗時我想
-
2:17 - 2:21總有一天會有別人解決這個問題
-
2:22 - 2:24不久之後
-
2:24 - 2:25我去香港參加一個
-
2:25 - 2:28業界舉辦的競技比賽
-
2:28 - 2:31主辦單位先帶每位參賽者
-
2:31 - 2:33去參觀當地的新創市場
-
2:33 - 2:36其中一項就是社交機器人
-
2:36 - 2:38當他們用社交機器人展示成果時
-
2:38 - 2:40社交機器人對每個參賽者都有反應
-
2:40 - 2:42直到遇到了我
-
2:42 - 2:44接下來的情形你應該能想像
-
2:44 - 2:46社交機器人怎樣都偵測不到我的臉
-
2:46 - 2:49我問軟體開發人員是怎麼一回事
-
2:49 - 2:52才驚覺當年通用的
-
2:52 - 2:54人臉辨識軟體
-
2:54 - 2:56竟然飄洋過海到了香港
-
2:56 - 3:00偏差的演算邏輯快速散播
-
3:00 - 3:04只要從網路下載幾個檔案就搞定了
-
3:04 - 3:07為什麼機器人就是看不見我的臉?
-
3:07 - 3:10得先知道我們如何賦予機器視力
-
3:10 - 3:14電腦使用機器學習的技術
-
3:14 - 3:16來辨識人臉
-
3:16 - 3:19你必須用許多實作測試來訓練他們
-
3:19 - 3:21這是人臉這是人臉這是人臉
-
3:21 - 3:22這不是人臉
-
3:22 - 3:25一而再再而三你就能教機器人
-
3:25 - 3:27辨識其他的人臉
-
3:27 - 3:31但是如果實作測試不夠多樣化
-
3:31 - 3:32當出現的人臉
-
3:32 - 3:34與既定規範相去太遠時
-
3:34 - 3:36電腦就很難判斷了
-
3:36 - 3:38我的親身經驗就是這樣
-
3:38 - 3:40但別慌張 有好消息
-
3:40 - 3:43實作測試並不是無中生有
-
3:43 - 3:45事實上我們能夠建的
-
3:45 - 3:49我們可以有一套更周詳的測試樣本
-
3:49 - 3:53涵蓋人種的多樣性
-
3:53 - 3:55我的實驗說明了
-
3:55 - 3:57社交機器人
-
3:57 - 3:59產生排他現象
-
3:59 - 4:02因為偏差的演算邏輯
-
4:02 - 4:03偏差的演算邏輯
-
4:03 - 4:07也可能讓偏見成為一種習慣
-
4:07 - 4:09美國各地的警方
-
4:09 - 4:13正開始使用這套人臉辨識軟體
-
4:13 - 4:16來建立警方的打擊犯罪系統
-
4:16 - 4:17喬治城大學法律中心的報告指出
-
4:17 - 4:21每兩個美國成年人就有一個人
-
4:21 - 4:24也就是一億一千七百萬筆臉部資料
-
4:24 - 4:28在美國警方這套系統裡
-
4:28 - 4:33警方這套系統既缺乏規範
-
4:33 - 4:37也缺乏正確合法的演算邏輯
-
4:37 - 4:41你要知道人臉辨識並非萬無一失
-
4:41 - 4:45要一貫正確地標註人臉
往往不是那麼容易 -
4:45 - 4:47或許你在臉書上看過
-
4:47 - 4:49朋友和我常覺得很好笑
-
4:49 - 4:52看見有人標註朋友卻標錯了
-
4:52 - 4:56如果標錯的是犯人的臉呢
-
4:56 - 4:58那就讓人笑不出來了
-
4:58 - 5:00侵害公民自由也同樣讓人笑不出來
-
5:01 - 5:04不僅辨識人臉倚賴機器學習的技術
-
5:04 - 5:08許多領域其實都要用到機器學習
-
5:09 - 5:13《大數據的傲慢與偏見》
這本書的作者 -
5:13 - 5:16數據科學家凱西 歐尼爾
-
5:16 - 5:20談到新 WMD 勢力的崛起
-
5:20 - 5:24WMD 是廣泛 神秘和具破壞性的算法
-
5:24 - 5:27演算法漸漸取代我們做決定
-
5:27 - 5:30影響我們生活的更多層面
-
5:31 - 5:32例如誰升了官?誰丟了飯碗?
-
5:32 - 5:35你借到錢了嗎?你買保險了嗎?
-
5:35 - 5:38你進入心目中理想的大學了嗎?
-
5:38 - 5:42我們花同樣多的錢在同樣的平台上
-
5:42 - 5:44買到同樣的產品嗎?
-
5:44 - 5:48警方也開始使用機器學習
-
5:48 - 5:50來防範犯罪
-
5:50 - 5:54法官根據電腦顯示的危險因子數據
-
5:54 - 5:58來決定一個人要在監獄待幾年
-
5:58 - 6:01我們得仔細想想這些判定
-
6:01 - 6:02它們真的公平嗎?
-
6:02 - 6:05我們親眼看見偏差的演算邏輯
-
6:05 - 6:08未必做出正確的判斷
-
6:08 - 6:10我們該怎麽辦呢?
-
6:10 - 6:14我們要先確定程式碼是否具多樣性
-
6:14 - 6:17以及寫程式的過程是否周詳
-
6:17 - 6:20事實上全都始於人
-
6:20 - 6:22程式是誰寫的有關係
-
6:22 - 6:26寫程式的團隊是否由
多元的個體組成呢? -
6:26 - 6:28這樣才能互補並找出彼此的盲點
-
6:28 - 6:32從技術面而言
我們如何寫程式很重要 -
6:32 - 6:34我們是否對公平這項要素
-
6:34 - 6:36在系統開發階段就考量到呢?
-
6:36 - 6:39最後 我們為什麼寫程式也重要
-
6:39 - 6:44我們使用計算創造工具
開啟了巨額財富之門 -
6:44 - 6:48我們現在有機會實現更大的平等
-
6:48 - 6:51如果我們將社會變革作為優先事項
-
6:51 - 6:54而不是事後的想法
-
6:54 - 6:59這裡有改革程式的三元素
-
6:59 - 7:00程式是誰寫的重要
-
7:00 - 7:02如何寫程式重要
-
7:02 - 7:04以及為何寫程式重要
-
7:04 - 7:06要成功改革程式
-
7:06 - 7:10我們可以先從建立能夠
找出偏差的分析平台開始 -
7:10 - 7:13作法是收集人們的親身經歷
像是我剛才分享的經歷 -
7:13 - 7:16也檢視現存的軟體
-
7:16 - 7:20我們可以著手建立
更具包容性的測試樣本 -
7:20 - 7:23想像「包容的自拍」活動
-
7:23 - 7:27我們可以幫助開發人員測試和創建
-
7:27 - 7:29更具包容性的測試樣本
-
7:29 - 7:32我們也要更自省
-
7:32 - 7:37我們發展的科技帶給社會的衝擊
-
7:38 - 7:40為了著手程式改革
-
7:40 - 7:43我發起了「演算邏輯正義聯盟」
-
7:43 - 7:46只要你贊同公平
-
7:46 - 7:49就可以加入打擊數碼凝視的行列
-
7:49 - 7:50只要上 codedgaze.com 網路
-
7:50 - 7:52可以舉報你發現的偏差演算邏輯
-
7:52 - 7:53可以申請測試
-
7:53 - 7:55可以成為受測者
-
7:55 - 7:57也可以加入論壇
-
7:57 - 8:00只要搜尋 #codedgaze
-
8:01 - 8:03我在此邀請大家加入我的行列
-
8:03 - 8:07創造一個技術適用於
我們所有人的世界 -
8:07 - 8:09而不是只適用於某些人
-
8:09 - 8:13一個重視包容性
和以社會變革為中心的世界 -
8:14 - 8:15謝謝
-
8:15 - 8:19(掌聲)
-
8:21 - 8:24我還有一個問題
-
8:24 - 8:26你要和我並肩作戰嗎?
-
8:26 - 8:27(笑聲)
-
8:27 - 8:31(掌聲)
- Title:
- 我如何對抗偏差的演算邏輯
- Speaker:
- 玖伊珀薇妮
- Description:
-
麻省理工學院(MIT)研究生玖伊珀薇妮在使用臉部辨識軟體時發現了一個問題:這個軟體無法辨識她的臉,因為當寫程式的人把偏差的人工智慧邏輯植入這個軟體,導致它對於某些膚色與臉部結構沒有反應。現在她擔負重任,務必要導正這個機器學習的偏差。她稱這個誤差為「數碼凝視」。這場別開生面的演說主要是關於程式的可信度。因為演算邏輯正在鯨吞蠶食我們的生活。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Helen Chang approved Chinese, Traditional subtitles for How I'm fighting bias in algorithms | ||
Helen Chang accepted Chinese, Traditional subtitles for How I'm fighting bias in algorithms | ||
Helen Chang edited Chinese, Traditional subtitles for How I'm fighting bias in algorithms | ||
Helen Chang edited Chinese, Traditional subtitles for How I'm fighting bias in algorithms | ||
Helen Chang edited Chinese, Traditional subtitles for How I'm fighting bias in algorithms | ||
Helen Chang edited Chinese, Traditional subtitles for How I'm fighting bias in algorithms | ||
Suzie Tang edited Chinese, Traditional subtitles for How I'm fighting bias in algorithms | ||
Suzie Tang edited Chinese, Traditional subtitles for How I'm fighting bias in algorithms |