アルゴリズムに潜む偏見との戦い
-
0:01 - 0:04こんにちは
コードの詩人 ジョイです -
0:04 - 0:09私の使命は 強まりつつある
目に見えない力 -
0:09 - 0:12「コード化された視線」
と私が呼ぶ― -
0:12 - 0:15アルゴリズムにおける偏見を
阻止することです -
0:15 - 0:20アルゴリズムも 人と同じで
偏見が入り込むと不公正な結果を生みます -
0:20 - 0:26しかも アルゴリズムはウイルスのように
偏見をどんどん拡散してしまいます -
0:26 - 0:27それも急速にです
-
0:28 - 0:32アルゴリズムの偏見は
排他的な扱いや -
0:32 - 0:34差別行為を生む恐れもあります
-
0:35 - 0:37具体的にお見せしましょう
-
0:37 - 0:39(ビデオ)ねえ カメラくん
私には顔があるわ -
0:40 - 0:42私の顔が見える?
-
0:42 - 0:44メガネを外した方がいいかな?
-
0:44 - 0:46この人の顔は見えるわね
-
0:46 - 0:48私の顔はどう?
-
0:52 - 0:56お面をつけるわ
このお面は見える? -
0:56 - 0:59(ジョイ)何が起きたのでしょう?
-
0:59 - 1:02私が白い仮面をつけて
-
1:02 - 1:03コンピュータの前に座り
-
1:03 - 1:07安いウェブカメラで検知されるか
試している理由は? -
1:07 - 1:09コードの詩人として
コード化された視線と -
1:09 - 1:11戦うとき以外の私は
-
1:11 - 1:14MITメディアラボの大学院生で
-
1:14 - 1:19ちょっと変わったプロジェクトに
いろいろ関わっています -
1:19 - 1:21その1つの
「Aspire Mirror(鼓舞する鏡)」は -
1:21 - 1:26鏡に映った自分の顔に
デジタルの仮面を重ねるものです -
1:26 - 1:29朝起きてパワフルな気分に
なりたければ -
1:29 - 1:30ライオンの面をつけたり
-
1:30 - 1:34気分を高めるために
何かを「引用」したりできます -
1:34 - 1:37このとき 私は
一般的な顔認識ソフトを使い -
1:37 - 1:38システムを組もうとしたのですが
-
1:38 - 1:43白い仮面をつけないと
テストすら難しいと気づきました -
1:44 - 1:49実は この問題に悩まされたのは
初めてではありませんでした -
1:49 - 1:53ジョージア工科大学で
コンピュータ科学を学んでいたとき -
1:53 - 1:55ソーシャルロボットを研究していて
-
1:55 - 1:57ロボット相手に
代わりばんこに -
1:57 - 2:01「いないいないばあ」をするという
課題がありました -
2:01 - 2:05顔を覆った手を 「ばあ!」のところで
どけて顔を見せる遊びですね -
2:05 - 2:09相手の顔が見えないと
成立しないゲームですが -
2:09 - 2:12ロボットは私の顔を
認識できませんでした -
2:12 - 2:16私はルームメイトの顔を借りて
どうにか作業を終え -
2:16 - 2:17課題を提出しました
-
2:17 - 2:21そのときは このバグも誰かが
直してくれると思っていました -
2:22 - 2:24それから少しして 私は
-
2:24 - 2:28起業コンテストに参加するため
香港に行きました -
2:28 - 2:31参加者たちは
いくつかの地元の新興企業に -
2:31 - 2:33案内されました
-
2:33 - 2:36ある会社の製品は
ソーシャルロボットで -
2:36 - 2:38デモを見せてもらうことに
なりました -
2:38 - 2:41デモは成功し
私の番がやって来ます -
2:41 - 2:43結果はご想像のとおり
-
2:43 - 2:46私の顔は検知されません
-
2:46 - 2:49「どうなってるの?」
と開発者たちに尋ねたら -
2:49 - 2:54私と同じ顔認識ソフトを
使っていることが判明しました -
2:54 - 2:56世界を半周して分かったのは
-
2:56 - 3:00アルゴリズムの偏見が
広がるのはすごく早いことです -
3:00 - 3:03ネットからダウンロードする
時間しかかかりません -
3:04 - 3:07どうなっているのか?
なぜ私の顔は検知されないのか? -
3:07 - 3:10機械に視覚を持たせる仕組みを
考えてみましょう -
3:10 - 3:14コンピュータビジョンでは
機械学習の技術を使って -
3:14 - 3:16顔を認識します
-
3:16 - 3:19顔のサンプルを集めて
トレーニングするのです -
3:19 - 3:22これは顔 これは顔
これは顔じゃない -
3:22 - 3:27やがてコンピュータは
顔を認識する方法を習得します -
3:27 - 3:31でもトレーニング用のサンプルに
あまり多様性がなかったら -
3:31 - 3:34そこで確立された基準から
大きく外れた顔は -
3:34 - 3:36検知するのが難しくなります
-
3:36 - 3:38私の場合はそれでした
-
3:38 - 3:40でも大丈夫
希望の持てる面もあります -
3:40 - 3:43顔のサンプル集は ひとりでに
できるわけではありません -
3:43 - 3:45私たちにだって作れます
-
3:45 - 3:49ですから 網羅的な
トレーニング用のサンプルを作り -
3:49 - 3:53さまざまな人間の姿形を
しっかり反映させれば いいんです -
3:53 - 3:55私の例でお見せしたように
-
3:55 - 3:57ソーシャルロボットの振る舞いから
-
3:57 - 4:02アルゴリズムの偏見による
切り捨てが見つかりました -
4:02 - 4:06この偏見は 差別行為にも
つながりうるものです -
4:07 - 4:09米国では全国的に
-
4:09 - 4:13警察が顔認識ソフトを使って
-
4:13 - 4:16犯罪に対処し始めています
-
4:16 - 4:18ジョージタウン大学
ロースクールの報告によると -
4:18 - 4:24米国の成人2人に1人
1億1700万人の顔が -
4:24 - 4:28何らかの顔認識用のデータベースに
記録されています -
4:28 - 4:33警察は現在 制限なしに
これらのシステムを参照できますが -
4:33 - 4:37使っているアルゴリズムの
正確さは検証されていません -
4:37 - 4:41でも 顔認識は完璧でなく
-
4:41 - 4:45顔と名前を一致させるのは
なおも難しい課題です -
4:45 - 4:47Facebookで
こんな経験をしたことは? -
4:47 - 4:50写真の中の人が正しく認識されず
おかしなタグが付いていて -
4:50 - 4:52私は いつも友達と大笑いしています
-
4:52 - 4:58でも 犯罪者と間違われたら
笑い事では済みません -
4:58 - 5:01市民の自由が侵された
どころでもありません -
5:01 - 5:04機械学習は顔認識に
利用されるとともに -
5:04 - 5:08コンピュータビジョンの
利用範囲を拡大しています -
5:09 - 5:13データ・サイエンティストの
キャシー・オニールは -
5:13 - 5:20『Weapons of Math Destruction
(数学破壊兵器)』の中で -
5:20 - 5:24不可解で破壊的なアルゴリズムが
「数学破壊兵器」として台頭し -
5:24 - 5:27ますます広く意思決定に
使われるようになり -
5:27 - 5:31私たちの暮らしの多くの場面に
影響を与えていると述べています -
5:31 - 5:33仕事の採用・不採用を分けるものは?
-
5:33 - 5:35ローンが組めるかどうか
保険に入れるかどうか -
5:35 - 5:38志望大学に入学できるかどうか
-
5:38 - 5:42同じところで同じ製品を
購入するのなら -
5:42 - 5:44誰でも値段は同じかどうか
といったことにもです -
5:44 - 5:48警察は機械学習を
予測警備にも -
5:48 - 5:50使い始めています
-
5:50 - 5:54裁判官の中には
機械が出したリスク評価をもとに -
5:54 - 5:58何年の懲役にすべきか
決める人もいます -
5:58 - 6:01だから こうした判断について
よく考えなければなりません -
6:01 - 6:02判断は公平なのでしょうか?
-
6:02 - 6:05すでに見た通り
アルゴリズムの偏見により -
6:05 - 6:08出てくる結果は必ずしも
公平ではありません -
6:08 - 6:10私たちに何ができるでしょう
-
6:10 - 6:14どうすれば
より包括的なコードを作り -
6:14 - 6:17それを実践していけるのか
考えることから始めましょう -
6:17 - 6:19まずは人からです
-
6:20 - 6:22つまり コードを書く人が大事です
-
6:22 - 6:26多様なメンバーで
チームを構成し -
6:26 - 6:28互いの盲点を
チェックできているか? -
6:28 - 6:32技術的な面では
コードをどう作るかが重要です -
6:32 - 6:35システム開発の要素に
公正さを組み込んでいるか? -
6:36 - 6:38最後に 何のために
コードを書くかも重要です -
6:39 - 6:44私たちはコンピュータを使って
莫大な富を生み出してきましたが -
6:44 - 6:48今 より一層の平等も
生み出すことができるのです -
6:48 - 6:51社会の変革を
後付けでなく -
6:51 - 6:53優先事項とすれば良いのです
-
6:54 - 6:59このように「インコーディング」運動には
3つの柱があるわけです -
6:59 - 7:00誰がコードを書くかが重要
-
7:00 - 7:02どのようにコードを書くかが重要
-
7:02 - 7:04なぜコードを書くかが重要 なのです
-
7:04 - 7:07インコーディングに向けて
まず手を付けるべきは -
7:07 - 7:10偏りを発見できる
プラットフォームを作ること -
7:10 - 7:13私が紹介したような
経験を集積して -
7:13 - 7:16今あるソフトウェアの
点検もします -
7:16 - 7:20トレーニング用サンプルにも
もっと多様性を盛り込みましょう -
7:20 - 7:23「インクルージョンに向けた自撮り」
キャンペーンを展開して -
7:23 - 7:27多様性のあるサンプルを
開発者が作成しテストするのを -
7:27 - 7:29支援することもできます
-
7:29 - 7:32さらには 開発中の技術が
社会に与える影響について -
7:32 - 7:37もっと注意深く
考えるようにしましょう -
7:38 - 7:40インコーディング運動を
始めるために -
7:40 - 7:43私は「Algorithmic Justice League」
を設立しました -
7:43 - 7:49公正さに関心がある人なら誰でも
コード化された視線との戦いに参加できます -
7:49 - 7:52偏ったコードの通報や監査依頼
-
7:52 - 7:55試験者の参加申し込みは
codedgaze.comへ -
7:55 - 7:57話題の共有には
-
7:57 - 8:00#codedgazeを使ってください
-
8:01 - 8:03ぜひ皆さんに
参加してほしいんです -
8:03 - 8:07テクノロジーが
一部の人でなく みんなの役に立つ― -
8:07 - 8:09世界を創りましょう
-
8:09 - 8:14インクルージョンを大事にし
自ら社会を変える そんな世界にしましょう -
8:14 - 8:15ありがとうございました
-
8:15 - 8:19(拍手)
-
8:21 - 8:24でも ほんとに大丈夫?
-
8:24 - 8:26本気で参加してくれますね?
-
8:26 - 8:27(笑)
-
8:27 - 8:31(拍手)
- Title:
- アルゴリズムに潜む偏見との戦い
- Speaker:
- ジョイ・ブォロムウィニ
- Description:
-
MITの大学院生ジョイ・ブォロムウィニは、顔認識ソフトを使っていて、ある問題に気づきました。自分の顔が認識されないのです。原因は、アルゴリズムをコード化した開発者が多様な肌の色や容貌を認識するようソフトを訓練していなかったからでした。そこでジョイは、「コード化された視線」と彼女が呼ぶ、機械学習における偏見との戦いに身を投じました。生活のいろいろな側面にアルゴリズムがどんどん入り込んでいる現在、コーディングにも説明責任が求められる、というジョイの主張は新鮮な驚きに満ちています。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Natsuhiko Mizutani approved Japanese subtitles for How I'm fighting bias in algorithms | ||
Yuko Yoshida accepted Japanese subtitles for How I'm fighting bias in algorithms | ||
Yuko Yoshida edited Japanese subtitles for How I'm fighting bias in algorithms | ||
Naoko Fujii rejected Japanese subtitles for How I'm fighting bias in algorithms | ||
Yuko Yoshida accepted Japanese subtitles for How I'm fighting bias in algorithms | ||
Yoichi Fukuoka edited Japanese subtitles for How I'm fighting bias in algorithms | ||
Yuko Yoshida declined Japanese subtitles for How I'm fighting bias in algorithms | ||
Yuko Yoshida edited Japanese subtitles for How I'm fighting bias in algorithms |