< Return to Video

アルゴリズムに潜む偏見との戦い

  • 0:01 - 0:04
    こんにちは
    コードの詩人 ジョイです
  • 0:04 - 0:09
    私の使命は 強まりつつある
    目に見えない力
  • 0:09 - 0:12
    「コード化された視線」
    と私が呼ぶ―
  • 0:12 - 0:15
    アルゴリズムにおける偏見を
    阻止することです
  • 0:15 - 0:20
    アルゴリズムも 人と同じで
    偏見が入り込むと不公正な結果を生みます
  • 0:20 - 0:26
    しかも アルゴリズムはウイルスのように
    偏見をどんどん拡散してしまいます
  • 0:26 - 0:27
    それも急速にです
  • 0:28 - 0:32
    アルゴリズムの偏見は
    排他的な扱いや
  • 0:32 - 0:34
    差別行為を生む恐れもあります
  • 0:35 - 0:37
    具体的にお見せしましょう
  • 0:37 - 0:39
    (ビデオ)ねえ カメラくん
    私には顔があるわ
  • 0:40 - 0:42
    私の顔が見える?
  • 0:42 - 0:44
    メガネを外した方がいいかな?
  • 0:44 - 0:46
    この人の顔は見えるわね
  • 0:46 - 0:48
    私の顔はどう?
  • 0:52 - 0:56
    お面をつけるわ
    このお面は見える?
  • 0:56 - 0:59
    (ジョイ)何が起きたのでしょう?
  • 0:59 - 1:02
    私が白い仮面をつけて
  • 1:02 - 1:03
    コンピュータの前に座り
  • 1:03 - 1:07
    安いウェブカメラで検知されるか
    試している理由は?
  • 1:07 - 1:09
    コードの詩人として
    コード化された視線と
  • 1:09 - 1:11
    戦うとき以外の私は
  • 1:11 - 1:14
    MITメディアラボの大学院生で
  • 1:14 - 1:19
    ちょっと変わったプロジェクトに
    いろいろ関わっています
  • 1:19 - 1:21
    その1つの
    「Aspire Mirror(鼓舞する鏡)」は
  • 1:21 - 1:26
    鏡に映った自分の顔に
    デジタルの仮面を重ねるものです
  • 1:26 - 1:29
    朝起きてパワフルな気分に
    なりたければ
  • 1:29 - 1:30
    ライオンの面をつけたり
  • 1:30 - 1:34
    気分を高めるために
    何かを「引用」したりできます
  • 1:34 - 1:37
    このとき 私は
    一般的な顔認識ソフトを使い
  • 1:37 - 1:38
    システムを組もうとしたのですが
  • 1:38 - 1:43
    白い仮面をつけないと
    テストすら難しいと気づきました
  • 1:44 - 1:49
    実は この問題に悩まされたのは
    初めてではありませんでした
  • 1:49 - 1:53
    ジョージア工科大学で
    コンピュータ科学を学んでいたとき
  • 1:53 - 1:55
    ソーシャルロボットを研究していて
  • 1:55 - 1:57
    ロボット相手に
    代わりばんこに
  • 1:57 - 2:01
    「いないいないばあ」をするという
    課題がありました
  • 2:01 - 2:05
    顔を覆った手を 「ばあ!」のところで
    どけて顔を見せる遊びですね
  • 2:05 - 2:09
    相手の顔が見えないと
    成立しないゲームですが
  • 2:09 - 2:12
    ロボットは私の顔を
    認識できませんでした
  • 2:12 - 2:16
    私はルームメイトの顔を借りて
    どうにか作業を終え
  • 2:16 - 2:17
    課題を提出しました
  • 2:17 - 2:21
    そのときは このバグも誰かが
    直してくれると思っていました
  • 2:22 - 2:24
    それから少しして 私は
  • 2:24 - 2:28
    起業コンテストに参加するため
    香港に行きました
  • 2:28 - 2:31
    参加者たちは
    いくつかの地元の新興企業に
  • 2:31 - 2:33
    案内されました
  • 2:33 - 2:36
    ある会社の製品は
    ソーシャルロボットで
  • 2:36 - 2:38
    デモを見せてもらうことに
    なりました
  • 2:38 - 2:41
    デモは成功し
    私の番がやって来ます
  • 2:41 - 2:43
    結果はご想像のとおり
  • 2:43 - 2:46
    私の顔は検知されません
  • 2:46 - 2:49
    「どうなってるの?」
    と開発者たちに尋ねたら
  • 2:49 - 2:54
    私と同じ顔認識ソフトを
    使っていることが判明しました
  • 2:54 - 2:56
    世界を半周して分かったのは
  • 2:56 - 3:00
    アルゴリズムの偏見が
    広がるのはすごく早いことです
  • 3:00 - 3:03
    ネットからダウンロードする
    時間しかかかりません
  • 3:04 - 3:07
    どうなっているのか?
    なぜ私の顔は検知されないのか?
  • 3:07 - 3:10
    機械に視覚を持たせる仕組みを
    考えてみましょう
  • 3:10 - 3:14
    コンピュータビジョンでは
    機械学習の技術を使って
  • 3:14 - 3:16
    顔を認識します
  • 3:16 - 3:19
    顔のサンプルを集めて
    トレーニングするのです
  • 3:19 - 3:22
    これは顔 これは顔
    これは顔じゃない
  • 3:22 - 3:27
    やがてコンピュータは
    顔を認識する方法を習得します
  • 3:27 - 3:31
    でもトレーニング用のサンプルに
    あまり多様性がなかったら
  • 3:31 - 3:34
    そこで確立された基準から
    大きく外れた顔は
  • 3:34 - 3:36
    検知するのが難しくなります
  • 3:36 - 3:38
    私の場合はそれでした
  • 3:38 - 3:40
    でも大丈夫
    希望の持てる面もあります
  • 3:40 - 3:43
    顔のサンプル集は ひとりでに
    できるわけではありません
  • 3:43 - 3:45
    私たちにだって作れます
  • 3:45 - 3:49
    ですから 網羅的な
    トレーニング用のサンプルを作り
  • 3:49 - 3:53
    さまざまな人間の姿形を
    しっかり反映させれば いいんです
  • 3:53 - 3:55
    私の例でお見せしたように
  • 3:55 - 3:57
    ソーシャルロボットの振る舞いから
  • 3:57 - 4:02
    アルゴリズムの偏見による
    切り捨てが見つかりました
  • 4:02 - 4:06
    この偏見は 差別行為にも
    つながりうるものです
  • 4:07 - 4:09
    米国では全国的に
  • 4:09 - 4:13
    警察が顔認識ソフトを使って
  • 4:13 - 4:16
    犯罪に対処し始めています
  • 4:16 - 4:18
    ジョージタウン大学
    ロースクールの報告によると
  • 4:18 - 4:24
    米国の成人2人に1人
    1億1700万人の顔が
  • 4:24 - 4:28
    何らかの顔認識用のデータベースに
    記録されています
  • 4:28 - 4:33
    警察は現在 制限なしに
    これらのシステムを参照できますが
  • 4:33 - 4:37
    使っているアルゴリズムの
    正確さは検証されていません
  • 4:37 - 4:41
    でも 顔認識は完璧でなく
  • 4:41 - 4:45
    顔と名前を一致させるのは
    なおも難しい課題です
  • 4:45 - 4:47
    Facebookで
    こんな経験をしたことは?
  • 4:47 - 4:50
    写真の中の人が正しく認識されず
    おかしなタグが付いていて
  • 4:50 - 4:52
    私は いつも友達と大笑いしています
  • 4:52 - 4:58
    でも 犯罪者と間違われたら
    笑い事では済みません
  • 4:58 - 5:01
    市民の自由が侵された
    どころでもありません
  • 5:01 - 5:04
    機械学習は顔認識に
    利用されるとともに
  • 5:04 - 5:08
    コンピュータビジョンの
    利用範囲を拡大しています
  • 5:09 - 5:13
    データ・サイエンティストの
    キャシー・オニールは
  • 5:13 - 5:20
    『Weapons of Math Destruction
    (数学破壊兵器)』の中で
  • 5:20 - 5:24
    不可解で破壊的なアルゴリズムが
    「数学破壊兵器」として台頭し
  • 5:24 - 5:27
    ますます広く意思決定に
    使われるようになり
  • 5:27 - 5:31
    私たちの暮らしの多くの場面に
    影響を与えていると述べています
  • 5:31 - 5:33
    仕事の採用・不採用を分けるものは?
  • 5:33 - 5:35
    ローンが組めるかどうか
    保険に入れるかどうか
  • 5:35 - 5:38
    志望大学に入学できるかどうか
  • 5:38 - 5:42
    同じところで同じ製品を
    購入するのなら
  • 5:42 - 5:44
    誰でも値段は同じかどうか
    といったことにもです
  • 5:44 - 5:48
    警察は機械学習を
    予測警備にも
  • 5:48 - 5:50
    使い始めています
  • 5:50 - 5:54
    裁判官の中には
    機械が出したリスク評価をもとに
  • 5:54 - 5:58
    何年の懲役にすべきか
    決める人もいます
  • 5:58 - 6:01
    だから こうした判断について
    よく考えなければなりません
  • 6:01 - 6:02
    判断は公平なのでしょうか?
  • 6:02 - 6:05
    すでに見た通り
    アルゴリズムの偏見により
  • 6:05 - 6:08
    出てくる結果は必ずしも
    公平ではありません
  • 6:08 - 6:10
    私たちに何ができるでしょう
  • 6:10 - 6:14
    どうすれば
    より包括的なコードを作り
  • 6:14 - 6:17
    それを実践していけるのか
    考えることから始めましょう
  • 6:17 - 6:19
    まずは人からです
  • 6:20 - 6:22
    つまり コードを書く人が大事です
  • 6:22 - 6:26
    多様なメンバーで
    チームを構成し
  • 6:26 - 6:28
    互いの盲点を
    チェックできているか?
  • 6:28 - 6:32
    技術的な面では
    コードをどう作るかが重要です
  • 6:32 - 6:35
    システム開発の要素に
    公正さを組み込んでいるか?
  • 6:36 - 6:38
    最後に 何のために
    コードを書くかも重要です
  • 6:39 - 6:44
    私たちはコンピュータを使って
    莫大な富を生み出してきましたが
  • 6:44 - 6:48
    今 より一層の平等も
    生み出すことができるのです
  • 6:48 - 6:51
    社会の変革を
    後付けでなく
  • 6:51 - 6:53
    優先事項とすれば良いのです
  • 6:54 - 6:59
    このように「インコーディング」運動には
    3つの柱があるわけです
  • 6:59 - 7:00
    誰がコードを書くかが重要
  • 7:00 - 7:02
    どのようにコードを書くかが重要
  • 7:02 - 7:04
    なぜコードを書くかが重要 なのです
  • 7:04 - 7:07
    インコーディングに向けて
    まず手を付けるべきは
  • 7:07 - 7:10
    偏りを発見できる
    プラットフォームを作ること
  • 7:10 - 7:13
    私が紹介したような
    経験を集積して
  • 7:13 - 7:16
    今あるソフトウェアの
    点検もします
  • 7:16 - 7:20
    トレーニング用サンプルにも
    もっと多様性を盛り込みましょう
  • 7:20 - 7:23
    「インクルージョンに向けた自撮り」
    キャンペーンを展開して
  • 7:23 - 7:27
    多様性のあるサンプルを
    開発者が作成しテストするのを
  • 7:27 - 7:29
    支援することもできます
  • 7:29 - 7:32
    さらには 開発中の技術が
    社会に与える影響について
  • 7:32 - 7:37
    もっと注意深く
    考えるようにしましょう
  • 7:38 - 7:40
    インコーディング運動を
    始めるために
  • 7:40 - 7:43
    私は「Algorithmic Justice League」
    を設立しました
  • 7:43 - 7:49
    公正さに関心がある人なら誰でも
    コード化された視線との戦いに参加できます
  • 7:49 - 7:52
    偏ったコードの通報や監査依頼
  • 7:52 - 7:55
    試験者の参加申し込みは
    codedgaze.comへ
  • 7:55 - 7:57
    話題の共有には
  • 7:57 - 8:00
    #codedgazeを使ってください
  • 8:01 - 8:03
    ぜひ皆さんに
    参加してほしいんです
  • 8:03 - 8:07
    テクノロジーが
    一部の人でなく みんなの役に立つ―
  • 8:07 - 8:09
    世界を創りましょう
  • 8:09 - 8:14
    インクルージョンを大事にし
    自ら社会を変える そんな世界にしましょう
  • 8:14 - 8:15
    ありがとうございました
  • 8:15 - 8:19
    (拍手)
  • 8:21 - 8:24
    でも ほんとに大丈夫?
  • 8:24 - 8:26
    本気で参加してくれますね?
  • 8:26 - 8:27
    (笑)
  • 8:27 - 8:31
    (拍手)
Title:
アルゴリズムに潜む偏見との戦い
Speaker:
ジョイ・ブォロムウィニ
Description:

MITの大学院生ジョイ・ブォロムウィニは、顔認識ソフトを使っていて、ある問題に気づきました。自分の顔が認識されないのです。原因は、アルゴリズムをコード化した開発者が多様な肌の色や容貌を認識するようソフトを訓練していなかったからでした。そこでジョイは、「コード化された視線」と彼女が呼ぶ、機械学習における偏見との戦いに身を投じました。生活のいろいろな側面にアルゴリズムがどんどん入り込んでいる現在、コーディングにも説明責任が求められる、というジョイの主張は新鮮な驚きに満ちています。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46
Natsuhiko Mizutani approved Japanese subtitles for How I'm fighting bias in algorithms
Yuko Yoshida accepted Japanese subtitles for How I'm fighting bias in algorithms
Yuko Yoshida edited Japanese subtitles for How I'm fighting bias in algorithms
Naoko Fujii rejected Japanese subtitles for How I'm fighting bias in algorithms
Yuko Yoshida accepted Japanese subtitles for How I'm fighting bias in algorithms
Yoichi Fukuoka edited Japanese subtitles for How I'm fighting bias in algorithms
Yuko Yoshida declined Japanese subtitles for How I'm fighting bias in algorithms
Yuko Yoshida edited Japanese subtitles for How I'm fighting bias in algorithms
Show all

Japanese subtitles

Revisions