0:00:01.041,0:00:04.175 こんにちは[br]コードの詩人 ジョイです 0:00:04.199,0:00:09.192 私の使命は 強まりつつある[br]目に見えない力 0:00:09.216,0:00:12.072 「コード化された視線」[br]と私が呼ぶ― 0:00:12.096,0:00:15.155 アルゴリズムにおける偏見を[br]阻止することです 0:00:15.429,0:00:19.549 アルゴリズムも 人と同じで[br]偏見が入り込むと不公正な結果を生みます 0:00:19.753,0:00:25.745 しかも アルゴリズムはウイルスのように[br]偏見をどんどん拡散してしまいます 0:00:25.799,0:00:27.381 それも急速にです 0:00:27.943,0:00:32.330 アルゴリズムの偏見は[br]排他的な扱いや 0:00:32.354,0:00:34.482 差別行為を生む恐れもあります 0:00:34.506,0:00:36.567 具体的にお見せしましょう 0:00:36.980,0:00:39.416 (ビデオ)ねえ カメラくん[br]私には顔があるわ 0:00:40.162,0:00:42.026 私の顔が見える? 0:00:42.051,0:00:43.676 メガネを外した方がいいかな? 0:00:43.701,0:00:45.915 この人の顔は見えるわね 0:00:46.237,0:00:48.482 私の顔はどう? 0:00:51.890,0:00:55.640 お面をつけるわ[br]このお面は見える? 0:00:56.474,0:00:58.839 (ジョイ)何が起きたのでしょう? 0:00:58.863,0:01:02.004 私が白い仮面をつけて 0:01:02.028,0:01:03.452 コンピュータの前に座り 0:01:03.476,0:01:07.126 安いウェブカメラで検知されるか[br]試している理由は? 0:01:07.150,0:01:09.441 コードの詩人として[br]コード化された視線と 0:01:09.465,0:01:10.985 戦うとき以外の私は 0:01:11.009,0:01:14.281 MITメディアラボの大学院生で 0:01:14.305,0:01:19.222 ちょっと変わったプロジェクトに[br]いろいろ関わっています 0:01:19.246,0:01:21.273 その1つの[br]「Aspire Mirror(鼓舞する鏡)」は 0:01:21.297,0:01:26.431 鏡に映った自分の顔に[br]デジタルの仮面を重ねるものです 0:01:26.455,0:01:28.805 朝起きてパワフルな気分に[br]なりたければ 0:01:28.829,0:01:30.263 ライオンの面をつけたり 0:01:30.287,0:01:33.783 気分を高めるために[br]何かを「引用」したりできます 0:01:33.807,0:01:36.720 このとき 私は[br]一般的な顔認識ソフトを使い 0:01:36.720,0:01:38.221 システムを組もうとしたのですが 0:01:38.221,0:01:43.298 白い仮面をつけないと[br]テストすら難しいと気づきました 0:01:44.282,0:01:48.628 実は この問題に悩まされたのは[br]初めてではありませんでした 0:01:48.652,0:01:52.955 ジョージア工科大学で[br]コンピュータ科学を学んでいたとき 0:01:52.979,0:01:55.034 ソーシャルロボットを研究していて 0:01:55.058,0:01:57.385 ロボット相手に[br]代わりばんこに 0:01:57.389,0:02:00.582 「いないいないばあ」をするという[br]課題がありました 0:02:00.582,0:02:04.887 顔を覆った手を 「ばあ!」のところで[br]どけて顔を見せる遊びですね 0:02:04.911,0:02:09.340 相手の顔が見えないと[br]成立しないゲームですが 0:02:09.364,0:02:11.863 ロボットは私の顔を[br]認識できませんでした 0:02:11.887,0:02:15.837 私はルームメイトの顔を借りて[br]どうにか作業を終え 0:02:15.861,0:02:17.241 課題を提出しました 0:02:17.265,0:02:21.018 そのときは このバグも誰かが[br]直してくれると思っていました 0:02:21.669,0:02:23.672 それから少しして 私は 0:02:23.696,0:02:27.855 起業コンテストに参加するため[br]香港に行きました 0:02:28.339,0:02:31.033 参加者たちは[br]いくつかの地元の新興企業に 0:02:31.057,0:02:33.429 案内されました 0:02:33.453,0:02:36.168 ある会社の製品は[br]ソーシャルロボットで 0:02:36.192,0:02:38.104 デモを見せてもらうことに[br]なりました 0:02:38.128,0:02:41.108 デモは成功し[br]私の番がやって来ます 0:02:41.132,0:02:43.055 結果はご想像のとおり 0:02:43.079,0:02:46.044 私の顔は検知されません 0:02:46.068,0:02:48.579 「どうなってるの?」[br]と開発者たちに尋ねたら 0:02:48.603,0:02:54.136 私と同じ顔認識ソフトを[br]使っていることが判明しました 0:02:54.160,0:02:55.810 世界を半周して分かったのは 0:02:55.834,0:02:59.686 アルゴリズムの偏見が[br]広がるのはすごく早いことです 0:02:59.710,0:03:02.880 ネットからダウンロードする[br]時間しかかかりません 0:03:03.745,0:03:06.821 どうなっているのか?[br]なぜ私の顔は検知されないのか? 0:03:06.845,0:03:10.201 機械に視覚を持たせる仕組みを[br]考えてみましょう 0:03:10.225,0:03:13.634 コンピュータビジョンでは[br]機械学習の技術を使って 0:03:13.658,0:03:15.538 顔を認識します 0:03:15.562,0:03:19.459 顔のサンプルを集めて[br]トレーニングするのです 0:03:19.483,0:03:22.301 これは顔 これは顔[br]これは顔じゃない 0:03:22.325,0:03:26.844 やがてコンピュータは[br]顔を認識する方法を習得します 0:03:26.868,0:03:30.857 でもトレーニング用のサンプルに[br]あまり多様性がなかったら 0:03:30.881,0:03:34.230 そこで確立された基準から[br]大きく外れた顔は 0:03:34.254,0:03:35.903 検知するのが難しくなります 0:03:35.927,0:03:37.890 私の場合はそれでした 0:03:37.914,0:03:40.296 でも大丈夫[br]希望の持てる面もあります 0:03:40.320,0:03:43.091 顔のサンプル集は ひとりでに[br]できるわけではありません 0:03:43.115,0:03:44.903 私たちにだって作れます 0:03:44.927,0:03:49.103 ですから 網羅的な[br]トレーニング用のサンプルを作り 0:03:49.127,0:03:52.951 さまざまな人間の姿形を[br]しっかり反映させれば いいんです 0:03:52.975,0:03:55.196 私の例でお見せしたように 0:03:55.220,0:03:56.988 ソーシャルロボットの振る舞いから 0:03:57.012,0:04:01.623 アルゴリズムの偏見による[br]切り捨てが見つかりました 0:04:01.647,0:04:06.462 この偏見は 差別行為にも[br]つながりうるものです 0:04:07.437,0:04:08.890 米国では全国的に 0:04:08.914,0:04:13.112 警察が顔認識ソフトを使って 0:04:13.136,0:04:15.595 犯罪に対処し始めています 0:04:15.619,0:04:17.962 ジョージタウン大学[br]ロースクールの報告によると 0:04:17.966,0:04:24.419 米国の成人2人に1人[br]1億1700万人の顔が 0:04:24.443,0:04:27.977 何らかの顔認識用のデータベースに[br]記録されています 0:04:28.001,0:04:32.553 警察は現在 制限なしに[br]これらのシステムを参照できますが 0:04:32.577,0:04:36.863 使っているアルゴリズムの[br]正確さは検証されていません 0:04:36.887,0:04:40.751 でも 顔認識は完璧でなく 0:04:40.775,0:04:44.948 顔と名前を一致させるのは[br]なおも難しい課題です 0:04:44.948,0:04:46.820 Facebookで[br]こんな経験をしたことは? 0:04:46.820,0:04:49.752 写真の中の人が正しく認識されず[br]おかしなタグが付いていて 0:04:49.776,0:04:52.234 私は いつも友達と大笑いしています 0:04:52.258,0:04:57.849 でも 犯罪者と間違われたら[br]笑い事では済みません 0:04:57.873,0:05:00.700 市民の自由が侵された[br]どころでもありません 0:05:00.724,0:05:03.929 機械学習は顔認識に[br]利用されるとともに 0:05:03.953,0:05:08.458 コンピュータビジョンの[br]利用範囲を拡大しています 0:05:09.266,0:05:13.282 データ・サイエンティストの[br]キャシー・オニールは 0:05:13.306,0:05:19.987 『Weapons of Math Destruction[br](数学破壊兵器)』の中で 0:05:20.011,0:05:24.364 不可解で破壊的なアルゴリズムが[br]「数学破壊兵器」として台頭し 0:05:24.388,0:05:27.352 ますます広く意思決定に[br]使われるようになり 0:05:27.376,0:05:30.553 私たちの暮らしの多くの場面に[br]影響を与えていると述べています 0:05:30.577,0:05:32.557 仕事の採用・不採用を分けるものは? 0:05:32.557,0:05:34.573 ローンが組めるかどうか[br]保険に入れるかどうか 0:05:34.573,0:05:38.110 志望大学に入学できるかどうか 0:05:38.134,0:05:41.643 同じところで同じ製品を[br]購入するのなら 0:05:41.667,0:05:44.109 誰でも値段は同じかどうか[br]といったことにもです 0:05:44.133,0:05:47.892 警察は機械学習を[br]予測警備にも 0:05:47.916,0:05:50.205 使い始めています 0:05:50.229,0:05:53.723 裁判官の中には[br]機械が出したリスク評価をもとに 0:05:53.747,0:05:58.149 何年の懲役にすべきか[br]決める人もいます 0:05:58.153,0:06:00.647 だから こうした判断について[br]よく考えなければなりません 0:06:00.651,0:06:01.983 判断は公平なのでしょうか? 0:06:01.987,0:06:04.747 すでに見た通り[br]アルゴリズムの偏見により 0:06:04.771,0:06:08.145 出てくる結果は必ずしも[br]公平ではありません 0:06:08.169,0:06:10.133 私たちに何ができるでしょう 0:06:10.157,0:06:13.837 どうすれば[br]より包括的なコードを作り 0:06:13.861,0:06:16.851 それを実践していけるのか[br]考えることから始めましょう 0:06:16.875,0:06:19.184 まずは人からです 0:06:19.708,0:06:21.619 つまり コードを書く人が大事です 0:06:21.669,0:06:25.706 多様なメンバーで[br]チームを構成し 0:06:25.716,0:06:28.247 互いの盲点を[br]チェックできているか? 0:06:28.271,0:06:31.816 技術的な面では[br]コードをどう作るかが重要です 0:06:31.840,0:06:35.491 システム開発の要素に[br]公正さを組み込んでいるか? 0:06:35.515,0:06:38.428 最後に 何のために[br]コードを書くかも重要です 0:06:38.785,0:06:43.868 私たちはコンピュータを使って[br]莫大な富を生み出してきましたが 0:06:43.892,0:06:48.339 今 より一層の平等も[br]生み出すことができるのです 0:06:48.363,0:06:51.293 社会の変革を[br]後付けでなく 0:06:51.317,0:06:53.487 優先事項とすれば良いのです 0:06:54.008,0:06:58.530 このように「インコーディング」運動には[br]3つの柱があるわけです 0:06:58.554,0:07:00.206 誰がコードを書くかが重要 0:07:00.230,0:07:01.773 どのようにコードを書くかが重要 0:07:01.797,0:07:03.820 なぜコードを書くかが重要 なのです 0:07:03.844,0:07:07.223 インコーディングに向けて[br]まず手を付けるべきは 0:07:07.223,0:07:10.131 偏りを発見できる[br]プラットフォームを作ること 0:07:10.155,0:07:13.233 私が紹介したような[br]経験を集積して 0:07:13.257,0:07:15.997 今あるソフトウェアの[br]点検もします 0:07:16.351,0:07:20.116 トレーニング用サンプルにも[br]もっと多様性を盛り込みましょう 0:07:20.140,0:07:22.943 「インクルージョンに向けた自撮り」[br]キャンペーンを展開して 0:07:22.967,0:07:26.622 多様性のあるサンプルを[br]開発者が作成しテストするのを 0:07:26.646,0:07:28.559 支援することもできます 0:07:29.302,0:07:32.130 さらには 開発中の技術が[br]社会に与える影響について 0:07:32.154,0:07:37.155 もっと注意深く[br]考えるようにしましょう 0:07:37.569,0:07:39.982 インコーディング運動を[br]始めるために 0:07:39.986,0:07:42.863 私は「Algorithmic Justice League」[br]を設立しました 0:07:42.863,0:07:48.579 公正さに関心がある人なら誰でも[br]コード化された視線との戦いに参加できます 0:07:48.753,0:07:52.049 偏ったコードの通報や監査依頼 0:07:52.073,0:07:54.518 試験者の参加申し込みは[br]codedgaze.comへ 0:07:54.542,0:07:57.313 話題の共有には 0:07:57.337,0:07:59.624 #codedgazeを使ってください 0:08:00.742,0:08:03.229 ぜひ皆さんに[br]参加してほしいんです 0:08:03.253,0:08:06.972 テクノロジーが[br]一部の人でなく みんなの役に立つ― 0:08:06.996,0:08:08.893 世界を創りましょう 0:08:08.917,0:08:13.505 インクルージョンを大事にし[br]自ら社会を変える そんな世界にしましょう 0:08:13.529,0:08:14.704 ありがとうございました 0:08:14.728,0:08:18.999 (拍手) 0:08:20.873,0:08:23.727 でも ほんとに大丈夫? 0:08:23.751,0:08:25.810 本気で参加してくれますね? 0:08:25.834,0:08:27.119 (笑) 0:08:27.143,0:08:30.830 (拍手)