0:00:01.041,0:00:04.175 Ahoj, jsem Joy, básnířka kódu, 0:00:04.199,0:00:09.192 na misi usilující o zastavení síly,[br]která je na vzestupu, 0:00:09.216,0:00:12.072 síle zvané „zakódovaný pohled“, 0:00:12.096,0:00:15.405 můj termín pro algoritmický předsudek. 0:00:15.429,0:00:19.729 Algoritmický předsudek, stejně jako lidský[br]směřuje k neférovosti. 0:00:19.753,0:00:25.775 Nicméně, podobně jako virusy,[br]algoritmy mohou šířit předsudky 0:00:25.799,0:00:27.381 masově a velmi rychle. 0:00:27.943,0:00:32.330 Algoritmický předsudek může také [br]vést k vyloučení 0:00:32.354,0:00:34.482 a diskriminujícím praktikám. 0:00:34.506,0:00:36.567 Ukážu vám, co mám na mysli. 0:00:36.980,0:00:39.416 (video) Joy: Ahoj, kamero.[br]Mám obličej. 0:00:40.162,0:00:42.026 Vidíte můj obličej? 0:00:42.051,0:00:43.676 Obličej bez brýlí? 0:00:43.701,0:00:45.915 Vidíte i její tvář. 0:00:46.237,0:00:48.482 A co tu mou? 0:00:51.890,0:00:55.640 Mám masku. Vidíte tu masku? 0:00:56.474,0:00:58.839 Joy: Jak se to přihodilo? 0:00:58.863,0:01:02.004 Proč sedím před počítačem 0:01:02.028,0:01:03.452 v bílé masce ve snaze 0:01:03.476,0:01:07.126 nechat se identifikovat levnou webkamerou? 0:01:07.150,0:01:09.441 Když nebojuji proti zakódovanému pohledu 0:01:09.465,0:01:10.985 jako básnířka kódu, 0:01:11.009,0:01:14.281 jsem studentkou Media Lab na MIT, 0:01:14.305,0:01:19.222 kde mám možnost pracovat[br]na celé řadě zvláštních projektů, 0:01:19.246,0:01:21.273 třeba i na projektu Zrcadla Aspire, 0:01:21.297,0:01:26.431 kde jsem se pokusila promítnout [br]digitální masku na můj odraz. 0:01:26.455,0:01:28.805 Takže ráno, když jsem se [br]chtěla cítit silná, 0:01:28.829,0:01:30.263 mohla jsem si nasadit lva. 0:01:30.287,0:01:33.783 Pokud jsem chtěla povzbudit,[br]mohla jsem mít citát. 0:01:33.807,0:01:36.796 Takže jsem použila generický[br]software na rozpoznávání obličeje 0:01:36.820,0:01:38.171 pro výstavbu tohoto systému, 0:01:38.195,0:01:43.298 ale bylo obtížné jej testovat,[br]pokud jsem neměla bílou masku. 0:01:44.282,0:01:48.628 Naneštěstí jsem na tento problém [br]narazila již dříve. 0:01:48.652,0:01:52.955 Když jsem studovala na Georgia Tech[br]počítačovou vědu, 0:01:52.979,0:01:55.034 pracovala jsem na sociálních robotech 0:01:55.058,0:01:58.835 a jedním z mých úkolů bylo přimět[br]robota hrát na schovávanou, 0:01:58.859,0:02:00.542 jednoduchou hru, 0:02:00.566,0:02:04.887 kde si partneři zahalí své tváře[br]a po odhalení říkají „Ku ku ku!!“ 0:02:04.911,0:02:09.340 Problém je, že to nefunguje,[br]pokud se nevidíte, 0:02:09.364,0:02:11.863 a můj robot mne nemohl vidět. 0:02:11.887,0:02:15.837 Abych dokončila tento projekt,[br]půjčila jsem si obličej spolubydlícího, 0:02:15.861,0:02:17.241 odevzdala úkol 0:02:17.265,0:02:21.018 a řekla si, že někdo jiný jistě[br]vyřeší tento problém. 0:02:21.669,0:02:23.672 Zanedlouho jsem byla v Hong Kongu 0:02:23.696,0:02:27.855 na podnikatelské soutěži. 0:02:28.339,0:02:31.033 Organizátoři vzali účastníky 0:02:31.057,0:02:33.429 na prohlídku místních start-upů. 0:02:33.453,0:02:36.168 Jeden ze start-upů měl[br]společenského robota 0:02:36.192,0:02:38.104 a rozhodli se nám jej ukázat. 0:02:38.128,0:02:41.108 Demo pracovalo na každém,[br]než se dostali ke mně 0:02:41.132,0:02:43.055 a asi uhádnete, co se stalo. 0:02:43.079,0:02:46.044 Nedokázala detekovat mou tvář. 0:02:46.068,0:02:48.579 Zeptala jsem se developerů,[br]co se děje a ukázalo se, 0:02:48.603,0:02:53.620 že použili stejný generický software [br]pro rozpoznávání obličeje. 0:02:53.620,0:02:55.810 Na druhé straně polokoule jsem zjistila, 0:02:55.834,0:02:59.686 že algoritmický předsudek[br]může cestovat tak rychle, 0:02:59.710,0:03:02.880 jak dlouho trvá stažení [br]několika souborů na počítači. 0:03:03.745,0:03:06.821 Takže co se děje?[br]Proč můj obličej nebyl rozpoznán? 0:03:06.845,0:03:10.201 Musíme se podívat na to, [br]jak umožňujeme strojům vidět. 0:03:10.225,0:03:13.634 Počítačový zrak používá[br]techniky strojového učení, 0:03:13.658,0:03:15.538 aby rozpoznal obličeje. 0:03:15.562,0:03:19.459 Funguje to tak, že vytvoříte[br]tréninkovou sadu s ukázkami tváří. 0:03:19.483,0:03:22.301 To je tvář. To je tvář.[br]To není tvář. 0:03:22.325,0:03:26.844 A za čas můžete naučit počítač,[br]jak rozpoznat jiné tváře. 0:03:26.868,0:03:30.857 Ale pokud nejsou tréninkové sady[br]dost rozmanité, 0:03:30.881,0:03:34.230 každá tvář, která se příliš vzdaluje[br]od etablované normy 0:03:34.254,0:03:35.903 bude obtížně zjistitelná, 0:03:35.927,0:03:37.890 což je to, co se stává mně. 0:03:37.914,0:03:40.296 Ale nebojte se - jsou i dobré zprávy. 0:03:40.320,0:03:43.091 Tréningové sety se neobjevují z ničeho. 0:03:43.115,0:03:44.903 Ve skutečnosti je tvoříme my. 0:03:44.927,0:03:49.103 Existuje tedy příležitost vytvořit[br]plné spektrum tréninkových setů, 0:03:49.127,0:03:52.951 které reflektují pestřejší obraz lidstva. 0:03:52.975,0:03:55.196 Jak vidíte, díky společenským robotům 0:03:55.220,0:03:56.988 jsem přišla na vyloučení 0:03:57.012,0:04:01.623 způsobené algoritmickým předsudkem. 0:04:01.647,0:04:06.462 Tento předsudek může ale také vést[br]k diskriminačním praktikám. 0:04:07.437,0:04:08.890 Policejní oddělení v USA 0:04:08.914,0:04:13.112 začínají používat software [br]na rozpoznávání obličeje 0:04:13.136,0:04:15.595 jako nástroj boje proti zločinu. 0:04:15.619,0:04:18.062 Gergetown Law publikovalo [br]zprávu ukazující, 0:04:18.062,0:04:24.419 že jeden ze dvou dospělých v USA -[br]to je ze 117 milionů lidí - 0:04:24.443,0:04:27.977 mají svou tvář v sítích [br]na rozpoznávání tváře. 0:04:28.001,0:04:32.553 Policie se na tyto sítě může dívat[br]bez regulace, 0:04:32.577,0:04:36.863 při použití algoritmů, které nebyly[br]auditovány na přesnost. 0:04:36.887,0:04:40.751 A to víme, že rozpoznání tváře[br]není neomylné 0:04:40.775,0:04:44.954 a označování tváří stále zůstává výzvou. 0:04:44.978,0:04:46.740 Mohli jste to vidět na facebooku. 0:04:46.764,0:04:49.752 S přáteli se vždy smějeme,[br] 0:04:49.776,0:04:52.234 když vidíme špatně označené lidi [br]na fotkách. 0:04:52.258,0:04:57.849 Ale není k smíchu [br]špatně označený podezřelý, 0:04:57.873,0:05:00.700 ani porušování našich občanských práv. 0:05:00.724,0:05:03.929 Pro rozpoznání tváře [br]je používáno strojové učení, 0:05:03.953,0:05:08.458 ale toto zasahuje za říši vidění počítače. 0:05:09.266,0:05:13.282 Ve své knize „Zbraně matematického ničení“ 0:05:13.306,0:05:19.987 Cathy O´Neil, analytička dat, [br]hovoří o vzestupu nových zbraní - 0:05:20.011,0:05:24.364 široce rozšířených, záhadných[br]a destruktivních algoritmů, 0:05:24.388,0:05:27.352 které mají dopad na více aspektů [br]našich životů 0:05:27.376,0:05:30.553 a jsou ve vzrůstající míře užívány[br]pro rozhodování. 0:05:30.577,0:05:32.447 Takže koho přijmou, koho vyhodí? 0:05:32.471,0:05:34.583 Kdo dostane půjčku?[br]Kdo bude pojištěn? 0:05:34.607,0:05:38.110 Budete přijati na školu,[br]na kterou chcete? 0:05:38.134,0:05:41.643 Zaplatíme vy i já stejnou cenu [br]za stejný produkt, 0:05:41.667,0:05:44.109 zakoupený na stejné platformě? 0:05:44.133,0:05:47.892 Policie také začíná[br]využívat strojové učení 0:05:47.916,0:05:50.205 pro prediktivní ochranu. 0:05:50.229,0:05:53.723 Někteří soudci využívají strojem [br]generované hodnocení rizik pro určení, 0:05:53.747,0:05:58.149 jak dlouho má člověk zůstat ve vězení. 0:05:58.173,0:06:00.627 Opravdu musíme přemýšlet [br]o těchto rozhodnutích. 0:06:00.651,0:06:01.833 Jsou férová? 0:06:01.857,0:06:04.747 Viděli jsme, že algoritmický předsudek 0:06:04.771,0:06:08.145 nemusí vždy vést k férovým výsledkům. 0:06:08.169,0:06:10.133 Co s tím můžeme dělat? 0:06:10.157,0:06:13.837 Můžeme začít uvažovat [br]o tvorbě inkluzivnějšího kódu 0:06:13.861,0:06:16.851 a užívat inkluzivní techniky kódování. 0:06:16.875,0:06:19.184 Opravdu to začíná lidmi. 0:06:19.708,0:06:21.669 Záleží na tom, kdo kóduje. 0:06:21.693,0:06:25.812 Vytváříme široké týmy [br]s různými osobnostmi, 0:06:25.836,0:06:28.247 kteří si vzájemně mohou kontrolovat[br]slepá místa? 0:06:28.271,0:06:31.816 Po technické stránce záleží na tom,[br]jak kódujeme. 0:06:31.840,0:06:35.491 Zahrnujeme férovost do vyvíjených systémů? 0:06:35.515,0:06:38.428 Nakonec záleží na tom, proč kódujeme. 0:06:38.785,0:06:43.868 Využili jsme nástroje pro tvorbu,[br]odemykající obrovské bohatství. 0:06:43.892,0:06:48.339 Máme příležitost otevřít[br]ještě větší rovnost, 0:06:48.363,0:06:51.293 pokud sociální změně dáme prioritu 0:06:51.317,0:06:53.487 a nebudeme na ni pouze vzpomínat. 0:06:54.008,0:06:58.530 To jsou tři zásady,[br]které jsou součástí tohoto hnutí. 0:06:58.554,0:07:00.206 Záleží na tom, kdo kóduje, 0:07:00.230,0:07:01.773 jak kódujeme 0:07:01.797,0:07:03.820 a proč kódujeme. 0:07:03.844,0:07:06.943 Takže můžeme začít přemýšlet 0:07:06.967,0:07:10.131 o vytváření platformy [br]identifikující předsudky, 0:07:10.155,0:07:13.233 sbírání takových zkušeností,[br]kterou jsem vám vyprávěla, 0:07:13.257,0:07:16.327 ale také auditování existujícího software. 0:07:16.351,0:07:20.116 Také můžeme vytvářet[br]inkluzivnější tréninkové sety. 0:07:20.140,0:07:22.943 Přestavte si kampaň „Selfie pro inkluzi“, 0:07:22.967,0:07:26.622 kde já a vy můžeme pomoci [br]developerům testovat a vytvořit 0:07:26.646,0:07:28.739 inkluzivnější tréninkové sety. 0:07:29.302,0:07:32.130 Také můžeme začít přemýšlet svědomitěji 0:07:32.154,0:07:37.545 o sociálních důsledcích technologií,[br]které vytváříme. 0:07:37.569,0:07:39.962 K nastartování tohoto hnutí 0:07:39.986,0:07:42.833 jsem vytvořila algoritmickou [br]Ligu spravedlivých, 0:07:42.857,0:07:48.729 kde kdokoli může pomoci [br]proti „zakódovanému pohledu“. 0:07:48.753,0:07:52.049 Na codedgaze.com můžete dát vědět[br]o předsudku, 0:07:52.073,0:07:54.518 požádat si o audit, stát se testerem, 0:07:54.542,0:07:57.313 nebo se zapojit do probíhající diskuse, 0:07:57.337,0:07:59.624 #codedgaze. 0:08:00.742,0:08:03.229 Takže vás zvu, abyste se ke mně přidali 0:08:03.253,0:08:06.972 ve vytváření světa, kde technologie[br]pracuje pro všechny, 0:08:06.996,0:08:08.893 ne jen pro některé, 0:08:08.917,0:08:13.505 svět, ve kterém si ceníme inkluze[br]a soustředíme se na sociální změnu. 0:08:13.529,0:08:14.704 Děkuji. 0:08:14.728,0:08:18.999 (potlesk) 0:08:20.873,0:08:23.727 Mám ale jednu otázku: 0:08:23.751,0:08:25.810 Přidáte se k mému boji? 0:08:25.834,0:08:27.119 (smích) 0:08:27.143,0:08:30.830 (potlesk)