1 00:00:01,041 --> 00:00:04,175 Ahoj, jsem Joy, básnířka kódu, 2 00:00:04,199 --> 00:00:09,192 na misi usilující o zastavení síly, která je na vzestupu, 3 00:00:09,216 --> 00:00:12,072 síle zvané „zakódovaný pohled“, 4 00:00:12,096 --> 00:00:15,405 můj termín pro algoritmický předsudek. 5 00:00:15,429 --> 00:00:19,729 Algoritmický předsudek, stejně jako lidský směřuje k neférovosti. 6 00:00:19,753 --> 00:00:25,775 Nicméně, podobně jako virusy, algoritmy mohou šířit předsudky 7 00:00:25,799 --> 00:00:27,381 masově a velmi rychle. 8 00:00:27,943 --> 00:00:32,330 Algoritmický předsudek může také vést k vyloučení 9 00:00:32,354 --> 00:00:34,482 a diskriminujícím praktikám. 10 00:00:34,506 --> 00:00:36,567 Ukážu vám, co mám na mysli. 11 00:00:36,980 --> 00:00:39,416 (video) Joy: Ahoj, kamero. Mám obličej. 12 00:00:40,162 --> 00:00:42,026 Vidíte můj obličej? 13 00:00:42,051 --> 00:00:43,676 Obličej bez brýlí? 14 00:00:43,701 --> 00:00:45,915 Vidíte i její tvář. 15 00:00:46,237 --> 00:00:48,482 A co tu mou? 16 00:00:51,890 --> 00:00:55,640 Mám masku. Vidíte tu masku? 17 00:00:56,474 --> 00:00:58,839 Joy: Jak se to přihodilo? 18 00:00:58,863 --> 00:01:02,004 Proč sedím před počítačem 19 00:01:02,028 --> 00:01:03,452 v bílé masce ve snaze 20 00:01:03,476 --> 00:01:07,126 nechat se identifikovat levnou webkamerou? 21 00:01:07,150 --> 00:01:09,441 Když nebojuji proti zakódovanému pohledu 22 00:01:09,465 --> 00:01:10,985 jako básnířka kódu, 23 00:01:11,009 --> 00:01:14,281 jsem studentkou Media Lab na MIT, 24 00:01:14,305 --> 00:01:19,222 kde mám možnost pracovat na celé řadě zvláštních projektů, 25 00:01:19,246 --> 00:01:21,273 třeba i na projektu Zrcadla Aspire, 26 00:01:21,297 --> 00:01:26,431 kde jsem se pokusila promítnout digitální masku na můj odraz. 27 00:01:26,455 --> 00:01:28,805 Takže ráno, když jsem se chtěla cítit silná, 28 00:01:28,829 --> 00:01:30,263 mohla jsem si nasadit lva. 29 00:01:30,287 --> 00:01:33,783 Pokud jsem chtěla povzbudit, mohla jsem mít citát. 30 00:01:33,807 --> 00:01:36,796 Takže jsem použila generický software na rozpoznávání obličeje 31 00:01:36,820 --> 00:01:38,171 pro výstavbu tohoto systému, 32 00:01:38,195 --> 00:01:43,298 ale bylo obtížné jej testovat, pokud jsem neměla bílou masku. 33 00:01:44,282 --> 00:01:48,628 Naneštěstí jsem na tento problém narazila již dříve. 34 00:01:48,652 --> 00:01:52,955 Když jsem studovala na Georgia Tech počítačovou vědu, 35 00:01:52,979 --> 00:01:55,034 pracovala jsem na sociálních robotech 36 00:01:55,058 --> 00:01:58,835 a jedním z mých úkolů bylo přimět robota hrát na schovávanou, 37 00:01:58,859 --> 00:02:00,542 jednoduchou hru, 38 00:02:00,566 --> 00:02:04,887 kde si partneři zahalí své tváře a po odhalení říkají „Ku ku ku!!“ 39 00:02:04,911 --> 00:02:09,340 Problém je, že to nefunguje, pokud se nevidíte, 40 00:02:09,364 --> 00:02:11,863 a můj robot mne nemohl vidět. 41 00:02:11,887 --> 00:02:15,837 Abych dokončila tento projekt, půjčila jsem si obličej spolubydlícího, 42 00:02:15,861 --> 00:02:17,241 odevzdala úkol 43 00:02:17,265 --> 00:02:21,018 a řekla si, že někdo jiný jistě vyřeší tento problém. 44 00:02:21,669 --> 00:02:23,672 Zanedlouho jsem byla v Hong Kongu 45 00:02:23,696 --> 00:02:27,855 na podnikatelské soutěži. 46 00:02:28,339 --> 00:02:31,033 Organizátoři vzali účastníky 47 00:02:31,057 --> 00:02:33,429 na prohlídku místních start-upů. 48 00:02:33,453 --> 00:02:36,168 Jeden ze start-upů měl společenského robota 49 00:02:36,192 --> 00:02:38,104 a rozhodli se nám jej ukázat. 50 00:02:38,128 --> 00:02:41,108 Demo pracovalo na každém, než se dostali ke mně 51 00:02:41,132 --> 00:02:43,055 a asi uhádnete, co se stalo. 52 00:02:43,079 --> 00:02:46,044 Nedokázala detekovat mou tvář. 53 00:02:46,068 --> 00:02:48,579 Zeptala jsem se developerů, co se děje a ukázalo se, 54 00:02:48,603 --> 00:02:53,620 že použili stejný generický software pro rozpoznávání obličeje. 55 00:02:53,620 --> 00:02:55,810 Na druhé straně polokoule jsem zjistila, 56 00:02:55,834 --> 00:02:59,686 že algoritmický předsudek může cestovat tak rychle, 57 00:02:59,710 --> 00:03:02,880 jak dlouho trvá stažení několika souborů na počítači. 58 00:03:03,745 --> 00:03:06,821 Takže co se děje? Proč můj obličej nebyl rozpoznán? 59 00:03:06,845 --> 00:03:10,201 Musíme se podívat na to, jak umožňujeme strojům vidět. 60 00:03:10,225 --> 00:03:13,634 Počítačový zrak používá techniky strojového učení, 61 00:03:13,658 --> 00:03:15,538 aby rozpoznal obličeje. 62 00:03:15,562 --> 00:03:19,459 Funguje to tak, že vytvoříte tréninkovou sadu s ukázkami tváří. 63 00:03:19,483 --> 00:03:22,301 To je tvář. To je tvář. To není tvář. 64 00:03:22,325 --> 00:03:26,844 A za čas můžete naučit počítač, jak rozpoznat jiné tváře. 65 00:03:26,868 --> 00:03:30,857 Ale pokud nejsou tréninkové sady dost rozmanité, 66 00:03:30,881 --> 00:03:34,230 každá tvář, která se příliš vzdaluje od etablované normy 67 00:03:34,254 --> 00:03:35,903 bude obtížně zjistitelná, 68 00:03:35,927 --> 00:03:37,890 což je to, co se stává mně. 69 00:03:37,914 --> 00:03:40,296 Ale nebojte se - jsou i dobré zprávy. 70 00:03:40,320 --> 00:03:43,091 Tréningové sety se neobjevují z ničeho. 71 00:03:43,115 --> 00:03:44,903 Ve skutečnosti je tvoříme my. 72 00:03:44,927 --> 00:03:49,103 Existuje tedy příležitost vytvořit plné spektrum tréninkových setů, 73 00:03:49,127 --> 00:03:52,951 které reflektují pestřejší obraz lidstva. 74 00:03:52,975 --> 00:03:55,196 Jak vidíte, díky společenským robotům 75 00:03:55,220 --> 00:03:56,988 jsem přišla na vyloučení 76 00:03:57,012 --> 00:04:01,623 způsobené algoritmickým předsudkem. 77 00:04:01,647 --> 00:04:06,462 Tento předsudek může ale také vést k diskriminačním praktikám. 78 00:04:07,437 --> 00:04:08,890 Policejní oddělení v USA 79 00:04:08,914 --> 00:04:13,112 začínají používat software na rozpoznávání obličeje 80 00:04:13,136 --> 00:04:15,595 jako nástroj boje proti zločinu. 81 00:04:15,619 --> 00:04:18,062 Gergetown Law publikovalo zprávu ukazující, 82 00:04:18,062 --> 00:04:24,419 že jeden ze dvou dospělých v USA - to je ze 117 milionů lidí - 83 00:04:24,443 --> 00:04:27,977 mají svou tvář v sítích na rozpoznávání tváře. 84 00:04:28,001 --> 00:04:32,553 Policie se na tyto sítě může dívat bez regulace, 85 00:04:32,577 --> 00:04:36,863 při použití algoritmů, které nebyly auditovány na přesnost. 86 00:04:36,887 --> 00:04:40,751 A to víme, že rozpoznání tváře není neomylné 87 00:04:40,775 --> 00:04:44,954 a označování tváří stále zůstává výzvou. 88 00:04:44,978 --> 00:04:46,740 Mohli jste to vidět na facebooku. 89 00:04:46,764 --> 00:04:49,752 S přáteli se vždy smějeme, 90 00:04:49,776 --> 00:04:52,234 když vidíme špatně označené lidi na fotkách. 91 00:04:52,258 --> 00:04:57,849 Ale není k smíchu špatně označený podezřelý, 92 00:04:57,873 --> 00:05:00,700 ani porušování našich občanských práv. 93 00:05:00,724 --> 00:05:03,929 Pro rozpoznání tváře je používáno strojové učení, 94 00:05:03,953 --> 00:05:08,458 ale toto zasahuje za říši vidění počítače. 95 00:05:09,266 --> 00:05:13,282 Ve své knize „Zbraně matematického ničení“ 96 00:05:13,306 --> 00:05:19,987 Cathy O´Neil, analytička dat, hovoří o vzestupu nových zbraní - 97 00:05:20,011 --> 00:05:24,364 široce rozšířených, záhadných a destruktivních algoritmů, 98 00:05:24,388 --> 00:05:27,352 které mají dopad na více aspektů našich životů 99 00:05:27,376 --> 00:05:30,553 a jsou ve vzrůstající míře užívány pro rozhodování. 100 00:05:30,577 --> 00:05:32,447 Takže koho přijmou, koho vyhodí? 101 00:05:32,471 --> 00:05:34,583 Kdo dostane půjčku? Kdo bude pojištěn? 102 00:05:34,607 --> 00:05:38,110 Budete přijati na školu, na kterou chcete? 103 00:05:38,134 --> 00:05:41,643 Zaplatíme vy i já stejnou cenu za stejný produkt, 104 00:05:41,667 --> 00:05:44,109 zakoupený na stejné platformě? 105 00:05:44,133 --> 00:05:47,892 Policie také začíná využívat strojové učení 106 00:05:47,916 --> 00:05:50,205 pro prediktivní ochranu. 107 00:05:50,229 --> 00:05:53,723 Někteří soudci využívají strojem generované hodnocení rizik pro určení, 108 00:05:53,747 --> 00:05:58,149 jak dlouho má člověk zůstat ve vězení. 109 00:05:58,173 --> 00:06:00,627 Opravdu musíme přemýšlet o těchto rozhodnutích. 110 00:06:00,651 --> 00:06:01,833 Jsou férová? 111 00:06:01,857 --> 00:06:04,747 Viděli jsme, že algoritmický předsudek 112 00:06:04,771 --> 00:06:08,145 nemusí vždy vést k férovým výsledkům. 113 00:06:08,169 --> 00:06:10,133 Co s tím můžeme dělat? 114 00:06:10,157 --> 00:06:13,837 Můžeme začít uvažovat o tvorbě inkluzivnějšího kódu 115 00:06:13,861 --> 00:06:16,851 a užívat inkluzivní techniky kódování. 116 00:06:16,875 --> 00:06:19,184 Opravdu to začíná lidmi. 117 00:06:19,708 --> 00:06:21,669 Záleží na tom, kdo kóduje. 118 00:06:21,693 --> 00:06:25,812 Vytváříme široké týmy s různými osobnostmi, 119 00:06:25,836 --> 00:06:28,247 kteří si vzájemně mohou kontrolovat slepá místa? 120 00:06:28,271 --> 00:06:31,816 Po technické stránce záleží na tom, jak kódujeme. 121 00:06:31,840 --> 00:06:35,491 Zahrnujeme férovost do vyvíjených systémů? 122 00:06:35,515 --> 00:06:38,428 Nakonec záleží na tom, proč kódujeme. 123 00:06:38,785 --> 00:06:43,868 Využili jsme nástroje pro tvorbu, odemykající obrovské bohatství. 124 00:06:43,892 --> 00:06:48,339 Máme příležitost otevřít ještě větší rovnost, 125 00:06:48,363 --> 00:06:51,293 pokud sociální změně dáme prioritu 126 00:06:51,317 --> 00:06:53,487 a nebudeme na ni pouze vzpomínat. 127 00:06:54,008 --> 00:06:58,530 To jsou tři zásady, které jsou součástí tohoto hnutí. 128 00:06:58,554 --> 00:07:00,206 Záleží na tom, kdo kóduje, 129 00:07:00,230 --> 00:07:01,773 jak kódujeme 130 00:07:01,797 --> 00:07:03,820 a proč kódujeme. 131 00:07:03,844 --> 00:07:06,943 Takže můžeme začít přemýšlet 132 00:07:06,967 --> 00:07:10,131 o vytváření platformy identifikující předsudky, 133 00:07:10,155 --> 00:07:13,233 sbírání takových zkušeností, kterou jsem vám vyprávěla, 134 00:07:13,257 --> 00:07:16,327 ale také auditování existujícího software. 135 00:07:16,351 --> 00:07:20,116 Také můžeme vytvářet inkluzivnější tréninkové sety. 136 00:07:20,140 --> 00:07:22,943 Přestavte si kampaň „Selfie pro inkluzi“, 137 00:07:22,967 --> 00:07:26,622 kde já a vy můžeme pomoci developerům testovat a vytvořit 138 00:07:26,646 --> 00:07:28,739 inkluzivnější tréninkové sety. 139 00:07:29,302 --> 00:07:32,130 Také můžeme začít přemýšlet svědomitěji 140 00:07:32,154 --> 00:07:37,545 o sociálních důsledcích technologií, které vytváříme. 141 00:07:37,569 --> 00:07:39,962 K nastartování tohoto hnutí 142 00:07:39,986 --> 00:07:42,833 jsem vytvořila algoritmickou Ligu spravedlivých, 143 00:07:42,857 --> 00:07:48,729 kde kdokoli může pomoci proti „zakódovanému pohledu“. 144 00:07:48,753 --> 00:07:52,049 Na codedgaze.com můžete dát vědět o předsudku, 145 00:07:52,073 --> 00:07:54,518 požádat si o audit, stát se testerem, 146 00:07:54,542 --> 00:07:57,313 nebo se zapojit do probíhající diskuse, 147 00:07:57,337 --> 00:07:59,624 #codedgaze. 148 00:08:00,742 --> 00:08:03,229 Takže vás zvu, abyste se ke mně přidali 149 00:08:03,253 --> 00:08:06,972 ve vytváření světa, kde technologie pracuje pro všechny, 150 00:08:06,996 --> 00:08:08,893 ne jen pro některé, 151 00:08:08,917 --> 00:08:13,505 svět, ve kterém si ceníme inkluze a soustředíme se na sociální změnu. 152 00:08:13,529 --> 00:08:14,704 Děkuji. 153 00:08:14,728 --> 00:08:18,999 (potlesk) 154 00:08:20,873 --> 00:08:23,727 Mám ale jednu otázku: 155 00:08:23,751 --> 00:08:25,810 Přidáte se k mému boji? 156 00:08:25,834 --> 00:08:27,119 (smích) 157 00:08:27,143 --> 00:08:30,830 (potlesk)