Jak bojuji s předsudky v algoritmech
-
0:01 - 0:04Ahoj, jsem Joy, básnířka kódu,
-
0:04 - 0:09na misi usilující o zastavení síly,
která je na vzestupu, -
0:09 - 0:12síle zvané „zakódovaný pohled“,
-
0:12 - 0:15můj termín pro algoritmický předsudek.
-
0:15 - 0:20Algoritmický předsudek, stejně jako lidský
směřuje k neférovosti. -
0:20 - 0:26Nicméně, podobně jako virusy,
algoritmy mohou šířit předsudky -
0:26 - 0:27masově a velmi rychle.
-
0:28 - 0:32Algoritmický předsudek může také
vést k vyloučení -
0:32 - 0:34a diskriminujícím praktikám.
-
0:35 - 0:37Ukážu vám, co mám na mysli.
-
0:37 - 0:39(video) Joy: Ahoj, kamero.
Mám obličej. -
0:40 - 0:42Vidíte můj obličej?
-
0:42 - 0:44Obličej bez brýlí?
-
0:44 - 0:46Vidíte i její tvář.
-
0:46 - 0:48A co tu mou?
-
0:52 - 0:56Mám masku. Vidíte tu masku?
-
0:56 - 0:59Joy: Jak se to přihodilo?
-
0:59 - 1:02Proč sedím před počítačem
-
1:02 - 1:03v bílé masce ve snaze
-
1:03 - 1:07nechat se identifikovat levnou webkamerou?
-
1:07 - 1:09Když nebojuji proti zakódovanému pohledu
-
1:09 - 1:11jako básnířka kódu,
-
1:11 - 1:14jsem studentkou Media Lab na MIT,
-
1:14 - 1:19kde mám možnost pracovat
na celé řadě zvláštních projektů, -
1:19 - 1:21třeba i na projektu Zrcadla Aspire,
-
1:21 - 1:26kde jsem se pokusila promítnout
digitální masku na můj odraz. -
1:26 - 1:29Takže ráno, když jsem se
chtěla cítit silná, -
1:29 - 1:30mohla jsem si nasadit lva.
-
1:30 - 1:34Pokud jsem chtěla povzbudit,
mohla jsem mít citát. -
1:34 - 1:37Takže jsem použila generický
software na rozpoznávání obličeje -
1:37 - 1:38pro výstavbu tohoto systému,
-
1:38 - 1:43ale bylo obtížné jej testovat,
pokud jsem neměla bílou masku. -
1:44 - 1:49Naneštěstí jsem na tento problém
narazila již dříve. -
1:49 - 1:53Když jsem studovala na Georgia Tech
počítačovou vědu, -
1:53 - 1:55pracovala jsem na sociálních robotech
-
1:55 - 1:59a jedním z mých úkolů bylo přimět
robota hrát na schovávanou, -
1:59 - 2:01jednoduchou hru,
-
2:01 - 2:05kde si partneři zahalí své tváře
a po odhalení říkají „Ku ku ku!!“ -
2:05 - 2:09Problém je, že to nefunguje,
pokud se nevidíte, -
2:09 - 2:12a můj robot mne nemohl vidět.
-
2:12 - 2:16Abych dokončila tento projekt,
půjčila jsem si obličej spolubydlícího, -
2:16 - 2:17odevzdala úkol
-
2:17 - 2:21a řekla si, že někdo jiný jistě
vyřeší tento problém. -
2:22 - 2:24Zanedlouho jsem byla v Hong Kongu
-
2:24 - 2:28na podnikatelské soutěži.
-
2:28 - 2:31Organizátoři vzali účastníky
-
2:31 - 2:33na prohlídku místních start-upů.
-
2:33 - 2:36Jeden ze start-upů měl
společenského robota -
2:36 - 2:38a rozhodli se nám jej ukázat.
-
2:38 - 2:41Demo pracovalo na každém,
než se dostali ke mně -
2:41 - 2:43a asi uhádnete, co se stalo.
-
2:43 - 2:46Nedokázala detekovat mou tvář.
-
2:46 - 2:49Zeptala jsem se developerů,
co se děje a ukázalo se, -
2:49 - 2:54že použili stejný generický software
pro rozpoznávání obličeje. -
2:54 - 2:56Na druhé straně polokoule jsem zjistila,
-
2:56 - 3:00že algoritmický předsudek
může cestovat tak rychle, -
3:00 - 3:03jak dlouho trvá stažení
několika souborů na počítači. -
3:04 - 3:07Takže co se děje?
Proč můj obličej nebyl rozpoznán? -
3:07 - 3:10Musíme se podívat na to,
jak umožňujeme strojům vidět. -
3:10 - 3:14Počítačový zrak používá
techniky strojového učení, -
3:14 - 3:16aby rozpoznal obličeje.
-
3:16 - 3:19Funguje to tak, že vytvoříte
tréninkovou sadu s ukázkami tváří. -
3:19 - 3:22To je tvář. To je tvář.
To není tvář. -
3:22 - 3:27A za čas můžete naučit počítač,
jak rozpoznat jiné tváře. -
3:27 - 3:31Ale pokud nejsou tréninkové sady
dost rozmanité, -
3:31 - 3:34každá tvář, která se příliš vzdaluje
od etablované normy -
3:34 - 3:36bude obtížně zjistitelná,
-
3:36 - 3:38což je to, co se stává mně.
-
3:38 - 3:40Ale nebojte se - jsou i dobré zprávy.
-
3:40 - 3:43Tréningové sety se neobjevují z ničeho.
-
3:43 - 3:45Ve skutečnosti je tvoříme my.
-
3:45 - 3:49Existuje tedy příležitost vytvořit
plné spektrum tréninkových setů, -
3:49 - 3:53které reflektují pestřejší obraz lidstva.
-
3:53 - 3:55Jak vidíte, díky společenským robotům
-
3:55 - 3:57jsem přišla na vyloučení
-
3:57 - 4:02způsobené algoritmickým předsudkem.
-
4:02 - 4:06Tento předsudek může ale také vést
k diskriminačním praktikám. -
4:07 - 4:09Policejní oddělení v USA
-
4:09 - 4:13začínají používat software
na rozpoznávání obličeje -
4:13 - 4:16jako nástroj boje proti zločinu.
-
4:16 - 4:18Gergetown Law publikovalo
zprávu ukazující, -
4:18 - 4:24že jeden ze dvou dospělých v USA -
to je ze 117 milionů lidí - -
4:24 - 4:28mají svou tvář v sítích
na rozpoznávání tváře. -
4:28 - 4:33Policie se na tyto sítě může dívat
bez regulace, -
4:33 - 4:37při použití algoritmů, které nebyly
auditovány na přesnost. -
4:37 - 4:41A to víme, že rozpoznání tváře
není neomylné -
4:41 - 4:45a označování tváří stále zůstává výzvou.
-
4:45 - 4:47Mohli jste to vidět na facebooku.
-
4:47 - 4:50S přáteli se vždy smějeme,
-
4:50 - 4:52když vidíme špatně označené lidi
na fotkách. -
4:52 - 4:58Ale není k smíchu
špatně označený podezřelý, -
4:58 - 5:01ani porušování našich občanských práv.
-
5:01 - 5:04Pro rozpoznání tváře
je používáno strojové učení, -
5:04 - 5:08ale toto zasahuje za říši vidění počítače.
-
5:09 - 5:13Ve své knize „Zbraně matematického ničení“
-
5:13 - 5:20Cathy O´Neil, analytička dat,
hovoří o vzestupu nových zbraní - -
5:20 - 5:24široce rozšířených, záhadných
a destruktivních algoritmů, -
5:24 - 5:27které mají dopad na více aspektů
našich životů -
5:27 - 5:31a jsou ve vzrůstající míře užívány
pro rozhodování. -
5:31 - 5:32Takže koho přijmou, koho vyhodí?
-
5:32 - 5:35Kdo dostane půjčku?
Kdo bude pojištěn? -
5:35 - 5:38Budete přijati na školu,
na kterou chcete? -
5:38 - 5:42Zaplatíme vy i já stejnou cenu
za stejný produkt, -
5:42 - 5:44zakoupený na stejné platformě?
-
5:44 - 5:48Policie také začíná
využívat strojové učení -
5:48 - 5:50pro prediktivní ochranu.
-
5:50 - 5:54Někteří soudci využívají strojem
generované hodnocení rizik pro určení, -
5:54 - 5:58jak dlouho má člověk zůstat ve vězení.
-
5:58 - 6:01Opravdu musíme přemýšlet
o těchto rozhodnutích. -
6:01 - 6:02Jsou férová?
-
6:02 - 6:05Viděli jsme, že algoritmický předsudek
-
6:05 - 6:08nemusí vždy vést k férovým výsledkům.
-
6:08 - 6:10Co s tím můžeme dělat?
-
6:10 - 6:14Můžeme začít uvažovat
o tvorbě inkluzivnějšího kódu -
6:14 - 6:17a užívat inkluzivní techniky kódování.
-
6:17 - 6:19Opravdu to začíná lidmi.
-
6:20 - 6:22Záleží na tom, kdo kóduje.
-
6:22 - 6:26Vytváříme široké týmy
s různými osobnostmi, -
6:26 - 6:28kteří si vzájemně mohou kontrolovat
slepá místa? -
6:28 - 6:32Po technické stránce záleží na tom,
jak kódujeme. -
6:32 - 6:35Zahrnujeme férovost do vyvíjených systémů?
-
6:36 - 6:38Nakonec záleží na tom, proč kódujeme.
-
6:39 - 6:44Využili jsme nástroje pro tvorbu,
odemykající obrovské bohatství. -
6:44 - 6:48Máme příležitost otevřít
ještě větší rovnost, -
6:48 - 6:51pokud sociální změně dáme prioritu
-
6:51 - 6:53a nebudeme na ni pouze vzpomínat.
-
6:54 - 6:59To jsou tři zásady,
které jsou součástí tohoto hnutí. -
6:59 - 7:00Záleží na tom, kdo kóduje,
-
7:00 - 7:02jak kódujeme
-
7:02 - 7:04a proč kódujeme.
-
7:04 - 7:07Takže můžeme začít přemýšlet
-
7:07 - 7:10o vytváření platformy
identifikující předsudky, -
7:10 - 7:13sbírání takových zkušeností,
kterou jsem vám vyprávěla, -
7:13 - 7:16ale také auditování existujícího software.
-
7:16 - 7:20Také můžeme vytvářet
inkluzivnější tréninkové sety. -
7:20 - 7:23Přestavte si kampaň „Selfie pro inkluzi“,
-
7:23 - 7:27kde já a vy můžeme pomoci
developerům testovat a vytvořit -
7:27 - 7:29inkluzivnější tréninkové sety.
-
7:29 - 7:32Také můžeme začít přemýšlet svědomitěji
-
7:32 - 7:38o sociálních důsledcích technologií,
které vytváříme. -
7:38 - 7:40K nastartování tohoto hnutí
-
7:40 - 7:43jsem vytvořila algoritmickou
Ligu spravedlivých, -
7:43 - 7:49kde kdokoli může pomoci
proti „zakódovanému pohledu“. -
7:49 - 7:52Na codedgaze.com můžete dát vědět
o předsudku, -
7:52 - 7:55požádat si o audit, stát se testerem,
-
7:55 - 7:57nebo se zapojit do probíhající diskuse,
-
7:57 - 8:00#codedgaze.
-
8:01 - 8:03Takže vás zvu, abyste se ke mně přidali
-
8:03 - 8:07ve vytváření světa, kde technologie
pracuje pro všechny, -
8:07 - 8:09ne jen pro některé,
-
8:09 - 8:14svět, ve kterém si ceníme inkluze
a soustředíme se na sociální změnu. -
8:14 - 8:15Děkuji.
-
8:15 - 8:19(potlesk)
-
8:21 - 8:24Mám ale jednu otázku:
-
8:24 - 8:26Přidáte se k mému boji?
-
8:26 - 8:27(smích)
-
8:27 - 8:31(potlesk)
- Title:
- Jak bojuji s předsudky v algoritmech
- Speaker:
- Joy Buolamwini
- Description:
-
Absolventka MIT Joy Buolamwini pracovala na software pro rozpoznávání tváří, když si všimla problému: software nerozpoznal její tvář -- protože lidé, kteří kódovali algoritmus nevzali v úvahu širokou škálu barev kůže a obličejových struktur. Nyní bojuje proti předsudkům ve strojovém učení, jevu, který nazývá "zakódovaný pohled". Oči otevírající přednáška o nutné zodpovědnosti v kódování ... když algoritmy přebírají více a více aspektů našich životů.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Samuel Titera approved Czech subtitles for How I'm fighting bias in algorithms | ||
Samuel Titera edited Czech subtitles for How I'm fighting bias in algorithms | ||
Alena Novotná accepted Czech subtitles for How I'm fighting bias in algorithms | ||
Alena Novotná edited Czech subtitles for How I'm fighting bias in algorithms | ||
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms | ||
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms | ||
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms | ||
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms |