Return to Video

Jak bojuji s předsudky v algoritmech

  • 0:01 - 0:04
    Ahoj, jsem Joy, básnířka kódu,
  • 0:04 - 0:09
    na misi usilující o zastavení síly,
    která je na vzestupu,
  • 0:09 - 0:12
    síle zvané „zakódovaný pohled“,
  • 0:12 - 0:15
    můj termín pro algoritmický předsudek.
  • 0:15 - 0:20
    Algoritmický předsudek, stejně jako lidský
    směřuje k neférovosti.
  • 0:20 - 0:26
    Nicméně, podobně jako virusy,
    algoritmy mohou šířit předsudky
  • 0:26 - 0:27
    masově a velmi rychle.
  • 0:28 - 0:32
    Algoritmický předsudek může také
    vést k vyloučení
  • 0:32 - 0:34
    a diskriminujícím praktikám.
  • 0:35 - 0:37
    Ukážu vám, co mám na mysli.
  • 0:37 - 0:39
    (video) Joy: Ahoj, kamero.
    Mám obličej.
  • 0:40 - 0:42
    Vidíte můj obličej?
  • 0:42 - 0:44
    Obličej bez brýlí?
  • 0:44 - 0:46
    Vidíte i její tvář.
  • 0:46 - 0:48
    A co tu mou?
  • 0:52 - 0:56
    Mám masku. Vidíte tu masku?
  • 0:56 - 0:59
    Joy: Jak se to přihodilo?
  • 0:59 - 1:02
    Proč sedím před počítačem
  • 1:02 - 1:03
    v bílé masce ve snaze
  • 1:03 - 1:07
    nechat se identifikovat levnou webkamerou?
  • 1:07 - 1:09
    Když nebojuji proti zakódovanému pohledu
  • 1:09 - 1:11
    jako básnířka kódu,
  • 1:11 - 1:14
    jsem studentkou Media Lab na MIT,
  • 1:14 - 1:19
    kde mám možnost pracovat
    na celé řadě zvláštních projektů,
  • 1:19 - 1:21
    třeba i na projektu Zrcadla Aspire,
  • 1:21 - 1:26
    kde jsem se pokusila promítnout
    digitální masku na můj odraz.
  • 1:26 - 1:29
    Takže ráno, když jsem se
    chtěla cítit silná,
  • 1:29 - 1:30
    mohla jsem si nasadit lva.
  • 1:30 - 1:34
    Pokud jsem chtěla povzbudit,
    mohla jsem mít citát.
  • 1:34 - 1:37
    Takže jsem použila generický
    software na rozpoznávání obličeje
  • 1:37 - 1:38
    pro výstavbu tohoto systému,
  • 1:38 - 1:43
    ale bylo obtížné jej testovat,
    pokud jsem neměla bílou masku.
  • 1:44 - 1:49
    Naneštěstí jsem na tento problém
    narazila již dříve.
  • 1:49 - 1:53
    Když jsem studovala na Georgia Tech
    počítačovou vědu,
  • 1:53 - 1:55
    pracovala jsem na sociálních robotech
  • 1:55 - 1:59
    a jedním z mých úkolů bylo přimět
    robota hrát na schovávanou,
  • 1:59 - 2:01
    jednoduchou hru,
  • 2:01 - 2:05
    kde si partneři zahalí své tváře
    a po odhalení říkají „Ku ku ku!!“
  • 2:05 - 2:09
    Problém je, že to nefunguje,
    pokud se nevidíte,
  • 2:09 - 2:12
    a můj robot mne nemohl vidět.
  • 2:12 - 2:16
    Abych dokončila tento projekt,
    půjčila jsem si obličej spolubydlícího,
  • 2:16 - 2:17
    odevzdala úkol
  • 2:17 - 2:21
    a řekla si, že někdo jiný jistě
    vyřeší tento problém.
  • 2:22 - 2:24
    Zanedlouho jsem byla v Hong Kongu
  • 2:24 - 2:28
    na podnikatelské soutěži.
  • 2:28 - 2:31
    Organizátoři vzali účastníky
  • 2:31 - 2:33
    na prohlídku místních start-upů.
  • 2:33 - 2:36
    Jeden ze start-upů měl
    společenského robota
  • 2:36 - 2:38
    a rozhodli se nám jej ukázat.
  • 2:38 - 2:41
    Demo pracovalo na každém,
    než se dostali ke mně
  • 2:41 - 2:43
    a asi uhádnete, co se stalo.
  • 2:43 - 2:46
    Nedokázala detekovat mou tvář.
  • 2:46 - 2:49
    Zeptala jsem se developerů,
    co se děje a ukázalo se,
  • 2:49 - 2:54
    že použili stejný generický software
    pro rozpoznávání obličeje.
  • 2:54 - 2:56
    Na druhé straně polokoule jsem zjistila,
  • 2:56 - 3:00
    že algoritmický předsudek
    může cestovat tak rychle,
  • 3:00 - 3:03
    jak dlouho trvá stažení
    několika souborů na počítači.
  • 3:04 - 3:07
    Takže co se děje?
    Proč můj obličej nebyl rozpoznán?
  • 3:07 - 3:10
    Musíme se podívat na to,
    jak umožňujeme strojům vidět.
  • 3:10 - 3:14
    Počítačový zrak používá
    techniky strojového učení,
  • 3:14 - 3:16
    aby rozpoznal obličeje.
  • 3:16 - 3:19
    Funguje to tak, že vytvoříte
    tréninkovou sadu s ukázkami tváří.
  • 3:19 - 3:22
    To je tvář. To je tvář.
    To není tvář.
  • 3:22 - 3:27
    A za čas můžete naučit počítač,
    jak rozpoznat jiné tváře.
  • 3:27 - 3:31
    Ale pokud nejsou tréninkové sady
    dost rozmanité,
  • 3:31 - 3:34
    každá tvář, která se příliš vzdaluje
    od etablované normy
  • 3:34 - 3:36
    bude obtížně zjistitelná,
  • 3:36 - 3:38
    což je to, co se stává mně.
  • 3:38 - 3:40
    Ale nebojte se - jsou i dobré zprávy.
  • 3:40 - 3:43
    Tréningové sety se neobjevují z ničeho.
  • 3:43 - 3:45
    Ve skutečnosti je tvoříme my.
  • 3:45 - 3:49
    Existuje tedy příležitost vytvořit
    plné spektrum tréninkových setů,
  • 3:49 - 3:53
    které reflektují pestřejší obraz lidstva.
  • 3:53 - 3:55
    Jak vidíte, díky společenským robotům
  • 3:55 - 3:57
    jsem přišla na vyloučení
  • 3:57 - 4:02
    způsobené algoritmickým předsudkem.
  • 4:02 - 4:06
    Tento předsudek může ale také vést
    k diskriminačním praktikám.
  • 4:07 - 4:09
    Policejní oddělení v USA
  • 4:09 - 4:13
    začínají používat software
    na rozpoznávání obličeje
  • 4:13 - 4:16
    jako nástroj boje proti zločinu.
  • 4:16 - 4:18
    Gergetown Law publikovalo
    zprávu ukazující,
  • 4:18 - 4:24
    že jeden ze dvou dospělých v USA -
    to je ze 117 milionů lidí -
  • 4:24 - 4:28
    mají svou tvář v sítích
    na rozpoznávání tváře.
  • 4:28 - 4:33
    Policie se na tyto sítě může dívat
    bez regulace,
  • 4:33 - 4:37
    při použití algoritmů, které nebyly
    auditovány na přesnost.
  • 4:37 - 4:41
    A to víme, že rozpoznání tváře
    není neomylné
  • 4:41 - 4:45
    a označování tváří stále zůstává výzvou.
  • 4:45 - 4:47
    Mohli jste to vidět na facebooku.
  • 4:47 - 4:50
    S přáteli se vždy smějeme,
  • 4:50 - 4:52
    když vidíme špatně označené lidi
    na fotkách.
  • 4:52 - 4:58
    Ale není k smíchu
    špatně označený podezřelý,
  • 4:58 - 5:01
    ani porušování našich občanských práv.
  • 5:01 - 5:04
    Pro rozpoznání tváře
    je používáno strojové učení,
  • 5:04 - 5:08
    ale toto zasahuje za říši vidění počítače.
  • 5:09 - 5:13
    Ve své knize „Zbraně matematického ničení“
  • 5:13 - 5:20
    Cathy O´Neil, analytička dat,
    hovoří o vzestupu nových zbraní -
  • 5:20 - 5:24
    široce rozšířených, záhadných
    a destruktivních algoritmů,
  • 5:24 - 5:27
    které mají dopad na více aspektů
    našich životů
  • 5:27 - 5:31
    a jsou ve vzrůstající míře užívány
    pro rozhodování.
  • 5:31 - 5:32
    Takže koho přijmou, koho vyhodí?
  • 5:32 - 5:35
    Kdo dostane půjčku?
    Kdo bude pojištěn?
  • 5:35 - 5:38
    Budete přijati na školu,
    na kterou chcete?
  • 5:38 - 5:42
    Zaplatíme vy i já stejnou cenu
    za stejný produkt,
  • 5:42 - 5:44
    zakoupený na stejné platformě?
  • 5:44 - 5:48
    Policie také začíná
    využívat strojové učení
  • 5:48 - 5:50
    pro prediktivní ochranu.
  • 5:50 - 5:54
    Někteří soudci využívají strojem
    generované hodnocení rizik pro určení,
  • 5:54 - 5:58
    jak dlouho má člověk zůstat ve vězení.
  • 5:58 - 6:01
    Opravdu musíme přemýšlet
    o těchto rozhodnutích.
  • 6:01 - 6:02
    Jsou férová?
  • 6:02 - 6:05
    Viděli jsme, že algoritmický předsudek
  • 6:05 - 6:08
    nemusí vždy vést k férovým výsledkům.
  • 6:08 - 6:10
    Co s tím můžeme dělat?
  • 6:10 - 6:14
    Můžeme začít uvažovat
    o tvorbě inkluzivnějšího kódu
  • 6:14 - 6:17
    a užívat inkluzivní techniky kódování.
  • 6:17 - 6:19
    Opravdu to začíná lidmi.
  • 6:20 - 6:22
    Záleží na tom, kdo kóduje.
  • 6:22 - 6:26
    Vytváříme široké týmy
    s různými osobnostmi,
  • 6:26 - 6:28
    kteří si vzájemně mohou kontrolovat
    slepá místa?
  • 6:28 - 6:32
    Po technické stránce záleží na tom,
    jak kódujeme.
  • 6:32 - 6:35
    Zahrnujeme férovost do vyvíjených systémů?
  • 6:36 - 6:38
    Nakonec záleží na tom, proč kódujeme.
  • 6:39 - 6:44
    Využili jsme nástroje pro tvorbu,
    odemykající obrovské bohatství.
  • 6:44 - 6:48
    Máme příležitost otevřít
    ještě větší rovnost,
  • 6:48 - 6:51
    pokud sociální změně dáme prioritu
  • 6:51 - 6:53
    a nebudeme na ni pouze vzpomínat.
  • 6:54 - 6:59
    To jsou tři zásady,
    které jsou součástí tohoto hnutí.
  • 6:59 - 7:00
    Záleží na tom, kdo kóduje,
  • 7:00 - 7:02
    jak kódujeme
  • 7:02 - 7:04
    a proč kódujeme.
  • 7:04 - 7:07
    Takže můžeme začít přemýšlet
  • 7:07 - 7:10
    o vytváření platformy
    identifikující předsudky,
  • 7:10 - 7:13
    sbírání takových zkušeností,
    kterou jsem vám vyprávěla,
  • 7:13 - 7:16
    ale také auditování existujícího software.
  • 7:16 - 7:20
    Také můžeme vytvářet
    inkluzivnější tréninkové sety.
  • 7:20 - 7:23
    Přestavte si kampaň „Selfie pro inkluzi“,
  • 7:23 - 7:27
    kde já a vy můžeme pomoci
    developerům testovat a vytvořit
  • 7:27 - 7:29
    inkluzivnější tréninkové sety.
  • 7:29 - 7:32
    Také můžeme začít přemýšlet svědomitěji
  • 7:32 - 7:38
    o sociálních důsledcích technologií,
    které vytváříme.
  • 7:38 - 7:40
    K nastartování tohoto hnutí
  • 7:40 - 7:43
    jsem vytvořila algoritmickou
    Ligu spravedlivých,
  • 7:43 - 7:49
    kde kdokoli může pomoci
    proti „zakódovanému pohledu“.
  • 7:49 - 7:52
    Na codedgaze.com můžete dát vědět
    o předsudku,
  • 7:52 - 7:55
    požádat si o audit, stát se testerem,
  • 7:55 - 7:57
    nebo se zapojit do probíhající diskuse,
  • 7:57 - 8:00
    #codedgaze.
  • 8:01 - 8:03
    Takže vás zvu, abyste se ke mně přidali
  • 8:03 - 8:07
    ve vytváření světa, kde technologie
    pracuje pro všechny,
  • 8:07 - 8:09
    ne jen pro některé,
  • 8:09 - 8:14
    svět, ve kterém si ceníme inkluze
    a soustředíme se na sociální změnu.
  • 8:14 - 8:15
    Děkuji.
  • 8:15 - 8:19
    (potlesk)
  • 8:21 - 8:24
    Mám ale jednu otázku:
  • 8:24 - 8:26
    Přidáte se k mému boji?
  • 8:26 - 8:27
    (smích)
  • 8:27 - 8:31
    (potlesk)
Title:
Jak bojuji s předsudky v algoritmech
Speaker:
Joy Buolamwini
Description:

Absolventka MIT Joy Buolamwini pracovala na software pro rozpoznávání tváří, když si všimla problému: software nerozpoznal její tvář -- protože lidé, kteří kódovali algoritmus nevzali v úvahu širokou škálu barev kůže a obličejových struktur. Nyní bojuje proti předsudkům ve strojovém učení, jevu, který nazývá "zakódovaný pohled". Oči otevírající přednáška o nutné zodpovědnosti v kódování ... když algoritmy přebírají více a více aspektů našich životů.

more » « less
Video Language:
English
Team:
TED
Project:
TEDTalks
Duration:
08:46
Samuel Titera approved Czech subtitles for How I'm fighting bias in algorithms
Samuel Titera edited Czech subtitles for How I'm fighting bias in algorithms
Alena Novotná accepted Czech subtitles for How I'm fighting bias in algorithms
Alena Novotná edited Czech subtitles for How I'm fighting bias in algorithms
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms
Kateřina Jabůrková edited Czech subtitles for How I'm fighting bias in algorithms
Show all

Czech subtitles

Revisions