< Return to Video

Kako se borim protiv pristrasnosti u algoritmima

  • 0:01 - 0:04
    Zdravo, ja sam Džoj, pesnikinja kodova,
  • 0:04 - 0:09
    na misiji da zaustavim
    neviđenu silu u usponu,
  • 0:09 - 0:12
    silu koju nazivam „kodirani pogled“,
  • 0:12 - 0:15
    što je moj termin
    za algoritamsku pristrasnost.
  • 0:15 - 0:20
    Algoritamska pristrasnost, kao i ljudska,
    ima za posledicu nepravednost.
  • 0:20 - 0:26
    Međutim, algoritmi, poput virusa,
    mogu raširiti pristrasnost u ogromnoj meri
  • 0:26 - 0:27
    velikom brzinom.
  • 0:28 - 0:32
    Algoritamska pristrasnost može dovesti
    i do izloženosti isključivanju
  • 0:32 - 0:34
    i prakse diskriminacije.
  • 0:35 - 0:37
    Dozvolite da vam pokažem
    šta hoću da kažem.
  • 0:37 - 0:39
    (Video) Džoj Buolamvini:
    Zdravo, kamero. Imam lice.
  • 0:40 - 0:42
    Možeš li da vidiš moje lice?
  • 0:42 - 0:44
    Lice bez naočara?
  • 0:44 - 0:45
    Možeš videti njeno lice.
  • 0:46 - 0:48
    A moje?
  • 0:52 - 0:56
    Imam masku. Možeš li da vidiš moju masku?
  • 0:56 - 0:59
    Džoj Buolamvini: Pa, kako se ovo dogodilo?
  • 0:59 - 1:02
    Zašto sedim ispred kompjutera
  • 1:02 - 1:03
    sa belom maskom,
  • 1:03 - 1:07
    pokušavajući da me prepozna
    jeftina kamera?
  • 1:07 - 1:09
    Kada se ne borim protiv kodiranog pogleda
  • 1:09 - 1:11
    kao pesnikinja kodova,
  • 1:11 - 1:14
    postdiplomac sam
    medijske laboratorije MIT-a
  • 1:14 - 1:19
    i tamo imam priliku da radim
    na raznim neobičnim projektima,
  • 1:19 - 1:23
    uključujući „Ogledalo aspiracije“,
    projekat koji sam sprovela
  • 1:23 - 1:26
    tako da mogu da projektujem
    digitalne maske na svoj odraz.
  • 1:26 - 1:29
    Tako bih ujutru,
    ako želim da se osećam snažno,
  • 1:29 - 1:30
    mogla da stavim lava.
  • 1:30 - 1:34
    Ako bih htela da podignem raspoloženje,
    možda bih dobila citat.
  • 1:34 - 1:37
    Koristila sam generički softver
    za prepoznavanje lica
  • 1:37 - 1:38
    da bih napravila sistem,
  • 1:38 - 1:43
    ali sam otkrila da ga je teško testirati
    ukoliko ne nosim belu masku.
  • 1:44 - 1:48
    Nažalost, već sam ranije nailazila
    na ovaj problem.
  • 1:48 - 1:52
    Kada sam bila na osnovnim studijama
    na Tehnološkom institutu u Džordžiji,
  • 1:52 - 1:53
    gde sam studirala informatiku,
  • 1:53 - 1:55
    radila sam na društvenim robotima,
  • 1:55 - 1:59
    a jedan od mojih zadataka je bio
    da navedem robota da se igra skrivanja,
  • 1:59 - 2:01
    jednostavne igre menjanja uloga
  • 2:01 - 2:05
    u kojoj partneri pokrivaju lice,
    a zatim ga otkriju i kažu: „Uja!“
  • 2:05 - 2:09
    Problem je što igra skrivanja
    ne funkcioniše ako ne mogu da vas vidim,
  • 2:09 - 2:12
    a moj robot nije mogao da me vidi.
  • 2:12 - 2:16
    No, pozajmila sam lice svoje cimerke
    da bih završila projekat,
  • 2:16 - 2:17
    predala sam zadatak,
  • 2:17 - 2:21
    i mislila sam: „Znate šta,
    neko drugi će rešiti ovaj problem.“
  • 2:22 - 2:24
    Nedugo potom,
  • 2:24 - 2:28
    bila sam u Hongkongu
    na takmičenju preduzetnika.
  • 2:28 - 2:31
    Organizatori su rešili da povedu učesnike
  • 2:31 - 2:33
    u obilazak lokalnih startapova.
  • 2:33 - 2:36
    Jedan od startapova
    imao je društvenog robota
  • 2:36 - 2:38
    i rešili su da naprave demonstraciju.
  • 2:38 - 2:41
    Demonstracija je radila kod svih
    dok nisu stigli do mene
  • 2:41 - 2:43
    i možete verovatno pretpostaviti
    šta se dogodilo.
  • 2:43 - 2:46
    Nije mogao da prepozna moje lice.
  • 2:46 - 2:48
    Pitala sam programere šta se dešava
  • 2:48 - 2:54
    i ispostavilo se da smo koristili
    isti generički softver prepoznavanja lica.
  • 2:54 - 2:56
    Preko pola sveta,
  • 2:56 - 3:00
    saznala sam da algoritamska pristrasnost
    može putovati toliko brzo
  • 3:00 - 3:03
    koliko treba da se skine
    nešto fajlova sa interneta.
  • 3:04 - 3:07
    Pa, šta se dešava?
    Zašto se moje lice ne prepoznaje?
  • 3:07 - 3:10
    Pa, moramo pogledati
    kako mašini dajemo vid.
  • 3:10 - 3:14
    Kompjuterski vid koristi
    tehnike mašinskog učenja
  • 3:14 - 3:15
    da bi prepoznao lica.
  • 3:15 - 3:19
    To funkcioniše tako što napravite
    komplet za vežbanje sa primerima lica.
  • 3:19 - 3:22
    Ovo je lice. Ovo je lice. Ovo nije lice.
  • 3:22 - 3:27
    Vremenom možete naučiti kompjuter
    kako da prepoznaje druga lica.
  • 3:27 - 3:31
    Međutim, ako kompleti za vežbanje
    baš i nisu tako raznovrsni,
  • 3:31 - 3:34
    svako lice koje previše odstupa
    od uspostavljene norme
  • 3:34 - 3:36
    biće teže da se prepozna,
  • 3:36 - 3:38
    a to je ono što se događa sa mnom.
  • 3:38 - 3:40
    Ali ne brinite, ima dobrih vesti.
  • 3:40 - 3:43
    Kompleti za vežbanje
    ne dolaze tek tako niotkuda.
  • 3:43 - 3:45
    Možemo ih stvoriti.
  • 3:45 - 3:49
    Postoji mogućnost za stvaranje
    kompleta za vežbu celokupnog spektra
  • 3:49 - 3:53
    koji odražavaju
    bogatiji portret čovečanstva.
  • 3:53 - 3:55
    Videli ste u mojim primerima
  • 3:55 - 3:57
    da sam preko društvenih robota
  • 3:57 - 4:02
    saznala za isključivanje
    kroz algoritamsku pristrasnost.
  • 4:02 - 4:06
    Ali algoritamska pristrasnost
    može dovesti i do prakse diskriminacije.
  • 4:07 - 4:09
    Širom SAD-a,
  • 4:09 - 4:13
    policijske uprave počinju da koriste
    softver za prepoznavanje lica
  • 4:13 - 4:16
    u svom arsenalu za borbu protiv kriminala.
  • 4:16 - 4:18
    Zakon Džordžtauna je objavio izveštaj
  • 4:18 - 4:21
    koji pokazuje da se jednoj
    od dve odrasle osobe u SAD-u -
  • 4:21 - 4:24
    to je 117 miliona ljudi -
  • 4:24 - 4:28
    lice nalazi u mrežama
    za prepoznavanje lica.
  • 4:28 - 4:33
    Odeljenja policije trenutno mogu
    da neregulisano pregledaju ove mreže,
  • 4:33 - 4:37
    pomoću algoritama
    kojima nije proverena tačnost.
  • 4:37 - 4:41
    Znamo da prepoznavanje lica nije bez mane,
  • 4:41 - 4:45
    a naznačavanje lica stalno ostaje izazov.
  • 4:45 - 4:47
    Možda ste to videli na Fejsbuku.
  • 4:47 - 4:50
    Moji prijatelji i ja se uvek smejemo
    kad vidimo druge ljude
  • 4:50 - 4:52
    koji su pogrešno označeni
    na našim fotografijama.
  • 4:52 - 4:58
    Ali pogrešno identifikovanje
    osumnjičenog zločinca nije za smejanje,
  • 4:58 - 5:01
    kao ni kršenje građanskih sloboda.
  • 5:01 - 5:04
    Mašinsko učenje se koristi
    za prepoznavanje lica,
  • 5:04 - 5:08
    ali se takođe proteže
    i van dometa kompjuterskog vida.
  • 5:09 - 5:13
    U svojoj knjizi „Oružja
    za matematičko uništenje“,
  • 5:13 - 5:20
    naučnica u oblasti podataka Keti O'Nil
    govori o usponu novih RMD-a,
  • 5:20 - 5:24
    rasprostranjenih, misterioznih
    i destruktivnih algoritama
  • 5:24 - 5:27
    koji se sve više koriste
    za donošenje odluka
  • 5:27 - 5:31
    koje utiču na sve više aspekata
    našeg života.
  • 5:31 - 5:32
    Koga će zaposliti ili otpustiti?
  • 5:32 - 5:35
    Da li ćete dobiti taj kredit?
    Da li ćete dobiti osiguranje?
  • 5:35 - 5:38
    Da li ste primljeni na fakultet
    u koji ste želeli da upadnete?
  • 5:38 - 5:42
    Da li vi i ja plaćamo istu cenu
    za isti proizvod
  • 5:42 - 5:44
    kupljen na istoj platformi?
  • 5:44 - 5:48
    Sprovođenje zakona takođe počinje
    da koristi mašinsko učenje
  • 5:48 - 5:50
    za prediktivni rad policije.
  • 5:50 - 5:53
    Neke sudije koriste
    mašinski generisane procene rizika
  • 5:53 - 5:58
    da bi odredile koliko vremena
    će neki pojedinac provesti u zatvoru.
  • 5:58 - 6:01
    Zato zaista treba da razmislimo
    o ovim odlukama.
  • 6:01 - 6:02
    Jesu li pravedne?
  • 6:02 - 6:05
    A videli smo da algoritamske predrasude
  • 6:05 - 6:08
    ne dovode nužno uvek do pravednih ishoda.
  • 6:08 - 6:10
    Šta možemo da uradimo u vezi sa time?
  • 6:10 - 6:14
    Pa, možemo početi da razmišljamo
    o tome kako da stvorimo inkluzivniji kod
  • 6:14 - 6:17
    i da upotrebimo inkluzivne
    postupke kodiranja.
  • 6:17 - 6:19
    To zapravo počinje od ljudi.
  • 6:20 - 6:22
    Zato je bitno ko kodira.
  • 6:22 - 6:26
    Da li kreiramo timove celokupnog spektra
    sa različitim pojedincima
  • 6:26 - 6:28
    koji mogu da jedno drugome ispitaju
    stvari za koje su slepi?
  • 6:28 - 6:32
    Sa tehničke strane,
    bitno je kako kodiramo.
  • 6:32 - 6:35
    Da li uzimamo u obzir pravičnost
    dok razvijamo sisteme?
  • 6:35 - 6:39
    I najzad, bitno je zašto kodiramo.
  • 6:39 - 6:44
    Koristili smo alate računarskog stvaranja
    da bismo otključali ogromno bogatstvo.
  • 6:44 - 6:48
    Sada imamo priliku da otključamo
    još veću ravnopravnost
  • 6:48 - 6:51
    ako učinimo društvene promene prioritetom,
  • 6:51 - 6:53
    a ne da ih naknadno promišljamo.
  • 6:54 - 6:59
    Dakle, ovo su tri principa
    koji će sačinjavati pokret „inkodiranja“.
  • 6:59 - 7:00
    Bitno je ko kodira,
  • 7:00 - 7:02
    kako kodiramo
  • 7:02 - 7:04
    i zašto kodiramo.
  • 7:04 - 7:07
    Stoga, da bismo išli u pravcu inkodiranja,
    možemo početi da razmišljamo
  • 7:07 - 7:10
    o izgradnji platforma
    koje mogu da identifikuju pristrasnost
  • 7:10 - 7:13
    prikupljanjem iskustava ljudi
    poput onih koje sam podelila,
  • 7:13 - 7:16
    ali i pregledom postojećeg softvera.
  • 7:16 - 7:20
    Takođe možemo početi da stvaramo
    inkluzivnije komplete za vežbanje.
  • 7:20 - 7:23
    Zamislite kampanju „Selfiji za inkluziju“
  • 7:23 - 7:26
    u kojoj vi i ja možemo pomoći
    programerima da testiraju i naprave
  • 7:26 - 7:28
    inkluzivnije komplete za vežbanje.
  • 7:29 - 7:32
    Takođe možemo početi
    da savesnije razmišljamo
  • 7:32 - 7:38
    o društvenom uticaju
    tehnologije koju razvijamo.
  • 7:38 - 7:40
    Da bih otpočela pokret inkodiranja,
  • 7:40 - 7:43
    pokrenula sam Ligu za algoritamsku pravdu,
  • 7:43 - 7:46
    gde svako ko se brine o pravičnosti
  • 7:46 - 7:49
    može pomoći u borbi
    protiv kodiranog pogleda.
  • 7:49 - 7:52
    Na codedgaze.com
    možete prijaviti pristrasnost,
  • 7:52 - 7:55
    zatražiti proveru, postati tester
  • 7:55 - 7:57
    i pridružiti se aktuelnom razgovoru,
  • 7:57 - 8:00
    #codedgaze.
  • 8:01 - 8:03
    Pozivam vas da mi se pridružite
  • 8:03 - 8:07
    u stvaranju sveta
    u kome tehnologija radi za sve nas,
  • 8:07 - 8:09
    a ne samo za neke od nas,
  • 8:09 - 8:13
    sveta u kome cenimo inkluziju
    i stavljamo u središte društvene promene.
  • 8:13 - 8:15
    Hvala.
  • 8:15 - 8:17
    (Aplauz)
  • 8:21 - 8:24
    Ali imam jedno pitanje.
  • 8:24 - 8:26
    Hoćete li mi se pridružiti u borbi?
  • 8:26 - 8:27
    (Smeh)
  • 8:27 - 8:31
    (Aplauz)
Title:
Kako se borim protiv pristrasnosti u algoritmima
Speaker:
Džoj Bulamvini (Joy Buolamwini)
Description:

Postdiplomac MIT-a, Džoj Bulamvini, je radila sa softverom za prepoznavanje lica kada je primetila problem. Softver nije prepoznavao njeno lice, jer ljudi koji su kodirali algoritam ga nisu naučili da identifikuje širok spektar boja kože i struktura lica. Sada je na misiji da se bori protiv pristrasnosti u mašinskom učenju, pojave koju naziva „kodirani pogled“. Radi se o govoru koji širi vidike, o potrebi za odgovornošću u kodiranju dok algoritmi ovladavaju sve većim brojem aspekata u našem životu.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46
Mile Živković approved Serbian subtitles for How I'm fighting bias in algorithms
Mile Živković edited Serbian subtitles for How I'm fighting bias in algorithms
Tijana Mihajlović accepted Serbian subtitles for How I'm fighting bias in algorithms
Tijana Mihajlović edited Serbian subtitles for How I'm fighting bias in algorithms
Ivana Krivokuća edited Serbian subtitles for How I'm fighting bias in algorithms
Ivana Krivokuća edited Serbian subtitles for How I'm fighting bias in algorithms

Serbian subtitles

Revisions