Kako se borim protiv pristrasnosti u algoritmima
-
0:01 - 0:04Zdravo, ja sam Džoj, pesnikinja kodova,
-
0:04 - 0:09na misiji da zaustavim
neviđenu silu u usponu, -
0:09 - 0:12silu koju nazivam „kodirani pogled“,
-
0:12 - 0:15što je moj termin
za algoritamsku pristrasnost. -
0:15 - 0:20Algoritamska pristrasnost, kao i ljudska,
ima za posledicu nepravednost. -
0:20 - 0:26Međutim, algoritmi, poput virusa,
mogu raširiti pristrasnost u ogromnoj meri -
0:26 - 0:27velikom brzinom.
-
0:28 - 0:32Algoritamska pristrasnost može dovesti
i do izloženosti isključivanju -
0:32 - 0:34i prakse diskriminacije.
-
0:35 - 0:37Dozvolite da vam pokažem
šta hoću da kažem. -
0:37 - 0:39(Video) Džoj Buolamvini:
Zdravo, kamero. Imam lice. -
0:40 - 0:42Možeš li da vidiš moje lice?
-
0:42 - 0:44Lice bez naočara?
-
0:44 - 0:45Možeš videti njeno lice.
-
0:46 - 0:48A moje?
-
0:52 - 0:56Imam masku. Možeš li da vidiš moju masku?
-
0:56 - 0:59Džoj Buolamvini: Pa, kako se ovo dogodilo?
-
0:59 - 1:02Zašto sedim ispred kompjutera
-
1:02 - 1:03sa belom maskom,
-
1:03 - 1:07pokušavajući da me prepozna
jeftina kamera? -
1:07 - 1:09Kada se ne borim protiv kodiranog pogleda
-
1:09 - 1:11kao pesnikinja kodova,
-
1:11 - 1:14postdiplomac sam
medijske laboratorije MIT-a -
1:14 - 1:19i tamo imam priliku da radim
na raznim neobičnim projektima, -
1:19 - 1:23uključujući „Ogledalo aspiracije“,
projekat koji sam sprovela -
1:23 - 1:26tako da mogu da projektujem
digitalne maske na svoj odraz. -
1:26 - 1:29Tako bih ujutru,
ako želim da se osećam snažno, -
1:29 - 1:30mogla da stavim lava.
-
1:30 - 1:34Ako bih htela da podignem raspoloženje,
možda bih dobila citat. -
1:34 - 1:37Koristila sam generički softver
za prepoznavanje lica -
1:37 - 1:38da bih napravila sistem,
-
1:38 - 1:43ali sam otkrila da ga je teško testirati
ukoliko ne nosim belu masku. -
1:44 - 1:48Nažalost, već sam ranije nailazila
na ovaj problem. -
1:48 - 1:52Kada sam bila na osnovnim studijama
na Tehnološkom institutu u Džordžiji, -
1:52 - 1:53gde sam studirala informatiku,
-
1:53 - 1:55radila sam na društvenim robotima,
-
1:55 - 1:59a jedan od mojih zadataka je bio
da navedem robota da se igra skrivanja, -
1:59 - 2:01jednostavne igre menjanja uloga
-
2:01 - 2:05u kojoj partneri pokrivaju lice,
a zatim ga otkriju i kažu: „Uja!“ -
2:05 - 2:09Problem je što igra skrivanja
ne funkcioniše ako ne mogu da vas vidim, -
2:09 - 2:12a moj robot nije mogao da me vidi.
-
2:12 - 2:16No, pozajmila sam lice svoje cimerke
da bih završila projekat, -
2:16 - 2:17predala sam zadatak,
-
2:17 - 2:21i mislila sam: „Znate šta,
neko drugi će rešiti ovaj problem.“ -
2:22 - 2:24Nedugo potom,
-
2:24 - 2:28bila sam u Hongkongu
na takmičenju preduzetnika. -
2:28 - 2:31Organizatori su rešili da povedu učesnike
-
2:31 - 2:33u obilazak lokalnih startapova.
-
2:33 - 2:36Jedan od startapova
imao je društvenog robota -
2:36 - 2:38i rešili su da naprave demonstraciju.
-
2:38 - 2:41Demonstracija je radila kod svih
dok nisu stigli do mene -
2:41 - 2:43i možete verovatno pretpostaviti
šta se dogodilo. -
2:43 - 2:46Nije mogao da prepozna moje lice.
-
2:46 - 2:48Pitala sam programere šta se dešava
-
2:48 - 2:54i ispostavilo se da smo koristili
isti generički softver prepoznavanja lica. -
2:54 - 2:56Preko pola sveta,
-
2:56 - 3:00saznala sam da algoritamska pristrasnost
može putovati toliko brzo -
3:00 - 3:03koliko treba da se skine
nešto fajlova sa interneta. -
3:04 - 3:07Pa, šta se dešava?
Zašto se moje lice ne prepoznaje? -
3:07 - 3:10Pa, moramo pogledati
kako mašini dajemo vid. -
3:10 - 3:14Kompjuterski vid koristi
tehnike mašinskog učenja -
3:14 - 3:15da bi prepoznao lica.
-
3:15 - 3:19To funkcioniše tako što napravite
komplet za vežbanje sa primerima lica. -
3:19 - 3:22Ovo je lice. Ovo je lice. Ovo nije lice.
-
3:22 - 3:27Vremenom možete naučiti kompjuter
kako da prepoznaje druga lica. -
3:27 - 3:31Međutim, ako kompleti za vežbanje
baš i nisu tako raznovrsni, -
3:31 - 3:34svako lice koje previše odstupa
od uspostavljene norme -
3:34 - 3:36biće teže da se prepozna,
-
3:36 - 3:38a to je ono što se događa sa mnom.
-
3:38 - 3:40Ali ne brinite, ima dobrih vesti.
-
3:40 - 3:43Kompleti za vežbanje
ne dolaze tek tako niotkuda. -
3:43 - 3:45Možemo ih stvoriti.
-
3:45 - 3:49Postoji mogućnost za stvaranje
kompleta za vežbu celokupnog spektra -
3:49 - 3:53koji odražavaju
bogatiji portret čovečanstva. -
3:53 - 3:55Videli ste u mojim primerima
-
3:55 - 3:57da sam preko društvenih robota
-
3:57 - 4:02saznala za isključivanje
kroz algoritamsku pristrasnost. -
4:02 - 4:06Ali algoritamska pristrasnost
može dovesti i do prakse diskriminacije. -
4:07 - 4:09Širom SAD-a,
-
4:09 - 4:13policijske uprave počinju da koriste
softver za prepoznavanje lica -
4:13 - 4:16u svom arsenalu za borbu protiv kriminala.
-
4:16 - 4:18Zakon Džordžtauna je objavio izveštaj
-
4:18 - 4:21koji pokazuje da se jednoj
od dve odrasle osobe u SAD-u - -
4:21 - 4:24to je 117 miliona ljudi -
-
4:24 - 4:28lice nalazi u mrežama
za prepoznavanje lica. -
4:28 - 4:33Odeljenja policije trenutno mogu
da neregulisano pregledaju ove mreže, -
4:33 - 4:37pomoću algoritama
kojima nije proverena tačnost. -
4:37 - 4:41Znamo da prepoznavanje lica nije bez mane,
-
4:41 - 4:45a naznačavanje lica stalno ostaje izazov.
-
4:45 - 4:47Možda ste to videli na Fejsbuku.
-
4:47 - 4:50Moji prijatelji i ja se uvek smejemo
kad vidimo druge ljude -
4:50 - 4:52koji su pogrešno označeni
na našim fotografijama. -
4:52 - 4:58Ali pogrešno identifikovanje
osumnjičenog zločinca nije za smejanje, -
4:58 - 5:01kao ni kršenje građanskih sloboda.
-
5:01 - 5:04Mašinsko učenje se koristi
za prepoznavanje lica, -
5:04 - 5:08ali se takođe proteže
i van dometa kompjuterskog vida. -
5:09 - 5:13U svojoj knjizi „Oružja
za matematičko uništenje“, -
5:13 - 5:20naučnica u oblasti podataka Keti O'Nil
govori o usponu novih RMD-a, -
5:20 - 5:24rasprostranjenih, misterioznih
i destruktivnih algoritama -
5:24 - 5:27koji se sve više koriste
za donošenje odluka -
5:27 - 5:31koje utiču na sve više aspekata
našeg života. -
5:31 - 5:32Koga će zaposliti ili otpustiti?
-
5:32 - 5:35Da li ćete dobiti taj kredit?
Da li ćete dobiti osiguranje? -
5:35 - 5:38Da li ste primljeni na fakultet
u koji ste želeli da upadnete? -
5:38 - 5:42Da li vi i ja plaćamo istu cenu
za isti proizvod -
5:42 - 5:44kupljen na istoj platformi?
-
5:44 - 5:48Sprovođenje zakona takođe počinje
da koristi mašinsko učenje -
5:48 - 5:50za prediktivni rad policije.
-
5:50 - 5:53Neke sudije koriste
mašinski generisane procene rizika -
5:53 - 5:58da bi odredile koliko vremena
će neki pojedinac provesti u zatvoru. -
5:58 - 6:01Zato zaista treba da razmislimo
o ovim odlukama. -
6:01 - 6:02Jesu li pravedne?
-
6:02 - 6:05A videli smo da algoritamske predrasude
-
6:05 - 6:08ne dovode nužno uvek do pravednih ishoda.
-
6:08 - 6:10Šta možemo da uradimo u vezi sa time?
-
6:10 - 6:14Pa, možemo početi da razmišljamo
o tome kako da stvorimo inkluzivniji kod -
6:14 - 6:17i da upotrebimo inkluzivne
postupke kodiranja. -
6:17 - 6:19To zapravo počinje od ljudi.
-
6:20 - 6:22Zato je bitno ko kodira.
-
6:22 - 6:26Da li kreiramo timove celokupnog spektra
sa različitim pojedincima -
6:26 - 6:28koji mogu da jedno drugome ispitaju
stvari za koje su slepi? -
6:28 - 6:32Sa tehničke strane,
bitno je kako kodiramo. -
6:32 - 6:35Da li uzimamo u obzir pravičnost
dok razvijamo sisteme? -
6:35 - 6:39I najzad, bitno je zašto kodiramo.
-
6:39 - 6:44Koristili smo alate računarskog stvaranja
da bismo otključali ogromno bogatstvo. -
6:44 - 6:48Sada imamo priliku da otključamo
još veću ravnopravnost -
6:48 - 6:51ako učinimo društvene promene prioritetom,
-
6:51 - 6:53a ne da ih naknadno promišljamo.
-
6:54 - 6:59Dakle, ovo su tri principa
koji će sačinjavati pokret „inkodiranja“. -
6:59 - 7:00Bitno je ko kodira,
-
7:00 - 7:02kako kodiramo
-
7:02 - 7:04i zašto kodiramo.
-
7:04 - 7:07Stoga, da bismo išli u pravcu inkodiranja,
možemo početi da razmišljamo -
7:07 - 7:10o izgradnji platforma
koje mogu da identifikuju pristrasnost -
7:10 - 7:13prikupljanjem iskustava ljudi
poput onih koje sam podelila, -
7:13 - 7:16ali i pregledom postojećeg softvera.
-
7:16 - 7:20Takođe možemo početi da stvaramo
inkluzivnije komplete za vežbanje. -
7:20 - 7:23Zamislite kampanju „Selfiji za inkluziju“
-
7:23 - 7:26u kojoj vi i ja možemo pomoći
programerima da testiraju i naprave -
7:26 - 7:28inkluzivnije komplete za vežbanje.
-
7:29 - 7:32Takođe možemo početi
da savesnije razmišljamo -
7:32 - 7:38o društvenom uticaju
tehnologije koju razvijamo. -
7:38 - 7:40Da bih otpočela pokret inkodiranja,
-
7:40 - 7:43pokrenula sam Ligu za algoritamsku pravdu,
-
7:43 - 7:46gde svako ko se brine o pravičnosti
-
7:46 - 7:49može pomoći u borbi
protiv kodiranog pogleda. -
7:49 - 7:52Na codedgaze.com
možete prijaviti pristrasnost, -
7:52 - 7:55zatražiti proveru, postati tester
-
7:55 - 7:57i pridružiti se aktuelnom razgovoru,
-
7:57 - 8:00#codedgaze.
-
8:01 - 8:03Pozivam vas da mi se pridružite
-
8:03 - 8:07u stvaranju sveta
u kome tehnologija radi za sve nas, -
8:07 - 8:09a ne samo za neke od nas,
-
8:09 - 8:13sveta u kome cenimo inkluziju
i stavljamo u središte društvene promene. -
8:13 - 8:15Hvala.
-
8:15 - 8:17(Aplauz)
-
8:21 - 8:24Ali imam jedno pitanje.
-
8:24 - 8:26Hoćete li mi se pridružiti u borbi?
-
8:26 - 8:27(Smeh)
-
8:27 - 8:31(Aplauz)
- Title:
- Kako se borim protiv pristrasnosti u algoritmima
- Speaker:
- Džoj Bulamvini (Joy Buolamwini)
- Description:
-
Postdiplomac MIT-a, Džoj Bulamvini, je radila sa softverom za prepoznavanje lica kada je primetila problem. Softver nije prepoznavao njeno lice, jer ljudi koji su kodirali algoritam ga nisu naučili da identifikuje širok spektar boja kože i struktura lica. Sada je na misiji da se bori protiv pristrasnosti u mašinskom učenju, pojave koju naziva „kodirani pogled“. Radi se o govoru koji širi vidike, o potrebi za odgovornošću u kodiranju dok algoritmi ovladavaju sve većim brojem aspekata u našem životu.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Mile Živković approved Serbian subtitles for How I'm fighting bias in algorithms | ||
Mile Živković edited Serbian subtitles for How I'm fighting bias in algorithms | ||
Tijana Mihajlović accepted Serbian subtitles for How I'm fighting bias in algorithms | ||
Tijana Mihajlović edited Serbian subtitles for How I'm fighting bias in algorithms | ||
Ivana Krivokuća edited Serbian subtitles for How I'm fighting bias in algorithms | ||
Ivana Krivokuća edited Serbian subtitles for How I'm fighting bias in algorithms |