0:00:01.041,0:00:04.075 Zdravo, ja sam Džoj, pesnikinja kodova, 0:00:04.109,0:00:09.192 na misiji da zaustavim[br]neviđenu silu u usponu, 0:00:09.216,0:00:12.072 silu koju nazivam „kodirani pogled“, 0:00:12.096,0:00:15.285 što je moj termin[br]za algoritamsku pristrasnost. 0:00:15.329,0:00:19.729 Algoritamska pristrasnost, kao i ljudska,[br]ima za posledicu nepravednost. 0:00:19.753,0:00:25.775 Međutim, algoritmi, poput virusa,[br]mogu raširiti pristrasnost u ogromnoj meri 0:00:25.799,0:00:27.381 velikom brzinom. 0:00:27.943,0:00:32.330 Algoritamska pristrasnost može dovesti[br]i do izloženosti isključivanju 0:00:32.354,0:00:34.482 i prakse diskriminacije. 0:00:34.506,0:00:36.567 Dozvolite da vam pokažem[br]šta hoću da kažem. 0:00:36.980,0:00:39.416 (Video) Džoj Buolamvini:[br]Zdravo, kamero. Imam lice. 0:00:40.162,0:00:42.026 Možeš li da vidiš moje lice? 0:00:42.051,0:00:43.676 Lice bez naočara? 0:00:43.701,0:00:45.485 Možeš videti njeno lice. 0:00:46.147,0:00:47.972 A moje? 0:00:51.890,0:00:55.640 Imam masku. Možeš li da vidiš moju masku? 0:00:56.474,0:00:58.839 Džoj Buolamvini: Pa, kako se ovo dogodilo? 0:00:58.863,0:01:02.004 Zašto sedim ispred kompjutera 0:01:02.028,0:01:03.452 sa belom maskom, 0:01:03.476,0:01:07.126 pokušavajući da me prepozna[br]jeftina kamera? 0:01:07.150,0:01:09.441 Kada se ne borim protiv kodiranog pogleda 0:01:09.465,0:01:10.985 kao pesnikinja kodova, 0:01:11.009,0:01:14.281 postdiplomac sam[br]medijske laboratorije MIT-a 0:01:14.305,0:01:19.222 i tamo imam priliku da radim[br]na raznim neobičnim projektima, 0:01:19.246,0:01:22.533 uključujući „Ogledalo aspiracije“,[br]projekat koji sam sprovela 0:01:22.553,0:01:26.321 tako da mogu da projektujem[br]digitalne maske na svoj odraz. 0:01:26.345,0:01:28.585 Tako bih ujutru,[br]ako želim da se osećam snažno, 0:01:28.619,0:01:30.063 mogla da stavim lava. 0:01:30.097,0:01:33.593 Ako bih htela da podignem raspoloženje,[br]možda bih dobila citat. 0:01:33.627,0:01:36.616 Koristila sam generički softver[br]za prepoznavanje lica 0:01:36.630,0:01:38.051 da bih napravila sistem, 0:01:38.095,0:01:43.198 ali sam otkrila da ga je teško testirati[br]ukoliko ne nosim belu masku. 0:01:44.282,0:01:48.392 Nažalost, već sam ranije nailazila[br]na ovaj problem. 0:01:48.392,0:01:51.829 Kada sam bila na osnovnim studijama[br]na Tehnološkom institutu u Džordžiji, 0:01:51.829,0:01:53.289 gde sam studirala informatiku, 0:01:53.289,0:01:55.034 radila sam na društvenim robotima, 0:01:55.058,0:01:58.835 a jedan od mojih zadataka je bio[br]da navedem robota da se igra skrivanja, 0:01:58.859,0:02:00.542 jednostavne igre menjanja uloga 0:02:00.566,0:02:04.887 u kojoj partneri pokrivaju lice,[br]a zatim ga otkriju i kažu: „Uja!“ 0:02:04.911,0:02:09.340 Problem je što igra skrivanja[br]ne funkcioniše ako ne mogu da vas vidim, 0:02:09.364,0:02:11.863 a moj robot nije mogao da me vidi. 0:02:11.887,0:02:15.837 No, pozajmila sam lice svoje cimerke[br]da bih završila projekat, 0:02:15.861,0:02:17.241 predala sam zadatak, 0:02:17.265,0:02:21.018 i mislila sam: „Znate šta,[br]neko drugi će rešiti ovaj problem.“ 0:02:21.669,0:02:23.672 Nedugo potom, 0:02:23.696,0:02:27.855 bila sam u Hongkongu[br]na takmičenju preduzetnika. 0:02:28.339,0:02:31.033 Organizatori su rešili da povedu učesnike 0:02:31.057,0:02:33.359 u obilazak lokalnih startapova. 0:02:33.373,0:02:36.168 Jedan od startapova[br]imao je društvenog robota 0:02:36.192,0:02:38.104 i rešili su da naprave demonstraciju. 0:02:38.128,0:02:40.922 Demonstracija je radila kod svih[br]dok nisu stigli do mene 0:02:40.922,0:02:43.225 i možete verovatno pretpostaviti[br]šta se dogodilo. 0:02:43.225,0:02:46.044 Nije mogao da prepozna moje lice. 0:02:46.068,0:02:48.339 Pitala sam programere šta se dešava 0:02:48.373,0:02:54.136 i ispostavilo se da smo koristili[br]isti generički softver prepoznavanja lica. 0:02:54.160,0:02:55.810 Preko pola sveta, 0:02:55.834,0:02:59.686 saznala sam da algoritamska pristrasnost[br]može putovati toliko brzo 0:02:59.710,0:03:02.880 koliko treba da se skine[br]nešto fajlova sa interneta. 0:03:03.635,0:03:06.711 Pa, šta se dešava?[br]Zašto se moje lice ne prepoznaje? 0:03:06.745,0:03:10.101 Pa, moramo pogledati[br]kako mašini dajemo vid. 0:03:10.125,0:03:13.534 Kompjuterski vid koristi[br]tehnike mašinskog učenja 0:03:13.558,0:03:15.438 da bi prepoznao lica. 0:03:15.472,0:03:19.309 To funkcioniše tako što napravite[br]komplet za vežbanje sa primerima lica. 0:03:19.333,0:03:22.151 Ovo je lice. Ovo je lice. Ovo nije lice. 0:03:22.185,0:03:26.794 Vremenom možete naučiti kompjuter[br]kako da prepoznaje druga lica. 0:03:26.808,0:03:30.697 Međutim, ako kompleti za vežbanje[br]baš i nisu tako raznovrsni, 0:03:30.731,0:03:34.130 svako lice koje previše odstupa[br]od uspostavljene norme 0:03:34.164,0:03:35.813 biće teže da se prepozna, 0:03:35.827,0:03:37.740 a to je ono što se događa sa mnom. 0:03:37.774,0:03:40.156 Ali ne brinite, ima dobrih vesti. 0:03:40.200,0:03:42.971 Kompleti za vežbanje[br]ne dolaze tek tako niotkuda. 0:03:43.005,0:03:44.793 Možemo ih stvoriti. 0:03:44.837,0:03:49.013 Postoji mogućnost za stvaranje[br]kompleta za vežbu celokupnog spektra 0:03:49.027,0:03:52.851 koji odražavaju[br]bogatiji portret čovečanstva. 0:03:52.885,0:03:55.016 Videli ste u mojim primerima 0:03:55.060,0:03:56.988 da sam preko društvenih robota 0:03:57.012,0:04:01.623 saznala za isključivanje[br]kroz algoritamsku pristrasnost. 0:04:01.647,0:04:06.462 Ali algoritamska pristrasnost[br]može dovesti i do prakse diskriminacije. 0:04:07.437,0:04:08.890 Širom SAD-a, 0:04:08.914,0:04:13.112 policijske uprave počinju da koriste[br]softver za prepoznavanje lica 0:04:13.136,0:04:15.595 u svom arsenalu za borbu protiv kriminala. 0:04:15.619,0:04:17.632 Zakon Džordžtauna je objavio izveštaj 0:04:17.656,0:04:21.133 koji pokazuje da se jednoj[br]od dve odrasle osobe u SAD-u - 0:04:21.163,0:04:24.443 to je 117 miliona ljudi - 0:04:24.443,0:04:27.977 lice nalazi u mrežama[br]za prepoznavanje lica. 0:04:28.001,0:04:32.553 Odeljenja policije trenutno mogu[br]da neregulisano pregledaju ove mreže, 0:04:32.577,0:04:36.863 pomoću algoritama[br]kojima nije proverena tačnost. 0:04:36.887,0:04:40.751 Znamo da prepoznavanje lica nije bez mane, 0:04:40.775,0:04:44.954 a naznačavanje lica stalno ostaje izazov. 0:04:44.978,0:04:46.740 Možda ste to videli na Fejsbuku. 0:04:46.764,0:04:49.752 Moji prijatelji i ja se uvek smejemo[br]kad vidimo druge ljude 0:04:49.776,0:04:52.234 koji su pogrešno označeni[br]na našim fotografijama. 0:04:52.258,0:04:57.849 Ali pogrešno identifikovanje[br]osumnjičenog zločinca nije za smejanje, 0:04:57.873,0:05:00.700 kao ni kršenje građanskih sloboda. 0:05:00.724,0:05:03.929 Mašinsko učenje se koristi[br]za prepoznavanje lica, 0:05:03.953,0:05:08.458 ali se takođe proteže[br]i van dometa kompjuterskog vida. 0:05:09.266,0:05:13.282 U svojoj knjizi „Oružja[br]za matematičko uništenje“, 0:05:13.306,0:05:19.987 naučnica u oblasti podataka Keti O'Nil[br]govori o usponu novih RMD-a, 0:05:20.011,0:05:24.234 rasprostranjenih, misterioznih[br]i destruktivnih algoritama 0:05:24.258,0:05:27.272 koji se sve više koriste[br]za donošenje odluka 0:05:27.296,0:05:30.507 koje utiču na sve više aspekata[br]našeg života. 0:05:30.507,0:05:32.071 Koga će zaposliti ili otpustiti? 0:05:32.071,0:05:34.843 Da li ćete dobiti taj kredit?[br]Da li ćete dobiti osiguranje? 0:05:34.843,0:05:38.110 Da li ste primljeni na fakultet[br]u koji ste želeli da upadnete? 0:05:38.134,0:05:41.643 Da li vi i ja plaćamo istu cenu[br]za isti proizvod 0:05:41.667,0:05:44.109 kupljen na istoj platformi? 0:05:44.133,0:05:47.892 Sprovođenje zakona takođe počinje[br]da koristi mašinsko učenje 0:05:47.916,0:05:50.205 za prediktivni rad policije. 0:05:50.229,0:05:53.237 Neke sudije koriste[br]mašinski generisane procene rizika 0:05:53.237,0:05:58.049 da bi odredile koliko vremena[br]će neki pojedinac provesti u zatvoru. 0:05:58.083,0:06:00.517 Zato zaista treba da razmislimo[br]o ovim odlukama. 0:06:00.541,0:06:01.723 Jesu li pravedne? 0:06:01.757,0:06:04.647 A videli smo da algoritamske predrasude 0:06:04.681,0:06:07.995 ne dovode nužno uvek do pravednih ishoda. 0:06:08.049,0:06:10.013 Šta možemo da uradimo u vezi sa time? 0:06:10.057,0:06:13.737 Pa, možemo početi da razmišljamo[br]o tome kako da stvorimo inkluzivniji kod 0:06:13.771,0:06:16.761 i da upotrebimo inkluzivne[br]postupke kodiranja. 0:06:16.775,0:06:19.084 To zapravo počinje od ljudi. 0:06:19.628,0:06:21.589 Zato je bitno ko kodira. 0:06:21.613,0:06:25.536 Da li kreiramo timove celokupnog spektra[br]sa različitim pojedincima 0:06:25.566,0:06:28.377 koji mogu da jedno drugome ispitaju[br]stvari za koje su slepi? 0:06:28.397,0:06:31.736 Sa tehničke strane,[br]bitno je kako kodiramo. 0:06:31.770,0:06:35.421 Da li uzimamo u obzir pravičnost[br]dok razvijamo sisteme? 0:06:35.455,0:06:38.658 I najzad, bitno je zašto kodiramo. 0:06:38.705,0:06:43.788 Koristili smo alate računarskog stvaranja[br]da bismo otključali ogromno bogatstvo. 0:06:43.822,0:06:48.269 Sada imamo priliku da otključamo[br]još veću ravnopravnost 0:06:48.283,0:06:51.213 ako učinimo društvene promene prioritetom, 0:06:51.257,0:06:53.427 a ne da ih naknadno promišljamo. 0:06:54.008,0:06:58.530 Dakle, ovo su tri principa[br]koji će sačinjavati pokret „inkodiranja“. 0:06:58.554,0:07:00.206 Bitno je ko kodira, 0:07:00.230,0:07:01.773 kako kodiramo 0:07:01.797,0:07:03.644 i zašto kodiramo. 0:07:03.644,0:07:07.033 Stoga, da bismo išli u pravcu inkodiranja,[br]možemo početi da razmišljamo 0:07:07.033,0:07:10.131 o izgradnji platforma[br]koje mogu da identifikuju pristrasnost 0:07:10.155,0:07:13.233 prikupljanjem iskustava ljudi[br]poput onih koje sam podelila, 0:07:13.257,0:07:16.327 ali i pregledom postojećeg softvera. 0:07:16.351,0:07:20.116 Takođe možemo početi da stvaramo[br]inkluzivnije komplete za vežbanje. 0:07:20.140,0:07:22.943 Zamislite kampanju „Selfiji za inkluziju“ 0:07:22.967,0:07:26.302 u kojoj vi i ja možemo pomoći[br]programerima da testiraju i naprave 0:07:26.316,0:07:28.409 inkluzivnije komplete za vežbanje. 0:07:29.302,0:07:32.130 Takođe možemo početi[br]da savesnije razmišljamo 0:07:32.154,0:07:37.545 o društvenom uticaju[br]tehnologije koju razvijamo. 0:07:37.569,0:07:39.962 Da bih otpočela pokret inkodiranja, 0:07:39.986,0:07:42.833 pokrenula sam Ligu za algoritamsku pravdu, 0:07:42.857,0:07:45.753 gde svako ko se brine o pravičnosti 0:07:45.753,0:07:48.753 može pomoći u borbi[br]protiv kodiranog pogleda. 0:07:48.753,0:07:52.049 Na codedgaze.com[br]možete prijaviti pristrasnost, 0:07:52.073,0:07:54.518 zatražiti proveru, postati tester 0:07:54.542,0:07:57.313 i pridružiti se aktuelnom razgovoru, 0:07:57.337,0:07:59.624 #codedgaze. 0:08:00.742,0:08:03.079 Pozivam vas da mi se pridružite 0:08:03.113,0:08:06.832 u stvaranju sveta[br]u kome tehnologija radi za sve nas, 0:08:06.856,0:08:08.753 a ne samo za neke od nas, 0:08:08.787,0:08:13.415 sveta u kome cenimo inkluziju[br]i stavljamo u središte društvene promene. 0:08:13.449,0:08:14.624 Hvala. 0:08:14.648,0:08:16.949 (Aplauz) 0:08:20.873,0:08:23.727 Ali imam jedno pitanje. 0:08:23.751,0:08:25.810 Hoćete li mi se pridružiti u borbi? 0:08:25.834,0:08:27.119 (Smeh) 0:08:27.143,0:08:30.830 (Aplauz)