1 00:00:01,041 --> 00:00:04,075 Zdravo, ja sam Džoj, pesnikinja kodova, 2 00:00:04,109 --> 00:00:09,192 na misiji da zaustavim neviđenu silu u usponu, 3 00:00:09,216 --> 00:00:12,072 silu koju nazivam „kodirani pogled“, 4 00:00:12,096 --> 00:00:15,285 što je moj termin za algoritamsku pristrasnost. 5 00:00:15,329 --> 00:00:19,729 Algoritamska pristrasnost, kao i ljudska, ima za posledicu nepravednost. 6 00:00:19,753 --> 00:00:25,775 Međutim, algoritmi, poput virusa, mogu raširiti pristrasnost u ogromnoj meri 7 00:00:25,799 --> 00:00:27,381 velikom brzinom. 8 00:00:27,943 --> 00:00:32,330 Algoritamska pristrasnost može dovesti i do izloženosti isključivanju 9 00:00:32,354 --> 00:00:34,482 i prakse diskriminacije. 10 00:00:34,506 --> 00:00:36,567 Dozvolite da vam pokažem šta hoću da kažem. 11 00:00:36,980 --> 00:00:39,416 (Video) Džoj Buolamvini: Zdravo, kamero. Imam lice. 12 00:00:40,162 --> 00:00:42,026 Možeš li da vidiš moje lice? 13 00:00:42,051 --> 00:00:43,676 Lice bez naočara? 14 00:00:43,701 --> 00:00:45,485 Možeš videti njeno lice. 15 00:00:46,147 --> 00:00:47,972 A moje? 16 00:00:51,890 --> 00:00:55,640 Imam masku. Možeš li da vidiš moju masku? 17 00:00:56,474 --> 00:00:58,839 Džoj Buolamvini: Pa, kako se ovo dogodilo? 18 00:00:58,863 --> 00:01:02,004 Zašto sedim ispred kompjutera 19 00:01:02,028 --> 00:01:03,452 sa belom maskom, 20 00:01:03,476 --> 00:01:07,126 pokušavajući da me prepozna jeftina kamera? 21 00:01:07,150 --> 00:01:09,441 Kada se ne borim protiv kodiranog pogleda 22 00:01:09,465 --> 00:01:10,985 kao pesnikinja kodova, 23 00:01:11,009 --> 00:01:14,281 postdiplomac sam medijske laboratorije MIT-a 24 00:01:14,305 --> 00:01:19,222 i tamo imam priliku da radim na raznim neobičnim projektima, 25 00:01:19,246 --> 00:01:22,533 uključujući „Ogledalo aspiracije“, projekat koji sam sprovela 26 00:01:22,553 --> 00:01:26,321 tako da mogu da projektujem digitalne maske na svoj odraz. 27 00:01:26,345 --> 00:01:28,585 Tako bih ujutru, ako želim da se osećam snažno, 28 00:01:28,619 --> 00:01:30,063 mogla da stavim lava. 29 00:01:30,097 --> 00:01:33,593 Ako bih htela da podignem raspoloženje, možda bih dobila citat. 30 00:01:33,627 --> 00:01:36,616 Koristila sam generički softver za prepoznavanje lica 31 00:01:36,630 --> 00:01:38,051 da bih napravila sistem, 32 00:01:38,095 --> 00:01:43,198 ali sam otkrila da ga je teško testirati ukoliko ne nosim belu masku. 33 00:01:44,282 --> 00:01:48,392 Nažalost, već sam ranije nailazila na ovaj problem. 34 00:01:48,392 --> 00:01:51,829 Kada sam bila na osnovnim studijama na Tehnološkom institutu u Džordžiji, 35 00:01:51,829 --> 00:01:53,289 gde sam studirala informatiku, 36 00:01:53,289 --> 00:01:55,034 radila sam na društvenim robotima, 37 00:01:55,058 --> 00:01:58,835 a jedan od mojih zadataka je bio da navedem robota da se igra skrivanja, 38 00:01:58,859 --> 00:02:00,542 jednostavne igre menjanja uloga 39 00:02:00,566 --> 00:02:04,887 u kojoj partneri pokrivaju lice, a zatim ga otkriju i kažu: „Uja!“ 40 00:02:04,911 --> 00:02:09,340 Problem je što igra skrivanja ne funkcioniše ako ne mogu da vas vidim, 41 00:02:09,364 --> 00:02:11,863 a moj robot nije mogao da me vidi. 42 00:02:11,887 --> 00:02:15,837 No, pozajmila sam lice svoje cimerke da bih završila projekat, 43 00:02:15,861 --> 00:02:17,241 predala sam zadatak, 44 00:02:17,265 --> 00:02:21,018 i mislila sam: „Znate šta, neko drugi će rešiti ovaj problem.“ 45 00:02:21,669 --> 00:02:23,672 Nedugo potom, 46 00:02:23,696 --> 00:02:27,855 bila sam u Hongkongu na takmičenju preduzetnika. 47 00:02:28,339 --> 00:02:31,033 Organizatori su rešili da povedu učesnike 48 00:02:31,057 --> 00:02:33,359 u obilazak lokalnih startapova. 49 00:02:33,373 --> 00:02:36,168 Jedan od startapova imao je društvenog robota 50 00:02:36,192 --> 00:02:38,104 i rešili su da naprave demonstraciju. 51 00:02:38,128 --> 00:02:40,922 Demonstracija je radila kod svih dok nisu stigli do mene 52 00:02:40,922 --> 00:02:43,225 i možete verovatno pretpostaviti šta se dogodilo. 53 00:02:43,225 --> 00:02:46,044 Nije mogao da prepozna moje lice. 54 00:02:46,068 --> 00:02:48,339 Pitala sam programere šta se dešava 55 00:02:48,373 --> 00:02:54,136 i ispostavilo se da smo koristili isti generički softver prepoznavanja lica. 56 00:02:54,160 --> 00:02:55,810 Preko pola sveta, 57 00:02:55,834 --> 00:02:59,686 saznala sam da algoritamska pristrasnost može putovati toliko brzo 58 00:02:59,710 --> 00:03:02,880 koliko treba da se skine nešto fajlova sa interneta. 59 00:03:03,635 --> 00:03:06,711 Pa, šta se dešava? Zašto se moje lice ne prepoznaje? 60 00:03:06,745 --> 00:03:10,101 Pa, moramo pogledati kako mašini dajemo vid. 61 00:03:10,125 --> 00:03:13,534 Kompjuterski vid koristi tehnike mašinskog učenja 62 00:03:13,558 --> 00:03:15,438 da bi prepoznao lica. 63 00:03:15,472 --> 00:03:19,309 To funkcioniše tako što napravite komplet za vežbanje sa primerima lica. 64 00:03:19,333 --> 00:03:22,151 Ovo je lice. Ovo je lice. Ovo nije lice. 65 00:03:22,185 --> 00:03:26,794 Vremenom možete naučiti kompjuter kako da prepoznaje druga lica. 66 00:03:26,808 --> 00:03:30,697 Međutim, ako kompleti za vežbanje baš i nisu tako raznovrsni, 67 00:03:30,731 --> 00:03:34,130 svako lice koje previše odstupa od uspostavljene norme 68 00:03:34,164 --> 00:03:35,813 biće teže da se prepozna, 69 00:03:35,827 --> 00:03:37,740 a to je ono što se događa sa mnom. 70 00:03:37,774 --> 00:03:40,156 Ali ne brinite, ima dobrih vesti. 71 00:03:40,200 --> 00:03:42,971 Kompleti za vežbanje ne dolaze tek tako niotkuda. 72 00:03:43,005 --> 00:03:44,793 Možemo ih stvoriti. 73 00:03:44,837 --> 00:03:49,013 Postoji mogućnost za stvaranje kompleta za vežbu celokupnog spektra 74 00:03:49,027 --> 00:03:52,851 koji odražavaju bogatiji portret čovečanstva. 75 00:03:52,885 --> 00:03:55,016 Videli ste u mojim primerima 76 00:03:55,060 --> 00:03:56,988 da sam preko društvenih robota 77 00:03:57,012 --> 00:04:01,623 saznala za isključivanje kroz algoritamsku pristrasnost. 78 00:04:01,647 --> 00:04:06,462 Ali algoritamska pristrasnost može dovesti i do prakse diskriminacije. 79 00:04:07,437 --> 00:04:08,890 Širom SAD-a, 80 00:04:08,914 --> 00:04:13,112 policijske uprave počinju da koriste softver za prepoznavanje lica 81 00:04:13,136 --> 00:04:15,595 u svom arsenalu za borbu protiv kriminala. 82 00:04:15,619 --> 00:04:17,632 Zakon Džordžtauna je objavio izveštaj 83 00:04:17,656 --> 00:04:21,133 koji pokazuje da se jednoj od dve odrasle osobe u SAD-u - 84 00:04:21,163 --> 00:04:24,443 to je 117 miliona ljudi - 85 00:04:24,443 --> 00:04:27,977 lice nalazi u mrežama za prepoznavanje lica. 86 00:04:28,001 --> 00:04:32,553 Odeljenja policije trenutno mogu da neregulisano pregledaju ove mreže, 87 00:04:32,577 --> 00:04:36,863 pomoću algoritama kojima nije proverena tačnost. 88 00:04:36,887 --> 00:04:40,751 Znamo da prepoznavanje lica nije bez mane, 89 00:04:40,775 --> 00:04:44,954 a naznačavanje lica stalno ostaje izazov. 90 00:04:44,978 --> 00:04:46,740 Možda ste to videli na Fejsbuku. 91 00:04:46,764 --> 00:04:49,752 Moji prijatelji i ja se uvek smejemo kad vidimo druge ljude 92 00:04:49,776 --> 00:04:52,234 koji su pogrešno označeni na našim fotografijama. 93 00:04:52,258 --> 00:04:57,849 Ali pogrešno identifikovanje osumnjičenog zločinca nije za smejanje, 94 00:04:57,873 --> 00:05:00,700 kao ni kršenje građanskih sloboda. 95 00:05:00,724 --> 00:05:03,929 Mašinsko učenje se koristi za prepoznavanje lica, 96 00:05:03,953 --> 00:05:08,458 ali se takođe proteže i van dometa kompjuterskog vida. 97 00:05:09,266 --> 00:05:13,282 U svojoj knjizi „Oružja za matematičko uništenje“, 98 00:05:13,306 --> 00:05:19,987 naučnica u oblasti podataka Keti O'Nil govori o usponu novih RMD-a, 99 00:05:20,011 --> 00:05:24,234 rasprostranjenih, misterioznih i destruktivnih algoritama 100 00:05:24,258 --> 00:05:27,272 koji se sve više koriste za donošenje odluka 101 00:05:27,296 --> 00:05:30,507 koje utiču na sve više aspekata našeg života. 102 00:05:30,507 --> 00:05:32,071 Koga će zaposliti ili otpustiti? 103 00:05:32,071 --> 00:05:34,843 Da li ćete dobiti taj kredit? Da li ćete dobiti osiguranje? 104 00:05:34,843 --> 00:05:38,110 Da li ste primljeni na fakultet u koji ste želeli da upadnete? 105 00:05:38,134 --> 00:05:41,643 Da li vi i ja plaćamo istu cenu za isti proizvod 106 00:05:41,667 --> 00:05:44,109 kupljen na istoj platformi? 107 00:05:44,133 --> 00:05:47,892 Sprovođenje zakona takođe počinje da koristi mašinsko učenje 108 00:05:47,916 --> 00:05:50,205 za prediktivni rad policije. 109 00:05:50,229 --> 00:05:53,237 Neke sudije koriste mašinski generisane procene rizika 110 00:05:53,237 --> 00:05:58,049 da bi odredile koliko vremena će neki pojedinac provesti u zatvoru. 111 00:05:58,083 --> 00:06:00,517 Zato zaista treba da razmislimo o ovim odlukama. 112 00:06:00,541 --> 00:06:01,723 Jesu li pravedne? 113 00:06:01,757 --> 00:06:04,647 A videli smo da algoritamske predrasude 114 00:06:04,681 --> 00:06:07,995 ne dovode nužno uvek do pravednih ishoda. 115 00:06:08,049 --> 00:06:10,013 Šta možemo da uradimo u vezi sa time? 116 00:06:10,057 --> 00:06:13,737 Pa, možemo početi da razmišljamo o tome kako da stvorimo inkluzivniji kod 117 00:06:13,771 --> 00:06:16,761 i da upotrebimo inkluzivne postupke kodiranja. 118 00:06:16,775 --> 00:06:19,084 To zapravo počinje od ljudi. 119 00:06:19,628 --> 00:06:21,589 Zato je bitno ko kodira. 120 00:06:21,613 --> 00:06:25,536 Da li kreiramo timove celokupnog spektra sa različitim pojedincima 121 00:06:25,566 --> 00:06:28,377 koji mogu da jedno drugome ispitaju stvari za koje su slepi? 122 00:06:28,397 --> 00:06:31,736 Sa tehničke strane, bitno je kako kodiramo. 123 00:06:31,770 --> 00:06:35,421 Da li uzimamo u obzir pravičnost dok razvijamo sisteme? 124 00:06:35,455 --> 00:06:38,658 I najzad, bitno je zašto kodiramo. 125 00:06:38,705 --> 00:06:43,788 Koristili smo alate računarskog stvaranja da bismo otključali ogromno bogatstvo. 126 00:06:43,822 --> 00:06:48,269 Sada imamo priliku da otključamo još veću ravnopravnost 127 00:06:48,283 --> 00:06:51,213 ako učinimo društvene promene prioritetom, 128 00:06:51,257 --> 00:06:53,427 a ne da ih naknadno promišljamo. 129 00:06:54,008 --> 00:06:58,530 Dakle, ovo su tri principa koji će sačinjavati pokret „inkodiranja“. 130 00:06:58,554 --> 00:07:00,206 Bitno je ko kodira, 131 00:07:00,230 --> 00:07:01,773 kako kodiramo 132 00:07:01,797 --> 00:07:03,644 i zašto kodiramo. 133 00:07:03,644 --> 00:07:07,033 Stoga, da bismo išli u pravcu inkodiranja, možemo početi da razmišljamo 134 00:07:07,033 --> 00:07:10,131 o izgradnji platforma koje mogu da identifikuju pristrasnost 135 00:07:10,155 --> 00:07:13,233 prikupljanjem iskustava ljudi poput onih koje sam podelila, 136 00:07:13,257 --> 00:07:16,327 ali i pregledom postojećeg softvera. 137 00:07:16,351 --> 00:07:20,116 Takođe možemo početi da stvaramo inkluzivnije komplete za vežbanje. 138 00:07:20,140 --> 00:07:22,943 Zamislite kampanju „Selfiji za inkluziju“ 139 00:07:22,967 --> 00:07:26,302 u kojoj vi i ja možemo pomoći programerima da testiraju i naprave 140 00:07:26,316 --> 00:07:28,409 inkluzivnije komplete za vežbanje. 141 00:07:29,302 --> 00:07:32,130 Takođe možemo početi da savesnije razmišljamo 142 00:07:32,154 --> 00:07:37,545 o društvenom uticaju tehnologije koju razvijamo. 143 00:07:37,569 --> 00:07:39,962 Da bih otpočela pokret inkodiranja, 144 00:07:39,986 --> 00:07:42,833 pokrenula sam Ligu za algoritamsku pravdu, 145 00:07:42,857 --> 00:07:45,753 gde svako ko se brine o pravičnosti 146 00:07:45,753 --> 00:07:48,753 može pomoći u borbi protiv kodiranog pogleda. 147 00:07:48,753 --> 00:07:52,049 Na codedgaze.com možete prijaviti pristrasnost, 148 00:07:52,073 --> 00:07:54,518 zatražiti proveru, postati tester 149 00:07:54,542 --> 00:07:57,313 i pridružiti se aktuelnom razgovoru, 150 00:07:57,337 --> 00:07:59,624 #codedgaze. 151 00:08:00,742 --> 00:08:03,079 Pozivam vas da mi se pridružite 152 00:08:03,113 --> 00:08:06,832 u stvaranju sveta u kome tehnologija radi za sve nas, 153 00:08:06,856 --> 00:08:08,753 a ne samo za neke od nas, 154 00:08:08,787 --> 00:08:13,415 sveta u kome cenimo inkluziju i stavljamo u središte društvene promene. 155 00:08:13,449 --> 00:08:14,624 Hvala. 156 00:08:14,648 --> 00:08:16,949 (Aplauz) 157 00:08:20,873 --> 00:08:23,727 Ali imam jedno pitanje. 158 00:08:23,751 --> 00:08:25,810 Hoćete li mi se pridružiti u borbi? 159 00:08:25,834 --> 00:08:27,119 (Smeh) 160 00:08:27,143 --> 00:08:30,830 (Aplauz)