Zdravo, ja sam Džoj, pesnikinja kodova,
na misiji da zaustavim
neviđenu silu u usponu,
silu koju nazivam „kodirani pogled“,
što je moj termin
za algoritamsku pristrasnost.
Algoritamska pristrasnost, kao i ljudska,
ima za posledicu nepravednost.
Međutim, algoritmi, poput virusa,
mogu raširiti pristrasnost u ogromnoj meri
velikom brzinom.
Algoritamska pristrasnost može dovesti
i do izloženosti isključivanju
i prakse diskriminacije.
Dozvolite da vam pokažem
šta hoću da kažem.
(Video) Džoj Buolamvini:
Zdravo, kamero. Imam lice.
Možeš li da vidiš moje lice?
Lice bez naočara?
Možeš videti njeno lice.
A moje?
Imam masku. Možeš li da vidiš moju masku?
Džoj Buolamvini: Pa, kako se ovo dogodilo?
Zašto sedim ispred kompjutera
sa belom maskom,
pokušavajući da me prepozna
jeftina kamera?
Kada se ne borim protiv kodiranog pogleda
kao pesnikinja kodova,
postdiplomac sam
medijske laboratorije MIT-a
i tamo imam priliku da radim
na raznim neobičnim projektima,
uključujući „Ogledalo aspiracije“,
projekat koji sam sprovela
tako da mogu da projektujem
digitalne maske na svoj odraz.
Tako bih ujutru,
ako želim da se osećam snažno,
mogla da stavim lava.
Ako bih htela da podignem raspoloženje,
možda bih dobila citat.
Koristila sam generički softver
za prepoznavanje lica
da bih napravila sistem,
ali sam otkrila da ga je teško testirati
ukoliko ne nosim belu masku.
Nažalost, već sam ranije nailazila
na ovaj problem.
Kada sam bila na osnovnim studijama
na Tehnološkom institutu u Džordžiji,
gde sam studirala informatiku,
radila sam na društvenim robotima,
a jedan od mojih zadataka je bio
da navedem robota da se igra skrivanja,
jednostavne igre menjanja uloga
u kojoj partneri pokrivaju lice,
a zatim ga otkriju i kažu: „Uja!“
Problem je što igra skrivanja
ne funkcioniše ako ne mogu da vas vidim,
a moj robot nije mogao da me vidi.
No, pozajmila sam lice svoje cimerke
da bih završila projekat,
predala sam zadatak,
i mislila sam: „Znate šta,
neko drugi će rešiti ovaj problem.“
Nedugo potom,
bila sam u Hongkongu
na takmičenju preduzetnika.
Organizatori su rešili da povedu učesnike
u obilazak lokalnih startapova.
Jedan od startapova
imao je društvenog robota
i rešili su da naprave demonstraciju.
Demonstracija je radila kod svih
dok nisu stigli do mene
i možete verovatno pretpostaviti
šta se dogodilo.
Nije mogao da prepozna moje lice.
Pitala sam programere šta se dešava
i ispostavilo se da smo koristili
isti generički softver prepoznavanja lica.
Preko pola sveta,
saznala sam da algoritamska pristrasnost
može putovati toliko brzo
koliko treba da se skine
nešto fajlova sa interneta.
Pa, šta se dešava?
Zašto se moje lice ne prepoznaje?
Pa, moramo pogledati
kako mašini dajemo vid.
Kompjuterski vid koristi
tehnike mašinskog učenja
da bi prepoznao lica.
To funkcioniše tako što napravite
komplet za vežbanje sa primerima lica.
Ovo je lice. Ovo je lice. Ovo nije lice.
Vremenom možete naučiti kompjuter
kako da prepoznaje druga lica.
Međutim, ako kompleti za vežbanje
baš i nisu tako raznovrsni,
svako lice koje previše odstupa
od uspostavljene norme
biće teže da se prepozna,
a to je ono što se događa sa mnom.
Ali ne brinite, ima dobrih vesti.
Kompleti za vežbanje
ne dolaze tek tako niotkuda.
Možemo ih stvoriti.
Postoji mogućnost za stvaranje
kompleta za vežbu celokupnog spektra
koji odražavaju
bogatiji portret čovečanstva.
Videli ste u mojim primerima
da sam preko društvenih robota
saznala za isključivanje
kroz algoritamsku pristrasnost.
Ali algoritamska pristrasnost
može dovesti i do prakse diskriminacije.
Širom SAD-a,
policijske uprave počinju da koriste
softver za prepoznavanje lica
u svom arsenalu za borbu protiv kriminala.
Zakon Džordžtauna je objavio izveštaj
koji pokazuje da se jednoj
od dve odrasle osobe u SAD-u -
to je 117 miliona ljudi -
lice nalazi u mrežama
za prepoznavanje lica.
Odeljenja policije trenutno mogu
da neregulisano pregledaju ove mreže,
pomoću algoritama
kojima nije proverena tačnost.
Znamo da prepoznavanje lica nije bez mane,
a naznačavanje lica stalno ostaje izazov.
Možda ste to videli na Fejsbuku.
Moji prijatelji i ja se uvek smejemo
kad vidimo druge ljude
koji su pogrešno označeni
na našim fotografijama.
Ali pogrešno identifikovanje
osumnjičenog zločinca nije za smejanje,
kao ni kršenje građanskih sloboda.
Mašinsko učenje se koristi
za prepoznavanje lica,
ali se takođe proteže
i van dometa kompjuterskog vida.
U svojoj knjizi „Oružja
za matematičko uništenje“,
naučnica u oblasti podataka Keti O'Nil
govori o usponu novih RMD-a,
rasprostranjenih, misterioznih
i destruktivnih algoritama
koji se sve više koriste
za donošenje odluka
koje utiču na sve više aspekata
našeg života.
Koga će zaposliti ili otpustiti?
Da li ćete dobiti taj kredit?
Da li ćete dobiti osiguranje?
Da li ste primljeni na fakultet
u koji ste želeli da upadnete?
Da li vi i ja plaćamo istu cenu
za isti proizvod
kupljen na istoj platformi?
Sprovođenje zakona takođe počinje
da koristi mašinsko učenje
za prediktivni rad policije.
Neke sudije koriste
mašinski generisane procene rizika
da bi odredile koliko vremena
će neki pojedinac provesti u zatvoru.
Zato zaista treba da razmislimo
o ovim odlukama.
Jesu li pravedne?
A videli smo da algoritamske predrasude
ne dovode nužno uvek do pravednih ishoda.
Šta možemo da uradimo u vezi sa time?
Pa, možemo početi da razmišljamo
o tome kako da stvorimo inkluzivniji kod
i da upotrebimo inkluzivne
postupke kodiranja.
To zapravo počinje od ljudi.
Zato je bitno ko kodira.
Da li kreiramo timove celokupnog spektra
sa različitim pojedincima
koji mogu da jedno drugome ispitaju
stvari za koje su slepi?
Sa tehničke strane,
bitno je kako kodiramo.
Da li uzimamo u obzir pravičnost
dok razvijamo sisteme?
I najzad, bitno je zašto kodiramo.
Koristili smo alate računarskog stvaranja
da bismo otključali ogromno bogatstvo.
Sada imamo priliku da otključamo
još veću ravnopravnost
ako učinimo društvene promene prioritetom,
a ne da ih naknadno promišljamo.
Dakle, ovo su tri principa
koji će sačinjavati pokret „inkodiranja“.
Bitno je ko kodira,
kako kodiramo
i zašto kodiramo.
Stoga, da bismo išli u pravcu inkodiranja,
možemo početi da razmišljamo
o izgradnji platforma
koje mogu da identifikuju pristrasnost
prikupljanjem iskustava ljudi
poput onih koje sam podelila,
ali i pregledom postojećeg softvera.
Takođe možemo početi da stvaramo
inkluzivnije komplete za vežbanje.
Zamislite kampanju „Selfiji za inkluziju“
u kojoj vi i ja možemo pomoći
programerima da testiraju i naprave
inkluzivnije komplete za vežbanje.
Takođe možemo početi
da savesnije razmišljamo
o društvenom uticaju
tehnologije koju razvijamo.
Da bih otpočela pokret inkodiranja,
pokrenula sam Ligu za algoritamsku pravdu,
gde svako ko se brine o pravičnosti
može pomoći u borbi
protiv kodiranog pogleda.
Na codedgaze.com
možete prijaviti pristrasnost,
zatražiti proveru, postati tester
i pridružiti se aktuelnom razgovoru,
#codedgaze.
Pozivam vas da mi se pridružite
u stvaranju sveta
u kome tehnologija radi za sve nas,
a ne samo za neke od nas,
sveta u kome cenimo inkluziju
i stavljamo u središte društvene promene.
Hvala.
(Aplauz)
Ali imam jedno pitanje.
Hoćete li mi se pridružiti u borbi?
(Smeh)
(Aplauz)