Merhaba ben kodlar şairi Joy
görünmez bir gücün yükselişini
durdurma görevindeyim,
algoritmik yanlılık için kullandığım
"kodlu bakış" adını verdiğim bir güç.
Algoritmik yanlılık, insan yanlılığı gibi,
adaletsizlikle sonuçlanır.
Ama algoritmalar virüsler gibi büyük çapta
ve hızda yanlılığı yayabilirler.
Algoritmik yanlılık dışlayıcı deneyimlere
ve ayrımcı uygulamalara yol açabilir.
Ne demek istediğimi göstereyim.
(Video) Joy Boulamwini: Selam kamera.
Bir yüzüm var.
Yüzümü görebiliyor musunuz?
Gözlüksüz yüzüm?
Onun yüzünü görebilirsin.
Ya benimkini?
Maskem var. Maskemi görebiliyor musun?
Joy Boulamwini: Bu nasıl oldu?
Neden bilgisayarın önünde bir beyaz maske
ile oturuyor ve ucuz bir kamera
tarafından algılanmaya çalışıyorum?
Kod şairi olarak kodlu bakış ile
savaşmadığımda
MIT Medya Lab'ında lisanüstü öğrencisiyim
ve her tür garip projede
çalışma şansım var.
Buna yaptığım Aspire Mirror da dâhil.
Sayesinde yansımamın üzerine
dijital maskeler tasarlayabilirim.
Sabah eğer güçlü hissetmek istersem,
bir aslanı takabilirim.
Sevinçli olmak istiyorsam,
bir alıntı yapabilirim.
Sistemi oluşturmak için genel yüz tanıma
yazılımını kullandım.
Ama beyaz bir maske takmadıkça
sistemi test etmek gerçekten zordu.
Maalesef bu sorunla daha önce karşılaştım.
Georgia Tech de bilgisayar
bilimleri okurken,
sosyal robotlar üzerinde çalıştım
ve görevlerimden biri ce-ee
oynayan bir robot yapmaktı.
Partnerlerinizin yüzlerini kapayıp
sonra açıp ce-ee dedikleri bir oyun.
Problem şu ki sizi göremezsem
ce-ee işe yaramaz
ve robotum beni göremiyordu.
Projeyi tamamlamak için
arkadaşımın yüzünü ödünç aldım,
ödevimi sundum ve bu sorunu
başkasının çözeceğini varsaydım.
Daha sonra Hong Kong'da
bir girişimcilik yarışmasına katıldım.
Organizatörler yarışmacıların başlangıç
turuna katılmasına karar verdi.
Yarışmacılardan birinin
sosyal robotu vardı
ve demo yapmaya karar verdi.
Demo bana gelene kadar işe yaradı
ve ne olduğunu tahmin edebilirsiniz.
Robot yüzümü algılayamadı.
Geliştiricisine ne olduğunu sordum
ve fark ettik ki aynı genel
yüz tanıma yazılımını kullanıyormuşuz.
Dünyanın öbür ucunda
algoritmik yanlılığın
internetten dosya indirmek kadar
hızlı yolculuk yaptığını öğrendim.
Yani ne oluyor? Neden beni algılamıyor?
Makinelere nasıl görme yetisi
verdiğimize göz atmalıyız.
Bilgisayar görüşü yüzü tanımlamak için
makine öğrenme tekniklerini kullanır.
Bunun çalışma şekli sizin yüz örnekleriyle
eğitim seti oluşturmanızdır.
Bu bir yüz. Bu bir yüz.
Bu bir yüz değil.
Zamanla bilgisayara diğer yüzleri
nasıl tanımlayacağını öğretirsiniz.
Fakat eğitim seti kapsamlı değilse
sabit normdan çok fazla sapan bir yüzü
tanımlamak zor olacaktır.
Bana olduğu gibi.
Ama merak etmeyin - iyi haberlerim var.
Eğitim setleri bir anda ortaya çıkmaz.
Aslında biz onları yaratabiliriz.
Yani insanlığın daha zengin portresini
çıkaran tam spektrumlu
eğitim seti oluşturabiliriz.
Şimdi örneklerimde sosyal robotlar
sayesinde algoritmik dışlanmayı
nasıl ortaya çıkardığımı gördünüz.
Ama algoritmik yanlılık ayrımcı
uygulamalara da yol açabilir.
ABD çapında, polis merkezleri
suçla mücadele cephaneliklerinde
yüz tanıma yazılımını kullanmaya başladı.
Georgetown Yasası ABD'de iki yetişkinden
birinin - 117 milyon insanın- yüz tanıma
ağında yüzlerinin bulunduğunu açıkladı.
Polis merkezleri doğrulukları
denetlenmemiş
algoritmalar kullanarak
bu ağları izinsiz görebilir.
Biliyoruz ki yüz tanıma yanılmaz değil
ve yüzlerin tutarlı etiketlenmesi
hâlâ bir sorun.
Bunu Facebook da görmüş olabilirsiniz.
Arkadaşlarımla diğer insanların yanlış
etiketlendiğini gördüğümüzde gülüyoruz.
Şüpheli bir suçluyu yanlış tanımlamak
gülünç bir mesele
veya sivil özgürlükleri ihlal değil.
Makine öğrenme yüz tanımada kullanılır
ama bilgisayar görüş alanının
ötesine de uzanıyor.
Veri bilimcisi Cathy O'Neil
"Matemetiksel İmha Silahları"
kitabında, hayatımızın
daha çok boyutunu etkileyen kararlar
almak için kullanılan yaygın,
gizemli ve yıkıcı
algoritmalarla KİS'lerden bahsediyor.
Peki işe alınan ya da kovulan kim?
O krediyi alıyor musun? Sigortan var mı?
Girmek istediğin üniversiteye
kabul edildin mi?
Aynı platformda satın alınan
aynı ürün için
sen ve ben aynı fiyatı mı ödüyoruz?
Güvenlik polisi öngörücü polislik için
otomatik öğrenmeyi kullanmaya başlıyor.
Bazı hakimler hapis cezasını
belirlemek için makine üretimli
risk puanlarını kullanıyor.
Bu kararları gerçekten
düşünmek zorundayız.
Adiller mi?
Gördük ki algoritmik yanlılık her zaman
adil sonuçlar getirmez.
Peki biz ne yapabiliriz?
Daha kapsamlı kod oluşturup
kapsamlı kod uygulamalarını
nasıl kullandığımızı düşünebiliriz.
Bu, insanlarla başlar.
Yani kimin kodladığı önemlidir.
Birbirlerinin kör noktalarını görebilen
farklı kişilerle tam spektrumlu
takımlar oluşturabiliyor muyuz?
Teknik olarak, nasıl kodladığımız önemli.
Sistemi geliştirirken adaletle
mi oluşturuyoruz?
Son olarak niçin kodladığımız önemlidir.
Harika zenginliğin kilidini açmak için
işlemsel yaratma araçlarını kullandık.
Sosyal değişimi sonraki düşünce değil,
öncelik hâline getirirsek daha geniş
eşitliği açma fırsatımız olur.
"Incoding" hareketini oluşturan
gerekli üç ilke var:
Kimin kodladığı,
nasıl kodladığı
ve niçin kodladığı.
Incoding'e yönelmek için
benim paylaştıklarım
gibi insanların deneyimlerini toplayarak
yanlılığı belirleyen ve var olan yazılımı
denetleyen platformlar oluşturmayı
düşünmeye başlayabiliriz.
Ayrıca daha kapsamlı
eğitim setleri hazırlayabiliriz.
Geliştiricilerin daha kapsamlı
eğitim setleri oluşturmasına
ve deneyebilmesine yardım
ettiğimiz "Kaynaşmak için Özçekimler"
kampanyasını düşünün.
Ve şu an geliştirdiğimiz
teknolojinin toplumsal etkileri
konusunda daha vicdani
düşünmeye başlayabiliriz.
Incoding hareketini başlatmak için
adaletle ilgilenen birinin kodlu
bakışla savaşabileceği
Algoritmik Adalet Ligi'ni başlattım.
codedgaze.com'da yanlılığı bildirebilir,
denetleme isteyebilir, deneyen olabilir,
süren tartışmalara katılabilirsiniz,
#codedgaze
Sizi dâhil olmaya ve
merkez sosyal değişime
değer verdiğimiz ve teknolojinin
sadece bir kısım için değil,
herkes için işe yaradığı
bir dünyaya davet ediyorum.
Teşekkürler.
(Alkış)
Bir sorum var.
Bu savaşta benimle misiniz?
(Gülüşmeler)
(Alkış)