Merhaba ben kodlar şairi Joy görünmez bir gücün yükselişini durdurma görevindeyim, algoritmik yanlılık için kullandığım "kodlu bakış" adını verdiğim bir güç. Algoritmik yanlılık, insan yanlılığı gibi, adaletsizlikle sonuçlanır. Ama algoritmalar virüsler gibi büyük çapta ve hızda yanlılığı yayabilirler. Algoritmik yanlılık dışlayıcı deneyimlere ve ayrımcı uygulamalara yol açabilir. Ne demek istediğimi göstereyim. (Video) Joy Boulamwini: Selam kamera. Bir yüzüm var. Yüzümü görebiliyor musunuz? Gözlüksüz yüzüm? Onun yüzünü görebilirsin. Ya benimkini? Maskem var. Maskemi görebiliyor musun? Joy Boulamwini: Bu nasıl oldu? Neden bilgisayarın önünde bir beyaz maske ile oturuyor ve ucuz bir kamera tarafından algılanmaya çalışıyorum? Kod şairi olarak kodlu bakış ile savaşmadığımda MIT Medya Lab'ında lisanüstü öğrencisiyim ve her tür garip projede çalışma şansım var. Buna yaptığım Aspire Mirror da dâhil. Sayesinde yansımamın üzerine dijital maskeler tasarlayabilirim. Sabah eğer güçlü hissetmek istersem, bir aslanı takabilirim. Sevinçli olmak istiyorsam, bir alıntı yapabilirim. Sistemi oluşturmak için genel yüz tanıma yazılımını kullandım. Ama beyaz bir maske takmadıkça sistemi test etmek gerçekten zordu. Maalesef bu sorunla daha önce karşılaştım. Georgia Tech de bilgisayar bilimleri okurken, sosyal robotlar üzerinde çalıştım ve görevlerimden biri ce-ee oynayan bir robot yapmaktı. Partnerlerinizin yüzlerini kapayıp sonra açıp ce-ee dedikleri bir oyun. Problem şu ki sizi göremezsem ce-ee işe yaramaz ve robotum beni göremiyordu. Projeyi tamamlamak için arkadaşımın yüzünü ödünç aldım, ödevimi sundum ve bu sorunu başkasının çözeceğini varsaydım. Daha sonra Hong Kong'da bir girişimcilik yarışmasına katıldım. Organizatörler yarışmacıların başlangıç turuna katılmasına karar verdi. Yarışmacılardan birinin sosyal robotu vardı ve demo yapmaya karar verdi. Demo bana gelene kadar işe yaradı ve ne olduğunu tahmin edebilirsiniz. Robot yüzümü algılayamadı. Geliştiricisine ne olduğunu sordum ve fark ettik ki aynı genel yüz tanıma yazılımını kullanıyormuşuz. Dünyanın öbür ucunda algoritmik yanlılığın internetten dosya indirmek kadar hızlı yolculuk yaptığını öğrendim. Yani ne oluyor? Neden beni algılamıyor? Makinelere nasıl görme yetisi verdiğimize göz atmalıyız. Bilgisayar görüşü yüzü tanımlamak için makine öğrenme tekniklerini kullanır. Bunun çalışma şekli sizin yüz örnekleriyle eğitim seti oluşturmanızdır. Bu bir yüz. Bu bir yüz. Bu bir yüz değil. Zamanla bilgisayara diğer yüzleri nasıl tanımlayacağını öğretirsiniz. Fakat eğitim seti kapsamlı değilse sabit normdan çok fazla sapan bir yüzü tanımlamak zor olacaktır. Bana olduğu gibi. Ama merak etmeyin - iyi haberlerim var. Eğitim setleri bir anda ortaya çıkmaz. Aslında biz onları yaratabiliriz. Yani insanlığın daha zengin portresini çıkaran tam spektrumlu eğitim seti oluşturabiliriz. Şimdi örneklerimde sosyal robotlar sayesinde algoritmik dışlanmayı nasıl ortaya çıkardığımı gördünüz. Ama algoritmik yanlılık ayrımcı uygulamalara da yol açabilir. ABD çapında, polis merkezleri suçla mücadele cephaneliklerinde yüz tanıma yazılımını kullanmaya başladı. Georgetown Yasası ABD'de iki yetişkinden birinin - 117 milyon insanın- yüz tanıma ağında yüzlerinin bulunduğunu açıkladı. Polis merkezleri doğrulukları denetlenmemiş algoritmalar kullanarak bu ağları izinsiz görebilir. Biliyoruz ki yüz tanıma yanılmaz değil ve yüzlerin tutarlı etiketlenmesi hâlâ bir sorun. Bunu Facebook da görmüş olabilirsiniz. Arkadaşlarımla diğer insanların yanlış etiketlendiğini gördüğümüzde gülüyoruz. Şüpheli bir suçluyu yanlış tanımlamak gülünç bir mesele veya sivil özgürlükleri ihlal değil. Makine öğrenme yüz tanımada kullanılır ama bilgisayar görüş alanının ötesine de uzanıyor. Veri bilimcisi Cathy O'Neil "Matemetiksel İmha Silahları" kitabında, hayatımızın daha çok boyutunu etkileyen kararlar almak için kullanılan yaygın, gizemli ve yıkıcı algoritmalarla KİS'lerden bahsediyor. Peki işe alınan ya da kovulan kim? O krediyi alıyor musun? Sigortan var mı? Girmek istediğin üniversiteye kabul edildin mi? Aynı platformda satın alınan aynı ürün için sen ve ben aynı fiyatı mı ödüyoruz? Güvenlik polisi öngörücü polislik için otomatik öğrenmeyi kullanmaya başlıyor. Bazı hakimler hapis cezasını belirlemek için makine üretimli risk puanlarını kullanıyor. Bu kararları gerçekten düşünmek zorundayız. Adiller mi? Gördük ki algoritmik yanlılık her zaman adil sonuçlar getirmez. Peki biz ne yapabiliriz? Daha kapsamlı kod oluşturup kapsamlı kod uygulamalarını nasıl kullandığımızı düşünebiliriz. Bu, insanlarla başlar. Yani kimin kodladığı önemlidir. Birbirlerinin kör noktalarını görebilen farklı kişilerle tam spektrumlu takımlar oluşturabiliyor muyuz? Teknik olarak, nasıl kodladığımız önemli. Sistemi geliştirirken adaletle mi oluşturuyoruz? Son olarak niçin kodladığımız önemlidir. Harika zenginliğin kilidini açmak için işlemsel yaratma araçlarını kullandık. Sosyal değişimi sonraki düşünce değil, öncelik hâline getirirsek daha geniş eşitliği açma fırsatımız olur. "Incoding" hareketini oluşturan gerekli üç ilke var: Kimin kodladığı, nasıl kodladığı ve niçin kodladığı. Incoding'e yönelmek için benim paylaştıklarım gibi insanların deneyimlerini toplayarak yanlılığı belirleyen ve var olan yazılımı denetleyen platformlar oluşturmayı düşünmeye başlayabiliriz. Ayrıca daha kapsamlı eğitim setleri hazırlayabiliriz. Geliştiricilerin daha kapsamlı eğitim setleri oluşturmasına ve deneyebilmesine yardım ettiğimiz "Kaynaşmak için Özçekimler" kampanyasını düşünün. Ve şu an geliştirdiğimiz teknolojinin toplumsal etkileri konusunda daha vicdani düşünmeye başlayabiliriz. Incoding hareketini başlatmak için adaletle ilgilenen birinin kodlu bakışla savaşabileceği Algoritmik Adalet Ligi'ni başlattım. codedgaze.com'da yanlılığı bildirebilir, denetleme isteyebilir, deneyen olabilir, süren tartışmalara katılabilirsiniz, #codedgaze Sizi dâhil olmaya ve merkez sosyal değişime değer verdiğimiz ve teknolojinin sadece bir kısım için değil, herkes için işe yaradığı bir dünyaya davet ediyorum. Teşekkürler. (Alkış) Bir sorum var. Bu savaşta benimle misiniz? (Gülüşmeler) (Alkış)