1 00:00:01,041 --> 00:00:04,175 Merhaba ben kodlar şairi Joy 2 00:00:04,199 --> 00:00:09,192 görünmez bir gücün yükselişini durdurma görevindeyim, 3 00:00:09,216 --> 00:00:12,072 algoritmik yanlılık için kullandığım 4 00:00:12,096 --> 00:00:15,405 "kodlu bakış" adını verdiğim bir güç. 5 00:00:15,429 --> 00:00:19,729 Algoritmik yanlılık, insan yanlılığı gibi, adaletsizlikle sonuçlanır. 6 00:00:19,753 --> 00:00:25,775 Ama algoritmalar virüsler gibi büyük çapta 7 00:00:25,799 --> 00:00:27,381 ve hızda yanlılığı yayabilirler. 8 00:00:27,943 --> 00:00:32,330 Algoritmik yanlılık dışlayıcı deneyimlere 9 00:00:32,354 --> 00:00:34,482 ve ayrımcı uygulamalara yol açabilir. 10 00:00:34,506 --> 00:00:36,567 Ne demek istediğimi göstereyim. 11 00:00:36,980 --> 00:00:39,416 (Video) Joy Boulamwini: Selam kamera. Bir yüzüm var. 12 00:00:40,162 --> 00:00:42,026 Yüzümü görebiliyor musunuz? 13 00:00:42,051 --> 00:00:43,676 Gözlüksüz yüzüm? 14 00:00:43,701 --> 00:00:45,915 Onun yüzünü görebilirsin. 15 00:00:46,237 --> 00:00:48,482 Ya benimkini? 16 00:00:51,890 --> 00:00:55,640 Maskem var. Maskemi görebiliyor musun? 17 00:00:56,474 --> 00:00:58,839 Joy Boulamwini: Bu nasıl oldu? 18 00:00:58,863 --> 00:01:01,848 Neden bilgisayarın önünde bir beyaz maske 19 00:01:01,848 --> 00:01:03,452 ile oturuyor ve ucuz bir kamera 20 00:01:03,476 --> 00:01:07,126 tarafından algılanmaya çalışıyorum? 21 00:01:07,150 --> 00:01:09,441 Kod şairi olarak kodlu bakış ile 22 00:01:09,465 --> 00:01:10,985 savaşmadığımda 23 00:01:11,009 --> 00:01:14,281 MIT Medya Lab'ında lisanüstü öğrencisiyim 24 00:01:14,305 --> 00:01:19,222 ve her tür garip projede çalışma şansım var. 25 00:01:19,246 --> 00:01:21,273 Buna yaptığım Aspire Mirror da dâhil. 26 00:01:21,297 --> 00:01:26,431 Sayesinde yansımamın üzerine dijital maskeler tasarlayabilirim. 27 00:01:26,455 --> 00:01:28,805 Sabah eğer güçlü hissetmek istersem, 28 00:01:28,829 --> 00:01:30,263 bir aslanı takabilirim. 29 00:01:30,287 --> 00:01:33,783 Sevinçli olmak istiyorsam, bir alıntı yapabilirim. 30 00:01:33,807 --> 00:01:36,796 Sistemi oluşturmak için genel yüz tanıma 31 00:01:36,820 --> 00:01:38,171 yazılımını kullandım. 32 00:01:38,195 --> 00:01:43,298 Ama beyaz bir maske takmadıkça sistemi test etmek gerçekten zordu. 33 00:01:44,282 --> 00:01:48,628 Maalesef bu sorunla daha önce karşılaştım. 34 00:01:48,652 --> 00:01:52,955 Georgia Tech de bilgisayar bilimleri okurken, 35 00:01:52,979 --> 00:01:55,034 sosyal robotlar üzerinde çalıştım 36 00:01:55,058 --> 00:01:58,835 ve görevlerimden biri ce-ee oynayan bir robot yapmaktı. 37 00:01:58,859 --> 00:02:00,542 Partnerlerinizin yüzlerini kapayıp 38 00:02:00,566 --> 00:02:04,887 sonra açıp ce-ee dedikleri bir oyun. 39 00:02:04,911 --> 00:02:09,340 Problem şu ki sizi göremezsem ce-ee işe yaramaz 40 00:02:09,364 --> 00:02:11,863 ve robotum beni göremiyordu. 41 00:02:11,887 --> 00:02:15,837 Projeyi tamamlamak için arkadaşımın yüzünü ödünç aldım, 42 00:02:15,861 --> 00:02:17,241 ödevimi sundum ve bu sorunu 43 00:02:17,265 --> 00:02:21,018 başkasının çözeceğini varsaydım. 44 00:02:21,669 --> 00:02:23,672 Daha sonra Hong Kong'da 45 00:02:23,696 --> 00:02:27,855 bir girişimcilik yarışmasına katıldım. 46 00:02:28,339 --> 00:02:31,033 Organizatörler yarışmacıların başlangıç 47 00:02:31,057 --> 00:02:33,429 turuna katılmasına karar verdi. 48 00:02:33,453 --> 00:02:36,168 Yarışmacılardan birinin sosyal robotu vardı 49 00:02:36,192 --> 00:02:38,104 ve demo yapmaya karar verdi. 50 00:02:38,128 --> 00:02:41,108 Demo bana gelene kadar işe yaradı 51 00:02:41,132 --> 00:02:43,055 ve ne olduğunu tahmin edebilirsiniz. 52 00:02:43,079 --> 00:02:46,044 Robot yüzümü algılayamadı. 53 00:02:46,068 --> 00:02:48,579 Geliştiricisine ne olduğunu sordum 54 00:02:48,603 --> 00:02:54,136 ve fark ettik ki aynı genel yüz tanıma yazılımını kullanıyormuşuz. 55 00:02:54,160 --> 00:02:55,810 Dünyanın öbür ucunda 56 00:02:55,834 --> 00:02:59,686 algoritmik yanlılığın internetten dosya indirmek kadar 57 00:02:59,710 --> 00:03:02,880 hızlı yolculuk yaptığını öğrendim. 58 00:03:03,745 --> 00:03:06,821 Yani ne oluyor? Neden beni algılamıyor? 59 00:03:06,845 --> 00:03:10,201 Makinelere nasıl görme yetisi verdiğimize göz atmalıyız. 60 00:03:10,225 --> 00:03:13,634 Bilgisayar görüşü yüzü tanımlamak için 61 00:03:13,658 --> 00:03:15,538 makine öğrenme tekniklerini kullanır. 62 00:03:15,562 --> 00:03:19,459 Bunun çalışma şekli sizin yüz örnekleriyle eğitim seti oluşturmanızdır. 63 00:03:19,483 --> 00:03:22,301 Bu bir yüz. Bu bir yüz. Bu bir yüz değil. 64 00:03:22,325 --> 00:03:26,844 Zamanla bilgisayara diğer yüzleri nasıl tanımlayacağını öğretirsiniz. 65 00:03:26,868 --> 00:03:30,857 Fakat eğitim seti kapsamlı değilse 66 00:03:30,881 --> 00:03:34,230 sabit normdan çok fazla sapan bir yüzü 67 00:03:34,254 --> 00:03:35,903 tanımlamak zor olacaktır. 68 00:03:35,927 --> 00:03:37,890 Bana olduğu gibi. 69 00:03:37,914 --> 00:03:40,296 Ama merak etmeyin - iyi haberlerim var. 70 00:03:40,320 --> 00:03:43,091 Eğitim setleri bir anda ortaya çıkmaz. 71 00:03:43,115 --> 00:03:44,903 Aslında biz onları yaratabiliriz. 72 00:03:44,927 --> 00:03:49,103 Yani insanlığın daha zengin portresini 73 00:03:49,127 --> 00:03:52,951 çıkaran tam spektrumlu eğitim seti oluşturabiliriz. 74 00:03:52,975 --> 00:03:55,196 Şimdi örneklerimde sosyal robotlar 75 00:03:55,220 --> 00:03:56,988 sayesinde algoritmik dışlanmayı 76 00:03:57,012 --> 00:04:01,623 nasıl ortaya çıkardığımı gördünüz. 77 00:04:01,647 --> 00:04:06,462 Ama algoritmik yanlılık ayrımcı uygulamalara da yol açabilir. 78 00:04:07,437 --> 00:04:08,890 ABD çapında, polis merkezleri 79 00:04:08,914 --> 00:04:13,112 suçla mücadele cephaneliklerinde 80 00:04:13,136 --> 00:04:15,595 yüz tanıma yazılımını kullanmaya başladı. 81 00:04:15,619 --> 00:04:17,632 Georgetown Yasası ABD'de iki yetişkinden 82 00:04:17,656 --> 00:04:24,419 birinin - 117 milyon insanın- yüz tanıma 83 00:04:24,443 --> 00:04:27,977 ağında yüzlerinin bulunduğunu açıkladı. 84 00:04:28,001 --> 00:04:32,553 Polis merkezleri doğrulukları denetlenmemiş 85 00:04:32,577 --> 00:04:36,863 algoritmalar kullanarak bu ağları izinsiz görebilir. 86 00:04:36,887 --> 00:04:40,751 Biliyoruz ki yüz tanıma yanılmaz değil 87 00:04:40,775 --> 00:04:44,918 ve yüzlerin tutarlı etiketlenmesi hâlâ bir sorun. 88 00:04:44,918 --> 00:04:46,740 Bunu Facebook da görmüş olabilirsiniz. 89 00:04:46,764 --> 00:04:49,752 Arkadaşlarımla diğer insanların yanlış 90 00:04:49,776 --> 00:04:52,234 etiketlendiğini gördüğümüzde gülüyoruz. 91 00:04:52,258 --> 00:04:57,849 Şüpheli bir suçluyu yanlış tanımlamak gülünç bir mesele 92 00:04:57,873 --> 00:05:00,700 veya sivil özgürlükleri ihlal değil. 93 00:05:00,724 --> 00:05:03,929 Makine öğrenme yüz tanımada kullanılır 94 00:05:03,953 --> 00:05:08,458 ama bilgisayar görüş alanının ötesine de uzanıyor. 95 00:05:09,266 --> 00:05:13,282 Veri bilimcisi Cathy O'Neil 96 00:05:13,306 --> 00:05:19,987 "Matemetiksel İmha Silahları" kitabında, hayatımızın 97 00:05:20,011 --> 00:05:24,364 daha çok boyutunu etkileyen kararlar 98 00:05:24,388 --> 00:05:27,352 almak için kullanılan yaygın, gizemli ve yıkıcı 99 00:05:27,376 --> 00:05:30,553 algoritmalarla KİS'lerden bahsediyor. 100 00:05:30,577 --> 00:05:32,447 Peki işe alınan ya da kovulan kim? 101 00:05:32,471 --> 00:05:34,583 O krediyi alıyor musun? Sigortan var mı? 102 00:05:34,607 --> 00:05:38,110 Girmek istediğin üniversiteye kabul edildin mi? 103 00:05:38,134 --> 00:05:41,643 Aynı platformda satın alınan aynı ürün için 104 00:05:41,667 --> 00:05:44,109 sen ve ben aynı fiyatı mı ödüyoruz? 105 00:05:44,133 --> 00:05:47,892 Güvenlik polisi öngörücü polislik için 106 00:05:47,916 --> 00:05:50,205 otomatik öğrenmeyi kullanmaya başlıyor. 107 00:05:50,229 --> 00:05:53,723 Bazı hakimler hapis cezasını 108 00:05:53,747 --> 00:05:58,149 belirlemek için makine üretimli risk puanlarını kullanıyor. 109 00:05:58,173 --> 00:06:00,627 Bu kararları gerçekten düşünmek zorundayız. 110 00:06:00,651 --> 00:06:01,833 Adiller mi? 111 00:06:01,857 --> 00:06:04,747 Gördük ki algoritmik yanlılık her zaman 112 00:06:04,771 --> 00:06:08,145 adil sonuçlar getirmez. 113 00:06:08,169 --> 00:06:10,133 Peki biz ne yapabiliriz? 114 00:06:10,157 --> 00:06:13,837 Daha kapsamlı kod oluşturup kapsamlı kod uygulamalarını 115 00:06:13,861 --> 00:06:16,851 nasıl kullandığımızı düşünebiliriz. 116 00:06:16,875 --> 00:06:19,184 Bu, insanlarla başlar. 117 00:06:19,708 --> 00:06:21,669 Yani kimin kodladığı önemlidir. 118 00:06:21,693 --> 00:06:25,812 Birbirlerinin kör noktalarını görebilen farklı kişilerle tam spektrumlu 119 00:06:25,836 --> 00:06:28,247 takımlar oluşturabiliyor muyuz? 120 00:06:28,271 --> 00:06:31,816 Teknik olarak, nasıl kodladığımız önemli. 121 00:06:31,840 --> 00:06:35,491 Sistemi geliştirirken adaletle mi oluşturuyoruz? 122 00:06:35,515 --> 00:06:38,428 Son olarak niçin kodladığımız önemlidir. 123 00:06:38,785 --> 00:06:43,868 Harika zenginliğin kilidini açmak için işlemsel yaratma araçlarını kullandık. 124 00:06:43,892 --> 00:06:48,339 Sosyal değişimi sonraki düşünce değil, 125 00:06:48,363 --> 00:06:51,293 öncelik hâline getirirsek daha geniş 126 00:06:51,317 --> 00:06:53,487 eşitliği açma fırsatımız olur. 127 00:06:54,008 --> 00:06:58,530 "Incoding" hareketini oluşturan gerekli üç ilke var: 128 00:06:58,554 --> 00:07:00,206 Kimin kodladığı, 129 00:07:00,230 --> 00:07:01,773 nasıl kodladığı 130 00:07:01,797 --> 00:07:03,820 ve niçin kodladığı. 131 00:07:03,844 --> 00:07:06,943 Incoding'e yönelmek için benim paylaştıklarım 132 00:07:06,967 --> 00:07:10,131 gibi insanların deneyimlerini toplayarak 133 00:07:10,155 --> 00:07:13,233 yanlılığı belirleyen ve var olan yazılımı 134 00:07:13,257 --> 00:07:16,327 denetleyen platformlar oluşturmayı düşünmeye başlayabiliriz. 135 00:07:16,351 --> 00:07:20,116 Ayrıca daha kapsamlı eğitim setleri hazırlayabiliriz. 136 00:07:20,140 --> 00:07:22,943 Geliştiricilerin daha kapsamlı eğitim setleri oluşturmasına 137 00:07:22,967 --> 00:07:26,622 ve deneyebilmesine yardım ettiğimiz "Kaynaşmak için Özçekimler" 138 00:07:26,646 --> 00:07:28,739 kampanyasını düşünün. 139 00:07:29,302 --> 00:07:32,130 Ve şu an geliştirdiğimiz teknolojinin toplumsal etkileri 140 00:07:32,154 --> 00:07:37,545 konusunda daha vicdani düşünmeye başlayabiliriz. 141 00:07:37,569 --> 00:07:39,962 Incoding hareketini başlatmak için 142 00:07:39,986 --> 00:07:42,833 adaletle ilgilenen birinin kodlu bakışla savaşabileceği 143 00:07:42,857 --> 00:07:48,729 Algoritmik Adalet Ligi'ni başlattım. 144 00:07:48,753 --> 00:07:52,033 codedgaze.com'da yanlılığı bildirebilir, 145 00:07:52,033 --> 00:07:54,518 denetleme isteyebilir, deneyen olabilir, 146 00:07:54,542 --> 00:07:56,532 süren tartışmalara katılabilirsiniz, 147 00:07:57,342 --> 00:07:59,327 #codedgaze 148 00:08:00,739 --> 00:08:02,964 Sizi dâhil olmaya ve merkez sosyal değişime 149 00:08:02,994 --> 00:08:06,761 değer verdiğimiz ve teknolojinin sadece bir kısım için değil, 150 00:08:06,781 --> 00:08:08,910 herkes için işe yaradığı 151 00:08:08,920 --> 00:08:13,217 bir dünyaya davet ediyorum. 152 00:08:13,257 --> 00:08:14,713 Teşekkürler. 153 00:08:14,733 --> 00:08:15,908 (Alkış) 154 00:08:20,873 --> 00:08:23,284 Bir sorum var. 155 00:08:23,754 --> 00:08:25,728 Bu savaşta benimle misiniz? 156 00:08:25,828 --> 00:08:27,057 (Gülüşmeler) 157 00:08:27,137 --> 00:08:28,269 (Alkış)