0:00:01.041,0:00:04.175 Merhaba ben kodlar şairi Joy 0:00:04.199,0:00:09.192 görünmez bir gücün yükselişini[br]durdurma görevindeyim, 0:00:09.216,0:00:12.072 algoritmik yanlılık için kullandığım 0:00:12.096,0:00:15.405 "kodlu bakış" adını verdiğim bir güç. 0:00:15.429,0:00:19.729 Algoritmik yanlılık, insan yanlılığı gibi,[br]adaletsizlikle sonuçlanır. 0:00:19.753,0:00:25.775 Ama algoritmalar virüsler gibi büyük çapta 0:00:25.799,0:00:27.381 ve hızda yanlılığı yayabilirler. 0:00:27.943,0:00:32.330 Algoritmik yanlılık dışlayıcı deneyimlere 0:00:32.354,0:00:34.482 ve ayrımcı uygulamalara yol açabilir. 0:00:34.506,0:00:36.567 Ne demek istediğimi göstereyim. 0:00:36.980,0:00:39.416 (Video) Joy Boulamwini: Selam kamera.[br]Bir yüzüm var. 0:00:40.162,0:00:42.026 Yüzümü görebiliyor musunuz? 0:00:42.051,0:00:43.676 Gözlüksüz yüzüm? 0:00:43.701,0:00:45.915 Onun yüzünü görebilirsin. 0:00:46.237,0:00:48.482 Ya benimkini? 0:00:51.890,0:00:55.640 Maskem var. Maskemi görebiliyor musun? 0:00:56.474,0:00:58.839 Joy Boulamwini: Bu nasıl oldu? 0:00:58.863,0:01:01.848 Neden bilgisayarın önünde bir beyaz maske 0:01:01.848,0:01:03.452 ile oturuyor ve ucuz bir kamera 0:01:03.476,0:01:07.126 tarafından algılanmaya çalışıyorum? 0:01:07.150,0:01:09.441 Kod şairi olarak kodlu bakış ile 0:01:09.465,0:01:10.985 savaşmadığımda 0:01:11.009,0:01:14.281 MIT Medya Lab'ında lisanüstü öğrencisiyim 0:01:14.305,0:01:19.222 ve her tür garip projede[br]çalışma şansım var. 0:01:19.246,0:01:21.273 Buna yaptığım Aspire Mirror da dâhil. 0:01:21.297,0:01:26.431 Sayesinde yansımamın üzerine[br]dijital maskeler tasarlayabilirim. 0:01:26.455,0:01:28.805 Sabah eğer güçlü hissetmek istersem, 0:01:28.829,0:01:30.263 bir aslanı takabilirim. 0:01:30.287,0:01:33.783 Sevinçli olmak istiyorsam,[br]bir alıntı yapabilirim. 0:01:33.807,0:01:36.796 Sistemi oluşturmak için genel yüz tanıma 0:01:36.820,0:01:38.171 yazılımını kullandım. 0:01:38.195,0:01:43.298 Ama beyaz bir maske takmadıkça[br]sistemi test etmek gerçekten zordu. 0:01:44.282,0:01:48.628 Maalesef bu sorunla daha önce karşılaştım. 0:01:48.652,0:01:52.955 Georgia Tech de bilgisayar[br]bilimleri okurken, 0:01:52.979,0:01:55.034 sosyal robotlar üzerinde çalıştım 0:01:55.058,0:01:58.835 ve görevlerimden biri ce-ee[br]oynayan bir robot yapmaktı. 0:01:58.859,0:02:00.542 Partnerlerinizin yüzlerini kapayıp 0:02:00.566,0:02:04.887 sonra açıp ce-ee dedikleri bir oyun. 0:02:04.911,0:02:09.340 Problem şu ki sizi göremezsem[br]ce-ee işe yaramaz 0:02:09.364,0:02:11.863 ve robotum beni göremiyordu. 0:02:11.887,0:02:15.837 Projeyi tamamlamak için[br]arkadaşımın yüzünü ödünç aldım, 0:02:15.861,0:02:17.241 ödevimi sundum ve bu sorunu 0:02:17.265,0:02:21.018 başkasının çözeceğini varsaydım. 0:02:21.669,0:02:23.672 Daha sonra Hong Kong'da 0:02:23.696,0:02:27.855 bir girişimcilik yarışmasına katıldım. 0:02:28.339,0:02:31.033 Organizatörler yarışmacıların başlangıç 0:02:31.057,0:02:33.429 turuna katılmasına karar verdi. 0:02:33.453,0:02:36.168 Yarışmacılardan birinin [br]sosyal robotu vardı 0:02:36.192,0:02:38.104 ve demo yapmaya karar verdi. 0:02:38.128,0:02:41.108 Demo bana gelene kadar işe yaradı 0:02:41.132,0:02:43.055 ve ne olduğunu tahmin edebilirsiniz. 0:02:43.079,0:02:46.044 Robot yüzümü algılayamadı. 0:02:46.068,0:02:48.579 Geliştiricisine ne olduğunu sordum 0:02:48.603,0:02:54.136 ve fark ettik ki aynı genel[br]yüz tanıma yazılımını kullanıyormuşuz. 0:02:54.160,0:02:55.810 Dünyanın öbür ucunda 0:02:55.834,0:02:59.686 algoritmik yanlılığın[br]internetten dosya indirmek kadar 0:02:59.710,0:03:02.880 hızlı yolculuk yaptığını öğrendim. 0:03:03.745,0:03:06.821 Yani ne oluyor? Neden beni algılamıyor? 0:03:06.845,0:03:10.201 Makinelere nasıl görme yetisi[br]verdiğimize göz atmalıyız. 0:03:10.225,0:03:13.634 Bilgisayar görüşü yüzü tanımlamak için 0:03:13.658,0:03:15.538 makine öğrenme tekniklerini kullanır. 0:03:15.562,0:03:19.459 Bunun çalışma şekli sizin yüz örnekleriyle[br]eğitim seti oluşturmanızdır. 0:03:19.483,0:03:22.301 Bu bir yüz. Bu bir yüz.[br]Bu bir yüz değil. 0:03:22.325,0:03:26.844 Zamanla bilgisayara diğer yüzleri[br]nasıl tanımlayacağını öğretirsiniz. 0:03:26.868,0:03:30.857 Fakat eğitim seti kapsamlı değilse 0:03:30.881,0:03:34.230 sabit normdan çok fazla sapan bir yüzü 0:03:34.254,0:03:35.903 tanımlamak zor olacaktır. 0:03:35.927,0:03:37.890 Bana olduğu gibi. 0:03:37.914,0:03:40.296 Ama merak etmeyin - iyi haberlerim var. 0:03:40.320,0:03:43.091 Eğitim setleri bir anda ortaya çıkmaz. 0:03:43.115,0:03:44.903 Aslında biz onları yaratabiliriz. 0:03:44.927,0:03:49.103 Yani insanlığın daha zengin portresini 0:03:49.127,0:03:52.951 çıkaran tam spektrumlu[br]eğitim seti oluşturabiliriz. 0:03:52.975,0:03:55.196 Şimdi örneklerimde sosyal robotlar 0:03:55.220,0:03:56.988 sayesinde algoritmik dışlanmayı 0:03:57.012,0:04:01.623 nasıl ortaya çıkardığımı gördünüz. 0:04:01.647,0:04:06.462 Ama algoritmik yanlılık ayrımcı[br]uygulamalara da yol açabilir. 0:04:07.437,0:04:08.890 ABD çapında, polis merkezleri 0:04:08.914,0:04:13.112 suçla mücadele cephaneliklerinde 0:04:13.136,0:04:15.595 yüz tanıma yazılımını kullanmaya başladı. 0:04:15.619,0:04:17.632 Georgetown Yasası ABD'de iki yetişkinden 0:04:17.656,0:04:24.419 birinin - 117 milyon insanın- yüz tanıma 0:04:24.443,0:04:27.977 ağında yüzlerinin bulunduğunu açıkladı. 0:04:28.001,0:04:32.553 Polis merkezleri doğrulukları[br]denetlenmemiş 0:04:32.577,0:04:36.863 algoritmalar kullanarak[br]bu ağları izinsiz görebilir. 0:04:36.887,0:04:40.751 Biliyoruz ki yüz tanıma yanılmaz değil 0:04:40.775,0:04:44.918 ve yüzlerin tutarlı etiketlenmesi[br]hâlâ bir sorun. 0:04:44.918,0:04:46.740 Bunu Facebook da görmüş olabilirsiniz. 0:04:46.764,0:04:49.752 Arkadaşlarımla diğer insanların yanlış 0:04:49.776,0:04:52.234 etiketlendiğini gördüğümüzde gülüyoruz. 0:04:52.258,0:04:57.849 Şüpheli bir suçluyu yanlış tanımlamak[br]gülünç bir mesele 0:04:57.873,0:05:00.700 veya sivil özgürlükleri ihlal değil. 0:05:00.724,0:05:03.929 Makine öğrenme yüz tanımada kullanılır 0:05:03.953,0:05:08.458 ama bilgisayar görüş alanının[br]ötesine de uzanıyor. 0:05:09.266,0:05:13.282 Veri bilimcisi Cathy O'Neil 0:05:13.306,0:05:19.987 "Matemetiksel İmha Silahları"[br]kitabında, hayatımızın 0:05:20.011,0:05:24.364 daha çok boyutunu etkileyen kararlar 0:05:24.388,0:05:27.352 almak için kullanılan yaygın,[br]gizemli ve yıkıcı 0:05:27.376,0:05:30.553 algoritmalarla KİS'lerden bahsediyor. 0:05:30.577,0:05:32.447 Peki işe alınan ya da kovulan kim? 0:05:32.471,0:05:34.583 O krediyi alıyor musun? Sigortan var mı? 0:05:34.607,0:05:38.110 Girmek istediğin üniversiteye[br]kabul edildin mi? 0:05:38.134,0:05:41.643 Aynı platformda satın alınan[br]aynı ürün için 0:05:41.667,0:05:44.109 sen ve ben aynı fiyatı mı ödüyoruz? 0:05:44.133,0:05:47.892 Güvenlik polisi öngörücü polislik için 0:05:47.916,0:05:50.205 otomatik öğrenmeyi kullanmaya başlıyor. 0:05:50.229,0:05:53.723 Bazı hakimler hapis cezasını 0:05:53.747,0:05:58.149 belirlemek için makine üretimli[br]risk puanlarını kullanıyor. 0:05:58.173,0:06:00.627 Bu kararları gerçekten [br]düşünmek zorundayız. 0:06:00.651,0:06:01.833 Adiller mi? 0:06:01.857,0:06:04.747 Gördük ki algoritmik yanlılık her zaman 0:06:04.771,0:06:08.145 adil sonuçlar getirmez. 0:06:08.169,0:06:10.133 Peki biz ne yapabiliriz? 0:06:10.157,0:06:13.837 Daha kapsamlı kod oluşturup[br]kapsamlı kod uygulamalarını 0:06:13.861,0:06:16.851 nasıl kullandığımızı düşünebiliriz. 0:06:16.875,0:06:19.184 Bu, insanlarla başlar. 0:06:19.708,0:06:21.669 Yani kimin kodladığı önemlidir. 0:06:21.693,0:06:25.812 Birbirlerinin kör noktalarını görebilen[br]farklı kişilerle tam spektrumlu 0:06:25.836,0:06:28.247 takımlar oluşturabiliyor muyuz? 0:06:28.271,0:06:31.816 Teknik olarak, nasıl kodladığımız önemli. 0:06:31.840,0:06:35.491 Sistemi geliştirirken adaletle[br]mi oluşturuyoruz? 0:06:35.515,0:06:38.428 Son olarak niçin kodladığımız önemlidir. 0:06:38.785,0:06:43.868 Harika zenginliğin kilidini açmak için[br]işlemsel yaratma araçlarını kullandık. 0:06:43.892,0:06:48.339 Sosyal değişimi sonraki düşünce değil, 0:06:48.363,0:06:51.293 öncelik hâline getirirsek daha geniş 0:06:51.317,0:06:53.487 eşitliği açma fırsatımız olur. 0:06:54.008,0:06:58.530 "Incoding" hareketini oluşturan[br]gerekli üç ilke var: 0:06:58.554,0:07:00.206 Kimin kodladığı, 0:07:00.230,0:07:01.773 nasıl kodladığı 0:07:01.797,0:07:03.820 ve niçin kodladığı. 0:07:03.844,0:07:06.943 Incoding'e yönelmek için[br]benim paylaştıklarım 0:07:06.967,0:07:10.131 gibi insanların deneyimlerini toplayarak 0:07:10.155,0:07:13.233 yanlılığı belirleyen ve var olan yazılımı 0:07:13.257,0:07:16.327 denetleyen platformlar oluşturmayı[br]düşünmeye başlayabiliriz. 0:07:16.351,0:07:20.116 Ayrıca daha kapsamlı[br]eğitim setleri hazırlayabiliriz. 0:07:20.140,0:07:22.943 Geliştiricilerin daha kapsamlı[br]eğitim setleri oluşturmasına 0:07:22.967,0:07:26.622 ve deneyebilmesine yardım[br]ettiğimiz "Kaynaşmak için Özçekimler" 0:07:26.646,0:07:28.739 kampanyasını düşünün. 0:07:29.302,0:07:32.130 Ve şu an geliştirdiğimiz[br]teknolojinin toplumsal etkileri 0:07:32.154,0:07:37.545 konusunda daha vicdani[br]düşünmeye başlayabiliriz. 0:07:37.569,0:07:39.962 Incoding hareketini başlatmak için 0:07:39.986,0:07:42.833 adaletle ilgilenen birinin kodlu [br]bakışla savaşabileceği 0:07:42.857,0:07:48.729 Algoritmik Adalet Ligi'ni başlattım. 0:07:48.753,0:07:52.033 codedgaze.com'da yanlılığı bildirebilir, 0:07:52.033,0:07:54.518 denetleme isteyebilir, deneyen olabilir, 0:07:54.542,0:07:56.532 süren tartışmalara katılabilirsiniz, 0:07:57.342,0:07:59.327 #codedgaze 0:08:00.739,0:08:02.964 Sizi dâhil olmaya ve[br]merkez sosyal değişime 0:08:02.994,0:08:06.761 değer verdiğimiz ve teknolojinin [br]sadece bir kısım için değil, 0:08:06.781,0:08:08.910 herkes için işe yaradığı 0:08:08.920,0:08:13.217 bir dünyaya davet ediyorum. 0:08:13.257,0:08:14.713 Teşekkürler. 0:08:14.733,0:08:15.908 (Alkış) 0:08:20.873,0:08:23.284 Bir sorum var. 0:08:23.754,0:08:25.728 Bu savaşta benimle misiniz? 0:08:25.828,0:08:27.057 (Gülüşmeler) 0:08:27.137,0:08:28.269 (Alkış)