Algoritmalardaki yanlılık ile nasıl savaşıyorum
-
0:01 - 0:04Merhaba ben kodlar şairi Joy
-
0:04 - 0:09görünmez bir gücün yükselişini
durdurma görevindeyim, -
0:09 - 0:12algoritmik yanlılık için kullandığım
-
0:12 - 0:15"kodlu bakış" adını verdiğim bir güç.
-
0:15 - 0:20Algoritmik yanlılık, insan yanlılığı gibi,
adaletsizlikle sonuçlanır. -
0:20 - 0:26Ama algoritmalar virüsler gibi büyük çapta
-
0:26 - 0:27ve hızda yanlılığı yayabilirler.
-
0:28 - 0:32Algoritmik yanlılık dışlayıcı deneyimlere
-
0:32 - 0:34ve ayrımcı uygulamalara yol açabilir.
-
0:35 - 0:37Ne demek istediğimi göstereyim.
-
0:37 - 0:39(Video) Joy Boulamwini: Selam kamera.
Bir yüzüm var. -
0:40 - 0:42Yüzümü görebiliyor musunuz?
-
0:42 - 0:44Gözlüksüz yüzüm?
-
0:44 - 0:46Onun yüzünü görebilirsin.
-
0:46 - 0:48Ya benimkini?
-
0:52 - 0:56Maskem var. Maskemi görebiliyor musun?
-
0:56 - 0:59Joy Boulamwini: Bu nasıl oldu?
-
0:59 - 1:02Neden bilgisayarın önünde bir beyaz maske
-
1:02 - 1:03ile oturuyor ve ucuz bir kamera
-
1:03 - 1:07tarafından algılanmaya çalışıyorum?
-
1:07 - 1:09Kod şairi olarak kodlu bakış ile
-
1:09 - 1:11savaşmadığımda
-
1:11 - 1:14MIT Medya Lab'ında lisanüstü öğrencisiyim
-
1:14 - 1:19ve her tür garip projede
çalışma şansım var. -
1:19 - 1:21Buna yaptığım Aspire Mirror da dâhil.
-
1:21 - 1:26Sayesinde yansımamın üzerine
dijital maskeler tasarlayabilirim. -
1:26 - 1:29Sabah eğer güçlü hissetmek istersem,
-
1:29 - 1:30bir aslanı takabilirim.
-
1:30 - 1:34Sevinçli olmak istiyorsam,
bir alıntı yapabilirim. -
1:34 - 1:37Sistemi oluşturmak için genel yüz tanıma
-
1:37 - 1:38yazılımını kullandım.
-
1:38 - 1:43Ama beyaz bir maske takmadıkça
sistemi test etmek gerçekten zordu. -
1:44 - 1:49Maalesef bu sorunla daha önce karşılaştım.
-
1:49 - 1:53Georgia Tech de bilgisayar
bilimleri okurken, -
1:53 - 1:55sosyal robotlar üzerinde çalıştım
-
1:55 - 1:59ve görevlerimden biri ce-ee
oynayan bir robot yapmaktı. -
1:59 - 2:01Partnerlerinizin yüzlerini kapayıp
-
2:01 - 2:05sonra açıp ce-ee dedikleri bir oyun.
-
2:05 - 2:09Problem şu ki sizi göremezsem
ce-ee işe yaramaz -
2:09 - 2:12ve robotum beni göremiyordu.
-
2:12 - 2:16Projeyi tamamlamak için
arkadaşımın yüzünü ödünç aldım, -
2:16 - 2:17ödevimi sundum ve bu sorunu
-
2:17 - 2:21başkasının çözeceğini varsaydım.
-
2:22 - 2:24Daha sonra Hong Kong'da
-
2:24 - 2:28bir girişimcilik yarışmasına katıldım.
-
2:28 - 2:31Organizatörler yarışmacıların başlangıç
-
2:31 - 2:33turuna katılmasına karar verdi.
-
2:33 - 2:36Yarışmacılardan birinin
sosyal robotu vardı -
2:36 - 2:38ve demo yapmaya karar verdi.
-
2:38 - 2:41Demo bana gelene kadar işe yaradı
-
2:41 - 2:43ve ne olduğunu tahmin edebilirsiniz.
-
2:43 - 2:46Robot yüzümü algılayamadı.
-
2:46 - 2:49Geliştiricisine ne olduğunu sordum
-
2:49 - 2:54ve fark ettik ki aynı genel
yüz tanıma yazılımını kullanıyormuşuz. -
2:54 - 2:56Dünyanın öbür ucunda
-
2:56 - 3:00algoritmik yanlılığın
internetten dosya indirmek kadar -
3:00 - 3:03hızlı yolculuk yaptığını öğrendim.
-
3:04 - 3:07Yani ne oluyor? Neden beni algılamıyor?
-
3:07 - 3:10Makinelere nasıl görme yetisi
verdiğimize göz atmalıyız. -
3:10 - 3:14Bilgisayar görüşü yüzü tanımlamak için
-
3:14 - 3:16makine öğrenme tekniklerini kullanır.
-
3:16 - 3:19Bunun çalışma şekli sizin yüz örnekleriyle
eğitim seti oluşturmanızdır. -
3:19 - 3:22Bu bir yüz. Bu bir yüz.
Bu bir yüz değil. -
3:22 - 3:27Zamanla bilgisayara diğer yüzleri
nasıl tanımlayacağını öğretirsiniz. -
3:27 - 3:31Fakat eğitim seti kapsamlı değilse
-
3:31 - 3:34sabit normdan çok fazla sapan bir yüzü
-
3:34 - 3:36tanımlamak zor olacaktır.
-
3:36 - 3:38Bana olduğu gibi.
-
3:38 - 3:40Ama merak etmeyin - iyi haberlerim var.
-
3:40 - 3:43Eğitim setleri bir anda ortaya çıkmaz.
-
3:43 - 3:45Aslında biz onları yaratabiliriz.
-
3:45 - 3:49Yani insanlığın daha zengin portresini
-
3:49 - 3:53çıkaran tam spektrumlu
eğitim seti oluşturabiliriz. -
3:53 - 3:55Şimdi örneklerimde sosyal robotlar
-
3:55 - 3:57sayesinde algoritmik dışlanmayı
-
3:57 - 4:02nasıl ortaya çıkardığımı gördünüz.
-
4:02 - 4:06Ama algoritmik yanlılık ayrımcı
uygulamalara da yol açabilir. -
4:07 - 4:09ABD çapında, polis merkezleri
-
4:09 - 4:13suçla mücadele cephaneliklerinde
-
4:13 - 4:16yüz tanıma yazılımını kullanmaya başladı.
-
4:16 - 4:18Georgetown Yasası ABD'de iki yetişkinden
-
4:18 - 4:24birinin - 117 milyon insanın- yüz tanıma
-
4:24 - 4:28ağında yüzlerinin bulunduğunu açıkladı.
-
4:28 - 4:33Polis merkezleri doğrulukları
denetlenmemiş -
4:33 - 4:37algoritmalar kullanarak
bu ağları izinsiz görebilir. -
4:37 - 4:41Biliyoruz ki yüz tanıma yanılmaz değil
-
4:41 - 4:45ve yüzlerin tutarlı etiketlenmesi
hâlâ bir sorun. -
4:45 - 4:47Bunu Facebook da görmüş olabilirsiniz.
-
4:47 - 4:50Arkadaşlarımla diğer insanların yanlış
-
4:50 - 4:52etiketlendiğini gördüğümüzde gülüyoruz.
-
4:52 - 4:58Şüpheli bir suçluyu yanlış tanımlamak
gülünç bir mesele -
4:58 - 5:01veya sivil özgürlükleri ihlal değil.
-
5:01 - 5:04Makine öğrenme yüz tanımada kullanılır
-
5:04 - 5:08ama bilgisayar görüş alanının
ötesine de uzanıyor. -
5:09 - 5:13Veri bilimcisi Cathy O'Neil
-
5:13 - 5:20"Matemetiksel İmha Silahları"
kitabında, hayatımızın -
5:20 - 5:24daha çok boyutunu etkileyen kararlar
-
5:24 - 5:27almak için kullanılan yaygın,
gizemli ve yıkıcı -
5:27 - 5:31algoritmalarla KİS'lerden bahsediyor.
-
5:31 - 5:32Peki işe alınan ya da kovulan kim?
-
5:32 - 5:35O krediyi alıyor musun? Sigortan var mı?
-
5:35 - 5:38Girmek istediğin üniversiteye
kabul edildin mi? -
5:38 - 5:42Aynı platformda satın alınan
aynı ürün için -
5:42 - 5:44sen ve ben aynı fiyatı mı ödüyoruz?
-
5:44 - 5:48Güvenlik polisi öngörücü polislik için
-
5:48 - 5:50otomatik öğrenmeyi kullanmaya başlıyor.
-
5:50 - 5:54Bazı hakimler hapis cezasını
-
5:54 - 5:58belirlemek için makine üretimli
risk puanlarını kullanıyor. -
5:58 - 6:01Bu kararları gerçekten
düşünmek zorundayız. -
6:01 - 6:02Adiller mi?
-
6:02 - 6:05Gördük ki algoritmik yanlılık her zaman
-
6:05 - 6:08adil sonuçlar getirmez.
-
6:08 - 6:10Peki biz ne yapabiliriz?
-
6:10 - 6:14Daha kapsamlı kod oluşturup
kapsamlı kod uygulamalarını -
6:14 - 6:17nasıl kullandığımızı düşünebiliriz.
-
6:17 - 6:19Bu, insanlarla başlar.
-
6:20 - 6:22Yani kimin kodladığı önemlidir.
-
6:22 - 6:26Birbirlerinin kör noktalarını görebilen
farklı kişilerle tam spektrumlu -
6:26 - 6:28takımlar oluşturabiliyor muyuz?
-
6:28 - 6:32Teknik olarak, nasıl kodladığımız önemli.
-
6:32 - 6:35Sistemi geliştirirken adaletle
mi oluşturuyoruz? -
6:36 - 6:38Son olarak niçin kodladığımız önemlidir.
-
6:39 - 6:44Harika zenginliğin kilidini açmak için
işlemsel yaratma araçlarını kullandık. -
6:44 - 6:48Sosyal değişimi sonraki düşünce değil,
-
6:48 - 6:51öncelik hâline getirirsek daha geniş
-
6:51 - 6:53eşitliği açma fırsatımız olur.
-
6:54 - 6:59"Incoding" hareketini oluşturan
gerekli üç ilke var: -
6:59 - 7:00Kimin kodladığı,
-
7:00 - 7:02nasıl kodladığı
-
7:02 - 7:04ve niçin kodladığı.
-
7:04 - 7:07Incoding'e yönelmek için
benim paylaştıklarım -
7:07 - 7:10gibi insanların deneyimlerini toplayarak
-
7:10 - 7:13yanlılığı belirleyen ve var olan yazılımı
-
7:13 - 7:16denetleyen platformlar oluşturmayı
düşünmeye başlayabiliriz. -
7:16 - 7:20Ayrıca daha kapsamlı
eğitim setleri hazırlayabiliriz. -
7:20 - 7:23Geliştiricilerin daha kapsamlı
eğitim setleri oluşturmasına -
7:23 - 7:27ve deneyebilmesine yardım
ettiğimiz "Kaynaşmak için Özçekimler" -
7:27 - 7:29kampanyasını düşünün.
-
7:29 - 7:32Ve şu an geliştirdiğimiz
teknolojinin toplumsal etkileri -
7:32 - 7:38konusunda daha vicdani
düşünmeye başlayabiliriz. -
7:38 - 7:40Incoding hareketini başlatmak için
-
7:40 - 7:43adaletle ilgilenen birinin kodlu
bakışla savaşabileceği -
7:43 - 7:49Algoritmik Adalet Ligi'ni başlattım.
-
7:49 - 7:52codedgaze.com'da yanlılığı bildirebilir,
-
7:52 - 7:55denetleme isteyebilir, deneyen olabilir,
-
7:55 - 7:57süren tartışmalara katılabilirsiniz,
-
7:57 - 7:59#codedgaze
-
8:01 - 8:03Sizi dâhil olmaya ve
merkez sosyal değişime -
8:03 - 8:07değer verdiğimiz ve teknolojinin
sadece bir kısım için değil, -
8:07 - 8:09herkes için işe yaradığı
-
8:09 - 8:13bir dünyaya davet ediyorum.
-
8:13 - 8:15Teşekkürler.
-
8:15 - 8:16(Alkış)
-
8:21 - 8:23Bir sorum var.
-
8:24 - 8:26Bu savaşta benimle misiniz?
-
8:26 - 8:27(Gülüşmeler)
-
8:27 - 8:28(Alkış)
- Title:
- Algoritmalardaki yanlılık ile nasıl savaşıyorum
- Speaker:
- Joy Boulamwini
- Description:
-
MIT mezunu Joy Boulamwini bir problemin farkına vardığında yüz tanıma yazılımı üzerinde çalışıyordu: Yazılım onun yüzünü tanımlamadı. Çünkü algoritmayı kodlayan kişi cilt rengini ve yüz yapısı gibi bilgileri tanımlamayı ona öğretmemişti. Şimdi "kodlu bakış" diye adlandırdığı makine öğrenme konusundaki yanlılık ile savaşma görevinde. Kodlamada izlenebilirlik ihtiyacını anlatan aydınlatıcı bir konuşma... özellikle de algoritmalar giderek hayatımızı ele geçirirken.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Eren Gokce approved Turkish subtitles for How I'm fighting bias in algorithms | ||
Eren Gokce edited Turkish subtitles for How I'm fighting bias in algorithms | ||
Suleyman Cengiz accepted Turkish subtitles for How I'm fighting bias in algorithms | ||
Suleyman Cengiz edited Turkish subtitles for How I'm fighting bias in algorithms | ||
Suleyman Cengiz edited Turkish subtitles for How I'm fighting bias in algorithms | ||
esra alantepe edited Turkish subtitles for How I'm fighting bias in algorithms | ||
esra alantepe edited Turkish subtitles for How I'm fighting bias in algorithms | ||
esra alantepe edited Turkish subtitles for How I'm fighting bias in algorithms |