< Return to Video

Algoritmalardaki yanlılık ile nasıl savaşıyorum

  • 0:01 - 0:04
    Merhaba ben kodlar şairi Joy
  • 0:04 - 0:09
    görünmez bir gücün yükselişini
    durdurma görevindeyim,
  • 0:09 - 0:12
    algoritmik yanlılık için kullandığım
  • 0:12 - 0:15
    "kodlu bakış" adını verdiğim bir güç.
  • 0:15 - 0:20
    Algoritmik yanlılık, insan yanlılığı gibi,
    adaletsizlikle sonuçlanır.
  • 0:20 - 0:26
    Ama algoritmalar virüsler gibi büyük çapta
  • 0:26 - 0:27
    ve hızda yanlılığı yayabilirler.
  • 0:28 - 0:32
    Algoritmik yanlılık dışlayıcı deneyimlere
  • 0:32 - 0:34
    ve ayrımcı uygulamalara yol açabilir.
  • 0:35 - 0:37
    Ne demek istediğimi göstereyim.
  • 0:37 - 0:39
    (Video) Joy Boulamwini: Selam kamera.
    Bir yüzüm var.
  • 0:40 - 0:42
    Yüzümü görebiliyor musunuz?
  • 0:42 - 0:44
    Gözlüksüz yüzüm?
  • 0:44 - 0:46
    Onun yüzünü görebilirsin.
  • 0:46 - 0:48
    Ya benimkini?
  • 0:52 - 0:56
    Maskem var. Maskemi görebiliyor musun?
  • 0:56 - 0:59
    Joy Boulamwini: Bu nasıl oldu?
  • 0:59 - 1:02
    Neden bilgisayarın önünde bir beyaz maske
  • 1:02 - 1:03
    ile oturuyor ve ucuz bir kamera
  • 1:03 - 1:07
    tarafından algılanmaya çalışıyorum?
  • 1:07 - 1:09
    Kod şairi olarak kodlu bakış ile
  • 1:09 - 1:11
    savaşmadığımda
  • 1:11 - 1:14
    MIT Medya Lab'ında lisanüstü öğrencisiyim
  • 1:14 - 1:19
    ve her tür garip projede
    çalışma şansım var.
  • 1:19 - 1:21
    Buna yaptığım Aspire Mirror da dâhil.
  • 1:21 - 1:26
    Sayesinde yansımamın üzerine
    dijital maskeler tasarlayabilirim.
  • 1:26 - 1:29
    Sabah eğer güçlü hissetmek istersem,
  • 1:29 - 1:30
    bir aslanı takabilirim.
  • 1:30 - 1:34
    Sevinçli olmak istiyorsam,
    bir alıntı yapabilirim.
  • 1:34 - 1:37
    Sistemi oluşturmak için genel yüz tanıma
  • 1:37 - 1:38
    yazılımını kullandım.
  • 1:38 - 1:43
    Ama beyaz bir maske takmadıkça
    sistemi test etmek gerçekten zordu.
  • 1:44 - 1:49
    Maalesef bu sorunla daha önce karşılaştım.
  • 1:49 - 1:53
    Georgia Tech de bilgisayar
    bilimleri okurken,
  • 1:53 - 1:55
    sosyal robotlar üzerinde çalıştım
  • 1:55 - 1:59
    ve görevlerimden biri ce-ee
    oynayan bir robot yapmaktı.
  • 1:59 - 2:01
    Partnerlerinizin yüzlerini kapayıp
  • 2:01 - 2:05
    sonra açıp ce-ee dedikleri bir oyun.
  • 2:05 - 2:09
    Problem şu ki sizi göremezsem
    ce-ee işe yaramaz
  • 2:09 - 2:12
    ve robotum beni göremiyordu.
  • 2:12 - 2:16
    Projeyi tamamlamak için
    arkadaşımın yüzünü ödünç aldım,
  • 2:16 - 2:17
    ödevimi sundum ve bu sorunu
  • 2:17 - 2:21
    başkasının çözeceğini varsaydım.
  • 2:22 - 2:24
    Daha sonra Hong Kong'da
  • 2:24 - 2:28
    bir girişimcilik yarışmasına katıldım.
  • 2:28 - 2:31
    Organizatörler yarışmacıların başlangıç
  • 2:31 - 2:33
    turuna katılmasına karar verdi.
  • 2:33 - 2:36
    Yarışmacılardan birinin
    sosyal robotu vardı
  • 2:36 - 2:38
    ve demo yapmaya karar verdi.
  • 2:38 - 2:41
    Demo bana gelene kadar işe yaradı
  • 2:41 - 2:43
    ve ne olduğunu tahmin edebilirsiniz.
  • 2:43 - 2:46
    Robot yüzümü algılayamadı.
  • 2:46 - 2:49
    Geliştiricisine ne olduğunu sordum
  • 2:49 - 2:54
    ve fark ettik ki aynı genel
    yüz tanıma yazılımını kullanıyormuşuz.
  • 2:54 - 2:56
    Dünyanın öbür ucunda
  • 2:56 - 3:00
    algoritmik yanlılığın
    internetten dosya indirmek kadar
  • 3:00 - 3:03
    hızlı yolculuk yaptığını öğrendim.
  • 3:04 - 3:07
    Yani ne oluyor? Neden beni algılamıyor?
  • 3:07 - 3:10
    Makinelere nasıl görme yetisi
    verdiğimize göz atmalıyız.
  • 3:10 - 3:14
    Bilgisayar görüşü yüzü tanımlamak için
  • 3:14 - 3:16
    makine öğrenme tekniklerini kullanır.
  • 3:16 - 3:19
    Bunun çalışma şekli sizin yüz örnekleriyle
    eğitim seti oluşturmanızdır.
  • 3:19 - 3:22
    Bu bir yüz. Bu bir yüz.
    Bu bir yüz değil.
  • 3:22 - 3:27
    Zamanla bilgisayara diğer yüzleri
    nasıl tanımlayacağını öğretirsiniz.
  • 3:27 - 3:31
    Fakat eğitim seti kapsamlı değilse
  • 3:31 - 3:34
    sabit normdan çok fazla sapan bir yüzü
  • 3:34 - 3:36
    tanımlamak zor olacaktır.
  • 3:36 - 3:38
    Bana olduğu gibi.
  • 3:38 - 3:40
    Ama merak etmeyin - iyi haberlerim var.
  • 3:40 - 3:43
    Eğitim setleri bir anda ortaya çıkmaz.
  • 3:43 - 3:45
    Aslında biz onları yaratabiliriz.
  • 3:45 - 3:49
    Yani insanlığın daha zengin portresini
  • 3:49 - 3:53
    çıkaran tam spektrumlu
    eğitim seti oluşturabiliriz.
  • 3:53 - 3:55
    Şimdi örneklerimde sosyal robotlar
  • 3:55 - 3:57
    sayesinde algoritmik dışlanmayı
  • 3:57 - 4:02
    nasıl ortaya çıkardığımı gördünüz.
  • 4:02 - 4:06
    Ama algoritmik yanlılık ayrımcı
    uygulamalara da yol açabilir.
  • 4:07 - 4:09
    ABD çapında, polis merkezleri
  • 4:09 - 4:13
    suçla mücadele cephaneliklerinde
  • 4:13 - 4:16
    yüz tanıma yazılımını kullanmaya başladı.
  • 4:16 - 4:18
    Georgetown Yasası ABD'de iki yetişkinden
  • 4:18 - 4:24
    birinin - 117 milyon insanın- yüz tanıma
  • 4:24 - 4:28
    ağında yüzlerinin bulunduğunu açıkladı.
  • 4:28 - 4:33
    Polis merkezleri doğrulukları
    denetlenmemiş
  • 4:33 - 4:37
    algoritmalar kullanarak
    bu ağları izinsiz görebilir.
  • 4:37 - 4:41
    Biliyoruz ki yüz tanıma yanılmaz değil
  • 4:41 - 4:45
    ve yüzlerin tutarlı etiketlenmesi
    hâlâ bir sorun.
  • 4:45 - 4:47
    Bunu Facebook da görmüş olabilirsiniz.
  • 4:47 - 4:50
    Arkadaşlarımla diğer insanların yanlış
  • 4:50 - 4:52
    etiketlendiğini gördüğümüzde gülüyoruz.
  • 4:52 - 4:58
    Şüpheli bir suçluyu yanlış tanımlamak
    gülünç bir mesele
  • 4:58 - 5:01
    veya sivil özgürlükleri ihlal değil.
  • 5:01 - 5:04
    Makine öğrenme yüz tanımada kullanılır
  • 5:04 - 5:08
    ama bilgisayar görüş alanının
    ötesine de uzanıyor.
  • 5:09 - 5:13
    Veri bilimcisi Cathy O'Neil
  • 5:13 - 5:20
    "Matemetiksel İmha Silahları"
    kitabında, hayatımızın
  • 5:20 - 5:24
    daha çok boyutunu etkileyen kararlar
  • 5:24 - 5:27
    almak için kullanılan yaygın,
    gizemli ve yıkıcı
  • 5:27 - 5:31
    algoritmalarla KİS'lerden bahsediyor.
  • 5:31 - 5:32
    Peki işe alınan ya da kovulan kim?
  • 5:32 - 5:35
    O krediyi alıyor musun? Sigortan var mı?
  • 5:35 - 5:38
    Girmek istediğin üniversiteye
    kabul edildin mi?
  • 5:38 - 5:42
    Aynı platformda satın alınan
    aynı ürün için
  • 5:42 - 5:44
    sen ve ben aynı fiyatı mı ödüyoruz?
  • 5:44 - 5:48
    Güvenlik polisi öngörücü polislik için
  • 5:48 - 5:50
    otomatik öğrenmeyi kullanmaya başlıyor.
  • 5:50 - 5:54
    Bazı hakimler hapis cezasını
  • 5:54 - 5:58
    belirlemek için makine üretimli
    risk puanlarını kullanıyor.
  • 5:58 - 6:01
    Bu kararları gerçekten
    düşünmek zorundayız.
  • 6:01 - 6:02
    Adiller mi?
  • 6:02 - 6:05
    Gördük ki algoritmik yanlılık her zaman
  • 6:05 - 6:08
    adil sonuçlar getirmez.
  • 6:08 - 6:10
    Peki biz ne yapabiliriz?
  • 6:10 - 6:14
    Daha kapsamlı kod oluşturup
    kapsamlı kod uygulamalarını
  • 6:14 - 6:17
    nasıl kullandığımızı düşünebiliriz.
  • 6:17 - 6:19
    Bu, insanlarla başlar.
  • 6:20 - 6:22
    Yani kimin kodladığı önemlidir.
  • 6:22 - 6:26
    Birbirlerinin kör noktalarını görebilen
    farklı kişilerle tam spektrumlu
  • 6:26 - 6:28
    takımlar oluşturabiliyor muyuz?
  • 6:28 - 6:32
    Teknik olarak, nasıl kodladığımız önemli.
  • 6:32 - 6:35
    Sistemi geliştirirken adaletle
    mi oluşturuyoruz?
  • 6:36 - 6:38
    Son olarak niçin kodladığımız önemlidir.
  • 6:39 - 6:44
    Harika zenginliğin kilidini açmak için
    işlemsel yaratma araçlarını kullandık.
  • 6:44 - 6:48
    Sosyal değişimi sonraki düşünce değil,
  • 6:48 - 6:51
    öncelik hâline getirirsek daha geniş
  • 6:51 - 6:53
    eşitliği açma fırsatımız olur.
  • 6:54 - 6:59
    "Incoding" hareketini oluşturan
    gerekli üç ilke var:
  • 6:59 - 7:00
    Kimin kodladığı,
  • 7:00 - 7:02
    nasıl kodladığı
  • 7:02 - 7:04
    ve niçin kodladığı.
  • 7:04 - 7:07
    Incoding'e yönelmek için
    benim paylaştıklarım
  • 7:07 - 7:10
    gibi insanların deneyimlerini toplayarak
  • 7:10 - 7:13
    yanlılığı belirleyen ve var olan yazılımı
  • 7:13 - 7:16
    denetleyen platformlar oluşturmayı
    düşünmeye başlayabiliriz.
  • 7:16 - 7:20
    Ayrıca daha kapsamlı
    eğitim setleri hazırlayabiliriz.
  • 7:20 - 7:23
    Geliştiricilerin daha kapsamlı
    eğitim setleri oluşturmasına
  • 7:23 - 7:27
    ve deneyebilmesine yardım
    ettiğimiz "Kaynaşmak için Özçekimler"
  • 7:27 - 7:29
    kampanyasını düşünün.
  • 7:29 - 7:32
    Ve şu an geliştirdiğimiz
    teknolojinin toplumsal etkileri
  • 7:32 - 7:38
    konusunda daha vicdani
    düşünmeye başlayabiliriz.
  • 7:38 - 7:40
    Incoding hareketini başlatmak için
  • 7:40 - 7:43
    adaletle ilgilenen birinin kodlu
    bakışla savaşabileceği
  • 7:43 - 7:49
    Algoritmik Adalet Ligi'ni başlattım.
  • 7:49 - 7:52
    codedgaze.com'da yanlılığı bildirebilir,
  • 7:52 - 7:55
    denetleme isteyebilir, deneyen olabilir,
  • 7:55 - 7:57
    süren tartışmalara katılabilirsiniz,
  • 7:57 - 7:59
    #codedgaze
  • 8:01 - 8:03
    Sizi dâhil olmaya ve
    merkez sosyal değişime
  • 8:03 - 8:07
    değer verdiğimiz ve teknolojinin
    sadece bir kısım için değil,
  • 8:07 - 8:09
    herkes için işe yaradığı
  • 8:09 - 8:13
    bir dünyaya davet ediyorum.
  • 8:13 - 8:15
    Teşekkürler.
  • 8:15 - 8:16
    (Alkış)
  • 8:21 - 8:23
    Bir sorum var.
  • 8:24 - 8:26
    Bu savaşta benimle misiniz?
  • 8:26 - 8:27
    (Gülüşmeler)
  • 8:27 - 8:28
    (Alkış)
Title:
Algoritmalardaki yanlılık ile nasıl savaşıyorum
Speaker:
Joy Boulamwini
Description:

MIT mezunu Joy Boulamwini bir problemin farkına vardığında yüz tanıma yazılımı üzerinde çalışıyordu: Yazılım onun yüzünü tanımlamadı. Çünkü algoritmayı kodlayan kişi cilt rengini ve yüz yapısı gibi bilgileri tanımlamayı ona öğretmemişti. Şimdi "kodlu bakış" diye adlandırdığı makine öğrenme konusundaki yanlılık ile savaşma görevinde. Kodlamada izlenebilirlik ihtiyacını anlatan aydınlatıcı bir konuşma... özellikle de algoritmalar giderek hayatımızı ele geçirirken.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46

Turkish subtitles

Revisions