Return to Video

Yapay zekâ tehlikesi düşündüğünüzden daha garip

  • 0:02 - 0:05
    Yapay zekânın,
  • 0:05 - 0:08
    her tür endüstriyi
    bozduğu bilinmektedir.
  • 0:09 - 0:11
    Peki ya dondurma?
  • 0:12 - 0:16
    Gelişmiş bir yapay zekânın gücüyle
  • 0:16 - 0:19
    akıllara durgunluk verecek
    ne tür tatlar oluşturabiliriz?
  • 0:19 - 0:23
    Bu sorunun cevabını bulmak için
    Kealing orta okulundan
  • 0:23 - 0:25
    bir grup kodlayıcı ile birlikte çalıştım.
  • 0:25 - 0:31
    Mevcut olan yaklaşık 1600
    dondurma tadını topladılar
  • 0:31 - 0:36
    ve birlikte, ne oluşturacağını görmek için
    onları bir algoritmaya çevirdik.
  • 0:36 - 0:39
    İşte yapay zekânın
    ürettiği tatlardan birkaçı.
  • 0:39 - 0:41
    [Kabak Çöpü Parçası]
  • 0:41 - 0:43
    (Gülüşmeler)
  • 0:43 - 0:46
    [Fıstık Ezmesi Balçığı]
  • 0:46 - 0:48
    [Çilek Kreması Hastalığı]
  • 0:48 - 0:50
    (Gülüşmeler)
  • 0:50 - 0:55
    Bu tatlar umduğumuz gibi
    lezzetli değiller.
  • 0:55 - 0:57
    Soru şu: Ne oldu?
  • 0:57 - 0:58
    Yanlış giden neydi?
  • 0:58 - 1:00
    Yapay zekâ bizi öldürmeye mi çalışıyor?
  • 1:01 - 1:05
    Yoksa istediğimiz şeyi yapmaya mı
    çalışıyor ve bir problem mi oluyor?
  • 1:07 - 1:09
    Filmlerde yapay zekâyla ilgili
    bir hata olduğunda
  • 1:09 - 1:11
    bu genelde yapay zekânın,
  • 1:11 - 1:14
    artık insanlara itaat etmemeye
    karar vermesi nedeniyle olur
  • 1:14 - 1:17
    ve artık kendi kuralları vardır,
    çok teşekkürler.
  • 1:17 - 1:20
    Ancak, gerçek hayatta
    sahip olduğumuz yapay zekâ
  • 1:21 - 1:22
    bunu yapabilecek kadar zeki değil.
  • 1:23 - 1:24
    Yaklaşık bir solucanın
  • 1:24 - 1:28
    veya belki de
    olsa olsa tek bir bal arısının
  • 1:28 - 1:30
    programlama gücüne sahiptir
  • 1:31 - 1:33
    ve aslında, belki de daha azına sahiptir.
  • 1:33 - 1:37
    Beyinlerle ilgili sürekli yeni şeyler
    öğreniyoruz ve bu da yapay zekânın
  • 1:37 - 1:40
    neden gerçek beyinlerle
    aynı düzeyde olmayacağını açıklıyor.
  • 1:40 - 1:45
    Günümüzdeki yapay zekâ,
    bir resimde yayayı saptamak gibi
  • 1:45 - 1:48
    bir görevi yapabilir, fakat bir yayanın
    ne olduğunu kavrayamaz,
  • 1:48 - 1:53
    yaya onun için bir çizgiler, dokular
    ve bazı şeylerin toplamıdır.
  • 1:54 - 1:56
    Bir insanın aslında ne olduğunu bilmez.
  • 1:57 - 2:00
    Peki günümüzün yapay zekâsı
    biz ne istersek onu mu yapacak?
  • 2:00 - 2:02
    Eğer yapabilirse evet,
  • 2:02 - 2:04
    fakat gerçekten
    istediğimizi yapamayabilir.
  • 2:04 - 2:08
    Diyelim ki bir yapay zekânın
    bu robot parçalarını alıp
  • 2:08 - 2:10
    A noktasından B noktasına gidecek
  • 2:10 - 2:14
    bir robota dönüştürmesini istiyorsunuz.
  • 2:14 - 2:17
    Bu problemi geleneksel türden
    bir bilgisayar programı yazarak
  • 2:17 - 2:19
    çözmeyi deneyecek olsaydınız,
  • 2:19 - 2:21
    programa bu parçaları nasıl alacağına,
  • 2:21 - 2:23
    bunları bacaklı bir robota
    nasıl dönüştüreceğine
  • 2:23 - 2:27
    ve o bacakları B noktasına gitmesi
    için nasıl kullanacağına dair
  • 2:27 - 2:29
    adım adım talimatlar verirdiniz.
  • 2:29 - 2:32
    Fakat problemi çözmek için
    yapay zekâ kullandığınızda
  • 2:32 - 2:33
    işler farklı ilerliyor.
  • 2:33 - 2:35
    Ona problemi
    nasıl çözeceğini söylemiyorsunuz,
  • 2:35 - 2:37
    ona sadece amacı veriyorsunuz
  • 2:37 - 2:40
    ve onun, amaca ulaşmak için
    deneme yanılma aracılığıyla
  • 2:40 - 2:42
    kendisi çözmesi gerekiyor.
  • 2:42 - 2:46
    Yapay zekânın bu problemi
    çözmek için gittiği yol
  • 2:46 - 2:48
    şu şekilde görünüyor:
  • 2:48 - 2:51
    kendisini bir kuleye
    monte ediyor, sonra düşüyor
  • 2:51 - 2:53
    ve B noktasına iniş yapıyor.
  • 2:53 - 2:56
    Bu, teknik olarak problemi çözüyor.
  • 2:56 - 2:58
    Teknik olarak B noktasına gidiyor.
  • 2:58 - 3:02
    Yapay zekânın tehlikesi aslında
    bizlere karşı ayaklanacağı değil,
  • 3:02 - 3:06
    tam olarak yapmalarını istediğimiz
    şeyleri yapacak olmalarıdır.
  • 3:07 - 3:10
    O zaman da yapay zekâyla
    çalışma hilesi şu hale geliyor:
  • 3:10 - 3:13
    Problemi nasıl düzenleyelim ki
    gerçekten istediğimizi yapsın?
  • 3:15 - 3:18
    Bu küçük robot bir yapay zekâ
    tarafından kontrol ediliyor.
  • 3:18 - 3:21
    Yapay zekâ robot bacakları için
    bir tasarım buldu
  • 3:21 - 3:25
    ve sonra onları, bu engelleri aşmak için
    nasıl kullanacağını çözdü.
  • 3:25 - 3:28
    Fakat David Ha bu deneyi oluşturduğunda
  • 3:28 - 3:31
    yapay zekânın bacakları ne kadar
    büyük yapabileceğine dair
  • 3:31 - 3:34
    çok, çok katı
    kısıtlamalarla oluşturmalıydı,
  • 3:34 - 3:36
    çünkü, aksi takdirde...
  • 3:43 - 3:47
    (Gülüşmeler)
  • 3:49 - 3:52
    Teknik olarak bu engel rotasının
    sonuna varabildi.
  • 3:52 - 3:57
    Bir yapay zekânın, yürümek gibi basit
    bir eylemi yapmasını sağlamak çok zor.
  • 3:57 - 4:01
    Yapay zekânın bunu yaptığını görünce,
    bu haksızlık diyebilirsiniz,
  • 4:01 - 4:04
    yüksek bir kule olup düşemezsiniz,
  • 4:04 - 4:07
    yürümek için bacak
    kullanmanız gerek diyebilirsiniz.
  • 4:07 - 4:10
    Görünen o ki, bu da
    her zaman işe yaramıyor.
  • 4:10 - 4:13
    Yapay zekânın işi hızlı hareket etmek.
  • 4:13 - 4:17
    Ona ileri doğru koşması gerektiğini
  • 4:17 - 4:19
    veya kollarını
    kullanamayacağını söylemediler.
  • 4:19 - 4:24
    Yapay zekâya hızlı hareket etmeyi
    öğrettiğiniz zaman olan şey budur,
  • 4:24 - 4:28
    takla atmak veya şaşkınca yürüyüşler
    gibi şeylerle karşılaşırsınız.
  • 4:28 - 4:29
    Bu gerçekten yaygın.
  • 4:30 - 4:33
    Yerde sürünmek de yaygın.
  • 4:33 - 4:34
    (Gülüşmeler)
  • 4:35 - 4:38
    Bana göre, bundan çok daha
    garip olan şey,
  • 4:39 - 4:40
    "Terminatör" robotları.
  • 4:40 - 4:44
    Ona bir şans verirseniz, yapay zekanın
    yapacağı diğer şey "Matrix"e girmektir.
  • 4:44 - 4:47
    Bir simülasyonda
    yapay zekâyı eğitirseniz,
  • 4:47 - 4:51
    simülasyonun matematik hatalarına
    girmek ve onları enerji için saklamak
  • 4:51 - 4:53
    gibi şeyleri yapmayı öğrenir.
  • 4:53 - 4:58
    Sürekli yerde sürünerek
    hızlı hareket etmeyi de çözebilir.
  • 4:58 - 5:00
    Bir yapay zekâyla çalışırken
  • 5:00 - 5:02
    bu diğer bir insanla çalışmaktan ziyade,
  • 5:02 - 5:06
    daha çok doğanın garip bir gücüyle
    çalışmaya benziyor.
  • 5:07 - 5:11
    Yapay zekâya çözmesi için kazara
    yanlış problemi vermek de çok kolay
  • 5:11 - 5:16
    ve bir şeyler yanlış gidene dek
    bunu genelde fark etmeyiz.
  • 5:16 - 5:18
    Yaptığım bir deneyde
  • 5:18 - 5:22
    yapay zekâdan
    boya renklerini kopyalamasını
  • 5:22 - 5:24
    ve yeni boya renkleri
    yaratmasını istedim,
  • 5:24 - 5:26
    bu soldaki listedekiler gibi
    bir liste verdim.
  • 5:27 - 5:30
    Yapay zekânın önerdikleri ise şunlar.
  • 5:30 - 5:33
    [Sindi Kakası, Gübremsi, Acı, Gri Kasık]
  • 5:33 - 5:35
    (Gülüşmeler)
  • 5:39 - 5:41
    Teknik olarak
  • 5:41 - 5:43
    istediğimi yaptı.
  • 5:43 - 5:46
    Ben güzel boya renkleri isimleri
    istediğimi düşünmüştüm,
  • 5:46 - 5:49
    fakat aslında yapmasını istediğim şey
  • 5:49 - 5:52
    orijinalinde gördüğü
    harf kombinasyonları türlerini
  • 5:52 - 5:54
    taklit etmesiydi.
  • 5:54 - 5:56
    Kelimelerin ne anlama geldiğine dair
  • 5:56 - 5:59
    veya isimleri bulurken
    kullanmaması gereken bazı kelimeler
  • 5:59 - 6:02
    olabileceğine dair hiçbir şey söylemedim.
  • 6:03 - 6:07
    Yani onun tüm dünyası,
    benim ona sağladığım veri.
  • 6:07 - 6:11
    Dondurma tatları gibi,
    başka hiçbir şey bilmiyor.
  • 6:12 - 6:14
    Yani genelde veri aracılığıyla
  • 6:14 - 6:18
    yapay zekâya kazara yanlış şeyi
    yapmasını söylüyoruz.
  • 6:19 - 6:22
    Bu, karabalık adlı bir balık.
  • 6:22 - 6:24
    Bir grup araştırmacı da yapay zekâyı
  • 6:24 - 6:27
    resimlerde karabalığı
    saptaması için eğitmişti.
  • 6:27 - 6:29
    fakat ona, balığı saptamak için
  • 6:29 - 6:32
    resmin hangi kısmını
    kullandığını sorduklarında,
  • 6:32 - 6:34
    işte bunu vurguladı.
  • 6:35 - 6:37
    Evet, bunlar insan elinin parmakları.
  • 6:37 - 6:39
    Bir balığı saptamayı deniyorsa,
  • 6:39 - 6:41
    neden insan elinin parmaklarını arıyor?
  • 6:42 - 6:45
    Görünen o ki bu karabalık bir ödül balığı
  • 6:45 - 6:49
    ve eğitimi sırasında
    yapay zekânın gördüğü
  • 6:49 - 6:50
    birçok resimde,
  • 6:50 - 6:52
    balık böyle görünüyordu.
  • 6:52 - 6:53
    (Gülüşmeler)
  • 6:53 - 6:57
    Parmakların, balığın bir parçası
    olmadığını bilmiyordu.
  • 6:59 - 7:03
    Baktığı şeyi gerçekten anlayabilecek
    bir yapay zekâ tasarlamanın
  • 7:03 - 7:06
    neden çok zor olduğunu
    görüyorsunuz.
  • 7:06 - 7:08
    Ayrıca sürücüsüz arabalarda
  • 7:08 - 7:11
    görüntü tanımayı tasarlamanın
    zor olmasının nedeni de bu
  • 7:11 - 7:14
    ve sürücüsüz arabalardaki
    birçok başarısızlık da
  • 7:14 - 7:16
    yapay zekânın şaşırması nedenlidir.
  • 7:16 - 7:20
    2016'dan bir örnek vermek istiyorum.
  • 7:20 - 7:25
    Birisi Tesla'nın oto-pilot yapay zekasını
    kullanırken ölümcül bir kaza oldu,
  • 7:25 - 7:28
    fakat tasarlandığı üzere
    otoyolda kullanmak yerine,
  • 7:28 - 7:31
    şehrin sokaklarında kullandılar.
  • 7:31 - 7:32
    Olan şey de şuydu;
  • 7:32 - 7:36
    bir kamyon, arabanın önüne sürdü
    ve araba fren yapamadı.
  • 7:37 - 7:41
    Yapay zekâ kesinlikle resimlerde
    kamyonları saptamak üzere eğitilmişti.
  • 7:41 - 7:43
    Fakat olan şey şu gibi görünüyor,
  • 7:43 - 7:46
    yapay zekâ otoyolda giden
    kamyonları saptamayı öğrenmişti,
  • 7:46 - 7:49
    yani kamyonları arkadan
    göreceğimiz bir şekilde öğrenmişti.
  • 7:49 - 7:53
    Yanı görünen kamyonların
    otoyolda olmaları beklenmez
  • 7:53 - 7:56
    ve yapay zekâ bu kamyonu gördüğünde,
  • 7:56 - 8:00
    büyük olasılıkla
    bir yol işareti olarak algıladı
  • 8:00 - 8:03
    ve altından geçmenin
    güvenli olduğunu düşündü.
  • 8:04 - 8:07
    Yapay zekânın başka alanda
    attığı yanlış bir adım daha.
  • 8:07 - 8:10
    Amazon, algoritmanın kadınlara karşı
    ayrımcılık yapmayı öğrendiğini
  • 8:10 - 8:11
    keşfettiği zaman,
  • 8:11 - 8:15
    bir özgeçmiş-sıralama algoritmasından
    vazgeçmek zorunda kaldı.
  • 8:15 - 8:19
    Olan şey şuydu, yapay zekâyı
    geçmişte işe aldıkları insanlara ait
  • 8:19 - 8:20
    örnek özgeçmişlerle eğittiler.
  • 8:20 - 8:24
    Yapay zekâ da bu örneklerden,
    kadın okullarına gitmiş olan
  • 8:24 - 8:26
    veya özgeçmişinin herhangi bir yerinde
  • 8:26 - 8:29
    "kadın" kelimesi geçen,
    -- "kadın futbol takımı"
  • 8:29 - 8:34
    veya "Kadın Mühendisler Derneği" gibi --
    özgeçmişlerden kaçınmayı öğrendi.
  • 8:34 - 8:38
    Yapay zekâ, insanların
    yaptığını gördüğü bu şeyi
  • 8:38 - 8:40
    kopyalaması gerekmediğini bilmiyordu.
  • 8:40 - 8:43
    Teknik olarak da
    yapmasını istedikleri şeyi yaptı.
  • 8:43 - 8:46
    Sadece, yanlış şeyi yapmasını istediler.
  • 8:47 - 8:50
    Yapay zekâyla bu her zaman olur.
  • 8:50 - 8:54
    Yapay zeka çok zararlı olabilir
    ve bunu bilmeyebilir.
  • 8:54 - 8:59
    Facebook, YouTube'da yeni içerik
    öneren yapay zekâlar,
  • 8:59 - 9:02
    tıklama ve görüntüleme sayısını
    yükseltmek üzere optimize edilmiştir.
  • 9:02 - 9:06
    Ne yazık ki bunu yapmak için
    buldukları bir yol da,
  • 9:06 - 9:10
    komplo teorisi veya fanatiklik
    içerikleri önermek.
  • 9:11 - 9:16
    Yapay zekâların, bu içeriklere dair
    herhangi bir fikirleri yok
  • 9:16 - 9:20
    ve bu içeriği önerdikleri zaman
    sonucun ne olacağına dair de
  • 9:20 - 9:22
    herhangi bir fikirleri yok.
  • 9:22 - 9:24
    Yani, yapay zekâyla çalışırken
  • 9:24 - 9:29
    problemlerden kaçınmak bize bağlıdır.
  • 9:29 - 9:31
    Yanlış giden şeylerden kaçınmak da öyle,
  • 9:31 - 9:35
    bu çok eski iletişim
    problemine kadar da inebilir,
  • 9:35 - 9:39
    insanlar yapay zekâyla nasıl iletişim
    kuracağını öğrenmelidir.
  • 9:39 - 9:43
    Yapay zekânın ne yapabildiğini
    ve ne yapamadığını öğrenmeliyiz
  • 9:43 - 9:46
    ve yapay zekânın,
    çok küçük solucan beyniyle,
  • 9:46 - 9:50
    ondan yapmasını istediğimiz şeyi
    aslında anlamadığını anlamalıyız.
  • 9:51 - 9:55
    Yani, süper-yetkili, her şeyi bilen
    bilim kurgu yapay zekâlarına benzemeyen
  • 9:55 - 10:00
    yapay zekâ ile çalışmaya
    hazırlıklı olmalıyız.
  • 10:00 - 10:03
    Şimdiki zamanda sahip olduğumuz
  • 10:03 - 10:06
    tek yapay zekâyla
    çalışmaya hazırlıklı olmalıyız.
  • 10:06 - 10:10
    Günümüzün yapay zekâsı da yeterince garip.
  • 10:10 - 10:11
    Teşekkürler.
  • 10:11 - 10:16
    (Alkış)
Título:
Yapay zekâ tehlikesi düşündüğünüzden daha garip
Altavoz:
Janelle Shane
Descripción:

Yapay zekânın tehlikesi aslında bizlere karşı ayaklanacakları değil, tam olarak yapmalarını istediğimiz şeyleri yapacak olmalarıdır diyor, yapay zeka araştırmacısı Janelle Shane. İnsanların problemlerini çözmeyi deneyen -- yeni dondurma tatları yaratmak veya yoldaki arabaları tanımak gibi -- yapay zekâ algoritmalarının garipliğini ve bazen de korkutucu tuhaflıklarını paylaşan Shane, yapay zekânın neden henüz gerçek beyin ile aynı düzeyde olamayacağını gösteriyor.

more » « less
Video Language:
English
Team:
TED
Proyecto:
TEDTalks
Duration:
10:28

Subtítulos en Turkish

Revisiones