< Return to Video

Süper zeki yapay zekadan korkmayın

  • 0:01 - 0:05
    Çocukken tam bir inektim.
  • 0:05 - 0:08
    Galiba bazılarınız da inektiniz.
  • 0:08 - 0:09
    (Kahkaha)
  • 0:09 - 0:12
    Ve siz beyefendi, en sesli gülen,
    siz muhtemelen hala ineksiniz.
  • 0:12 - 0:14
    (Kahkaha)
  • 0:14 - 0:18
    Kuzey Teksas'ın tozlu düz arazilerinde
    küçük bir kasabada büyüdüm.
  • 0:18 - 0:21
    Babam şerif,
    büyükbabam ise bir papazdı.
  • 0:21 - 0:23
    Başımı belaya sokmak
    hiç kaçınılmaz değildi.
  • 0:24 - 0:27
    Bu yüzden öylesine matematik
    kitapları okumaya başladım.
  • 0:27 - 0:29
    (Kahkaha)
  • 0:29 - 0:31
    Sen de okudun.
  • 0:31 - 0:34
    Bu okumalar lazer, bilgisayar ve
    maket roketler yapmamı sağladı.
  • 0:34 - 0:37
    Bunlar ise roket yakıtı yapmamı sağladı.
  • 0:38 - 0:42
    Şimdi, bilimsel olarak
  • 0:42 - 0:45
    biz buna "çok kötü bir fikir" deriz.
  • 0:45 - 0:46
    (Kahkaha)
  • 0:46 - 0:48
    O zamanlarda,
  • 0:48 - 0:52
    Stanley Kubrick'in filmi
    "2001: Uzay Macerası" sinemalara gelmişti,
  • 0:52 - 0:54
    ve benim hayatım sonsuza kadar değişmişti.
  • 0:54 - 0:56
    Bu filmi çok sevmiştim,
  • 0:56 - 0:59
    özellikle HAL 9000'i.
  • 0:59 - 1:01
    HAL, uzay gemisi Keşif'i Dünya'dan
  • 1:01 - 1:03
    Jüpiter'e götürmek için tasarlanmış
  • 1:03 - 1:06
    duyguları olan bir bilgisayar.
  • 1:06 - 1:08
    HAL ayrıca kusurlu bir karaktere sahip.
  • 1:08 - 1:12
    Çünkü sonunda, görevi
    insan hayatına tercih etmişti.
  • 1:13 - 1:15
    HAL uydurma bir karakter,
  • 1:15 - 1:18
    ama yine de o korkularımızı simgeliyor,
  • 1:18 - 1:20
    İnsanlığımızı umursamayan
  • 1:20 - 1:23
    duygusuz bir yapay zeka tarafından
  • 1:23 - 1:25
    kontrol altına alınma korkumuz.
  • 1:26 - 1:28
    Bu tür korkuların yersiz
    olduğuna inanıyorum.
  • 1:28 - 1:31
    Gerçekten de insan tarihinde
  • 1:31 - 1:33
    olağanüstü bir zamandayız.
  • 1:33 - 1:38
    Vücudumuzun ve aklımızın
    limitleri olduğunu kabul etmeyişimizle
  • 1:38 - 1:39
    Yaşam deneyimini
  • 1:39 - 1:43
    hayallerin ötesinde geliştirecek
  • 1:43 - 1:45
    üstün bir karmaşıklık ve zarafete sahip
  • 1:45 - 1:47
    makineler üretiyoruz.
  • 1:48 - 1:50
    Beni hava harp okulundan
    hava komutasına, oradan da
  • 1:50 - 1:52
    şimdiye getiren kariyerden sonra
  • 1:52 - 1:54
    sistem mühendisi oldum.
  • 1:54 - 1:57
    Geçenlerde NASA'nın Mars göreviyle ilgili
  • 1:57 - 1:59
    bir mühendislik probleminde yer aldım.
  • 1:59 - 2:02
    Ay'a giden uzay uçuşlarında
  • 2:02 - 2:05
    uçuşla ilgili her şeyde
  • 2:05 - 2:07
    Houston'daki görev merkezine bağlıyız.
  • 2:07 - 2:11
    Fakat, Mars 200 kat uzakta.
  • 2:11 - 2:14
    Sonuç olarak, bir sinyalin
    Dünya'dan Mars'a ulaşması
  • 2:14 - 2:17
    ortalama 13 dakika sürüyor.
  • 2:17 - 2:20
    Bir sorun varsa,
    yeteri kadar zaman yok.
  • 2:21 - 2:23
    Makul bir mühendislik çözümü sunmak için
  • 2:23 - 2:26
    görev kontrolü uzay aracı Orion'ın
  • 2:26 - 2:29
    içine koymamız gerekir.
  • 2:29 - 2:32
    Görev profilindeki başka
    bir enteresan fikir
  • 2:32 - 2:35
    insanlar Mars'a varmadan önce,
  • 2:35 - 2:37
    Mars'ın yüzeyine insansı robotlar
  • 2:37 - 2:38
    gönderip tesisler kurdurmak,
  • 2:38 - 2:42
    sonra onları araştırma ekibinin
    ortak mensubu yapmak.
  • 2:43 - 2:46
    Bu fikre bir mühendisin
    bakış açısından baktığımda,
  • 2:46 - 2:49
    tasarlamam gereken şeyin
    akıllı, iş birliği yapabilen,
  • 2:49 - 2:52
    sosyal zekaya sahip
    bir yapay zeka olduğu
  • 2:52 - 2:54
    çok açık ve netti.
  • 2:54 - 2:58
    Başka deyişle, HAL'e çok benzeyen
    bir şey yapmam gerekti.
  • 2:58 - 3:01
    ama adam öldürme meyili olmayan bir HAL.
  • 3:01 - 3:02
    (Kahkaha)
  • 3:03 - 3:05
    Biraz ara verelim.
  • 3:05 - 3:09
    Böyle bir yapay zeka yapmak
    gerçekten mümkün mü?
  • 3:09 - 3:10
    Aslında mümkün.
  • 3:10 - 3:11
    Bir çok yönüyle,
  • 3:11 - 3:13
    yapay zeka ilkeleriyle, bu zor
  • 3:13 - 3:15
    bir mühendislik problemidir,
  • 3:15 - 3:20
    mühendisliği yapılacak
    basit bir yapay zeka problemi değil.
  • 3:20 - 3:22
    Alan Turing'in dediği gibi,
  • 3:22 - 3:25
    Duyguları olan bir makine
    yapmakla ilgilenmiyorum.
  • 3:25 - 3:26
    Bir HAL yapmıyorum.
  • 3:26 - 3:29
    Tek yapmak istediğim,
  • 3:29 - 3:32
    zeka yanılsaması gösteren basit bir beyin.
  • 3:33 - 3:36
    HAL ilk gösterildiğinden beri,
    programlama sanatı ve bilimi
  • 3:36 - 3:38
    uzun yol kat etti.
  • 3:38 - 3:41
    HAL'in yaratıcısı eğer burada olsaydı,
  • 3:41 - 3:43
    eminim bize soracağı çok soru olurdu.
  • 3:43 - 3:45
    "Milyonlarca cihazdan oluşan bir sistemin
  • 3:45 - 3:49
    veri akışını okuyup
    onların hata ve eylemlerini
  • 3:49 - 3:51
    önceden tahmin etmek
  • 3:51 - 3:53
    gerçekten mümkün mü?"
  • 3:53 - 3:54
    Evet.
  • 3:54 - 3:58
    "İnsanlarla doğal dilde sohbet edebilen
    sistemler yapabilir miyiz?"
  • 3:58 - 3:59
    Evet.
  • 3:59 - 4:02
    "Objeleri ve duyguları
    tanımlayabilen, duygusal davranan
  • 4:02 - 4:05
    oyun oynayabilen ve hatta dudak
    okuyabilen sistemler yapabilir miyiz?
  • 4:05 - 4:06
    Evet.
  • 4:07 - 4:09
    ''Hedefler koyup
    o hedefleri gerçekleştirmek
  • 4:09 - 4:12
    için planlar yapan ve bu esnada
    öğrenen bir sistem yapabilir miyiz?''
  • 4:12 - 4:14
    Evet.
  • 4:14 - 4:17
    "Akıl teorisi olan sistemler
    yapabilir miyiz?"
  • 4:17 - 4:18
    İşte bunu yapmayı öğreniyoruz.
  • 4:18 - 4:22
    "Etik ve ahlaki temeli olan
    sistemler yapabilir miyiz?"
  • 4:22 - 4:25
    İşte bunu öğrenmek zorundayız.
  • 4:25 - 4:27
    Farz edelim ki
  • 4:27 - 4:30
    bu ve benzeri amaçlar için bu tür
  • 4:30 - 4:32
    bir yapay zeka geliştirmek mümkün olsun.
  • 4:32 - 4:34
    Kendinize sormanız gereken
    ilk soru şu olmalı:
  • 4:34 - 4:36
    Bundan korkmalı mıyız?
  • 4:36 - 4:38
    Her yeni teknoloji
  • 4:38 - 4:41
    korkuyu da kendiyle birlikte getirir.
  • 4:41 - 4:42
    Arabaları ilk gördüğümüzde
  • 4:43 - 4:47
    insanlar ailenin yok oluşunu
    göreceğimizden yakındılar.
  • 4:47 - 4:49
    Telefonlar hayatımıza girdiğinde
  • 4:49 - 4:52
    herkes bunun medeni konuşmayı
    tahrip edeceğinden endişeliydi.
  • 4:52 - 4:56
    Yazılı kelimelerin kalıcı
    olduğunu anladığımız zaman
  • 4:56 - 4:59
    insanlar ezber yeteneğimizin
    kaybolacağını sandılar.
  • 4:59 - 5:01
    Bütün bunlar bir noktaya kadar doğru
  • 5:01 - 5:03
    Fakat bu teknolojilerin
    yaşam deneyimimizi
  • 5:03 - 5:07
    inanılmaz şekillerde geliştirecek şeyler
  • 5:07 - 5:08
    getirdiği de bir gerçek.
  • 5:10 - 5:12
    Hadi bunu bir adım daha öteye taşıyalım.
  • 5:13 - 5:18
    Bu tür bir yapay zekanın
    yaratılmasından korkmuyorum,
  • 5:18 - 5:22
    çünkü zamanla yapay zeka
    bazı değerlerimizi cisimleştirecek.
  • 5:22 - 5:25
    Şunu düşünün: Bilişsel bir sistem yapmak
    geleneksel yazılım yoğunluklu
  • 5:25 - 5:29
    bir sistem yapmaktan temel olarak farklı.
  • 5:29 - 5:31
    Onları programlamıyoruz.
    Onlara öğretiyoruz.
  • 5:31 - 5:34
    Bir sisteme çiçekleri nasıl
    tanıyacağını öğretmek için
  • 5:34 - 5:37
    ona sevdiğim türde
    binlerce çiçek gösteririm.
  • 5:37 - 5:39
    Bir sisteme oyun oynamayı
    öğretmek için
  • 5:39 - 5:41
    Öğretirdim, sen de öğretirdin.
  • 5:43 - 5:45
    Çiçekleri severim, hadi ama.
  • 5:45 - 5:48
    Bir sisteme Go gibi bir oyunu
    oynamayı öğretmek için
  • 5:48 - 5:50
    Ona binlerce Go oynattırırdım.
  • 5:50 - 5:52
    Fakat bu süreçte ona ayrıca
  • 5:52 - 5:54
    iyi oyunu kötü oyundan
    ayırmayı da öğretirim.
  • 5:55 - 5:58
    Yapay zekası olan bir
    avukat yardımcısı yaratmak istersem,
  • 5:58 - 6:00
    ona biraz hukuk dağarcığı öğretirim,
  • 6:00 - 6:03
    ama aynı zamanda
    hukukun bir parçası olan
  • 6:03 - 6:06
    merhamet ve adalet
    duygusunu da aşılarım.
  • 6:07 - 6:10
    Bilimsel olarak söyleyecek olursam,
    buna "kesin referans" deriz
  • 6:10 - 6:12
    İşte önemli nokta şu:
  • 6:12 - 6:13
    Bu makineleri üretirken
  • 6:13 - 6:16
    onlara kendi değerlerimizden
    bir parça da öğretiriz.
  • 6:17 - 6:20
    Bu noktaya kadar, daha çok olmasa da
    yapay zekaya iyi yetişmiş
  • 6:20 - 6:23
    bir insana güvendiğim kadar güvenirim.
  • 6:24 - 6:25
    Fakat şunu sorabilirsiniz:
  • 6:25 - 6:28
    Ya kötüye kullanan 3. partiler?
  • 6:28 - 6:31
    bazı iyi finanse edilmiş
    sivil toplum kuruluşları?
  • 6:31 - 6:35
    Yalnız bir kurdun elindeki
    yapay zekadan korkmam.
  • 6:35 - 6:40
    Açıkçası, kendimizi bütün rastgele
    şiddet olaylarına karşı koruyamayız.
  • 6:40 - 6:42
    Ancak gerçeklik öyle bir sistem ki
  • 6:42 - 6:45
    insan kaynaklarının çok ötesinde
    oldukça büyük
  • 6:45 - 6:47
    ve kıvrak zekaya sahip
    bir eğitime ihtiyaç duyar.
  • 6:47 - 6:49
    Dahası...
  • 6:49 - 6:52
    Bir düğmeye basıp milyonlarca
    yere yayılan ve
  • 6:52 - 6:55
    laptopların her yerde patlamasına
    yol açan bir internet virüsü
  • 6:55 - 6:57
    sızdırmaktan çok daha fazlası.
  • 6:57 - 7:00
    Bu tür maddeler çok daha büyük,
  • 7:00 - 7:02
    ve kesinlikle bunlara tanık olacağız.
  • 7:03 - 7:06
    Yapay zekanın bütün insanlığı
  • 7:06 - 7:08
    tehdit edebileceğinden korkuyor muyum?
  • 7:08 - 7:13
    "The Matrix", "Metropolis", "Terminator"
    gibi filmlere ya da
  • 7:13 - 7:16
    "Westworld" gibi dizilere bakarsanız
  • 7:16 - 7:18
    onlar hep bu tür bir korkudan bahsederler.
  • 7:18 - 7:22
    Gerçekten de filozof Nick Bostrom
    "Süper Zeka" kitabında
  • 7:22 - 7:24
    bu konudan bahseder.
  • 7:24 - 7:28
    Süper zekanın sadece tehlikeli
    olabileceğini değil
  • 7:28 - 7:32
    ayrıca varoluşsal bir tehdit
    oluşturabileceğini gözlemliyor.
  • 7:32 - 7:34
    Dr. Bostrom'un temel argümanı şöyle:
  • 7:34 - 7:37
    Bu sistemler zamanla o kadar çok
  • 7:37 - 7:40
    bilgiye doyumsuzca aç olacaklar ki
  • 7:40 - 7:43
    belki de öğrenmeyi öğrenecekler
  • 7:43 - 7:46
    ve zamanla insanların
    ihtiyaçlarıyla çelişen
  • 7:46 - 7:48
    amaçlara sahip olacaklar.
  • 7:48 - 7:50
    Dr. Bostrom'un bir çok takipçisi var.
  • 7:50 - 7:54
    Elon Musk ve Stephen Hawking gibi
    insanlar tarafından destekleniyor.
  • 7:55 - 7:57
    Bu parlak beyinlere
  • 7:58 - 8:00
    saygısızlık etmek istemem ama
  • 8:00 - 8:02
    onların aslında hatalı
    olduğuna inanıyorum.
  • 8:02 - 8:06
    Dr. Bostrom'un argümanlarının
    ayrıntılarına inmek isterdim ama
  • 8:06 - 8:08
    o kadar zamanım yok.
  • 8:08 - 8:11
    Şunu çok kısaca bir düşünün:
  • 8:11 - 8:14
    Süper bilmek süper yapmaktan çok farklı.
  • 8:14 - 8:16
    HAL Keşif'i bütün yönleriyle
  • 8:16 - 8:21
    komuta ettiği sürece,
    o Keşif tayfasına karşı bir tehditti.
  • 8:21 - 8:23
    Bu yüzden onun süper
    zekaya sahip olması gerekir.
  • 8:23 - 8:26
    Onun bütün dünya üzerinde
    egemenliği olurdu.
  • 8:26 - 8:29
    Bu The Terminator'deki Skynet şeyi işte,
  • 8:29 - 8:30
    İnsan iradesi üzerinde kontrolü olan,
  • 8:30 - 8:32
    dünyanın her bir köşesindeki
  • 8:32 - 8:36
    her bir cihazı yöneten
    bir süper zeka.
  • 8:36 - 8:37
    Gerçekçi konuşursak,
  • 8:37 - 8:39
    bu olmayacak.
  • 8:39 - 8:42
    Bizler havayı kontrol eden,
    zamanı yönlendiren,
  • 8:42 - 8:44
    kaprisli, karmakarışık
  • 8:44 - 8:47
    insanları komuta eden
    yapay zekalar yapmıyoruz.
  • 8:47 - 8:51
    Buna ek olarak,
    böyle bir yapay zeka olsaydı,
  • 8:51 - 8:54
    insan ekonomisiyle yarışmak zorunda
    olurdu, dolayısıyla
  • 8:54 - 8:57
    kaynaklar için bizimle yarışırlardı.
  • 8:57 - 8:58
    Sonunda
  • 8:58 - 9:00
    Siri'ye şunu söylemeyin:
  • 9:00 - 9:02
    "Hiç olmadı fişini çekeriz."
  • 9:02 - 9:04
    (Kahkaha)
  • 9:05 - 9:08
    Makinelerimizle mükemmel bir
  • 9:08 - 9:10
    evrim birlikteliği yolculuğundayız.
  • 9:10 - 9:13
    Bugünkü olduğumuz insan
  • 9:13 - 9:15
    o zamankiyle aynı olmayacak.
  • 9:15 - 9:19
    Süper zekanın yükselişi hakkında
    şimdi bu kadar endişelenmemiz
  • 9:19 - 9:22
    bir çok yönüyle tehlikeli bir
    dikkat dağınıklığıdır,
  • 9:22 - 9:24
    çünkü programlamanın yükselişi
  • 9:24 - 9:27
    bize çözmemiz gereken bir çok
    insancıl ve toplumsal
  • 9:27 - 9:29
    sorunlar getirecek.
  • 9:29 - 9:32
    İnsanların iş gücüne olan
    ihtiyaç azaldığında
  • 9:32 - 9:35
    toplumda düzeni en iyi nasıl sağlarım:
  • 9:35 - 9:38
    Dünya geneline nasıl anlayış ve
    eğitim getiririm ve yine de
  • 9:38 - 9:40
    farklılıklarımıza saygı gösteririm?
  • 9:40 - 9:44
    İnsan hayatını bilişsel sağlık hizmeti ile
    nasıl genişletebilir ve geliştirebilirim?
  • 9:44 - 9:47
    Bizi yıldızlara götürecek programlamayı
  • 9:47 - 9:49
    nasıl kullabilirim?
  • 9:50 - 9:52
    İşte bu heyecan verici bir şey.
  • 9:52 - 9:55
    İnsan deneyimini ilerletmek için
  • 9:55 - 9:56
    programlama kullanma fırsatı
  • 9:56 - 9:58
    elimizde
  • 9:58 - 10:00
    Bu aralar
  • 10:00 - 10:01
    daha yeni başlıyoruz.
  • 10:02 - 10:03
    Çok teşekkürler.
  • 10:04 - 10:08
    (Alkış)
Title:
Süper zeki yapay zekadan korkmayın
Speaker:
Grady Booch
Description:

Bilim adamı ve filozof Grady Booch diyor ki: "Yeni teknolojiler yeni endişeler ortaya çıkarır, ama çok güçlü ve hisleri olmayan bir yapay zekadan korkmamıza gerek yok". Booch süper zeki bilgisayarlar hakkındaki (bilim kurgular yüzünden oluşmuş) en kötü korkularımızı onlara değerlerimizi nasıl öğreteceğimizi açıklayarak, sadece programlamayarak, yatıştırıyor. Olası olmayan varoluşsal bir tehdit hakkında endişelenmek yerine, yapay zekanın insan hayatını nasıl geliştireceğini düşünmemize teşvik ediyor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Turkish subtitles

Revisions