Return to Video

Medeniyet kendini nasıl yok edebilir -- ve bunu önlemenin 4 yolu

  • 0:01 - 0:03
    Chris Anderson: Nick Bostrom.
  • 0:03 - 0:06
    Bize çoktan birçok çılgın fikir verdin.
  • 0:07 - 0:08
    Sanırım 20 yıl önce
  • 0:08 - 0:12
    hepimizin bir simülasyonda yaşıyor
    olabileceğini ortaya attın
  • 0:12 - 0:13
    ya da geçmişte yaşadığımızı.
  • 0:13 - 0:15
    Yakın zamanda,
  • 0:15 - 0:19
    yapay genel zekânın nasıl
    korkunç düzeyde kötüye gidebileceğinin
  • 0:19 - 0:21
    en gerçekçi örneklerini gösterdin.
  • 0:22 - 0:23
    Ve bu yıl da
  • 0:23 - 0:25
    hassas dünya hipotezi denen
    bir konu üzerinde
  • 0:25 - 0:29
    bir yazı yayımlamak üzeresin.
  • 0:29 - 0:34
    Bu akşam bizim görevimiz
    buna örnekli bir kılavuz sunmak.
  • 0:34 - 0:36
    Hadi başlayalım.
  • 0:37 - 0:39
    Nedir bu hipotez?
  • 0:39 - 0:42
    Nick Bostrom: Bu, şu anki insan durumunun
  • 0:42 - 0:45
    bir tür yapısal özelliği üzerinde
    düşünmeye çalışma.
  • 0:47 - 0:49
    Sen vazo örneğini seviyorsun,
  • 0:49 - 0:52
    bu yüzden açıklamak için
    o örneği kullanacağım.
  • 0:52 - 0:56
    Fikirleri, metotları
    ve olası teknolojileri temsil eden
  • 0:56 - 1:00
    toplarla dolu büyük bir vazo hayal et.
  • 1:01 - 1:05
    İnsan yaratıcılığının tarihini,
  • 1:05 - 1:08
    bu vazoya ulaşma ve topları birer birer
    çıkarma süreci olarak düşünebilirsin
  • 1:08 - 1:12
    ve ağ etkisi şimdiye kadar
    oldukça yararlıydı değil mi?
  • 1:12 - 1:14
    Bazısı hem faydalı hem zararlı olan
    çeşitli gri tonlarda
  • 1:14 - 1:17
    oldukça fazla sayıda beyaz top çıkardık.
  • 1:18 - 1:21
    Şimdiye kadar siyah topu çıkarmadık --
  • 1:22 - 1:28
    onu keşfeden medeniyeti
    sürekli olarak yok eden bir teknoloji.
  • 1:28 - 1:31
    Yazı, siyah topun ne olabileceği
    üzerine düşünmeye çalışıyor.
  • 1:31 - 1:33
    CA: Yani bu topu, kaçınılmaz bir şekilde
  • 1:33 - 1:36
    medeniyet yıkımı getirecek
    bir şey olarak tanımlıyorsun.
  • 1:37 - 1:42
    NB: Yarı anarşik standart koşul diye
    adlandırdığım şeyden çıkmadığımız sürece.
  • 1:42 - 1:43
    Ama bir çeşit, varsayımla.
  • 1:44 - 1:48
    CA: Yani, aslında şu zamana kadar
  • 1:48 - 1:50
    şanslı olduğumuza inandığın,
  • 1:50 - 1:53
    o ölüm topunu hiç bilmeden
    çekmiş olabileceğimiz
  • 1:53 - 1:56
    bir çeşit karşıt örnekler vererek
  • 1:56 - 1:57
    durumu zorlaştırıyorsun.
  • 1:57 - 2:00
    Evet bir alıntı var, nedir bu alıntı?
  • 2:01 - 2:03
    NB: Sanırım, bu sadece
  • 2:03 - 2:05
    ana keşiflerin neye yol açacağını
  • 2:05 - 2:08
    öngörmenin zorluğunu anlatmaya yarıyor.
  • 2:08 - 2:11
    Henüz bu yetiye sahip değiliz.
  • 2:11 - 2:15
    Çünkü, topları çıkarmakta
    çok iyi hâle geldik
  • 2:15 - 2:18
    ama topu geri vazoya doğru şekilde koyma
    yeteneğine aslında sahip değiliz.
  • 2:18 - 2:21
    İcat edebiliyoruz ama geri bozamıyoruz.
  • 2:22 - 2:24
    Yani bizim stratejimiz, olduğu gibi,
  • 2:24 - 2:27
    vazoda hiç siyah top olmadığını ummak.
  • 2:27 - 2:31
    CA: Yani bir kez dışarı çıktığında
    dışarıdadır, onu geri içine koyamazsın
  • 2:31 - 2:32
    ve şanslı olduğumuzu düşünüyorsun.
  • 2:32 - 2:35
    Bu örneklerden bazıları
    üzerinde konuşalım.
  • 2:35 - 2:38
    Farklı türdeki zaaflar hakkında konuşalım.
  • 2:38 - 2:40
    NB: Anlamanın en kolay türü
  • 2:40 - 2:43
    büyük miktarda yıkımlara yol açmayı
  • 2:43 - 2:46
    oldukça çok kolaylaştıran bir teknoloji.
  • 2:47 - 2:51
    Sentetik biyoloji, bu siyah topu bulmakta
    verimli bir kaynak olabilir
  • 2:51 - 2:54
    ama iklim mühendisliğiyle ilgili
    düşünebileceğimiz --
  • 2:54 - 2:56
    diğer birçok mümkün şey de
    gerçekten harika, değil mi?
  • 2:56 - 2:58
    Küresel ısınmayla mücadele edebiliriz
  • 2:58 - 3:01
    ama bunun çok kolay hâle
    gelmesini de istemezsin;
  • 3:01 - 3:03
    rastgele birinin ve büyük annesinin
  • 3:03 - 3:06
    Dünya ikliminde köklü değişiklikler
    yapabilmesini istemezsin.
  • 3:06 - 3:10
    Ya da belki, ölümcül özerk drone'lar,
  • 3:10 - 3:13
    toplu üretilmiş, sivrisinek boyunda
    öldürücü sürüler.
  • 3:14 - 3:17
    Nanoteknoloji, yapay genel zekâ.
  • 3:17 - 3:19
    CA: Yazıda savunduğun,
  • 3:19 - 3:25
    nükleer gücün bir bomba
    yaratabileceğini öğrendiğimizde
  • 3:25 - 3:28
    sen zaten herkes için erişilebilir
    daha kolay kaynaklarla
  • 3:28 - 3:32
    şans eseri bir bomba yaratmış olabilirsin.
  • 3:32 - 3:35
    NB: 1930'lu yılları düşünelim,
  • 3:35 - 3:40
    nükleer fizikte harika yenilikler
    yaptığımız ilk zamanları,
  • 3:40 - 3:44
    bazı dâhiler nükleer zincirleme reaksiyon
    yaratmanın mümkün olduğunu anlıyor
  • 3:44 - 3:47
    ve sonra bunun ucunun
    bombaya uzanacağını anlıyor.
  • 3:47 - 3:49
    Birkaç tane daha çalışma yaptık;
  • 3:49 - 3:52
    bir nükleer bomba yapmak için
    ihtiyacın olan şeylerin,
  • 3:52 - 3:54
    yüksek oranda zenginleştirilmiş
    uranyum ve plutonyum,
  • 3:54 - 3:56
    elde etmesi çok zor materyaller.
  • 3:56 - 3:58
    Ultrasantrifüje, reaktörlere,
  • 3:58 - 4:02
    yani büyük miktarda enerjiye ihtiyaç var.
  • 4:02 - 4:04
    Ama bunlar yerine,
  • 4:04 - 4:08
    atomun enerjisini açığa çıkarmanın
    kolay bir yolu olduğunu düşün.
  • 4:08 - 4:11
    Belki mikrodalga fırında kum pişirerek
  • 4:11 - 4:12
    ya da bunun gibi bir şeyle
  • 4:12 - 4:14
    bir nükleer patlama yaratabilirdin.
  • 4:14 - 4:16
    Bunun fiziksel olarak
    imkânsız olduğunu biliyoruz.
  • 4:16 - 4:18
    Ama ilgili fiziği bilmeden önce
  • 4:18 - 4:20
    bunun neye dönüşeceğini
    nasıl bilebilirdin?
  • 4:21 - 4:22
    CA: Ama şöyle düşünmüyor musun,
  • 4:22 - 4:24
    Dünya'daki yaşamın evrilmesi
  • 4:24 - 4:27
    ve bunun bir tür durağan çevre
    anlamına gelmesi için
  • 4:27 - 4:32
    büyük nükleer reaksiyonlar yaratmak
    nispeten daha kolay ve mümkün olsaydı
  • 4:32 - 4:33
    Dünya hiç sabit kalmazdı,
  • 4:33 - 4:35
    biz burada bile olmazdık.
  • 4:35 - 4:38
    NB: Evet, şayet bilerek yapılması kolay
  • 4:38 - 4:41
    ama rastgele şansla olmayacak
    bir şey var olmasaydı.
  • 4:41 - 4:43
    Yani kolayca yapabildiğimiz şeyler,
  • 4:43 - 4:45
    üst üste 10 tane blok dizebiliriz
  • 4:45 - 4:48
    ama doğada üst üste dizilmiş
    10 blok bulamazsın.
  • 4:48 - 4:50
    CA: Tamam, yani bu muhtemelen
  • 4:50 - 4:52
    çoğumuzun en çok endişelendiği şey
  • 4:52 - 4:55
    ve evet yapay biyoloji belki de
    yakın gelecekte öngördüğümüz,
  • 4:55 - 4:58
    bizi oraya götürebilecek en hızlı yöntem.
  • 4:58 - 5:01
    NB: Evet ve diyelim ki bir öğleden sonra
  • 5:01 - 5:05
    mutfağında çalışan herhangi birinin
    bir şehri yok edebilmesi
  • 5:05 - 5:07
    nasıl olurdu bir düşün.
  • 5:07 - 5:10
    Bizim bildiğimiz modern medeniyet
    böyle bir şeyden
  • 5:10 - 5:12
    nasıl kurtulabilirdi kestirmek zor.
  • 5:12 - 5:14
    Çünkü mutlaka her bir milyonluk
    insan nüfusunda,
  • 5:14 - 5:17
    herhangi bir sebep için
    bu yıkıcı gücü kullanmayı
  • 5:17 - 5:19
    seçecek biri olacaktır.
  • 5:20 - 5:23
    Yani, eğer bu kıyamet kalıntısı
  • 5:23 - 5:25
    bir şehri yok etmeyi
    ya da daha kötüsünü isterse
  • 5:25 - 5:26
    şehirler yok edilirdi.
  • 5:26 - 5:29
    CA: İşte başka tür bir zayıflık.
  • 5:29 - 5:31
    Bunun hakkında konuşalım.
  • 5:31 - 5:35
    NB: Evet, birçok şeyi
    patlatmayı mümkün kılan
  • 5:35 - 5:37
    bu tür siyah topların yanında
  • 5:37 - 5:42
    diğer türler de insanlarda
    onları zararlı şeyler yapmaya iten
  • 5:42 - 5:44
    kötü güdüleri dürtebilir.
  • 5:44 - 5:48
    Yani Tür 2A diye
    adlandırabileceğimiz bu şey,
  • 5:48 - 5:53
    inanılmaz ölçüde kuvvet kullanarak
    yıkım yatratmak için
  • 5:53 - 5:57
    büyük güçleri teşvik eden bir teknoloji.
  • 5:57 - 6:00
    Aslında nükleer silahlar
    buna oldukça yakınlardı değil mi?
  • 6:02 - 6:05
    Yaptığımız şey, 70.000 nükleer
    savaş başlığı yapmak için
  • 6:05 - 6:08
    10 trilyon dolar harcamak
  • 6:08 - 6:10
    ve onları tetikte tutmaktı.
  • 6:10 - 6:11
    Ve Soğuk Savaş sırasında
  • 6:11 - 6:14
    neredeyse birbirimizi havaya
    uçurduğumuz zamanlar oldu.
  • 6:14 - 6:17
    Birçok insan bunun iyi bir fikir olduğunu
    düşündüğünden değil,
  • 6:17 - 6:20
    hadi kendimizi patlatmak için
    10 trilyon dolar harcayalım,
  • 6:20 - 6:21
    teşvikler öyle bir ayarlandı ki
  • 6:21 - 6:24
    kendimizi daha kötü olabilirdi
    diye düşünürken bulduk.
  • 6:24 - 6:26
    Güvenli bir ilk atış olduğunu düşünün.
  • 6:26 - 6:28
    O zaman bir kriz durumunda,
  • 6:28 - 6:33
    bütün nükleer füzelerini fırlatmak
    kendilerini alıkoymaları zor olurdu.
  • 6:33 - 6:36
    En kötü ihtimalle bunu diğer
    taraf yapabilir korkusu olurdu.
  • 6:36 - 6:41
    CA: Evet, karşılıklı yıkım güvencesi
    Soğuk Savaş'ı nispeten dengede tuttu,
  • 6:41 - 6:43
    o olmasaydı şu an
    burada olmayabilirdik.
  • 6:43 - 6:45
    NB: Her şey daha istikrarsız olabilirdi.
  • 6:45 - 6:47
    Ve daha farklı teknolojiler olabilirdi.
  • 6:47 - 6:50
    Nükleer silahlar yerine daha küçük
  • 6:50 - 6:52
    ya da daha az belirgin şeyler olsaydı
  • 6:52 - 6:54
    silah anlaşmaları yapmak daha zor olurdu.
  • 6:54 - 6:57
    CA: Güçlü aktörler için
    kötü teşvikler kadar
  • 6:57 - 7:00
    Tür 2B'de hepimizin için olan kötü
    teşvikler için de endişeleniyorsun.
  • 7:00 - 7:05
    NB: Evet, küresel ısınmayı ele alabiliriz.
  • 7:07 - 7:09
    Pek çok küçük eylem var,
  • 7:09 - 7:11
    her birimizin yapabileceği şeyler
  • 7:11 - 7:14
    ama tek başımıza yapsak
    hiçbir etkisi olmayacak şeyler.
  • 7:14 - 7:16
    Ama milyarlarca insan bunu yaparsa
  • 7:16 - 7:18
    bunlar birikerek
    zararlı bir etkiye sahip olur.
  • 7:18 - 7:21
    Küresel ısınma şimdikinden
    çok daha kötü olabilirdi.
  • 7:21 - 7:24
    Bu yüzden iklim duyarlılığı ölçeğimiz var.
  • 7:24 - 7:28
    Bu ölçek, belli bir miktarda
    sera gazı saldığında
  • 7:28 - 7:30
    iklimin ne kadar ısındığını söylüyor.
  • 7:30 - 7:37
    Bunun, yükselen ısı yerine saldığımız
    sera gazı miktarıyla ilgili varsayalım
  • 7:37 - 7:41
    2100'e kadar 3 ve 4,5 derece arası
    ısı yükselişi yerine
  • 7:41 - 7:44
    15 veya 20 derece arası olduğunu varsay.
  • 7:44 - 7:47
    Çok kötü bir durumda olabilirdik.
  • 7:47 - 7:50
    Ya da yenilenebilir enerji yapmanın
    çok daha zor olduğunu varsay.
  • 7:50 - 7:53
    Ya da yer altında daha fazla
    fosil yakıt olduğunu.
  • 7:53 - 7:55
    CA: Böyle bir durumda --
  • 7:55 - 7:57
    eğer bugün yaptığımız şey
  • 7:57 - 8:02
    görebileceğimiz süreçte
    10 derece farklılık yarattıysa
  • 8:02 - 8:05
    aslında insanoğlu yerinden kalkıp
    bununla ilgili bir şeyler yapabilirdi.
  • 8:06 - 8:08
    Aptalız ama belki de
    o kadar da aptal değiliz.
  • 8:08 - 8:10
    Ya da belki öyleyiz.
  • 8:10 - 8:11
    NB: Bu kadar emin olmazdım.
  • 8:11 - 8:13
    (Kahkahalar)
  • 8:13 - 8:15
    Diğer özellikleri hayal edebilirsin.
  • 8:15 - 8:20
    Şu anda yenilenebilir ve diğerleri
    arasında geçiş yapmak bir miktar zor,
  • 8:20 - 8:22
    evet, ama yapılabilir.
  • 8:22 - 8:25
    Biraz farklı bir fizikle mümkün olabilirdi
  • 8:25 - 8:27
    ama bu tür şeyleri yapmak
    daha pahalı olurdu.
  • 8:28 - 8:30
    CA: Peki senin görüşün ne Nick?
  • 8:30 - 8:32
    Bu ihtimalleri bir araya koyarsak
  • 8:32 - 8:36
    bu yeryüzü, insanlık olarak biz,
  • 8:36 - 8:38
    savunmasız bir dünya olarak sayılır mıyız?
  • 8:38 - 8:41
    Geleceğimizde bir ölüm topu olur mu?
  • 8:44 - 8:45
    NB: Bunu söylemek zor.
  • 8:45 - 8:52
    Anlatmak istediğim, vazoda göründüğü
    gibi çok çeşitli siyah toplar olabilir.
  • 8:52 - 8:57
    Siyah toplara karşı korunmamıza
    yardım edecek altın toplar da olabilir.
  • 8:58 - 9:01
    Hangi sırayla ortaya
    çıkacaklarını bilmiyorum.
  • 9:01 - 9:04
    CA: Yani, bu fikirle ilgili
    olası bir felsefi eleştiri de
  • 9:04 - 9:10
    geleceğin aslında belirlenmiş olduğuyla
    ilgili bir görüşü işaret eder.
  • 9:10 - 9:13
    O top ya vardır ya da yoktur.
  • 9:13 - 9:16
    Ve bir taraftan,
  • 9:16 - 9:18
    bu inanmak istediğim
    bir gelecek görüşü değil.
  • 9:18 - 9:21
    Geleceğin belirlenmediğine,
    bugünkü kararlarımızın
  • 9:21 - 9:25
    o vazodan hangi topu çekeceğimizi
    belirleyeceğine inanmak istiyorum.
  • 9:26 - 9:30
    NB: İcat etmeye devam edersek
  • 9:30 - 9:32
    en sonunda tüm topları çıkaracağız.
  • 9:33 - 9:38
    Yani, oldukça mantıklı bir tür güçsüz,
    teknolojik determinizm var olabilir,
  • 9:38 - 9:43
    el baltası ve jet uçaklar kullanan
    bir topluma rastlamak çok zormuş gibi.
  • 9:44 - 9:48
    Ama teknolojiyi neredeyse bir takım
    sağlayıcı olarak düşünebilirsin.
  • 9:48 - 9:50
    Teknoloji, farklı şeyler yapmamızı
  • 9:50 - 9:53
    ve dünyada farklı etkilere
    ulaşmamızı sağlayan bir şey.
  • 9:53 - 9:56
    Bunu nasıl kullandığımız
    tabii ki insan seçimlerine bağlı.
  • 9:56 - 9:59
    Ama bu üç çeşit zaafı düşünürsek
  • 9:59 - 10:02
    onları kullanma seçimimizle ilgili
    oldukça zayıf varsayımlar yapıyorlar.
  • 10:02 - 10:06
    Tür-1 zaaf, yeniden,
    bu büyük, yıkıcı güç,
  • 10:06 - 10:07
    milyonlarca insanlık bir nüfusta
  • 10:07 - 10:10
    bunu yıkıcı bir şekilde kullanacak
    birinin olacağını düşünmek
  • 10:10 - 10:13
    oldukça zayıf bir varsayım.
  • 10:13 - 10:15
    CA: Benim için tek rahatsız edici argüman,
  • 10:15 - 10:20
    ölüme mahkum edildiğimiz
    ihtimalinin yüksek olduğu
  • 10:20 - 10:23
    bir tür bakış açısına sahip olabilirdik.
  • 10:23 - 10:28
    Şöyle ki eğer hızlanan güce inanıyorsan --
  • 10:28 - 10:30
    giderek hızlanan teknolojiye
  • 10:30 - 10:33
    ve bununla bizi daha güçlü kılan
    araçları yaptığımıza
  • 10:33 - 10:38
    o hâlde bir noktada tek bir kişinin
    hepimizi yok edebileceği bir sahne çıkıyor
  • 10:38 - 10:41
    ve işimiz bitik görünüyor.
  • 10:41 - 10:44
    Bu argüman oldukça korkutucu değil mi?
  • 10:44 - 10:46
    NB: Ah, evet.
  • 10:47 - 10:48
    (Kahkahalar)
  • 10:48 - 10:49
    Bence --
  • 10:51 - 10:52
    Evet, gittikçe daha çok güç kazanıyoruz
  • 10:52 - 10:56
    ve bu gücü kullanmak gittikçe
    daha kolay hale geliyor
  • 10:56 - 11:00
    ama insanların bu gücü nasıl kullandığını
    kontrol etmemize yardımcı olacak
  • 11:00 - 11:02
    teknolojiler de üretebiliriz.
  • 11:02 - 11:05
    CA: O zaman bunun hakkında konuşalım,
    geri bildirim hakkında.
  • 11:05 - 11:09
    Şu an mevcut tüm ihtimalleri
    düşündüğünü var say --
  • 11:09 - 11:13
    sadece sentetik biyoloji değil,
    siber savaş gibi bir şey bu,
  • 11:13 - 11:17
    yapay zeka ve benzerleri gibi --
  • 11:17 - 11:21
    geleceğimizde ciddi bir
    kötü sonla karşılaşabiliriz.
  • 11:21 - 11:23
    Mümkün olan tepkiler neler?
  • 11:23 - 11:28
    Dört olası tepki hakkında da konuşmuştun.
  • 11:28 - 11:31
    NB: Teknolojik gelişime karşı bir
    durdurma hakkında konuşacak olursak
  • 11:31 - 11:35
    teknolojik gelişimleri kısıtlamak
    hiç mantıklı görünmüyor.
  • 11:35 - 11:36
    Bence ne ikisi de mümkün,
  • 11:36 - 11:38
    ne de bunu yapabilseydik bile
    bu çekici olurdu.
  • 11:38 - 11:41
    Bence, daha yavaş teknolojik
    gelişmeler isteyebileceğin
  • 11:41 - 11:44
    oldukça sınırlı alanlar olabilir.
  • 11:44 - 11:47
    Bana kalırsa biyolojik silahlarda
    ya da diyelim ki izotop ayırmada
  • 11:47 - 11:50
    atom bombası yaratmayı
    daha kolay hâle getirebilecek hızda
  • 11:50 - 11:52
    bir gelişme istemezsin.
  • 11:53 - 11:56
    CA: Eskiden buna tamamen katılırdım.
  • 11:56 - 11:59
    Ama bir dakikalığına
    bu fikri uzaklaştırıyorum.
  • 11:59 - 12:01
    Her şeyden önce,
  • 12:01 - 12:03
    eğer son birkaç on yıldaki
    tarihe bakacak olursak
  • 12:03 - 12:07
    bu her zaman son hızda ilerlemiştir,
  • 12:07 - 12:09
    bu konuda bir sıkıntı yok,
    tek şansımız bu.
  • 12:09 - 12:13
    Ama küreselleşmeye
    yükseliş hızına bakarsan
  • 12:13 - 12:16
    eğer "hızlı hareket et ve
    bir şeyleri kır" stratejisine
  • 12:16 - 12:18
    ve bununla ne olduğuna bakarsan
  • 12:18 - 12:21
    ve sonra sentetik biyolojinin
    potansiyeline bakacak olursan
  • 12:21 - 12:26
    her evde ve lise laboratuvarında bir DNA
    yazıcısı olabildiği bir dünyaya
  • 12:26 - 12:28
    hızlı bir şekilde
    veya hiçbir kısıtlama olmadan
  • 12:28 - 12:32
    devam etmeli miyiz bilmiyorum.
  • 12:33 - 12:35
    Bazı kısıtlamalar var değil mi?
  • 12:35 - 12:38
    NB: Muhtemelen, ilk bölüm,
    mümkün olmaz.
  • 12:38 - 12:40
    Bunu durdurmanın mantıklı
    olduğunu düşünürsen
  • 12:40 - 12:41
    uygulanabilirlik sorunu var olur.
  • 12:42 - 12:44
    Yani aslında bu hiç yardımcı olmazdı,
    şayet bir millet --
  • 12:44 - 12:46
    CA: Hayır bir millet yapsa
    yardımcı olmazdı
  • 12:46 - 12:49
    ama daha önce anlaşmalarımız vardı.
  • 12:49 - 12:53
    Bu aslında nükleer tehditlerden
    nasıl kurtulduğumuzun cevabı,
  • 12:53 - 12:54
    oraya giderek
  • 12:54 - 12:57
    ve pazarlığın zorlu sürecinden geçerek.
  • 12:57 - 13:02
    Sadece mantığının küresel bir öncelik
    olayı olup olmadığını merak ediyorum,
  • 13:02 - 13:04
    oraya gidip şunu denememeliyiz,
  • 13:04 - 13:09
    sentetik biyolojik araştırmaya dair
    kuralların müzakeresini yapmak...
  • 13:09 - 13:12
    bunu demokratikleştirmek
    istemezsin, değil mi?
  • 13:12 - 13:14
    NB: Buna kesinlikle katılıyorum --
  • 13:14 - 13:18
    bu oldukça ilgi çekici olurdu, mesela,
  • 13:18 - 13:22
    belki DNA sentez makinelerine sahip olmak,
  • 13:22 - 13:25
    her laboratuvarın kendine ait olan
    bir ürünü olarak değil
  • 13:25 - 13:27
    ama belki bir hizmet olarak.
  • 13:27 - 13:30
    Belki dünyada dijital planını
    yolladığın ve DNA'nın geri geldiği
  • 13:30 - 13:33
    dört ya da beş yer vardır, değil mi?
  • 13:33 - 13:35
    Ve sonra, yetiye sahip olabilirsin,
  • 13:35 - 13:37
    eğer bir gün bu gerçekten
    gerekli gibi görünürse
  • 13:37 - 13:40
    sınırlı bir miktar tıkanma noktasına
    sahip olabiliriz.
  • 13:40 - 13:43
    Sanırım sen daha sıkı bir kontrole
    sahip olabileceğin
  • 13:43 - 13:45
    özel fırsatlara bakmak istiyorsun.
  • 13:45 - 13:47
    CA: Temelde senin inancın,
  • 13:47 - 13:50
    sadece geri çekilerek başarılı
    olamayacağındır.
  • 13:50 - 13:52
    Birileri, bir yerler --
    mesela Kuzey Kore --
  • 13:52 - 13:56
    eğer bilgi keşfedilecek bir yerdetse
    biri oraya gidecek
  • 13:56 - 13:57
    ve bu bilgiyi keşfedecektir.
  • 13:57 - 14:00
    NB: Şu anki koşullar altında
    mantıklı duruyor.
  • 14:00 - 14:02
    Bu sadece sentetik biyoloji de değil.
  • 14:02 - 14:04
    Demek istediğim, dünyadaki her türlü
    derin ve yeni değişim
  • 14:04 - 14:06
    bir siyah topa dönüşebilir.
  • 14:06 - 14:08
    CA: Bir diğer olası tepkiye bakalım.
  • 14:08 - 14:10
    NB: Bence bu da sadece
    sınırlı potansiyele sahip.
  • 14:10 - 14:14
    Yani, yine Tür-1 zaafla,
  • 14:14 - 14:19
    dünyayı yok etmek için teşvik edilen
    insan sayısını düşürebilirsen
  • 14:19 - 14:22
    ve bu araçlara sadece onlar erişebilse
    işte bu güzel olurdu.
  • 14:22 - 14:25
    CA: Bizden yapmamızı istediğin bu görselde
  • 14:25 - 14:28
    yüz tanıma sistemiyle tüm dünyada
    dolaşan drone'ları hayal ediyorsun.
  • 14:28 - 14:31
    Sosyopatik davranış sergileyen
    birini saptadıklarında
  • 14:31 - 14:34
    onları sevgiyle yıkayıp düzeltiyorlar.
  • 14:34 - 14:36
    NB: Bunun hibrid bir görsel
    olduğunu düşünüyorum.
  • 14:36 - 14:40
    Eleme ya hapsetmektir ya da öldürmek
  • 14:40 - 14:43
    ya da onları daha iyi bir dünya
    görüşüne ikna etmek demektir.
  • 14:43 - 14:45
    Ama asıl nokta şu ki
  • 14:45 - 14:47
    bu konuda fazlasıyla
    başarılı olduğunu düşün
  • 14:47 - 14:50
    ve bu tür bireylerin sayısını
    yarıya düşürdüğünü.
  • 14:50 - 14:52
    Ve eğer bunu ikna yoluyla
    yapmak istiyorsan
  • 14:52 - 14:56
    insanları ikna etme uğraşında
    diğer tüm güçlerle rekabet hâlindesin,
  • 14:56 - 14:58
    partiler, din, eğitim sistemi.
  • 14:58 - 15:00
    Ama yarıya kadar düşürdüğünü varsay,
  • 15:00 - 15:02
    yine de riskin yarıya kadar
    düşeceğini düşünmüyorum.
  • 15:02 - 15:04
    Belki yüzde 10 ya da 5 düşebilir.
  • 15:04 - 15:08
    CA: İnsanlığın geleceğini tepki iki
    üzerine riske atmamızı önermiyorsun.
  • 15:08 - 15:11
    NB: Bence insanları vazgeçirmeye
    ve ikna etmeye çalışmakta sıkıntı yok
  • 15:11 - 15:14
    ama tek korumamız olarak
    buna sırt yaslamamalıyız.
  • 15:14 - 15:15
    CA: Peki ya üç?
  • 15:15 - 15:18
    NB: Bence olası zayıflıkların
    tüm spektrumuna karşı
  • 15:18 - 15:25
    dünyayı stabilize edebilmek için
    kullanabileceğimiz iki genel metot var.
  • 15:25 - 15:27
    Ve muhtemelen ikisine de
    ihtiyaç duyardık.
  • 15:27 - 15:33
    Biri, önleyici politikalar yapmanın
    oldukça etkili bir yetisi.
  • 15:33 - 15:35
    Müdahele edebilmek için.
  • 15:35 - 15:38
    Eğer biri tehlikeli bir şey
    yapmaya başlamışsa,
  • 15:38 - 15:40
    gerçek zamanlı olarak onları
    engelleyip durdurabilirsin.
  • 15:40 - 15:43
    Bu eş zamanlı gözetim gerektirirdi,
  • 15:43 - 15:45
    herkes, sürekli olarak izleniyor olurdu.
  • 15:46 - 15:49
    CA: Bu özünde bir tür "Azınlık Raporu."
  • 15:49 - 15:51
    NB: Yapay zekâ algoritmaların olabilir,
  • 15:51 - 15:55
    bunu inceleyen büyük
    özgürlük merkezleri gibi.
  • 15:57 - 16:01
    CA: Şu an bu kitle gözetimi pek sevilen
    bir terim değil biliyor musun?
  • 16:01 - 16:02
    (Kahkahalar)
  • 16:03 - 16:05
    NB: Evet, şuradaki küçük cihaz,
  • 16:05 - 16:09
    farklı yönlü bir sürü kameralı,
    sürekli takmak zorunda olduğun
  • 16:09 - 16:11
    o tarz bir kolyeyi hayal et.
  • 16:12 - 16:14
    Ama daha trajikomik hâle getirmek için
  • 16:14 - 16:16
    ona "özgürlük etiketi"
    ya da o tarz bir şey diyelim.
  • 16:16 - 16:18
    (Kahkahalar)
  • 16:18 - 16:19
    CA: Tamam.
  • 16:20 - 16:22
    Yani, bu bir sohbet, arkadaşlar,
  • 16:22 - 16:25
    bu denli akıllara durgunluk veren
    bir sohbet olmasının sebebi işte bu.
  • 16:25 - 16:29
    NB: Aslında, sadece bunun üzerine
    kurulabilecek büyük bir sohbet olur.
  • 16:29 - 16:32
    Bununla ilgili büyük problemler
    ve riskler var, değil mi?
  • 16:32 - 16:33
    Buna geri döneriz.
  • 16:33 - 16:34
    Ve diğeri, sonuncusu,
  • 16:34 - 16:37
    diğer genel dengeleme yetimiz
  • 16:37 - 16:39
    bir tür başka yönetişim boşluğu kapatmak.
  • 16:39 - 16:43
    Gözetim mikro düzeyde
    yönetişim boşluğu olurdu,
  • 16:43 - 16:46
    birilerini yasa dışı şeyler
    yapmaktan alıkoymak gibi.
  • 16:46 - 16:49
    Böylece, makro düzeyde
    küresel boyutta
  • 16:49 - 16:51
    uyumlu bir yönetim boşluğu olur.
  • 16:51 - 16:54
    En kötü türde küresel koordinasyon
    hatalarını engellemek için
  • 16:54 - 16:57
    bu yeteneğe ihtiyaç duyardık,
  • 16:57 - 17:01
    büyük güçler arası savaşları,
  • 17:01 - 17:03
    silah yarışlarını,
  • 17:03 - 17:06
    kataklizmik doğal kaynak sorunları için.
  • 17:08 - 17:11
    tüm bu Tip 2a zayıflıklarıyla
    başa çıkabilmek için.
  • 17:12 - 17:14
    CA: Küresel yönetişim, şu anda
  • 17:14 - 17:16
    kesinlikle demode olan bir terim,
  • 17:16 - 17:20
    ama konuyu tarih boyunca,
    insan tarihi boyunca işleyemez misin?
  • 17:20 - 17:25
    Teknolojik güç artışının her aşamasında
  • 17:25 - 17:29
    insanlar gücü yeniden düzenledi
    ve bir bakıma merkezleştirdiler.
  • 17:29 - 17:32
    Yani mesela bir grup başıboş suçlu,
  • 17:32 - 17:34
    toplumu ele geçirdiğinde
  • 17:34 - 17:36
    yanıt; peki, bir ulus devletin var
  • 17:36 - 17:38
    ve gücü merkezleştirdin,
    polisi ya da bir ordu,
  • 17:38 - 17:40
    yani "Hayır, bunu yapamazsın" olurdu.
  • 17:40 - 17:46
    İnsanlığı ele geçirebilecek
    bir insan ya da belki bir grup mantığı da
  • 17:46 - 17:50
    bir noktada bu yönden gitmemiz
    gerekecek anlamına gelmez mi?
  • 17:51 - 17:54
    NB: İnsanlık tarihinin yolu boyunca
    politik organizasyon ölçeğinin
  • 17:54 - 17:56
    yükseldiği kesinlikle doğru.
  • 17:56 - 17:59
    Eskiden avcı-toplayıcı grup vardı
  • 17:59 - 18:01
    ve sonra şerifler,
    şehir devletleri, uluslar,
  • 18:02 - 18:05
    şimdi uluslararası organizasyonlar var
    ve buna benzer şeyler.
  • 18:06 - 18:09
    Ben yine şunu vurgulamak istiyorum;
  • 18:09 - 18:12
    hem kitlesel gözetim
    hem de küresel yönetişime dair
  • 18:12 - 18:16
    dev dezavantajar
    ve de çok büyük riskler var.
  • 18:16 - 18:18
    Şunu vurgulamak istiyorum ki
    eğer şanslıysak
  • 18:18 - 18:20
    dünya öyle bir durumda olabilir ki
  • 18:20 - 18:22
    bir siyah toptan kurtulmanın
    tek yolu bunlar olur.
  • 18:22 - 18:26
    CA: Anladığım kadarıyla
    bu teorinin mantığı
  • 18:26 - 18:30
    hepsine sahip olamayacağımızı
    anlamamız gerektiği.
  • 18:30 - 18:32
    Bu bir bakıma,
  • 18:34 - 18:36
    teknolojinin her zaman iyiye
    kullanılacağına dair
  • 18:36 - 18:40
    hepimizin kurduğu
    saf bir hayal diyebilirim,
  • 18:40 - 18:43
    devam et, durma,
    gidebildiğin kadar hızlı git
  • 18:43 - 18:45
    ve bazı sonuçlara çok takılma
  • 18:45 - 18:47
    ki bu aslında bir seçenek sayılmaz.
  • 18:47 - 18:49
    Buna sahip olabiliriz.
  • 18:49 - 18:50
    Buna sahip olursak
  • 18:50 - 18:51
    bununla beraber
  • 18:51 - 18:54
    diğer rahatsız edici şeyleri de
    kabullenmek zorunda kalırız
  • 18:54 - 18:57
    ve bir bakıma kendimizle bir
    silahlanma yarışı içinde oluruz,
  • 18:57 - 18:59
    güç istiyorsan onu sınırlaman lazım,
  • 18:59 - 19:01
    nasıl sınırlandıracağını
    çözsen iyi edersin.
  • 19:01 - 19:04
    NB: Bence bu bir seçenek,
  • 19:04 - 19:07
    oldukça cazip bir seçenek,
    bi bakıma en kolay seçenek
  • 19:07 - 19:09
    ve işe yarayabilir
  • 19:09 - 19:13
    ama bu, özünde bir siyah top çekmeye
    eğimli olmamız anlamına gelir.
  • 19:13 - 19:16
    Bence biraz koordinasyonla
  • 19:16 - 19:20
    mesela, bu makro ve mikro yönetişim
    sorununu çözersen
  • 19:20 - 19:22
    vazodaki bütün topları çıkarırdık
  • 19:22 - 19:25
    ve bundan oldukça yararlanırdık.
  • 19:25 - 19:28
    CA: Bir simülasyonda yaşıyorsak bile
    bu fark eder mi?
  • 19:28 - 19:29
    Sadece yeniden başlatırız.
  • 19:29 - 19:31
    (Kahkahalar)
  • 19:31 - 19:32
    NB: O zaman... ben...
  • 19:32 - 19:35
    (Kahkahalar)
  • 19:35 - 19:36
    Bunu kestiremedim.
  • 19:38 - 19:39
    CA: Peki senin görüşün ne?
  • 19:39 - 19:44
    Bütün parçaları birleştirdiğinde
    işimizin bitik olduğu ne kadar olası?
  • 19:44 - 19:46
    (Kahkahalar)
  • 19:47 - 19:49
    Bu soruyu sorduğumda
    insanların gülmesine bayılıyorum.
  • 19:49 - 19:51
    NB: Bir birey düzeyinde,
  • 19:51 - 19:55
    zaten bir tür mahkumuz,
    sadece zaman çizgisiyle,
  • 19:55 - 19:58
    çürüyor, yaşlanıyor ve bu tür diğer
    şeyleri yaşıyoruz değil mi?
  • 19:58 - 19:59
    (Kahkahalar)
  • 19:59 - 20:01
    Bu aslında biraz yanıltıcı.
  • 20:01 - 20:03
    Bir ihtimal yakalamak için
    tuzak kurmak istiyorsan
  • 20:03 - 20:05
    ilk olarak, biz kimiz?
  • 20:05 - 20:07
    Eğer çok yaşlıysan, muhtemelen
    doğal sebeplerle öleceksin,
  • 20:08 - 20:10
    eğer çok gençsen önünde
    100 yılın olabilir --
  • 20:10 - 20:12
    ihtimali kime sorduğuna göre değişebilir.
  • 20:12 - 20:16
    Sonrasında eşik, mesela,
    ne medeniyet yıkımı olarak sayılır?
  • 20:16 - 20:23
    Yazıda, bunun sayılması için
    bir varoluş yıkımına ihtiyacım olmadı.
  • 20:23 - 20:25
    Bu sadece tanımsal bir mesele,
  • 20:25 - 20:26
    ben bir milyar ölü derim
  • 20:26 - 20:29
    ya da dünya GSYİH'sinde
    yüzde 50 bir azalma
  • 20:29 - 20:31
    ama senin eşiğe ne anlam
    yüklediğine bağlı,
  • 20:31 - 20:33
    sen farklı bir olası tahmin yürütürsün.
  • 20:33 - 20:37
    Ama sanırım beni korkmuş
    bir iyimser olarak yazardın.
  • 20:37 - 20:38
    (Kahkahalar)
  • 20:38 - 20:40
    CA: Sen korkmuş bir iyimsersin
  • 20:40 - 20:45
    ve bence büyük sayıda başka
    korkmuş insan yarattın.
  • 20:46 - 20:47
    (Kahkahalar)
  • 20:47 - 20:48
    NB: Simülasyonda.
  • 20:48 - 20:49
    CA: Simülasyonda.
  • 20:49 - 20:51
    Nick Bostrom, zihnine hayranım.
  • 20:51 - 20:54
    bize korku saldığın için çok teşekkürler.
  • 20:54 - 20:56
    (Alkışlar)
Title:
Medeniyet kendini nasıl yok edebilir -- ve bunu önlemenin 4 yolu
Speaker:
Nick Bostrom
Description:

İnsanlık bir "siyah top" üretme yolunda: hepimizi yok edebilecek teknolojik bir buluş, diye öneriyor filozof Nick Bostrom. TED'in lideri Chris Anderson'la olan bu isabetli, şaşırtıcı bir şekilde kaygısız konuşmada, Bostrom eğer buluşlarımız kontrolümüzün dışına çıkarsa karşı karşıya kalabileceğimiz zayıflıkların altını çiziyor ve gelecek nesillerimizi nasıl koruyabileceğimizi keşfe çıkıyor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Turkish subtitles

Revisions