Birçoğumuzun muzdarip olduğu
bir önsezi yetersizliğinden bahsedeceğim.
Belirli tür bir tehlikeyi
sezmek gerçekten bir yetersizliktir.
Bir senaryo anlatacağım,
korkunç olduğunu düşündüğüm
ve gerçekleşmesi muhtemel olan
ve görünen o ki
iyi bir kombinasyon da değil.
Yine de korkmak yerine
çoğunuz, bahsettiklerimin
havalı olduğunu düşüneceksiniz.
Yapay zekâdaki kazanımlarımızın
nihayetinde bizi nasıl
mahvedeceğinden bahsedeceğim.
Hatta bence, bizi mahvetmeyeceğini
veya kendimizi mahvetmeyi bize
aşılamayacağını düşünmek çok güç.
Fakat sizler de benim gibiyseniz,
bunları düşünmenin zevkli
olacağını keşfedeceksiniz.
Ve bu yanıtta sorunun bir parçası.
Bu yanıt sizi endişelendirmeli.
Bu konuşmada sizi, olası bir
küresel bir kıtlığa,
iklim değişikliği veya
başka bir afetten dolayı,
torunlarınız veya
onların torunlarının muhtemelen
bu şekilde yaşama durumuna
yakın olduğuna ikna ediyor olsaydım,
"İlginç.
Bu TED konuşmasını beğendim."
diye düşünmezdiniz.
Kıtlık eğlenceli değildir.
Diğer taraftan bilim
kurgudaki ölüm ise eğlencelidir
ve bu noktada beni yapay zekâdaki
en çok endişelendiren gelişmelerden biri,
önümüzde uzanan tehlikelere,
uygun duyarlı bir yanıtı
sıralayamıyor gibi görünüyoruz.
Bu yanıtı sıralayamıyorum ve
bu konuşmayı yapıyorum.
İki kapının önünde duruyoruz gibi.
1 numaralı kapının ardında
zeki makine üretmedeki
gelişmeleri durduruyoruz.
Her nedense bilgisayarlarımızın donanım
ve yazılımı daha iyi olmayı durduruyor.
Şimdi bir dakikanızı ayırın ve bunun
neden olabileceğini değerlendirin.
Yani, zekâ ve otomasyonun ne kadar
değerli olduğu göz önüne alındığında,
yapabilirsek, teknolojimizi geliştirmeye
devam edeceğiz.
Bunu yapmamızı ne engelleyebilir?
Büyük çaplı bir nükleer savaş mı?
Küresel bir salgın mı?
Asteroit çarpması mı?
Justin Bieber'in Amerika Başkanı
olması mı?
(Kahkahalar)
Mesele şu ki, bildiğimiz üzere
bir şeyler medeniyeti yok etmeli.
Ne kadar kötü
olabileceğini hayal etmelisiniz,
teknolojimizde iyileştirme
yapmamızı engellemenin,
daimi olarak,
nesilden nesile.
Neredeyse, doğası gereği
bu, insan tarihinde gerçekleşen
en kötü şey.
Bu yüzden tek alternatif,
ikinci kapının ardındaki,
akıllı makinelerimizi yıllar geçtikçe
geliştirmeye devam etmemiz.
Bir noktada da bizden daha
akıllı makineler inşa edeceğiz
ve bizden akıllı makinelerimiz
olduğunda onlar,
kendilerini geliştirmeye başlayacaklar.
Ve sonra, matematikçi IJ Good'un
"zekâ patlaması" olarak
adlandırdığı bu süreçle,
bizden kurtulabilecekler.
Sıklıkla karikatürize edilir,
benim de burada yaptığım gibi,
korku kötücül robot ordularının
bize saldırmaları.
Ama bu çok da olası bir senaryo değil.
Kendiliğinden makinelerimiz
kötücül olacak değil.
Asıl kaygılandıran ise;
bizden o kadar çok daha yetkin
makineler üreteceğiz ki bizim ve onların
amaçları arasındaki
en küçük bir fark, bizi
ortadan kaldırabilecek.
Nasıl da karıncalar gibi
olacağımızı bir düşünün.
Onlardan nefret etmiyoruz.
Onlara zarar vermek için
yolumuzu değiştirmiyoruz.
Üstelik bazen onlara zarar
vermemeye çalışıyoruz.
Kaldırımlarda üzerlerinden geçiyoruz.
Ancak ne zaman onların varlıkları
bizim hedeflerimizle çakışsa,
diyelim ki bu gibi bir bina inşa ederken,
tereddütsüz imha edebiliyoruz onları.
Endişe uyandıran ise bir gün,
bilinçli olsun veya olmasın
bize de benzer bir umursamazlıkla
muamele edebilecek
makineler üreteceğiz.
Zannederim ki bir çoğunuza ihtimal
dışı görünüyor bu durum.
Eminim ki bazılarınız süper zeki
Yapay Zekâ'nın kaçınılmaz olması
şöyle dursun,
mümkünlüğünden dahi şüphe duyuyor.
Ancak sonra ileriki varsayımlardan
bazılarında bir tuhaflık bulmalısınız.
Ve sadece üç tanesi var.
Zekâ, fiziksel sistemlerde
bilgi işleme ile ilgilidir.
Aslında bu bir varsayımdan biraz fazla.
Zaten makinelerimizde kısıtlı
zekâyı kurduk ve
bu makinelerin çoğu çoktan
üstün insan seviyesinde bir
performansta.
Ve biliyoruz ki bu mutlak mesele,
"genel zekâ" denilen birçok
alanda esneklikle
düşünebilme yeteneğine sebep olabilir,
çünkü beyinlerimiz bunu başardı değil mi?
Yani sadece atomlar var burada
ve biz gitgide daha zeki
davranışlar sergileyen atomlar
sistemi kurmaya devam ettikçe,
nihayetinde makinelerimize
genel zekâyı kurabileceğiz,
engellenmedikçe.
İlerlemenin seviyesinin önemli
olmadığının farkına varmak çok mühim,
çünkü herhangi bir gelişme
bizi sayı çizgisine getirmeye yetebilir.
Devam etmek için Moore
kanununa gerek yok.
Üstel bir gelişime ihtiyacımız yok.
Sadece devam etmeliyiz.
İkinci varsayım ise devam etmemiz.
Akıllı makinelerimizi geliştirmeye
devam edeceğiz.
Ve zekânın değeri göz önüne alınırsa,
yani zekâ ya bütün değer
verdiklerimizin kaynağıdır ya da
değer verdiğimiz her şeyi
korumak için ona ihtiyacımız vardır.
Bizim en değerli kaynağımızdır.
O yüzden bunu yapmak isteriz.
Umutsuzca çözmek istediğimiz
problemlerimiz vardır.
Alzheimer ve kanser gibi
hastalıkları tedavi etmek isteriz.
Ekonomi sistemlerini anlamak isteriz.
İklim bilimini ilerletmek isteriz.
Yani yapabilirsek bunu yapacağız.
Tren çoktan istasyondan çıktı ve
basılabilecek bir fren yok.
Velhasıl, zekânın zirvesinde duramayız
ya da yakınında herhangi bir yerde.
Ve bu gerçekten mühim bir öngörüdür.
Durumumuzu istikrarsız yapan ve
risk hakkındaki sezgilerimizi güvenilmez
kılan bu durum.
Şimdi yaşamış en zeki insanı düşünün.
Buradaki hemen hemen herkesin
son listesinde John von Neumann vardır.
Yani, John von Neumann' nın çevresindeki
insanlardaki etkisi,
zamanının en iyi matematikçileri
ve fizikçileri de dâhil olmak üzere,
oldukça detaylı olarak hazırlanmış.
Hakkında anlatılanların yarısı
yarı gerçek ise
şimdiye dek yaşamış
en zeki insan olduğuna şüphe yok.
Öyleyse zekâ spektrumunu bir düşünün.
Bir tarafta John von Neumann
ve diğer tarafta siz ve ben.
Ve bir de tavuk.
(Gülüşmeler)
Pardon, bir tavuk.
(Gülüşmeler)
Bu konuşmayı gereğinden daha
depresif yapmama gerek yok.
(Gülüşmeler)
Ezici bir üstünlükle olası görünüyor
ancak zekâ spektrumu
şu anda tasarlayabileceğimizden
daha da ileriye uzanıyor
ve kendimizden daha zeki
makineler üretirsek
büyük ihtimalle bu spektrumu
hayal edemeyeceğimiz
ölçüde keşfedecekler
ve o ölçüde bizi aşacaklar.
Ve hızın fazileti gereği bunun
doğru olduğunu anlamak önemli.
Değil mi? Stanford veya MIT'deki
ortalama araştırmacı takımınızdan
daha zeki olmayan süper zeki
Yapay Zekâ
geliştirdiğimizi düşünün.
Elektronik devreler,
biyokimyasallardan milyon kez
daha hızlı çalışır, yani
bu makine onu yapan beyinlerden
milyon kez daha
hızlı çalışmalıdır.
Bir haftalığına çalışmaya ayarlasanız
ve insan seviyesinde 20.000 yıl
sürecek zihinsel
işleri yapacak, haftalarca.
Engellemek şöyle dursun,
bu tarz bir zihinsel
ilerlemeyi nasıl durdurabiliriz ki?
Endişe uyandıran diğer bir şey ise,
açıkcası, olabilecek en iyi
senaryoyu düşünün.
Hiçbir kaygı barındırmayan
bir süper zeki Yapay Zekâ
tasarımı keşfettiğimizi düşünün.
İlk seferde en iyi tasarımı bulduk.
Tam da istenilen şekilde davranan bir
kâhin bize verilmiş gibi.
Bu makine müthiş bir işten
tasarruf ettiren bir aygıt olurdu.
Güneş ışığıyla çalışan, herhangi
bir fiziksel işi yapabilen,
aşağı yukarı ham maddeleri
maliyetinde olan makineyi
yapabilecek makineyi tasarlayabilir.
Yani insanların yaptığı angarya
işlerin sonundan bahsediyoruz.
Aynı zamanda çoğu zihinsel işlerin de
sonundan bahsediyoruz.
Böyle bir durumda biz
maymunlar ne yapardık?
Birbirimize masaj yapabilir ve
frizbi oynayabiliriz.
Biraz LSD ve tartışmaya açık
giysi seçimlerini de ekleyin
ve bütün dünya Burning
Man (festival) gibi olabilir.
(Gülüşmeler)
Şimdi kulağa hoş gelebilir ama
kendinize şu anki ekonomik
ve siyasi düzenimizde
ne olabileceğini sorun.
Daha önce görmediğimiz düzeyde
eşitsiz bir zenginlik ve işsizliğe
tanık olurduk gibi görünüyor.
Bu yeni zenginliği derhal tüm
insanlığın hizmetine
sunmadaki isteksizlikle,
dünyanın geri kalanı açlıktan
ölürken birkaç trilyoner
ekonomi dergilerimizin
kapaklarını süslüyor olabilir.
Peki ya Ruslar ya da Çinliler,
Silikon Vadisi'ndeki
bazı şirketlerin üstün zeki
Yapay Zekâ'yı dağıtmak
üzere olduğunu duysa ne yaparlardı?
Karasal ya da siber, bu makine
tahmin edilemez bir güçle savaş
çıkarabilecek potansiyelde olurdu.
Bu kazananın her şeyi
aldığı bir senaryo.
Buradaki rekabetten 6 ay
ilerde olmak
minimum 500.000 yıl
ileride olmaktır.
Demek ki bu tür bir atılımın
sadece söylentisi bile
türümüzün çıldırmasına yol açabiliyor.
Şimdi en korkutucu şeylerden bir tanesi
bana göre, şu anda,
Yapay Zekâ araştırmacılarının
güven verici olmak istediklerinde
söyledikleri şeyler.
Ve en sık bize endişe etmememiz
için söylenen neden ise zaman.
Çok çok uzakta, haberin yok mu?
Muhtemelen 50 ya da 100 yıl kadar uzakta.
Bir araştırmacı dedi ki;
"Yapay Zekâ güvenliği için endişelenmek
Mars'ta aşırı nüfus artışına
endişelenmek gibi."
Bu Silikon Vadisi'nin
"Sıkmayın tatlı canınızı" versiyonu.
(Gülüşmeler)
Zamana referanslamanın
tamamen yersiz bir deyim
olduğunu kimse fark etmiyor.
Zekâ eğer bilgi işlemeden ibaretse
ve biz makinelerimizi geliştirmeye
devam edersek
bir tür süper zekâ üreteceğiz.
Ve güvenli bir biçimde yapmak için
gerekli şartları yaratmanın
ne kadar süreceği hakkında
hiçbir fikrimiz yok.
Bir daha söyleyeyim.
Güvenli bir biçimde yapmak için
gerekli şartları yaratmanın
ne kadar süreceği hakkında
hiçbir fikrimiz yok.
Ve eğer fark etmediyseniz,
50 yıl eskisi gibi değil artık.
Bu ay olarak 50 yıl.
Bu kadar zamandır iPhone var.
Bu kadar zamandır "The Simpsons"
(Simpsonlar) televizyonda.
50 yıl, türümüzün karşılaşabileceği
en büyük zorluklar için
fazla bir zaman değil.
Bir defa daha uygun duygusal karşılık
vermede başarısız gibiyiz,
yaklaştığına inanmamız için
tüm gerekçelere sahipken.
Bilgisayar bilimcisi Stuart Russell'ın
güzel bir benzetimi var.
Diyor ki; uzaylı bir medeniyetten
bir mektup aldığımızı düşünün,
şöyle diyor:
"Dünya Halkı,
50 yıl içinde gezegeninize ulaşacağız.
Hazırlanın."
Ve şimdi, ana gemi varana kadar
ay ay geri mi sayacağız?
Normalden biraz daha fazla
aciliyet hissederdik.
Endişelenmememiz söylenen
bir diğer gerekçe ise
bu makinelerin istemeden bizim
değerlerimizi paylaşacak
olmaları, çünkü
bizim devamımız gibi olacaklar.
Beyinlerimize aşılanacaklar
ve temelde onların limbik
sistemi olacağız.
Şimdi bir dakikanızı ayırın ve
önümüzdeki en sağlam ve ihtiyatlı yolun,
önerilenin, bu teknolojiyi
direkt olarak beyinlerimize
yerleştirmek olduğunu değerlendirin.
Belki de bu, önümüzdeki en güvenli
ve özenli yol olabilir
ama genelde kişinin teknoloji hakkındaki
güvenlik endişelerinin
kafasının içine bir şey yerleştirmeden
çözülmesi gerekir.
(Kahkahalar)
Daha derindeki problem ise süper zeki
YZ geliştirmek başlı başına
daha kolay gibi görünüyor,
sorunsuzca zihinlerimizle entegre
olabilen tamamlanmış sinirbilimli
bir yapay zekâ geliştirmektense.
Ve farz edelim ki devletlerin ve
şirketlerin bunu yapıyorken
birbirleriyle yarış
içerisindeymişçe algılamaları
ve bu yarışı kazanmalarının da
dünyayı kazanmak sanmaları,
peşi sıra mahvetmemek şartıyla,
sonrasında hangisi en kolaysa
ilk o yapılacakmış gibi görünüyor.
Şu an ne yazık ki bu soruna bir
çözümüm yok,
çoğumuza bunu düşünmeyi önermek dışında.
Yapay Zekâ konusunda Manhattan
Projesi gibi
bir şeye ihtiyacımız var.
Geliştirmek için değil, çünkü
kaçınılamaz bir şekilde
yapacağız bana göre,
ama silahlanma yarışından
nasıl kaçıncağımızı anlamak
ve menfaatlerimiz doğrultusunda
inşa etmek için.
Süper zeki YZ 'nın kendi
başına değişiklikler
yapabileceğinden bahsederken,
ana koşulları doğru anlamada tek
şansımız varmış gibi görünüyor
ve o zaman dahi bunları doğru anlamanın
siyasi ve ekonomik sonuçlarını
özümsememiz gerekecektir.
Bilgi işlemenin yapay zekânın
kaynağı olduğunu kabul ettiğimiz an,
bu bazı uygun hesaplama sistemlerinin
zekânın temeli olduğunu
ve bu sistemleri aralıksız
geliştireceğimizi kabul ettiğimizde
ve bilişin ufkunun bildiğimizden
daha uzaklara uzandığını
kabul ettiğimizde,
bir çeşit yaratıcı
geliştirme sürecinde olduğumuzu
kabul etmek durumunda olacağız.
Şu an ise bu yaratıcıyla
yaşayabilme durumumuza
karar vermek için doğru zaman olabilir.
Çok teşekkürler.
(Alkışlar)