WEBVTT 00:00:00.760 --> 00:00:04.600 Çocukken tam bir inektim. 00:00:05.344 --> 00:00:07.520 Galiba bazılarınız da inektiniz. NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (Kahkaha) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 Ve siz beyefendi, en sesli gülen, siz muhtemelen hala ineksiniz. NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (Kahkaha) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 Kuzey Teksas'ın tozlu düz arazilerinde küçük bir kasabada büyüdüm. 00:00:17.800 --> 00:00:21.136 Babam şerif, büyükbabam ise bir papazdı. 00:00:21.160 --> 00:00:23.080 Başımı belaya sokmak hiç kaçınılmaz değildi. 00:00:24.040 --> 00:00:27.296 Bu yüzden öylesine matematik kitapları okumaya başladım. NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (Kahkaha) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 Sen de okudun. 00:00:30.600 --> 00:00:34.336 Bu okumalar lazer, bilgisayar ve maket roketler yapmamı sağladı. 00:00:34.360 --> 00:00:37.360 Bunlar ise roket yakıtı yapmamı sağladı. 00:00:37.960 --> 00:00:41.616 Şimdi, bilimsel olarak 00:00:41.640 --> 00:00:44.896 biz buna "çok kötü bir fikir" deriz. NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (Kahkaha) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 O zamanlarda, 00:00:48.360 --> 00:00:51.576 Stanley Kubrick'in filmi "2001: Uzay Macerası" sinemalara gelmişti, 00:00:51.600 --> 00:00:53.800 ve benim hayatım sonsuza kadar değişmişti. 00:00:54.280 --> 00:00:56.336 Bu filmi çok sevmiştim, 00:00:56.360 --> 00:00:58.896 özellikle HAL 9000'i. 00:00:58.920 --> 00:01:00.976 HAL, uzay gemisi Keşif'i Dünya'dan 00:01:01.000 --> 00:01:03.456 Jüpiter'e götürmek için tasarlanmış 00:01:03.480 --> 00:01:06.016 duyguları olan bir bilgisayar. 00:01:06.040 --> 00:01:08.096 HAL ayrıca kusurlu bir karaktere sahip. 00:01:08.120 --> 00:01:12.400 Çünkü sonunda, görevi insan hayatına tercih etmişti. 00:01:12.840 --> 00:01:14.936 HAL uydurma bir karakter, 00:01:14.960 --> 00:01:17.616 ama yine de o korkularımızı simgeliyor, 00:01:17.640 --> 00:01:19.736 İnsanlığımızı umursamayan 00:01:19.760 --> 00:01:22.776 duygusuz bir yapay zeka tarafından 00:01:22.800 --> 00:01:24.760 kontrol altına alınma korkumuz. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 Bu tür korkuların yersiz olduğuna inanıyorum. 00:01:28.480 --> 00:01:31.176 Gerçekten de insan tarihinde 00:01:31.200 --> 00:01:32.736 olağanüstü bir zamandayız. 00:01:32.760 --> 00:01:37.736 Vücudumuzun ve aklımızın limitleri olduğunu kabul etmeyişimizle 00:01:37.760 --> 00:01:39.456 Yaşam deneyimini 00:01:39.480 --> 00:01:43.096 hayallerin ötesinde geliştirecek 00:01:43.120 --> 00:01:45.176 üstün bir karmaşıklık ve zarafete sahip 00:01:45.200 --> 00:01:46.880 makineler üretiyoruz. NOTE Paragraph 00:01:47.720 --> 00:01:50.296 Beni hava harp okulundan hava komutasına, oradan da 00:01:50.320 --> 00:01:52.256 şimdiye getiren kariyerden sonra 00:01:52.280 --> 00:01:53.976 sistem mühendisi oldum. 00:01:54.000 --> 00:01:56.736 Geçenlerde NASA'nın Mars göreviyle ilgili 00:01:56.760 --> 00:01:59.336 bir mühendislik probleminde yer aldım. 00:01:59.360 --> 00:02:01.856 Ay'a giden uzay uçuşlarında 00:02:01.880 --> 00:02:05.016 uçuşla ilgili her şeyde 00:02:05.040 --> 00:02:07.016 Houston'daki görev merkezine bağlıyız. 00:02:07.040 --> 00:02:10.576 Fakat, Mars 200 kat uzakta. 00:02:10.600 --> 00:02:13.816 Sonuç olarak, bir sinyalin Dünya'dan Mars'a ulaşması 00:02:13.840 --> 00:02:16.976 ortalama 13 dakika sürüyor. 00:02:17.000 --> 00:02:20.400 Bir sorun varsa, yeteri kadar zaman yok. 00:02:20.840 --> 00:02:23.336 Makul bir mühendislik çözümü sunmak için 00:02:23.360 --> 00:02:25.936 görev kontrolü uzay aracı Orion'ın 00:02:25.960 --> 00:02:28.976 içine koymamız gerekir. 00:02:29.000 --> 00:02:31.896 Görev profilindeki başka bir enteresan fikir 00:02:31.920 --> 00:02:34.816 insanlar Mars'a varmadan önce, 00:02:34.840 --> 00:02:36.696 Mars'ın yüzeyine insansı robotlar 00:02:36.720 --> 00:02:38.376 gönderip tesisler kurdurmak, 00:02:38.400 --> 00:02:41.760 sonra onları araştırma ekibinin ortak mensubu yapmak. NOTE Paragraph 00:02:43.400 --> 00:02:46.136 Bu fikre bir mühendisin bakış açısından baktığımda, 00:02:46.160 --> 00:02:49.336 tasarlamam gereken şeyin akıllı, iş birliği yapabilen, 00:02:49.360 --> 00:02:51.536 sosyal zekaya sahip bir yapay zeka olduğu 00:02:51.560 --> 00:02:53.936 çok açık ve netti. 00:02:53.960 --> 00:02:58.256 Başka deyişle, HAL'e çok benzeyen bir şey yapmam gerekti. 00:02:58.280 --> 00:03:00.696 ama adam öldürme meyili olmayan bir HAL. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (Kahkaha) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 Biraz ara verelim. 00:03:04.760 --> 00:03:08.656 Böyle bir yapay zeka yapmak gerçekten mümkün mü? 00:03:08.680 --> 00:03:10.136 Aslında mümkün. 00:03:10.160 --> 00:03:11.416 Bir çok yönüyle, 00:03:11.440 --> 00:03:13.416 yapay zeka ilkeleriyle, bu zor 00:03:13.440 --> 00:03:14.896 bir mühendislik problemidir, 00:03:14.920 --> 00:03:19.616 mühendisliği yapılacak basit bir yapay zeka problemi değil. 00:03:19.640 --> 00:03:22.296 Alan Turing'in dediği gibi, 00:03:22.320 --> 00:03:24.696 Duyguları olan bir makine yapmakla ilgilenmiyorum. 00:03:24.720 --> 00:03:26.296 Bir HAL yapmıyorum. 00:03:26.320 --> 00:03:28.736 Tek yapmak istediğim, 00:03:28.760 --> 00:03:31.880 zeka yanılsaması gösteren basit bir beyin. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 HAL ilk gösterildiğinden beri, programlama sanatı ve bilimi 00:03:36.160 --> 00:03:37.656 uzun yol kat etti. 00:03:37.680 --> 00:03:40.896 HAL'in yaratıcısı eğer burada olsaydı, 00:03:40.920 --> 00:03:43.256 eminim bize soracağı çok soru olurdu. 00:03:43.280 --> 00:03:45.376 "Milyonlarca cihazdan oluşan bir sistemin 00:03:45.400 --> 00:03:49.416 veri akışını okuyup onların hata ve eylemlerini 00:03:49.440 --> 00:03:50.896 önceden tahmin etmek 00:03:50.920 --> 00:03:53.176 gerçekten mümkün mü?" 00:03:53.200 --> 00:03:54.416 Evet. 00:03:54.440 --> 00:03:57.616 "İnsanlarla doğal dilde sohbet edebilen sistemler yapabilir miyiz?" 00:03:57.640 --> 00:03:58.856 Evet. 00:03:58.880 --> 00:04:01.856 "Objeleri ve duyguları tanımlayabilen, duygusal davranan 00:04:01.880 --> 00:04:05.256 oyun oynayabilen ve hatta dudak okuyabilen sistemler yapabilir miyiz? 00:04:05.280 --> 00:04:06.496 Evet. 00:04:06.520 --> 00:04:08.656 ''Hedefler koyup o hedefleri gerçekleştirmek 00:04:08.680 --> 00:04:12.296 için planlar yapan ve bu esnada öğrenen bir sistem yapabilir miyiz?'' 00:04:12.320 --> 00:04:13.536 Evet. 00:04:13.560 --> 00:04:16.896 "Akıl teorisi olan sistemler yapabilir miyiz?" 00:04:16.920 --> 00:04:18.416 İşte bunu yapmayı öğreniyoruz. 00:04:18.440 --> 00:04:21.920 "Etik ve ahlaki temeli olan sistemler yapabilir miyiz?" 00:04:22.480 --> 00:04:24.520 İşte bunu öğrenmek zorundayız. 00:04:25.360 --> 00:04:26.736 Farz edelim ki 00:04:26.760 --> 00:04:29.656 bu ve benzeri amaçlar için bu tür 00:04:29.680 --> 00:04:31.816 bir yapay zeka geliştirmek mümkün olsun. NOTE Paragraph 00:04:31.840 --> 00:04:34.376 Kendinize sormanız gereken ilk soru şu olmalı: 00:04:34.400 --> 00:04:35.856 Bundan korkmalı mıyız? 00:04:35.880 --> 00:04:37.856 Her yeni teknoloji 00:04:37.880 --> 00:04:40.776 korkuyu da kendiyle birlikte getirir. 00:04:40.800 --> 00:04:42.496 Arabaları ilk gördüğümüzde 00:04:42.520 --> 00:04:46.536 insanlar ailenin yok oluşunu göreceğimizden yakındılar. 00:04:46.560 --> 00:04:49.256 Telefonlar hayatımıza girdiğinde 00:04:49.280 --> 00:04:52.176 herkes bunun medeni konuşmayı tahrip edeceğinden endişeliydi. 00:04:52.200 --> 00:04:56.136 Yazılı kelimelerin kalıcı olduğunu anladığımız zaman 00:04:56.160 --> 00:04:58.656 insanlar ezber yeteneğimizin kaybolacağını sandılar. 00:04:58.680 --> 00:05:00.736 Bütün bunlar bir noktaya kadar doğru 00:05:00.760 --> 00:05:03.176 Fakat bu teknolojilerin yaşam deneyimimizi 00:05:03.200 --> 00:05:06.576 inanılmaz şekillerde geliştirecek şeyler 00:05:06.600 --> 00:05:08.480 getirdiği de bir gerçek. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Hadi bunu bir adım daha öteye taşıyalım. 00:05:13.120 --> 00:05:17.856 Bu tür bir yapay zekanın yaratılmasından korkmuyorum, 00:05:17.880 --> 00:05:21.696 çünkü zamanla yapay zeka bazı değerlerimizi cisimleştirecek. 00:05:21.720 --> 00:05:25.216 Şunu düşünün: Bilişsel bir sistem yapmak geleneksel yazılım yoğunluklu 00:05:25.240 --> 00:05:28.536 bir sistem yapmaktan temel olarak farklı. 00:05:28.560 --> 00:05:31.016 Onları programlamıyoruz. Onlara öğretiyoruz. 00:05:31.040 --> 00:05:33.696 Bir sisteme çiçekleri nasıl tanıyacağını öğretmek için 00:05:33.720 --> 00:05:36.736 ona sevdiğim türde binlerce çiçek gösteririm. 00:05:36.760 --> 00:05:39.016 Bir sisteme oyun oynamayı öğretmek için 00:05:39.040 --> 00:05:41.000 Öğretirdim, sen de öğretirdin. 00:05:42.600 --> 00:05:44.640 Çiçekleri severim, hadi ama. 00:05:45.440 --> 00:05:48.296 Bir sisteme Go gibi bir oyunu oynamayı öğretmek için 00:05:48.320 --> 00:05:50.376 Ona binlerce Go oynattırırdım. 00:05:50.400 --> 00:05:52.056 Fakat bu süreçte ona ayrıca 00:05:52.080 --> 00:05:54.496 iyi oyunu kötü oyundan ayırmayı da öğretirim. 00:05:54.520 --> 00:05:58.216 Yapay zekası olan bir avukat yardımcısı yaratmak istersem, 00:05:58.240 --> 00:06:00.016 ona biraz hukuk dağarcığı öğretirim, 00:06:00.040 --> 00:06:02.896 ama aynı zamanda hukukun bir parçası olan 00:06:02.920 --> 00:06:05.800 merhamet ve adalet duygusunu da aşılarım. 00:06:06.560 --> 00:06:09.536 Bilimsel olarak söyleyecek olursam, buna "kesin referans" deriz 00:06:09.560 --> 00:06:11.576 İşte önemli nokta şu: 00:06:11.600 --> 00:06:13.056 Bu makineleri üretirken 00:06:13.080 --> 00:06:16.496 onlara kendi değerlerimizden bir parça da öğretiriz. 00:06:16.520 --> 00:06:19.656 Bu noktaya kadar, daha çok olmasa da yapay zekaya iyi yetişmiş 00:06:19.680 --> 00:06:23.320 bir insana güvendiğim kadar güvenirim. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 Fakat şunu sorabilirsiniz: 00:06:25.320 --> 00:06:27.936 Ya kötüye kullanan 3. partiler? 00:06:27.960 --> 00:06:31.296 bazı iyi finanse edilmiş sivil toplum kuruluşları? 00:06:31.320 --> 00:06:35.136 Yalnız bir kurdun elindeki yapay zekadan korkmam. 00:06:35.160 --> 00:06:39.696 Açıkçası, kendimizi bütün rastgele şiddet olaylarına karşı koruyamayız. 00:06:39.720 --> 00:06:41.856 Ancak gerçeklik öyle bir sistem ki 00:06:41.880 --> 00:06:44.976 insan kaynaklarının çok ötesinde oldukça büyük 00:06:45.000 --> 00:06:47.296 ve kıvrak zekaya sahip bir eğitime ihtiyaç duyar. 00:06:47.320 --> 00:06:48.536 Dahası... 00:06:48.560 --> 00:06:51.816 Bir düğmeye basıp milyonlarca yere yayılan ve 00:06:51.840 --> 00:06:54.936 laptopların her yerde patlamasına yol açan bir internet virüsü 00:06:54.960 --> 00:06:57.416 sızdırmaktan çok daha fazlası. 00:06:57.440 --> 00:07:00.256 Bu tür maddeler çok daha büyük, 00:07:00.280 --> 00:07:01.995 ve kesinlikle bunlara tanık olacağız. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 Yapay zekanın bütün insanlığı 00:07:05.600 --> 00:07:07.560 tehdit edebileceğinden korkuyor muyum? 00:07:08.280 --> 00:07:12.656 "The Matrix", "Metropolis", "Terminator" gibi filmlere ya da 00:07:12.680 --> 00:07:15.856 "Westworld" gibi dizilere bakarsanız 00:07:15.880 --> 00:07:18.016 onlar hep bu tür bir korkudan bahsederler. 00:07:18.040 --> 00:07:22.336 Gerçekten de filozof Nick Bostrom "Süper Zeka" kitabında 00:07:22.360 --> 00:07:23.896 bu konudan bahseder. 00:07:23.920 --> 00:07:27.936 Süper zekanın sadece tehlikeli olabileceğini değil 00:07:27.960 --> 00:07:31.816 ayrıca varoluşsal bir tehdit oluşturabileceğini gözlemliyor. 00:07:31.840 --> 00:07:34.056 Dr. Bostrom'un temel argümanı şöyle: 00:07:34.080 --> 00:07:36.816 Bu sistemler zamanla o kadar çok 00:07:36.840 --> 00:07:40.096 bilgiye doyumsuzca aç olacaklar ki 00:07:40.120 --> 00:07:43.016 belki de öğrenmeyi öğrenecekler 00:07:43.040 --> 00:07:45.656 ve zamanla insanların ihtiyaçlarıyla çelişen 00:07:45.680 --> 00:07:47.976 amaçlara sahip olacaklar. 00:07:48.000 --> 00:07:49.856 Dr. Bostrom'un bir çok takipçisi var. 00:07:49.880 --> 00:07:54.200 Elon Musk ve Stephen Hawking gibi insanlar tarafından destekleniyor. 00:07:54.880 --> 00:07:57.280 Bu parlak beyinlere 00:07:58.160 --> 00:08:00.176 saygısızlık etmek istemem ama 00:08:00.200 --> 00:08:02.456 onların aslında hatalı olduğuna inanıyorum. 00:08:02.480 --> 00:08:05.656 Dr. Bostrom'un argümanlarının ayrıntılarına inmek isterdim ama 00:08:05.680 --> 00:08:07.816 o kadar zamanım yok. 00:08:07.840 --> 00:08:10.536 Şunu çok kısaca bir düşünün: 00:08:10.560 --> 00:08:14.296 Süper bilmek süper yapmaktan çok farklı. 00:08:14.320 --> 00:08:16.216 HAL Keşif'i bütün yönleriyle 00:08:16.240 --> 00:08:20.656 komuta ettiği sürece, o Keşif tayfasına karşı bir tehditti. 00:08:20.680 --> 00:08:23.176 Bu yüzden onun süper zekaya sahip olması gerekir. 00:08:23.200 --> 00:08:25.696 Onun bütün dünya üzerinde egemenliği olurdu. 00:08:25.720 --> 00:08:28.536 Bu The Terminator'deki Skynet şeyi işte, 00:08:28.560 --> 00:08:30.416 İnsan iradesi üzerinde kontrolü olan, 00:08:30.440 --> 00:08:31.816 dünyanın her bir köşesindeki 00:08:31.840 --> 00:08:35.696 her bir cihazı yöneten bir süper zeka. 00:08:35.720 --> 00:08:37.176 Gerçekçi konuşursak, 00:08:37.200 --> 00:08:39.296 bu olmayacak. 00:08:39.320 --> 00:08:42.376 Bizler havayı kontrol eden, zamanı yönlendiren, 00:08:42.400 --> 00:08:43.736 kaprisli, karmakarışık 00:08:43.760 --> 00:08:47.136 insanları komuta eden yapay zekalar yapmıyoruz. 00:08:47.160 --> 00:08:51.056 Buna ek olarak, böyle bir yapay zeka olsaydı, 00:08:51.080 --> 00:08:54.016 insan ekonomisiyle yarışmak zorunda olurdu, dolayısıyla 00:08:54.040 --> 00:08:56.560 kaynaklar için bizimle yarışırlardı. 00:08:57.200 --> 00:08:58.416 Sonunda 00:08:58.440 --> 00:08:59.680 Siri'ye şunu söylemeyin: 00:09:00.440 --> 00:09:01.816 "Hiç olmadı fişini çekeriz." NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (Kahkaha) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 Makinelerimizle mükemmel bir 00:09:07.840 --> 00:09:10.336 evrim birlikteliği yolculuğundayız. 00:09:10.360 --> 00:09:12.856 Bugünkü olduğumuz insan 00:09:12.880 --> 00:09:15.416 o zamankiyle aynı olmayacak. 00:09:15.440 --> 00:09:18.576 Süper zekanın yükselişi hakkında şimdi bu kadar endişelenmemiz 00:09:18.600 --> 00:09:21.656 bir çok yönüyle tehlikeli bir dikkat dağınıklığıdır, 00:09:21.680 --> 00:09:24.016 çünkü programlamanın yükselişi 00:09:24.040 --> 00:09:27.056 bize çözmemiz gereken bir çok insancıl ve toplumsal 00:09:27.080 --> 00:09:28.720 sorunlar getirecek. 00:09:29.360 --> 00:09:32.176 İnsanların iş gücüne olan ihtiyaç azaldığında 00:09:32.200 --> 00:09:34.536 toplumda düzeni en iyi nasıl sağlarım: 00:09:34.560 --> 00:09:38.376 Dünya geneline nasıl anlayış ve eğitim getiririm ve yine de 00:09:38.400 --> 00:09:40.176 farklılıklarımıza saygı gösteririm? 00:09:40.200 --> 00:09:44.456 İnsan hayatını bilişsel sağlık hizmeti ile nasıl genişletebilir ve geliştirebilirim? 00:09:44.480 --> 00:09:47.336 Bizi yıldızlara götürecek programlamayı 00:09:47.360 --> 00:09:49.120 nasıl kullabilirim? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 İşte bu heyecan verici bir şey. 00:09:52.400 --> 00:09:54.736 İnsan deneyimini ilerletmek için 00:09:54.760 --> 00:09:56.296 programlama kullanma fırsatı 00:09:56.320 --> 00:09:57.736 elimizde 00:09:57.760 --> 00:09:59.616 Bu aralar 00:09:59.640 --> 00:10:01.320 daha yeni başlıyoruz. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 Çok teşekkürler. NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (Alkış)