0:00:00.960,0:00:03.936 Hikâye 1985 yılında, 0:00:03.960,0:00:05.936 ben daha 22 yaşımdayken 0:00:05.960,0:00:08.336 Anatoly Karpov'u yenip 0:00:08.360,0:00:11.560 Dünya Satranç Şampiyonu olmamla başlıyor. 0:00:12.480,0:00:13.736 O yılın başlarında, 0:00:13.760,0:00:17.376 Almanya Hamburg'da,[br]simultane satranç denen bir oyunda[br] 0:00:17.400,0:00:21.696 dünyanın en iyi 32 satranç makinesiyle 0:00:21.720,0:00:23.080 aynı anda oynadım. 0:00:24.160,0:00:25.360 Tüm oyunları ben kazandım. 0:00:26.560,0:00:29.736 32 bilgisayarı aynı anda yenmeme rağmen 0:00:29.760,0:00:33.800 o zamanlar buna pek[br]şaşıran olmamıştı, tabii. 0:00:34.480,0:00:37.056 O benim altın çağımdı. 0:00:37.080,0:00:39.176 (Gülüşmeler) 0:00:39.200,0:00:40.720 Makineler zayıftı, 0:00:41.680,0:00:43.016 saçlarım da gürdü. 0:00:43.040,0:00:45.240 (Gülüşmeler) 0:00:46.720,0:00:48.776 Bundan yalnızca 12 yıl sonra, 0:00:48.800,0:00:53.416 canımı zor kurtardığım bir maçta[br]tek bir bilgisayara karşı savaşıyordum. 0:00:53.440,0:00:54.640 Bu maça, 0:00:55.360,0:00:57.416 Newsweek dergisinin kapağında 0:00:57.440,0:00:59.216 "Beynin Son Çırpınışı" demişlerdi. 0:00:59.240,0:01:00.456 Baskı yok canım. 0:01:00.480,0:01:02.000 (Gülüşmeler) 0:01:03.040,0:01:05.616 Mitolojiden bilim kurguya pek çok yerde 0:01:05.640,0:01:08.376 insanın makineyle mücadelesi 0:01:08.400,0:01:11.160 ölüm kalım savaşı olarak resmedilir. 0:01:11.960,0:01:13.536 John Henry, 0:01:13.560,0:01:15.256 yani 19. yüzyıldaki Afro-Amerikan 0:01:15.280,0:01:19.056 halk efsanesinde adı geçen bir taş delici 0:01:19.080,0:01:20.456 dağdaki kayaları delerken 0:01:20.480,0:01:23.216 buharlı deliciye karşı girdiği yarışta 0:01:23.240,0:01:25.600 delik deşik edilmişti. 0:01:26.800,0:01:31.000 John Henry'nin efsanesi, insanın[br]makine karşısındaki yenilgisini konu alan 0:01:31.680,0:01:34.760 uzun bir hikâyenin bir parçası yalnızca. 0:01:36.200,0:01:39.080 Bu rekabetçi söylem bugün artık her yerde. 0:01:39.560,0:01:41.520 Makinelere karşı yarıştayız. 0:01:42.360,0:01:44.440 Kavga hatta savaş bile[br]diyebilirsiniz buna. 0:01:45.880,0:01:47.496 İşler ortadan kalkıyor. 0:01:47.520,0:01:51.080 İnsanların yerini makineler alıyor,[br]sanki insan kalmamış gibi. 0:01:52.240,0:01:55.736 "Terminatör" ve "Matrix"[br]gibi filmlerin artık gerçek olması 0:01:55.760,0:01:56.960 yeter de artar bile. 0:01:59.640,0:02:03.960 İnsan beyninin veya bedeninin 0:02:05.360,0:02:09.616 bir bilgisayarla veya robotla[br]eşit şartlarda kapışacağı 0:02:09.639,0:02:11.480 çok az alan kaldı. 0:02:12.280,0:02:14.138 Aslında, keşke bu kadar az olmasaydı. 0:02:15.760,0:02:16.960 Ama aksine, 0:02:17.840,0:02:22.496 bugün hâlâ konuşulan 0:02:22.520,0:02:25.216 makineyle insanın mücadelesinde 0:02:25.240,0:02:28.336 kelimenin tam anlamıyla efsaneleşmek 0:02:28.360,0:02:30.240 benim hem şansım, hem de lanetimdi. 0:02:33.120,0:02:38.136 John Henry'den sonraki en ünlü[br]insan-makine kapışmasında 0:02:38.160,0:02:40.736 iki maç yaptım. 0:02:40.760,0:02:44.200 İkisi de IBM süper bilgisayarı[br]Deep Blue'ya karşıydı. 0:02:47.040,0:02:49.216 Hiç kimse ilk maçı kazandığımı hatırlamaz. 0:02:49.240,0:02:51.576 (Gülüşmeler) 0:02:51.600,0:02:55.000 (Alkış) 0:02:55.920,0:03:00.896 Bu Philadelphia'daydı; sonraki sene[br]New York'ta ikinci maçı kaybetmeden önce. 0:03:00.920,0:03:02.680 Bu gayet adil, tabii. 0:03:04.320,0:03:09.416 Everest Dağı'na tırmanmayı[br]deneyip de başaramayanların adı 0:03:09.440,0:03:12.936 tarihe yazılmadı, ta ki Sir Edmund Hillary[br] 0:03:12.960,0:03:15.696 ve Tenzing Norgay tepeye ulaşıp 0:03:15.720,0:03:16.920 tarih yazana dek. 0:03:17.960,0:03:21.720 1977 yılında ben hâlâ dünya şampiyonuydum, 0:03:24.520,0:03:28.720 bilgisayarlarsa rüştünü yeni ispatlamıştı. 0:03:29.520,0:03:31.496 Everest Dağı bendim 0:03:31.520,0:03:33.120 ve Deep Blue zirveye ulaşmıştı. 0:03:34.600,0:03:38.656 Aslına bakarsanız, bunu yapan[br]Deep Blue değildi tabii ki, 0:03:38.680,0:03:40.816 onun insan yaratıcılarıydı bunu başaran, 0:03:40.840,0:03:44.176 Anantharaman, Campbell, Hoane ve Hsu. 0:03:44.200,0:03:45.400 Onlara şapka çıkarıyorum. 0:03:46.840,0:03:51.256 Her zaman olduğu gibi, makinanın[br]zaferi aslında insanın zaferiydi. 0:03:51.280,0:03:56.040 İnsanlar kendi yaratımları tarafından[br]geçildiğinde bunu unutuyoruz genellikle. 0:03:58.360,0:03:59.800 Deep Blue galip gelmişti. 0:04:01.400,0:04:02.600 Zeki miydi peki? 0:04:03.360,0:04:05.120 Hayır, değildi. 0:04:06.200,0:04:11.256 Alan Turing ve bilgisayar biliminin[br]diğer kurucularının umduğu şekilde 0:04:11.280,0:04:12.480 değildi en azından. 0:04:13.240,0:04:18.016 Görüldü ki donanım[br]yeterli hıza ulaştığında 0:04:18.040,0:04:22.296 ve algoritmaların zekâsı keskinleştiğinde 0:04:22.320,0:04:25.280 kaba kuvvet satrancı ezip geçebiliyordu. 0:04:26.760,0:04:30.456 Oysa elde edilen sonuca bakıldığında 0:04:30.480,0:04:33.696 büyük usta seviyesindeki[br]satranç oyunlarında 0:04:33.720,0:04:35.000 Deep Blue zekiydi. 0:04:37.320,0:04:39.720 Ama dakikada 200 milyon[br]hamle hesaplayabilen 0:04:40.560,0:04:43.760 inanılmaz hızına rağmen 0:04:45.360,0:04:46.560 Deep Blue'nun yöntemi 0:04:47.360,0:04:53.960 insan zekâsının merak edilen gizemlerini[br]kavramamıza pek yardımcı olamadı. 0:04:56.960,0:04:58.776 Pek yakında, 0:04:58.800,0:05:01.376 makineler taksi şoförü, 0:05:01.400,0:05:03.816 doktor ve profesör olacaklar. 0:05:03.840,0:05:06.440 "Zeki" olacaklar mı peki? 0:05:07.840,0:05:10.336 Bu tanımlamaları filozoflara 0:05:10.360,0:05:13.920 veya sözlüklere bırakmayı tercih ederim. 0:05:15.440,0:05:19.320 Asıl önemli olan soru şu, 0:05:20.320,0:05:23.920 biz insanlar bu makinelerle yaşama[br]ve çalışma konusunda ne hissediyoruz? 0:05:26.160,0:05:31.416 Deep Blue ile 1996 yılının[br]Şubat ayında tanıştım. 0:05:31.440,0:05:34.040 O sırada 10 yıldan fazladır[br]dünya şampiyonuydum. 0:05:36.080,0:05:40.096 182 dünya şampiyonluğu maçı oynamıştım. 0:05:40.120,0:05:45.216 Farklı müsabakalarda dünyanın en iyi[br]oyuncularıyla yüzlerce maç yapmıştım. 0:05:45.240,0:05:50.296 Hem rakiplerimden, hem de kendimden 0:05:50.320,0:05:52.000 ne bekleyeceğimi biliyordum. 0:05:52.680,0:05:57.856 Beden dillerini gözlemleyerek[br]ve gözlerine bakarak 0:05:57.880,0:06:01.496 hamlelerini kafamda ölçmeye 0:06:01.520,0:06:05.360 ya da ruh hallerini[br]hesaba katmaya alışkındım. 0:06:05.880,0:06:09.880 Sonra Deep Blue'nun karşısında[br]satranç tahtasının başına geçtim. 0:06:12.960,0:06:15.816 Daha o anda yeni bir şey sezdim, 0:06:15.840,0:06:17.160 beni huzursuz eden bir şey. 0:06:19.440,0:06:22.240 Buna benzer bir şeyi 0:06:23.320,0:06:25.856 ilk kez şoförü olmayan[br]bir arabaya bindiğinizde 0:06:25.880,0:06:30.720 veya yeni bilgisayar müdürünüz[br]size görev verdiğinde hissedebilirsiniz. 0:06:33.800,0:06:36.920 Ama o ilk oyuna başladığımda 0:06:38.080,0:06:40.216 o şeyin kapasitesinden 0:06:40.240,0:06:43.920 pek emin olamadım. 0:06:44.920,0:06:48.080 Teknoloji çok çabuk gelişebilir,[br]IBM ise dev bir yatırım yapmıştı. 0:06:48.680,0:06:49.880 O seti kaybettim. 0:06:52.320,0:06:54.096 Sonra elimde olmadan merak ettim, 0:06:54.120,0:06:55.680 bu şey yenilmez olabilir miydi? 0:06:56.600,0:06:58.960 Çok sevdiğim satrancın sonu muydu bu? 0:07:00.800,0:07:04.936 Bunlar insani endişeler, insani korkulardı 0:07:04.960,0:07:06.640 ve emin olduğum bir şey vardı. 0:07:07.400,0:07:10.296 O da rakibim Deep Blue'nun[br]böyle kaygıları olmadığıydı. 0:07:10.320,0:07:12.080 (Gülüşmeler) 0:07:13.920,0:07:15.320 Bu yıkıcı darbenin ardından 0:07:16.400,0:07:18.080 ilk maçı kazanmak için 0:07:19.000,0:07:20.200 savaştım. 0:07:20.960,0:07:22.600 Ama alnımıza yazılmıştı bir kere. 0:07:24.400,0:07:26.536 Eninde sonunda makineye yenildim. 0:07:26.560,0:07:29.616 Ama kazandıktan sonra [br]elinde çekiciyle ölen 0:07:29.640,0:07:32.680 John Henry ile aynı kadere sahip değildim. 0:07:37.720,0:07:40.256 O gün gösterdi ki 0:07:40.280,0:07:43.520 satranç dünyasının gönlü hâlâ[br]insan şampiyondan yanaydı. 0:07:44.920,0:07:46.600 Bugün bile, 0:07:48.080,0:07:51.536 son model cep telefonunun içindeki[br]ücretsiz satranç uygulaması dahi 0:07:51.560,0:07:53.576 Deep Blue'dan daha güçlüyken[br] 0:07:53.600,0:07:55.080 insanlar hâlâ satranç oynuyor, 0:07:56.680,0:07:58.920 hem de eskisinden de fazla. 0:07:59.800,0:08:03.016 Felaket tellalları, makinenin[br]egemenliğine giren bir oyuna 0:08:03.040,0:08:05.296 bir daha kimsenin elini[br]sürmeyeceğini söyledi. 0:08:05.320,0:08:07.536 Ama yanılıyorlardı, haksız çıktılar. 0:08:07.560,0:08:11.016 Konu teknoloji olduğunda,[br]felaket tellallığı 0:08:11.040,0:08:12.400 hep çok popüler olmuştur. 0:08:14.360,0:08:17.096 Tecrübelerim bana şunu öğretti, 0:08:17.120,0:08:21.776 teknolojiden olabildiğince[br]faydalanmak istiyorsak 0:08:21.800,0:08:25.520 korkularımızla yüzleşmeliyiz 0:08:26.360,0:08:28.736 ve insanlığımızı ortaya koymak istiyorsak 0:08:28.760,0:08:34.000 bu korkulara galip gelmeliyiz. 0:08:36.120,0:08:37.895 Yaralarımı yalarken, 0:08:37.919,0:08:39.880 Deep Blue'ya karşı giriştiğim mücadeleden 0:08:41.080,0:08:43.775 ilham alarak çıkmıştım. 0:08:43.799,0:08:46.920 Eski bir Rus atasözünün dediği gibi:[br]Bükemediğin eli öpeceksin. 0:08:48.880,0:08:50.256 Sonra düşündüm. 0:08:50.280,0:08:52.616 Bilgisayara karşı oynarken, 0:08:52.640,0:08:55.800 yanımda başka bir bilgisayarla[br]güçlerimi birleştirsem nasıl olurdu? 0:08:57.160,0:09:00.936 İnsan sezgileriyle[br]makinenin hesaplama gücü, 0:09:00.960,0:09:03.656 insan stratejisiyle makinenin taktikleri, 0:09:03.680,0:09:06.096 insan tecrübesiyle[br]makinenin hafızası birleşse 0:09:06.120,0:09:08.320 oynanmış en mükemmel oyun olmaz mıydı? 0:09:10.000,0:09:11.680 Bu fikrim 1998 yılında, 0:09:12.920,0:09:16.296 Advanced Chess [br](İleri Satranç) adı altında, 0:09:16.320,0:09:22.000 elit bir oyuncuya karşı bilgisayar[br]eşliğinde maç yaptığımda hayata geçti. 0:09:23.280,0:09:25.176 Ama bu ilk denemede, 0:09:25.200,0:09:31.560 ikimiz de insan zekâsıyla makine zekâsını[br]etkili bir şekilde bir arada kullanamadık. 0:09:34.920,0:09:37.160 Advanced Chess internette yer buldu 0:09:38.160,0:09:43.016 ve 2005'te serbest stil[br]satranç turnuvası adıyla 0:09:43.040,0:09:44.400 büyük yankı uyandırdı. 0:09:47.240,0:09:50.776 Büyük ustalardan ve en iyi makinelerden[br]oluşan bir takım da katıldı, 0:09:50.800,0:09:53.536 ama oyunun sonunda zafer[br]büyük ustaların olmadı, 0:09:53.560,0:09:54.920 süper bilgisayarın da. 0:09:55.680,0:10:00.016 Turnuvanın galibi bir çift[br]amatör Amerikan satranç oyuncusuydu 0:10:00.040,0:10:03.200 ve aynı anda üç sıradan[br]bilgisayar kullanıyorlardı. 0:10:05.560,0:10:08.576 Makinelerini yönetmedeki yetenekleri 0:10:08.600,0:10:14.376 büyük usta rakiplerinin[br]üstün satranç bilgisini 0:10:14.400,0:10:15.976 ve diğerlerinin 0:10:16.000,0:10:20.160 bilgisayar üstünlüğünü alt etti. 0:10:21.600,0:10:23.560 Ben de şu sonuca ulaşmış oldum. 0:10:24.560,0:10:27.936 Zayıf bir insan oyuncu, bir makine 0:10:27.960,0:10:31.216 ve süreci iyi yönetme bir aradayken, 0:10:31.240,0:10:33.656 çok güçlü tek bir makineden üstündü. 0:10:33.680,0:10:37.576 Ama daha önemlisi;[br]güçlü bir insan oyuncu, bir makine 0:10:37.600,0:10:39.560 ve kötü süreç yönetimi bir aradayken 0:10:41.120,0:10:43.520 onlardan da üstündü. 0:10:46.360,0:10:48.480 Bu da beni, makinelerimizin zekâsından 0:10:50.000,0:10:53.680 daha etkili faydalanmak için[br]daha iyi arayüzlere 0:10:54.520,0:10:56.240 ihtiyaç duyacağımıza ikna etti. 0:10:58.320,0:11:01.616 Makineyle iş birliği içinde[br]çalışan insan hayal değil. 0:11:01.640,0:11:02.856 Bu günümüzün bir gerçeği. 0:11:02.880,0:11:07.016 Yabancı dilde bir gazetede yer alan[br]bir makalenin içeriğini öğrenmek için 0:11:07.040,0:11:11.080 çevrimiçi çeviri araçlarını kullananlar 0:11:11.080,0:11:13.000 bunların mükemmel olmadığını bilir. 0:11:13.680,0:11:15.776 Sonra, bize verdiği çeviriyi anlamak için 0:11:15.800,0:11:17.896 insan tecrübemizi kullanırız. 0:11:17.920,0:11:20.696 Makine de bizim düzeltmelerimizden[br]doğrusunu öğrenir. 0:11:20.720,0:11:25.680 Bu yöntem hastalık teşhisinde ve güvenlik[br]analizinde gitgide yaygınlaşıyor. 0:11:26.440,0:11:28.560 Makine verilerin üzerinden geçiyor, 0:11:29.320,0:11:31.056 olasılık hesaplaması yapıyor 0:11:31.080,0:11:34.736 ve işin yüzde 80 veya 90'lık[br]kısmını hallederek 0:11:34.760,0:11:39.136 insanların analiz yapmasını 0:11:39.160,0:11:41.760 ve karar verme sürecini kolaylaştırıyor. 0:11:42.280,0:11:47.120 Ama çocuklarınızı yüzde 90 oranında[br]hatasız olarak kendi kendine giden 0:11:48.000,0:11:51.560 bir arabayla okula[br]gönderecek hâliniz yok, tabii. 0:11:52.600,0:11:54.200 Yüzde 99'la bile olmaz. 0:11:55.560,0:11:58.416 İşte bu yüzden bu yöntemin[br]yeni yeni alanlarda 0:11:58.440,0:12:04.600 uygulanması için atılım[br]yapmamız gerekiyor. 0:12:07.160,0:12:11.200 Deep Blue ile karşılaşmamdan 20 yıl sonra, 0:12:12.200,0:12:13.816 ikinci karşılaşmada, 0:12:13.840,0:12:20.136 "Beynin Son Çırpınışı"[br]adlı sansasyonel başlık 0:12:20.160,0:12:21.736 olağanlaştı. 0:12:21.760,0:12:24.296 Çünkü zeki makineler 0:12:24.320,0:12:25.520 her gün 0:12:26.560,0:12:28.760 yeni yeni sektörlere adım atıyor. 0:12:30.160,0:12:33.256 Makinelerin, çiftlik hayvanlarının[br]ve ağır işlerin yerini aldığı 0:12:33.280,0:12:34.920 eski günlerin aksine, 0:12:36.480,0:12:38.856 bugün makineler, üniversite[br]diplomalı insanların ve 0:12:38.880,0:12:41.376 ve siyasetin ardından 0:12:41.400,0:12:42.680 ikinci planda geliyor. 0:12:44.120,0:12:46.216 Makinelerle savaşmış ve[br]kaybetmiş biri olarak 0:12:46.240,0:12:48.880 şunu söylemek istiyorum,[br]bu harika bir haber. 0:12:51.000,0:12:53.216 Tüm meslekler er ya da geç 0:12:53.240,0:12:55.336 bu baskıyı üzerinde hissedecek. 0:12:55.360,0:13:00.960 Bunun aksi olursa, insanlık[br]ilerlemeyi durdurmuş demektir. 0:13:02.760,0:13:03.960 Teknolojik gelişmenin 0:13:05.440,0:13:07.160 nerede ve ne zaman 0:13:08.480,0:13:11.200 duracağına biz karar veremeyiz. 0:13:13.160,0:13:14.520 Yavaşlamak ise 0:13:15.960,0:13:17.456 söz konusu olamaz. 0:13:17.480,0:13:19.296 Aslına bakarsanız, 0:13:19.320,0:13:21.240 hızlanmamız gerek. 0:13:24.600,0:13:27.240 Hayatımızdaki zorluklukları[br]ve belirsizlikleri 0:13:29.200,0:13:32.560 yok etmek konusunda teknolojinin[br]eline kimse su dökemez. 0:13:35.000,0:13:37.816 İşte bu yüzden 0:13:37.840,0:13:39.696 daha da zorlu ve belirsiz görevlerin 0:13:39.720,0:13:43.800 peşine düşmemiz gerek. 0:13:48.200,0:13:49.400 Makineler 0:13:51.880,0:13:53.696 hesap yapabilir. 0:13:53.720,0:13:55.296 Biz ise anlama gücüne sahibiz. 0:13:55.320,0:13:57.360 Makineler talimata göre çalışır. 0:13:58.840,0:14:00.696 Bizim ise bir amacımız var. 0:14:00.720,0:14:03.000 Makineler 0:14:05.080,0:14:06.296 nesneldir. 0:14:06.320,0:14:07.520 Biz ise tutkuluyuz. 0:14:08.600,0:14:14.576 Makinelerimizin yapabildiklerinden[br]endişe duymamıza gerek yok. 0:14:14.600,0:14:19.176 Aksine, bugün yapamadıkları[br]bizi endişelendirmeli. 0:14:19.200,0:14:24.696 Çünkü en büyük hayallerimizi[br]gerçekleştirmek için 0:14:24.720,0:14:28.800 yeni ve zeki makinelerin[br]yardımına ihtiyacımız olacak. 0:14:30.000,0:14:31.320 Başarısız olursak, 0:14:32.240,0:14:36.896 başarısızlığımız makinelerimizin[br]zekâsının çok veya az 0:14:36.920,0:14:38.320 olmasından kaynaklanmayacak. 0:14:39.200,0:14:42.280 Elimizdekilerle yetindiğimiz[br]ve hırslarımıza ket vurduğumuz için 0:14:43.680,0:14:45.240 başarısız olacağız. 0:14:46.520,0:14:49.560 İnsanlığımızı gösteren şey, çekiç sallamak 0:14:51.280,0:14:53.960 veya satranç oynamak[br]gibi yeteneklerimiz değildir. 0:14:54.560,0:14:57.576 Yalnızca insanların[br]yapabildiği bir şey var. 0:14:57.600,0:14:58.800 Hayal kurmak. 0:15:00.120,0:15:02.656 O yüzden hayallerimiz hep büyük olsun. 0:15:02.680,0:15:03.896 Teşekkür ederim. 0:15:03.920,0:15:07.807 (Alkış)