1 00:00:00,960 --> 00:00:03,936 Hikâye 1985 yılında, 2 00:00:03,960 --> 00:00:05,936 ben daha 22 yaşımdayken 3 00:00:05,960 --> 00:00:08,336 Anatoly Karpov'u yenip 4 00:00:08,360 --> 00:00:11,560 Dünya Satranç Şampiyonu olmamla başlıyor. 5 00:00:12,480 --> 00:00:13,736 O yılın başlarında, 6 00:00:13,760 --> 00:00:17,376 Almanya Hamburg'da, simultane satranç denen bir oyunda 7 00:00:17,400 --> 00:00:21,696 dünyanın en iyi 32 satranç makinesiyle 8 00:00:21,720 --> 00:00:23,080 aynı anda oynadım. 9 00:00:24,160 --> 00:00:25,360 Tüm oyunları ben kazandım. 10 00:00:26,560 --> 00:00:29,736 32 bilgisayarı aynı anda yenmeme rağmen 11 00:00:29,760 --> 00:00:33,800 o zamanlar buna pek şaşıran olmamıştı, tabii. 12 00:00:34,480 --> 00:00:37,056 O benim altın çağımdı. 13 00:00:37,080 --> 00:00:39,176 (Gülüşmeler) 14 00:00:39,200 --> 00:00:40,720 Makineler zayıftı, 15 00:00:41,680 --> 00:00:43,016 saçlarım da gürdü. 16 00:00:43,040 --> 00:00:45,240 (Gülüşmeler) 17 00:00:46,720 --> 00:00:48,776 Bundan yalnızca 12 yıl sonra, 18 00:00:48,800 --> 00:00:53,416 canımı zor kurtardığım bir maçta tek bir bilgisayara karşı savaşıyordum. 19 00:00:53,440 --> 00:00:54,640 Bu maça, 20 00:00:55,360 --> 00:00:57,416 Newsweek dergisinin kapağında 21 00:00:57,440 --> 00:00:59,216 "Beynin Son Çırpınışı" demişlerdi. 22 00:00:59,240 --> 00:01:00,456 Baskı yok canım. 23 00:01:00,480 --> 00:01:02,000 (Gülüşmeler) 24 00:01:03,040 --> 00:01:05,616 Mitolojiden bilim kurguya pek çok yerde 25 00:01:05,640 --> 00:01:08,376 insanın makineyle mücadelesi 26 00:01:08,400 --> 00:01:11,160 ölüm kalım savaşı olarak resmedilir. 27 00:01:11,960 --> 00:01:13,536 John Henry, 28 00:01:13,560 --> 00:01:15,256 yani 19. yüzyıldaki Afro-Amerikan 29 00:01:15,280 --> 00:01:19,056 halk efsanesinde adı geçen bir taş delici 30 00:01:19,080 --> 00:01:20,456 dağdaki kayaları delerken 31 00:01:20,480 --> 00:01:23,216 buharlı deliciye karşı girdiği yarışta 32 00:01:23,240 --> 00:01:25,600 delik deşik edilmişti. 33 00:01:26,800 --> 00:01:31,000 John Henry'nin efsanesi, insanın makine karşısındaki yenilgisini konu alan 34 00:01:31,680 --> 00:01:34,760 uzun bir hikâyenin bir parçası yalnızca. 35 00:01:36,200 --> 00:01:39,080 Bu rekabetçi söylem bugün artık her yerde. 36 00:01:39,560 --> 00:01:41,520 Makinelere karşı yarıştayız. 37 00:01:42,360 --> 00:01:44,440 Kavga hatta savaş bile diyebilirsiniz buna. 38 00:01:45,880 --> 00:01:47,496 İşler ortadan kalkıyor. 39 00:01:47,520 --> 00:01:51,080 İnsanların yerini makineler alıyor, sanki insan kalmamış gibi. 40 00:01:52,240 --> 00:01:55,736 "Terminatör" ve "Matrix" gibi filmlerin artık gerçek olması 41 00:01:55,760 --> 00:01:56,960 yeter de artar bile. 42 00:01:59,640 --> 00:02:03,960 İnsan beyninin veya bedeninin 43 00:02:05,360 --> 00:02:09,616 bir bilgisayarla veya robotla eşit şartlarda kapışacağı 44 00:02:09,639 --> 00:02:11,480 çok az alan kaldı. 45 00:02:12,280 --> 00:02:14,138 Aslında, keşke bu kadar az olmasaydı. 46 00:02:15,760 --> 00:02:16,960 Ama aksine, 47 00:02:17,840 --> 00:02:22,496 bugün hâlâ konuşulan 48 00:02:22,520 --> 00:02:25,216 makineyle insanın mücadelesinde 49 00:02:25,240 --> 00:02:28,336 kelimenin tam anlamıyla efsaneleşmek 50 00:02:28,360 --> 00:02:30,240 benim hem şansım, hem de lanetimdi. 51 00:02:33,120 --> 00:02:38,136 John Henry'den sonraki en ünlü insan-makine kapışmasında 52 00:02:38,160 --> 00:02:40,736 iki maç yaptım. 53 00:02:40,760 --> 00:02:44,200 İkisi de IBM süper bilgisayarı Deep Blue'ya karşıydı. 54 00:02:47,040 --> 00:02:49,216 Hiç kimse ilk maçı kazandığımı hatırlamaz. 55 00:02:49,240 --> 00:02:51,576 (Gülüşmeler) 56 00:02:51,600 --> 00:02:55,000 (Alkış) 57 00:02:55,920 --> 00:03:00,896 Bu Philadelphia'daydı; sonraki sene New York'ta ikinci maçı kaybetmeden önce. 58 00:03:00,920 --> 00:03:02,680 Bu gayet adil, tabii. 59 00:03:04,320 --> 00:03:09,416 Everest Dağı'na tırmanmayı deneyip de başaramayanların adı 60 00:03:09,440 --> 00:03:12,936 tarihe yazılmadı, ta ki Sir Edmund Hillary 61 00:03:12,960 --> 00:03:15,696 ve Tenzing Norgay tepeye ulaşıp 62 00:03:15,720 --> 00:03:16,920 tarih yazana dek. 63 00:03:17,960 --> 00:03:21,720 1977 yılında ben hâlâ dünya şampiyonuydum, 64 00:03:24,520 --> 00:03:28,720 bilgisayarlarsa rüştünü yeni ispatlamıştı. 65 00:03:29,520 --> 00:03:31,496 Everest Dağı bendim 66 00:03:31,520 --> 00:03:33,120 ve Deep Blue zirveye ulaşmıştı. 67 00:03:34,600 --> 00:03:38,656 Aslına bakarsanız, bunu yapan Deep Blue değildi tabii ki, 68 00:03:38,680 --> 00:03:40,816 onun insan yaratıcılarıydı bunu başaran, 69 00:03:40,840 --> 00:03:44,176 Anantharaman, Campbell, Hoane ve Hsu. 70 00:03:44,200 --> 00:03:45,400 Onlara şapka çıkarıyorum. 71 00:03:46,840 --> 00:03:51,256 Her zaman olduğu gibi, makinanın zaferi aslında insanın zaferiydi. 72 00:03:51,280 --> 00:03:56,040 İnsanlar kendi yaratımları tarafından geçildiğinde bunu unutuyoruz genellikle. 73 00:03:58,360 --> 00:03:59,800 Deep Blue galip gelmişti. 74 00:04:01,400 --> 00:04:02,600 Zeki miydi peki? 75 00:04:03,360 --> 00:04:05,120 Hayır, değildi. 76 00:04:06,200 --> 00:04:11,256 Alan Turing ve bilgisayar biliminin diğer kurucularının umduğu şekilde 77 00:04:11,280 --> 00:04:12,480 değildi en azından. 78 00:04:13,240 --> 00:04:18,016 Görüldü ki donanım yeterli hıza ulaştığında 79 00:04:18,040 --> 00:04:22,296 ve algoritmaların zekâsı keskinleştiğinde 80 00:04:22,320 --> 00:04:25,280 kaba kuvvet satrancı ezip geçebiliyordu. 81 00:04:26,760 --> 00:04:30,456 Oysa elde edilen sonuca bakıldığında 82 00:04:30,480 --> 00:04:33,696 büyük usta seviyesindeki satranç oyunlarında 83 00:04:33,720 --> 00:04:35,000 Deep Blue zekiydi. 84 00:04:37,320 --> 00:04:39,720 Ama dakikada 200 milyon hamle hesaplayabilen 85 00:04:40,560 --> 00:04:43,760 inanılmaz hızına rağmen 86 00:04:45,360 --> 00:04:46,560 Deep Blue'nun yöntemi 87 00:04:47,360 --> 00:04:53,960 insan zekâsının merak edilen gizemlerini kavramamıza pek yardımcı olamadı. 88 00:04:56,960 --> 00:04:58,776 Pek yakında, 89 00:04:58,800 --> 00:05:01,376 makineler taksi şoförü, 90 00:05:01,400 --> 00:05:03,816 doktor ve profesör olacaklar. 91 00:05:03,840 --> 00:05:06,440 "Zeki" olacaklar mı peki? 92 00:05:07,840 --> 00:05:10,336 Bu tanımlamaları filozoflara 93 00:05:10,360 --> 00:05:13,920 veya sözlüklere bırakmayı tercih ederim. 94 00:05:15,440 --> 00:05:19,320 Asıl önemli olan soru şu, 95 00:05:20,320 --> 00:05:23,920 biz insanlar bu makinelerle yaşama ve çalışma konusunda ne hissediyoruz? 96 00:05:26,160 --> 00:05:31,416 Deep Blue ile 1996 yılının Şubat ayında tanıştım. 97 00:05:31,440 --> 00:05:34,040 O sırada 10 yıldan fazladır dünya şampiyonuydum. 98 00:05:36,080 --> 00:05:40,096 182 dünya şampiyonluğu maçı oynamıştım. 99 00:05:40,120 --> 00:05:45,216 Farklı müsabakalarda dünyanın en iyi oyuncularıyla yüzlerce maç yapmıştım. 100 00:05:45,240 --> 00:05:50,296 Hem rakiplerimden, hem de kendimden 101 00:05:50,320 --> 00:05:52,000 ne bekleyeceğimi biliyordum. 102 00:05:52,680 --> 00:05:57,856 Beden dillerini gözlemleyerek ve gözlerine bakarak 103 00:05:57,880 --> 00:06:01,496 hamlelerini kafamda ölçmeye 104 00:06:01,520 --> 00:06:05,360 ya da ruh hallerini hesaba katmaya alışkındım. 105 00:06:05,880 --> 00:06:09,880 Sonra Deep Blue'nun karşısında satranç tahtasının başına geçtim. 106 00:06:12,960 --> 00:06:15,816 Daha o anda yeni bir şey sezdim, 107 00:06:15,840 --> 00:06:17,160 beni huzursuz eden bir şey. 108 00:06:19,440 --> 00:06:22,240 Buna benzer bir şeyi 109 00:06:23,320 --> 00:06:25,856 ilk kez şoförü olmayan bir arabaya bindiğinizde 110 00:06:25,880 --> 00:06:30,720 veya yeni bilgisayar müdürünüz size görev verdiğinde hissedebilirsiniz. 111 00:06:33,800 --> 00:06:36,920 Ama o ilk oyuna başladığımda 112 00:06:38,080 --> 00:06:40,216 o şeyin kapasitesinden 113 00:06:40,240 --> 00:06:43,920 pek emin olamadım. 114 00:06:44,920 --> 00:06:48,080 Teknoloji çok çabuk gelişebilir, IBM ise dev bir yatırım yapmıştı. 115 00:06:48,680 --> 00:06:49,880 O seti kaybettim. 116 00:06:52,320 --> 00:06:54,096 Sonra elimde olmadan merak ettim, 117 00:06:54,120 --> 00:06:55,680 bu şey yenilmez olabilir miydi? 118 00:06:56,600 --> 00:06:58,960 Çok sevdiğim satrancın sonu muydu bu? 119 00:07:00,800 --> 00:07:04,936 Bunlar insani endişeler, insani korkulardı 120 00:07:04,960 --> 00:07:06,640 ve emin olduğum bir şey vardı. 121 00:07:07,400 --> 00:07:10,296 O da rakibim Deep Blue'nun böyle kaygıları olmadığıydı. 122 00:07:10,320 --> 00:07:12,080 (Gülüşmeler) 123 00:07:13,920 --> 00:07:15,320 Bu yıkıcı darbenin ardından 124 00:07:16,400 --> 00:07:18,080 ilk maçı kazanmak için 125 00:07:19,000 --> 00:07:20,200 savaştım. 126 00:07:20,960 --> 00:07:22,600 Ama alnımıza yazılmıştı bir kere. 127 00:07:24,400 --> 00:07:26,536 Eninde sonunda makineye yenildim. 128 00:07:26,560 --> 00:07:29,616 Ama kazandıktan sonra elinde çekiciyle ölen 129 00:07:29,640 --> 00:07:32,680 John Henry ile aynı kadere sahip değildim. 130 00:07:37,720 --> 00:07:40,256 O gün gösterdi ki 131 00:07:40,280 --> 00:07:43,520 satranç dünyasının gönlü hâlâ insan şampiyondan yanaydı. 132 00:07:44,920 --> 00:07:46,600 Bugün bile, 133 00:07:48,080 --> 00:07:51,536 son model cep telefonunun içindeki ücretsiz satranç uygulaması dahi 134 00:07:51,560 --> 00:07:53,576 Deep Blue'dan daha güçlüyken 135 00:07:53,600 --> 00:07:55,080 insanlar hâlâ satranç oynuyor, 136 00:07:56,680 --> 00:07:58,920 hem de eskisinden de fazla. 137 00:07:59,800 --> 00:08:03,016 Felaket tellalları, makinenin egemenliğine giren bir oyuna 138 00:08:03,040 --> 00:08:05,296 bir daha kimsenin elini sürmeyeceğini söyledi. 139 00:08:05,320 --> 00:08:07,536 Ama yanılıyorlardı, haksız çıktılar. 140 00:08:07,560 --> 00:08:11,016 Konu teknoloji olduğunda, felaket tellallığı 141 00:08:11,040 --> 00:08:12,400 hep çok popüler olmuştur. 142 00:08:14,360 --> 00:08:17,096 Tecrübelerim bana şunu öğretti, 143 00:08:17,120 --> 00:08:21,776 teknolojiden olabildiğince faydalanmak istiyorsak 144 00:08:21,800 --> 00:08:25,520 korkularımızla yüzleşmeliyiz 145 00:08:26,360 --> 00:08:28,736 ve insanlığımızı ortaya koymak istiyorsak 146 00:08:28,760 --> 00:08:34,000 bu korkulara galip gelmeliyiz. 147 00:08:36,120 --> 00:08:37,895 Yaralarımı yalarken, 148 00:08:37,919 --> 00:08:39,880 Deep Blue'ya karşı giriştiğim mücadeleden 149 00:08:41,080 --> 00:08:43,775 ilham alarak çıkmıştım. 150 00:08:43,799 --> 00:08:46,920 Eski bir Rus atasözünün dediği gibi: Bükemediğin eli öpeceksin. 151 00:08:48,880 --> 00:08:50,256 Sonra düşündüm. 152 00:08:50,280 --> 00:08:52,616 Bilgisayara karşı oynarken, 153 00:08:52,640 --> 00:08:55,800 yanımda başka bir bilgisayarla güçlerimi birleştirsem nasıl olurdu? 154 00:08:57,160 --> 00:09:00,936 İnsan sezgileriyle makinenin hesaplama gücü, 155 00:09:00,960 --> 00:09:03,656 insan stratejisiyle makinenin taktikleri, 156 00:09:03,680 --> 00:09:06,096 insan tecrübesiyle makinenin hafızası birleşse 157 00:09:06,120 --> 00:09:08,320 oynanmış en mükemmel oyun olmaz mıydı? 158 00:09:10,000 --> 00:09:11,680 Bu fikrim 1998 yılında, 159 00:09:12,920 --> 00:09:16,296 Advanced Chess (İleri Satranç) adı altında, 160 00:09:16,320 --> 00:09:22,000 elit bir oyuncuya karşı bilgisayar eşliğinde maç yaptığımda hayata geçti. 161 00:09:23,280 --> 00:09:25,176 Ama bu ilk denemede, 162 00:09:25,200 --> 00:09:31,560 ikimiz de insan zekâsıyla makine zekâsını etkili bir şekilde bir arada kullanamadık. 163 00:09:34,920 --> 00:09:37,160 Advanced Chess internette yer buldu 164 00:09:38,160 --> 00:09:43,016 ve 2005'te serbest stil satranç turnuvası adıyla 165 00:09:43,040 --> 00:09:44,400 büyük yankı uyandırdı. 166 00:09:47,240 --> 00:09:50,776 Büyük ustalardan ve en iyi makinelerden oluşan bir takım da katıldı, 167 00:09:50,800 --> 00:09:53,536 ama oyunun sonunda zafer büyük ustaların olmadı, 168 00:09:53,560 --> 00:09:54,920 süper bilgisayarın da. 169 00:09:55,680 --> 00:10:00,016 Turnuvanın galibi bir çift amatör Amerikan satranç oyuncusuydu 170 00:10:00,040 --> 00:10:03,200 ve aynı anda üç sıradan bilgisayar kullanıyorlardı. 171 00:10:05,560 --> 00:10:08,576 Makinelerini yönetmedeki yetenekleri 172 00:10:08,600 --> 00:10:14,376 büyük usta rakiplerinin üstün satranç bilgisini 173 00:10:14,400 --> 00:10:15,976 ve diğerlerinin 174 00:10:16,000 --> 00:10:20,160 bilgisayar üstünlüğünü alt etti. 175 00:10:21,600 --> 00:10:23,560 Ben de şu sonuca ulaşmış oldum. 176 00:10:24,560 --> 00:10:27,936 Zayıf bir insan oyuncu, bir makine 177 00:10:27,960 --> 00:10:31,216 ve süreci iyi yönetme bir aradayken, 178 00:10:31,240 --> 00:10:33,656 çok güçlü tek bir makineden üstündü. 179 00:10:33,680 --> 00:10:37,576 Ama daha önemlisi; güçlü bir insan oyuncu, bir makine 180 00:10:37,600 --> 00:10:39,560 ve kötü süreç yönetimi bir aradayken 181 00:10:41,120 --> 00:10:43,520 onlardan da üstündü. 182 00:10:46,360 --> 00:10:48,480 Bu da beni, makinelerimizin zekâsından 183 00:10:50,000 --> 00:10:53,680 daha etkili faydalanmak için daha iyi arayüzlere 184 00:10:54,520 --> 00:10:56,240 ihtiyaç duyacağımıza ikna etti. 185 00:10:58,320 --> 00:11:01,616 Makineyle iş birliği içinde çalışan insan hayal değil. 186 00:11:01,640 --> 00:11:02,856 Bu günümüzün bir gerçeği. 187 00:11:02,880 --> 00:11:07,016 Yabancı dilde bir gazetede yer alan bir makalenin içeriğini öğrenmek için 188 00:11:07,040 --> 00:11:11,080 çevrimiçi çeviri araçlarını kullananlar 189 00:11:11,080 --> 00:11:13,000 bunların mükemmel olmadığını bilir. 190 00:11:13,680 --> 00:11:15,776 Sonra, bize verdiği çeviriyi anlamak için 191 00:11:15,800 --> 00:11:17,896 insan tecrübemizi kullanırız. 192 00:11:17,920 --> 00:11:20,696 Makine de bizim düzeltmelerimizden doğrusunu öğrenir. 193 00:11:20,720 --> 00:11:25,680 Bu yöntem hastalık teşhisinde ve güvenlik analizinde gitgide yaygınlaşıyor. 194 00:11:26,440 --> 00:11:28,560 Makine verilerin üzerinden geçiyor, 195 00:11:29,320 --> 00:11:31,056 olasılık hesaplaması yapıyor 196 00:11:31,080 --> 00:11:34,736 ve işin yüzde 80 veya 90'lık kısmını hallederek 197 00:11:34,760 --> 00:11:39,136 insanların analiz yapmasını 198 00:11:39,160 --> 00:11:41,760 ve karar verme sürecini kolaylaştırıyor. 199 00:11:42,280 --> 00:11:47,120 Ama çocuklarınızı yüzde 90 oranında hatasız olarak kendi kendine giden 200 00:11:48,000 --> 00:11:51,560 bir arabayla okula gönderecek hâliniz yok, tabii. 201 00:11:52,600 --> 00:11:54,200 Yüzde 99'la bile olmaz. 202 00:11:55,560 --> 00:11:58,416 İşte bu yüzden bu yöntemin yeni yeni alanlarda 203 00:11:58,440 --> 00:12:04,600 uygulanması için atılım yapmamız gerekiyor. 204 00:12:07,160 --> 00:12:11,200 Deep Blue ile karşılaşmamdan 20 yıl sonra, 205 00:12:12,200 --> 00:12:13,816 ikinci karşılaşmada, 206 00:12:13,840 --> 00:12:20,136 "Beynin Son Çırpınışı" adlı sansasyonel başlık 207 00:12:20,160 --> 00:12:21,736 olağanlaştı. 208 00:12:21,760 --> 00:12:24,296 Çünkü zeki makineler 209 00:12:24,320 --> 00:12:25,520 her gün 210 00:12:26,560 --> 00:12:28,760 yeni yeni sektörlere adım atıyor. 211 00:12:30,160 --> 00:12:33,256 Makinelerin, çiftlik hayvanlarının ve ağır işlerin yerini aldığı 212 00:12:33,280 --> 00:12:34,920 eski günlerin aksine, 213 00:12:36,480 --> 00:12:38,856 bugün makineler, üniversite diplomalı insanların ve 214 00:12:38,880 --> 00:12:41,376 ve siyasetin ardından 215 00:12:41,400 --> 00:12:42,680 ikinci planda geliyor. 216 00:12:44,120 --> 00:12:46,216 Makinelerle savaşmış ve kaybetmiş biri olarak 217 00:12:46,240 --> 00:12:48,880 şunu söylemek istiyorum, bu harika bir haber. 218 00:12:51,000 --> 00:12:53,216 Tüm meslekler er ya da geç 219 00:12:53,240 --> 00:12:55,336 bu baskıyı üzerinde hissedecek. 220 00:12:55,360 --> 00:13:00,960 Bunun aksi olursa, insanlık ilerlemeyi durdurmuş demektir. 221 00:13:02,760 --> 00:13:03,960 Teknolojik gelişmenin 222 00:13:05,440 --> 00:13:07,160 nerede ve ne zaman 223 00:13:08,480 --> 00:13:11,200 duracağına biz karar veremeyiz. 224 00:13:13,160 --> 00:13:14,520 Yavaşlamak ise 225 00:13:15,960 --> 00:13:17,456 söz konusu olamaz. 226 00:13:17,480 --> 00:13:19,296 Aslına bakarsanız, 227 00:13:19,320 --> 00:13:21,240 hızlanmamız gerek. 228 00:13:24,600 --> 00:13:27,240 Hayatımızdaki zorluklukları ve belirsizlikleri 229 00:13:29,200 --> 00:13:32,560 yok etmek konusunda teknolojinin eline kimse su dökemez. 230 00:13:35,000 --> 00:13:37,816 İşte bu yüzden 231 00:13:37,840 --> 00:13:39,696 daha da zorlu ve belirsiz görevlerin 232 00:13:39,720 --> 00:13:43,800 peşine düşmemiz gerek. 233 00:13:48,200 --> 00:13:49,400 Makineler 234 00:13:51,880 --> 00:13:53,696 hesap yapabilir. 235 00:13:53,720 --> 00:13:55,296 Biz ise anlama gücüne sahibiz. 236 00:13:55,320 --> 00:13:57,360 Makineler talimata göre çalışır. 237 00:13:58,840 --> 00:14:00,696 Bizim ise bir amacımız var. 238 00:14:00,720 --> 00:14:03,000 Makineler 239 00:14:05,080 --> 00:14:06,296 nesneldir. 240 00:14:06,320 --> 00:14:07,520 Biz ise tutkuluyuz. 241 00:14:08,600 --> 00:14:14,576 Makinelerimizin yapabildiklerinden endişe duymamıza gerek yok. 242 00:14:14,600 --> 00:14:19,176 Aksine, bugün yapamadıkları bizi endişelendirmeli. 243 00:14:19,200 --> 00:14:24,696 Çünkü en büyük hayallerimizi gerçekleştirmek için 244 00:14:24,720 --> 00:14:28,800 yeni ve zeki makinelerin yardımına ihtiyacımız olacak. 245 00:14:30,000 --> 00:14:31,320 Başarısız olursak, 246 00:14:32,240 --> 00:14:36,896 başarısızlığımız makinelerimizin zekâsının çok veya az 247 00:14:36,920 --> 00:14:38,320 olmasından kaynaklanmayacak. 248 00:14:39,200 --> 00:14:42,280 Elimizdekilerle yetindiğimiz ve hırslarımıza ket vurduğumuz için 249 00:14:43,680 --> 00:14:45,240 başarısız olacağız. 250 00:14:46,520 --> 00:14:49,560 İnsanlığımızı gösteren şey, çekiç sallamak 251 00:14:51,280 --> 00:14:53,960 veya satranç oynamak gibi yeteneklerimiz değildir. 252 00:14:54,560 --> 00:14:57,576 Yalnızca insanların yapabildiği bir şey var. 253 00:14:57,600 --> 00:14:58,800 Hayal kurmak. 254 00:15:00,120 --> 00:15:02,656 O yüzden hayallerimiz hep büyük olsun. 255 00:15:02,680 --> 00:15:03,896 Teşekkür ederim. 256 00:15:03,920 --> 00:15:07,807 (Alkış)