1 00:00:10,847 --> 00:00:13,799 Vay canına Portland! Beni ağırladığınız için teşekkürler. 2 00:00:14,008 --> 00:00:15,508 Bu şehre gelmeyi çok seviyorum. 3 00:00:15,522 --> 00:00:18,625 Dünyanın başka neresinde böyle bir kahvaltı yapabilirim ki? 4 00:00:18,649 --> 00:00:20,315 (Kahkahalar) 5 00:00:20,339 --> 00:00:23,632 Ve belli ki burası çok yaratıcı bir bölge. 6 00:00:23,815 --> 00:00:25,111 (Kahkahalar) 7 00:00:25,135 --> 00:00:27,424 Aramızda kaçınız yaratıcı? 8 00:00:27,448 --> 00:00:31,072 Kaçınız tasarımcı, mühendis, girişimci, aktör 9 00:00:31,096 --> 00:00:33,483 veya sadece büyük bir hayal gücünüz var? 10 00:00:33,507 --> 00:00:35,355 Elleri göreyim? 11 00:00:35,379 --> 00:00:36,560 Demek ki çoğunuz. 12 00:00:37,734 --> 00:00:40,028 Biz yaratıcılar için haberlerim var. 13 00:00:41,114 --> 00:00:43,687 Önümüzdeki 20 yıl içinde, 14 00:00:45,871 --> 00:00:48,844 geçtiğimiz son 2000 yıla kıyasla çalışma şeklimiz 15 00:00:49,782 --> 00:00:51,939 çok daha fazla değişecek. 16 00:00:52,768 --> 00:00:57,396 Hatta bence insanlık tarihinde yeni bir çağın eşiğindeyiz. 17 00:00:58,045 --> 00:01:02,624 Çalışma şeklimize göre dört temel tarihi çağ geçirdik. 18 00:01:03,804 --> 00:01:07,079 Avcı-Toplayıcı Çağı birkaç milyon yıl sürdü. 19 00:01:07,563 --> 00:01:11,139 Sonra birkaç bin yıl süren Tarım Çağı. 20 00:01:11,405 --> 00:01:14,895 Ardından birkaç yüzyıl süren Sanayi Çağı. 21 00:01:14,919 --> 00:01:18,728 Şimdi ise henüz onlarca yıldır süregelen Bilgi Çağı'ndayız. 22 00:01:19,230 --> 00:01:24,450 Bugün insan türü olarak yeni bir büyük çağın kıyısındayız. 23 00:01:25,506 --> 00:01:28,186 Artırılmış Çağ'a hoşgeldiniz. 24 00:01:28,210 --> 00:01:31,903 Bu yeni çağda doğal insani yetileriniz 25 00:01:31,927 --> 00:01:34,995 düşünmenize yardım eden bilgisayar sistemleri, 26 00:01:35,119 --> 00:01:37,305 üretmenize yardım eden robotik sistemler 27 00:01:37,329 --> 00:01:38,977 ve doğal duyularınızın ötesinde 28 00:01:39,001 --> 00:01:42,691 sizi dünyaya bağlayan dijital bir sinir sistemi ile güçlendirilecek. 29 00:01:44,947 --> 00:01:46,889 Bilişsel artırma ile başlayalım. 30 00:01:46,913 --> 00:01:49,113 Kaçınız güçlendirilmiş sayborg? 31 00:01:49,270 --> 00:01:51,545 (Kahkahalar) 32 00:01:51,569 --> 00:01:53,084 Üç veya dört kişi, 33 00:01:53,108 --> 00:01:54,791 o da Portland'da olduğumuz için. 34 00:01:54,815 --> 00:01:58,025 (Kahkahalar) 35 00:01:58,049 --> 00:01:59,341 Tuhaf olmaya devam o hâlde. 36 00:01:59,341 --> 00:02:01,543 (Kahkahalar) 37 00:02:01,567 --> 00:02:04,388 Ben de zaten artırılmış olduğumuzu iddia ediyordum. 38 00:02:05,048 --> 00:02:06,552 Bir partide olduğunuzu 39 00:02:06,576 --> 00:02:10,096 ve birinin size cevabını bilmediğiniz bir soru sorduğunu düşünün. 40 00:02:10,120 --> 00:02:13,880 Eğer elinizde bunlardan bir tane varsa, birkaç saniyede cevabı bulursunuz. 41 00:02:14,629 --> 00:02:16,928 Fakat bu sadece ilkel bir başlangıç. 42 00:02:17,623 --> 00:02:20,954 Siri bile sadece pasif bir araç. 43 00:02:21,420 --> 00:02:24,801 Aslına bakarsanız son üç buçuk milyon yıldır 44 00:02:24,825 --> 00:02:28,348 kullandığımız tüm araçlar tamamen pasifti. 45 00:02:29,563 --> 00:02:33,218 Yalnızca söylediğimizi yapıyorlar, başka bir şey değil. 46 00:02:33,242 --> 00:02:36,343 Kullandığımız ilk araç yalnızca onu sapladığımız yeri kesiyordu. 47 00:02:37,382 --> 00:02:40,422 Matkap yalnızca kullananın işaretlediği noktayı deliyor. 48 00:02:40,818 --> 00:02:46,544 Hatta en gelişmiş araçlarımız bile biz yönlendirmeden hiçbir şey yapmıyorlar. 49 00:02:47,598 --> 00:02:50,779 Aslında beni hayal kırıklığına uğratan şey şu; 50 00:02:50,803 --> 00:02:52,251 biz her zaman irademizi 51 00:02:52,275 --> 00:02:55,776 fiziksel yollarla araçlara yönlendirerek kısıtladık; 52 00:02:55,800 --> 00:02:58,097 fiziksel derken gerçekten ellerimizi kullanarak, 53 00:02:58,121 --> 00:02:59,549 bilgisayarda bile. 54 00:03:00,662 --> 00:03:03,125 Ama ben ''Uzay Yolu''ndaki Scotty gibiyim. 55 00:03:03,149 --> 00:03:04,999 (Kahkahalar) 56 00:03:05,023 --> 00:03:07,169 Bir bigisayarla sohbet etmek istiyorum. 57 00:03:07,193 --> 00:03:10,163 ''Hey bilgisayar, hadi bir araba tasarlayalım.'' demek, 58 00:03:10,187 --> 00:03:12,136 bilgisayar da bana araba çizsin istiyorum. 59 00:03:12,136 --> 00:03:14,978 Sonra ''hayır, daha sağlam ve Alman işi gibi olmasın'' desem 60 00:03:14,978 --> 00:03:16,645 ve bilgisayar bir seçenek gösterse. 61 00:03:16,645 --> 00:03:18,434 (Kahkahalar) 62 00:03:18,798 --> 00:03:21,104 Bu sohbet biraz uçarı olabilir, 63 00:03:21,128 --> 00:03:23,793 muhtemelen çoğumuzun düşündüğünden az, 64 00:03:23,817 --> 00:03:25,580 ama şu an 65 00:03:25,604 --> 00:03:26,845 bunun üzerine çalışıyoruz. 66 00:03:26,845 --> 00:03:30,812 Araçlar pasif olmaktan üretken olmaya doğru çığır atlıyor. 67 00:03:31,421 --> 00:03:36,069 Üretken tasarımlı araçlar bilgisayar ve algoritma kullanarak 68 00:03:36,093 --> 00:03:38,901 geometri sentezi yapıp 69 00:03:38,925 --> 00:03:41,679 tamamen kendi başlarına yeni tasarımlar ortaya atıyorlar. 70 00:03:42,126 --> 00:03:44,874 Tek ihtiyacı olan şey sizin hedef ve filtreleriniz. 71 00:03:44,898 --> 00:03:46,306 Bir örnek vereyim: 72 00:03:46,330 --> 00:03:49,118 Bu insansız hava aracı şasesinde 73 00:03:49,142 --> 00:03:51,768 tek yapmanız gereken ona bir şey söylemek. 74 00:03:51,792 --> 00:03:53,065 Aracın dört pervanesi var, 75 00:03:53,089 --> 00:03:55,220 mümkün olduğu kadar hafif olsun istiyorsunuz 76 00:03:55,244 --> 00:03:57,514 ve aerodinamik olarak çalışması gerek. 77 00:03:57,538 --> 00:04:02,452 İşte bu noktada bilgisayar tüm çözümleri tarıyor: 78 00:04:02,476 --> 00:04:06,403 Kriterlerinize uygun her bir olasılığı çözüp karşılayan -- 79 00:04:06,427 --> 00:04:07,869 milyonlarca olasılığı. 80 00:04:07,893 --> 00:04:09,868 Bunun için büyük bilgisayarlar gerek. 81 00:04:09,892 --> 00:04:11,847 Fakat konu bizi 82 00:04:11,871 --> 00:04:15,014 hayal dahi edemeyeceğimiz tasarımlara getirir. 83 00:04:15,456 --> 00:04:18,368 Bilgisayar bütün bunları tek başına yapıyor, 84 00:04:18,392 --> 00:04:20,070 hiç kimse bir çizim yapmadı 85 00:04:20,094 --> 00:04:22,180 ve tamamen sıfırdan başladı. 86 00:04:23,168 --> 00:04:25,555 Bu arada hava aracının 87 00:04:25,579 --> 00:04:29,060 uçan bir sincabın iç kısmına benzemesi de tesadüf değil. 88 00:04:29,231 --> 00:04:32,146 (Kahkahalar) 89 00:04:32,170 --> 00:04:34,472 Bunun sebebi algoritmaların evrim mantığıyla 90 00:04:34,496 --> 00:04:36,133 çalışacak şekilde tasarlanması. 91 00:04:37,045 --> 00:04:39,705 İşin heyecan verici kısmı bu teknolojiyi gerçek hayatta 92 00:04:39,729 --> 00:04:40,888 görmeye başlamamız. 93 00:04:40,912 --> 00:04:43,364 Birkaç yıldır Airbus'la birlikte 94 00:04:43,388 --> 00:04:45,297 geleceğin uçakları üzerine çalışıyoruz. 95 00:04:45,321 --> 00:04:47,391 Henüz olması mümkün değil. 96 00:04:47,415 --> 00:04:51,195 Fakat kısa süre önce bunu başarmak için üretken tasarımlı 97 00:04:51,219 --> 00:04:53,026 yapay zekâ kullandık. 98 00:04:53,939 --> 00:04:59,092 Bu, bilgisayar tarafından tasarlanmış bir kabin bölmesinin 3B gösterimi. 99 00:04:59,116 --> 00:05:01,940 Orijinalinden daha güçlü ama yarısı ağırlığında 100 00:05:01,964 --> 00:05:05,110 ve bu yıl Airbus A320 ile uçuyor olacak. 101 00:05:06,835 --> 00:05:09,024 Yani bilgisayarlar artık üretebiliyor; 102 00:05:09,048 --> 00:05:13,643 bizim iyi tanımladığımız sorunlara kendi çözümlerini bulabiliyorlar. 103 00:05:14,737 --> 00:05:16,047 Ama sezgisel değiller. 104 00:05:16,071 --> 00:05:19,157 Her seferinde sıfırdan başlamaları gerek, 105 00:05:19,181 --> 00:05:21,871 çünkü hiçbir zaman öğrenmiyorlar. 106 00:05:22,768 --> 00:05:24,534 Maggie öyle değil ama. 107 00:05:24,558 --> 00:05:26,139 (Kahkahalar) 108 00:05:26,163 --> 00:05:29,460 Maggie aslında çoğu ileri tasarım araçlarımızdan daha akıllı. 109 00:05:29,867 --> 00:05:31,367 Peki ben ne demek istiyorum? 110 00:05:31,391 --> 00:05:32,981 Sahibi tasmayı eline aldığında 111 00:05:33,005 --> 00:05:35,073 Maggie neredeyse kendinden emin bir şekilde 112 00:05:35,097 --> 00:05:36,581 yürüyüşe çıkacaklarını biliyor. 113 00:05:36,581 --> 00:05:37,710 Nasıl öğrendi peki? 114 00:05:37,734 --> 00:05:41,058 Çünkü sahibi tasmayı her aldığında yürüyüşe çıktılar. 115 00:05:41,082 --> 00:05:42,960 Maggie üç şey yaptı: 116 00:05:42,984 --> 00:05:44,853 Dikkatini verdi, 117 00:05:44,877 --> 00:05:46,959 ne olduğunu hatırladı 118 00:05:46,983 --> 00:05:51,000 ve bunu aklında tutup kafasında bir şablon oluşturdu. 119 00:05:51,889 --> 00:05:53,984 İşin ilginç yanı, bu tam da 120 00:05:54,008 --> 00:05:56,531 son 60 yıldır bilgisayar bilimcilerin Yapay Zekâ 121 00:05:56,555 --> 00:05:58,414 üzerinde yapmak istedikleri şey. 122 00:05:59,783 --> 00:06:01,132 1952 yılında, 123 00:06:01,156 --> 00:06:04,957 XOXO oynayabilen bu bilgisayarı geliştirdiler. 124 00:06:06,181 --> 00:06:07,341 Büyük başarı. 125 00:06:08,129 --> 00:06:11,129 45 yıl sonra 1997 yılında, 126 00:06:11,153 --> 00:06:13,625 Deep Blue satrançta Kasparov'u yendi. 127 00:06:15,146 --> 00:06:20,114 2011'de Watson bu iki kişiyi bilgi yarışmasında yendi, 128 00:06:20,138 --> 00:06:23,066 ki bu satranç oynamaktan daha zordur bilgisayar için. 129 00:06:23,090 --> 00:06:26,902 Gerçek şu ki, önceden belirtilmiş talimatlarla çalışmak yerine 130 00:06:26,926 --> 00:06:30,249 Watson bu insan rakiplerini yenmek için mantık kullandı. 131 00:06:31,493 --> 00:06:33,932 Yine birkaç hafta önce, 132 00:06:33,956 --> 00:06:38,218 DeepMind'ın AlphaGo robotu Go oyununda dünya birincisini yendi, 133 00:06:38,242 --> 00:06:40,454 bu sahip olduğumuz en zor oyun. 134 00:06:40,478 --> 00:06:43,974 Go oyununda, evrendeki atom sayısından çok 135 00:06:43,998 --> 00:06:46,022 hamle olasılığı var. 136 00:06:47,910 --> 00:06:49,736 Yani kazanmak için 137 00:06:49,760 --> 00:06:52,774 AlphaGo'nın sezgi geliştirmesi gerekliydi. 138 00:06:52,798 --> 00:06:56,908 Yine bazı noktalarda, AlphaGo'nun programcıları 139 00:06:56,932 --> 00:06:59,218 onun neyi niçin yaptığını anlayamadılar. 140 00:07:01,151 --> 00:07:02,881 İşler çok hızlı bir şekilde işliyor. 141 00:07:02,881 --> 00:07:06,062 Düşünün bir, insan hayatı boyunca 142 00:07:06,086 --> 00:07:08,319 bilgisayarlar bir çocuk oyunundan 143 00:07:09,620 --> 00:07:12,668 stratejik düşüncenin zirvesi kabul edilen bir oyuna yöneldi. 144 00:07:13,699 --> 00:07:16,116 Burada olan şey şu; 145 00:07:16,140 --> 00:07:19,450 bilgisayarlar Spock olmaktan çıkıp 146 00:07:20,474 --> 00:07:22,423 Kirk olmaya başlıyorlar. 147 00:07:22,447 --> 00:07:26,065 (Kahkahalar) 148 00:07:26,089 --> 00:07:29,513 Basit mantıktan sezgiye. 149 00:07:31,584 --> 00:07:33,327 Bu köprüden geçer miydiniz? 150 00:07:34,009 --> 00:07:36,332 Çoğunuz ''hayatta olmaz!'' diyor 151 00:07:36,356 --> 00:07:37,664 (Kahkahalar) 152 00:07:37,688 --> 00:07:40,345 Bu kararı vermeniz saniyeden kısa sürdü. 153 00:07:40,369 --> 00:07:42,797 Köprünün güvenli olmadığını biliyordunuz. 154 00:07:42,821 --> 00:07:44,810 İşte bu tam da derin öğrenme 155 00:07:44,834 --> 00:07:48,402 sistemlerimizin geliştirmeye çalıştıkları türden bir sezgi. 156 00:07:49,122 --> 00:07:50,829 Çok yakında, yaptığınız, 157 00:07:50,853 --> 00:07:53,782 tasarladığınız bir şeyi bir bilgisayara gösterebileceksiniz. 158 00:07:53,806 --> 00:07:55,439 O da bakıp şöyle diyecek, 159 00:07:55,463 --> 00:07:58,286 ''Olmaz, kanka, işe yaramaz, baştan yapman lazım.'' 160 00:07:59,254 --> 00:08:02,324 İnsanlar yeni şarkınızı beğenecek mi veya hangi dondurmayı 161 00:08:03,173 --> 00:08:05,236 alacağınızı da sorabilirsiniz. 162 00:08:06,949 --> 00:08:09,528 Veya daha da önemlisi 163 00:08:09,552 --> 00:08:11,916 daha önce hiç karşılaşmadığımız bir sorunla ilgili 164 00:08:11,940 --> 00:08:13,577 bilgisayarla çalışabilirsiniz. 165 00:08:13,601 --> 00:08:15,002 Örneğin iklim değişikliği. 166 00:08:15,026 --> 00:08:17,046 Kendi başımıza pek bir iş başaramıyoruz. 167 00:08:17,070 --> 00:08:19,315 Alabileceğimiz her yardıma ihtiyacımız var. 168 00:08:19,339 --> 00:08:20,797 İşte söylemek istediğim bu; 169 00:08:20,821 --> 00:08:23,376 teknolojinin bilişsel yetilerimizi kuvvetlendirmesi, 170 00:08:23,400 --> 00:08:26,952 böylelikle artırılmamış insan olarak erişemeyeceğimiz şeyler 171 00:08:26,976 --> 00:08:29,535 hayal edip tasarlamak. 172 00:08:31,384 --> 00:08:34,325 Gelelim icat edip 173 00:08:34,349 --> 00:08:36,790 tasarlayacağımız onca çılgınca şeye. 174 00:08:37,352 --> 00:08:41,445 Sanırım insan artırma çağı, sanal ve düşünsel olduğu kadar 175 00:08:41,469 --> 00:08:44,534 fiziksel dünyayla da alakalı. 176 00:08:45,233 --> 00:08:47,154 Teknoloji bizi nasıl güçlendirecek? 177 00:08:47,565 --> 00:08:50,038 Fiziksel dünyada; robotlar. 178 00:08:51,620 --> 00:08:53,356 Robotların insanların işine 179 00:08:53,380 --> 00:08:55,868 mal olacağı konusunda ciddi bir korku var, 180 00:08:55,892 --> 00:08:57,722 bazı sektörler için bu doğru. 181 00:08:58,174 --> 00:09:01,052 Ama benim ilgimi çeken, insan ve robotların 182 00:09:01,076 --> 00:09:06,086 birlikte çalışarak birbirlerini güçlendirecek olması 183 00:09:06,110 --> 00:09:08,168 ve yeni bir alanda yaşamaya başlamaları. 184 00:09:08,192 --> 00:09:11,024 Bu San Fransisco'daki uygulamalı araştırma laboratuvarımız. 185 00:09:11,024 --> 00:09:13,720 Buradaki çalışmalarımızdan biri ileri robotlar, 186 00:09:13,744 --> 00:09:16,255 özellikle de insan-robot işbirliği. 187 00:09:17,034 --> 00:09:19,793 Bu Bishop, robotlarımızdan biri. 188 00:09:19,817 --> 00:09:21,606 Deney amaçlı, sürekli aynı 189 00:09:21,630 --> 00:09:25,090 hareketleri yapan bir inşaat işçisine yardım etmesi için ayarladık, 190 00:09:25,984 --> 00:09:30,178 kuru duvarda priz veya lambalar için delik açma gibi görevler. 191 00:09:30,202 --> 00:09:32,668 (Kahkahalar) 192 00:09:33,877 --> 00:09:36,988 Bishop'ın insan ortağı basit bir dil ve jestlerle 193 00:09:37,012 --> 00:09:38,317 ne yapacağını söylüyor; 194 00:09:38,341 --> 00:09:39,788 bir köpekle konuşmak gibi, 195 00:09:39,812 --> 00:09:41,955 sonra Bishop mükemmel bir dikkatle 196 00:09:41,979 --> 00:09:43,871 bu talimatları uyguluyor. 197 00:09:43,895 --> 00:09:46,884 İnsanı iyi olduğu şey için kullanıyoruz: 198 00:09:46,908 --> 00:09:49,241 Farkındalık, algı ve karar verme. 199 00:09:49,265 --> 00:09:51,505 Robotu da iyi olduğu alanda: 200 00:09:51,529 --> 00:09:53,277 Dikkat ve tekrar etme. 201 00:09:54,252 --> 00:09:56,619 Bishop'ın iyi olduğu güzel bir proje daha var. 202 00:09:56,643 --> 00:09:59,718 HIVE diye adlandırdığımız bu projenin amacı 203 00:09:59,742 --> 00:10:03,593 aşırı karmaşık bir tasarım sorununu çözmek için insan, 204 00:10:03,617 --> 00:10:06,837 bilgisayar ve robotların ortak çalışma tecrübesini örnek almak. 205 00:10:07,793 --> 00:10:09,244 İnsanlar iş gücü oldular. 206 00:10:09,268 --> 00:10:12,741 İnşaat alanında gezdiler, bambuyu sürekli değiştirdiler, 207 00:10:12,765 --> 00:10:15,521 ki bambu eşbiçimli bir materyal olmadığı için 208 00:10:15,545 --> 00:10:17,419 robotların çalışması çok zordur. 209 00:10:17,543 --> 00:10:19,865 Sonra robotlar bu fiber bağlamayı gerçekleştirdi, 210 00:10:19,889 --> 00:10:22,340 insanın bunu yapması neredeyse imkânsızdı. 211 00:10:22,364 --> 00:10:25,985 Bir de her şeyi kontrol eden bir Yapay Zekâmız vardı. 212 00:10:26,109 --> 00:10:29,399 İnsanlara ve robotlara yapması gerekenleri söyleyip 213 00:10:29,423 --> 00:10:32,338 binlerce bireysel bileşenin kaydını tutuyordu. 214 00:10:32,362 --> 00:10:33,542 İlginç olan şeyse, 215 00:10:33,566 --> 00:10:36,707 insan, robot ve yapay zekânın birbirini güçlendirmeden 216 00:10:36,731 --> 00:10:41,255 bu terası inşa etmesinin kesinlikle mümkün olmamasıydı. 217 00:10:42,390 --> 00:10:45,710 Bir proje daha göstereceğim. Bu biraz çılgınca. 218 00:10:47,734 --> 00:10:52,202 Amsterdamlı ressam Joris Laarman ve MX3D'deki takımı ile çalışıyoruz, 219 00:10:53,526 --> 00:10:56,404 amacımız üretken tasarım ve robotik yazdırma ile 220 00:10:56,428 --> 00:10:59,423 dünyanın ilk özerk inşa edilmiş köprüsünü yapmak. 221 00:11:01,015 --> 00:11:04,700 Şu anda Joris ve Yapay Zekâ Amsterdam'da bunun 222 00:11:04,724 --> 00:11:05,896 üzerine çalışıyorlar. 223 00:11:06,620 --> 00:11:09,211 İşleri bitince sadece bir tuşa basacağız 224 00:11:09,235 --> 00:11:12,546 ve robotlar paslanmaz çelik üzerine 3B çıkışlar alacak, 225 00:11:12,570 --> 00:11:15,853 sonra insan olmadan buna devam edecekler, 226 00:11:15,877 --> 00:11:17,435 ta ki köprü tamamlanana kadar. 227 00:11:18,769 --> 00:11:21,697 Bilgisayarlar yeni şeyler hayal etme ve tasarlama 228 00:11:21,721 --> 00:11:23,871 yetilerimizi güçlendirirken, 229 00:11:23,895 --> 00:11:26,790 robotik sistemler daha önce hiç yapamadğımız 230 00:11:26,814 --> 00:11:28,898 şeyler yapmamıza yardım edecekler. 231 00:11:30,017 --> 00:11:34,177 Peki ya bunları hissetme ve kontrol etme yetimiz? 232 00:11:34,201 --> 00:11:38,232 Yaptığımız şeyler için bir sinir sistemi olmayacak mı? 233 00:11:40,486 --> 00:11:42,998 İnsanın sinir sistemi 234 00:11:43,022 --> 00:11:45,333 çevremizde olan her şeyi bize bildirir. 235 00:11:46,086 --> 00:11:49,389 Ama kendi yaptığımız şeylerin sinir sistemi gelişmemiş. 236 00:11:49,413 --> 00:11:51,578 Aslına bakarsanız dandik diyeceğim. 237 00:11:51,602 --> 00:11:52,930 (Kahkahalar) 238 00:11:52,954 --> 00:11:56,817 Örneğin, bir araba gidip belediyeye Broadway ve Morrison'ın köşe başında 239 00:11:56,841 --> 00:11:59,971 bir çukur olduğunu ve üstünden geçtiğini söylemez. 240 00:12:01,295 --> 00:12:03,387 Bir bina, tasarımcılarına içindeki insanların 241 00:12:03,387 --> 00:12:06,035 orada olmaktan memnun olup olmadıklarını söylemez, 242 00:12:07,659 --> 00:12:10,669 oyuncak üreticisi o oyuncakla 243 00:12:10,693 --> 00:12:12,700 gerçekten oynandığını bilemez, 244 00:12:12,724 --> 00:12:15,263 şu an nerede veya oynaması zevkli mi bilemez. 245 00:12:15,880 --> 00:12:19,694 Ama şuna eminim ki tasarımcılar Barbie'yi yaptıklarında, 246 00:12:19,718 --> 00:12:21,382 ona bu hayat tarzını yakıştırdılar. 247 00:12:21,382 --> 00:12:22,413 (Kahkahalar) 248 00:12:23,237 --> 00:12:26,143 Barbie kendini yalnız hissederse ne olur peki? 249 00:12:26,167 --> 00:12:30,302 (Kahkahalar) 250 00:12:30,326 --> 00:12:31,614 Tasarımcılar gerçek dünyada 251 00:12:31,638 --> 00:12:33,745 neler olduğunu bilseler 252 00:12:33,769 --> 00:12:36,352 yol, bina veya Barbie fark etmez 253 00:12:36,376 --> 00:12:39,070 bu bilgiyi kullanıcı için 254 00:12:39,094 --> 00:12:40,494 daha iyi hâle getirebilirler. 255 00:12:40,518 --> 00:12:42,309 Burada eksik olan şey tasarladığımız, 256 00:12:42,333 --> 00:12:46,042 yapıp kullandığımız şeylere ilişkin bir sinir sistemi. 257 00:12:46,975 --> 00:12:50,530 Gerçek hayatta yarattığınız şeylerden bu tür bir 258 00:12:50,554 --> 00:12:52,737 geri bildirim alsanız nasıl olurdu? 259 00:12:54,492 --> 00:12:55,943 Yaptığımız onca şeyi düşününce 260 00:12:55,967 --> 00:12:58,402 inanılmaz para ve enerji harcıyoruz, 261 00:12:58,426 --> 00:13:00,802 geçen yıl insanları yaptığımız şeyleri almaya 262 00:13:00,826 --> 00:13:03,680 ikna etmek için 2 trilyon dolar harcanmış. 263 00:13:03,704 --> 00:13:07,092 Satılmış veya kullanıma sunulmuş, tasarladığınız ve yarattığınız 264 00:13:07,116 --> 00:13:08,843 tüm bu şeylere ilişkin 265 00:13:08,867 --> 00:13:12,481 böyle bir bağlantıya sahip olsaydınız 266 00:13:12,505 --> 00:13:14,125 bunu değiştirebilirdiniz; 267 00:13:14,149 --> 00:13:17,596 insanlara icatlarımızı aldırmak yerine 268 00:13:17,620 --> 00:13:21,054 sadece istedikleri şeyleri yapabiliriz. 269 00:13:24,478 --> 00:13:27,265 İyi haber şu ki, bizi tasarımlarımıza bağlayacak 270 00:13:27,289 --> 00:13:30,090 dijital sinir sistemi üzerinde çalışıyoruz. 271 00:13:31,225 --> 00:13:32,852 Bir proje üzerinde çalışıyoruz, 272 00:13:32,876 --> 00:13:37,888 Los Angeles'ta Bandito Kardeşler 273 00:13:37,912 --> 00:13:39,319 ve takımı ile birlikte. 274 00:13:39,343 --> 00:13:42,776 Bu ekibin yaptığı şeylerden biri sıradışı şeyler yapan 275 00:13:42,800 --> 00:13:45,673 sıradışı arabalar üretmek. 276 00:13:47,065 --> 00:13:48,515 Bunlar çıldırmış. 277 00:13:48,539 --> 00:13:49,575 (Kahkahalar) 278 00:13:49,599 --> 00:13:51,002 Ama iyi anlamda. 279 00:13:54,793 --> 00:13:56,556 Bizim birlikte yaptığımız şey ise 280 00:13:56,580 --> 00:13:59,020 geleneksel yarış arabası şasesini alıp 281 00:13:59,044 --> 00:14:00,629 ona bir sinir sistemi yüklemek. 282 00:14:00,653 --> 00:14:03,771 Arabaya düzinelerce sensör taktık ve 283 00:14:03,795 --> 00:14:06,430 direksiyona birinci sınıf bir sürücü koyduk, 284 00:14:06,454 --> 00:14:09,811 arabayı çöle götürdük ve bir hafta boyunca kullandık. 285 00:14:09,835 --> 00:14:12,326 Arabanın sinir sistemi arabanın başına gelen 286 00:14:12,350 --> 00:14:13,832 her şeyi yakaladı. 287 00:14:13,856 --> 00:14:16,477 4 milyar veri noktası elde ettik; 288 00:14:16,501 --> 00:14:18,811 sorumlu olduğu tüm güçlerden. 289 00:14:18,835 --> 00:14:20,494 Sonra çılgınca bir şey yaptık. 290 00:14:21,238 --> 00:14:22,738 Tüm veriyi aldık 291 00:14:22,762 --> 00:14:26,498 ''Dreamcatcher'' dediğimiz üretken tasarımlı bir yapay zekâya taktık. 292 00:14:27,240 --> 00:14:31,204 Bir tasarıma dijital bir sinir sistemi yükleyip 293 00:14:31,228 --> 00:14:34,110 size son model bir şase yapmasını isterseniz ne olur? 294 00:14:34,693 --> 00:14:36,666 İşte bu. 295 00:14:38,263 --> 00:14:41,976 Bu bir insanın asla tasarlayamayacağı bir şey. 296 00:14:42,677 --> 00:14:44,565 Ancak bunu bir insan tasarladı, 297 00:14:44,589 --> 00:14:48,898 ama üretken tasarımlı yapay zekâ, 298 00:14:48,922 --> 00:14:50,153 dijital bir sinir sistemi 299 00:14:50,177 --> 00:14:53,182 ve imal yetisi olan robotlar ile güçlendirilmiş bir insan. 300 00:14:54,150 --> 00:14:57,745 Eğer gelecek, Artırılmış Çağ bu ise 301 00:14:57,769 --> 00:15:02,030 bilişsel, fiziksel ve algısal olarak güçlendirileceksek, 302 00:15:02,054 --> 00:15:03,462 bu neye benzeyecek? 303 00:15:04,046 --> 00:15:06,712 Bu harikalar diyarı nasıl görünecek? 304 00:15:08,291 --> 00:15:10,900 Sanırım imal etmekten ziyade 305 00:15:10,924 --> 00:15:13,992 yetiştirme yapılan bir dünyaya doğru 306 00:15:15,101 --> 00:15:16,546 yol alıyoruz. 307 00:15:18,429 --> 00:15:22,374 Nesnelerin inşa edilmek yerine 308 00:15:22,398 --> 00:15:24,102 yetiştirildiği bir dünya. 309 00:15:26,504 --> 00:15:28,692 İzole olmaktan çıkıp 310 00:15:29,660 --> 00:15:31,270 iletişim hâlinde olacağız. 311 00:15:33,104 --> 00:15:36,015 Ayrılmayı bir yana bırakıp 312 00:15:36,039 --> 00:15:37,912 birleşmeye kucak açacağız. 313 00:15:40,437 --> 00:15:44,204 Yine sanıyorum ki itaat etmek yerine 314 00:15:45,128 --> 00:15:46,769 özerkliğin değerini anlayacağız. 315 00:15:49,480 --> 00:15:51,385 Artırılmış yetilerimiz sayesinde, 316 00:15:51,409 --> 00:15:53,786 dünya ciddi bir değişim geçirecek. 317 00:15:54,702 --> 00:15:58,305 Sanırım bir mercan adasının o eşsiz dünyası buna güzel bir örnek olur. 318 00:15:58,836 --> 00:16:02,082 Bu dünyada daha fazla çeşitlilik, iletişim, 319 00:16:02,106 --> 00:16:04,393 dinamizm ve karmaşıklık, 320 00:16:04,417 --> 00:16:06,735 daha çok uyum sağlama ve 321 00:16:06,759 --> 00:16:07,976 daha çok güzellik olacak. 322 00:16:08,741 --> 00:16:10,305 Gelecek şeylerin biçimi 323 00:16:10,329 --> 00:16:12,619 daha önce hiç görmediğimiz türden olacak. 324 00:16:12,643 --> 00:16:13,802 Neden mi? 325 00:16:13,826 --> 00:16:17,581 Çünkü onlara bu biçimi verecek şey 326 00:16:17,605 --> 00:16:21,275 teknoloji, doğa ve insan ortaklığı olacak. 327 00:16:22,789 --> 00:16:26,593 Bu bana göre dört gözle beklenecek bir gelecek. 328 00:16:26,617 --> 00:16:27,888 Çok teşekkür ederim. 329 00:16:27,912 --> 00:16:34,912 (Alkışlar)