1 00:00:00,735 --> 00:00:03,024 Aramızda kaçınız yaratıcı? 2 00:00:03,048 --> 00:00:06,672 Kaçınız tasarımcı, mühendis, girişimci, aktör 3 00:00:06,696 --> 00:00:09,083 veya sadece büyük bir hayal gücünüz var? 4 00:00:09,107 --> 00:00:10,955 Elleri göreyim? 5 00:00:10,979 --> 00:00:12,160 Demek ki çoğunuz. 6 00:00:13,334 --> 00:00:15,628 Biz yaratıcılar için haberlerim var. 7 00:00:16,714 --> 00:00:19,287 Önümüzdeki 20 yıl içinde, 8 00:00:21,471 --> 00:00:24,444 geçtiğimiz son 2000 yıla kıyasla çalışma şeklimiz 9 00:00:25,382 --> 00:00:27,539 çok daha fazla değişecek. 10 00:00:28,511 --> 00:00:33,139 Hatta bence insanlık tarihinde yeni bir çağın eşiğindeyiz. 11 00:00:33,645 --> 00:00:38,406 Çalışma şeklimize göre dört temel tarihi çağ geçirdik. 12 00:00:39,404 --> 00:00:42,679 Avcı-Toplayıcı Çağı birkaç milyon yıl sürdü. 13 00:00:43,163 --> 00:00:46,739 Sonra birkaç bin yıl süren Tarım Çağı. 14 00:00:47,195 --> 00:00:50,685 Ardından birkaç yüzyıl süren Sanayi Çağı. 15 00:00:50,709 --> 00:00:54,996 Şimdi ise henüz onlarca yıldır süregelen Bilgi Çağı'ndayız. 16 00:00:55,020 --> 00:01:00,240 Bugün insan türü olarak yeni bir büyük çağın kıyısındayız. 17 00:01:01,296 --> 00:01:03,976 Artırılmış Çağ'a hoş geldiniz. 18 00:01:04,000 --> 00:01:07,693 Bu yeni çağda doğal insani yetileriniz 19 00:01:07,717 --> 00:01:10,785 düşünmenize yardım eden bilgisayar sistemleri, 20 00:01:10,809 --> 00:01:12,995 üretmenize yardım eden robotik sistemler 21 00:01:13,019 --> 00:01:14,667 ve doğal duyularınızın ötesinde 22 00:01:14,691 --> 00:01:18,381 sizi dünyaya bağlayan dijital bir sinir sistemi ile güçlendirilecek. 23 00:01:19,437 --> 00:01:21,179 Bilişsel artırma ile başlayalım. 24 00:01:21,426 --> 00:01:22,919 Kaçınız güçlendirilmiş sayborg? 25 00:01:24,133 --> 00:01:26,783 (Kahkahalar) 26 00:01:26,807 --> 00:01:29,628 Ben de zaten artırılmış olduğumuzu iddia ediyordum. 27 00:01:30,288 --> 00:01:31,792 Bir partide olduğunuzu 28 00:01:31,816 --> 00:01:35,336 ve birinin size cevabını bilmediğiniz bir soru sorduğunu düşünün. 29 00:01:35,360 --> 00:01:39,120 Eğer elinizde bunlardan bir tane varsa, birkaç saniyede cevabı bulursunuz. 30 00:01:39,869 --> 00:01:42,168 Fakat bu sadece ilkel bir başlangıç. 31 00:01:42,863 --> 00:01:46,194 Siri bile sadece pasif bir araç. 32 00:01:46,660 --> 00:01:50,041 Aslına bakarsanız son üç buçuk milyon yıldır 33 00:01:50,065 --> 00:01:53,174 kullandığımız tüm araçlar tamamen pasifti. 34 00:01:54,203 --> 00:01:57,858 Yalnızca söylediğimizi yapıyorlar, başka bir şey değil. 35 00:01:57,882 --> 00:02:00,983 Kullandığımız ilk araç yalnızca onu sapladığımız yeri kesiyordu. 36 00:02:01,822 --> 00:02:04,862 Matkap yalnızca kullananın işaretlediği noktayı deliyor. 37 00:02:05,343 --> 00:02:10,984 Hatta en gelişmiş araçlarımız bile biz yönlendirmeden hiçbir şey yapmıyorlar. 38 00:02:11,008 --> 00:02:14,189 Aslında beni hayal kırıklığına uğratan şey şu; 39 00:02:14,213 --> 00:02:15,661 biz her zaman irademizi 40 00:02:15,685 --> 00:02:19,186 fiziksel yollarla araçlara yönlendirerek kısıtladık; 41 00:02:19,210 --> 00:02:21,507 fiziksel derken gerçekten ellerimizi kullanarak, 42 00:02:21,531 --> 00:02:22,959 bilgisayarda bile. 43 00:02:24,072 --> 00:02:26,535 Ama ben ''Uzay Yolu''ndaki Scotty gibiyim. 44 00:02:26,559 --> 00:02:28,409 (Kahkahalar) 45 00:02:28,433 --> 00:02:30,579 Bir bigisayarla sohbet etmek istiyorum. 46 00:02:30,603 --> 00:02:33,573 ''Hey bilgisayar, hadi bir araba tasarlayalım.'' demek, 47 00:02:33,597 --> 00:02:35,566 bilgisayar da bana araba çizsin istiyorum. 48 00:02:35,566 --> 00:02:38,858 Sonra ''hayır, daha sağlam ve Alman işi gibi olmasın'' desem 49 00:02:38,858 --> 00:02:40,775 ve bilgisayar bir seçenek gösterse. 50 00:02:40,775 --> 00:02:41,844 (Kahkahalar) 51 00:02:42,208 --> 00:02:44,514 Bu sohbet biraz uçarı olabilir, 52 00:02:44,538 --> 00:02:47,203 muhtemelen çoğumuzun düşündüğünden az, 53 00:02:47,227 --> 00:02:48,990 ama şu an 54 00:02:49,014 --> 00:02:50,265 bunun üzerine çalışıyoruz. 55 00:02:50,265 --> 00:02:54,222 Araçlar pasif olmaktan üretken olmaya doğru çığır atlıyor. 56 00:02:54,831 --> 00:02:58,139 Üretken tasarımlı araçlar bilgisayar ve algoritma kullanarak 57 00:02:58,163 --> 00:03:00,771 geometri sentezi yapıp 58 00:03:00,795 --> 00:03:03,549 tamamen kendi başlarına yeni tasarımlar ortaya atıyorlar. 59 00:03:03,996 --> 00:03:06,744 Tek ihtiyacı olan şey sizin hedef ve filtreleriniz. 60 00:03:06,768 --> 00:03:08,176 Bir örnek vereyim: 61 00:03:08,200 --> 00:03:10,988 Bu insansız hava aracı şasesinde 62 00:03:11,012 --> 00:03:13,638 tek yapmanız gereken ona bir şey söylemek. 63 00:03:13,662 --> 00:03:14,935 Aracın dört pervanesi var, 64 00:03:14,959 --> 00:03:17,090 mümkün olduğu kadar hafif olsun istiyorsunuz 65 00:03:17,114 --> 00:03:19,384 ve aerodinamik olarak çalışması gerek. 66 00:03:19,408 --> 00:03:24,322 İşte bu noktada bilgisayar tüm çözümleri tarıyor: 67 00:03:24,346 --> 00:03:28,273 Kriterlerinize uygun her bir olasılığı çözüp karşılayan -- 68 00:03:28,297 --> 00:03:29,739 milyonlarca olasılığı. 69 00:03:29,763 --> 00:03:31,738 Bunun için büyük bilgisayarlar gerek. 70 00:03:31,762 --> 00:03:33,717 Fakat konu bizi 71 00:03:33,741 --> 00:03:36,884 hayal dahi edemeyeceğimiz tasarımlara getirir. 72 00:03:37,326 --> 00:03:40,238 Bilgisayar bütün bunları tek başına yapıyor- 73 00:03:40,262 --> 00:03:41,940 hiç kimse bir çizim yapmadı 74 00:03:41,964 --> 00:03:44,050 ve tamamen sıfırdan başladı. 75 00:03:45,038 --> 00:03:47,425 Bu arada hava aracının 76 00:03:47,449 --> 00:03:50,930 uçan bir sincabın iç kısmına benzemesi de tesadüf değil. 77 00:03:51,287 --> 00:03:53,294 (Kahkahalar) 78 00:03:54,040 --> 00:03:56,342 Bunun sebebi algoritmaların evrim mantığıyla 79 00:03:56,366 --> 00:03:58,003 çalışacak şekilde tasarlanması. 80 00:03:58,715 --> 00:04:01,375 İşin heyecan verici kısmıysa bu teknolojiyi 81 00:04:01,399 --> 00:04:03,018 gerçek hayatta görmeye başlamamız. 82 00:04:03,018 --> 00:04:05,034 Birkaç yıldır Airbus'la birlikte 83 00:04:05,058 --> 00:04:06,967 geleceğin uçakları üzerine çalışıyoruz. 84 00:04:06,991 --> 00:04:09,061 Henüz olması mümkün değil. 85 00:04:09,085 --> 00:04:12,865 Fakat kısa süre önce bunu başarmak için üretken tasarımlı 86 00:04:12,889 --> 00:04:14,696 yapay zekâ kullandık. 87 00:04:15,609 --> 00:04:20,762 Bu, bilgisayar tarafından tasarlanmış bir kabin bölmesinin 3B gösterimi. 88 00:04:20,786 --> 00:04:23,610 Orijinalinden daha güçlü ama yarısı ağırlığında 89 00:04:23,634 --> 00:04:26,780 ve bu yıl Airbus A320 ile uçuyor olacak. 90 00:04:27,405 --> 00:04:29,244 Yani bilgisayarlar artık üretebiliyor; 91 00:04:29,244 --> 00:04:33,583 bizim iyi tanımladığımız sorunlara kendi çözümlerini bulabiliyorlar. 92 00:04:34,677 --> 00:04:35,987 Ama sezgisel değiller. 93 00:04:36,011 --> 00:04:39,097 Her seferinde sıfırdan başlamaları gerek, 94 00:04:39,121 --> 00:04:41,686 çünkü hiçbir zaman öğrenmiyorlar. 95 00:04:42,368 --> 00:04:44,134 Maggie öyle değil ama. 96 00:04:44,158 --> 00:04:45,739 (Kahkahalar) 97 00:04:45,763 --> 00:04:49,060 Maggie aslında çoğu ileri tasarım araçlarımızdan daha akıllı. 98 00:04:49,467 --> 00:04:50,907 Peki ben ne demek istiyorum? 99 00:04:50,931 --> 00:04:52,521 Sahibi tasmayı eline aldığında 100 00:04:52,545 --> 00:04:54,613 Maggie neredeyse kendinden emin bir şekilde 101 00:04:54,637 --> 00:04:56,131 yürüyüşe çıkacaklarını biliyor. 102 00:04:56,131 --> 00:04:57,250 Nasıl öğrendi peki? 103 00:04:57,274 --> 00:05:00,598 Çünkü sahibi tasmayı her aldığında yürüyüşe çıktılar. 104 00:05:00,622 --> 00:05:02,500 Maggie üç şey yaptı: 105 00:05:02,524 --> 00:05:04,393 Dikkat verdi, 106 00:05:04,417 --> 00:05:06,499 ne olduğunu hatırladı 107 00:05:06,523 --> 00:05:10,540 ve bunu aklında tutup kafasında bir şablon oluşturdu. 108 00:05:11,429 --> 00:05:13,524 İşin ilginç yanı, bu tam da 109 00:05:13,548 --> 00:05:16,071 son 60 yıldır bilgisayar bilimcilerin Yapay Zekâ 110 00:05:16,095 --> 00:05:17,954 üzerinde yapmak istedikleri şey. 111 00:05:18,683 --> 00:05:20,032 1952 yılında, 112 00:05:20,056 --> 00:05:23,857 XOXO oynayabilen bu bilgisayarı geliştirdiler. 113 00:05:25,081 --> 00:05:26,241 Büyük başarı. 114 00:05:27,029 --> 00:05:30,029 45 yıl sonra 1997 yılında, 115 00:05:30,053 --> 00:05:32,525 Deep Blue satrançta Kasparov'u yendi. 116 00:05:34,046 --> 00:05:39,014 2011'de Watson bu iki kişiyi bilgi yarışmasında yendi, 117 00:05:39,038 --> 00:05:41,966 ki bu satranç oynamaktan daha zordur bilgisayar için. 118 00:05:41,990 --> 00:05:45,802 Gerçek şu ki, önceden belirtilmiş talimatlarla çalışmak yerine 119 00:05:45,826 --> 00:05:49,149 Watson bu insan rakiplerini yenmek için mantık kullandı. 120 00:05:50,393 --> 00:05:52,832 Yine birkaç hafta önce, 121 00:05:52,856 --> 00:05:57,118 DeepMind'ın AlphaGo robotu Go oyununda dünya birincisini yendi, 122 00:05:57,142 --> 00:05:59,354 bu sahip olduğumuz en zor oyun. 123 00:05:59,378 --> 00:06:02,274 Go oyununda, evrendeki atom sayısından çok 124 00:06:02,298 --> 00:06:04,322 hamle olasılığı var. 125 00:06:06,210 --> 00:06:08,036 Yani kazanmak için 126 00:06:08,060 --> 00:06:10,678 AlphaGo'nın sezgi geliştirmesi gerekliydi. 127 00:06:11,098 --> 00:06:15,208 Yine bazı noktalarda, AlphaGo'nun programcıları 128 00:06:15,232 --> 00:06:17,518 onun neyi niçin yaptığını anlayamadılar. 129 00:06:19,451 --> 00:06:21,171 İşler çok hızlı bir şekilde işliyor. 130 00:06:21,171 --> 00:06:24,362 Bir düşünün, insan hayatı boyunca 131 00:06:24,386 --> 00:06:26,619 bilgisayarlar bir çocuk oyunundan 132 00:06:27,920 --> 00:06:30,968 stratejik düşüncenin zirvesi kabul edilen bir oyuna yöneldi. 133 00:06:31,999 --> 00:06:34,416 Burada olan şey şu; 134 00:06:34,440 --> 00:06:37,750 bilgisayarlar Spock olmaktan çıkıp 135 00:06:37,774 --> 00:06:39,723 Kirk olmaya başlıyorlar. 136 00:06:39,747 --> 00:06:43,365 (Kahkahalar) 137 00:06:43,389 --> 00:06:46,813 Basit mantıktan sezgiye. 138 00:06:48,184 --> 00:06:49,927 Bu köprüden geçer miydiniz? 139 00:06:50,609 --> 00:06:52,932 Çoğunuz ''hayatta olmaz!'' diyor 140 00:06:52,956 --> 00:06:54,264 (Kahkahalar) 141 00:06:54,288 --> 00:06:56,945 Bu kararı vermeniz saniyeden kısa sürdü. 142 00:06:56,969 --> 00:06:59,397 Köprünün güvenli olmadığını biliyordunuz. 143 00:06:59,421 --> 00:07:01,410 İşte bu tam da derin öğrenme 144 00:07:01,434 --> 00:07:05,002 sistemlerimizin geliştirmeye çalıştıkları türden bir sezgi. 145 00:07:05,722 --> 00:07:07,429 Çok yakında, yaptığınız, 146 00:07:07,453 --> 00:07:09,659 tasarladığınız bir şeyi bir bilgisayara 147 00:07:09,683 --> 00:07:10,836 gösterebileceksiniz. 148 00:07:10,860 --> 00:07:12,349 O da bakıp şöyle diyecek, 149 00:07:12,373 --> 00:07:15,196 ''Olmaz, kanka, işe yaramaz, baştan yapman lazım.'' 150 00:07:15,854 --> 00:07:18,924 İnsanlar yeni şarkınızı beğenecek mi veya hangi dondurmayı 151 00:07:19,773 --> 00:07:21,836 alacağınızı da sorabilirsiniz. 152 00:07:23,549 --> 00:07:26,128 Veya daha da önemlisi 153 00:07:26,152 --> 00:07:28,516 daha önce hiç karşılaşmadığımız bir sorunla ilgili 154 00:07:28,540 --> 00:07:30,177 bilgisayarla çalışabilirsiniz. 155 00:07:30,201 --> 00:07:31,602 Örneğin iklim değişikliği. 156 00:07:31,626 --> 00:07:33,646 Kendi başımıza pek bir iş başaramıyoruz. 157 00:07:33,670 --> 00:07:35,915 Alabileceğimiz her yardıma ihtiyacımız var. 158 00:07:35,939 --> 00:07:37,397 İşte söylemek istediğim bu; 159 00:07:37,421 --> 00:07:39,976 teknolojinin bilişsel yetilerimizi kuvvetlendirmesi, 160 00:07:40,000 --> 00:07:43,552 böylelikle artırılmamış insan olarak erişemeyeceğimiz şeyleri 161 00:07:43,576 --> 00:07:46,135 hayal edip tasarlamak. 162 00:07:47,984 --> 00:07:50,925 Gelelim icat edip 163 00:07:50,949 --> 00:07:53,390 tasarlayacağımız onca çılgınca şeye. 164 00:07:53,952 --> 00:07:58,045 Sanırım insan artırma çağı, sanal ve düşünsel olduğu kadar 165 00:07:58,069 --> 00:08:01,134 fiziksel dünyayla da alakalı. 166 00:08:01,833 --> 00:08:03,754 Teknoloji bizi nasıl güçlendirecek? 167 00:08:04,261 --> 00:08:06,734 Fiziksel dünyada; robotlar. 168 00:08:07,620 --> 00:08:09,356 Robotların insanların işine 169 00:08:09,380 --> 00:08:11,868 mal olacağı konusunda ciddi bir korku var, 170 00:08:11,892 --> 00:08:13,722 bazı sektörler için bu doğru. 171 00:08:14,174 --> 00:08:17,052 Ama benim ilgimi çeken, insan ve robotların 172 00:08:17,076 --> 00:08:22,086 birlikte çalışarak birbirlerini güçlendirecek olması 173 00:08:22,110 --> 00:08:24,168 ve yeni bir alanda yaşamaya başlamaları. 174 00:08:24,192 --> 00:08:27,004 Bu San Francisco'daki uygulamalı araştırma laboratuvarımız. 175 00:08:27,004 --> 00:08:29,720 Buradaki çalışmalarımızdan biri ileri robotlar, 176 00:08:29,744 --> 00:08:32,255 özellikle de insan-robot işbirliği. 177 00:08:33,034 --> 00:08:35,793 Bu Bishop, robotlarımızdan biri. 178 00:08:35,817 --> 00:08:37,606 Deney amaçlı, sürekli aynı 179 00:08:37,630 --> 00:08:41,090 hareketleri yapan bir inşaat işçisine yardım etmesi için ayarladık, 180 00:08:41,984 --> 00:08:46,178 kuru duvarda priz veya lambalar için delik açma gibi görevler. 181 00:08:46,202 --> 00:08:48,668 (Kahkahalar) 182 00:08:49,877 --> 00:08:52,988 Bishop'ın insan ortağı basit bir dil ve jestlerle 183 00:08:53,012 --> 00:08:54,317 ne yapacağını söylüyor; 184 00:08:54,341 --> 00:08:55,788 bir köpekle konuşmak gibi, 185 00:08:55,812 --> 00:08:57,955 sonra Bishop mükemmel bir dikkatle 186 00:08:57,979 --> 00:08:59,871 bu talimatları uyguluyor. 187 00:08:59,895 --> 00:09:02,884 İnsanı iyi olduğu şey için kullanıyoruz: 188 00:09:02,908 --> 00:09:05,241 Farkındalık, algı ve karar verme. 189 00:09:05,265 --> 00:09:07,505 Robotu da iyi olduğu alanda: 190 00:09:07,529 --> 00:09:09,277 Dikkat ve tekrar etme. 191 00:09:10,252 --> 00:09:12,619 Bishop'ın iyi olduğu güzel bir proje daha var. 192 00:09:12,643 --> 00:09:15,718 HIVE diye adlandırdığımız bu projenin amacı, 193 00:09:15,742 --> 00:09:19,593 aşırı karmaşık bir tasarım sorununu çözmek için insan, 194 00:09:19,617 --> 00:09:22,837 bilgisayar ve robotların ortak çalışma tecrübesini örnek almak. 195 00:09:23,793 --> 00:09:25,244 İnsanlar iş gücü oldular. 196 00:09:25,268 --> 00:09:28,741 İnşaat alanında gezdiler, bambuyu sürekli değiştirdiler, 197 00:09:28,765 --> 00:09:31,521 ki bambu eşbiçimli bir materyal olmadığı için 198 00:09:31,545 --> 00:09:33,419 robotların çalışması çok zordur. 199 00:09:33,443 --> 00:09:35,685 Sonra robotlar bu fiber bağlamayı gerçekleştirdi, 200 00:09:35,685 --> 00:09:37,940 insanın bunu yapması neredeyse imkânsızdı. 201 00:09:37,964 --> 00:09:41,585 Bir de her şeyi kontrol eden bir Yapay Zekâmız vardı. 202 00:09:41,609 --> 00:09:44,899 İnsanlara ve robotlara yapması gerekenleri söyleyip 203 00:09:44,923 --> 00:09:47,838 binlerce bireysel bileşenin kaydını tutuyordu. 204 00:09:47,862 --> 00:09:49,042 İlginç olan şeyse, 205 00:09:49,066 --> 00:09:52,207 insan, robot ve yapay zekânın birbirini güçlendirmeden 206 00:09:52,231 --> 00:09:56,755 bu terası inşa etmesinin kesinlikle mümkün olmamasıydı. 207 00:09:57,890 --> 00:10:01,210 Bir proje daha göstereceğim. Bu biraz çılgınca. 208 00:10:01,234 --> 00:10:05,702 Amsterdamlı ressam Joris Laarman ve MX3D'deki takımı ile çalışıyoruz, 209 00:10:05,726 --> 00:10:08,604 amacımız üretken tasarım ve robotik yazdırma ile 210 00:10:08,628 --> 00:10:11,623 dünyanın ilk özerk inşa edilmiş köprüsünü yapmak. 211 00:10:12,315 --> 00:10:16,000 Şu anda Joris ve Yapay Zekâ Amsterdam'da bunun 212 00:10:16,024 --> 00:10:17,196 üzerine çalışıyorlar. 213 00:10:17,220 --> 00:10:19,541 İşleri bitince sadece bir tuşa basacağız 214 00:10:19,565 --> 00:10:22,876 ve robotlar paslanmaz çelik üzerine 3B çıkışlar alacak, 215 00:10:22,900 --> 00:10:26,183 sonra insan olmadan buna devam edecekler, 216 00:10:26,207 --> 00:10:27,765 ta ki köprü tamamlanana kadar. 217 00:10:29,099 --> 00:10:32,027 Bilgisayarlar yeni şeyler hayal etme ve tasarlama 218 00:10:32,051 --> 00:10:34,201 yetilerimizi güçlendirirken 219 00:10:34,225 --> 00:10:37,120 robotik sistemler daha önce hiç yapamadğımız 220 00:10:37,144 --> 00:10:39,228 şeyler yapmamıza yardım edecekler. 221 00:10:40,347 --> 00:10:44,507 Peki ya bunları hissetme ve kontrol etme yetimiz? 222 00:10:44,531 --> 00:10:48,562 Yaptığımız şeyler için bir sinir sistemi olmayacak mı? 223 00:10:48,586 --> 00:10:51,098 İnsanın sinir sistemi 224 00:10:51,122 --> 00:10:53,433 çevremizde olan her şeyi bize bildirir. 225 00:10:54,186 --> 00:10:57,870 Ama kendi yaptığımız şeylerin sinir sistemi gelişmemiş. 226 00:10:57,894 --> 00:11:01,457 Örneğin, bir araba gidip belediyeye Broadway ve Morrison'ın köşe başında 227 00:11:01,481 --> 00:11:04,611 bir çukur olduğunu ve üstünden geçtiğini söylemez. 228 00:11:04,635 --> 00:11:06,727 Bir bina, tasarımcılarına içindeki insanların 229 00:11:06,727 --> 00:11:09,375 orada olmaktan memnun olup olmadıklarını söylemez, 230 00:11:09,399 --> 00:11:12,409 oyuncak üreticisi o oyuncakla 231 00:11:12,433 --> 00:11:14,440 gerçekten oynandığını bilemez, 232 00:11:14,464 --> 00:11:17,003 şu an nerede veya oynaması zevkli mi bilemez. 233 00:11:17,620 --> 00:11:21,434 Ama şuna eminim ki tasarımcılar Barbie'yi yaptıklarında, 234 00:11:21,458 --> 00:11:23,152 ona bu hayat tarzını yakıştırdılar. 235 00:11:23,152 --> 00:11:24,153 (Kahkahalar) 236 00:11:24,177 --> 00:11:27,083 Barbie kendini yalnız hissederse ne olur peki? 237 00:11:27,107 --> 00:11:30,254 (Kahkahalar) 238 00:11:31,266 --> 00:11:32,554 Tasarımcılar gerçek dünyada 239 00:11:32,578 --> 00:11:34,685 neler olduğunu bilseler 240 00:11:34,709 --> 00:11:37,292 yol, bina veya Barbie fark etmez, 241 00:11:37,316 --> 00:11:40,010 bu bilgiyi kullanıcı için 242 00:11:40,034 --> 00:11:41,434 daha iyi hâle getirebilirler. 243 00:11:41,458 --> 00:11:43,249 Burada eksik olan şey tasarladığımız, 244 00:11:43,273 --> 00:11:46,982 yapıp kullandığımız şeylere ilişkin bir sinir sistemi. 245 00:11:47,915 --> 00:11:51,470 Gerçek hayatta yarattığınız şeylerden bu tür bir 246 00:11:51,494 --> 00:11:53,677 geri bildirim alsanız nasıl olurdu? 247 00:11:55,432 --> 00:11:56,923 Yaptığımız onca şeyi düşününce- 248 00:11:56,923 --> 00:11:59,342 inanılmaz para ve enerji harcıyoruz- 249 00:11:59,366 --> 00:12:01,742 geçen yıl insanları yaptığımız şeyleri almaya 250 00:12:01,766 --> 00:12:04,620 ikna etmek için 2 trilyon dolar harcanmış. 251 00:12:04,644 --> 00:12:08,032 Satılmış veya kullanıma sunulmuş, tasarladığınız ve yarattığınız 252 00:12:08,056 --> 00:12:09,783 tüm bu şeylere ilişkin 253 00:12:09,807 --> 00:12:13,421 böyle bir bağlantıya sahip olsaydınız 254 00:12:13,445 --> 00:12:15,065 bunu değiştirebilirdiniz; 255 00:12:15,089 --> 00:12:18,136 insanlara icatlarımızı aldırmak yerine 256 00:12:18,160 --> 00:12:21,594 sadece istedikleri şeyleri yapabiliriz. 257 00:12:21,618 --> 00:12:24,405 İyi haber şu ki, bizi tasarımlarımıza bağlayacak 258 00:12:24,429 --> 00:12:27,230 dijital sinir sistemi üzerinde çalışıyoruz. 259 00:12:28,365 --> 00:12:29,992 Bir proje üzerinde çalışıyoruz, 260 00:12:30,016 --> 00:12:33,728 Los Angeles'ta Bandito Kardeşler 261 00:12:33,752 --> 00:12:35,159 ve takımı ile birlikte. 262 00:12:35,183 --> 00:12:38,616 Bu ekibin yaptığı şeylerden biri sıradışı şeyler yapan 263 00:12:38,640 --> 00:12:41,513 sıradışı arabalar üretmek. 264 00:12:42,905 --> 00:12:44,355 Bunlar çıldırmış. 265 00:12:44,379 --> 00:12:45,415 (Kahkahalar) 266 00:12:45,439 --> 00:12:46,842 Ama iyi anlamda. 267 00:12:48,993 --> 00:12:50,756 Bizim birlikte yaptığımız şey ise 268 00:12:50,780 --> 00:12:53,220 geleneksel yarış arabası şasesini alıp 269 00:12:53,244 --> 00:12:54,829 ona bir sinir sistemi yüklemek. 270 00:12:54,853 --> 00:12:57,911 Yani onlarca sensör taktık ve 271 00:12:57,935 --> 00:13:00,570 direksiyona birinci sınıf bir sürücü koyduk, 272 00:13:00,594 --> 00:13:03,951 arabayı çöle götürdük ve bir hafta boyunca kullandık. 273 00:13:03,975 --> 00:13:06,466 Arabanın sinir sistemi arabanın başına gelen 274 00:13:06,490 --> 00:13:07,972 her şeyi yakaladı. 275 00:13:07,996 --> 00:13:10,617 4 milyar veri noktası elde ettik; 276 00:13:10,641 --> 00:13:12,951 sorumlu olduğu tüm güçlerden. 277 00:13:12,975 --> 00:13:14,634 Sonra çılgınca bir şey yaptık. 278 00:13:15,268 --> 00:13:16,768 Tüm veriyi aldık 279 00:13:16,792 --> 00:13:20,528 ''Dreamcatcher'' dediğimiz üretken tasarımlı bir yapay zekâya taktık. 280 00:13:21,270 --> 00:13:25,234 Bir tasarıma dijital bir sinir sistemi yükleyip 281 00:13:25,258 --> 00:13:28,140 size son model bir şase yapmasını isterseniz ne olur? 282 00:13:28,723 --> 00:13:30,696 İşte bu. 283 00:13:32,293 --> 00:13:36,006 Bu bir insanın asla tasarlayamayacağı bir şey. 284 00:13:36,707 --> 00:13:38,595 Ancak bunu bir insan tasarladı, 285 00:13:38,619 --> 00:13:42,928 ama üretken tasarımlı yapay zekâ, 286 00:13:42,952 --> 00:13:44,183 dijital bir sinir sistemi 287 00:13:44,207 --> 00:13:47,212 ve imal yetisi olan robotlar ile güçlendirilmiş bir insan. 288 00:13:47,680 --> 00:13:51,275 Eğer gelecek, Artırılmış Çağ bu ise 289 00:13:51,299 --> 00:13:55,560 bilişsel, fiziksel ve algısal olarak güçlendirileceksek, 290 00:13:55,584 --> 00:13:56,992 bu neye benzeyecek? 291 00:13:57,576 --> 00:14:00,897 Bu harikalar diyarı nasıl görünecek? 292 00:14:00,921 --> 00:14:02,630 Sanırım imal etmekten ziyade 293 00:14:02,654 --> 00:14:05,722 yetiştirme yapılan bir dünyaya doğru 294 00:14:05,746 --> 00:14:07,191 yol alıyoruz. 295 00:14:08,159 --> 00:14:11,612 Nesnelerin inşa edilmek yerine 296 00:14:11,636 --> 00:14:13,340 yetiştirildiği bir dünya. 297 00:14:14,134 --> 00:14:16,322 İzole olmaktan çıkıp 298 00:14:16,346 --> 00:14:17,956 iletişim hâlinde olacağız. 299 00:14:18,634 --> 00:14:21,045 Ayrılmayı bir yana bırakıp 300 00:14:21,069 --> 00:14:22,942 birleşmeye kucak açacağız. 301 00:14:23,967 --> 00:14:27,734 Yine sanıyorum ki itaat etmek yerine 302 00:14:27,758 --> 00:14:29,399 özerkliğin değerini anlayacağız. 303 00:14:30,510 --> 00:14:32,415 Artırılmış yetilerimiz sayesinde, 304 00:14:32,439 --> 00:14:34,816 dünya ciddi bir değişim geçirecek. 305 00:14:35,576 --> 00:14:38,822 Bu dünyada daha fazla çeşitlilik, iletişim, 306 00:14:38,846 --> 00:14:41,133 dinamizm ve karmaşıklık, 307 00:14:41,157 --> 00:14:43,475 daha çok uyum sağlama ve 308 00:14:43,499 --> 00:14:44,716 daha çok güzellik olacak. 309 00:14:45,231 --> 00:14:46,795 Gelecek şeylerin biçimi 310 00:14:46,819 --> 00:14:49,109 daha önce hiç görmediğimiz türden olacak. 311 00:14:49,133 --> 00:14:50,292 Neden mi? 312 00:14:50,316 --> 00:14:54,071 Çünkü onlara bu biçimi verecek şey 313 00:14:54,095 --> 00:14:57,765 teknoloji, doğa ve insan ortaklığı olacak. 314 00:14:59,279 --> 00:15:03,083 Bu bana göre dört gözle beklenecek bir gelecek. 315 00:15:03,107 --> 00:15:04,378 Çok teşekkür ederim. 316 00:15:04,402 --> 00:15:10,071 (Alkışlar)