0:00:10.847,0:00:13.799 Vay canına Portland![br]Beni ağırladığınız için teşekkürler. 0:00:14.008,0:00:15.508 Bu şehre gelmeyi çok seviyorum. 0:00:15.522,0:00:18.625 Dünyanın başka neresinde[br]böyle bir kahvaltı yapabilirim ki? 0:00:18.649,0:00:20.315 (Kahkahalar) 0:00:20.339,0:00:23.632 Ve belli ki burası[br]çok yaratıcı bir bölge. 0:00:23.815,0:00:25.111 (Kahkahalar) 0:00:25.135,0:00:27.424 Aramızda kaçınız yaratıcı? 0:00:27.448,0:00:31.072 Kaçınız tasarımcı, mühendis,[br]girişimci, aktör 0:00:31.096,0:00:33.483 veya sadece büyük bir[br]hayal gücünüz var? 0:00:33.507,0:00:35.355 Elleri göreyim? 0:00:35.379,0:00:36.560 Demek ki çoğunuz. 0:00:37.734,0:00:40.028 Biz yaratıcılar için haberlerim var. 0:00:41.114,0:00:43.687 Önümüzdeki 20 yıl içinde, 0:00:45.871,0:00:48.844 geçtiğimiz son 2000 yıla kıyasla[br]çalışma şeklimiz 0:00:49.782,0:00:51.939 çok daha fazla değişecek. 0:00:52.768,0:00:57.396 Hatta bence insanlık tarihinde[br]yeni bir çağın eşiğindeyiz. 0:00:58.045,0:01:02.624 Çalışma şeklimize göre[br]dört temel tarihi çağ geçirdik. 0:01:03.804,0:01:07.079 Avcı-Toplayıcı Çağı [br]birkaç milyon yıl sürdü. 0:01:07.563,0:01:11.139 Sonra birkaç bin yıl süren Tarım Çağı. 0:01:11.405,0:01:14.895 Ardından birkaç yüzyıl süren Sanayi Çağı. 0:01:14.919,0:01:18.728 Şimdi ise henüz onlarca yıldır[br]süregelen Bilgi Çağı'ndayız. 0:01:19.230,0:01:24.450 Bugün insan türü olarak yeni bir[br]büyük çağın kıyısındayız. 0:01:25.506,0:01:28.186 Artırılmış Çağ'a hoşgeldiniz. 0:01:28.210,0:01:31.903 Bu yeni çağda doğal insani yetileriniz 0:01:31.927,0:01:34.995 düşünmenize yardım eden[br]bilgisayar sistemleri, 0:01:35.119,0:01:37.305 üretmenize yardım eden[br]robotik sistemler 0:01:37.329,0:01:38.977 ve doğal duyularınızın ötesinde 0:01:39.001,0:01:42.691 sizi dünyaya bağlayan dijital [br]bir sinir sistemi ile güçlendirilecek. 0:01:44.947,0:01:46.889 Bilişsel artırma ile başlayalım. 0:01:46.913,0:01:49.113 Kaçınız güçlendirilmiş sayborg? 0:01:49.270,0:01:51.545 (Kahkahalar) 0:01:51.569,0:01:53.084 Üç veya dört kişi, 0:01:53.108,0:01:54.791 o da Portland'da olduğumuz için. 0:01:54.815,0:01:58.025 (Kahkahalar) 0:01:58.049,0:01:59.341 Tuhaf olmaya devam o hâlde. 0:01:59.341,0:02:01.543 (Kahkahalar) 0:02:01.567,0:02:04.388 Ben de zaten artırılmış[br]olduğumuzu iddia ediyordum. 0:02:05.048,0:02:06.552 Bir partide olduğunuzu 0:02:06.576,0:02:10.096 ve birinin size cevabını bilmediğiniz[br]bir soru sorduğunu düşünün. 0:02:10.120,0:02:13.880 Eğer elinizde bunlardan bir tane varsa,[br]birkaç saniyede cevabı bulursunuz. 0:02:14.629,0:02:16.928 Fakat bu sadece ilkel bir başlangıç. 0:02:17.623,0:02:20.954 Siri bile sadece pasif bir araç. 0:02:21.420,0:02:24.801 Aslına bakarsanız[br]son üç buçuk milyon yıldır 0:02:24.825,0:02:28.348 kullandığımız tüm araçlar tamamen pasifti. 0:02:29.563,0:02:33.218 Yalnızca söylediğimizi yapıyorlar,[br]başka bir şey değil. 0:02:33.242,0:02:36.343 Kullandığımız ilk araç yalnızca[br]onu sapladığımız yeri kesiyordu. 0:02:37.382,0:02:40.422 Matkap yalnızca kullananın[br]işaretlediği noktayı deliyor. 0:02:40.818,0:02:46.544 Hatta en gelişmiş araçlarımız bile biz [br]yönlendirmeden hiçbir şey yapmıyorlar. 0:02:47.598,0:02:50.779 Aslında beni hayal kırıklığına[br]uğratan şey şu; 0:02:50.803,0:02:52.251 biz her zaman irademizi 0:02:52.275,0:02:55.776 fiziksel yollarla araçlara [br]yönlendirerek kısıtladık; 0:02:55.800,0:02:58.097 fiziksel derken gerçekten[br]ellerimizi kullanarak, 0:02:58.121,0:02:59.549 bilgisayarda bile. 0:03:00.662,0:03:03.125 Ama ben ''Uzay Yolu''ndaki Scotty gibiyim. 0:03:03.149,0:03:04.999 (Kahkahalar) 0:03:05.023,0:03:07.169 Bir bigisayarla sohbet etmek istiyorum. 0:03:07.193,0:03:10.163 ''Hey bilgisayar, hadi bir araba[br]tasarlayalım.'' demek, 0:03:10.187,0:03:12.136 bilgisayar da bana[br]araba çizsin istiyorum. 0:03:12.136,0:03:14.978 Sonra ''hayır, daha sağlam[br]ve Alman işi gibi olmasın'' desem 0:03:14.978,0:03:16.645 ve bilgisayar bir seçenek gösterse. 0:03:16.645,0:03:18.434 (Kahkahalar) 0:03:18.798,0:03:21.104 Bu sohbet biraz uçarı olabilir, 0:03:21.128,0:03:23.793 muhtemelen çoğumuzun [br]düşündüğünden az, 0:03:23.817,0:03:25.580 ama şu an 0:03:25.604,0:03:26.845 bunun üzerine çalışıyoruz. 0:03:26.845,0:03:30.812 Araçlar pasif olmaktan[br]üretken olmaya doğru çığır atlıyor. 0:03:31.421,0:03:36.069 Üretken tasarımlı araçlar[br]bilgisayar ve algoritma kullanarak 0:03:36.093,0:03:38.901 geometri sentezi yapıp 0:03:38.925,0:03:41.679 tamamen kendi başlarına[br]yeni tasarımlar ortaya atıyorlar. 0:03:42.126,0:03:44.874 Tek ihtiyacı olan şey sizin[br]hedef ve filtreleriniz. 0:03:44.898,0:03:46.306 Bir örnek vereyim: 0:03:46.330,0:03:49.118 Bu insansız hava aracı şasesinde 0:03:49.142,0:03:51.768 tek yapmanız gereken [br]ona bir şey söylemek. 0:03:51.792,0:03:53.065 Aracın dört pervanesi var, 0:03:53.089,0:03:55.220 mümkün olduğu kadar[br]hafif olsun istiyorsunuz 0:03:55.244,0:03:57.514 ve aerodinamik olarak çalışması gerek. 0:03:57.538,0:04:02.452 İşte bu noktada bilgisayar [br]tüm çözümleri tarıyor: 0:04:02.476,0:04:06.403 Kriterlerinize uygun her bir[br]olasılığı çözüp karşılayan -- 0:04:06.427,0:04:07.869 milyonlarca olasılığı. 0:04:07.893,0:04:09.868 Bunun için büyük bilgisayarlar gerek. 0:04:09.892,0:04:11.847 Fakat konu bizi 0:04:11.871,0:04:15.014 hayal dahi edemeyeceğimiz [br]tasarımlara getirir. 0:04:15.456,0:04:18.368 Bilgisayar bütün bunları[br]tek başına yapıyor, 0:04:18.392,0:04:20.070 hiç kimse bir çizim yapmadı 0:04:20.094,0:04:22.180 ve tamamen sıfırdan başladı. 0:04:23.168,0:04:25.555 Bu arada hava aracının 0:04:25.579,0:04:29.060 uçan bir sincabın iç kısmına[br]benzemesi de tesadüf değil. 0:04:29.231,0:04:32.146 (Kahkahalar) 0:04:32.170,0:04:34.472 Bunun sebebi algoritmaların[br]evrim mantığıyla 0:04:34.496,0:04:36.133 çalışacak şekilde tasarlanması. 0:04:37.045,0:04:39.705 İşin heyecan verici kısmı[br]bu teknolojiyi gerçek hayatta 0:04:39.729,0:04:40.888 görmeye başlamamız. 0:04:40.912,0:04:43.364 Birkaç yıldır Airbus'la birlikte 0:04:43.388,0:04:45.297 geleceğin uçakları üzerine çalışıyoruz. 0:04:45.321,0:04:47.391 Henüz olması mümkün değil. 0:04:47.415,0:04:51.195 Fakat kısa süre önce[br]bunu başarmak için üretken tasarımlı 0:04:51.219,0:04:53.026 yapay zekâ kullandık. 0:04:53.939,0:04:59.092 Bu, bilgisayar tarafından tasarlanmış[br]bir kabin bölmesinin 3B gösterimi. 0:04:59.116,0:05:01.940 Orijinalinden daha güçlü[br]ama yarısı ağırlığında 0:05:01.964,0:05:05.110 ve bu yıl Airbus A320 ile[br]uçuyor olacak. 0:05:06.835,0:05:09.024 Yani bilgisayarlar artık üretebiliyor; 0:05:09.048,0:05:13.643 bizim iyi tanımladığımız sorunlara[br]kendi çözümlerini bulabiliyorlar. 0:05:14.737,0:05:16.047 Ama sezgisel değiller. 0:05:16.071,0:05:19.157 Her seferinde sıfırdan[br]başlamaları gerek, 0:05:19.181,0:05:21.871 çünkü hiçbir zaman öğrenmiyorlar. 0:05:22.768,0:05:24.534 Maggie öyle değil ama. 0:05:24.558,0:05:26.139 (Kahkahalar) 0:05:26.163,0:05:29.460 Maggie aslında çoğu ileri tasarım[br]araçlarımızdan daha akıllı. 0:05:29.867,0:05:31.367 Peki ben ne demek istiyorum? 0:05:31.391,0:05:32.981 Sahibi tasmayı eline aldığında 0:05:33.005,0:05:35.073 Maggie neredeyse kendinden[br]emin bir şekilde 0:05:35.097,0:05:36.581 yürüyüşe çıkacaklarını biliyor. 0:05:36.581,0:05:37.710 Nasıl öğrendi peki? 0:05:37.734,0:05:41.058 Çünkü sahibi tasmayı her aldığında[br]yürüyüşe çıktılar. 0:05:41.082,0:05:42.960 Maggie üç şey yaptı: 0:05:42.984,0:05:44.853 Dikkatini verdi, 0:05:44.877,0:05:46.959 ne olduğunu hatırladı 0:05:46.983,0:05:51.000 ve bunu aklında tutup[br]kafasında bir şablon oluşturdu. 0:05:51.889,0:05:53.984 İşin ilginç yanı, bu tam da 0:05:54.008,0:05:56.531 son 60 yıldır bilgisayar[br]bilimcilerin Yapay Zekâ 0:05:56.555,0:05:58.414 üzerinde yapmak istedikleri şey. 0:05:59.783,0:06:01.132 1952 yılında, 0:06:01.156,0:06:04.957 XOXO oynayabilen bu[br]bilgisayarı geliştirdiler. 0:06:06.181,0:06:07.341 Büyük başarı. 0:06:08.129,0:06:11.129 45 yıl sonra 1997 yılında, 0:06:11.153,0:06:13.625 Deep Blue satrançta Kasparov'u yendi. 0:06:15.146,0:06:20.114 2011'de Watson bu iki kişiyi[br]bilgi yarışmasında yendi, 0:06:20.138,0:06:23.066 ki bu satranç oynamaktan [br]daha zordur bilgisayar için. 0:06:23.090,0:06:26.902 Gerçek şu ki, önceden belirtilmiş[br]talimatlarla çalışmak yerine 0:06:26.926,0:06:30.249 Watson bu insan rakiplerini [br]yenmek için mantık kullandı. 0:06:31.493,0:06:33.932 Yine birkaç hafta önce, 0:06:33.956,0:06:38.218 DeepMind'ın AlphaGo robotu[br]Go oyununda dünya birincisini yendi, 0:06:38.242,0:06:40.454 bu sahip olduğumuz en zor oyun. 0:06:40.478,0:06:43.974 Go oyununda, evrendeki atom[br]sayısından çok 0:06:43.998,0:06:46.022 hamle olasılığı var. 0:06:47.910,0:06:49.736 Yani kazanmak için 0:06:49.760,0:06:52.774 AlphaGo'nın sezgi geliştirmesi gerekliydi. 0:06:52.798,0:06:56.908 Yine bazı noktalarda,[br]AlphaGo'nun programcıları 0:06:56.932,0:06:59.218 onun neyi niçin yaptığını anlayamadılar. 0:07:01.151,0:07:02.881 İşler çok hızlı bir şekilde işliyor. 0:07:02.881,0:07:06.062 Düşünün bir, insan hayatı boyunca 0:07:06.086,0:07:08.319 bilgisayarlar bir çocuk oyunundan 0:07:09.620,0:07:12.668 stratejik düşüncenin zirvesi [br]kabul edilen bir oyuna yöneldi. 0:07:13.699,0:07:16.116 Burada olan şey şu; 0:07:16.140,0:07:19.450 bilgisayarlar Spock olmaktan çıkıp 0:07:20.474,0:07:22.423 Kirk olmaya başlıyorlar. 0:07:22.447,0:07:26.065 (Kahkahalar) 0:07:26.089,0:07:29.513 Basit mantıktan sezgiye. 0:07:31.584,0:07:33.327 Bu köprüden geçer miydiniz? 0:07:34.009,0:07:36.332 Çoğunuz ''hayatta olmaz!'' diyor 0:07:36.356,0:07:37.664 (Kahkahalar) 0:07:37.688,0:07:40.345 Bu kararı vermeniz saniyeden kısa sürdü. 0:07:40.369,0:07:42.797 Köprünün güvenli olmadığını biliyordunuz. 0:07:42.821,0:07:44.810 İşte bu tam da derin öğrenme 0:07:44.834,0:07:48.402 sistemlerimizin geliştirmeye [br]çalıştıkları türden bir sezgi. 0:07:49.122,0:07:50.829 Çok yakında, yaptığınız, 0:07:50.853,0:07:53.782 tasarladığınız bir şeyi[br]bir bilgisayara gösterebileceksiniz. 0:07:53.806,0:07:55.439 O da bakıp şöyle diyecek, 0:07:55.463,0:07:58.286 ''Olmaz, kanka, işe yaramaz,[br]baştan yapman lazım.'' 0:07:59.254,0:08:02.324 İnsanlar yeni şarkınızı beğenecek mi [br]veya hangi dondurmayı 0:08:03.173,0:08:05.236 alacağınızı da sorabilirsiniz. 0:08:06.949,0:08:09.528 Veya daha da önemlisi 0:08:09.552,0:08:11.916 daha önce hiç karşılaşmadığımız[br]bir sorunla ilgili 0:08:11.940,0:08:13.577 bilgisayarla çalışabilirsiniz. 0:08:13.601,0:08:15.002 Örneğin iklim değişikliği. 0:08:15.026,0:08:17.046 Kendi başımıza pek bir iş başaramıyoruz. 0:08:17.070,0:08:19.315 Alabileceğimiz her yardıma [br]ihtiyacımız var. 0:08:19.339,0:08:20.797 İşte söylemek istediğim bu; 0:08:20.821,0:08:23.376 teknolojinin bilişsel [br]yetilerimizi kuvvetlendirmesi, 0:08:23.400,0:08:26.952 böylelikle artırılmamış insan olarak[br]erişemeyeceğimiz şeyler 0:08:26.976,0:08:29.535 hayal edip tasarlamak. 0:08:31.384,0:08:34.325 Gelelim icat edip 0:08:34.349,0:08:36.790 tasarlayacağımız onca çılgınca şeye. 0:08:37.352,0:08:41.445 Sanırım insan artırma çağı,[br]sanal ve düşünsel olduğu kadar 0:08:41.469,0:08:44.534 fiziksel dünyayla da alakalı. 0:08:45.233,0:08:47.154 Teknoloji bizi nasıl güçlendirecek? 0:08:47.565,0:08:50.038 Fiziksel dünyada; robotlar. 0:08:51.620,0:08:53.356 Robotların insanların işine 0:08:53.380,0:08:55.868 mal olacağı konusunda[br]ciddi bir korku var, 0:08:55.892,0:08:57.722 bazı sektörler için bu doğru. 0:08:58.174,0:09:01.052 Ama benim ilgimi çeken, [br]insan ve robotların 0:09:01.076,0:09:06.086 birlikte çalışarak [br]birbirlerini güçlendirecek olması 0:09:06.110,0:09:08.168 ve yeni bir alanda yaşamaya başlamaları. 0:09:08.192,0:09:11.024 Bu San Fransisco'daki uygulamalı [br]araştırma laboratuvarımız. 0:09:11.024,0:09:13.720 Buradaki çalışmalarımızdan [br]biri ileri robotlar, 0:09:13.744,0:09:16.255 özellikle de insan-robot işbirliği. 0:09:17.034,0:09:19.793 Bu Bishop, robotlarımızdan biri. 0:09:19.817,0:09:21.606 Deney amaçlı, sürekli aynı 0:09:21.630,0:09:25.090 hareketleri yapan bir inşaat işçisine[br]yardım etmesi için ayarladık, 0:09:25.984,0:09:30.178 kuru duvarda priz veya lambalar [br]için delik açma gibi görevler. 0:09:30.202,0:09:32.668 (Kahkahalar) 0:09:33.877,0:09:36.988 Bishop'ın insan ortağı[br]basit bir dil ve jestlerle 0:09:37.012,0:09:38.317 ne yapacağını söylüyor; 0:09:38.341,0:09:39.788 bir köpekle konuşmak gibi, 0:09:39.812,0:09:41.955 sonra Bishop mükemmel bir dikkatle 0:09:41.979,0:09:43.871 bu talimatları uyguluyor. 0:09:43.895,0:09:46.884 İnsanı iyi olduğu şey için kullanıyoruz: 0:09:46.908,0:09:49.241 Farkındalık, algı ve karar verme. 0:09:49.265,0:09:51.505 Robotu da iyi olduğu alanda: 0:09:51.529,0:09:53.277 Dikkat ve tekrar etme. 0:09:54.252,0:09:56.619 Bishop'ın iyi olduğu[br]güzel bir proje daha var. 0:09:56.643,0:09:59.718 HIVE diye adlandırdığımız[br]bu projenin amacı 0:09:59.742,0:10:03.593 aşırı karmaşık bir tasarım[br]sorununu çözmek için insan, 0:10:03.617,0:10:06.837 bilgisayar ve robotların ortak [br]çalışma tecrübesini örnek almak. 0:10:07.793,0:10:09.244 İnsanlar iş gücü oldular. 0:10:09.268,0:10:12.741 İnşaat alanında gezdiler,[br]bambuyu sürekli değiştirdiler, 0:10:12.765,0:10:15.521 ki bambu eşbiçimli bir [br]materyal olmadığı için 0:10:15.545,0:10:17.419 robotların çalışması çok zordur. 0:10:17.543,0:10:19.865 Sonra robotlar bu fiber[br]bağlamayı gerçekleştirdi, 0:10:19.889,0:10:22.340 insanın bunu yapması [br]neredeyse imkânsızdı. 0:10:22.364,0:10:25.985 Bir de her şeyi kontrol eden[br]bir Yapay Zekâmız vardı. 0:10:26.109,0:10:29.399 İnsanlara ve robotlara[br]yapması gerekenleri söyleyip 0:10:29.423,0:10:32.338 binlerce bireysel bileşenin[br]kaydını tutuyordu. 0:10:32.362,0:10:33.542 İlginç olan şeyse, 0:10:33.566,0:10:36.707 insan, robot ve yapay zekânın[br]birbirini güçlendirmeden 0:10:36.731,0:10:41.255 bu terası inşa etmesinin[br]kesinlikle mümkün olmamasıydı. 0:10:42.390,0:10:45.710 Bir proje daha göstereceğim.[br]Bu biraz çılgınca. 0:10:47.734,0:10:52.202 Amsterdamlı ressam Joris Laarman ve[br]MX3D'deki takımı ile çalışıyoruz, 0:10:53.526,0:10:56.404 amacımız üretken tasarım ve[br]robotik yazdırma ile 0:10:56.428,0:10:59.423 dünyanın ilk özerk inşa[br]edilmiş köprüsünü yapmak. 0:11:01.015,0:11:04.700 Şu anda Joris ve Yapay Zekâ[br]Amsterdam'da bunun 0:11:04.724,0:11:05.896 üzerine çalışıyorlar. 0:11:06.620,0:11:09.211 İşleri bitince sadece bir tuşa basacağız 0:11:09.235,0:11:12.546 ve robotlar paslanmaz çelik üzerine[br]3B çıkışlar alacak, 0:11:12.570,0:11:15.853 sonra insan olmadan buna[br]devam edecekler, 0:11:15.877,0:11:17.435 ta ki köprü tamamlanana kadar. 0:11:18.769,0:11:21.697 Bilgisayarlar yeni şeyler[br]hayal etme ve tasarlama 0:11:21.721,0:11:23.871 yetilerimizi güçlendirirken, 0:11:23.895,0:11:26.790 robotik sistemler daha önce[br]hiç yapamadğımız 0:11:26.814,0:11:28.898 şeyler yapmamıza yardım edecekler. 0:11:30.017,0:11:34.177 Peki ya bunları hissetme ve[br]kontrol etme yetimiz? 0:11:34.201,0:11:38.232 Yaptığımız şeyler için bir [br]sinir sistemi olmayacak mı? 0:11:40.486,0:11:42.998 İnsanın sinir sistemi 0:11:43.022,0:11:45.333 çevremizde olan her şeyi bize bildirir. 0:11:46.086,0:11:49.389 Ama kendi yaptığımız şeylerin[br]sinir sistemi gelişmemiş. 0:11:49.413,0:11:51.578 Aslına bakarsanız dandik diyeceğim. 0:11:51.602,0:11:52.930 (Kahkahalar) 0:11:52.954,0:11:56.817 Örneğin, bir araba gidip belediyeye[br]Broadway ve Morrison'ın köşe başında 0:11:56.841,0:11:59.971 bir çukur olduğunu ve [br]üstünden geçtiğini söylemez. 0:12:01.295,0:12:03.387 Bir bina, tasarımcılarına[br]içindeki insanların 0:12:03.387,0:12:06.035 orada olmaktan memnun olup[br]olmadıklarını söylemez, 0:12:07.659,0:12:10.669 oyuncak üreticisi o oyuncakla 0:12:10.693,0:12:12.700 gerçekten oynandığını bilemez, 0:12:12.724,0:12:15.263 şu an nerede veya [br]oynaması zevkli mi bilemez. 0:12:15.880,0:12:19.694 Ama şuna eminim ki tasarımcılar[br]Barbie'yi yaptıklarında, 0:12:19.718,0:12:21.382 ona bu hayat tarzını yakıştırdılar. 0:12:21.382,0:12:22.413 (Kahkahalar) 0:12:23.237,0:12:26.143 Barbie kendini yalnız[br]hissederse ne olur peki? 0:12:26.167,0:12:30.302 (Kahkahalar) 0:12:30.326,0:12:31.614 Tasarımcılar gerçek dünyada 0:12:31.638,0:12:33.745 neler olduğunu bilseler 0:12:33.769,0:12:36.352 yol, bina veya Barbie fark etmez 0:12:36.376,0:12:39.070 bu bilgiyi kullanıcı için[br] 0:12:39.094,0:12:40.494 daha iyi hâle getirebilirler. 0:12:40.518,0:12:42.309 Burada eksik olan şey tasarladığımız, 0:12:42.333,0:12:46.042 yapıp kullandığımız şeylere[br]ilişkin bir sinir sistemi. 0:12:46.975,0:12:50.530 Gerçek hayatta yarattığınız[br]şeylerden bu tür bir 0:12:50.554,0:12:52.737 geri bildirim alsanız nasıl olurdu? 0:12:54.492,0:12:55.943 Yaptığımız onca şeyi düşününce 0:12:55.967,0:12:58.402 inanılmaz para ve enerji harcıyoruz, 0:12:58.426,0:13:00.802 geçen yıl insanları [br]yaptığımız şeyleri almaya 0:13:00.826,0:13:03.680 ikna etmek için 2 trilyon dolar harcanmış. 0:13:03.704,0:13:07.092 Satılmış veya kullanıma sunulmuş,[br]tasarladığınız ve yarattığınız 0:13:07.116,0:13:08.843 tüm bu şeylere ilişkin 0:13:08.867,0:13:12.481 böyle bir bağlantıya sahip olsaydınız 0:13:12.505,0:13:14.125 bunu değiştirebilirdiniz; 0:13:14.149,0:13:17.596 insanlara icatlarımızı aldırmak yerine 0:13:17.620,0:13:21.054 sadece istedikleri şeyleri yapabiliriz. 0:13:24.478,0:13:27.265 İyi haber şu ki, bizi [br]tasarımlarımıza bağlayacak 0:13:27.289,0:13:30.090 dijital sinir sistemi [br]üzerinde çalışıyoruz. 0:13:31.225,0:13:32.852 Bir proje üzerinde çalışıyoruz, 0:13:32.876,0:13:37.888 Los Angeles'ta Bandito Kardeşler 0:13:37.912,0:13:39.319 ve takımı ile birlikte. 0:13:39.343,0:13:42.776 Bu ekibin yaptığı şeylerden biri[br]sıradışı şeyler yapan 0:13:42.800,0:13:45.673 sıradışı arabalar üretmek. 0:13:47.065,0:13:48.515 Bunlar çıldırmış. 0:13:48.539,0:13:49.575 (Kahkahalar) 0:13:49.599,0:13:51.002 Ama iyi anlamda. 0:13:54.793,0:13:56.556 Bizim birlikte yaptığımız şey ise 0:13:56.580,0:13:59.020 geleneksel yarış arabası şasesini alıp 0:13:59.044,0:14:00.629 ona bir sinir sistemi yüklemek. 0:14:00.653,0:14:03.771 Arabaya düzinelerce sensör taktık ve 0:14:03.795,0:14:06.430 direksiyona birinci sınıf[br]bir sürücü koyduk, 0:14:06.454,0:14:09.811 arabayı çöle götürdük ve[br]bir hafta boyunca kullandık. 0:14:09.835,0:14:12.326 Arabanın sinir sistemi[br]arabanın başına gelen 0:14:12.350,0:14:13.832 her şeyi yakaladı. 0:14:13.856,0:14:16.477 4 milyar veri noktası elde ettik; 0:14:16.501,0:14:18.811 sorumlu olduğu tüm güçlerden. 0:14:18.835,0:14:20.494 Sonra çılgınca bir şey yaptık. 0:14:21.238,0:14:22.738 Tüm veriyi aldık 0:14:22.762,0:14:26.498 ''Dreamcatcher'' dediğimiz üretken[br]tasarımlı bir yapay zekâya taktık. 0:14:27.240,0:14:31.204 Bir tasarıma dijital [br]bir sinir sistemi yükleyip 0:14:31.228,0:14:34.110 size son model bir şase [br]yapmasını isterseniz ne olur? 0:14:34.693,0:14:36.666 İşte bu. 0:14:38.263,0:14:41.976 Bu bir insanın asla[br]tasarlayamayacağı bir şey. 0:14:42.677,0:14:44.565 Ancak bunu bir insan tasarladı, 0:14:44.589,0:14:48.898 ama üretken tasarımlı yapay zekâ, 0:14:48.922,0:14:50.153 dijital bir sinir sistemi 0:14:50.177,0:14:53.182 ve imal yetisi olan robotlar ile[br]güçlendirilmiş bir insan. 0:14:54.150,0:14:57.745 Eğer gelecek, Artırılmış Çağ bu ise 0:14:57.769,0:15:02.030 bilişsel, fiziksel ve algısal[br]olarak güçlendirileceksek, 0:15:02.054,0:15:03.462 bu neye benzeyecek? 0:15:04.046,0:15:06.712 Bu harikalar diyarı nasıl görünecek? 0:15:08.291,0:15:10.900 Sanırım imal etmekten ziyade 0:15:10.924,0:15:13.992 yetiştirme yapılan bir dünyaya doğru 0:15:15.101,0:15:16.546 yol alıyoruz. 0:15:18.429,0:15:22.374 Nesnelerin inşa edilmek yerine 0:15:22.398,0:15:24.102 yetiştirildiği bir dünya. 0:15:26.504,0:15:28.692 İzole olmaktan çıkıp 0:15:29.660,0:15:31.270 iletişim hâlinde olacağız. 0:15:33.104,0:15:36.015 Ayrılmayı bir yana bırakıp 0:15:36.039,0:15:37.912 birleşmeye kucak açacağız. 0:15:40.437,0:15:44.204 Yine sanıyorum ki itaat etmek yerine 0:15:45.128,0:15:46.769 özerkliğin değerini anlayacağız. 0:15:49.480,0:15:51.385 Artırılmış yetilerimiz sayesinde, 0:15:51.409,0:15:53.786 dünya ciddi bir değişim geçirecek. 0:15:54.702,0:15:58.305 Sanırım bir mercan adasının[br]o eşsiz dünyası buna güzel bir örnek olur. 0:15:58.836,0:16:02.082 Bu dünyada daha fazla [br]çeşitlilik, iletişim, 0:16:02.106,0:16:04.393 dinamizm ve karmaşıklık, 0:16:04.417,0:16:06.735 daha çok uyum sağlama ve 0:16:06.759,0:16:07.976 daha çok güzellik olacak. 0:16:08.741,0:16:10.305 Gelecek şeylerin biçimi 0:16:10.329,0:16:12.619 daha önce hiç görmediğimiz türden olacak. 0:16:12.643,0:16:13.802 Neden mi? 0:16:13.826,0:16:17.581 Çünkü onlara bu biçimi verecek şey 0:16:17.605,0:16:21.275 teknoloji, doğa ve insan ortaklığı olacak. 0:16:22.789,0:16:26.593 Bu bana göre dört gözle [br]beklenecek bir gelecek. 0:16:26.617,0:16:27.888 Çok teşekkür ederim. 0:16:27.912,0:16:34.912 (Alkışlar)