WEBVTT 00:00:00.735 --> 00:00:03.024 Aramızda kaçınız yaratıcı? 00:00:03.048 --> 00:00:06.672 Kaçınız tasarımcı, mühendis, girişimci, aktör 00:00:06.696 --> 00:00:09.083 veya sadece büyük bir hayal gücünüz var? 00:00:09.107 --> 00:00:10.955 Elleri göreyim? NOTE Paragraph 00:00:10.979 --> 00:00:12.160 Demek ki çoğunuz. 00:00:13.334 --> 00:00:15.628 Biz yaratıcılar için haberlerim var. 00:00:16.714 --> 00:00:19.287 Önümüzdeki 20 yıl içinde, 00:00:21.471 --> 00:00:24.444 geçtiğimiz son 2000 yıla kıyasla çalışma şeklimiz 00:00:25.382 --> 00:00:27.539 çok daha fazla değişecek. 00:00:28.511 --> 00:00:33.139 Hatta bence insanlık tarihinde yeni bir çağın eşiğindeyiz. NOTE Paragraph 00:00:33.645 --> 00:00:38.406 Çalışma şeklimize göre dört temel tarihi çağ geçirdik. 00:00:39.404 --> 00:00:42.679 Avcı-Toplayıcı Çağı birkaç milyon yıl sürdü. 00:00:43.163 --> 00:00:46.739 Sonra birkaç bin yıl süren Tarım Çağı. 00:00:47.195 --> 00:00:50.685 Ardından birkaç yüzyıl süren Sanayi Çağı. 00:00:50.709 --> 00:00:54.996 Şimdi ise henüz onlarca yıldır süregelen Bilgi Çağı'ndayız. 00:00:55.020 --> 00:01:00.240 Bugün insan türü olarak yeni bir büyük çağın kıyısındayız. NOTE Paragraph 00:01:01.296 --> 00:01:03.976 Artırılmış Çağ'a hoş geldiniz. 00:01:04.000 --> 00:01:07.693 Bu yeni çağda doğal insani yetileriniz 00:01:07.717 --> 00:01:10.785 düşünmenize yardım eden bilgisayar sistemleri, 00:01:10.809 --> 00:01:12.995 üretmenize yardım eden robotik sistemler 00:01:13.019 --> 00:01:14.667 ve doğal duyularınızın ötesinde 00:01:14.691 --> 00:01:18.381 sizi dünyaya bağlayan dijital bir sinir sistemi ile güçlendirilecek. 00:01:19.437 --> 00:01:21.179 Bilişsel artırma ile başlayalım. 00:01:21.426 --> 00:01:22.919 Kaçınız güçlendirilmiş sayborg? NOTE Paragraph 00:01:24.133 --> 00:01:26.783 (Kahkahalar) NOTE Paragraph 00:01:26.807 --> 00:01:29.628 Ben de zaten artırılmış olduğumuzu iddia ediyordum. 00:01:30.288 --> 00:01:31.792 Bir partide olduğunuzu 00:01:31.816 --> 00:01:35.336 ve birinin size cevabını bilmediğiniz bir soru sorduğunu düşünün. 00:01:35.360 --> 00:01:39.120 Eğer elinizde bunlardan bir tane varsa, birkaç saniyede cevabı bulursunuz. 00:01:39.869 --> 00:01:42.168 Fakat bu sadece ilkel bir başlangıç. 00:01:42.863 --> 00:01:46.194 Siri bile sadece pasif bir araç. 00:01:46.660 --> 00:01:50.041 Aslına bakarsanız son üç buçuk milyon yıldır 00:01:50.065 --> 00:01:53.174 kullandığımız tüm araçlar tamamen pasifti. 00:01:54.203 --> 00:01:57.858 Yalnızca söylediğimizi yapıyorlar, başka bir şey değil. 00:01:57.882 --> 00:02:00.983 Kullandığımız ilk araç yalnızca onu sapladığımız yeri kesiyordu. 00:02:01.822 --> 00:02:04.862 Matkap yalnızca kullananın işaretlediği noktayı deliyor. 00:02:05.343 --> 00:02:10.984 Hatta en gelişmiş araçlarımız bile biz yönlendirmeden hiçbir şey yapmıyorlar. 00:02:11.008 --> 00:02:14.189 Aslında beni hayal kırıklığına uğratan şey şu; 00:02:14.213 --> 00:02:15.661 biz her zaman irademizi 00:02:15.685 --> 00:02:19.186 fiziksel yollarla araçlara yönlendirerek kısıtladık; 00:02:19.210 --> 00:02:21.507 fiziksel derken gerçekten ellerimizi kullanarak, 00:02:21.531 --> 00:02:22.959 bilgisayarda bile. 00:02:24.072 --> 00:02:26.535 Ama ben ''Uzay Yolu''ndaki Scotty gibiyim. NOTE Paragraph 00:02:26.559 --> 00:02:28.409 (Kahkahalar) NOTE Paragraph 00:02:28.433 --> 00:02:30.579 Bir bigisayarla sohbet etmek istiyorum. 00:02:30.603 --> 00:02:33.573 ''Hey bilgisayar, hadi bir araba tasarlayalım.'' demek, 00:02:33.597 --> 00:02:35.566 bilgisayar da bana araba çizsin istiyorum. 00:02:35.566 --> 00:02:38.858 Sonra ''hayır, daha sağlam ve Alman işi gibi olmasın'' desem 00:02:38.858 --> 00:02:40.775 ve bilgisayar bir seçenek gösterse. NOTE Paragraph 00:02:40.775 --> 00:02:41.844 (Kahkahalar) NOTE Paragraph 00:02:42.208 --> 00:02:44.514 Bu sohbet biraz uçarı olabilir, 00:02:44.538 --> 00:02:47.203 muhtemelen çoğumuzun düşündüğünden az, 00:02:47.227 --> 00:02:48.990 ama şu an 00:02:49.014 --> 00:02:50.265 bunun üzerine çalışıyoruz. 00:02:50.265 --> 00:02:54.222 Araçlar pasif olmaktan üretken olmaya doğru çığır atlıyor. 00:02:54.831 --> 00:02:58.139 Üretken tasarımlı araçlar bilgisayar ve algoritma kullanarak 00:02:58.163 --> 00:03:00.771 geometri sentezi yapıp 00:03:00.795 --> 00:03:03.549 tamamen kendi başlarına yeni tasarımlar ortaya atıyorlar. 00:03:03.996 --> 00:03:06.744 Tek ihtiyacı olan şey sizin hedef ve filtreleriniz. NOTE Paragraph 00:03:06.768 --> 00:03:08.176 Bir örnek vereyim: 00:03:08.200 --> 00:03:10.988 Bu insansız hava aracı şasesinde 00:03:11.012 --> 00:03:13.638 tek yapmanız gereken ona bir şey söylemek. 00:03:13.662 --> 00:03:14.935 Aracın dört pervanesi var, 00:03:14.959 --> 00:03:17.090 mümkün olduğu kadar hafif olsun istiyorsunuz 00:03:17.114 --> 00:03:19.384 ve aerodinamik olarak çalışması gerek. 00:03:19.408 --> 00:03:24.322 İşte bu noktada bilgisayar tüm çözümleri tarıyor: 00:03:24.346 --> 00:03:28.273 Kriterlerinize uygun her bir olasılığı çözüp karşılayan -- 00:03:28.297 --> 00:03:29.739 milyonlarca olasılığı. 00:03:29.763 --> 00:03:31.738 Bunun için büyük bilgisayarlar gerek. 00:03:31.762 --> 00:03:33.717 Fakat konu bizi 00:03:33.741 --> 00:03:36.884 hayal dahi edemeyeceğimiz tasarımlara getirir. 00:03:37.326 --> 00:03:40.238 Bilgisayar bütün bunları tek başına yapıyor- 00:03:40.262 --> 00:03:41.940 hiç kimse bir çizim yapmadı 00:03:41.964 --> 00:03:44.050 ve tamamen sıfırdan başladı. 00:03:45.038 --> 00:03:47.425 Bu arada hava aracının 00:03:47.449 --> 00:03:50.930 uçan bir sincabın iç kısmına benzemesi de tesadüf değil. NOTE Paragraph 00:03:51.287 --> 00:03:53.294 (Kahkahalar) NOTE Paragraph 00:03:54.040 --> 00:03:56.342 Bunun sebebi algoritmaların evrim mantığıyla 00:03:56.366 --> 00:03:58.003 çalışacak şekilde tasarlanması. NOTE Paragraph 00:03:58.715 --> 00:04:01.375 İşin heyecan verici kısmıysa bu teknolojiyi 00:04:01.399 --> 00:04:03.018 gerçek hayatta görmeye başlamamız. 00:04:03.018 --> 00:04:05.034 Birkaç yıldır Airbus'la birlikte 00:04:05.058 --> 00:04:06.967 geleceğin uçakları üzerine çalışıyoruz. 00:04:06.991 --> 00:04:09.061 Henüz olması mümkün değil. 00:04:09.085 --> 00:04:12.865 Fakat kısa süre önce bunu başarmak için üretken tasarımlı 00:04:12.889 --> 00:04:14.696 yapay zekâ kullandık. 00:04:15.609 --> 00:04:20.762 Bu, bilgisayar tarafından tasarlanmış bir kabin bölmesinin 3B gösterimi. 00:04:20.786 --> 00:04:23.610 Orijinalinden daha güçlü ama yarısı ağırlığında 00:04:23.634 --> 00:04:26.780 ve bu yıl Airbus A320 ile uçuyor olacak. 00:04:27.405 --> 00:04:29.244 Yani bilgisayarlar artık üretebiliyor; 00:04:29.244 --> 00:04:33.583 bizim iyi tanımladığımız sorunlara kendi çözümlerini bulabiliyorlar. 00:04:34.677 --> 00:04:35.987 Ama sezgisel değiller. 00:04:36.011 --> 00:04:39.097 Her seferinde sıfırdan başlamaları gerek, 00:04:39.121 --> 00:04:41.686 çünkü hiçbir zaman öğrenmiyorlar. 00:04:42.368 --> 00:04:44.134 Maggie öyle değil ama. NOTE Paragraph 00:04:44.158 --> 00:04:45.739 (Kahkahalar) NOTE Paragraph 00:04:45.763 --> 00:04:49.060 Maggie aslında çoğu ileri tasarım araçlarımızdan daha akıllı. 00:04:49.467 --> 00:04:50.907 Peki ben ne demek istiyorum? 00:04:50.931 --> 00:04:52.521 Sahibi tasmayı eline aldığında 00:04:52.545 --> 00:04:54.613 Maggie neredeyse kendinden emin bir şekilde 00:04:54.637 --> 00:04:56.131 yürüyüşe çıkacaklarını biliyor. 00:04:56.131 --> 00:04:57.250 Nasıl öğrendi peki? 00:04:57.274 --> 00:05:00.598 Çünkü sahibi tasmayı her aldığında yürüyüşe çıktılar. 00:05:00.622 --> 00:05:02.500 Maggie üç şey yaptı: 00:05:02.524 --> 00:05:04.393 Dikkat verdi, 00:05:04.417 --> 00:05:06.499 ne olduğunu hatırladı 00:05:06.523 --> 00:05:10.540 ve bunu aklında tutup kafasında bir şablon oluşturdu. NOTE Paragraph 00:05:11.429 --> 00:05:13.524 İşin ilginç yanı, bu tam da 00:05:13.548 --> 00:05:16.071 son 60 yıldır bilgisayar bilimcilerin Yapay Zekâ 00:05:16.095 --> 00:05:17.954 üzerinde yapmak istedikleri şey. 00:05:18.683 --> 00:05:20.032 1952 yılında, 00:05:20.056 --> 00:05:23.857 XOXO oynayabilen bu bilgisayarı geliştirdiler. 00:05:25.081 --> 00:05:26.241 Büyük başarı. 00:05:27.029 --> 00:05:30.029 45 yıl sonra 1997 yılında, 00:05:30.053 --> 00:05:32.525 Deep Blue satrançta Kasparov'u yendi. 00:05:34.046 --> 00:05:39.014 2011'de Watson bu iki kişiyi bilgi yarışmasında yendi, 00:05:39.038 --> 00:05:41.966 ki bu satranç oynamaktan daha zordur bilgisayar için. 00:05:41.990 --> 00:05:45.802 Gerçek şu ki, önceden belirtilmiş talimatlarla çalışmak yerine 00:05:45.826 --> 00:05:49.149 Watson bu insan rakiplerini yenmek için mantık kullandı. 00:05:50.393 --> 00:05:52.832 Yine birkaç hafta önce, 00:05:52.856 --> 00:05:57.118 DeepMind'ın AlphaGo robotu Go oyununda dünya birincisini yendi, 00:05:57.142 --> 00:05:59.354 bu sahip olduğumuz en zor oyun. 00:05:59.378 --> 00:06:02.274 Go oyununda, evrendeki atom sayısından çok 00:06:02.298 --> 00:06:04.322 hamle olasılığı var. 00:06:06.210 --> 00:06:08.036 Yani kazanmak için 00:06:08.060 --> 00:06:10.678 AlphaGo'nın sezgi geliştirmesi gerekliydi. 00:06:11.098 --> 00:06:15.208 Yine bazı noktalarda, AlphaGo'nun programcıları 00:06:15.232 --> 00:06:17.518 onun neyi niçin yaptığını anlayamadılar. NOTE Paragraph 00:06:19.451 --> 00:06:21.171 İşler çok hızlı bir şekilde işliyor. 00:06:21.171 --> 00:06:24.362 Bir düşünün, insan hayatı boyunca 00:06:24.386 --> 00:06:26.619 bilgisayarlar bir çocuk oyunundan 00:06:27.920 --> 00:06:30.968 stratejik düşüncenin zirvesi kabul edilen bir oyuna yöneldi. 00:06:31.999 --> 00:06:34.416 Burada olan şey şu; 00:06:34.440 --> 00:06:37.750 bilgisayarlar Spock olmaktan çıkıp 00:06:37.774 --> 00:06:39.723 Kirk olmaya başlıyorlar. NOTE Paragraph 00:06:39.747 --> 00:06:43.365 (Kahkahalar) NOTE Paragraph 00:06:43.389 --> 00:06:46.813 Basit mantıktan sezgiye. 00:06:48.184 --> 00:06:49.927 Bu köprüden geçer miydiniz? 00:06:50.609 --> 00:06:52.932 Çoğunuz ''hayatta olmaz!'' diyor NOTE Paragraph 00:06:52.956 --> 00:06:54.264 (Kahkahalar) NOTE Paragraph 00:06:54.288 --> 00:06:56.945 Bu kararı vermeniz saniyeden kısa sürdü. 00:06:56.969 --> 00:06:59.397 Köprünün güvenli olmadığını biliyordunuz. 00:06:59.421 --> 00:07:01.410 İşte bu tam da derin öğrenme 00:07:01.434 --> 00:07:05.002 sistemlerimizin geliştirmeye çalıştıkları türden bir sezgi. 00:07:05.722 --> 00:07:07.429 Çok yakında, yaptığınız, 00:07:07.453 --> 00:07:09.659 tasarladığınız bir şeyi bir bilgisayara 00:07:09.683 --> 00:07:10.836 gösterebileceksiniz. 00:07:10.860 --> 00:07:12.349 O da bakıp şöyle diyecek, 00:07:12.373 --> 00:07:15.196 ''Olmaz, kanka, işe yaramaz, baştan yapman lazım.'' 00:07:15.854 --> 00:07:18.924 İnsanlar yeni şarkınızı beğenecek mi veya hangi dondurmayı 00:07:19.773 --> 00:07:21.836 alacağınızı da sorabilirsiniz. 00:07:23.549 --> 00:07:26.128 Veya daha da önemlisi 00:07:26.152 --> 00:07:28.516 daha önce hiç karşılaşmadığımız bir sorunla ilgili 00:07:28.540 --> 00:07:30.177 bilgisayarla çalışabilirsiniz. 00:07:30.201 --> 00:07:31.602 Örneğin iklim değişikliği. 00:07:31.626 --> 00:07:33.646 Kendi başımıza pek bir iş başaramıyoruz. 00:07:33.670 --> 00:07:35.915 Alabileceğimiz her yardıma ihtiyacımız var. 00:07:35.939 --> 00:07:37.397 İşte söylemek istediğim bu; 00:07:37.421 --> 00:07:39.976 teknolojinin bilişsel yetilerimizi kuvvetlendirmesi, 00:07:40.000 --> 00:07:43.552 böylelikle artırılmamış insan olarak erişemeyeceğimiz şeyleri 00:07:43.576 --> 00:07:46.135 hayal edip tasarlamak. NOTE Paragraph 00:07:47.984 --> 00:07:50.925 Gelelim icat edip 00:07:50.949 --> 00:07:53.390 tasarlayacağımız onca çılgınca şeye. 00:07:53.952 --> 00:07:58.045 Sanırım insan artırma çağı, sanal ve düşünsel olduğu kadar 00:07:58.069 --> 00:08:01.134 fiziksel dünyayla da alakalı. 00:08:01.833 --> 00:08:03.754 Teknoloji bizi nasıl güçlendirecek? 00:08:04.261 --> 00:08:06.734 Fiziksel dünyada; robotlar. 00:08:07.620 --> 00:08:09.356 Robotların insanların işine 00:08:09.380 --> 00:08:11.868 mal olacağı konusunda ciddi bir korku var, 00:08:11.892 --> 00:08:13.722 bazı sektörler için bu doğru. 00:08:14.174 --> 00:08:17.052 Ama benim ilgimi çeken, insan ve robotların 00:08:17.076 --> 00:08:22.086 birlikte çalışarak birbirlerini güçlendirecek olması 00:08:22.110 --> 00:08:24.168 ve yeni bir alanda yaşamaya başlamaları. NOTE Paragraph 00:08:24.192 --> 00:08:27.004 Bu San Francisco'daki uygulamalı araştırma laboratuvarımız. 00:08:27.004 --> 00:08:29.720 Buradaki çalışmalarımızdan biri ileri robotlar, 00:08:29.744 --> 00:08:32.255 özellikle de insan-robot işbirliği. 00:08:33.034 --> 00:08:35.793 Bu Bishop, robotlarımızdan biri. 00:08:35.817 --> 00:08:37.606 Deney amaçlı, sürekli aynı 00:08:37.630 --> 00:08:41.090 hareketleri yapan bir inşaat işçisine yardım etmesi için ayarladık, 00:08:41.984 --> 00:08:46.178 kuru duvarda priz veya lambalar için delik açma gibi görevler. NOTE Paragraph 00:08:46.202 --> 00:08:48.668 (Kahkahalar) NOTE Paragraph 00:08:49.877 --> 00:08:52.988 Bishop'ın insan ortağı basit bir dil ve jestlerle 00:08:53.012 --> 00:08:54.317 ne yapacağını söylüyor; 00:08:54.341 --> 00:08:55.788 bir köpekle konuşmak gibi, 00:08:55.812 --> 00:08:57.955 sonra Bishop mükemmel bir dikkatle 00:08:57.979 --> 00:08:59.871 bu talimatları uyguluyor. 00:08:59.895 --> 00:09:02.884 İnsanı iyi olduğu şey için kullanıyoruz: 00:09:02.908 --> 00:09:05.241 Farkındalık, algı ve karar verme. 00:09:05.265 --> 00:09:07.505 Robotu da iyi olduğu alanda: 00:09:07.529 --> 00:09:09.277 Dikkat ve tekrar etme. NOTE Paragraph 00:09:10.252 --> 00:09:12.619 Bishop'ın iyi olduğu güzel bir proje daha var. 00:09:12.643 --> 00:09:15.718 HIVE diye adlandırdığımız bu projenin amacı, 00:09:15.742 --> 00:09:19.593 aşırı karmaşık bir tasarım sorununu çözmek için insan, 00:09:19.617 --> 00:09:22.837 bilgisayar ve robotların ortak çalışma tecrübesini örnek almak. 00:09:23.793 --> 00:09:25.244 İnsanlar iş gücü oldular. 00:09:25.268 --> 00:09:28.741 İnşaat alanında gezdiler, bambuyu sürekli değiştirdiler, 00:09:28.765 --> 00:09:31.521 ki bambu eşbiçimli bir materyal olmadığı için 00:09:31.545 --> 00:09:33.419 robotların çalışması çok zordur. 00:09:33.443 --> 00:09:35.685 Sonra robotlar bu fiber bağlamayı gerçekleştirdi, 00:09:35.685 --> 00:09:37.940 insanın bunu yapması neredeyse imkânsızdı. 00:09:37.964 --> 00:09:41.585 Bir de her şeyi kontrol eden bir Yapay Zekâmız vardı. 00:09:41.609 --> 00:09:44.899 İnsanlara ve robotlara yapması gerekenleri söyleyip 00:09:44.923 --> 00:09:47.838 binlerce bireysel bileşenin kaydını tutuyordu. 00:09:47.862 --> 00:09:49.042 İlginç olan şeyse, 00:09:49.066 --> 00:09:52.207 insan, robot ve yapay zekânın birbirini güçlendirmeden 00:09:52.231 --> 00:09:56.755 bu terası inşa etmesinin kesinlikle mümkün olmamasıydı. NOTE Paragraph 00:09:57.890 --> 00:10:01.210 Bir proje daha göstereceğim. Bu biraz çılgınca. 00:10:01.234 --> 00:10:05.702 Amsterdamlı ressam Joris Laarman ve MX3D'deki takımı ile çalışıyoruz, 00:10:05.726 --> 00:10:08.604 amacımız üretken tasarım ve robotik yazdırma ile 00:10:08.628 --> 00:10:11.623 dünyanın ilk özerk inşa edilmiş köprüsünü yapmak. 00:10:12.315 --> 00:10:16.000 Şu anda Joris ve Yapay Zekâ Amsterdam'da bunun 00:10:16.024 --> 00:10:17.196 üzerine çalışıyorlar. 00:10:17.220 --> 00:10:19.541 İşleri bitince sadece bir tuşa basacağız 00:10:19.565 --> 00:10:22.876 ve robotlar paslanmaz çelik üzerine 3B çıkışlar alacak, 00:10:22.900 --> 00:10:26.183 sonra insan olmadan buna devam edecekler, 00:10:26.207 --> 00:10:27.765 ta ki köprü tamamlanana kadar. NOTE Paragraph 00:10:29.099 --> 00:10:32.027 Bilgisayarlar yeni şeyler hayal etme ve tasarlama 00:10:32.051 --> 00:10:34.201 yetilerimizi güçlendirirken 00:10:34.225 --> 00:10:37.120 robotik sistemler daha önce hiç yapamadğımız 00:10:37.144 --> 00:10:39.228 şeyler yapmamıza yardım edecekler. 00:10:40.347 --> 00:10:44.507 Peki ya bunları hissetme ve kontrol etme yetimiz? 00:10:44.531 --> 00:10:48.562 Yaptığımız şeyler için bir sinir sistemi olmayacak mı? NOTE Paragraph 00:10:48.586 --> 00:10:51.098 İnsanın sinir sistemi 00:10:51.122 --> 00:10:53.433 çevremizde olan her şeyi bize bildirir. 00:10:54.186 --> 00:10:57.870 Ama kendi yaptığımız şeylerin sinir sistemi gelişmemiş. 00:10:57.894 --> 00:11:01.457 Örneğin, bir araba gidip belediyeye Broadway ve Morrison'ın köşe başında 00:11:01.481 --> 00:11:04.611 bir çukur olduğunu ve üstünden geçtiğini söylemez. 00:11:04.635 --> 00:11:06.727 Bir bina, tasarımcılarına içindeki insanların 00:11:06.727 --> 00:11:09.375 orada olmaktan memnun olup olmadıklarını söylemez, 00:11:09.399 --> 00:11:12.409 oyuncak üreticisi o oyuncakla 00:11:12.433 --> 00:11:14.440 gerçekten oynandığını bilemez, 00:11:14.464 --> 00:11:17.003 şu an nerede veya oynaması zevkli mi bilemez. 00:11:17.620 --> 00:11:21.434 Ama şuna eminim ki tasarımcılar Barbie'yi yaptıklarında, 00:11:21.458 --> 00:11:23.152 ona bu hayat tarzını yakıştırdılar. NOTE Paragraph 00:11:23.152 --> 00:11:24.153 (Kahkahalar) NOTE Paragraph 00:11:24.177 --> 00:11:27.083 Barbie kendini yalnız hissederse ne olur peki? NOTE Paragraph 00:11:27.107 --> 00:11:30.254 (Kahkahalar) NOTE Paragraph 00:11:31.266 --> 00:11:32.554 Tasarımcılar gerçek dünyada 00:11:32.578 --> 00:11:34.685 neler olduğunu bilseler 00:11:34.709 --> 00:11:37.292 yol, bina veya Barbie fark etmez, 00:11:37.316 --> 00:11:40.010 bu bilgiyi kullanıcı için 00:11:40.034 --> 00:11:41.434 daha iyi hâle getirebilirler. 00:11:41.458 --> 00:11:43.249 Burada eksik olan şey tasarladığımız, 00:11:43.273 --> 00:11:46.982 yapıp kullandığımız şeylere ilişkin bir sinir sistemi. 00:11:47.915 --> 00:11:51.470 Gerçek hayatta yarattığınız şeylerden bu tür bir 00:11:51.494 --> 00:11:53.677 geri bildirim alsanız nasıl olurdu? 00:11:55.432 --> 00:11:56.923 Yaptığımız onca şeyi düşününce- 00:11:56.923 --> 00:11:59.342 inanılmaz para ve enerji harcıyoruz- 00:11:59.366 --> 00:12:01.742 geçen yıl insanları yaptığımız şeyleri almaya 00:12:01.766 --> 00:12:04.620 ikna etmek için 2 trilyon dolar harcanmış. 00:12:04.644 --> 00:12:08.032 Satılmış veya kullanıma sunulmuş, tasarladığınız ve yarattığınız 00:12:08.056 --> 00:12:09.783 tüm bu şeylere ilişkin 00:12:09.807 --> 00:12:13.421 böyle bir bağlantıya sahip olsaydınız 00:12:13.445 --> 00:12:15.065 bunu değiştirebilirdiniz; 00:12:15.089 --> 00:12:18.136 insanlara icatlarımızı aldırmak yerine 00:12:18.160 --> 00:12:21.594 sadece istedikleri şeyleri yapabiliriz. NOTE Paragraph 00:12:21.618 --> 00:12:24.405 İyi haber şu ki, bizi tasarımlarımıza bağlayacak 00:12:24.429 --> 00:12:27.230 dijital sinir sistemi üzerinde çalışıyoruz. 00:12:28.365 --> 00:12:29.992 Bir proje üzerinde çalışıyoruz, 00:12:30.016 --> 00:12:33.728 Los Angeles'ta Bandito Kardeşler 00:12:33.752 --> 00:12:35.159 ve takımı ile birlikte. 00:12:35.183 --> 00:12:38.616 Bu ekibin yaptığı şeylerden biri sıradışı şeyler yapan 00:12:38.640 --> 00:12:41.513 sıradışı arabalar üretmek. 00:12:42.905 --> 00:12:44.355 Bunlar çıldırmış. NOTE Paragraph 00:12:44.379 --> 00:12:45.415 (Kahkahalar) NOTE Paragraph 00:12:45.439 --> 00:12:46.842 Ama iyi anlamda. 00:12:48.993 --> 00:12:50.756 Bizim birlikte yaptığımız şey ise 00:12:50.780 --> 00:12:53.220 geleneksel yarış arabası şasesini alıp 00:12:53.244 --> 00:12:54.829 ona bir sinir sistemi yüklemek. NOTE Paragraph 00:12:54.853 --> 00:12:57.911 Yani onlarca sensör taktık ve 00:12:57.935 --> 00:13:00.570 direksiyona birinci sınıf bir sürücü koyduk, 00:13:00.594 --> 00:13:03.951 arabayı çöle götürdük ve bir hafta boyunca kullandık. 00:13:03.975 --> 00:13:06.466 Arabanın sinir sistemi arabanın başına gelen 00:13:06.490 --> 00:13:07.972 her şeyi yakaladı. 00:13:07.996 --> 00:13:10.617 4 milyar veri noktası elde ettik; 00:13:10.641 --> 00:13:12.951 sorumlu olduğu tüm güçlerden. 00:13:12.975 --> 00:13:14.634 Sonra çılgınca bir şey yaptık. 00:13:15.268 --> 00:13:16.768 Tüm veriyi aldık 00:13:16.792 --> 00:13:20.528 ''Dreamcatcher'' dediğimiz üretken tasarımlı bir yapay zekâya taktık. 00:13:21.270 --> 00:13:25.234 Bir tasarıma dijital bir sinir sistemi yükleyip 00:13:25.258 --> 00:13:28.140 size son model bir şase yapmasını isterseniz ne olur? 00:13:28.723 --> 00:13:30.696 İşte bu. 00:13:32.293 --> 00:13:36.006 Bu bir insanın asla tasarlayamayacağı bir şey. 00:13:36.707 --> 00:13:38.595 Ancak bunu bir insan tasarladı, 00:13:38.619 --> 00:13:42.928 ama üretken tasarımlı yapay zekâ, 00:13:42.952 --> 00:13:44.183 dijital bir sinir sistemi 00:13:44.207 --> 00:13:47.212 ve imal yetisi olan robotlar ile güçlendirilmiş bir insan. NOTE Paragraph 00:13:47.680 --> 00:13:51.275 Eğer gelecek, Artırılmış Çağ bu ise 00:13:51.299 --> 00:13:55.560 bilişsel, fiziksel ve algısal olarak güçlendirileceksek, 00:13:55.584 --> 00:13:56.992 bu neye benzeyecek? 00:13:57.576 --> 00:14:00.897 Bu harikalar diyarı nasıl görünecek? NOTE Paragraph 00:14:00.921 --> 00:14:02.630 Sanırım imal etmekten ziyade 00:14:02.654 --> 00:14:05.722 yetiştirme yapılan bir dünyaya doğru 00:14:05.746 --> 00:14:07.191 yol alıyoruz. 00:14:08.159 --> 00:14:11.612 Nesnelerin inşa edilmek yerine 00:14:11.636 --> 00:14:13.340 yetiştirildiği bir dünya. 00:14:14.134 --> 00:14:16.322 İzole olmaktan çıkıp 00:14:16.346 --> 00:14:17.956 iletişim hâlinde olacağız. 00:14:18.634 --> 00:14:21.045 Ayrılmayı bir yana bırakıp 00:14:21.069 --> 00:14:22.942 birleşmeye kucak açacağız. 00:14:23.967 --> 00:14:27.734 Yine sanıyorum ki itaat etmek yerine 00:14:27.758 --> 00:14:29.399 özerkliğin değerini anlayacağız. NOTE Paragraph 00:14:30.510 --> 00:14:32.415 Artırılmış yetilerimiz sayesinde, 00:14:32.439 --> 00:14:34.816 dünya ciddi bir değişim geçirecek. 00:14:35.576 --> 00:14:38.822 Bu dünyada daha fazla çeşitlilik, iletişim, 00:14:38.846 --> 00:14:41.133 dinamizm ve karmaşıklık, 00:14:41.157 --> 00:14:43.475 daha çok uyum sağlama ve 00:14:43.499 --> 00:14:44.716 daha çok güzellik olacak. 00:14:45.231 --> 00:14:46.795 Gelecek şeylerin biçimi 00:14:46.819 --> 00:14:49.109 daha önce hiç görmediğimiz türden olacak. 00:14:49.133 --> 00:14:50.292 Neden mi? 00:14:50.316 --> 00:14:54.071 Çünkü onlara bu biçimi verecek şey 00:14:54.095 --> 00:14:57.765 teknoloji, doğa ve insan ortaklığı olacak. 00:14:59.279 --> 00:15:03.083 Bu bana göre dört gözle beklenecek bir gelecek. NOTE Paragraph 00:15:03.107 --> 00:15:04.378 Çok teşekkür ederim. NOTE Paragraph 00:15:04.402 --> 00:15:10.071 (Alkışlar)