0:00:00.640,0:00:04.791 Sizlere alanımla ilgili [br]yeni bir bakış açısı sunmak istiyorum, 0:00:04.815,0:00:06.583 yani yapay zekâ ile ilgili. 0:00:06.607,0:00:08.621 Bana göre yapay zekânın amacı 0:00:08.645,0:00:12.079 insanı, makine zekâsı ile güçlendirmektir. 0:00:13.286,0:00:15.736 Makine zekâsı geliştikçe 0:00:15.760,0:00:17.013 biz de gelişiyoruz. 0:00:17.907,0:00:20.419 Ben buna "hümanistik yapay zekâ" 0:00:20.443,0:00:24.114 -işbirliği yaparak ve insanı geliştirerek[br]onun ihtiyaçlarını karşılamak üzere 0:00:24.138,0:00:27.069 tasarlanmış yapay zekâ- diyorum. 0:00:28.149,0:00:30.059 Bugün akıllı bir asistan fikrinin 0:00:30.083,0:00:32.260 yaygınlaştığını görmek 0:00:32.284,0:00:33.753 beni mutlu ediyor. 0:00:33.777,0:00:38.837 İnsanlar ve yapay zekâ arasındaki[br]arayüz için kabul gören bir benzetme bu. 0:00:39.556,0:00:42.253 Siri, yapımına katkıda bulunduğum arayüz. 0:00:42.957,0:00:44.109 Siri'yi bilirsiniz. 0:00:44.133,0:00:46.778 Siri, niyetinizi bilen ve 0:00:46.802,0:00:48.844 bunu yapmanız için size yardımcı olan, 0:00:48.868,0:00:50.369 yaptırmanıza yardım eden şey. 0:00:50.393,0:00:52.867 Peki Siri'yi hümanistik yapay zekâ olarak, 0:00:53.645,0:00:55.611 konuşan bir arayüzle 0:00:55.635,0:00:58.806 insanları güçlendirme amacıyla, 0:00:58.830,0:01:02.283 kişiliğine ve yeteneğine bakmaksızın[br]mobil bilgi işlem yapmalarını 0:01:02.307,0:01:05.591 sağlamak üzere tasarladığımızı[br]bilmiyor olsaydınız? 0:01:06.814,0:01:08.391 Çoğumuz için 0:01:08.415,0:01:11.196 bu teknolojinin etkisi 0:01:11.220,0:01:13.503 işleri biraz daha kolaylaştırmaktır. 0:01:13.916,0:01:16.095 Fakat arkadaşım Daniel için, 0:01:17.352,0:01:20.523 yapay zekânın bu sistemlerde[br]hayat değiştirici bir etkisi var. 0:01:21.217,0:01:26.050 Anlayacağınız üzere,[br]Daniel oldukça sosyal, 0:01:26.074,0:01:28.123 görme engelli, [br]el ve ayakları felçli biri, 0:01:28.614,0:01:32.473 yani bizim hafife aldığımız bu cihazları[br]kullanmak onun için zor. 0:01:32.497,0:01:34.493 Onu son ziyaretimde kardeşi, 0:01:34.513,0:01:35.935 "Bir dakika, Daniel meşgul. 0:01:35.955,0:01:39.187 İnternette tanıştığı [br]bir kızla konuşuyor." dedi. 0:01:39.590,0:01:42.360 "Vay canına! Bu nasıl olur?"[br]der gibi oldum. 0:01:42.360,0:01:45.778 Daniel, bakıcılarına bağlı olmadan [br]kendi sosyal yaşamını 0:01:46.731,0:01:48.671 - e-posta, mesaj ve telefonunu - 0:01:48.695,0:01:51.171 kontrol etmek için Siri kullanıyordu. 0:01:52.501,0:01:53.953 İlginç değil mi? 0:01:53.973,0:01:55.580 Süper bir ironi var burada. 0:01:55.604,0:01:58.500 Yapay zekâ ile olan ilişkisi, 0:01:58.524,0:02:01.701 onun gerçek insanlarla[br]iletişim kurmasını sağlıyor. 0:02:02.805,0:02:05.935 İşte bu hümanistik yapay zekâdır. 0:02:07.404,0:02:09.802 Hayat değiştirici etkiye sahip [br]başka bir örnek ise 0:02:09.826,0:02:11.083 kanseri teşhis etmesidir. 0:02:12.795,0:02:14.950 Doktorlar kanserden şüphelendiklerinde 0:02:14.974,0:02:17.677 bunu mikroskopla incelemesi için[br]patoloğa göndermek üzere 0:02:17.701,0:02:19.653 numune alırlar. 0:02:20.145,0:02:22.670 Patologlar her gün yüzlerce parçayı, 0:02:22.694,0:02:25.018 milyonlarca hücreyi incelerler. 0:02:25.630,0:02:27.017 Bunu desteklemek amacıyla 0:02:27.041,0:02:30.483 bazı araştırmacılar, [br]bir yapay zekâ sınıflandırıcı yaptılar. 0:02:31.548,0:02:36.101 Artık bu sınıflandırıcı resimlere bakarak[br]"bunun kanser olup olmadığını" 0:02:36.125,0:02:37.430 söyler. 0:02:38.355,0:02:39.919 Sınıflandırıcı gayet iyiydi, 0:02:40.967,0:02:42.852 ancak bunu çoğu zaman [br]doğru teşhis eden 0:02:43.945,0:02:45.713 insan kadar değildi. 0:02:46.427,0:02:52.607 Fakat makine ve insanın yeteneğini[br]birleştirdiklerinde, 0:02:52.631,0:02:55.626 doğruluk oranı yüzde 99.5'e ulaştı. 0:02:57.150,0:03:02.151 Yapay zekâyı bir ortak çalışmaya katmak,[br]insan patoloğun yalnız çalıştığında 0:03:02.175,0:03:05.861 yapacağı hataların %85'ini [br]ortada kaldırmıştı. 0:03:06.820,0:03:09.979 Aksi halde bu tedavi edilmemiş [br]birçok kanser vakası demekti. 0:03:11.097,0:03:13.027 İşin ilginç yanı şu:[br] 0:03:13.051,0:03:16.525 Yalancı pozitifi reddetmekte insan, 0:03:16.549,0:03:20.121 fark edilmesi zor noktaları görmekte[br]makine daha iyiydi. 0:03:20.145,0:03:23.382 Ancak burada önemli olan hangi aracın[br]bu görsel-sınıflandırma işinde 0:03:23.406,0:03:25.484 daha iyi olduğu değil. 0:03:25.888,0:03:27.727 Bu tür şeyler her gün değişir. 0:03:27.751,0:03:29.319 Burada önemli olan, 0:03:29.343,0:03:32.703 insan ve makine yeteneklerini[br]birleştirmenin 0:03:32.727,0:03:37.678 insanüstü bir performansı olan[br]bir ortaklık ortaya çıkardığıdır. 0:03:38.543,0:03:41.483 İşte bu da hümanistik yapay zekâdır. 0:03:42.787,0:03:44.773 Şimdi turbo şarj ile ilgili 0:03:44.797,0:03:47.084 başka bir örneğe bakalım. 0:03:47.108,0:03:48.511 Tasarımla ilgili. 0:03:48.535,0:03:50.576 Diyelim ki mühendissiniz. 0:03:50.600,0:03:53.137 Bir drone için yeni bir şasi [br]tasarlamak istiyorsunuz. 0:03:53.147,0:03:56.285 Sık kullandığınız yazılım araçlarınız ve [br]CAD araçlarınızı aldınız, 0:03:56.305,0:04:00.044 formu ve malzemeleri girdiniz,[br]sonra performans analizi yaptınız. 0:04:00.068,0:04:01.412 Bu size "bir" dizayn verir. 0:04:02.162,0:04:05.839 Aynı araçları bir yapay zekâya verirseniz 0:04:05.863,0:04:08.987 yapay zekâ binlerce dizayn üretebilir. 0:04:10.193,0:04:12.127 Autodesk'te yapılan bu video inanılmaz. 0:04:12.151,0:04:13.451 Ama gerçek. 0:04:14.092,0:04:17.163 Yani bu, tasarım yapışımızı değiştiriyor. 0:04:17.187,0:04:18.615 İnsan mühendis artık 0:04:18.639,0:04:21.954 tasarımın neyi yapması[br]gerektiğini söylerken, 0:04:21.978,0:04:23.134 makine ise 0:04:23.158,0:04:24.668 "Tüm olasılıklar şunlar:" der. 0:04:25.758,0:04:28.698 Artık burada mühendisin işi 0:04:28.722,0:04:31.822 tasarımın amacına en güzel [br]hizmet edeni seçmektir, 0:04:31.846,0:04:35.185 ki bir insan olarak insan muhakeme[br]ve uzmanlığını kullanmasını 0:04:35.209,0:04:37.003 herkesten daha iyi bilir. 0:04:37.414,0:04:38.994 Bu durumda kazanan şekil 0:04:39.018,0:04:41.869 doğanın dizayn etmiş olabileceği[br]türden bir şey gibi görünür, 0:04:41.869,0:04:43.868 tabii birkaç milyon yıllık evrim ve 0:04:43.892,0:04:46.273 tüm kullanılmayan kürkten hariç şekliyle. 0:04:48.424,0:04:53.096 Şimdi, hümanistik yapay zekâ fikrini[br]kurgusal boyutta incelediğimizde 0:04:53.120,0:04:55.513 bizi nereye götüreceğine bakalım. 0:04:56.118,0:04:59.122 Hepimizin sahip olmak istediği[br]gelişim nasıl bir şey? 0:04:59.529,0:05:02.435 Bilişsel gelişime ne dersiniz? 0:05:03.904,0:05:05.523 "Makinelerimizi ne kadar becerikli 0:05:05.523,0:05:07.468 yapabiliriz?" yerine 0:05:07.492,0:05:08.805 "Makinelerimiz bizi 0:05:08.805,0:05:11.714 ne kadar geliştirebilir?"[br]sorusunu soralım. 0:05:13.105,0:05:14.885 Mesela, hafızayı örnek alın. 0:05:15.511,0:05:18.457 Hafıza, insan zekâsının temelidir. 0:05:19.767,0:05:22.738 Ancak insan hafızasının [br]eksik yönleri de vardır. 0:05:23.541,0:05:25.615 Hikâye anlatmada iyiyizdir, 0:05:25.639,0:05:27.590 ancak detayları iyi hatırlamada değiliz. 0:05:27.614,0:05:30.820 Ayrıca hafızamız zamanla zayıflar. 0:05:30.844,0:05:34.266 Hani "Nerede o güzelim 60'lı yıllar, [br]gidebilir miyim o yıllara?" deriz ya. 0:05:34.266,0:05:35.567 (Gülüşmeler) 0:05:36.648,0:05:40.952 Peki ya bilgisayar hafızası kadar iyi[br]ve sizin hayatınızla ilgili 0:05:42.158,0:05:45.017 hafızanız olsaydı nasıl olurdu? 0:05:45.714,0:05:48.503 Tanıştığınız herkesi hatırlasaydınız, 0:05:48.527,0:05:50.473 isimlerini, 0:05:50.497,0:05:52.589 aile bilgilerini, en sevdikleri sporları, 0:05:52.613,0:05:54.966 onlarla yaptığınız son konuşmayı [br]hatırlasaydınız? 0:05:54.966,0:05:57.255 Tüm hayatınızı hafızanıza alsaydınız, 0:05:57.279,0:06:00.577 yapay zekâ bu zaman içerisinde 0:06:00.601,0:06:02.628 insanlarla olan tüm etkileşiminize bakar 0:06:02.628,0:06:05.835 ve ilişkilerinizin grafiğine dair [br]düşünmenizi sağlayabilirdi. 0:06:06.530,0:06:11.596 Peki yapay zekâ okuduğunuz[br]her şeyi okumuş ve 0:06:11.620,0:06:14.134 dinlediğiniz her şarkıyı[br]dinlemiş olsaydı? 0:06:15.344,0:06:19.083 En küçük bir ipucundan,[br]daha önce görmüş ya da 0:06:19.107,0:06:21.580 duymuş olduğunuz şeylere[br]erişiminizi sağlayabilirdi. 0:06:21.931,0:06:25.181 Bunun yeni bağlantılar kurmak ve[br]yeni fikirler oluşturma yetisine 0:06:25.205,0:06:26.785 neler katabileceğini düşünün. 0:06:26.809,0:06:28.797 Peki ya bedenimize ne olurdu? 0:06:29.732,0:06:34.010 Yediğimiz her yemeğin[br]etkilerini hatırlasak nasıl olurdu, 0:06:34.034,0:06:35.535 aldığımız her hapın, 0:06:36.485,0:06:38.320 çalıştığımız her gecenin? 0:06:39.048,0:06:41.758 Bizi iyi hissettiren ya da[br]sağlıklı tutan şeylerle ilgili 0:06:41.782,0:06:45.642 kendi verilerimize göre [br]kendi bilimimizi yapabilirdik. 0:06:45.666,0:06:48.142 Bunun alerji ve kronik hastalıkları 0:06:48.166,0:06:51.216 kontrol etme şeklimizi kökünden [br]nasıl değiştireceğini düşünün. 0:06:52.909,0:06:57.883 Yapay zekânın kişisel hafıza gelişimini[br]gerçeğe dönüştüreceğine inanıyorum. 0:06:59.122,0:07:02.526 Zamanını veya hangi form faktörlerin [br]işin içinde olacağını söyleyemem, 0:07:02.627,0:07:04.590 ama bence bu kaçınılmaz bir şey, 0:07:05.923,0:07:10.750 çünkü bugün yapay zekâyı [br]başarılı kılan şeyler 0:07:10.774,0:07:13.267 -kapsamlı veri kullanılabilirliği 0:07:13.291,0:07:16.839 ve makinelerin bu veriyi anlama yetisi- 0:07:16.863,0:07:19.922 bizim yaşamımıza uyarlanabilirler. 0:07:20.505,0:07:23.992 Tüm bilgiler burada, [br]hepimizin erişimine açık, 0:07:24.016,0:07:27.884 çünkü dijital olarak[br]tasarlanmış hayatlar sürüyoruz, 0:07:28.570,0:07:30.705 mobil yada çevrimiçi. 0:07:31.833,0:07:35.723 Bana göre kişisel hafıza[br]özel bir hafızadır. 0:07:35.747,0:07:39.684 Hatırlanıp saklanacak şeyleri biz seçeriz. 0:07:40.517,0:07:44.181 Bunu güvende tutmak [br]kesinlikle çok önemlidir. 0:07:45.294,0:07:46.756 Pek çoğumuz için 0:07:46.780,0:07:49.673 güçlendirilmiş kişisel hafıza 0:07:49.697,0:07:52.432 daha gelişmiş zihinsel kazanım olacaktır, 0:07:52.456,0:07:54.911 umarım biraz da[br]sosyal beceri getirebilir. 0:07:56.658,0:08:01.305 Fakat alzheimer ve bunama [br]rahatsızlığı olan milyonlarca insan için 0:08:03.209,0:08:05.412 güçlendirilmiş hafızanın farkı, 0:08:05.496,0:08:07.897 yalnız bir yaşam ile 0:08:08.756,0:08:11.405 saygın ve ilişki kuran bir yaşam[br]arasındaki farktır. 0:08:12.166,0:08:17.813 Şu anda yapay zekâ konusunda [br]bir rönesansın ortasındayız. 0:08:18.652,0:08:20.623 Yani birkaç yıl içerisinde 0:08:20.647,0:08:24.278 tam anlamıyla on yıllardır [br]uğraşmakta olduğumuz 0:08:24.302,0:08:28.272 yapay zekâ sorunlarına [br]çözümler getirildiğini göreceğiz: 0:08:29.226,0:08:31.893 Konuşmayı, metni, 0:08:31.917,0:08:33.237 görseli anlama yetisi gibi. 0:08:34.177,0:08:38.252 Bu güçlü teknolojiyi nasıl kullanmamız[br]konusunda seçim yapabiliriz. 0:08:39.268,0:08:44.132 Yapay zekâyı bizi otomatikleştirmesi[br]ve bizimle yarışması için, 0:08:44.156,0:08:48.133 ya da bizi güçlendirip [br]bizimle işbirliği yapması, 0:08:48.157,0:08:51.228 bilişsel sınırlarımızı aşıp 0:08:51.252,0:08:54.414 istediğimiz şeyi daha iyi yapmaya[br]yardım etmesi için 0:08:54.438,0:08:55.729 kullanmayı seçebiliriz. 0:08:56.339,0:09:02.843 Makinelere zekâ kazandırmanın[br]yeni yollarını buldukça 0:09:02.867,0:09:05.936 bu bilgileri tüm dünyadaki 0:09:05.960,0:09:08.341 tüm yapay zekâ asistanlarına 0:09:08.365,0:09:11.899 ve sonuç olarak bunu,[br]koşulsuz olarak herkese dağıtabiliriz. 0:09:13.189,0:09:14.718 Ve işte bu yüzden de, 0:09:14.742,0:09:17.903 makine zekâsı geliştikçe 0:09:18.628,0:09:20.032 bizim de gelişiriz. 0:09:21.028,0:09:24.761 Bu yaymaya değer bir yapay zekâdır. 0:09:24.785,0:09:25.967 Teşekkürler. 0:09:25.991,0:09:29.964 (Alkışlar)