0:00:07.052,0:00:11.642 Her geçen yıl makineler insanları,[br]daha önce sadece bizim yapabildiğimizi 0:00:11.642,0:00:14.848 sandığımız pek çok faaliyette[br]gölgede bırakıyor. 0:00:14.848,0:00:18.423 Bugünün bilgisayarları karmaşık[br]masaüstü oyunlarında yenebiliyor, 0:00:18.423,0:00:21.294 sayısız dilde konuşma[br]metnini çevirebiliyor 0:00:21.294,0:00:24.746 ve hemen hemen her nesneyi[br]anında tanımlayabiliyorlar. 0:00:24.746,0:00:27.112 Ancak yarının robotları, 0:00:27.112,0:00:30.243 nasıl hissettiğimizi çözerek[br]daha ileri gidebilirler. 0:00:30.243,0:00:32.381 Ve bu neden önemli? 0:00:32.381,0:00:34.713 Çünkü eğer makineler[br]ve onları çalıştıran insanlar 0:00:34.713,0:00:37.223 duygusal durumlarımızı[br]doğru olarak okuyabilirlerse, 0:00:37.223,0:00:40.193 benzeri görülmemiş şekillerde[br]bize yardımcı olabilir veya 0:00:40.193,0:00:43.102 bizi yönetebilirler. 0:00:43.102,0:00:44.614 Ancak oraya gelmeden önce, 0:00:44.614,0:00:49.653 duygu gibi çok karmaşık bir şey,[br]nasıl sadece dil makinelerinin anlayacağı 0:00:49.653,0:00:53.253 önemsiz sayılara dönüştürülebiliyor? 0:00:53.253,0:00:56.843 Esasen beyinlerimizin duyguları nasıl[br]ayırt edeceklerini öğrenerek 0:00:56.843,0:00:58.994 yorumladıkları şekilde. 0:00:58.994,0:01:04.120 Amerikalı psikolog Paul Ekman,[br]kültürler boyunca görsel ipuçlarının 0:01:04.120,0:01:09.174 aynı şekilde anlaşıldığı belirli[br]evrensel duyguları tanımladı. 0:01:09.174,0:01:14.193 Örneğin, bir gülümseme görüntüsü,[br]modern şehir insanına ve yerli kabilelere 0:01:14.193,0:01:16.965 aynı hazzı gönderiyor. 0:01:16.965,0:01:18.094 Ekman'a göre, 0:01:18.094,0:01:18.823 öfke, 0:01:18.823,0:01:19.533 tiksinti, 0:01:19.533,0:01:20.275 korku, 0:01:20.275,0:01:21.092 haz, 0:01:21.092,0:01:21.848 üzüntü 0:01:21.848,0:01:25.433 ve şaşkınlık eşit derecede tanınabilir. 0:01:25.433,0:01:29.836 Görünen o ki, bilgisayarlar[br]görüntü tanımada sinir ağları gibi 0:01:29.836,0:01:34.015 algoritma öğrenen makineler sayesinde,[br]hızla daha iyiye gidiyorlar. 0:01:34.015,0:01:38.205 Bunlar, bağlantılarımızı şekillendirerek[br]ve bilgi değişimi yaparak 0:01:38.205,0:01:41.784 biyolojik nöronlarımızı taklit eden[br]suni ağlar içeriyor. 0:01:41.784,0:01:46.125 Ağı eğitmek için, farklı kategorilere[br]ön sınıflandırması yapılmış, 0:01:46.125,0:01:49.175 mutlu ya da üzüntülü olarak işaretlenmiş[br]fotoğraf gibi girdiler, 0:01:49.175,0:01:51.285 sistem içine beslenirler. 0:01:51.285,0:01:53.745 Ağ daha sonra belirli[br]özelliklere görevlendirilmiş 0:01:53.745,0:01:58.405 ilgili ağırlıkları ayarlayarak[br]bu örnekleri sınıflandırmayı öğrenir. 0:01:58.405,0:02:00.225 Ne kadar çok eğitme verisi girilirse, 0:02:00.225,0:02:04.795 algoritma yeni görüntüleri doğru[br]olarak tanımakta o kadar iyi olur. 0:02:04.795,0:02:07.137 Bu, yeni uyarıcının nasıl işlem göreceğini 0:02:07.137,0:02:11.725 şekillendirmek için önceki deneyimlerden[br]öğrenen kendi beyinlerimize benzer. 0:02:11.725,0:02:15.466 Algoritmaları tanımak sadece[br]yüz ifadeleri ile sınırlı değildir. 0:02:15.466,0:02:17.886 Duygularımız pek çok yönden açığa çıkıyor. 0:02:17.886,0:02:20.116 Beden dili ve ses tonu, 0:02:20.116,0:02:23.237 kalp atışında değişiklik,[br]yüz rengi ve vücut ısısı 0:02:23.237,0:02:28.046 ya da yazdığımız yazıdaki kelimelerin[br]sıklığı ve cümle yapısı ile. 0:02:28.046,0:02:31.205 Sinir ağlarını bunları tanımak için[br]eğitmenin uzun ve karmaşık 0:02:31.205,0:02:33.637 bir görev olduğunu düşünebilirsiniz 0:02:33.637,0:02:36.876 ancak orada ne kadar verinin olduğunu ve 0:02:36.876,0:02:40.375 modern bilgisayarların ne kadar çabuk[br]işleyebildiğini fark edinceye kadar. 0:02:40.375,0:02:41.807 Sosyal medya yorumlarından, 0:02:41.807,0:02:43.576 yüklenen fotoğraflar ve videolardan 0:02:43.576,0:02:45.067 ve telefon kayıtlarından, 0:02:45.067,0:02:46.767 ısıya duyarlı güvenlik kameraları 0:02:46.767,0:02:50.437 ve fizyolojik işaretleri gözleyen[br]giysi bilgisayarlara kadar, 0:02:50.437,0:02:52.947 asıl soru yeterince verinin[br]nasıl toplanacağı değil, 0:02:52.947,0:02:55.255 onunla ne yapacağımızdır. 0:02:55.255,0:02:59.706 Bilgisayarlı duygu tanımanın[br]çok fazla yararlı kullanımları var. 0:02:59.706,0:03:02.537 Algoritmaları kullanarak[br]yüz ifadelerini tanımlayan robotlar 0:03:02.537,0:03:04.416 çocukların öğrenmelerine yardım edebilir 0:03:04.416,0:03:07.636 veya yalnız insanlara bir çeşit[br]arkadaşlık sağlayabilirler. 0:03:07.636,0:03:11.667 Sosyal medya şirketleri, belirli kelime ve[br]tabirleri içeren mesajları işaretleyerek 0:03:11.667,0:03:17.047 intiharları önlemeye yardım etmek için[br]algoritmaları kullanmayı düşünüyorlar. 0:03:17.047,0:03:21.287 Ve duygu tanıma yazılımları ruhsal[br]bozuklukları tedavi etmeye yardım edebilir 0:03:21.287,0:03:25.578 veya insanlara düşük ücretle[br]otomatik psikoterapi sağlayabilirler. 0:03:25.578,0:03:27.188 Potansiyel faydalarına rağmen, 0:03:27.188,0:03:30.869 fotoğraflarımızı otomatik olarak[br]tarayan büyük bir ağın olasılığı, 0:03:30.869,0:03:31.958 görüşmeler 0:03:31.958,0:03:36.877 ve fizyolojik işaretler de[br]oldukça rahatsız edici. 0:03:36.877,0:03:40.796 Bu tür şahsi olmayan sistemler[br]reklamcılık yoluyla duygularımızı sömüren 0:03:40.796,0:03:45.208 şirketler tarafından kullanıldığında,[br]mahremiyetimiz için sonuçlar ne olur? 0:03:45.208,0:03:46.718 Ve eğer yetkililer, 0:03:46.718,0:03:50.737 suç işleme potansiyeli olan insanları,[br]hareket etmeye karar vermeden önce 0:03:50.737,0:03:54.927 belirleyebileceklerini düşünüyorlarsa,[br]bizim haklarımıza ne olacak? 0:03:54.927,0:03:57.150 Robotların hâlihazırda, ironi yapmak gibi 0:03:57.150,0:04:00.258 duygusal nüansları ve birinin[br]ne kadar mutlu ya da üzgün olduğunu 0:04:00.258,0:04:04.758 gösteren duyguların derecesini[br]ayırt etmekte gidecek çok yolları var. 0:04:04.758,0:04:09.288 Yine de, zamanla duygularımızı[br]doğru olarak okuyabilirler 0:04:09.288,0:04:11.138 ve onlara cevap verebilirler. 0:04:11.138,0:04:15.389 Ancak, istenmeyen ihlal korkumuzla[br]empati yapıp yapamayacaklarıysa, 0:04:15.389,0:04:16.887 başka bir konu.