Yapay zekânın, her tür endüstriyi bozduğu bilinmektedir. Peki ya dondurma? Gelişmiş bir yapay zekânın gücüyle akıllara durgunluk verecek ne tür tatlar oluşturabiliriz? Bu sorunun cevabını bulmak için Kealing orta okulundan bir grup kodlayıcı ile birlikte çalıştım. Mevcut olan yaklaşık 1600 dondurma tadını topladılar ve birlikte, ne oluşturacağını görmek için onları bir algoritmaya çevirdik. İşte yapay zekânın ürettiği tatlardan birkaçı. [Kabak Çöpü Parçası] (Gülüşmeler) [Fıstık Ezmesi Balçığı] [Çilek Kreması Hastalığı] (Gülüşmeler) Bu tatlar umduğumuz gibi lezzetli değiller. Soru şu: Ne oldu? Yanlış giden neydi? Yapay zekâ bizi öldürmeye mi çalışıyor? Yoksa istediğimiz şeyi yapmaya mı çalışıyor ve bir problem mi oluyor? Filmlerde yapay zekâyla ilgili bir hata olduğunda bu genelde yapay zekânın, artık insanlara itaat etmemeye karar vermesi nedeniyle olur ve artık kendi kuralları vardır, çok teşekkürler. Ancak, gerçek hayatta sahip olduğumuz yapay zekâ bunu yapabilecek kadar zeki değil. Yaklaşık bir solucanın veya belki de olsa olsa tek bir bal arısının programlama gücüne sahiptir ve aslında, belki de daha azına sahiptir. Beyinlerle ilgili sürekli yeni şeyler öğreniyoruz ve bu da yapay zekânın neden gerçek beyinlerle aynı düzeyde olmayacağını açıklıyor. Günümüzdeki yapay zekâ, bir resimde yayayı saptamak gibi bir görevi yapabilir, fakat bir yayanın ne olduğunu kavrayamaz, yaya onun için bir çizgiler, dokular ve bazı şeylerin toplamıdır. Bir insanın aslında ne olduğunu bilmez. Peki günümüzün yapay zekâsı biz ne istersek onu mu yapacak? Eğer yapabilirse evet, fakat gerçekten istediğimizi yapamayabilir. Diyelim ki bir yapay zekânın bu robot parçalarını alıp A noktasından B noktasına gidecek bir robota dönüştürmesini istiyorsunuz. Bu problemi geleneksel türden bir bilgisayar programı yazarak çözmeyi deneyecek olsaydınız, programa bu parçaları nasıl alacağına, bunları bacaklı bir robota nasıl dönüştüreceğine ve o bacakları B noktasına gitmesi için nasıl kullanacağına dair adım adım talimatlar verirdiniz. Fakat problemi çözmek için yapay zekâ kullandığınızda işler farklı ilerliyor. Ona problemi nasıl çözeceğini söylemiyorsunuz, ona sadece amacı veriyorsunuz ve onun, amaca ulaşmak için deneme yanılma aracılığıyla kendisi çözmesi gerekiyor. Yapay zekânın bu problemi çözmek için gittiği yol şu şekilde görünüyor: kendisini bir kuleye monte ediyor, sonra düşüyor ve B noktasına iniş yapıyor. Bu, teknik olarak problemi çözüyor. Teknik olarak B noktasına gidiyor. Yapay zekânın tehlikesi aslında bizlere karşı ayaklanacağı değil, tam olarak yapmalarını istediğimiz şeyleri yapacak olmalarıdır. O zaman da yapay zekâyla çalışma hilesi şu hale geliyor: Problemi nasıl düzenleyelim ki gerçekten istediğimizi yapsın? Bu küçük robot bir yapay zekâ tarafından kontrol ediliyor. Yapay zekâ robot bacakları için bir tasarım buldu ve sonra onları, bu engelleri aşmak için nasıl kullanacağını çözdü. Fakat David Ha bu deneyi oluşturduğunda yapay zekânın bacakları ne kadar büyük yapabileceğine dair çok, çok katı kısıtlamalarla oluşturmalıydı, çünkü, aksi takdirde... (Gülüşmeler) Teknik olarak bu engel rotasının sonuna varabildi. Bir yapay zekânın, yürümek gibi basit bir eylemi yapmasını sağlamak çok zor. Yapay zekânın bunu yaptığını görünce, bu haksızlık diyebilirsiniz, yüksek bir kule olup düşemezsiniz, yürümek için bacak kullanmanız gerek diyebilirsiniz. Görünen o ki, bu da her zaman işe yaramıyor. Yapay zekânın işi hızlı hareket etmek. Ona ileri doğru koşması gerektiğini veya kollarını kullanamayacağını söylemediler. Yapay zekâya hızlı hareket etmeyi öğrettiğiniz zaman olan şey budur, takla atmak veya şaşkınca yürüyüşler gibi şeylerle karşılaşırsınız. Bu gerçekten yaygın. Yerde sürünmek de yaygın. (Gülüşmeler) Bana göre, bundan çok daha garip olan şey, "Terminatör" robotları. Ona bir şans verirseniz, yapay zekanın yapacağı diğer şey "Matrix"e girmektir. Bir simülasyonda yapay zekâyı eğitirseniz, simülasyonun matematik hatalarına girmek ve onları enerji için saklamak gibi şeyleri yapmayı öğrenir. Sürekli yerde sürünerek hızlı hareket etmeyi de çözebilir. Bir yapay zekâyla çalışırken bu diğer bir insanla çalışmaktan ziyade, daha çok doğanın garip bir gücüyle çalışmaya benziyor. Yapay zekâya çözmesi için kazara yanlış problemi vermek de çok kolay ve bir şeyler yanlış gidene dek bunu genelde fark etmeyiz. Yaptığım bir deneyde yapay zekâdan boya renklerini kopyalamasını ve yeni boya renkleri yaratmasını istedim, bu soldaki listedekiler gibi bir liste verdim. Yapay zekânın önerdikleri ise şunlar. [Sindi Kakası, Gübremsi, Acı, Gri Kasık] (Gülüşmeler) Teknik olarak istediğimi yaptı. Ben güzel boya renkleri isimleri istediğimi düşünmüştüm, fakat aslında yapmasını istediğim şey orijinalinde gördüğü harf kombinasyonları türlerini taklit etmesiydi. Kelimelerin ne anlama geldiğine dair veya isimleri bulurken kullanmaması gereken bazı kelimeler olabileceğine dair hiçbir şey söylemedim. Yani onun tüm dünyası, benim ona sağladığım veri. Dondurma tatları gibi, başka hiçbir şey bilmiyor. Yani genelde veri aracılığıyla yapay zekâya kazara yanlış şeyi yapmasını söylüyoruz. Bu, karabalık adlı bir balık. Bir grup araştırmacı da yapay zekâyı resimlerde karabalığı saptaması için eğitmişti. fakat ona, balığı saptamak için resmin hangi kısmını kullandığını sorduklarında, işte bunu vurguladı. Evet, bunlar insan elinin parmakları. Bir balığı saptamayı deniyorsa, neden insan elinin parmaklarını arıyor? Görünen o ki bu karabalık bir ödül balığı ve eğitimi sırasında yapay zekânın gördüğü birçok resimde, balık böyle görünüyordu. (Gülüşmeler) Parmakların, balığın bir parçası olmadığını bilmiyordu. Baktığı şeyi gerçekten anlayabilecek bir yapay zekâ tasarlamanın neden çok zor olduğunu görüyorsunuz. Ayrıca sürücüsüz arabalarda görüntü tanımayı tasarlamanın zor olmasının nedeni de bu ve sürücüsüz arabalardaki birçok başarısızlık da yapay zekânın şaşırması nedenlidir. 2016'dan bir örnek vermek istiyorum. Birisi Tesla'nın oto-pilot yapay zekasını kullanırken ölümcül bir kaza oldu, fakat tasarlandığı üzere otoyolda kullanmak yerine, şehrin sokaklarında kullandılar. Olan şey de şuydu; bir kamyon, arabanın önüne sürdü ve araba fren yapamadı. Yapay zekâ kesinlikle resimlerde kamyonları saptamak üzere eğitilmişti. Fakat olan şey şu gibi görünüyor, yapay zekâ otoyolda giden kamyonları saptamayı öğrenmişti, yani kamyonları arkadan göreceğimiz bir şekilde öğrenmişti. Yanı görünen kamyonların otoyolda olmaları beklenmez ve yapay zekâ bu kamyonu gördüğünde, büyük olasılıkla bir yol işareti olarak algıladı ve altından geçmenin güvenli olduğunu düşündü. Yapay zekânın başka alanda attığı yanlış bir adım daha. Amazon, algoritmanın kadınlara karşı ayrımcılık yapmayı öğrendiğini keşfettiği zaman, bir özgeçmiş-sıralama algoritmasından vazgeçmek zorunda kaldı. Olan şey şuydu, yapay zekâyı geçmişte işe aldıkları insanlara ait örnek özgeçmişlerle eğittiler. Yapay zekâ da bu örneklerden, kadın okullarına gitmiş olan veya özgeçmişinin herhangi bir yerinde "kadın" kelimesi geçen, -- "kadın futbol takımı" veya "Kadın Mühendisler Derneği" gibi -- özgeçmişlerden kaçınmayı öğrendi. Yapay zekâ, insanların yaptığını gördüğü bu şeyi kopyalaması gerekmediğini bilmiyordu. Teknik olarak da yapmasını istedikleri şeyi yaptı. Sadece, yanlış şeyi yapmasını istediler. Yapay zekâyla bu her zaman olur. Yapay zeka çok zararlı olabilir ve bunu bilmeyebilir. Facebook, YouTube'da yeni içerik öneren yapay zekâlar, tıklama ve görüntüleme sayısını yükseltmek üzere optimize edilmiştir. Ne yazık ki bunu yapmak için buldukları bir yol da, komplo teorisi veya fanatiklik içerikleri önermek. Yapay zekâların, bu içeriklere dair herhangi bir fikirleri yok ve bu içeriği önerdikleri zaman sonucun ne olacağına dair de herhangi bir fikirleri yok. Yani, yapay zekâyla çalışırken problemlerden kaçınmak bize bağlıdır. Yanlış giden şeylerden kaçınmak da öyle, bu çok eski iletişim problemine kadar da inebilir, insanlar yapay zekâyla nasıl iletişim kuracağını öğrenmelidir. Yapay zekânın ne yapabildiğini ve ne yapamadığını öğrenmeliyiz ve yapay zekânın, çok küçük solucan beyniyle, ondan yapmasını istediğimiz şeyi aslında anlamadığını anlamalıyız. Yani, süper-yetkili, her şeyi bilen bilim kurgu yapay zekâlarına benzemeyen yapay zekâ ile çalışmaya hazırlıklı olmalıyız. Şimdiki zamanda sahip olduğumuz tek yapay zekâyla çalışmaya hazırlıklı olmalıyız. Günümüzün yapay zekâsı da yeterince garip. Teşekkürler. (Alkış)