Yapay zekânın,
her tür endüstriyi
bozduğu bilinmektedir.
Peki ya dondurma?
Gelişmiş bir yapay zekânın gücüyle
akıllara durgunluk verecek
ne tür tatlar oluşturabiliriz?
Bu sorunun cevabını bulmak için
Kealing orta okulundan
bir grup kodlayıcı ile birlikte çalıştım.
Mevcut olan yaklaşık 1600
dondurma tadını topladılar
ve birlikte, ne oluşturacağını görmek için
onları bir algoritmaya çevirdik.
İşte yapay zekânın
ürettiği tatlardan birkaçı.
[Kabak Çöpü Parçası]
(Gülüşmeler)
[Fıstık Ezmesi Balçığı]
[Çilek Kreması Hastalığı]
(Gülüşmeler)
Bu tatlar umduğumuz gibi
lezzetli değiller.
Soru şu: Ne oldu?
Yanlış giden neydi?
Yapay zekâ bizi öldürmeye mi çalışıyor?
Yoksa istediğimiz şeyi yapmaya mı
çalışıyor ve bir problem mi oluyor?
Filmlerde yapay zekâyla ilgili
bir hata olduğunda
bu genelde yapay zekânın,
artık insanlara itaat etmemeye
karar vermesi nedeniyle olur
ve artık kendi kuralları vardır,
çok teşekkürler.
Ancak, gerçek hayatta
sahip olduğumuz yapay zekâ
bunu yapabilecek kadar zeki değil.
Yaklaşık bir solucanın
veya belki de
olsa olsa tek bir bal arısının
programlama gücüne sahiptir
ve aslında, belki de daha azına sahiptir.
Beyinlerle ilgili sürekli yeni şeyler
öğreniyoruz ve bu da yapay zekânın
neden gerçek beyinlerle
aynı düzeyde olmayacağını açıklıyor.
Günümüzdeki yapay zekâ,
bir resimde yayayı saptamak gibi
bir görevi yapabilir, fakat bir yayanın
ne olduğunu kavrayamaz,
yaya onun için bir çizgiler, dokular
ve bazı şeylerin toplamıdır.
Bir insanın aslında ne olduğunu bilmez.
Peki günümüzün yapay zekâsı
biz ne istersek onu mu yapacak?
Eğer yapabilirse evet,
fakat gerçekten
istediğimizi yapamayabilir.
Diyelim ki bir yapay zekânın
bu robot parçalarını alıp
A noktasından B noktasına gidecek
bir robota dönüştürmesini istiyorsunuz.
Bu problemi geleneksel türden
bir bilgisayar programı yazarak
çözmeyi deneyecek olsaydınız,
programa bu parçaları nasıl alacağına,
bunları bacaklı bir robota
nasıl dönüştüreceğine
ve o bacakları B noktasına gitmesi
için nasıl kullanacağına dair
adım adım talimatlar verirdiniz.
Fakat problemi çözmek için
yapay zekâ kullandığınızda
işler farklı ilerliyor.
Ona problemi
nasıl çözeceğini söylemiyorsunuz,
ona sadece amacı veriyorsunuz
ve onun, amaca ulaşmak için
deneme yanılma aracılığıyla
kendisi çözmesi gerekiyor.
Yapay zekânın bu problemi
çözmek için gittiği yol
şu şekilde görünüyor:
kendisini bir kuleye
monte ediyor, sonra düşüyor
ve B noktasına iniş yapıyor.
Bu, teknik olarak problemi çözüyor.
Teknik olarak B noktasına gidiyor.
Yapay zekânın tehlikesi aslında
bizlere karşı ayaklanacağı değil,
tam olarak yapmalarını istediğimiz
şeyleri yapacak olmalarıdır.
O zaman da yapay zekâyla
çalışma hilesi şu hale geliyor:
Problemi nasıl düzenleyelim ki
gerçekten istediğimizi yapsın?
Bu küçük robot bir yapay zekâ
tarafından kontrol ediliyor.
Yapay zekâ robot bacakları için
bir tasarım buldu
ve sonra onları, bu engelleri aşmak için
nasıl kullanacağını çözdü.
Fakat David Ha bu deneyi oluşturduğunda
yapay zekânın bacakları ne kadar
büyük yapabileceğine dair
çok, çok katı
kısıtlamalarla oluşturmalıydı,
çünkü, aksi takdirde...
(Gülüşmeler)
Teknik olarak bu engel rotasının
sonuna varabildi.
Bir yapay zekânın, yürümek gibi basit
bir eylemi yapmasını sağlamak çok zor.
Yapay zekânın bunu yaptığını görünce,
bu haksızlık diyebilirsiniz,
yüksek bir kule olup düşemezsiniz,
yürümek için bacak
kullanmanız gerek diyebilirsiniz.
Görünen o ki, bu da
her zaman işe yaramıyor.
Yapay zekânın işi hızlı hareket etmek.
Ona ileri doğru koşması gerektiğini
veya kollarını
kullanamayacağını söylemediler.
Yapay zekâya hızlı hareket etmeyi
öğrettiğiniz zaman olan şey budur,
takla atmak veya şaşkınca yürüyüşler
gibi şeylerle karşılaşırsınız.
Bu gerçekten yaygın.
Yerde sürünmek de yaygın.
(Gülüşmeler)
Bana göre, bundan çok daha
garip olan şey,
"Terminatör" robotları.
Ona bir şans verirseniz, yapay zekanın
yapacağı diğer şey "Matrix"e girmektir.
Bir simülasyonda
yapay zekâyı eğitirseniz,
simülasyonun matematik hatalarına
girmek ve onları enerji için saklamak
gibi şeyleri yapmayı öğrenir.
Sürekli yerde sürünerek
hızlı hareket etmeyi de çözebilir.
Bir yapay zekâyla çalışırken
bu diğer bir insanla çalışmaktan ziyade,
daha çok doğanın garip bir gücüyle
çalışmaya benziyor.
Yapay zekâya çözmesi için kazara
yanlış problemi vermek de çok kolay
ve bir şeyler yanlış gidene dek
bunu genelde fark etmeyiz.
Yaptığım bir deneyde
yapay zekâdan
boya renklerini kopyalamasını
ve yeni boya renkleri
yaratmasını istedim,
bu soldaki listedekiler gibi
bir liste verdim.
Yapay zekânın önerdikleri ise şunlar.
[Sindi Kakası, Gübremsi, Acı, Gri Kasık]
(Gülüşmeler)
Teknik olarak
istediğimi yaptı.
Ben güzel boya renkleri isimleri
istediğimi düşünmüştüm,
fakat aslında yapmasını istediğim şey
orijinalinde gördüğü
harf kombinasyonları türlerini
taklit etmesiydi.
Kelimelerin ne anlama geldiğine dair
veya isimleri bulurken
kullanmaması gereken bazı kelimeler
olabileceğine dair hiçbir şey söylemedim.
Yani onun tüm dünyası,
benim ona sağladığım veri.
Dondurma tatları gibi,
başka hiçbir şey bilmiyor.
Yani genelde veri aracılığıyla
yapay zekâya kazara yanlış şeyi
yapmasını söylüyoruz.
Bu, karabalık adlı bir balık.
Bir grup araştırmacı da yapay zekâyı
resimlerde karabalığı
saptaması için eğitmişti.
fakat ona, balığı saptamak için
resmin hangi kısmını
kullandığını sorduklarında,
işte bunu vurguladı.
Evet, bunlar insan elinin parmakları.
Bir balığı saptamayı deniyorsa,
neden insan elinin parmaklarını arıyor?
Görünen o ki bu karabalık bir ödül balığı
ve eğitimi sırasında
yapay zekânın gördüğü
birçok resimde,
balık böyle görünüyordu.
(Gülüşmeler)
Parmakların, balığın bir parçası
olmadığını bilmiyordu.
Baktığı şeyi gerçekten anlayabilecek
bir yapay zekâ tasarlamanın
neden çok zor olduğunu
görüyorsunuz.
Ayrıca sürücüsüz arabalarda
görüntü tanımayı tasarlamanın
zor olmasının nedeni de bu
ve sürücüsüz arabalardaki
birçok başarısızlık da
yapay zekânın şaşırması nedenlidir.
2016'dan bir örnek vermek istiyorum.
Birisi Tesla'nın oto-pilot yapay zekasını
kullanırken ölümcül bir kaza oldu,
fakat tasarlandığı üzere
otoyolda kullanmak yerine,
şehrin sokaklarında kullandılar.
Olan şey de şuydu;
bir kamyon, arabanın önüne sürdü
ve araba fren yapamadı.
Yapay zekâ kesinlikle resimlerde
kamyonları saptamak üzere eğitilmişti.
Fakat olan şey şu gibi görünüyor,
yapay zekâ otoyolda giden
kamyonları saptamayı öğrenmişti,
yani kamyonları arkadan
göreceğimiz bir şekilde öğrenmişti.
Yanı görünen kamyonların
otoyolda olmaları beklenmez
ve yapay zekâ bu kamyonu gördüğünde,
büyük olasılıkla
bir yol işareti olarak algıladı
ve altından geçmenin
güvenli olduğunu düşündü.
Yapay zekânın başka alanda
attığı yanlış bir adım daha.
Amazon, algoritmanın kadınlara karşı
ayrımcılık yapmayı öğrendiğini
keşfettiği zaman,
bir özgeçmiş-sıralama algoritmasından
vazgeçmek zorunda kaldı.
Olan şey şuydu, yapay zekâyı
geçmişte işe aldıkları insanlara ait
örnek özgeçmişlerle eğittiler.
Yapay zekâ da bu örneklerden,
kadın okullarına gitmiş olan
veya özgeçmişinin herhangi bir yerinde
"kadın" kelimesi geçen,
-- "kadın futbol takımı"
veya "Kadın Mühendisler Derneği" gibi --
özgeçmişlerden kaçınmayı öğrendi.
Yapay zekâ, insanların
yaptığını gördüğü bu şeyi
kopyalaması gerekmediğini bilmiyordu.
Teknik olarak da
yapmasını istedikleri şeyi yaptı.
Sadece, yanlış şeyi yapmasını istediler.
Yapay zekâyla bu her zaman olur.
Yapay zeka çok zararlı olabilir
ve bunu bilmeyebilir.
Facebook, YouTube'da yeni içerik
öneren yapay zekâlar,
tıklama ve görüntüleme sayısını
yükseltmek üzere optimize edilmiştir.
Ne yazık ki bunu yapmak için
buldukları bir yol da,
komplo teorisi veya fanatiklik
içerikleri önermek.
Yapay zekâların, bu içeriklere dair
herhangi bir fikirleri yok
ve bu içeriği önerdikleri zaman
sonucun ne olacağına dair de
herhangi bir fikirleri yok.
Yani, yapay zekâyla çalışırken
problemlerden kaçınmak bize bağlıdır.
Yanlış giden şeylerden kaçınmak da öyle,
bu çok eski iletişim
problemine kadar da inebilir,
insanlar yapay zekâyla nasıl iletişim
kuracağını öğrenmelidir.
Yapay zekânın ne yapabildiğini
ve ne yapamadığını öğrenmeliyiz
ve yapay zekânın,
çok küçük solucan beyniyle,
ondan yapmasını istediğimiz şeyi
aslında anlamadığını anlamalıyız.
Yani, süper-yetkili, her şeyi bilen
bilim kurgu yapay zekâlarına benzemeyen
yapay zekâ ile çalışmaya
hazırlıklı olmalıyız.
Şimdiki zamanda sahip olduğumuz
tek yapay zekâyla
çalışmaya hazırlıklı olmalıyız.
Günümüzün yapay zekâsı da yeterince garip.
Teşekkürler.
(Alkış)