Süper zeki yapay zekadan korkmayın
-
0:01 - 0:05Çocukken tam bir inektim.
-
0:05 - 0:08Galiba bazılarınız da inektiniz.
-
0:08 - 0:09(Kahkaha)
-
0:09 - 0:12Ve siz beyefendi, en sesli gülen,
siz muhtemelen hala ineksiniz. -
0:12 - 0:14(Kahkaha)
-
0:14 - 0:18Kuzey Teksas'ın tozlu düz arazilerinde
küçük bir kasabada büyüdüm. -
0:18 - 0:21Babam şerif,
büyükbabam ise bir papazdı. -
0:21 - 0:23Başımı belaya sokmak
hiç kaçınılmaz değildi. -
0:24 - 0:27Bu yüzden öylesine matematik
kitapları okumaya başladım. -
0:27 - 0:29(Kahkaha)
-
0:29 - 0:31Sen de okudun.
-
0:31 - 0:34Bu okumalar lazer, bilgisayar ve
maket roketler yapmamı sağladı. -
0:34 - 0:37Bunlar ise roket yakıtı yapmamı sağladı.
-
0:38 - 0:42Şimdi, bilimsel olarak
-
0:42 - 0:45biz buna "çok kötü bir fikir" deriz.
-
0:45 - 0:46(Kahkaha)
-
0:46 - 0:48O zamanlarda,
-
0:48 - 0:52Stanley Kubrick'in filmi
"2001: Uzay Macerası" sinemalara gelmişti, -
0:52 - 0:54ve benim hayatım sonsuza kadar değişmişti.
-
0:54 - 0:56Bu filmi çok sevmiştim,
-
0:56 - 0:59özellikle HAL 9000'i.
-
0:59 - 1:01HAL, uzay gemisi Keşif'i Dünya'dan
-
1:01 - 1:03Jüpiter'e götürmek için tasarlanmış
-
1:03 - 1:06duyguları olan bir bilgisayar.
-
1:06 - 1:08HAL ayrıca kusurlu bir karaktere sahip.
-
1:08 - 1:12Çünkü sonunda, görevi
insan hayatına tercih etmişti. -
1:13 - 1:15HAL uydurma bir karakter,
-
1:15 - 1:18ama yine de o korkularımızı simgeliyor,
-
1:18 - 1:20İnsanlığımızı umursamayan
-
1:20 - 1:23duygusuz bir yapay zeka tarafından
-
1:23 - 1:25kontrol altına alınma korkumuz.
-
1:26 - 1:28Bu tür korkuların yersiz
olduğuna inanıyorum. -
1:28 - 1:31Gerçekten de insan tarihinde
-
1:31 - 1:33olağanüstü bir zamandayız.
-
1:33 - 1:38Vücudumuzun ve aklımızın
limitleri olduğunu kabul etmeyişimizle -
1:38 - 1:39Yaşam deneyimini
-
1:39 - 1:43hayallerin ötesinde geliştirecek
-
1:43 - 1:45üstün bir karmaşıklık ve zarafete sahip
-
1:45 - 1:47makineler üretiyoruz.
-
1:48 - 1:50Beni hava harp okulundan
hava komutasına, oradan da -
1:50 - 1:52şimdiye getiren kariyerden sonra
-
1:52 - 1:54sistem mühendisi oldum.
-
1:54 - 1:57Geçenlerde NASA'nın Mars göreviyle ilgili
-
1:57 - 1:59bir mühendislik probleminde yer aldım.
-
1:59 - 2:02Ay'a giden uzay uçuşlarında
-
2:02 - 2:05uçuşla ilgili her şeyde
-
2:05 - 2:07Houston'daki görev merkezine bağlıyız.
-
2:07 - 2:11Fakat, Mars 200 kat uzakta.
-
2:11 - 2:14Sonuç olarak, bir sinyalin
Dünya'dan Mars'a ulaşması -
2:14 - 2:17ortalama 13 dakika sürüyor.
-
2:17 - 2:20Bir sorun varsa,
yeteri kadar zaman yok. -
2:21 - 2:23Makul bir mühendislik çözümü sunmak için
-
2:23 - 2:26görev kontrolü uzay aracı Orion'ın
-
2:26 - 2:29içine koymamız gerekir.
-
2:29 - 2:32Görev profilindeki başka
bir enteresan fikir -
2:32 - 2:35insanlar Mars'a varmadan önce,
-
2:35 - 2:37Mars'ın yüzeyine insansı robotlar
-
2:37 - 2:38gönderip tesisler kurdurmak,
-
2:38 - 2:42sonra onları araştırma ekibinin
ortak mensubu yapmak. -
2:43 - 2:46Bu fikre bir mühendisin
bakış açısından baktığımda, -
2:46 - 2:49tasarlamam gereken şeyin
akıllı, iş birliği yapabilen, -
2:49 - 2:52sosyal zekaya sahip
bir yapay zeka olduğu -
2:52 - 2:54çok açık ve netti.
-
2:54 - 2:58Başka deyişle, HAL'e çok benzeyen
bir şey yapmam gerekti. -
2:58 - 3:01ama adam öldürme meyili olmayan bir HAL.
-
3:01 - 3:02(Kahkaha)
-
3:03 - 3:05Biraz ara verelim.
-
3:05 - 3:09Böyle bir yapay zeka yapmak
gerçekten mümkün mü? -
3:09 - 3:10Aslında mümkün.
-
3:10 - 3:11Bir çok yönüyle,
-
3:11 - 3:13yapay zeka ilkeleriyle, bu zor
-
3:13 - 3:15bir mühendislik problemidir,
-
3:15 - 3:20mühendisliği yapılacak
basit bir yapay zeka problemi değil. -
3:20 - 3:22Alan Turing'in dediği gibi,
-
3:22 - 3:25Duyguları olan bir makine
yapmakla ilgilenmiyorum. -
3:25 - 3:26Bir HAL yapmıyorum.
-
3:26 - 3:29Tek yapmak istediğim,
-
3:29 - 3:32zeka yanılsaması gösteren basit bir beyin.
-
3:33 - 3:36HAL ilk gösterildiğinden beri,
programlama sanatı ve bilimi -
3:36 - 3:38uzun yol kat etti.
-
3:38 - 3:41HAL'in yaratıcısı eğer burada olsaydı,
-
3:41 - 3:43eminim bize soracağı çok soru olurdu.
-
3:43 - 3:45"Milyonlarca cihazdan oluşan bir sistemin
-
3:45 - 3:49veri akışını okuyup
onların hata ve eylemlerini -
3:49 - 3:51önceden tahmin etmek
-
3:51 - 3:53gerçekten mümkün mü?"
-
3:53 - 3:54Evet.
-
3:54 - 3:58"İnsanlarla doğal dilde sohbet edebilen
sistemler yapabilir miyiz?" -
3:58 - 3:59Evet.
-
3:59 - 4:02"Objeleri ve duyguları
tanımlayabilen, duygusal davranan -
4:02 - 4:05oyun oynayabilen ve hatta dudak
okuyabilen sistemler yapabilir miyiz? -
4:05 - 4:06Evet.
-
4:07 - 4:09''Hedefler koyup
o hedefleri gerçekleştirmek -
4:09 - 4:12için planlar yapan ve bu esnada
öğrenen bir sistem yapabilir miyiz?'' -
4:12 - 4:14Evet.
-
4:14 - 4:17"Akıl teorisi olan sistemler
yapabilir miyiz?" -
4:17 - 4:18İşte bunu yapmayı öğreniyoruz.
-
4:18 - 4:22"Etik ve ahlaki temeli olan
sistemler yapabilir miyiz?" -
4:22 - 4:25İşte bunu öğrenmek zorundayız.
-
4:25 - 4:27Farz edelim ki
-
4:27 - 4:30bu ve benzeri amaçlar için bu tür
-
4:30 - 4:32bir yapay zeka geliştirmek mümkün olsun.
-
4:32 - 4:34Kendinize sormanız gereken
ilk soru şu olmalı: -
4:34 - 4:36Bundan korkmalı mıyız?
-
4:36 - 4:38Her yeni teknoloji
-
4:38 - 4:41korkuyu da kendiyle birlikte getirir.
-
4:41 - 4:42Arabaları ilk gördüğümüzde
-
4:43 - 4:47insanlar ailenin yok oluşunu
göreceğimizden yakındılar. -
4:47 - 4:49Telefonlar hayatımıza girdiğinde
-
4:49 - 4:52herkes bunun medeni konuşmayı
tahrip edeceğinden endişeliydi. -
4:52 - 4:56Yazılı kelimelerin kalıcı
olduğunu anladığımız zaman -
4:56 - 4:59insanlar ezber yeteneğimizin
kaybolacağını sandılar. -
4:59 - 5:01Bütün bunlar bir noktaya kadar doğru
-
5:01 - 5:03Fakat bu teknolojilerin
yaşam deneyimimizi -
5:03 - 5:07inanılmaz şekillerde geliştirecek şeyler
-
5:07 - 5:08getirdiği de bir gerçek.
-
5:10 - 5:12Hadi bunu bir adım daha öteye taşıyalım.
-
5:13 - 5:18Bu tür bir yapay zekanın
yaratılmasından korkmuyorum, -
5:18 - 5:22çünkü zamanla yapay zeka
bazı değerlerimizi cisimleştirecek. -
5:22 - 5:25Şunu düşünün: Bilişsel bir sistem yapmak
geleneksel yazılım yoğunluklu -
5:25 - 5:29bir sistem yapmaktan temel olarak farklı.
-
5:29 - 5:31Onları programlamıyoruz.
Onlara öğretiyoruz. -
5:31 - 5:34Bir sisteme çiçekleri nasıl
tanıyacağını öğretmek için -
5:34 - 5:37ona sevdiğim türde
binlerce çiçek gösteririm. -
5:37 - 5:39Bir sisteme oyun oynamayı
öğretmek için -
5:39 - 5:41Öğretirdim, sen de öğretirdin.
-
5:43 - 5:45Çiçekleri severim, hadi ama.
-
5:45 - 5:48Bir sisteme Go gibi bir oyunu
oynamayı öğretmek için -
5:48 - 5:50Ona binlerce Go oynattırırdım.
-
5:50 - 5:52Fakat bu süreçte ona ayrıca
-
5:52 - 5:54iyi oyunu kötü oyundan
ayırmayı da öğretirim. -
5:55 - 5:58Yapay zekası olan bir
avukat yardımcısı yaratmak istersem, -
5:58 - 6:00ona biraz hukuk dağarcığı öğretirim,
-
6:00 - 6:03ama aynı zamanda
hukukun bir parçası olan -
6:03 - 6:06merhamet ve adalet
duygusunu da aşılarım. -
6:07 - 6:10Bilimsel olarak söyleyecek olursam,
buna "kesin referans" deriz -
6:10 - 6:12İşte önemli nokta şu:
-
6:12 - 6:13Bu makineleri üretirken
-
6:13 - 6:16onlara kendi değerlerimizden
bir parça da öğretiriz. -
6:17 - 6:20Bu noktaya kadar, daha çok olmasa da
yapay zekaya iyi yetişmiş -
6:20 - 6:23bir insana güvendiğim kadar güvenirim.
-
6:24 - 6:25Fakat şunu sorabilirsiniz:
-
6:25 - 6:28Ya kötüye kullanan 3. partiler?
-
6:28 - 6:31bazı iyi finanse edilmiş
sivil toplum kuruluşları? -
6:31 - 6:35Yalnız bir kurdun elindeki
yapay zekadan korkmam. -
6:35 - 6:40Açıkçası, kendimizi bütün rastgele
şiddet olaylarına karşı koruyamayız. -
6:40 - 6:42Ancak gerçeklik öyle bir sistem ki
-
6:42 - 6:45insan kaynaklarının çok ötesinde
oldukça büyük -
6:45 - 6:47ve kıvrak zekaya sahip
bir eğitime ihtiyaç duyar. -
6:47 - 6:49Dahası...
-
6:49 - 6:52Bir düğmeye basıp milyonlarca
yere yayılan ve -
6:52 - 6:55laptopların her yerde patlamasına
yol açan bir internet virüsü -
6:55 - 6:57sızdırmaktan çok daha fazlası.
-
6:57 - 7:00Bu tür maddeler çok daha büyük,
-
7:00 - 7:02ve kesinlikle bunlara tanık olacağız.
-
7:03 - 7:06Yapay zekanın bütün insanlığı
-
7:06 - 7:08tehdit edebileceğinden korkuyor muyum?
-
7:08 - 7:13"The Matrix", "Metropolis", "Terminator"
gibi filmlere ya da -
7:13 - 7:16"Westworld" gibi dizilere bakarsanız
-
7:16 - 7:18onlar hep bu tür bir korkudan bahsederler.
-
7:18 - 7:22Gerçekten de filozof Nick Bostrom
"Süper Zeka" kitabında -
7:22 - 7:24bu konudan bahseder.
-
7:24 - 7:28Süper zekanın sadece tehlikeli
olabileceğini değil -
7:28 - 7:32ayrıca varoluşsal bir tehdit
oluşturabileceğini gözlemliyor. -
7:32 - 7:34Dr. Bostrom'un temel argümanı şöyle:
-
7:34 - 7:37Bu sistemler zamanla o kadar çok
-
7:37 - 7:40bilgiye doyumsuzca aç olacaklar ki
-
7:40 - 7:43belki de öğrenmeyi öğrenecekler
-
7:43 - 7:46ve zamanla insanların
ihtiyaçlarıyla çelişen -
7:46 - 7:48amaçlara sahip olacaklar.
-
7:48 - 7:50Dr. Bostrom'un bir çok takipçisi var.
-
7:50 - 7:54Elon Musk ve Stephen Hawking gibi
insanlar tarafından destekleniyor. -
7:55 - 7:57Bu parlak beyinlere
-
7:58 - 8:00saygısızlık etmek istemem ama
-
8:00 - 8:02onların aslında hatalı
olduğuna inanıyorum. -
8:02 - 8:06Dr. Bostrom'un argümanlarının
ayrıntılarına inmek isterdim ama -
8:06 - 8:08o kadar zamanım yok.
-
8:08 - 8:11Şunu çok kısaca bir düşünün:
-
8:11 - 8:14Süper bilmek süper yapmaktan çok farklı.
-
8:14 - 8:16HAL Keşif'i bütün yönleriyle
-
8:16 - 8:21komuta ettiği sürece,
o Keşif tayfasına karşı bir tehditti. -
8:21 - 8:23Bu yüzden onun süper
zekaya sahip olması gerekir. -
8:23 - 8:26Onun bütün dünya üzerinde
egemenliği olurdu. -
8:26 - 8:29Bu The Terminator'deki Skynet şeyi işte,
-
8:29 - 8:30İnsan iradesi üzerinde kontrolü olan,
-
8:30 - 8:32dünyanın her bir köşesindeki
-
8:32 - 8:36her bir cihazı yöneten
bir süper zeka. -
8:36 - 8:37Gerçekçi konuşursak,
-
8:37 - 8:39bu olmayacak.
-
8:39 - 8:42Bizler havayı kontrol eden,
zamanı yönlendiren, -
8:42 - 8:44kaprisli, karmakarışık
-
8:44 - 8:47insanları komuta eden
yapay zekalar yapmıyoruz. -
8:47 - 8:51Buna ek olarak,
böyle bir yapay zeka olsaydı, -
8:51 - 8:54insan ekonomisiyle yarışmak zorunda
olurdu, dolayısıyla -
8:54 - 8:57kaynaklar için bizimle yarışırlardı.
-
8:57 - 8:58Sonunda
-
8:58 - 9:00Siri'ye şunu söylemeyin:
-
9:00 - 9:02"Hiç olmadı fişini çekeriz."
-
9:02 - 9:04(Kahkaha)
-
9:05 - 9:08Makinelerimizle mükemmel bir
-
9:08 - 9:10evrim birlikteliği yolculuğundayız.
-
9:10 - 9:13Bugünkü olduğumuz insan
-
9:13 - 9:15o zamankiyle aynı olmayacak.
-
9:15 - 9:19Süper zekanın yükselişi hakkında
şimdi bu kadar endişelenmemiz -
9:19 - 9:22bir çok yönüyle tehlikeli bir
dikkat dağınıklığıdır, -
9:22 - 9:24çünkü programlamanın yükselişi
-
9:24 - 9:27bize çözmemiz gereken bir çok
insancıl ve toplumsal -
9:27 - 9:29sorunlar getirecek.
-
9:29 - 9:32İnsanların iş gücüne olan
ihtiyaç azaldığında -
9:32 - 9:35toplumda düzeni en iyi nasıl sağlarım:
-
9:35 - 9:38Dünya geneline nasıl anlayış ve
eğitim getiririm ve yine de -
9:38 - 9:40farklılıklarımıza saygı gösteririm?
-
9:40 - 9:44İnsan hayatını bilişsel sağlık hizmeti ile
nasıl genişletebilir ve geliştirebilirim? -
9:44 - 9:47Bizi yıldızlara götürecek programlamayı
-
9:47 - 9:49nasıl kullabilirim?
-
9:50 - 9:52İşte bu heyecan verici bir şey.
-
9:52 - 9:55İnsan deneyimini ilerletmek için
-
9:55 - 9:56programlama kullanma fırsatı
-
9:56 - 9:58elimizde
-
9:58 - 10:00Bu aralar
-
10:00 - 10:01daha yeni başlıyoruz.
-
10:02 - 10:03Çok teşekkürler.
-
10:04 - 10:08(Alkış)
- Title:
- Süper zeki yapay zekadan korkmayın
- Speaker:
- Grady Booch
- Description:
-
Bilim adamı ve filozof Grady Booch diyor ki: "Yeni teknolojiler yeni endişeler ortaya çıkarır, ama çok güçlü ve hisleri olmayan bir yapay zekadan korkmamıza gerek yok". Booch süper zeki bilgisayarlar hakkındaki (bilim kurgular yüzünden oluşmuş) en kötü korkularımızı onlara değerlerimizi nasıl öğreteceğimizi açıklayarak, sadece programlamayarak, yatıştırıyor. Olası olmayan varoluşsal bir tehdit hakkında endişelenmek yerine, yapay zekanın insan hayatını nasıl geliştireceğini düşünmemize teşvik ediyor.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Meric Aydonat edited Turkish subtitles for Don't fear superintelligent AI | ||
Cihan Ekmekçi accepted Turkish subtitles for Don't fear superintelligent AI | ||
Cihan Ekmekçi edited Turkish subtitles for Don't fear superintelligent AI | ||
Cihan Ekmekçi edited Turkish subtitles for Don't fear superintelligent AI | ||
Enes Anbar edited Turkish subtitles for Don't fear superintelligent AI | ||
Enes Anbar edited Turkish subtitles for Don't fear superintelligent AI |