Kontrolü kaybetmeden Yapay Zekâ üretebilir miyiz?
-
0:01 - 0:03Birçoğumuzun muzdarip olduğu
-
0:03 - 0:05bir önsezi yetersizliğinden bahsedeceğim.
-
0:05 - 0:09Belirli tür bir tehlikeyi
sezmek gerçekten bir yetersizliktir. -
0:09 - 0:11Bir senaryo anlatacağım,
-
0:11 - 0:14korkunç olduğunu düşündüğüm
-
0:14 - 0:16ve gerçekleşmesi muhtemel olan
-
0:17 - 0:18ve görünen o ki
-
0:19 - 0:20iyi bir kombinasyon da değil.
-
0:20 - 0:23Yine de korkmak yerine
çoğunuz, bahsettiklerimin -
0:23 - 0:25havalı olduğunu düşüneceksiniz.
-
0:25 - 0:28Yapay zekâdaki kazanımlarımızın
-
0:28 - 0:30nihayetinde bizi nasıl
-
0:30 - 0:32mahvedeceğinden bahsedeceğim.
-
0:32 - 0:35Hatta bence, bizi mahvetmeyeceğini
veya kendimizi mahvetmeyi bize -
0:35 - 0:37aşılamayacağını düşünmek çok güç.
-
0:37 - 0:39Fakat sizler de benim gibiyseniz,
-
0:39 - 0:42bunları düşünmenin zevkli
olacağını keşfedeceksiniz. -
0:42 - 0:45Ve bu yanıtta sorunun bir parçası.
-
0:45 - 0:47Bu yanıt sizi endişelendirmeli.
-
0:48 - 0:51Bu konuşmada sizi, olası bir
küresel bir kıtlığa, -
0:51 - 0:54iklim değişikliği veya
başka bir afetten dolayı, -
0:54 - 0:57torunlarınız veya
onların torunlarının muhtemelen -
0:57 - 1:01bu şekilde yaşama durumuna
-
1:01 - 1:02yakın olduğuna ikna ediyor olsaydım,
-
1:03 - 1:04"İlginç.
-
1:05 - 1:07Bu TED konuşmasını beğendim."
-
1:07 - 1:08diye düşünmezdiniz.
-
1:09 - 1:11Kıtlık eğlenceli değildir.
-
1:12 - 1:14Diğer taraftan bilim
kurgudaki ölüm ise eğlencelidir -
1:14 - 1:17ve bu noktada beni yapay zekâdaki
-
1:17 - 1:19en çok endişelendiren gelişmelerden biri,
-
1:19 - 1:23önümüzde uzanan tehlikelere,
uygun duyarlı bir yanıtı -
1:23 - 1:25sıralayamıyor gibi görünüyoruz.
-
1:25 - 1:28Bu yanıtı sıralayamıyorum ve
bu konuşmayı yapıyorum. -
1:30 - 1:33İki kapının önünde duruyoruz gibi.
-
1:33 - 1:341 numaralı kapının ardında
-
1:34 - 1:37zeki makine üretmedeki
gelişmeleri durduruyoruz. -
1:37 - 1:39Her nedense bilgisayarlarımızın donanım
-
1:39 - 1:41ve yazılımı daha iyi olmayı durduruyor.
-
1:41 - 1:43Şimdi bir dakikanızı ayırın ve bunun
-
1:43 - 1:45neden olabileceğini değerlendirin.
-
1:45 - 1:47Yani, zekâ ve otomasyonun ne kadar
-
1:47 - 1:49değerli olduğu göz önüne alındığında,
-
1:49 - 1:52yapabilirsek, teknolojimizi geliştirmeye
devam edeceğiz. -
1:53 - 1:55Bunu yapmamızı ne engelleyebilir?
-
1:56 - 1:58Büyük çaplı bir nükleer savaş mı?
-
1:59 - 2:01Küresel bir salgın mı?
-
2:02 - 2:04Asteroit çarpması mı?
-
2:06 - 2:08Justin Bieber'in Amerika Başkanı
olması mı? -
2:08 - 2:11(Kahkahalar)
-
2:13 - 2:14Mesele şu ki, bildiğimiz üzere
-
2:14 - 2:17bir şeyler medeniyeti yok etmeli.
-
2:17 - 2:22Ne kadar kötü
olabileceğini hayal etmelisiniz, -
2:22 - 2:25teknolojimizde iyileştirme
yapmamızı engellemenin, -
2:25 - 2:26daimi olarak,
-
2:26 - 2:28nesilden nesile.
-
2:28 - 2:30Neredeyse, doğası gereği
-
2:30 - 2:32bu, insan tarihinde gerçekleşen
en kötü şey. -
2:33 - 2:34Bu yüzden tek alternatif,
-
2:34 - 2:36ikinci kapının ardındaki,
-
2:36 - 2:39akıllı makinelerimizi yıllar geçtikçe
-
2:39 - 2:41geliştirmeye devam etmemiz.
-
2:42 - 2:45Bir noktada da bizden daha
akıllı makineler inşa edeceğiz -
2:46 - 2:49ve bizden akıllı makinelerimiz
olduğunda onlar, -
2:49 - 2:51kendilerini geliştirmeye başlayacaklar.
-
2:51 - 2:53Ve sonra, matematikçi IJ Good'un
"zekâ patlaması" olarak -
2:53 - 2:55adlandırdığı bu süreçle,
-
2:55 - 2:57bizden kurtulabilecekler.
-
2:58 - 3:01Sıklıkla karikatürize edilir,
benim de burada yaptığım gibi, -
3:01 - 3:04korku kötücül robot ordularının
-
3:04 - 3:05bize saldırmaları.
-
3:05 - 3:08Ama bu çok da olası bir senaryo değil.
-
3:08 - 3:13Kendiliğinden makinelerimiz
kötücül olacak değil. -
3:13 - 3:16Asıl kaygılandıran ise;
bizden o kadar çok daha yetkin -
3:16 - 3:18makineler üreteceğiz ki bizim ve onların
-
3:18 - 3:22amaçları arasındaki
en küçük bir fark, bizi -
3:22 - 3:23ortadan kaldırabilecek.
-
3:24 - 3:26Nasıl da karıncalar gibi
olacağımızı bir düşünün. -
3:27 - 3:28Onlardan nefret etmiyoruz.
-
3:28 - 3:30Onlara zarar vermek için
yolumuzu değiştirmiyoruz. -
3:30 - 3:33Üstelik bazen onlara zarar
vermemeye çalışıyoruz. -
3:33 - 3:35Kaldırımlarda üzerlerinden geçiyoruz.
-
3:35 - 3:37Ancak ne zaman onların varlıkları
-
3:37 - 3:39bizim hedeflerimizle çakışsa,
-
3:39 - 3:42diyelim ki bu gibi bir bina inşa ederken,
-
3:42 - 3:44tereddütsüz imha edebiliyoruz onları.
-
3:44 - 3:47Endişe uyandıran ise bir gün,
bilinçli olsun veya olmasın -
3:47 - 3:50bize de benzer bir umursamazlıkla
muamele edebilecek -
3:50 - 3:52makineler üreteceğiz.
-
3:54 - 3:57Zannederim ki bir çoğunuza ihtimal
dışı görünüyor bu durum. -
3:57 - 4:01Eminim ki bazılarınız süper zeki
-
4:01 - 4:03Yapay Zekâ'nın kaçınılmaz olması
şöyle dursun, -
4:03 - 4:05mümkünlüğünden dahi şüphe duyuyor.
-
4:05 - 4:07Ancak sonra ileriki varsayımlardan
-
4:07 - 4:09bazılarında bir tuhaflık bulmalısınız.
-
4:09 - 4:11Ve sadece üç tanesi var.
-
4:12 - 4:17Zekâ, fiziksel sistemlerde
bilgi işleme ile ilgilidir. -
4:17 - 4:20Aslında bu bir varsayımdan biraz fazla.
-
4:20 - 4:23Zaten makinelerimizde kısıtlı
zekâyı kurduk ve -
4:23 - 4:25bu makinelerin çoğu çoktan
-
4:25 - 4:28üstün insan seviyesinde bir
performansta. -
4:29 - 4:31Ve biliyoruz ki bu mutlak mesele,
-
4:31 - 4:34"genel zekâ" denilen birçok
alanda esneklikle -
4:34 - 4:38düşünebilme yeteneğine sebep olabilir,
-
4:38 - 4:41çünkü beyinlerimiz bunu başardı değil mi?
-
4:41 - 4:45Yani sadece atomlar var burada
-
4:45 - 4:49ve biz gitgide daha zeki
davranışlar sergileyen atomlar -
4:49 - 4:52sistemi kurmaya devam ettikçe,
-
4:52 - 4:55nihayetinde makinelerimize
-
4:55 - 4:58genel zekâyı kurabileceğiz,
-
4:58 - 4:59engellenmedikçe.
-
4:59 - 5:03İlerlemenin seviyesinin önemli
olmadığının farkına varmak çok mühim, -
5:03 - 5:06çünkü herhangi bir gelişme
bizi sayı çizgisine getirmeye yetebilir. -
5:06 - 5:08Devam etmek için Moore
kanununa gerek yok. -
5:08 - 5:10Üstel bir gelişime ihtiyacımız yok.
-
5:10 - 5:12Sadece devam etmeliyiz.
-
5:13 - 5:16İkinci varsayım ise devam etmemiz.
-
5:17 - 5:20Akıllı makinelerimizi geliştirmeye
devam edeceğiz. -
5:21 - 5:25Ve zekânın değeri göz önüne alınırsa,
-
5:25 - 5:29yani zekâ ya bütün değer
verdiklerimizin kaynağıdır ya da -
5:29 - 5:30değer verdiğimiz her şeyi
-
5:30 - 5:32korumak için ona ihtiyacımız vardır.
-
5:32 - 5:34Bizim en değerli kaynağımızdır.
-
5:34 - 5:36O yüzden bunu yapmak isteriz.
-
5:36 - 5:39Umutsuzca çözmek istediğimiz
problemlerimiz vardır. -
5:39 - 5:42Alzheimer ve kanser gibi
hastalıkları tedavi etmek isteriz. -
5:43 - 5:45Ekonomi sistemlerini anlamak isteriz.
-
5:45 - 5:47İklim bilimini ilerletmek isteriz.
-
5:47 - 5:49Yani yapabilirsek bunu yapacağız.
-
5:49 - 5:52Tren çoktan istasyondan çıktı ve
basılabilecek bir fren yok. -
5:54 - 5:59Velhasıl, zekânın zirvesinde duramayız
-
5:59 - 6:01ya da yakınında herhangi bir yerde.
-
6:02 - 6:04Ve bu gerçekten mühim bir öngörüdür.
-
6:04 - 6:06Durumumuzu istikrarsız yapan ve
-
6:06 - 6:10risk hakkındaki sezgilerimizi güvenilmez
kılan bu durum. -
6:11 - 6:14Şimdi yaşamış en zeki insanı düşünün.
-
6:15 - 6:18Buradaki hemen hemen herkesin
son listesinde John von Neumann vardır. -
6:18 - 6:21Yani, John von Neumann' nın çevresindeki
insanlardaki etkisi, -
6:21 - 6:25zamanının en iyi matematikçileri
ve fizikçileri de dâhil olmak üzere, -
6:26 - 6:27oldukça detaylı olarak hazırlanmış.
-
6:27 - 6:31Hakkında anlatılanların yarısı
yarı gerçek ise -
6:31 - 6:32şimdiye dek yaşamış
-
6:33 - 6:35en zeki insan olduğuna şüphe yok.
-
6:35 - 6:38Öyleyse zekâ spektrumunu bir düşünün.
-
6:38 - 6:40Bir tarafta John von Neumann
-
6:42 - 6:43ve diğer tarafta siz ve ben.
-
6:44 - 6:45Ve bir de tavuk.
-
6:45 - 6:47(Gülüşmeler)
-
6:47 - 6:49Pardon, bir tavuk.
-
6:49 - 6:50(Gülüşmeler)
-
6:50 - 6:54Bu konuşmayı gereğinden daha
depresif yapmama gerek yok. -
6:54 - 6:55(Gülüşmeler)
-
6:56 - 7:00Ezici bir üstünlükle olası görünüyor
ancak zekâ spektrumu -
7:00 - 7:03şu anda tasarlayabileceğimizden
daha da ileriye uzanıyor -
7:04 - 7:07ve kendimizden daha zeki
makineler üretirsek -
7:07 - 7:09büyük ihtimalle bu spektrumu
hayal edemeyeceğimiz -
7:09 - 7:11ölçüde keşfedecekler
-
7:11 - 7:14ve o ölçüde bizi aşacaklar.
-
7:15 - 7:19Ve hızın fazileti gereği bunun
doğru olduğunu anlamak önemli. -
7:19 - 7:24Değil mi? Stanford veya MIT'deki
ortalama araştırmacı takımınızdan -
7:24 - 7:28daha zeki olmayan süper zeki
Yapay Zekâ -
7:28 - 7:30geliştirdiğimizi düşünün.
-
7:30 - 7:33Elektronik devreler,
biyokimyasallardan milyon kez -
7:33 - 7:34daha hızlı çalışır, yani
-
7:35 - 7:38bu makine onu yapan beyinlerden
milyon kez daha -
7:38 - 7:39hızlı çalışmalıdır.
-
7:40 - 7:41Bir haftalığına çalışmaya ayarlasanız
-
7:41 - 7:46ve insan seviyesinde 20.000 yıl
sürecek zihinsel -
7:46 - 7:48işleri yapacak, haftalarca.
-
7:50 - 7:53Engellemek şöyle dursun,
bu tarz bir zihinsel -
7:53 - 7:55ilerlemeyi nasıl durdurabiliriz ki?
-
7:57 - 7:59Endişe uyandıran diğer bir şey ise,
-
7:59 - 8:04açıkcası, olabilecek en iyi
senaryoyu düşünün. -
8:04 - 8:08Hiçbir kaygı barındırmayan
bir süper zeki Yapay Zekâ -
8:08 - 8:10tasarımı keşfettiğimizi düşünün.
-
8:10 - 8:13İlk seferde en iyi tasarımı bulduk.
-
8:13 - 8:15Tam da istenilen şekilde davranan bir
-
8:15 - 8:17kâhin bize verilmiş gibi.
-
8:17 - 8:21Bu makine müthiş bir işten
tasarruf ettiren bir aygıt olurdu. -
8:22 - 8:24Güneş ışığıyla çalışan, herhangi
bir fiziksel işi yapabilen, -
8:24 - 8:26aşağı yukarı ham maddeleri
-
8:26 - 8:27maliyetinde olan makineyi
-
8:27 - 8:30yapabilecek makineyi tasarlayabilir.
-
8:30 - 8:33Yani insanların yaptığı angarya
işlerin sonundan bahsediyoruz. -
8:33 - 8:36Aynı zamanda çoğu zihinsel işlerin de
sonundan bahsediyoruz. -
8:37 - 8:40Böyle bir durumda biz
maymunlar ne yapardık? -
8:40 - 8:44Birbirimize masaj yapabilir ve
frizbi oynayabiliriz. -
8:46 - 8:49Biraz LSD ve tartışmaya açık
giysi seçimlerini de ekleyin -
8:49 - 8:51ve bütün dünya Burning
Man (festival) gibi olabilir. -
8:51 - 8:53(Gülüşmeler)
-
8:54 - 8:56Şimdi kulağa hoş gelebilir ama
-
8:57 - 9:00kendinize şu anki ekonomik
ve siyasi düzenimizde -
9:00 - 9:02ne olabileceğini sorun.
-
9:02 - 9:05Daha önce görmediğimiz düzeyde
-
9:05 - 9:09eşitsiz bir zenginlik ve işsizliğe
-
9:09 - 9:11tanık olurduk gibi görünüyor.
-
9:11 - 9:13Bu yeni zenginliği derhal tüm
insanlığın hizmetine -
9:13 - 9:15sunmadaki isteksizlikle,
-
9:16 - 9:19dünyanın geri kalanı açlıktan
ölürken birkaç trilyoner -
9:19 - 9:22ekonomi dergilerimizin
kapaklarını süslüyor olabilir. -
9:22 - 9:25Peki ya Ruslar ya da Çinliler,
Silikon Vadisi'ndeki -
9:25 - 9:27bazı şirketlerin üstün zeki
Yapay Zekâ'yı dağıtmak -
9:27 - 9:30üzere olduğunu duysa ne yaparlardı?
-
9:30 - 9:33Karasal ya da siber, bu makine
-
9:33 - 9:35tahmin edilemez bir güçle savaş
-
9:35 - 9:37çıkarabilecek potansiyelde olurdu.
-
9:38 - 9:40Bu kazananın her şeyi
aldığı bir senaryo. -
9:40 - 9:43Buradaki rekabetten 6 ay
ilerde olmak -
9:43 - 9:46minimum 500.000 yıl
-
9:46 - 9:47ileride olmaktır.
-
9:47 - 9:52Demek ki bu tür bir atılımın
sadece söylentisi bile -
9:52 - 9:55türümüzün çıldırmasına yol açabiliyor.
-
9:55 - 9:58Şimdi en korkutucu şeylerden bir tanesi
-
9:58 - 10:00bana göre, şu anda,
-
10:00 - 10:05Yapay Zekâ araştırmacılarının
güven verici olmak istediklerinde -
10:05 - 10:06söyledikleri şeyler.
-
10:07 - 10:08Ve en sık bize endişe etmememiz
-
10:08 - 10:10için söylenen neden ise zaman.
-
10:10 - 10:13Çok çok uzakta, haberin yok mu?
-
10:13 - 10:15Muhtemelen 50 ya da 100 yıl kadar uzakta.
-
10:16 - 10:17Bir araştırmacı dedi ki;
-
10:17 - 10:19"Yapay Zekâ güvenliği için endişelenmek
-
10:19 - 10:21Mars'ta aşırı nüfus artışına
endişelenmek gibi." -
10:22 - 10:24Bu Silikon Vadisi'nin
-
10:24 - 10:26"Sıkmayın tatlı canınızı" versiyonu.
-
10:26 - 10:27(Gülüşmeler)
-
10:28 - 10:29Zamana referanslamanın
-
10:29 - 10:32tamamen yersiz bir deyim
-
10:32 - 10:35olduğunu kimse fark etmiyor.
-
10:35 - 10:38Zekâ eğer bilgi işlemeden ibaretse
-
10:38 - 10:41ve biz makinelerimizi geliştirmeye
devam edersek -
10:41 - 10:44bir tür süper zekâ üreteceğiz.
-
10:44 - 10:48Ve güvenli bir biçimde yapmak için
gerekli şartları yaratmanın -
10:48 - 10:50ne kadar süreceği hakkında
hiçbir fikrimiz yok. -
10:52 - 10:53Bir daha söyleyeyim.
-
10:54 - 10:57Güvenli bir biçimde yapmak için
gerekli şartları yaratmanın -
10:57 - 11:00ne kadar süreceği hakkında
hiçbir fikrimiz yok. -
11:01 - 11:04Ve eğer fark etmediyseniz,
50 yıl eskisi gibi değil artık. -
11:04 - 11:07Bu ay olarak 50 yıl.
-
11:07 - 11:09Bu kadar zamandır iPhone var.
-
11:09 - 11:12Bu kadar zamandır "The Simpsons"
(Simpsonlar) televizyonda. -
11:13 - 11:1550 yıl, türümüzün karşılaşabileceği
-
11:15 - 11:18en büyük zorluklar için
fazla bir zaman değil. -
11:20 - 11:24Bir defa daha uygun duygusal karşılık
vermede başarısız gibiyiz, -
11:24 - 11:26yaklaştığına inanmamız için
tüm gerekçelere sahipken. -
11:26 - 11:30Bilgisayar bilimcisi Stuart Russell'ın
güzel bir benzetimi var. -
11:30 - 11:35Diyor ki; uzaylı bir medeniyetten
bir mektup aldığımızı düşünün, -
11:35 - 11:37şöyle diyor:
-
11:37 - 11:39"Dünya Halkı,
-
11:39 - 11:4150 yıl içinde gezegeninize ulaşacağız.
-
11:42 - 11:43Hazırlanın."
-
11:43 - 11:48Ve şimdi, ana gemi varana kadar
ay ay geri mi sayacağız? -
11:48 - 11:51Normalden biraz daha fazla
aciliyet hissederdik. -
11:53 - 11:54Endişelenmememiz söylenen
-
11:54 - 11:55bir diğer gerekçe ise
-
11:55 - 11:58bu makinelerin istemeden bizim
değerlerimizi paylaşacak -
11:58 - 12:00olmaları, çünkü
bizim devamımız gibi olacaklar. -
12:00 - 12:02Beyinlerimize aşılanacaklar
-
12:02 - 12:04ve temelde onların limbik
sistemi olacağız. -
12:05 - 12:07Şimdi bir dakikanızı ayırın ve
-
12:07 - 12:10önümüzdeki en sağlam ve ihtiyatlı yolun,
-
12:10 - 12:11önerilenin, bu teknolojiyi
-
12:11 - 12:12direkt olarak beyinlerimize
-
12:12 - 12:15yerleştirmek olduğunu değerlendirin.
-
12:15 - 12:18Belki de bu, önümüzdeki en güvenli
ve özenli yol olabilir -
12:18 - 12:21ama genelde kişinin teknoloji hakkındaki
güvenlik endişelerinin -
12:21 - 12:25kafasının içine bir şey yerleştirmeden
çözülmesi gerekir. -
12:25 - 12:27(Kahkahalar)
-
12:27 - 12:32Daha derindeki problem ise süper zeki
YZ geliştirmek başlı başına -
12:32 - 12:34daha kolay gibi görünüyor,
-
12:34 - 12:36sorunsuzca zihinlerimizle entegre
-
12:36 - 12:38olabilen tamamlanmış sinirbilimli
-
12:38 - 12:40bir yapay zekâ geliştirmektense.
-
12:41 - 12:44Ve farz edelim ki devletlerin ve
şirketlerin bunu yapıyorken -
12:44 - 12:48birbirleriyle yarış
içerisindeymişçe algılamaları -
12:48 - 12:51ve bu yarışı kazanmalarının da
dünyayı kazanmak sanmaları, -
12:51 - 12:53peşi sıra mahvetmemek şartıyla,
-
12:53 - 12:56sonrasında hangisi en kolaysa
-
12:56 - 12:58ilk o yapılacakmış gibi görünüyor.
-
12:59 - 13:01Şu an ne yazık ki bu soruna bir
çözümüm yok, -
13:01 - 13:04çoğumuza bunu düşünmeyi önermek dışında.
-
13:04 - 13:06Yapay Zekâ konusunda Manhattan
Projesi gibi -
13:06 - 13:08bir şeye ihtiyacımız var.
-
13:09 - 13:10Geliştirmek için değil, çünkü
-
13:10 - 13:12kaçınılamaz bir şekilde
yapacağız bana göre, -
13:12 - 13:15ama silahlanma yarışından
nasıl kaçıncağımızı anlamak -
13:15 - 13:18ve menfaatlerimiz doğrultusunda
inşa etmek için. -
13:18 - 13:20Süper zeki YZ 'nın kendi
başına değişiklikler -
13:20 - 13:23yapabileceğinden bahsederken,
-
13:23 - 13:27ana koşulları doğru anlamada tek
şansımız varmış gibi görünüyor -
13:27 - 13:29ve o zaman dahi bunları doğru anlamanın
-
13:29 - 13:32siyasi ve ekonomik sonuçlarını
özümsememiz gerekecektir. -
13:34 - 13:36Bilgi işlemenin yapay zekânın
-
13:36 - 13:40kaynağı olduğunu kabul ettiğimiz an,
-
13:41 - 13:46bu bazı uygun hesaplama sistemlerinin
zekânın temeli olduğunu -
13:46 - 13:50ve bu sistemleri aralıksız
geliştireceğimizi kabul ettiğimizde -
13:51 - 13:56ve bilişin ufkunun bildiğimizden
daha uzaklara uzandığını -
13:56 - 13:57kabul ettiğimizde,
-
13:58 - 13:59bir çeşit yaratıcı
-
13:59 - 14:01geliştirme sürecinde olduğumuzu
-
14:01 - 14:03kabul etmek durumunda olacağız.
-
14:03 - 14:06Şu an ise bu yaratıcıyla
yaşayabilme durumumuza -
14:06 - 14:07karar vermek için doğru zaman olabilir.
-
14:08 - 14:10Çok teşekkürler.
-
14:10 - 14:15(Alkışlar)
- Title:
- Kontrolü kaybetmeden Yapay Zekâ üretebilir miyiz?
- Speaker:
- Sam Harris
- Description:
-
Süper zeki Yapay Zekâ'dan korkuyor musunuz? Sinirbilimci ve filozof Sam Harris, Korkmalısın! --ve sadece teorik olarak değil-- diyor. İnsanüstü makineler üreteceğiz ancak karıncalara davrandığımız gibi bizlere de aynı şekilde davranabilecek bir şeyi üretmeyle ilgili sorunlarla henüz boğuşmadık diyor Harris.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Eren Gokce approved Turkish subtitles for Can we build AI without losing control over it? | |
![]() |
Eren Gokce edited Turkish subtitles for Can we build AI without losing control over it? | |
![]() |
Yunus ASIK accepted Turkish subtitles for Can we build AI without losing control over it? | |
![]() |
Yunus ASIK edited Turkish subtitles for Can we build AI without losing control over it? | |
![]() |
Yunus ASIK edited Turkish subtitles for Can we build AI without losing control over it? | |
![]() |
pinar sadi edited Turkish subtitles for Can we build AI without losing control over it? | |
![]() |
pinar sadi edited Turkish subtitles for Can we build AI without losing control over it? | |
![]() |
pinar sadi edited Turkish subtitles for Can we build AI without losing control over it? |