Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor
-
0:01 - 0:05Bilgisayar programcısı olarak
ilk çalışmaya başladığımda -
0:05 - 0:07üniversite birinci sınıftaydım,
-
0:07 - 0:08yani yeni yetme sayılırdım.
-
0:09 - 0:11Bir şirkette program yazma göreviyle
-
0:11 - 0:12işe girdikten kısa süre sonra
-
0:13 - 0:16şirkette çalışan bir müdür yanıma geldi
-
0:16 - 0:18ve fısıltıyla sordu:
-
0:18 - 0:21"Yalan söylediğimi anlayabilir mi?"
-
0:22 - 0:24Odada başka kimse yoktu.
-
0:25 - 0:29"Yalanı kim anlayabilir mi?
Ayrıca neden fısıldaşıyoruz?" dedim. -
0:30 - 0:33Müdür, odada bulunan bilgisayarı gösterdi.
-
0:33 - 0:36"Yalan söyleyip söylemediğimi anlar mı?"
-
0:38 - 0:42Bu müdür danışmada çalışan
biriyle ilişki yaşıyordu. -
0:42 - 0:43(Gülüşmeler)
-
0:43 - 0:45Ben de yeni yetmeyim tabii.
-
0:45 - 0:47Fısıltıyla bağırır gibi cevap verdim:
-
0:47 - 0:51"Evet, yalan söylerseniz
bilgisayar anlar." dedim. -
0:51 - 0:53(Gülüşmeler)
-
0:53 - 0:56Gülüyordum ama aslında
gülünmesi gereken bendim. -
0:56 - 0:59Günümüzde insan yüzlerini
-
0:59 - 1:03işlemden geçirerek ruh hâlini
ve hatta yalan söylediğini -
1:03 - 1:05tespit eden bilgisayar programları var.
-
1:05 - 1:09Reklamcılar, hatta devletler de
çok ilgi duyuyor. -
1:10 - 1:12Matematik ve fen bilgisini çok seven
-
1:12 - 1:15bir çocuk olduğum için
bilgisayar programcısı olmuştum. -
1:16 - 1:19Fakat o sıralarda
nükleer silahlara dair bilgi edinmiş -
1:19 - 1:22ve bilim etiğine de
çok ilgi duymaya başlamıştım. -
1:22 - 1:23Sorunlarım vardı.
-
1:23 - 1:26Ne yazık ki ailevi durumlar yüzünden
-
1:26 - 1:29mümkün olduğu kadar çabuk
işe girmem gerekiyordu. -
1:29 - 1:33Kendi kendime düşündüm;
kolaylıkla iş bulabileceğim -
1:33 - 1:34teknik bir alan seçeyim ki
-
1:34 - 1:38sıkıcı etik problemlerle
uğraşmak zorunda kalmayayım dedim. -
1:39 - 1:41Böylelikle bilgisayarı seçtim.
-
1:41 - 1:42(Gülüşmeler)
-
1:42 - 1:45Ha, ha, ha!
Herkes bana gülüyordur. -
1:45 - 1:48Günümüzde bilgisayar uzmanları
her gün milyarlarca insanın -
1:48 - 1:52göreceği şeyleri kontrol eden
programlar kuruyor. -
1:53 - 1:57Kime çarpacağına karar verebilecek
arabalar geliştiriyorlar. -
1:58 - 2:01Savaşta insanları öldürecek türden
-
2:01 - 2:03makineler, silahlar bile geliştiriyorlar.
-
2:03 - 2:06Etik tamamen ortadan kalkıyor.
-
2:07 - 2:09Makine zekâsı işin içinde.
-
2:10 - 2:13Artık herhangi bir karar verirken
bilgisayar kullanıyoruz, -
2:13 - 2:15üstelik yeni kararlar alırken bile.
-
2:15 - 2:20Bilgisayara tek bir doğru
cevabı olmayan, öznel, -
2:20 - 2:22açık uçlu ve değer yüklü
-
2:22 - 2:24sorular soruyoruz.
-
2:24 - 2:26Mesela şu gibi sorular:
-
2:26 - 2:27"Şirket kimi işe almalı?"
-
2:28 - 2:31"Hangi arkadaştan
hangi güncellemeyi görmelisiniz?" -
2:31 - 2:33"Hangi mahkûm tekrar suç işlemeye yatkın?"
-
2:34 - 2:37"İnsanlara hangi haber ya da film
tavsiye edilmeli?" -
2:37 - 2:40Bakın, evet bir süredir bilgisayar
kullanıyoruz, -
2:40 - 2:42ama bu farklı bir durum.
-
2:42 - 2:44Bu tarihi bir hata,
-
2:44 - 2:49çünkü böyle öznel kararlarda
bilgisayara güvenemeyiz, -
2:49 - 2:54bilgisayara uçak uçurmada,
köprü inşa etmede, aya gitmede -
2:54 - 2:56güvendiğimiz gibi güvenemeyiz.
-
2:56 - 3:00Uçaklar daha güvenli mi?
Köprü sallanıp çöker miydi? -
3:00 - 3:04Burada üzerinde anlaşılan, açık ölçütler
ve bize yol gösteren doğa kanunları -
3:04 - 3:06olduğu konusunda hemfikiriz.
-
3:07 - 3:10Karmaşık insan ilişkilerinde
karar verirken -
3:10 - 3:14bu tür dayanak ve ölçütler yok.
-
3:14 - 3:18İşleri daha çetrefilli hâle getirmek için
yazılımımız gittikçe güçleniyor, -
3:18 - 3:22fakat aynı zamanda daha az şeffaflaşıp
daha karmaşık oluyor. -
3:23 - 3:25Son on yıl içerisinde,
-
3:25 - 3:27kompleks algoritmalar
büyük aşamalar katetti. -
3:27 - 3:29İnsan yüzlerini tanıyabiliyorlar.
-
3:30 - 3:32El yazılarını çözebiliyorlar.
-
3:32 - 3:35Kredi kartı dolandırıcılığını
tespit edip -
3:35 - 3:36spam postaları engelliyor
-
3:36 - 3:38ve diller arası çeviri yapabiliyorlar.
-
3:38 - 3:40Tıbbi görüntülemelerde tümörleri
teşhis edebiliyorlar. -
3:40 - 3:43Go ve satrançta insanları yenebiliyorlar.
-
3:43 - 3:48Bu gelişmelerin çoğu "makine öğrenimi"
denilen bir yöntemden geliyor. -
3:48 - 3:51Makine öğrenimi, bilgisayara
detaylı, doğru ve itinalı -
3:51 - 3:55talimatlar verdiğiniz
geleneksel programlamadan farklıdır. -
3:55 - 4:00Daha çok sistemi kavrayıp onu
dijital yaşamlarımızda ürettiğimiz türden -
4:00 - 4:01yapısal olmayan veri dahil
-
4:01 - 4:04bir sürü veriyle desteklemeniz gibidir.
-
4:04 - 4:06Sistem bu bilgileri baştan sona
karıştırarak öğrenir. -
4:07 - 4:08Ayrıca en önemlisi
-
4:08 - 4:13bu sistemlerin tek cevaplı
mantıkla çalışmadığıdır. -
4:13 - 4:16Tek bir cevap üretmezler,
daha çok olasılık vardır: -
4:16 - 4:19"Belki de aradığınız şey bu olabilir."
-
4:20 - 4:23Şimdi avantajı şu:
Bu yöntem gerçekten çok güçlüdür. -
4:23 - 4:25Google'ın Yapay Zeka'sının dediği gibi
-
4:25 - 4:27"verinin akıl almaz etkinliği"dir.
-
4:28 - 4:29Dezavantajı ise,
-
4:30 - 4:33sistemin ne öğrendiğini
tam olarak anlamıyor olmamızdır. -
4:33 - 4:34Aslında bu onun gücü.
-
4:35 - 4:39Bu, bir bilgisayara
talimat vermek gibi değildir; -
4:39 - 4:43nasıl kontrol edeceğimizi bilmediğimiz
bir içecek sıkma makinesini -
4:43 - 4:46çalıştırmak gibidir.
-
4:46 - 4:48Yani sorunumuz bu.
-
4:48 - 4:53Yapay zeka sistemi bir şeyleri
yanlış anladığında problem olur. -
4:53 - 4:56Aynı zamanda doğru anladığında da
problem olur, -
4:56 - 5:00çünkü öznel bir problem olduğunda
hangisinin hangisi olduğunu bilmiyoruz. -
5:00 - 5:02Bu şeyin ne düşündüğünü bile bilmiyoruz.
-
5:03 - 5:07Şimdi, insanları işe almak için kullanılan
-
5:08 - 5:12makine öğrenimi sistemlerinden yararlanan
bir işe alım algoritma sistemi düşünün. -
5:13 - 5:17Böyle bir sistem önceki
çalışanların verilerine ayarlı -
5:17 - 5:19ve şirketteki yüksek performansı olan
-
5:19 - 5:22çalışanlar gibi insanlar bulmaya ve
işe almaya kurulmuş olmalı. -
5:23 - 5:24İyi fikir.
-
5:24 - 5:26Bir keresinde bir konferansa katıldım,
-
5:26 - 5:29işe alımda bu sistemi kullanan
insan kaynakları uzmanları ile -
5:29 - 5:30yöneticileri,
-
5:30 - 5:32üst düzey insanları buluşturuyordu.
-
5:32 - 5:34Çok heyecanlıydılar.
-
5:34 - 5:38Bu yöntemin işe alımı daha nesnel,
daha az ön yargılı yapacağını -
5:38 - 5:41ve kadın ve azınlıkları ön yargılı
insan kaynakları karşısında -
5:41 - 5:44daha şanslı hâle getireceğini
düşünüyorlardı. -
5:44 - 5:46İşe alımda ön yargılı davranılır.
-
5:47 - 5:48Biliyorum.
-
5:48 - 5:51Yani, programcı olarak çalıştığım ilk
işlerimden birinde -
5:51 - 5:55ilk patronum bazen sabah çok erken ya da
-
5:55 - 5:59öğleden sonra çok geç saatlerde
yanıma gelir -
5:59 - 6:02ve "Zeynep, hadi yemeğe çıkalım!" derdi.
-
6:03 - 6:05Garip zamanlamasına şaşırırdım.
-
6:05 - 6:07Saat dört. Öğle yemeği mi?
-
6:07 - 6:10Param yoktu, bedava öğle yemeği vardı.
Her zaman giderdim. -
6:11 - 6:13Neler olduğunu daha sonraları anladım.
-
6:13 - 6:17Amirlerim kendi üst düzey müdürlerine
çok ciddi bir iş için -
6:17 - 6:20işe aldıkları programcının
kot pantolon ve spor ayakkabı giyen -
6:20 - 6:24yeni yetme bir kız olduğunu
söylememişlerdi. -
6:25 - 6:27İyi iş çıkarıyordum,
ama yanlış görünüyordum, -
6:27 - 6:29yanlış yaşta ve cinsiyetteydim.
-
6:29 - 6:32Dolayısıyla cinsiyet ve ırk
gözetilmeksizin işe alım -
6:32 - 6:34bence kesinlikle iyi fikir.
-
6:35 - 6:38Ancak bu sistemlerle konu
daha karmaşık oluyor, nedeni şu: -
6:39 - 6:45Şimdilerde bilgisayar sistemleri
paylaşmadığınız şeyler bile olsa -
6:45 - 6:47dijital kırıntılarınızdan
-
6:47 - 6:49hakkınızda birçok çıkarım yapabilir.
-
6:50 - 6:52Cinsel yöneliminizi,
-
6:53 - 6:54kişilik özelliklerinizi,
-
6:55 - 6:56siyasi görüşünüzü anlayabiliyor.
-
6:57 - 7:01Yüksek doğruluk oranlı öngörü güçleri var.
-
7:01 - 7:04Unutmayın - paylaşmadığınız
şeyleri bile. -
7:04 - 7:06Bu, çıkarımda bulunmaktır.
-
7:06 - 7:09Sosyal medya verilerinden
klinik depresyon veya -
7:09 - 7:13doğum sonrası depresyon ihtimalini
öngören sayısal sistemler geliştiren -
7:13 - 7:14bir arkadaşım var.
-
7:15 - 7:16Sonuçlar etkileyici.
-
7:16 - 7:20Sistem depresyon ihtimalini
semptomların başlamasından -
7:20 - 7:24aylar öncesinden öngörebiliyor,
-
7:24 - 7:25aylar öncesinden.
-
7:25 - 7:27Hiçbir semptom yok, ama öngörü var.
-
7:27 - 7:32Erken müdahalede
kullanılacağını umuyor. Muhteşem! -
7:33 - 7:35Şimdi de bunu
işe alım kavramına uygulayın. -
7:36 - 7:39Bu insan kaynakları
yöneticileri konferansında -
7:39 - 7:44büyük bir şirketin
üst düzey bir yöneticisiyle görüştüm. -
7:44 - 7:48Ona, "Peki sisteminiz size bildirmeden
-
7:48 - 7:55gelecekte yüksek depresyon ihtimali olan
insanları ayıklıyorsa? -
7:56 - 7:59Şu an psikolojik bozuklukları yok,
ancak belki ileride olabilir. -
8:00 - 8:03Peki şu an hamile olmayan ancak
gelecek bir ya da iki yıl içinde -
8:03 - 8:06hamile kalma ihtimali olan
kadınları ayıklıyorsa? -
8:07 - 8:12İş yeri kültürünüz öyle olduğu için
agresif insanları işe alıyorsa?" dedim. -
8:13 - 8:16Bunu cinsiyet analizlerine bakarak
anlayamazsınız. -
8:16 - 8:17Dengelenmiş olabilirler.
-
8:17 - 8:21Ayrıca bu geleneksel kodlama değil
makine öğrenimi olduğu için -
8:21 - 8:26"yüksek depresyon riski",
"yüksek hamilelik riski", -
8:26 - 8:28"agresiflik ölçümü" gibi
-
8:28 - 8:30etiket taşıyan değişkenler yok.
-
8:30 - 8:34Sadece sisteminizin neyi seçtiğini değil,
-
8:34 - 8:36nereden bakmaya başlayacağınızı
bile bilmiyorsunuz. -
8:36 - 8:37Bir kara kutu.
-
8:37 - 8:40Tahmin gücüne sahip ancak
onu anlamıyorsunuz. -
8:40 - 8:43"Ne güvenlikleri var?" diye sordum,
"kara kutunuzun -
8:43 - 8:47gizli bir şey yapmadığından
emin olmak için?" -
8:49 - 8:53Kuyruğuna basmışım gibi bakakaldı.
-
8:53 - 8:54(Gülüşmeler)
-
8:54 - 8:56Dik dik baktı ve
-
8:57 - 9:01"buna dair başka bir şey
duymak istemiyorum." dedi. -
9:01 - 9:03Arkasını dönüp gitti.
-
9:04 - 9:06Gerçi kaba değildi.
-
9:06 - 9:12Açıklaması şu: Bilmediğim şey benim
sorunum değil, bas git, öldürücü bakış. -
9:12 - 9:13(Gülüşmeler)
-
9:14 - 9:18Bakın böyle bir sistem bazı açılardan
insan yöneticilerden -
9:18 - 9:20daha az ön yargılı olabilir.
-
9:20 - 9:22Parasal anlam taşıyabilir.
-
9:23 - 9:24Ancak depresyon riski
-
9:24 - 9:29yüksek olan insanların iş piyasasına
istikrarlı ve gizli olarak girmesini -
9:29 - 9:31engellemeye sebep olabilir.
-
9:32 - 9:34Ne yapmış olduğumuzu bile bilmeden
-
9:34 - 9:37kurmak istediğimiz toplum modeli bu mu?
-
9:37 - 9:41Çünkü karar verme işini tam olarak
anlamadığımız makinelere bırakıyoruz. -
9:41 - 9:43Diğer bir problemse şu:
-
9:43 - 9:48Bu sistemler çoğunlukla bizim
davranışlarımızla; insan izleri tarafından -
9:48 - 9:50üretilen bilgilerle test edilir.
-
9:50 - 9:54Ön yargılarımızı yansıtıyor olabilirler.
-
9:54 - 9:58Bu sistemler ön yargılarımıza dönüp
-
9:58 - 9:59onları büyütüp
-
9:59 - 10:01bize tekrar gösteriyor olabilir,
-
10:01 - 10:02biz ise bu arada kendimize
-
10:02 - 10:05"Sadece nesnel, tarafsız hesap
yapıyoruz." diyoruz. -
10:06 - 10:09Araştırmacılar Google'da
yüksek maaşlı iş ilanlarını -
10:10 - 10:15kadınların görme ihtimalinin
erkeklerden daha az olduğunu tespit etti. -
10:16 - 10:19Afro-Amerikan isimleri araştırırken
-
10:19 - 10:24alakası olmasa bile
sabıka geçmişi ile ilgili ilanları -
10:24 - 10:25öne sürmesi daha muhtemeldir.
-
10:27 - 10:30Araştırmacıların bazen ortaya çıkardığı
ancak bazen bizim bilmediğimiz -
10:30 - 10:34bu tür gizli ön yargıların ve
kara kutu algoritmalarının -
10:34 - 10:37hayat değiştiren sonuçları var.
-
10:38 - 10:42Wisconsin'de bir sanık,
altı yıl hapse mahkûm edildi, -
10:42 - 10:43polisten kaçtığı için.
-
10:45 - 10:46Belki bilmiyorsunuzdur,
-
10:46 - 10:50algoritmaların şartlı tahliye ve ceza
kararlarında kullanımı giderek artıyor. -
10:50 - 10:53Şunu öğrenmek istiyordu:
Bu sonuç nasıl hesaplanmıştı? -
10:54 - 10:55Ticari bir kara kutu.
-
10:55 - 11:00Şirket, halka açık duruşmada
işlemlerinin sorgulanmasını reddetmişti. -
11:00 - 11:06Kâr amacı gütmeyen araştırmacı kurum
ProPublica, bu algoritmayı -
11:06 - 11:08bulabildiği kamusal verilerle inceledi
-
11:08 - 11:10ve sonuçlarının ön yargılı olduğunu,
-
11:10 - 11:14öngörü gücününse kötü, olasılıktan
biraz iyi olduğunu -
11:14 - 11:18ve siyahi sanıkları haksız yere
beyaz sanıklardan iki kat fazla bir oranla -
11:18 - 11:22geleceğin suçluları olarak
etiketlediğini bulguladı. -
11:24 - 11:25Şu olayı göz önüne alın:
-
11:26 - 11:30Bu kadın, vaftiz kardeşini Florida'nın
Broward bölgesindeki bir okuldan -
11:30 - 11:32almaya geç kalmış,
-
11:33 - 11:35bir arkadaşıyla caddede ilerliyorlar.
-
11:35 - 11:39Verandada duran kilitsiz bir
çocuk bisikleti ve bir kaydırak görüyor -
11:39 - 11:41ve düşünmeden biniyorlar.
-
11:41 - 11:44Tam yola koyulacakken
kadının biri çıkıyor ve -
11:44 - 11:46"Hey! Bu benim çocuğumun
bisikleti!" diyor. -
11:46 - 11:49Bırakıp gidiyorlar, ancak tutuklanıyorlar.
-
11:49 - 11:53Haksızdı, aptalca davranmıştı,
ama henüz 18 yaşındaydı. -
11:53 - 11:55Çocukken ciddi olmayan bir iki suç işlemişti.
-
11:56 - 12:01Bu arada, adam da Home Depot'da
hırsızlık yapmaktan tutuklanmıştı. -
12:01 - 12:0485 dolar değerinde,
benzeri bir hafif suç. -
12:05 - 12:09Ama öncesinde iki silahlı
soygun sabıkası vardı. -
12:10 - 12:13Ancak algoritma, adamı değil
kadını yüksek riskli olarak işaretledi. -
12:15 - 12:19İki yıl sonra ProPublica kadının
tekrar suç işlemediğini tespit etti. -
12:19 - 12:21Sabıka puanıyla iş bulması çok zordu.
-
12:21 - 12:23Öte yandan adam tekrar suç işlemişti
-
12:23 - 12:27ve şimdi daha sonra işlediği bir suç
yüzünden sekiz yıllık hapis cezasında. -
12:28 - 12:31Belli ki kara kutularımızı
kontrol etmemiz -
12:31 - 12:34ve onlara böyle kontrolsüz güç
vermememiz gerekiyor. -
12:34 - 12:37(Alkışlar)
-
12:38 - 12:42Kontroller önemli ve etkili,
ancak tüm sorunlarımızı çözmüyorlar. -
12:42 - 12:45Facebook'un muhteşem
haber akışı algoritmasına bakın, -
12:45 - 12:50yani takip ettiğiniz tüm arkadaşlarınız
ve sayfalardan her şeyi sıralayıp -
12:50 - 12:52size ne göstereceğine
karar veren algoritma. -
12:53 - 12:55Başka bir bebek fotoğrafı görmeli misiniz?
-
12:55 - 12:56(Gülüşmeler)
-
12:56 - 12:59Bir tanıdıktan somurtkan bir not?
-
12:59 - 13:01Önemli ama üzücü haberler?
-
13:01 - 13:03Doğru bir cevap yok.
-
13:03 - 13:05Facebook meşgul olacaklarınızı
en uygun hâle getiriyor: -
13:06 - 13:07Beğeniler, paylaşımlar, yorumlar.
-
13:08 - 13:11Ağustos 2014'te,
-
13:11 - 13:14Missouri, Ferguson'da
Afro-Amerikan bir gencin -
13:14 - 13:18beyaz bir polis tarafından şüpheli
bir şekilde öldürülmesi sonrası -
13:18 - 13:20protestolar başladı.
-
13:20 - 13:22Protesto haberleri
-
13:22 - 13:25algoritmik olarak filtrelenmeyen
Twitter akışımda vardı -
13:25 - 13:27ancak Facebook'ta hiçbir yerde yoktu.
-
13:27 - 13:29Facebook arkadaşlarım ne hâldeydi?
-
13:29 - 13:31Facebook'un algoritmasını
devre dışı bıraktım, -
13:31 - 13:34ki bu çok zordur, çünkü Facebook
sizi algoritmanın -
13:34 - 13:36kontrolü altında tutmak ister.
-
13:36 - 13:39Baktım ki arkadaşlarım da
bunu konuşuyor. -
13:39 - 13:41Bunu bana göstermeyen
algoritmanın ta kendisiydi. -
13:41 - 13:44Bunu araştırdım ve
yaygın bir problem olduğunu gördüm. -
13:44 - 13:48Ferguson haberi algoritma dostu değildi.
-
13:48 - 13:49"Beğenilebilir" değildi.
-
13:49 - 13:51Kim "beğen"e tıklayacaktı?
-
13:52 - 13:54Yorum yapılması bile kolay değildi.
-
13:54 - 13:55Beğeniler ve yorumlar olmayınca
-
13:55 - 13:58algoritma bunu daha az insana
gösteriyor olmalıydı, -
13:58 - 14:00dolayısıyla görmüyorduk.
-
14:01 - 14:02Onun yerine, o hafta
-
14:02 - 14:04Facebook'un algoritması
şunu ön plana çıkardı: -
14:05 - 14:07ALS Buz Kovası Düellosu.
-
14:07 - 14:11İyi bir sebep; buzlu su dök,
bağış yap, tamam. -
14:11 - 14:12Fakat süper algoritma dostuydu.
-
14:13 - 14:16Makine bu kararı bizim için almıştı.
-
14:16 - 14:19Facebook tek kanal olsaydı
çok önemli ancak -
14:19 - 14:21etkili bir sohbet
-
14:21 - 14:24engellenmiş olabilirdi.
-
14:24 - 14:28Şimdi sonuç olarak bu sistemler
insan sistemlerine -
14:28 - 14:31benzememesi bakımından da
yanlış olabilir. -
14:31 - 14:34Watson'ı hatırlıyor musunuz?
IBM'in Riziko'da -
14:34 - 14:37insan rakiplerini yenilgiye uğratan
makine zekâsı sistemini? -
14:37 - 14:39Harika bir oyuncuydu.
-
14:39 - 14:42Ancak o zaman, Riziko'nun finalinde
Watson'a şu soru soruldu: -
14:43 - 14:46"En büyük havaalanı adını İkinci
Dünya Savaşı kahramanından alır, -
14:46 - 14:48ikincisi İkinci Dünya Savaşı savaşından.
-
14:48 - 14:49(Final Riziko müziği çalar)
-
14:50 - 14:51Chicago.
-
14:51 - 14:52İki insan soruyu doğru anladı.
-
14:53 - 14:57Buna karşın Watson,
Birleşik Devletler şehri olarak -
14:57 - 14:59"Toronto" cevabını verdi.
-
15:00 - 15:02Bu etkileyici sistem
-
15:03 - 15:06bir insanın, ikinci sınıfa giden birinin
asla yapmayacağı bir hata yapmıştı. -
15:07 - 15:10Makine zekâmız
-
15:10 - 15:13insanların hata şekline
uymayan şekilde, -
15:13 - 15:16beklemediğimiz ve hazırlıksız olduğumuz
şekilde hata yapabilir. -
15:16 - 15:20Kalifiye biri için işe alınmamak
kötü olabilirdi, -
15:20 - 15:23fakat bu, bazı alt programlarda
bellek dolu dediği için oluyorsa -
15:23 - 15:25üç kat daha kötü olurdu.
-
15:25 - 15:27(Gülüşmeler)
-
15:27 - 15:29Mayıs 2010'da
-
15:29 - 15:33Wall Steet'te olan Wall Street'in
"satış" algoritmalarını -
15:33 - 15:36bir geri bildirim döngüsünün
körüklediği ani bir düşüş -
15:36 - 15:4136 dakika içinde trilyon dolarları sildi.
-
15:42 - 15:44Ölümcül otonom silahlar bağlamında
-
15:44 - 15:48"hata yapmak" ne demek bunu
düşünmek bile istemiyorum. -
15:50 - 15:54Evet, insanlar her zaman
ön yargıda bulunur. -
15:54 - 15:56Karar vericiler ve geçit deneticiler
-
15:56 - 15:59mahkemelerde, haberlerde, savaşlarda...
-
15:59 - 16:02Hata yaparlar; işte benim
asıl dikkat çekmek istediğim bu. -
16:02 - 16:06Bu zor sorulardan kaçamayız.
-
16:07 - 16:10Kendi sorumluluklarımızı
makinelere yaptıramayız. -
16:11 - 16:15(Alkışlar)
-
16:17 - 16:22Yapay zekâ bize "etikten kurtul geç"
kartı vermiyor. -
16:23 - 16:26Veri uzmanı Fred Benenson
buna matematiksel yıkama diyor. -
16:26 - 16:28Tam tersine ihtiyacımız var.
-
16:28 - 16:33Algoritmayı şüphe, gözlem ve
inceleme ile desteklemeliyiz. -
16:33 - 16:37Algoritmik izlenebilirlik, denetim ve
-
16:37 - 16:39anlamlı şeffaflığımız olduğundan
emin olmamız gerek. -
16:39 - 16:43Matematik ve programlamayı
karmaşık, değer yüklü -
16:43 - 16:46insani ilişkilere uygulamanın
-
16:46 - 16:48nesnellik getirmeyeceğini
kabul etmemiz gerekiyor; -
16:48 - 16:52aksine, insan ilişkilerinin karmaşıklığı
algoritmaları ele geçiriyor. -
16:52 - 16:56Tabii ki daha iyi kararlar almamız için
bilgisayar kullanabiliriz, -
16:56 - 16:58kullanmalıyız da.
-
16:58 - 17:03Ancak doğru karar vermek için,
ahlaki sorumluluk alıp -
17:03 - 17:06algoritmaları bu çerçevede
kullanmak zorundayız, -
17:06 - 17:11insan olarak birbirimize karşı olan
sorumluluklarımızı üstümüzden atıp -
17:11 - 17:14dış kaynaktan temin etmenin
bir yolu gibi görmemeliyiz. -
17:14 - 17:16Makine zekâsı işte böyledir.
-
17:16 - 17:20Bu demektir ki, insani değerlere ve etiğe
-
17:20 - 17:22hiç olmadığı kadar
sıkı sarılmamız gerekiyor. -
17:22 - 17:23Teşekkür ederim.
-
17:23 - 17:28(Alkışlar)
- Title:
- Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor
- Speaker:
- Zeynep Tüfekçi
- Description:
-
more » « less
Makine zekâsı devrede ve bunu çoktandır öznel kararlar verirken bile kullanıyoruz. Fakat Yapay Zekâ'nın kompleks yapısı ve gelişimi, onu anlamayı hatta kontrol etmeyi bile zorlaştırıyor. Bu uyarı niteliğindeki konuşmasında tekno-sosyolojist Zeynep Tüfekçi, zeki makinelerin insanın yapmayacağı, ummadığımız ve hazırlıksız olduğumuz hatalara nasıl düşebildiğini açıklıyor. Tüfekçi, "Kendi sorumluluklarımızı makinelere atamayız, insani değerlere ve etiğe hiç olmadığı kadar bağlı kalmalıyız." diyor.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
|
Eren Gokce approved Turkish subtitles for Machine intelligence makes human morals more important | |
|
Eren Gokce edited Turkish subtitles for Machine intelligence makes human morals more important | |
|
Eren Gokce edited Turkish subtitles for Machine intelligence makes human morals more important | |
|
Eren Gokce edited Turkish subtitles for Machine intelligence makes human morals more important | |
| Cihan Ekmekçi accepted Turkish subtitles for Machine intelligence makes human morals more important | ||
| Cihan Ekmekçi edited Turkish subtitles for Machine intelligence makes human morals more important | ||
| Cihan Ekmekçi edited Turkish subtitles for Machine intelligence makes human morals more important | ||
|
Selda Yener edited Turkish subtitles for Machine intelligence makes human morals more important |

