Youtube'daki çocuk videoları kabusu ve günümüzde internetin sorunu
-
0:01 - 0:02Benim adım James.
-
0:02 - 0:04Yazar ve sanatçıyım
-
0:04 - 0:06ve teknoloji alanında çalışıyorum.
-
0:06 - 0:08Dünyanın farklı şehirlerinde
-
0:08 - 0:12askeri dronların tam boyutlu taslaklarını
çizmek gibi işler yapıyorum; -
0:12 - 0:15görmesi ve düşünmesi
oldukça zor olan bu teknolojileri -
0:15 - 0:19insanlar düşünmeye
ve anlamaya başlasın diye. -
0:19 - 0:23Seçim sonuçlarını hava durumuna
dayanarak tahmin eden -
0:23 - 0:25nöronal devreler gibi şeyler yapıyorum,
-
0:25 - 0:27çünkü bu garip yeni teknolojilerin
-
0:27 - 0:30asıl potansiyellerinin ne olduğu
konusuna çok merak duyuyorum. -
0:31 - 0:34Geçen yıl, kendi kendine
giden arabamı yaptım. -
0:34 - 0:36Ama teknolojiye pek güvenmediğim için
-
0:36 - 0:38ona bir tuzak da hazırladım.
-
0:39 - 0:40(Kahkaha)
-
0:40 - 0:44Bu şeyleri yapmamın asıl nedeni
onları fazlasıyla ilginç bulmam -
0:44 - 0:47ama öyle düşünüyorum ki
teknolojiden bahsettiğimizde -
0:47 - 0:49büyük oranda kendimizden
-
0:49 - 0:52ve dünyayı anlayış
şeklimizden bahsediyoruz. -
0:52 - 0:54İşte teknolojiyle ilgili bir hikaye.
-
0:56 - 0:58Bu bir "sürpriz yumurta" videosu.
-
0:58 - 1:02Birisinin bir sürü
çikolotadan yumurtayı açıp -
1:02 - 1:04içlerindeki oyuncakları
izleyiciye gösterdiği bir video. -
1:04 - 1:07Bu kadar. Yedi uzun dakika
boyunca olan tek şey bu. -
1:07 - 1:10Bununla ilgili iki şeyi
fark etmenizi istiyorum. -
1:11 - 1:15İlk olarak, bu videonun
30 milyon görüntülenmesi var. -
1:15 - 1:16(Kahkaha)
-
1:16 - 1:18Diğer şey şu,
-
1:18 - 1:216,3 milyon abonesi, toplamda sekiz
milyar görüntülenmesi olan -
1:21 - 1:24bir kanaldan geliyor
-
1:24 - 1:27ve kanaldaki bütün videolar böyle --
-
1:28 - 1:32adamın birinin bu yumurtaları açmasını
izleyen 30 milyon insan. -
1:32 - 1:37Kulağa garip geliyor ama Youtube'da
"sürpriz yumurta"yı aratırsanız -
1:37 - 1:40size bu videolardan
10 milyon tane olduğunu söyler -
1:40 - 1:42ve bence bu sayı düşük.
-
1:42 - 1:44Bence bu videolardan çok daha fazla var.
-
1:44 - 1:46Eğer aramaya devam ederseniz sonu gelmez.
-
1:46 - 1:50Marka ve ürünlere ilişkin giderek artan
abartı kombinasyonlarda -
1:50 - 1:52bu videolardan milyonlarca var
-
1:52 - 1:56ve her geçen gün
daha da fazlası yükleniyor. -
1:56 - 1:59Garip bir dünya.
-
1:59 - 2:03Ama asıl önemli kısım şu,
bu videoları izleyenler yetişkinler değil. -
2:03 - 2:06Çocuklar, küçük çocuklar.
-
2:06 - 2:08Bu videolar sanki çocuklara
özel uyuşturucu. -
2:08 - 2:10Tekrarlanma ile ilgili bir şey var,
-
2:10 - 2:12onları tamamen bağımlı yapan,
yumurtadan çıkanın -
2:12 - 2:14sabit küçük dopamin vuruşlarıyla ilgili.
-
2:14 - 2:19Küçük çocuklar bu videoları
tekrar tekrar izliyorlar -
2:19 - 2:21ve bunu saatlerce yapıyorlar.
-
2:21 - 2:24Ekranı onlardan
uzaklaştırmaya çalışırsanız -
2:24 - 2:26durmadan bağıracaklardır.
-
2:26 - 2:27Eğer bana inanmıyorsanız
-
2:27 - 2:29-ki seyircilerden
başıyla onaylayanları gördüm- -
2:29 - 2:33inanmıyorsanız küçük çocuğu
olan birini bulup sorun, -
2:33 - 2:35sürpriz yumurta videolarını bileceklerdir.
-
2:35 - 2:37İşte burada başlıyoruz.
-
2:37 - 2:41Yıl 2018, birisi veya birçok kişi,
Facebook ve Instagram'ın kullandığı, -
2:41 - 2:45sizde bu uygulamaları sürekli
kontrol etme ihtiyacı uyandıran -
2:45 - 2:47o mekanizmanın aynısını kullanıyor.
-
2:47 - 2:51Bunu çok küçük çocukların
beyinlerini ele geçirmek için -
2:51 - 2:53Youtube'da reklam geliri
karşılığında kullanıyorlar. -
2:54 - 2:56En azından, umarım yaptıkları budur.
-
2:56 - 2:58Umarım bunun için yapıyorlardır
-
2:58 - 3:04çünkü Youtube'da reklamdan gelir
elde etmenin daha kolay yolları var. -
3:04 - 3:06Bir şeyler uydurabilir
ya da çalabilirsiniz. -
3:06 - 3:09Eğer "Pegga Pig" veya "Paw Petrol" gibi
-
3:09 - 3:10popüler çizgi filmleri ararsanız
-
3:10 - 3:14internet üzerinde bunlardan
milyonlarcasını bulabilirsiniz. -
3:14 - 3:17Tabii ki bunların çoğu orjinal içerik
yaratıcıları tarafından konulmaz. -
3:17 - 3:20Rastgele birçok farklı hesap
tarafından konuluyorlar -
3:20 - 3:22ve bunları kimin koyduğunu
-
3:22 - 3:24veya amaçlarının ne olduğunu
bilmek imkânsız. -
3:24 - 3:26Tanıdık geldi mi?
-
3:26 - 3:28Çünkü dijital hizmetlerin çoğunda var olan
-
3:28 - 3:31mekanizmanın tamamen aynısı bu,
-
3:31 - 3:34bilginin nereden geldiğini
bilmek imkânsız. -
3:34 - 3:36Bu resmen çocuklar için sahte haber
-
3:36 - 3:38ve onları doğduklarından itibaren
-
3:38 - 3:41önlerine gelen ilk linke
tıklamaları için eğitiyoruz, -
3:41 - 3:43kaynağının ne olduğunu
bile umursamadan. -
3:43 - 3:45Bu çok da iyi bir fikir gibi durmuyor.
-
3:46 - 3:49YouTube'da gerçekten sevilen
bir diğer şey daha var. -
3:49 - 3:51İsmi "Parmak Ailesi Şarkısı."
-
3:51 - 3:53Seyircilerden birinin sızlandığını duydum.
-
3:53 - 3:55Bu "Parmak Ailesi Şarkısı."
-
3:55 - 3:57Bu bulabildiklerim arasında en eskisi.
-
3:57 - 4:002007 yılında yüklenmiş
ve sadece 200.000 kez izlenmiş, -
4:00 - 4:02ki bu, nerdeyse bu platformda hiç demek.
-
4:02 - 4:04Ama insanı deli eden
ve diline dolanan bir melodisi var, -
4:04 - 4:06bunu size dinletmeyeceğim
-
4:06 - 4:08çünkü şarkı beyninize kazınacak,
-
4:08 - 4:11tıpkı benim beynime kazındığı gibi
-
4:11 - 4:12ve sizi buna maruz bırakmayacağım.
-
4:12 - 4:14Aynı sürpriz yumurtalar gibi
-
4:14 - 4:16çocukların aklına girerek
-
4:16 - 4:18onları buna bağımlı yaptılar.
-
4:18 - 4:20Böylece birkaç yıl içinde,
bu parmak ailesi videoları -
4:20 - 4:21her yerde görünmeye başladı
-
4:21 - 4:24ve farklı dillerde
-
4:24 - 4:26popüler çizgi filmlerin yiyecek
-
4:26 - 4:28hatta her çeşit animasyon
malzemesini kullandıkları -
4:28 - 4:31versiyonları etrafa yayıldı.
-
4:31 - 4:36Yine aynı şekilde, bu tür çılgınca
kombinasyonlardan oluşan -
4:36 - 4:40milyonlarca video internette mevcut.
-
4:40 - 4:42Onlarla ne kadar vakit geçirirseniz
-
4:42 - 4:46delirdiğinize dair inancınız
o kadar artar. -
4:46 - 4:49Ben de bu noktada bu konuya yöneldim,
-
4:49 - 4:53çevremde sunuluyor gibi görünen bu şeyin
-
4:53 - 4:57nasıl inşa edildiğini asla anlayamama
ve derin yabancılaşma hissi. -
4:57 - 5:00Çünkü bu şeylerin nereden
geldiğini bilmek imkânsız. -
5:00 - 5:01Yani, kim yapıyor bunları?
-
5:01 - 5:04Bazıları profesyonel animatör
ekiplerle yapılmış gibi duruyor. -
5:05 - 5:07Bazıları sadece yazılım tarafından
rastgele birleştirilmiş. -
5:07 - 5:12Bazıları oldukça sağlıklı görünen
küçük çocuk şovmenleri. -
5:12 - 5:13Ve bazıları da...
-
5:13 - 5:16kesinlikle çocukların etrafında
bulunmaması gereken insanlardan. -
5:16 - 5:18(Gülme sesleri)
-
5:19 - 5:24Bir kez daha, bu şeyleri yapanın
kim olduğunu çözmenin imkansızlığı-- -
5:24 - 5:25Bu bir robot mu?
-
5:25 - 5:27Bu bir insan mı? Bir trol mü?
-
5:28 - 5:30Artık bu şeylerin farkını
söyleyemiyor olmamız -
5:30 - 5:31ne anlama gelir?
-
5:32 - 5:36Peki bu belirsizlik tanıdık geliyor mu?
-
5:38 - 5:41Yani, insanların videolarını
izletmelerinin tek yolu -
5:41 - 5:42-ki izlenme sayısı para demek-
-
5:42 - 5:47bu tür popüler terimleri
videolarının başlığına sıkıştırmak. -
5:47 - 5:49Mesela "sürpriz yumurta"yı alır,
-
5:49 - 5:51"Paw Patrol" veya
"Easter egg"i eklersiniz, -
5:51 - 5:52ya da bu şeyler her neyse,
-
5:52 - 5:55popüler videolardaki bu kelimeleri
alır ve başlığına eklersiniz, -
5:55 - 5:58ta ki insanlara hiçbir anlam ifade etmeyen
-
5:58 - 6:01bu tür anlamsız bir karma dil
elde edene dek. -
6:01 - 6:04Çünkü tabii ki sizin videonuzu
izleyenler sadece ufacık çocuklar, -
6:04 - 6:06onlar ne biliyorlar ki?
-
6:06 - 6:09Sizin bu şey için asıl seyirciniz yazılım.
-
6:09 - 6:11Algoritmalar.
-
6:11 - 6:12Youtube'un hangi videoların
-
6:12 - 6:14diğerleri gibi olduğunu seçmek için
-
6:14 - 6:17onları popüler ve önerilen
video yapmak için kullandığı yazılım. -
6:17 - 6:21Tamamıyla anlamsız olan bu karışımla
sonuçlanmanızın nedeni de bu, -
6:21 - 6:23hem başlık hem içerik olarak.
-
6:24 - 6:26Ama önemli olan, hatırlamalısınız ki
-
6:26 - 6:30algoritmik olarak en iyi hâle getirilen
bu sistemin içinde gerçekten insanlar var. -
6:30 - 6:33Giderek garipleşen bu kelime
kombinasyonlarını -
6:33 - 6:36canlandırmaya zorlanan insanlar,
-
6:36 - 6:41tıpkı yürümeye yeni başlayan milyonlarca
bebeğin çığlığına karşılık veren -
6:41 - 6:44umutsuz bir doğaçlama sanatçısı gibi.
-
6:45 - 6:48Bu sistemlerde sıkışıp kalmış
gerçek insanlar var -
6:48 - 6:52ve bu da algoritmik işleyen bu kültürdeki
son derece garip bir diğer şey -
6:52 - 6:53çünkü insansan bile,
-
6:53 - 6:55bir makine gibi davranmak zorundasın,
-
6:55 - 6:57hayatta kalabilmek için.
-
6:57 - 6:59Bir de ekranın diğer tarafında
-
6:59 - 7:02bu tür şeyleri hâlâ izleyen, sıkışmış,
-
7:02 - 7:06tüm dikkati bu garip mekanizmalar
tarafından yakalanmış çocuklar var. -
7:07 - 7:10Bu çocukların çoğu,
internete girmek için bile çok küçük. -
7:10 - 7:13Sadece küçük elleriyle ekrana
çekiçle vurur gibi vuruyorlar. -
7:13 - 7:14Bir de otomatik oynatma var,
-
7:14 - 7:18bu videoları bir döngü içinde
sonsuz bir şekilde -
7:18 - 7:20saatlerce tekrar tekrar oynatan.
-
7:20 - 7:23Sistemde şu an çok fazla gariplik var,
-
7:23 - 7:26bu otomatik oynatma
sizi çok garip yerlere götürüyor. -
7:26 - 7:28İşte bu şekilde on iki adımda,
-
7:28 - 7:31sayı sayan sevimli trenin videosundan
-
7:31 - 7:34mastürbasyon yapan
Mickey Mouse'a gidebilirsiniz. -
7:35 - 7:37Evet, bu konuda üzgünüm.
-
7:37 - 7:39Bu daha da kötüye gidiyor.
-
7:39 - 7:40Tüm bu farklı anahtar kelimeler,
-
7:40 - 7:43farklı dikkat parçaları,
-
7:43 - 7:45umutsuz içerik jenerasyonu,
-
7:45 - 7:48tüm bunların hepsi
-
7:48 - 7:51tek bir yerde bir araya gelince
ortaya çıkan bu. -
7:52 - 7:56Burası tüm bu son derece garip
anahtar kelimelerin geri teptiği yer. -
7:56 - 7:59Parmak ailesi videosunu alıp
-
7:59 - 8:01süper kahramanlarla çiftleştirirsiniz,
-
8:01 - 8:04birkaç garip, trol şaka eklersiniz
-
8:04 - 8:08ve birdenbire cidden de
garip bir yere gelirsiniz. -
8:08 - 8:10Ebeveynleri endişelendirebilecek şeyler
-
8:10 - 8:13şiddet veya cinsellik
içeren şeyler, değil mi? -
8:13 - 8:16Çocuk çizgi kahramanlar saldırıya uğruyor,
-
8:16 - 8:18öldürülüyor,
-
8:18 - 8:21çocukları aslında gerçekten
korkutan garip şakalar. -
8:21 - 8:25Yazılımlar tüm bu farklı etkileri,
çocukların en kötü kâbuslarını -
8:25 - 8:28otomatik olarak üretmek
için kullanıyorlar. -
8:28 - 8:31Bu tür şeyler gerçekten de
küçük çocukları etkiliyor. -
8:31 - 8:34Ebeveynler çocuklarının
travma geçirdiğini, -
8:34 - 8:35karanlıktan korkar olduğunu,
-
8:35 - 8:38sevdikleri çizgi film karakterlerinden
korktuğunu bildiriyor. -
8:39 - 8:42Bundan bir çıkarım yaparsanız şu olsun:
eğer küçük çocuklarınız varsa -
8:42 - 8:44onları YouTube'dan uzak tutun.
-
8:45 - 8:49(Alkışlar)
-
8:51 - 8:54Fakat diğer bir şey ise, bu konuda
beni gerçekten üzen şey şu ki -
8:54 - 8:58bu noktaya nasıl geldiğimizi
cidden anladığımızdan emin değilim. -
8:59 - 9:02Tüm bu etkileri, tüm bu şeyleri aldık
-
9:02 - 9:05ve kimsenin pek niyetlenmediği
bir şekilde birleştirdik. -
9:05 - 9:08Ancak dünyayı inşa etme
şeklimiz günümüzde bu. -
9:08 - 9:10Bütün bu verileri alıyoruz,
-
9:10 - 9:11ki çoğu kötü veriler,
-
9:11 - 9:14önyargılarla dolu bir sürü tarihi veri,
-
9:14 - 9:17tarihin en kötü dürtüleriyle dolu,
-
9:17 - 9:19bunlardan devasa veri setleri yaratıyoruz,
-
9:19 - 9:21sonra da otomatikleştiriyoruz.
-
9:21 - 9:24Bunların hepsini birlikte
kredi raporlarına, -
9:24 - 9:26sigorta primlerine,
-
9:26 - 9:29tahmini polislik sistemi gibi şeylere,
-
9:29 - 9:30hüküm rehberlerine dönüştürüyoruz.
-
9:30 - 9:33Bu aslında, bugün bu dünyayı
bu verileri kullanarak -
9:33 - 9:34inşa etme şeklimizdir.
-
9:34 - 9:36Hangisi daha kötü bilmiyorum,
-
9:36 - 9:39İnsan davranışlarının en kötü yanları için
-
9:39 - 9:42en uygun hâle getirilmiş gibi
görünen bir sistem kurmamız mı -
9:42 - 9:45yoksa bunu yapıyor olduğumuzun
bile farkına varmadan -
9:45 - 9:47kazara yapmış gibi
görünüyor olmamız mı? -
9:47 - 9:50Çünkü yapmakta olduğumuz
bu sistemleri gerçekten anlayamadık, -
9:50 - 9:54onlarla nasıl daha farklı bir şey
yapılacağını da gerçekten anlamadık. -
9:55 - 9:58Birkaç şeyin buna
yön verdiğini düşünüyorum, -
9:58 - 9:59çoğu Youtube üzerinde
-
9:59 - 10:01ve bunlardan ilki reklamcılık,
-
10:01 - 10:04ki bu da, ilginin paraya
dönüştürülmesi demek, -
10:04 - 10:07işin içinde başka gerçek değişken olmadan,
-
10:07 - 10:11bu içeriği gerçekten geliştiren
insanları umursamadan, -
10:11 - 10:15gücün merkezileştirilmesi,
bu şeylerin birbirinden ayrılması. -
10:15 - 10:17Bence bazı şeyleri desteklemek için
-
10:17 - 10:19reklam kullanımı konusunda
her ne düşünüyorsanız -
10:19 - 10:22hiç anlamadıkları bir algoritmanın
onlara para vereceği umuduyla -
10:22 - 10:25bebek beziyle kumda yuvarlanan
-
10:25 - 10:27olgun adamların görüntüsü,
-
10:27 - 10:29toplum ve kültürümüzü
dayandırmamız gereken şeyin -
10:29 - 10:31muhtemelen bu şey olmadığını
-
10:31 - 10:34ve buna para yatırmamamız
gerektiğini gösteriyor. -
10:34 - 10:37Buna yön veren diğer
büyük şey de otomatikleşme, -
10:37 - 10:39ulaşır ulaşmaz hiç gözden kaçmaksızın
-
10:39 - 10:42tüm bu teknolojinin kulanılmaya başlanması
-
10:42 - 10:44ve teknoloji kendini gösterdiğinde
-
10:44 - 10:47ellerimizi kaldırıp "Ama biz yapmadık,
teknoloji yaptı" demek. -
10:47 - 10:49"Bizim bir suçumuz yok."
-
10:49 - 10:51Bu gerçekten yeterli değil.
-
10:51 - 10:53Çünkü bu şey sadece
algoritmik olarak yönetilmiyor, -
10:53 - 10:56aynı zamanda algoritmik
olarak denetleniyor. -
10:56 - 10:59YouTube buna ilk kulak
verdiği zamanlarda -
10:59 - 11:01bununla ilgili söyledikleri ilk şey
-
11:01 - 11:04daha iyi makine öğrenimli
algoritmalar kullanacaklarıydı, -
11:04 - 11:05içeriği ılımlı yapmak için.
-
11:05 - 11:09Bu alandaki her uzmanın size
söyleyeceği gibi, "makine öğrenmesi" -
11:09 - 11:11nasıl çalıştığını aslında
anlamadığımız yazılımlara -
11:11 - 11:13vermiş olduğumuz isim.
-
11:13 - 11:17Bence bunlardan elimizde yeterince var.
-
11:17 - 11:19Neyin uygun olduğunu belirlemeyi
-
11:19 - 11:21yapay zekâya bırakmamalıyız
-
11:21 - 11:22çünkü ne olacağını biliyoruz.
-
11:22 - 11:24Başka şeyleri sansürleyecek.
-
11:24 - 11:26Eşcinsel içerikleri sansürleyecek.
-
11:26 - 11:28Yasal kamu konuşmalarını
sansürlemeye başlayacak. -
11:28 - 11:31Bu söylemlerde izin verilen,
-
11:31 - 11:33sorumsuz sistemlere bırakılan
bir şey olmamalı. -
11:33 - 11:37Bu hepimizin yapması gereken
bir tartışmanın parçası. -
11:37 - 11:38Ama bir hatırlatma yapayım,
-
11:38 - 11:41alternatif de pek hoş değil.
-
11:41 - 11:42Buna ek olarak YouTube yakın zamanda
-
11:42 - 11:45çocuk uygulamalarının tamamen
insanlar tarafından yönetildiği -
11:45 - 11:48bir versiyon çıkaracaklarını duyurdu.
-
11:48 - 11:52Facebook-- Zuckerberg de uygulamasını
nasıl yöneteceği sorulduğunda -
11:52 - 11:55kongrede neredeyse aynı şeyi söylemişti.
-
11:55 - 11:57Bunu insanlara yaptıracağız demişti.
-
11:57 - 11:58Bunun asıl anlamı şu;
-
11:58 - 12:01bu şeyleri ilk görenler, çocuklar yerine
-
12:01 - 12:04düşük maaşlı, güvencesiz
sözleşmeli işçileriniz olacak, -
12:04 - 12:06düzgün akıl sağlığı sigortası olmayan
-
12:06 - 12:07ve bundan hasar gören insanlar.
-
12:07 - 12:08(Kahkahalar)
-
12:08 - 12:11Bence hepimiz bundan
çok daha iyisini yapabiliriz. -
12:11 - 12:13(Alkışlar)
-
12:14 - 12:17Bu iki şeyi bir araya getiren düşünce de
-
12:17 - 12:20bana göre gerçekten aracı kurum.
-
12:20 - 12:23Aracı kurumdan aslında
ne anladığımızı kastediyorum: -
12:23 - 12:28Nasıl en iyi menfaatlerimize göre
hareket etmeyi bilmemiz, -
12:28 - 12:30ki bunu yapmak neredeyse imkânsız,
-
12:30 - 12:33gerçekten tam anlamıyla anlamadığımız
bu sistemlerin içinde. -
12:33 - 12:36Güç eşitsizliği her zaman
şiddete yol açar. -
12:36 - 12:38Bu sistemlerin içerisinde
-
12:38 - 12:40kavrayış eşitsizliğinin de
aynını yaptığını görüyoruz. -
12:41 - 12:44Bu sistemleri geliştirmek için
yapabileceğimiz bir şey varsa -
12:44 - 12:47o da bunları kullanan insanlar için
daha okunaklı yapmak, -
12:47 - 12:49böylece burada neler döndüğü ile ilgili
-
12:49 - 12:51hepimizin ortak bir kanısı olur.
-
12:52 - 12:55Gerçi bu sistemlerle ilgili
en çok düşündüğüm şey de şu ki -
12:55 - 12:59umarım anlatabilmişimdir,
bu olay YouTube ile ilgili değil. -
12:59 - 13:00Her şeyle ilgili.
-
13:00 - 13:03Bu sorumluluk ve aracılık,
-
13:03 - 13:05anlaşılmazlık ve karmaşa,
-
13:05 - 13:08gücün birkaç kişinin elinde
toplanmış olmasından kaynaklanan -
13:08 - 13:11şiddet ve istismar konuları--
-
13:11 - 13:13bunlar çok, çok daha geniş konular.
-
13:14 - 13:18Üstelik bunlar sadece Youtube'un
veya teknolojinin genel sorunları değil, -
13:18 - 13:19bunlar yeni bile değil.
-
13:19 - 13:21Bunlar senelerdir bizimleydi.
-
13:21 - 13:25Ama biz en sonunda, bize bunları
sıradışı bir şekilde gösteren, -
13:25 - 13:28bunları inkâr edilemez
yapan global sistemi, -
13:28 - 13:30interneti yarattık.
-
13:30 - 13:33Teknolojinin öyle sıradışı
bir kapasitesi var ki -
13:33 - 13:37en sıradışı ve gizli kalmış
tutku ve önyargılarımızı -
13:37 - 13:41örneklemek ve sürdürmekle kalmıyor,
-
13:41 - 13:43onları gerçek dünyaya çözümlüyor
-
13:43 - 13:46ama aynı zamanda bunları
görmemiz için not ediyor, -
13:46 - 13:50böylece yokmuş gibi davranamıyoruz.
-
13:50 - 13:54Teknolojiyi tüm problemlerimizin
çözümü olarak görmek yerine, -
13:54 - 13:58bu problemlerin aslında ne olduğunu
gösteren bir rehber olarak görmeliyiz ki -
13:58 - 14:00böylece onlar hakkında düzgünce düşünüp
-
14:00 - 14:02çözüm bulabilelim.
-
14:02 - 14:03Çok teşekkür ederim.
-
14:03 - 14:08(Alkışlar)
-
14:10 - 14:11Teşekkür ederim.
-
14:11 - 14:14(Alkışlar)
-
14:17 - 14:20Helen Walters: James, bize bu konuşmayı
yaptığın için teşekkürler. -
14:20 - 14:21Öylesine ilginç ki
-
14:21 - 14:25robotik otoritelerin yönetimi
ele geçirdiği filmleri düşününce -
14:25 - 14:28her şey senin tanımladığından
biraz daha göz alıcı. -
14:28 - 14:32Ama merak ettiğim şu--
bu fimlerde bir direniş var. -
14:32 - 14:35Bu şeylere karşı da bir direniş var mı?
-
14:35 - 14:39Hiç pozitif bir işaret,
yeşeren bir direniş görüyor musun? -
14:41 - 14:43James Bridle: Direkt bir direnişi bilemem
-
14:43 - 14:45çünkü bu şey çok uzun vadeli.
-
14:45 - 14:48Bence çok derin şekilde
kültürün içine işledi. -
14:48 - 14:50Bir arkadaşım, Eleanor Saitta,
her zaman der ki -
14:50 - 14:54yeterli ölçüde ve kapsamda
her teknolojik problem -
14:54 - 14:56öncellikle politik bir problemdir.
-
14:56 - 14:59Yani bunun içinde çözmeye
çalıştığımız her şey -
14:59 - 15:02sadece teknolojiyi daha iyi
inşa etmekle değil, -
15:02 - 15:05bu teknolojileri üreten toplumu
değiştirmekle çözülecek. -
15:05 - 15:08Yani hayır, şu an, bence gidecek
daha çok yolumuz var. -
15:09 - 15:11Ama dediğim gibi, bunları açığa
çıkartıp açıklayarak, -
15:11 - 15:13bunlar hakkında dürüstçe konuşarak
-
15:13 - 15:16bence en azından bu süreci başlatabiliriz.
-
15:16 - 15:19HW: Sen okunabilirlik ve dijital
okuryazarlık hakkında konuşunca -
15:19 - 15:21dijital okuryazarlık yükünü
-
15:21 - 15:25kullanıcılara yüklememizin gerekliliğini
hayal etmesi zor buluyorum. -
15:25 - 15:29Ama bu yeni dünyada
eğitimden kim sorumlu? -
15:29 - 15:33JB: Bence, bu sorumluluk
biraz da hepimizde, -
15:33 - 15:36yaptığımız, inşa ettiğimiz her şey
-
15:36 - 15:40karşılıklı tartışma ile yapılmalı,
-
15:40 - 15:42bundan kaçınan insanlarla birlikte;
-
15:42 - 15:46insanların doğru şeyi yapması için
aklını çelme amacı taşıyan -
15:46 - 15:48sistemler tasarlamıyoruz
-
15:48 - 15:52ama bunlar onları eğitmenin
her adımına dâhiller -
15:52 - 15:54çünkü bu sistemlerin her biri eğitici.
-
15:54 - 15:57Umutlu olduğum şey de bu,
bu son derece acımasızca şeylerde bile, -
15:57 - 15:59eğer onu alıp düzgünce incelerseniz
-
15:59 - 16:01aslında o, kendi içinde eğitim parçası,
-
16:01 - 16:05karmaşık sistemlerin nasıl bir araya gelip
işlediğini görmeye başlamamızı -
16:05 - 16:09ve belki de bu bilgiyi dünyanın
başka bir yerinde kullanmamızı sağlayacak. -
16:09 - 16:11HW: James, bu çok önemli bir tartışmaydı
-
16:11 - 16:14ve biliyorum ki buradaki çoğu insan
bu tartışmaya açık ve hazırlar, -
16:14 - 16:16güne seninle başlamak çok güzeldi.
-
16:16 - 16:17JB: Çok teşekkürler.
-
16:17 - 16:19(Alkışlar)
- Title:
- Youtube'daki çocuk videoları kabusu ve günümüzde internetin sorunu
- Speaker:
- James Bridle
- Description:
-
Yazar ve sanatçı James Bridle Youtube'da bilinmeyen insan veya grupların reklam geliri karşılığında küçük çocukların beyinlerini ele geçirdiği, internetin karanlık ve garip köşesini açığa çıkarıyor. "Sürpriz yumurta" açılışları ve "Parmak Ailesi Şarkısı"ndan algoritmik olarak yaratılan tanınmış çizgi film karakterleri karışımlarının şiddetli hallerine, bu videolar genç beyinleri sömürüyor ve dehşete düşürüyor--ve bize giderek veri ile işleyen dünyamızın nereye gittiğiyle ilgili bir şeyler söylüyor. "Teknolojiyi bütün problemlerimize bir çözüm olarak düşünmek yerine, onu bu problemlerin aslında ne olduğunu gösteren bir rehber olarak görmeliyiz ki onlar hakkında düzgünce düşünüp çözüm bulabilelim." diyor Bridle.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32