< Return to Video

Youtube'daki çocuk videoları kabusu ve günümüzde internetin sorunu

  • 0:01 - 0:02
    Benim adım James.
  • 0:02 - 0:04
    Yazar ve sanatçıyım
  • 0:04 - 0:06
    ve teknoloji alanında çalışıyorum.
  • 0:06 - 0:08
    Dünyanın farklı şehirlerinde
  • 0:08 - 0:12
    askeri dronların tam boyutlu taslaklarını
    çizmek gibi işler yapıyorum;
  • 0:12 - 0:15
    görmesi ve düşünmesi
    oldukça zor olan bu teknolojileri
  • 0:15 - 0:19
    insanlar düşünmeye
    ve anlamaya başlasın diye.
  • 0:19 - 0:23
    Seçim sonuçlarını hava durumuna
    dayanarak tahmin eden
  • 0:23 - 0:25
    nöronal devreler gibi şeyler yapıyorum,
  • 0:25 - 0:27
    çünkü bu garip yeni teknolojilerin
  • 0:27 - 0:30
    asıl potansiyellerinin ne olduğu
    konusuna çok merak duyuyorum.
  • 0:31 - 0:34
    Geçen yıl, kendi kendine
    giden arabamı yaptım.
  • 0:34 - 0:36
    Ama teknolojiye pek güvenmediğim için
  • 0:36 - 0:38
    ona bir tuzak da hazırladım.
  • 0:39 - 0:40
    (Kahkaha)
  • 0:40 - 0:44
    Bu şeyleri yapmamın asıl nedeni
    onları fazlasıyla ilginç bulmam
  • 0:44 - 0:47
    ama öyle düşünüyorum ki
    teknolojiden bahsettiğimizde
  • 0:47 - 0:49
    büyük oranda kendimizden
  • 0:49 - 0:52
    ve dünyayı anlayış
    şeklimizden bahsediyoruz.
  • 0:52 - 0:54
    İşte teknolojiyle ilgili bir hikaye.
  • 0:56 - 0:58
    Bu bir "sürpriz yumurta" videosu.
  • 0:58 - 1:02
    Birisinin bir sürü
    çikolotadan yumurtayı açıp
  • 1:02 - 1:04
    içlerindeki oyuncakları
    izleyiciye gösterdiği bir video.
  • 1:04 - 1:07
    Bu kadar. Yedi uzun dakika
    boyunca olan tek şey bu.
  • 1:07 - 1:10
    Bununla ilgili iki şeyi
    fark etmenizi istiyorum.
  • 1:11 - 1:15
    İlk olarak, bu videonun
    30 milyon görüntülenmesi var.
  • 1:15 - 1:16
    (Kahkaha)
  • 1:16 - 1:18
    Diğer şey şu,
  • 1:18 - 1:21
    6,3 milyon abonesi, toplamda sekiz
    milyar görüntülenmesi olan
  • 1:21 - 1:24
    bir kanaldan geliyor
  • 1:24 - 1:27
    ve kanaldaki bütün videolar böyle --
  • 1:28 - 1:32
    adamın birinin bu yumurtaları açmasını
    izleyen 30 milyon insan.
  • 1:32 - 1:37
    Kulağa garip geliyor ama Youtube'da
    "sürpriz yumurta"yı aratırsanız
  • 1:37 - 1:40
    size bu videolardan
    10 milyon tane olduğunu söyler
  • 1:40 - 1:42
    ve bence bu sayı düşük.
  • 1:42 - 1:44
    Bence bu videolardan çok daha fazla var.
  • 1:44 - 1:46
    Eğer aramaya devam ederseniz sonu gelmez.
  • 1:46 - 1:50
    Marka ve ürünlere ilişkin giderek artan
    abartı kombinasyonlarda
  • 1:50 - 1:52
    bu videolardan milyonlarca var
  • 1:52 - 1:56
    ve her geçen gün
    daha da fazlası yükleniyor.
  • 1:56 - 1:59
    Garip bir dünya.
  • 1:59 - 2:03
    Ama asıl önemli kısım şu,
    bu videoları izleyenler yetişkinler değil.
  • 2:03 - 2:06
    Çocuklar, küçük çocuklar.
  • 2:06 - 2:08
    Bu videolar sanki çocuklara
    özel uyuşturucu.
  • 2:08 - 2:10
    Tekrarlanma ile ilgili bir şey var,
  • 2:10 - 2:12
    onları tamamen bağımlı yapan,
    yumurtadan çıkanın
  • 2:12 - 2:14
    sabit küçük dopamin vuruşlarıyla ilgili.
  • 2:14 - 2:19
    Küçük çocuklar bu videoları
    tekrar tekrar izliyorlar
  • 2:19 - 2:21
    ve bunu saatlerce yapıyorlar.
  • 2:21 - 2:24
    Ekranı onlardan
    uzaklaştırmaya çalışırsanız
  • 2:24 - 2:26
    durmadan bağıracaklardır.
  • 2:26 - 2:27
    Eğer bana inanmıyorsanız
  • 2:27 - 2:29
    -ki seyircilerden
    başıyla onaylayanları gördüm-
  • 2:29 - 2:33
    inanmıyorsanız küçük çocuğu
    olan birini bulup sorun,
  • 2:33 - 2:35
    sürpriz yumurta videolarını bileceklerdir.
  • 2:35 - 2:37
    İşte burada başlıyoruz.
  • 2:37 - 2:41
    Yıl 2018, birisi veya birçok kişi,
    Facebook ve Instagram'ın kullandığı,
  • 2:41 - 2:45
    sizde bu uygulamaları sürekli
    kontrol etme ihtiyacı uyandıran
  • 2:45 - 2:47
    o mekanizmanın aynısını kullanıyor.
  • 2:47 - 2:51
    Bunu çok küçük çocukların
    beyinlerini ele geçirmek için
  • 2:51 - 2:53
    Youtube'da reklam geliri
    karşılığında kullanıyorlar.
  • 2:54 - 2:56
    En azından, umarım yaptıkları budur.
  • 2:56 - 2:58
    Umarım bunun için yapıyorlardır
  • 2:58 - 3:04
    çünkü Youtube'da reklamdan gelir
    elde etmenin daha kolay yolları var.
  • 3:04 - 3:06
    Bir şeyler uydurabilir
    ya da çalabilirsiniz.
  • 3:06 - 3:09
    Eğer "Pegga Pig" veya "Paw Petrol" gibi
  • 3:09 - 3:10
    popüler çizgi filmleri ararsanız
  • 3:10 - 3:14
    internet üzerinde bunlardan
    milyonlarcasını bulabilirsiniz.
  • 3:14 - 3:17
    Tabii ki bunların çoğu orjinal içerik
    yaratıcıları tarafından konulmaz.
  • 3:17 - 3:20
    Rastgele birçok farklı hesap
    tarafından konuluyorlar
  • 3:20 - 3:22
    ve bunları kimin koyduğunu
  • 3:22 - 3:24
    veya amaçlarının ne olduğunu
    bilmek imkânsız.
  • 3:24 - 3:26
    Tanıdık geldi mi?
  • 3:26 - 3:28
    Çünkü dijital hizmetlerin çoğunda var olan
  • 3:28 - 3:31
    mekanizmanın tamamen aynısı bu,
  • 3:31 - 3:34
    bilginin nereden geldiğini
    bilmek imkânsız.
  • 3:34 - 3:36
    Bu resmen çocuklar için sahte haber
  • 3:36 - 3:38
    ve onları doğduklarından itibaren
  • 3:38 - 3:41
    önlerine gelen ilk linke
    tıklamaları için eğitiyoruz,
  • 3:41 - 3:43
    kaynağının ne olduğunu
    bile umursamadan.
  • 3:43 - 3:45
    Bu çok da iyi bir fikir gibi durmuyor.
  • 3:46 - 3:49
    YouTube'da gerçekten sevilen
    bir diğer şey daha var.
  • 3:49 - 3:51
    İsmi "Parmak Ailesi Şarkısı."
  • 3:51 - 3:53
    Seyircilerden birinin sızlandığını duydum.
  • 3:53 - 3:55
    Bu "Parmak Ailesi Şarkısı."
  • 3:55 - 3:57
    Bu bulabildiklerim arasında en eskisi.
  • 3:57 - 4:00
    2007 yılında yüklenmiş
    ve sadece 200.000 kez izlenmiş,
  • 4:00 - 4:02
    ki bu, nerdeyse bu platformda hiç demek.
  • 4:02 - 4:04
    Ama insanı deli eden
    ve diline dolanan bir melodisi var,
  • 4:04 - 4:06
    bunu size dinletmeyeceğim
  • 4:06 - 4:08
    çünkü şarkı beyninize kazınacak,
  • 4:08 - 4:11
    tıpkı benim beynime kazındığı gibi
  • 4:11 - 4:12
    ve sizi buna maruz bırakmayacağım.
  • 4:12 - 4:14
    Aynı sürpriz yumurtalar gibi
  • 4:14 - 4:16
    çocukların aklına girerek
  • 4:16 - 4:18
    onları buna bağımlı yaptılar.
  • 4:18 - 4:20
    Böylece birkaç yıl içinde,
    bu parmak ailesi videoları
  • 4:20 - 4:21
    her yerde görünmeye başladı
  • 4:21 - 4:24
    ve farklı dillerde
  • 4:24 - 4:26
    popüler çizgi filmlerin yiyecek
  • 4:26 - 4:28
    hatta her çeşit animasyon
    malzemesini kullandıkları
  • 4:28 - 4:31
    versiyonları etrafa yayıldı.
  • 4:31 - 4:36
    Yine aynı şekilde, bu tür çılgınca
    kombinasyonlardan oluşan
  • 4:36 - 4:40
    milyonlarca video internette mevcut.
  • 4:40 - 4:42
    Onlarla ne kadar vakit geçirirseniz
  • 4:42 - 4:46
    delirdiğinize dair inancınız
    o kadar artar.
  • 4:46 - 4:49
    Ben de bu noktada bu konuya yöneldim,
  • 4:49 - 4:53
    çevremde sunuluyor gibi görünen bu şeyin
  • 4:53 - 4:57
    nasıl inşa edildiğini asla anlayamama
    ve derin yabancılaşma hissi.
  • 4:57 - 5:00
    Çünkü bu şeylerin nereden
    geldiğini bilmek imkânsız.
  • 5:00 - 5:01
    Yani, kim yapıyor bunları?
  • 5:01 - 5:04
    Bazıları profesyonel animatör
    ekiplerle yapılmış gibi duruyor.
  • 5:05 - 5:07
    Bazıları sadece yazılım tarafından
    rastgele birleştirilmiş.
  • 5:07 - 5:12
    Bazıları oldukça sağlıklı görünen
    küçük çocuk şovmenleri.
  • 5:12 - 5:13
    Ve bazıları da...
  • 5:13 - 5:16
    kesinlikle çocukların etrafında
    bulunmaması gereken insanlardan.
  • 5:16 - 5:18
    (Gülme sesleri)
  • 5:19 - 5:24
    Bir kez daha, bu şeyleri yapanın
    kim olduğunu çözmenin imkansızlığı--
  • 5:24 - 5:25
    Bu bir robot mu?
  • 5:25 - 5:27
    Bu bir insan mı? Bir trol mü?
  • 5:28 - 5:30
    Artık bu şeylerin farkını
    söyleyemiyor olmamız
  • 5:30 - 5:31
    ne anlama gelir?
  • 5:32 - 5:36
    Peki bu belirsizlik tanıdık geliyor mu?
  • 5:38 - 5:41
    Yani, insanların videolarını
    izletmelerinin tek yolu
  • 5:41 - 5:42
    -ki izlenme sayısı para demek-
  • 5:42 - 5:47
    bu tür popüler terimleri
    videolarının başlığına sıkıştırmak.
  • 5:47 - 5:49
    Mesela "sürpriz yumurta"yı alır,
  • 5:49 - 5:51
    "Paw Patrol" veya
    "Easter egg"i eklersiniz,
  • 5:51 - 5:52
    ya da bu şeyler her neyse,
  • 5:52 - 5:55
    popüler videolardaki bu kelimeleri
    alır ve başlığına eklersiniz,
  • 5:55 - 5:58
    ta ki insanlara hiçbir anlam ifade etmeyen
  • 5:58 - 6:01
    bu tür anlamsız bir karma dil
    elde edene dek.
  • 6:01 - 6:04
    Çünkü tabii ki sizin videonuzu
    izleyenler sadece ufacık çocuklar,
  • 6:04 - 6:06
    onlar ne biliyorlar ki?
  • 6:06 - 6:09
    Sizin bu şey için asıl seyirciniz yazılım.
  • 6:09 - 6:11
    Algoritmalar.
  • 6:11 - 6:12
    Youtube'un hangi videoların
  • 6:12 - 6:14
    diğerleri gibi olduğunu seçmek için
  • 6:14 - 6:17
    onları popüler ve önerilen
    video yapmak için kullandığı yazılım.
  • 6:17 - 6:21
    Tamamıyla anlamsız olan bu karışımla
    sonuçlanmanızın nedeni de bu,
  • 6:21 - 6:23
    hem başlık hem içerik olarak.
  • 6:24 - 6:26
    Ama önemli olan, hatırlamalısınız ki
  • 6:26 - 6:30
    algoritmik olarak en iyi hâle getirilen
    bu sistemin içinde gerçekten insanlar var.
  • 6:30 - 6:33
    Giderek garipleşen bu kelime
    kombinasyonlarını
  • 6:33 - 6:36
    canlandırmaya zorlanan insanlar,
  • 6:36 - 6:41
    tıpkı yürümeye yeni başlayan milyonlarca
    bebeğin çığlığına karşılık veren
  • 6:41 - 6:44
    umutsuz bir doğaçlama sanatçısı gibi.
  • 6:45 - 6:48
    Bu sistemlerde sıkışıp kalmış
    gerçek insanlar var
  • 6:48 - 6:52
    ve bu da algoritmik işleyen bu kültürdeki
    son derece garip bir diğer şey
  • 6:52 - 6:53
    çünkü insansan bile,
  • 6:53 - 6:55
    bir makine gibi davranmak zorundasın,
  • 6:55 - 6:57
    hayatta kalabilmek için.
  • 6:57 - 6:59
    Bir de ekranın diğer tarafında
  • 6:59 - 7:02
    bu tür şeyleri hâlâ izleyen, sıkışmış,
  • 7:02 - 7:06
    tüm dikkati bu garip mekanizmalar
    tarafından yakalanmış çocuklar var.
  • 7:07 - 7:10
    Bu çocukların çoğu,
    internete girmek için bile çok küçük.
  • 7:10 - 7:13
    Sadece küçük elleriyle ekrana
    çekiçle vurur gibi vuruyorlar.
  • 7:13 - 7:14
    Bir de otomatik oynatma var,
  • 7:14 - 7:18
    bu videoları bir döngü içinde
    sonsuz bir şekilde
  • 7:18 - 7:20
    saatlerce tekrar tekrar oynatan.
  • 7:20 - 7:23
    Sistemde şu an çok fazla gariplik var,
  • 7:23 - 7:26
    bu otomatik oynatma
    sizi çok garip yerlere götürüyor.
  • 7:26 - 7:28
    İşte bu şekilde on iki adımda,
  • 7:28 - 7:31
    sayı sayan sevimli trenin videosundan
  • 7:31 - 7:34
    mastürbasyon yapan
    Mickey Mouse'a gidebilirsiniz.
  • 7:35 - 7:37
    Evet, bu konuda üzgünüm.
  • 7:37 - 7:39
    Bu daha da kötüye gidiyor.
  • 7:39 - 7:40
    Tüm bu farklı anahtar kelimeler,
  • 7:40 - 7:43
    farklı dikkat parçaları,
  • 7:43 - 7:45
    umutsuz içerik jenerasyonu,
  • 7:45 - 7:48
    tüm bunların hepsi
  • 7:48 - 7:51
    tek bir yerde bir araya gelince
    ortaya çıkan bu.
  • 7:52 - 7:56
    Burası tüm bu son derece garip
    anahtar kelimelerin geri teptiği yer.
  • 7:56 - 7:59
    Parmak ailesi videosunu alıp
  • 7:59 - 8:01
    süper kahramanlarla çiftleştirirsiniz,
  • 8:01 - 8:04
    birkaç garip, trol şaka eklersiniz
  • 8:04 - 8:08
    ve birdenbire cidden de
    garip bir yere gelirsiniz.
  • 8:08 - 8:10
    Ebeveynleri endişelendirebilecek şeyler
  • 8:10 - 8:13
    şiddet veya cinsellik
    içeren şeyler, değil mi?
  • 8:13 - 8:16
    Çocuk çizgi kahramanlar saldırıya uğruyor,
  • 8:16 - 8:18
    öldürülüyor,
  • 8:18 - 8:21
    çocukları aslında gerçekten
    korkutan garip şakalar.
  • 8:21 - 8:25
    Yazılımlar tüm bu farklı etkileri,
    çocukların en kötü kâbuslarını
  • 8:25 - 8:28
    otomatik olarak üretmek
    için kullanıyorlar.
  • 8:28 - 8:31
    Bu tür şeyler gerçekten de
    küçük çocukları etkiliyor.
  • 8:31 - 8:34
    Ebeveynler çocuklarının
    travma geçirdiğini,
  • 8:34 - 8:35
    karanlıktan korkar olduğunu,
  • 8:35 - 8:38
    sevdikleri çizgi film karakterlerinden
    korktuğunu bildiriyor.
  • 8:39 - 8:42
    Bundan bir çıkarım yaparsanız şu olsun:
    eğer küçük çocuklarınız varsa
  • 8:42 - 8:44
    onları YouTube'dan uzak tutun.
  • 8:45 - 8:49
    (Alkışlar)
  • 8:51 - 8:54
    Fakat diğer bir şey ise, bu konuda
    beni gerçekten üzen şey şu ki
  • 8:54 - 8:58
    bu noktaya nasıl geldiğimizi
    cidden anladığımızdan emin değilim.
  • 8:59 - 9:02
    Tüm bu etkileri, tüm bu şeyleri aldık
  • 9:02 - 9:05
    ve kimsenin pek niyetlenmediği
    bir şekilde birleştirdik.
  • 9:05 - 9:08
    Ancak dünyayı inşa etme
    şeklimiz günümüzde bu.
  • 9:08 - 9:10
    Bütün bu verileri alıyoruz,
  • 9:10 - 9:11
    ki çoğu kötü veriler,
  • 9:11 - 9:14
    önyargılarla dolu bir sürü tarihi veri,
  • 9:14 - 9:17
    tarihin en kötü dürtüleriyle dolu,
  • 9:17 - 9:19
    bunlardan devasa veri setleri yaratıyoruz,
  • 9:19 - 9:21
    sonra da otomatikleştiriyoruz.
  • 9:21 - 9:24
    Bunların hepsini birlikte
    kredi raporlarına,
  • 9:24 - 9:26
    sigorta primlerine,
  • 9:26 - 9:29
    tahmini polislik sistemi gibi şeylere,
  • 9:29 - 9:30
    hüküm rehberlerine dönüştürüyoruz.
  • 9:30 - 9:33
    Bu aslında, bugün bu dünyayı
    bu verileri kullanarak
  • 9:33 - 9:34
    inşa etme şeklimizdir.
  • 9:34 - 9:36
    Hangisi daha kötü bilmiyorum,
  • 9:36 - 9:39
    İnsan davranışlarının en kötü yanları için
  • 9:39 - 9:42
    en uygun hâle getirilmiş gibi
    görünen bir sistem kurmamız mı
  • 9:42 - 9:45
    yoksa bunu yapıyor olduğumuzun
    bile farkına varmadan
  • 9:45 - 9:47
    kazara yapmış gibi
    görünüyor olmamız mı?
  • 9:47 - 9:50
    Çünkü yapmakta olduğumuz
    bu sistemleri gerçekten anlayamadık,
  • 9:50 - 9:54
    onlarla nasıl daha farklı bir şey
    yapılacağını da gerçekten anlamadık.
  • 9:55 - 9:58
    Birkaç şeyin buna
    yön verdiğini düşünüyorum,
  • 9:58 - 9:59
    çoğu Youtube üzerinde
  • 9:59 - 10:01
    ve bunlardan ilki reklamcılık,
  • 10:01 - 10:04
    ki bu da, ilginin paraya
    dönüştürülmesi demek,
  • 10:04 - 10:07
    işin içinde başka gerçek değişken olmadan,
  • 10:07 - 10:11
    bu içeriği gerçekten geliştiren
    insanları umursamadan,
  • 10:11 - 10:15
    gücün merkezileştirilmesi,
    bu şeylerin birbirinden ayrılması.
  • 10:15 - 10:17
    Bence bazı şeyleri desteklemek için
  • 10:17 - 10:19
    reklam kullanımı konusunda
    her ne düşünüyorsanız
  • 10:19 - 10:22
    hiç anlamadıkları bir algoritmanın
    onlara para vereceği umuduyla
  • 10:22 - 10:25
    bebek beziyle kumda yuvarlanan
  • 10:25 - 10:27
    olgun adamların görüntüsü,
  • 10:27 - 10:29
    toplum ve kültürümüzü
    dayandırmamız gereken şeyin
  • 10:29 - 10:31
    muhtemelen bu şey olmadığını
  • 10:31 - 10:34
    ve buna para yatırmamamız
    gerektiğini gösteriyor.
  • 10:34 - 10:37
    Buna yön veren diğer
    büyük şey de otomatikleşme,
  • 10:37 - 10:39
    ulaşır ulaşmaz hiç gözden kaçmaksızın
  • 10:39 - 10:42
    tüm bu teknolojinin kulanılmaya başlanması
  • 10:42 - 10:44
    ve teknoloji kendini gösterdiğinde
  • 10:44 - 10:47
    ellerimizi kaldırıp "Ama biz yapmadık,
    teknoloji yaptı" demek.
  • 10:47 - 10:49
    "Bizim bir suçumuz yok."
  • 10:49 - 10:51
    Bu gerçekten yeterli değil.
  • 10:51 - 10:53
    Çünkü bu şey sadece
    algoritmik olarak yönetilmiyor,
  • 10:53 - 10:56
    aynı zamanda algoritmik
    olarak denetleniyor.
  • 10:56 - 10:59
    YouTube buna ilk kulak
    verdiği zamanlarda
  • 10:59 - 11:01
    bununla ilgili söyledikleri ilk şey
  • 11:01 - 11:04
    daha iyi makine öğrenimli
    algoritmalar kullanacaklarıydı,
  • 11:04 - 11:05
    içeriği ılımlı yapmak için.
  • 11:05 - 11:09
    Bu alandaki her uzmanın size
    söyleyeceği gibi, "makine öğrenmesi"
  • 11:09 - 11:11
    nasıl çalıştığını aslında
    anlamadığımız yazılımlara
  • 11:11 - 11:13
    vermiş olduğumuz isim.
  • 11:13 - 11:17
    Bence bunlardan elimizde yeterince var.
  • 11:17 - 11:19
    Neyin uygun olduğunu belirlemeyi
  • 11:19 - 11:21
    yapay zekâya bırakmamalıyız
  • 11:21 - 11:22
    çünkü ne olacağını biliyoruz.
  • 11:22 - 11:24
    Başka şeyleri sansürleyecek.
  • 11:24 - 11:26
    Eşcinsel içerikleri sansürleyecek.
  • 11:26 - 11:28
    Yasal kamu konuşmalarını
    sansürlemeye başlayacak.
  • 11:28 - 11:31
    Bu söylemlerde izin verilen,
  • 11:31 - 11:33
    sorumsuz sistemlere bırakılan
    bir şey olmamalı.
  • 11:33 - 11:37
    Bu hepimizin yapması gereken
    bir tartışmanın parçası.
  • 11:37 - 11:38
    Ama bir hatırlatma yapayım,
  • 11:38 - 11:41
    alternatif de pek hoş değil.
  • 11:41 - 11:42
    Buna ek olarak YouTube yakın zamanda
  • 11:42 - 11:45
    çocuk uygulamalarının tamamen
    insanlar tarafından yönetildiği
  • 11:45 - 11:48
    bir versiyon çıkaracaklarını duyurdu.
  • 11:48 - 11:52
    Facebook-- Zuckerberg de uygulamasını
    nasıl yöneteceği sorulduğunda
  • 11:52 - 11:55
    kongrede neredeyse aynı şeyi söylemişti.
  • 11:55 - 11:57
    Bunu insanlara yaptıracağız demişti.
  • 11:57 - 11:58
    Bunun asıl anlamı şu;
  • 11:58 - 12:01
    bu şeyleri ilk görenler, çocuklar yerine
  • 12:01 - 12:04
    düşük maaşlı, güvencesiz
    sözleşmeli işçileriniz olacak,
  • 12:04 - 12:06
    düzgün akıl sağlığı sigortası olmayan
  • 12:06 - 12:07
    ve bundan hasar gören insanlar.
  • 12:07 - 12:08
    (Kahkahalar)
  • 12:08 - 12:11
    Bence hepimiz bundan
    çok daha iyisini yapabiliriz.
  • 12:11 - 12:13
    (Alkışlar)
  • 12:14 - 12:17
    Bu iki şeyi bir araya getiren düşünce de
  • 12:17 - 12:20
    bana göre gerçekten aracı kurum.
  • 12:20 - 12:23
    Aracı kurumdan aslında
    ne anladığımızı kastediyorum:
  • 12:23 - 12:28
    Nasıl en iyi menfaatlerimize göre
    hareket etmeyi bilmemiz,
  • 12:28 - 12:30
    ki bunu yapmak neredeyse imkânsız,
  • 12:30 - 12:33
    gerçekten tam anlamıyla anlamadığımız
    bu sistemlerin içinde.
  • 12:33 - 12:36
    Güç eşitsizliği her zaman
    şiddete yol açar.
  • 12:36 - 12:38
    Bu sistemlerin içerisinde
  • 12:38 - 12:40
    kavrayış eşitsizliğinin de
    aynını yaptığını görüyoruz.
  • 12:41 - 12:44
    Bu sistemleri geliştirmek için
    yapabileceğimiz bir şey varsa
  • 12:44 - 12:47
    o da bunları kullanan insanlar için
    daha okunaklı yapmak,
  • 12:47 - 12:49
    böylece burada neler döndüğü ile ilgili
  • 12:49 - 12:51
    hepimizin ortak bir kanısı olur.
  • 12:52 - 12:55
    Gerçi bu sistemlerle ilgili
    en çok düşündüğüm şey de şu ki
  • 12:55 - 12:59
    umarım anlatabilmişimdir,
    bu olay YouTube ile ilgili değil.
  • 12:59 - 13:00
    Her şeyle ilgili.
  • 13:00 - 13:03
    Bu sorumluluk ve aracılık,
  • 13:03 - 13:05
    anlaşılmazlık ve karmaşa,
  • 13:05 - 13:08
    gücün birkaç kişinin elinde
    toplanmış olmasından kaynaklanan
  • 13:08 - 13:11
    şiddet ve istismar konuları--
  • 13:11 - 13:13
    bunlar çok, çok daha geniş konular.
  • 13:14 - 13:18
    Üstelik bunlar sadece Youtube'un
    veya teknolojinin genel sorunları değil,
  • 13:18 - 13:19
    bunlar yeni bile değil.
  • 13:19 - 13:21
    Bunlar senelerdir bizimleydi.
  • 13:21 - 13:25
    Ama biz en sonunda, bize bunları
    sıradışı bir şekilde gösteren,
  • 13:25 - 13:28
    bunları inkâr edilemez
    yapan global sistemi,
  • 13:28 - 13:30
    interneti yarattık.
  • 13:30 - 13:33
    Teknolojinin öyle sıradışı
    bir kapasitesi var ki
  • 13:33 - 13:37
    en sıradışı ve gizli kalmış
    tutku ve önyargılarımızı
  • 13:37 - 13:41
    örneklemek ve sürdürmekle kalmıyor,
  • 13:41 - 13:43
    onları gerçek dünyaya çözümlüyor
  • 13:43 - 13:46
    ama aynı zamanda bunları
    görmemiz için not ediyor,
  • 13:46 - 13:50
    böylece yokmuş gibi davranamıyoruz.
  • 13:50 - 13:54
    Teknolojiyi tüm problemlerimizin
    çözümü olarak görmek yerine,
  • 13:54 - 13:58
    bu problemlerin aslında ne olduğunu
    gösteren bir rehber olarak görmeliyiz ki
  • 13:58 - 14:00
    böylece onlar hakkında düzgünce düşünüp
  • 14:00 - 14:02
    çözüm bulabilelim.
  • 14:02 - 14:03
    Çok teşekkür ederim.
  • 14:03 - 14:08
    (Alkışlar)
  • 14:10 - 14:11
    Teşekkür ederim.
  • 14:11 - 14:14
    (Alkışlar)
  • 14:17 - 14:20
    Helen Walters: James, bize bu konuşmayı
    yaptığın için teşekkürler.
  • 14:20 - 14:21
    Öylesine ilginç ki
  • 14:21 - 14:25
    robotik otoritelerin yönetimi
    ele geçirdiği filmleri düşününce
  • 14:25 - 14:28
    her şey senin tanımladığından
    biraz daha göz alıcı.
  • 14:28 - 14:32
    Ama merak ettiğim şu--
    bu fimlerde bir direniş var.
  • 14:32 - 14:35
    Bu şeylere karşı da bir direniş var mı?
  • 14:35 - 14:39
    Hiç pozitif bir işaret,
    yeşeren bir direniş görüyor musun?
  • 14:41 - 14:43
    James Bridle: Direkt bir direnişi bilemem
  • 14:43 - 14:45
    çünkü bu şey çok uzun vadeli.
  • 14:45 - 14:48
    Bence çok derin şekilde
    kültürün içine işledi.
  • 14:48 - 14:50
    Bir arkadaşım, Eleanor Saitta,
    her zaman der ki
  • 14:50 - 14:54
    yeterli ölçüde ve kapsamda
    her teknolojik problem
  • 14:54 - 14:56
    öncellikle politik bir problemdir.
  • 14:56 - 14:59
    Yani bunun içinde çözmeye
    çalıştığımız her şey
  • 14:59 - 15:02
    sadece teknolojiyi daha iyi
    inşa etmekle değil,
  • 15:02 - 15:05
    bu teknolojileri üreten toplumu
    değiştirmekle çözülecek.
  • 15:05 - 15:08
    Yani hayır, şu an, bence gidecek
    daha çok yolumuz var.
  • 15:09 - 15:11
    Ama dediğim gibi, bunları açığa
    çıkartıp açıklayarak,
  • 15:11 - 15:13
    bunlar hakkında dürüstçe konuşarak
  • 15:13 - 15:16
    bence en azından bu süreci başlatabiliriz.
  • 15:16 - 15:19
    HW: Sen okunabilirlik ve dijital
    okuryazarlık hakkında konuşunca
  • 15:19 - 15:21
    dijital okuryazarlık yükünü
  • 15:21 - 15:25
    kullanıcılara yüklememizin gerekliliğini
    hayal etmesi zor buluyorum.
  • 15:25 - 15:29
    Ama bu yeni dünyada
    eğitimden kim sorumlu?
  • 15:29 - 15:33
    JB: Bence, bu sorumluluk
    biraz da hepimizde,
  • 15:33 - 15:36
    yaptığımız, inşa ettiğimiz her şey
  • 15:36 - 15:40
    karşılıklı tartışma ile yapılmalı,
  • 15:40 - 15:42
    bundan kaçınan insanlarla birlikte;
  • 15:42 - 15:46
    insanların doğru şeyi yapması için
    aklını çelme amacı taşıyan
  • 15:46 - 15:48
    sistemler tasarlamıyoruz
  • 15:48 - 15:52
    ama bunlar onları eğitmenin
    her adımına dâhiller
  • 15:52 - 15:54
    çünkü bu sistemlerin her biri eğitici.
  • 15:54 - 15:57
    Umutlu olduğum şey de bu,
    bu son derece acımasızca şeylerde bile,
  • 15:57 - 15:59
    eğer onu alıp düzgünce incelerseniz
  • 15:59 - 16:01
    aslında o, kendi içinde eğitim parçası,
  • 16:01 - 16:05
    karmaşık sistemlerin nasıl bir araya gelip
    işlediğini görmeye başlamamızı
  • 16:05 - 16:09
    ve belki de bu bilgiyi dünyanın
    başka bir yerinde kullanmamızı sağlayacak.
  • 16:09 - 16:11
    HW: James, bu çok önemli bir tartışmaydı
  • 16:11 - 16:14
    ve biliyorum ki buradaki çoğu insan
    bu tartışmaya açık ve hazırlar,
  • 16:14 - 16:16
    güne seninle başlamak çok güzeldi.
  • 16:16 - 16:17
    JB: Çok teşekkürler.
  • 16:17 - 16:19
    (Alkışlar)
Title:
Youtube'daki çocuk videoları kabusu ve günümüzde internetin sorunu
Speaker:
James Bridle
Description:

Yazar ve sanatçı James Bridle Youtube'da bilinmeyen insan veya grupların reklam geliri karşılığında küçük çocukların beyinlerini ele geçirdiği, internetin karanlık ve garip köşesini açığa çıkarıyor. "Sürpriz yumurta" açılışları ve "Parmak Ailesi Şarkısı"ndan algoritmik olarak yaratılan tanınmış çizgi film karakterleri karışımlarının şiddetli hallerine, bu videolar genç beyinleri sömürüyor ve dehşete düşürüyor--ve bize giderek veri ile işleyen dünyamızın nereye gittiğiyle ilgili bir şeyler söylüyor. "Teknolojiyi bütün problemlerimize bir çözüm olarak düşünmek yerine, onu bu problemlerin aslında ne olduğunu gösteren bir rehber olarak görmeliyiz ki onlar hakkında düzgünce düşünüp çözüm bulabilelim." diyor Bridle.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Turkish subtitles

Revisions