Return to Video

Yanlış bilgilendirme çağında gerçeği nasıl koruyabiliriz

  • 0:01 - 0:07
    23 Nisan 2013'te
  • 0:07 - 0:12
    Associated Press, Twitter'da
    şöyle bir tweet attı.
  • 0:12 - 0:15
    "Flaş haber:
  • 0:15 - 0:17
    Beyaz Saray'da iki patlama.
  • 0:17 - 0:20
    Barack Obama yaralandı."
  • 0:20 - 0:26
    Bu tweet beş dakikadan kısa sürede
    4000 kere paylaşıldı
  • 0:26 - 0:28
    ve sonrasında viral oldu.
  • 0:29 - 0:33
    Bu tweet, Associated Press tarafından
    paylaşılan gerçek bir haber değildi.
  • 0:33 - 0:36
    Aslında sahte veya yalan bir haberdi.
  • 0:36 - 0:39
    Associated Press'in
    Twitter hesabını ele geçiren
  • 0:39 - 0:44
    Suriyeli bilgisayar korsanlarınca
    paylaşılmıştı.
  • 0:44 - 0:48
    Amaçları toplumda kargaşa çıkarmaktı
    ama çok daha fazlasını yaptılar.
  • 0:48 - 0:51
    Çünkü otomatik borsa algoritmaları
  • 0:51 - 0:54
    bu tweet'teki hissiyatı hemen yakaladı
  • 0:54 - 0:57
    ve ABD Başkanı'nın bu patlamada
  • 0:57 - 1:01
    yaralanmış veya öldürülmüş olması
    ihtimaline göre alım satım
  • 1:01 - 1:02
    yapmaya başladı.
  • 1:02 - 1:04
    Tweet atmaya başladıklarında
  • 1:04 - 1:08
    borsayı çöküşe soktular,
  • 1:08 - 1:13
    bir günde 140 milyar dolarlık
    değer kaybına yol açtılar.
  • 1:13 - 1:18
    Özel yetkili ABD savcısı Robert Mueller
  • 1:18 - 1:21
    üç Rus şirketine ve 13 Rus bireye karşı
  • 1:21 - 1:24
    2016 başkanlık seçimine müdahale ederek
  • 1:24 - 1:27
    ABD'yi dolandırmak amacıyla
  • 1:27 - 1:31
    komplo kurmaktan dava açtı.
  • 1:32 - 1:35
    Bu iddianamenin hikâyesi,
  • 1:35 - 1:39
    Kremlin'in sosyal medyadaki
    gizli kolu olan
  • 1:39 - 1:42
    Internet Research Agency'nin hikâyesidir.
  • 1:43 - 1:46
    Sırf başkanlık seçimlerinde
  • 1:46 - 1:48
    Internet Agency'nin çabaları
  • 1:48 - 1:53
    ABD'de Facebook üzerinden
    126 milyon kişiye ulaştı,
  • 1:53 - 1:56
    üç milyon tekil tweet attı
  • 1:56 - 2:00
    ve 43 saatlik YouTube içeriği yayınladı.
  • 2:00 - 2:02
    Bunların hepsi sahteydi.
  • 2:02 - 2:08
    ABD başkanlık seçimlerine şüphe tohumları
    ekme amaçlı yanlış bilgilendirmelerdi.
  • 2:09 - 2:12
    Oxford Üniversitesi'nin
    yakın tarihli bir araştırması
  • 2:12 - 2:15
    geçtiğimiz İsveç seçimlerinde
  • 2:15 - 2:19
    sosyal medyada yayınlanan
    seçimle ilgili bilgilerin
  • 2:19 - 2:21
    üçte birinin
  • 2:21 - 2:23
    yalan veya sahte olduğunu
    ortaya koydu.
  • 2:23 - 2:28
    Ek olarak, yanlış bilgilendirme amaçlı
    bu tür sosyal medya kampanyaları
  • 2:28 - 2:32
    Burma'da Rohingya'ya karşı yürütülen
  • 2:32 - 2:35
    veya Hindistan'da linçlere yol açan
    "soykırımcı propaganda"ların
  • 2:35 - 2:38
    yayılmasına yol açabilir.
  • 2:38 - 2:39
    Biz yalan haberleri araştırdık
  • 2:39 - 2:43
    ve onları araştırmaya bu terim
    popüler olmadan önce başladık.
  • 2:43 - 2:46
    Bu yıl Mart ayında,
    "Science" dergisinin kapağında
  • 2:46 - 2:50
    internette yayılan sahte haberleri
    konu alan en geniş kapsamlı
  • 2:50 - 2:54
    panel araştırmasını yayımladık.
  • 2:55 - 2:59
    2006'daki kuruluşundan 2017'ye kadar
    Twitter'da yayılan
  • 2:59 - 3:00
    doğru veya yalan olduğu ispatlanmış
  • 3:00 - 3:04
    tüm haberleri inceledik.
  • 3:05 - 3:07
    Bu bilgileri ele alırken
  • 3:07 - 3:10
    bilgi kontrolü yapan
    altı bağımsız kuruluşun
  • 3:10 - 3:14
    doğruladığı haberleri inceledik.
  • 3:14 - 3:17
    Yani hangilerinin doğru,
  • 3:17 - 3:19
    hangilerinin sahte olduğunu biliyorduk.
  • 3:19 - 3:21
    Yayılışlarını ölçebiliyoruz,
  • 3:21 - 3:22
    yayılışlarının hızını, derinliğini
  • 3:22 - 3:24
    ve kapsamını ölçebiliyoruz,
  • 3:24 - 3:29
    kaç kişinin bu bilgi yağmuruna
    kapıldığını da.
  • 3:29 - 3:30
    Bu araştırmada yaptığımız,
  • 3:30 - 3:34
    gerçek haberlerin yayılışıyla
    yalan haberlerin yayılışını kıyaslamaktı.
  • 3:34 - 3:36
    Bulduklarımız şunlar:
  • 3:36 - 3:40
    Yalan haberlerin araştırdığımız
    her haber kategorisinde
  • 3:40 - 3:42
    doğru haberlerden
  • 3:42 - 3:45
    kimi zaman birkaç kat
    daha uzağa, daha hızlı,
  • 3:45 - 3:47
    daha geniş kapsamlı
    yayıldığını tespit ettik.
  • 3:48 - 3:51
    Siyasi yalan haberler en viral olanlardı.
  • 3:51 - 3:55
    Diğer tür yalan haber türlerinden
    daha uzağa, daha derine
  • 3:55 - 3:57
    ve daha geniş kitlelere yayılıyorlardı.
  • 3:57 - 3:59
    Bunu gördüğümüzde
  • 3:59 - 4:02
    hem endişelendik hem meraklandık.
  • 4:02 - 4:03
    Neden?
  • 4:03 - 4:06
    Neden yalan haberler, gerçeklerden
    daha uzağa, daha hızlı,
  • 4:06 - 4:08
    daha geniş çaplı yayılıyor?
  • 4:08 - 4:11
    İlk hipotezimiz
  • 4:11 - 4:16
    "Belki yalan haberleri yayanların
    takipçisi, takip ettikleri daha çok,
  • 4:16 - 4:18
    daha çok tweet atıyorlar,
  • 4:18 - 4:22
    geneli "doğrulanmış" Twitter kullanıcıları
  • 4:22 - 4:24
    veya daha uzun süredir Twitter'dalar.
  • 4:24 - 4:26
    Sırayla bunların hepsine baktık.
  • 4:27 - 4:30
    Tam tersini bulduk.
  • 4:30 - 4:32
    Yalan haberleri yayanların
    takipçileri daha azdı,
  • 4:32 - 4:34
    daha az kişiyi takip ediyorlardı,
    daha az aktif,
  • 4:34 - 4:36
    ender olarak "doğrulanmış"tılar.
  • 4:36 - 4:39
    Daha kısa süredir Twitter'daydılar.
  • 4:39 - 4:40
    Yine de
  • 4:40 - 4:45
    bunlar ve başka faktörler dâhilinde
    yalan haberin tekrar tweetlenmesi ihtimali
  • 4:45 - 4:48

    yüzde 70 daha fazlaydı.
  • 4:48 - 4:51
    Öyleyse başka açıklamalar bulmalıydık.
  • 4:51 - 4:55
    "Yenilik hipotezi" diye
    bir şey geliştirdik.
  • 4:55 - 4:57
    Araştırmalara bakarsanız
  • 4:57 - 5:01
    insanın dikkatinin yeni şeylere,
    çevrede yeni olan şeylere
  • 5:01 - 5:03
    kaydığı iyi bilinir.
  • 5:03 - 5:05
    Sosyoloji külliyatına bakarsanız
  • 5:05 - 5:10
    yeni bilgileri paylaşmayı
    sevdiğimizi görürsünüz.
  • 5:10 - 5:14
    Gizli bir bilgiye
    erişimimiz varmış gibi hissettirir
  • 5:14 - 5:17
    ve bu tür bilgileri yayarak
    statü kazanırız.
  • 5:18 - 5:24
    Gelen doğru veya yalan bir tweet'in
    o bireyin önceki 60 günde
  • 5:24 - 5:28
    Twitter'da gördüklerine kıyasla
    ne kadar yeni bir bilgi
  • 5:28 - 5:31
    olduğunu ölçtük.
  • 5:31 - 5:34
    Ama bu, yeterli değildi. "Yalan haber,
  • 5:34 - 5:38
    bilgi teorisi anlamında daha yeni olabilir
  • 5:38 - 5:41
    ama belki insanlar onu
    yeni olarak algılamıyordur." dedik.
  • 5:42 - 5:46
    İnsanların yalan haberi
    nasıl algıladığını anlamak için
  • 5:46 - 5:49
    doğru ve yalan haberlere
    verilen tepkilerdeki
  • 5:50 - 5:54
    bilgilere ve hislere baktık.
  • 5:54 - 5:55
    Sürpriz, iğrenme, korku,
  • 5:55 - 5:59
    üzüntü, beklenti, neşe ve güven gibi
  • 5:59 - 6:03
    farklı duyguların ölçümlerine baktığımızda
  • 6:03 - 6:05
    bulduğumuz şey
  • 6:05 - 6:11
    yalan haberler söz konusu olduğunda
    bu sahte tweet'lere verilen yanıtların
  • 6:11 - 6:14
    çok daha fazla sürpriz
    ve iğrenme hissine yol açtığıydı.
  • 6:14 - 6:18
    Doğru haberlerdeyse
    doğru tweet'lere verilen yanıtlarda
  • 6:18 - 6:20
    daha çok beklenti,
  • 6:20 - 6:22
    neşe ve güven vardı.
  • 6:22 - 6:26
    Sürpriz, yenilik hipotezine uyuyor.
  • 6:26 - 6:31
    Bu, yeni ve şaşırtıcı, dolayısıyla onu
    paylaşma ihtimalimiz daha yüksek.
  • 6:31 - 6:34
    Aynı zamanda ABD Kongre ve Senatosu'nda
  • 6:34 - 6:37
    yanlış bilgilerin yayılmasında
    botların rolüne dair
  • 6:37 - 6:41
    ifadeler verildi.
  • 6:41 - 6:42
    Biz de buna da baktık.
  • 6:42 - 6:46
    Gelişmiş bot tespit
    algoritmaları kullanarak
  • 6:46 - 6:49
    verilerimizdeki botları bulup çıkardık.
  • 6:49 - 6:52
    Onları çıkardık, geri koyduk
  • 6:52 - 6:55
    ve ölçümlerimize ne olduğuna baktık.
  • 6:55 - 6:57
    Şunu bulduk, evet, gerçekten de botlar
  • 6:57 - 7:01
    internette yalan haberlerin
    yayılmasını hızlandırıyordu
  • 7:01 - 7:04
    ama doğruların yayılmasını da
  • 7:04 - 7:06
    aynı ölçüde hızlandırıyorlardı.
  • 7:06 - 7:09
    Yani gerçeklerin ve yalanların
  • 7:09 - 7:14
    yayılışındaki farklılıkların
    sorumlusu botlar değil.
  • 7:14 - 7:17
    Bu sorumluluğu başkasına atamayız
  • 7:17 - 7:21
    çünkü o yayılmanın sorumlusu
    biz insanlarız.
  • 7:22 - 7:26
    Şimdiye kadar anlattıklarım
  • 7:26 - 7:28
    ne yazık ki
  • 7:28 - 7:29
    işin iyi yanıydı.
  • 7:31 - 7:35
    Bunun sebebi daha da kötüye
    gidecek olması.
  • 7:36 - 7:40
    Bunu kötüleştirecek
    iki belli başlı teknoloji var.
  • 7:40 - 7:45
    Sentetik medya dalgasında
    ciddi bir artış göreceğiz.
  • 7:45 - 7:51
    Dışarıdan bakıldığında ikna edici görünen
    sahte video, sahte seslendirme.
  • 7:51 - 7:54
    Ve iki teknoloji bunu besleyecek.
  • 7:54 - 7:58
    İlki "üretken çekişmeli ağlar"
    olarak biliniyor.
  • 7:58 - 8:01
    Bu, iki ağlı bir makine öğrenimi modeli:
  • 8:01 - 8:02
    Bir şeyin gerçek mi sahte mi
  • 8:02 - 8:06
    olduğunu belirlemekle görevli
    bir ayrıştırıcı
  • 8:06 - 8:08
    ve sentetik medya
  • 8:08 - 8:11
    üretmekle yükümlü üretici.
  • 8:11 - 8:16
    Sentetik üretici,
    sentetik video veya sesi üretir
  • 8:16 - 8:21
    ve ayrıştırıcı şunu belirlemeyi dener:
    "Bu sahte mi, gerçek mi?"
  • 8:21 - 8:24
    Aslında üreticinin işi
  • 8:24 - 8:28
    yarattığı sentetik video ve sesin
    ayrıştıcı tarafından
  • 8:28 - 8:32
    gerçek sanılması ihtimalini
  • 8:32 - 8:33
    artırmaktır.
  • 8:33 - 8:36
    Bizi kandırmakta ustalaşmaya çalışan,
  • 8:36 - 8:39
    döngüye takılmış bir makine hayal edin.
  • 8:39 - 8:42
    Bu, ikinci teknolojiyle,
  • 8:42 - 8:47
    yapay zekânın demokratikleştirilmesiyle,
    yani makine öğrenimi
  • 8:47 - 8:50
    veya yapay zekâ konusunda
  • 8:50 - 8:52
    herhangi bir eğitimi olmayan
    kişilerin bile
  • 8:52 - 8:54
    sentetik medya üretmek için
  • 8:54 - 8:58
    bu tür algoritmaları
    kullanabilmesiyle birleşince
  • 8:58 - 9:02
    videoların yaratılması
    fazlasıyla kolaylaşıyor.
  • 9:02 - 9:07
    Beyaz Saray bir gazetecinin
    mikrofonunu almaya çalışan stajyerle
  • 9:07 - 9:11
    etkileşimini gösteren sahte,
    üstünde oynanmış bir video yayınladı.
  • 9:11 - 9:13
    Eylemlerini daha dramatik kılmak için
  • 9:13 - 9:17
    bu videodan bazı kareleri çıkardılar.
  • 9:17 - 9:21
    Bu teknik konusunda
  • 9:21 - 9:23
    videograflar ve dublörlerle görüşüldüğünde
  • 9:23 - 9:27
    "Evet, yumruklarımız ve tekmelerimiz
    daha etkileyici ve saldırgan görünsün diye
  • 9:27 - 9:32
    filmlerde bunu hep kullanırız." dediler.
  • 9:32 - 9:34
    Sonra bu videoyu yayınladılar
  • 9:34 - 9:37
    ve bahsi geçen gazeteci olan
    Jim Acosta'nın,
  • 9:37 - 9:41
    Beyaz Saray basın kartını
  • 9:41 - 9:42
    iptal etmekte kullandılar.
  • 9:42 - 9:47
    Basın kartının yeniden çıkarılması için
    CNN dava açmak zorunda kaldı.
  • 9:49 - 9:54
    Bugün bu son derece zor
    sorunları çözmek için
  • 9:54 - 9:58
    izleyebileceğimiz beş yol aklıma geliyor.
  • 9:58 - 10:00
    Hepsinin potansiyeli var
  • 10:00 - 10:03
    ama kendilerine göre zorlukları da var.
  • 10:03 - 10:05
    İlki etiketleme.
  • 10:05 - 10:07
    Bunu şöyle düşünün:
  • 10:07 - 10:10
    Yiyecek almak için markete gittiğinizde
  • 10:10 - 10:12
    hepsi detaylı şekilde etiketlenmiş.
  • 10:12 - 10:14
    Kaç kalorisi olduğunu,
  • 10:14 - 10:16
    ne kadar yağ içerdiğini biliyorsunuz
  • 10:16 - 10:20
    ama tükettiğimiz bilgilerin
    hiçbir etiketi yok.
  • 10:20 - 10:22
    Bu bilgi neleri kapsıyor?
  • 10:22 - 10:24
    Kaynağı güvenilir mi?
  • 10:24 - 10:26
    Bilgi nereden toplanmış?
  • 10:26 - 10:28
    Bilgileri tüketirken
  • 10:28 - 10:30
    bu bilgiler bize verilmiyor.
  • 10:30 - 10:33
    Bu izlenebilecek bir yol
    ama kendine özgü sorunları var.
  • 10:33 - 10:40
    Mesela bir toplumda neyin doğru
    neyin yanlış olduğuna kim karar verir?
  • 10:40 - 10:42
    Hükûmet mi?
  • 10:42 - 10:43
    Facebook mu?
  • 10:44 - 10:47
    Bilgileri kontrol eden
    bağımsız bir kurul mu?
  • 10:47 - 10:50
    Peki onları kim kontrol edecek?
  • 10:50 - 10:54
    Bir diğer yol, teşvik.
  • 10:54 - 10:56
    ABD başkanlık seçimi sırasında
  • 10:56 - 11:00
    Makedonya'dan bir yanlış bilgi dalgası
    geldiğini biliyoruz.
  • 11:00 - 11:02
    Amaçları siyasi değil,
  • 11:02 - 11:05
    ekonomikti.
  • 11:05 - 11:07
    Bu ekonomik amaç, var olabilmesini
  • 11:07 - 11:10
    yalan haberin,
    doğrulardan çok daha hızlı,
  • 11:10 - 11:12
    çok daha derinlere yayılmasına borçlu
  • 11:13 - 11:17
    ve bu tür bilgilerle
    insanların ilgisini çekerek
  • 11:17 - 11:19
    reklam geliri elde edebilirsiniz.
  • 11:19 - 11:23
    Ama bu bilginin yayılmasını baskılarsak
  • 11:23 - 11:26
    belki de daha baştan
    yaratılmasına sebep olan
  • 11:26 - 11:29
    ekonomik teşvikleri de azaltırız.
  • 11:29 - 11:31
    Üçüncüsü, denetim.
  • 11:31 - 11:34
    Bu seçeneği düşünmemiz gerektiği kesin.
  • 11:34 - 11:35
    Şu anda ABD'de
  • 11:35 - 11:40
    Facebook ve benzerleri denetim altına
    alınsa ne olacağını araştırıyoruz.
  • 11:40 - 11:44
    Siyasi söylemleri denetlemeyi,
    onları siyasi söylem olarak etiketlemeyi,
  • 11:44 - 11:47
    dış mihrakların siyasi söylemleri
    finanse etmesini
  • 11:47 - 11:51
    engellemeyi göz önünde
    bulundurmamız gerekse de
  • 11:51 - 11:53
    bunların da kendince tehlikeleri var.
  • 11:54 - 11:58
    Mesela Malezya yalan bilgi yaydığı
    tespit edilenlere
  • 11:58 - 12:01
    altı yıl hapis cezası getirdi.
  • 12:02 - 12:04
    Otoriter rejimlerde
  • 12:04 - 12:08
    bu tür düzenlemeler
    azınlık görüşlerini bastırmak
  • 12:08 - 12:12
    ve baskının kapsamını genişletmek
    amacıyla kullanılabilir.
  • 12:13 - 12:16
    Dördüncü olasılık, şeffaflık.
  • 12:17 - 12:21
    Facebook'un algoritmalarının
    nasıl çalıştığını bilmek istiyoruz.
  • 12:21 - 12:23
    Algoritmalarla birleşen veriler
  • 12:23 - 12:26
    nasıl oluyor da
    gördüğümüz sonuçları doğuruyor?
  • 12:26 - 12:29
    Kapıyı açmalarını
  • 12:29 - 12:33
    ve Facebook'un nasıl işlediğini
    göstermelerini istiyoruz.
  • 12:33 - 12:36
    Sosyal medyanın toplumdaki
    etkilerini öğrenmek istiyorsak
  • 12:36 - 12:38
    bilim insanları, araştırmacılar
  • 12:38 - 12:41
    ve benzerlerinin bu tür bilgilere
    erişmesine ihtiyacımız var.
  • 12:41 - 12:43
    Ama aynı zamanda
  • 12:43 - 12:46
    Facebook'tan her şeyi kilitlemesini,
  • 12:46 - 12:49
    tüm verileri güvende tutmasını istiyoruz.
  • 12:49 - 12:52
    Bu yüzden Facebook
    ve diğer sosyal medya platformları
  • 12:52 - 12:55
    şeffaflık paradoksu dediğim şeyle
    karşı karşıya.
  • 12:55 - 12:58
    Onlardan hem açık ve şeffaf olmalarını
  • 12:58 - 13:03
    hem de güvenli olmalarını istiyoruz.
  • 13:03 - 13:05
    Bu, zor bir görev
  • 13:06 - 13:08
    ama sosyal teknolojilerin
    potansiyelini değerlendirip
  • 13:08 - 13:11
    tehlikelerinden kaçınacaksak
  • 13:11 - 13:13
    bu görevi başarmalılar.
  • 13:13 - 13:18
    Düşünmemiz gereken son konu,
    algoritmalar ve makine öğrenimi.
  • 13:18 - 13:23
    Yalan haberlerin köküne inip
    onları, nasıl yayıldıklarını anlamamızı,
  • 13:23 - 13:25
    akışı yavaşlatmamızı
    sağlayacak teknolojiler.
  • 13:26 - 13:29
    İnsanlar bu teknolojiden haberdar olmalı
  • 13:29 - 13:31
    çünkü her teknolojik çözümün
  • 13:31 - 13:35
    veya yaklaşımın temelinde,
    doğruyu ve yalanı nasıl tanımlıyoruz,
  • 13:35 - 13:39
    doğrunun ve yalanın ne olduğunu
  • 13:39 - 13:42
    tanımlama gücünü kime veriyoruz,
  • 13:42 - 13:46
    hangi görüş doğru,
    hangi söylemlere izin verilmeli gibi
  • 13:46 - 13:48
    ahlaki ve felsefi soruların
  • 13:48 - 13:52
    yattığı gerçeğinden asla kaçamayız.
  • 13:52 - 13:54
    Bunun çözümü teknoloji değil.
  • 13:54 - 13:58
    Bunun çözümü ahlak ve felsefe.
  • 13:59 - 14:02
    İnsanların karar vermesi, iş birliği
  • 14:02 - 14:05
    ve koordinasyonu hakkındaki
    tüm teorilerin özünde
  • 14:05 - 14:09
    bir tür gerçek anlayışı yatar.
  • 14:09 - 14:11
    Ama yalan haberlerin,
  • 14:11 - 14:13
    sahte videoların,
  • 14:13 - 14:15
    sahte seslendirmelerin artışıyla
  • 14:15 - 14:19
    gerçeğin kıyısındaki bir noktaya geldik,
  • 14:19 - 14:23
    neyin gerçek neyin yalan olduğunu
    ayırt edemiyoruz
  • 14:23 - 14:26
    ve bu, çok tehlikeli olabilir.
  • 14:27 - 14:31
    Yanlış bilgilendirmeye karşı
    gerçekleri savunmak adına
  • 14:31 - 14:32
    tetikte olmalıyız.
  • 14:33 - 14:36
    Teknolojilerimiz, politikalarımız
  • 14:36 - 14:38
    ve belki de en önemlisi
  • 14:38 - 14:42
    bireysel sorumluluklarımızla,
  • 14:42 - 14:45
    kararlarımız, davranışlarımız
    ve eylemlerimizle.
  • 14:46 - 14:47
    Çok teşekkürler.
  • 14:47 - 14:51
    (Alkışlar)
Title:
Yanlış bilgilendirme çağında gerçeği nasıl koruyabiliriz
Speaker:
Sinan Aral
Description:

Yalan haberler seçimlerin yönünü değiştirebilir, ekonomileri baltalayabilir ve gündelik hayata nifak tohumları ekebilir. Veri bilimcisi Sinan Aral, dezenformasyon konusundaki en geniş kapsamlı araştırmalardan biri üzerinden yalan haberlerin nasıl ve neden bu kadar hızlı yayıldığını açıklıyor ve gerçeklerle yalanları birbirinden ayırmamızı sağlayacak beş strateji saptıyor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Turkish subtitles

Revisions