1 00:00:03,634 --> 00:00:07,363 [Ekran arkası: İnternette ne göreceğime kim karar veriyor?] 2 00:00:08,376 --> 00:00:09,526 Merhaba, ben Taylor. 3 00:00:09,526 --> 00:00:11,778 İnternet ve gazeteciliği araştırıyorum 4 00:00:11,778 --> 00:00:16,077 ve biz vatandaşların dünya hakkındaki bilgileri nasıl aldığını. 5 00:00:17,389 --> 00:00:19,628 Eskiden insanlar bilgi alacaksa 6 00:00:19,778 --> 00:00:22,688 buna daha çok insanlar karar verirdi. 7 00:00:22,688 --> 00:00:25,381 Bilmemiz gerekenleri belirleyen insanlar vardı. 8 00:00:25,560 --> 00:00:28,550 Dolayısıyla bir gazeteyi veya akşam haberlerini açtığımızda, 9 00:00:28,550 --> 00:00:32,570 duyduğumuz ve gördüğümüz şeylere karar veren bir insandı. 10 00:00:33,240 --> 00:00:36,546 Bunun sonucunda hepimiz benzer şeylerden haberdar olurduk. 11 00:00:38,059 --> 00:00:40,742 Şimdiyse internet her şeyi değiştirdi. 12 00:00:41,090 --> 00:00:44,017 İnternete girdiğinizde, bir uygulamayı açtığınızda, 13 00:00:44,486 --> 00:00:47,224 gördüğünüz şey bir insan tarafından değil 14 00:00:47,489 --> 00:00:49,220 bir makine tarafından belirleniyor. 15 00:00:49,589 --> 00:00:51,820 Bu birçok açıdan dehşet bir şey: 16 00:00:51,984 --> 00:00:54,053 Google Haritalar kullanmanızı, 17 00:00:54,053 --> 00:00:56,523 online yemek siparişi vermenizi, 18 00:00:56,523 --> 00:01:00,162 dünyanın her yerinden arkadaşlarınızla bağlantı kurmanızı 19 00:01:00,162 --> 00:01:01,870 ve bilgi paylaşmanızı sağlıyor. 20 00:01:02,290 --> 00:01:04,911 Ancak bu makine ile ilgili 21 00:01:05,221 --> 00:01:07,511 çok dikkatli düşünmemiz gereken şeyler var 22 00:01:07,741 --> 00:01:11,618 çünkü bir toplumun ve demokrasinin vatandaşları olarak 23 00:01:11,793 --> 00:01:15,050 aldığımız tüm bilgileri onlar belirliyor. 24 00:01:15,489 --> 00:01:17,029 Bir uygulamayı açtığınızda, 25 00:01:17,179 --> 00:01:20,531 mesela Snapchat akışınızda bir resim gösteriliyor size, 26 00:01:20,764 --> 00:01:24,420 tüm bu bilgilere bu makine karar veriyor 27 00:01:24,465 --> 00:01:28,951 ve bu makine web sitesinin veya uygulamanın sahibi şirketin güdüleriyle 28 00:01:28,951 --> 00:01:32,251 yönetiliyor. 29 00:01:32,684 --> 00:01:36,540 Bu güdü ise sizin o uygulamada mümkün olduğunca 30 00:01:36,540 --> 00:01:38,250 fazla zaman geçirmenize yöneliktir. 31 00:01:38,680 --> 00:01:42,087 Haliyle orada olmaktan hoşnut olduğunuzu hissettirecek şeyleri yaparlar. 32 00:01:42,250 --> 00:01:44,643 İnsanların fotoğraflarınızı beğenmesini sağlarlar. 33 00:01:44,975 --> 00:01:47,943 Görmek isteyeceğinizi düşündükleri içerikleri size gösterirler 34 00:01:48,066 --> 00:01:50,940 ki bunlar sizi ya mutlu edecek veya çok kızdıracak şeylerdir, 35 00:01:50,940 --> 00:01:54,190 böylelikle de sizden duygusal tepki alarak orada kalmanızı sağlarlar. 36 00:01:54,260 --> 00:01:57,143 Bunu, siz uygulamadayken size mümkün olduğu kadar çok sayıda 37 00:01:57,143 --> 00:01:59,163 reklam göstermek istedikleri için yaparlar 38 00:01:59,163 --> 00:02:00,610 çünkü bu onların iş modelidir. 39 00:02:00,897 --> 00:02:03,914 Ayrıca, uygulamalarını kullanmanızdan 40 00:02:03,914 --> 00:02:06,300 hakkınızda veri toplamak için faydalanıyorlar. 41 00:02:06,370 --> 00:02:08,005 Bu verileri de 42 00:02:08,005 --> 00:02:11,663 sizin hayatınız ve davranışlarınızın detaylı profilini oluşturmada kullanırlar 43 00:02:11,845 --> 00:02:13,924 ve bu profiller daha sonra 44 00:02:13,924 --> 00:02:16,930 sizi daha fazla reklam hedefine almak için kullanılabilir 45 00:02:17,200 --> 00:02:19,700 ve sonra da neler göreceğinizi belirler. 46 00:02:21,470 --> 00:02:25,170 Fakat bunların hepsi sadece bir şirketin iş modeli ile ilgili değil, 47 00:02:25,614 --> 00:02:28,277 aslında demokrasimiz üzerinde etkisi var 48 00:02:28,735 --> 00:02:34,509 çünkü internette gördüğümüz şeyler yüksek oranda bizim için özelleştirilmiş, 49 00:02:34,990 --> 00:02:36,183 sevdiğimiz, 50 00:02:36,453 --> 00:02:37,843 inandığımız, 51 00:02:38,253 --> 00:02:41,203 görmek veya inanmak istediğimiz şeyler. 52 00:02:41,523 --> 00:02:43,498 Bu, toplum olarak 53 00:02:43,756 --> 00:02:47,500 artık hepimizin müşterek bir bilgi seti olmadığı anlamına geliyor 54 00:02:47,500 --> 00:02:49,687 ki bu birlikte çalışmamızı 55 00:02:49,687 --> 00:02:52,441 ve hayatlarımız hakkında birlikte kararlar vermemiz için 56 00:02:52,441 --> 00:02:55,391 aynı şeyleri bilmemizi gerektiren demokrasi için zor bir şey. 57 00:02:55,391 --> 00:02:57,030 Hepimiz farklı şeyleri bilir 58 00:02:57,030 --> 00:03:01,059 ve kendi küçük bilgi baloncuklarımızın içine yığılırsak 59 00:03:01,567 --> 00:03:04,860 birbirimizle anlaşmamız inanılmaz zor olur. 60 00:03:04,860 --> 00:03:07,670 Paylaşılan deneyim veya paylaşılan bilgimiz yok. 61 00:03:08,241 --> 00:03:11,335 Çevrimiçi aldığımız bilgiler hakkında, 62 00:03:11,545 --> 00:03:14,107 şirketler hakkında ve internette gördüğümüz şeylere 63 00:03:14,247 --> 00:03:17,167 karar veren yapılar hakkında eleştirel düşünmemizin 64 00:03:17,337 --> 00:03:19,455 gerçekten önemli olduğunu düşünüyorum. 65 00:03:21,504 --> 00:03:24,702 [NewsWise CIVIX ve Kanada Gazetecilik Vakfı (CJF) projesidir] 66 00:03:25,172 --> 00:03:27,595 Çeviri: Selda Yener