WEBVTT 00:00:01.468 --> 00:00:06.690 23 Nisan 2013'te 00:00:06.714 --> 00:00:12.228 Associated Press, Twitter'da şöyle bir tweet attı. 00:00:12.252 --> 00:00:14.649 "Flaş haber: 00:00:14.673 --> 00:00:17.244 Beyaz Saray'da iki patlama. 00:00:17.268 --> 00:00:19.601 Barack Obama yaralandı." 00:00:20.212 --> 00:00:25.637 Bu tweet beş dakikadan kısa sürede 4000 kere paylaşıldı 00:00:25.661 --> 00:00:27.878 ve sonrasında viral oldu. NOTE Paragraph 00:00:28.760 --> 00:00:33.110 Bu tweet, Associated Press tarafından paylaşılan gerçek bir haber değildi. 00:00:33.134 --> 00:00:36.467 Aslında sahte veya yalan bir haberdi. 00:00:36.491 --> 00:00:39.316 Associated Press'in Twitter hesabını ele geçiren 00:00:39.340 --> 00:00:44.034 Suriyeli bilgisayar korsanlarınca paylaşılmıştı. 00:00:44.407 --> 00:00:48.296 Amaçları toplumda kargaşa çıkarmaktı ama çok daha fazlasını yaptılar. 00:00:48.320 --> 00:00:50.796 Çünkü otomatik borsa algoritmaları 00:00:50.820 --> 00:00:54.180 bu tweet'teki hissiyatı hemen yakaladı 00:00:54.204 --> 00:00:57.172 ve ABD Başkanı'nın bu patlamada 00:00:57.196 --> 00:01:00.577 yaralanmış veya öldürülmüş olması ihtimaline göre alım satım 00:01:00.601 --> 00:01:01.801 yapmaya başladı. 00:01:02.188 --> 00:01:04.180 Tweet atmaya başladıklarında 00:01:04.204 --> 00:01:07.553 borsayı çöküşe soktular, 00:01:07.577 --> 00:01:12.744 bir günde 140 milyar dolarlık değer kaybına yol açtılar. NOTE Paragraph 00:01:13.062 --> 00:01:17.538 Özel yetkili ABD savcısı Robert Mueller 00:01:17.562 --> 00:01:21.454 üç Rus şirketine ve 13 Rus bireye karşı 00:01:21.478 --> 00:01:24.097 2016 başkanlık seçimine müdahale ederek 00:01:24.121 --> 00:01:27.288 ABD'yi dolandırmak amacıyla 00:01:27.312 --> 00:01:31.092 komplo kurmaktan dava açtı. 00:01:31.855 --> 00:01:35.419 Bu iddianamenin hikâyesi, 00:01:35.443 --> 00:01:38.585 Kremlin'in sosyal medyadaki gizli kolu olan 00:01:38.609 --> 00:01:42.203 Internet Research Agency'nin hikâyesidir. 00:01:42.815 --> 00:01:45.592 Sırf başkanlık seçimlerinde 00:01:45.616 --> 00:01:47.505 Internet Agency'nin çabaları 00:01:47.529 --> 00:01:52.696 ABD'de Facebook üzerinden 126 milyon kişiye ulaştı, 00:01:52.720 --> 00:01:55.997 üç milyon tekil tweet attı 00:01:56.021 --> 00:01:59.863 ve 43 saatlik YouTube içeriği yayınladı. 00:01:59.887 --> 00:02:01.539 Bunların hepsi sahteydi. 00:02:01.563 --> 00:02:07.886 ABD başkanlık seçimlerine şüphe tohumları ekme amaçlı yanlış bilgilendirmelerdi. NOTE Paragraph 00:02:08.996 --> 00:02:11.646 Oxford Üniversitesi'nin yakın tarihli bir araştırması 00:02:11.670 --> 00:02:14.940 geçtiğimiz İsveç seçimlerinde 00:02:14.964 --> 00:02:19.339 sosyal medyada yayınlanan seçimle ilgili bilgilerin 00:02:19.363 --> 00:02:20.561 üçte birinin 00:02:20.585 --> 00:02:22.672 yalan veya sahte olduğunu ortaya koydu. NOTE Paragraph 00:02:23.037 --> 00:02:28.115 Ek olarak, yanlış bilgilendirme amaçlı bu tür sosyal medya kampanyaları 00:02:28.139 --> 00:02:32.290 Burma'da Rohingya'ya karşı yürütülen 00:02:32.314 --> 00:02:35.425 veya Hindistan'da linçlere yol açan "soykırımcı propaganda"ların 00:02:35.449 --> 00:02:37.752 yayılmasına yol açabilir. NOTE Paragraph 00:02:37.776 --> 00:02:39.270 Biz yalan haberleri araştırdık 00:02:39.294 --> 00:02:42.513 ve onları araştırmaya bu terim popüler olmadan önce başladık. 00:02:43.030 --> 00:02:45.720 Bu yıl Mart ayında, "Science" dergisinin kapağında 00:02:45.720 --> 00:02:50.380 internette yayılan sahte haberleri konu alan en geniş kapsamlı 00:02:50.404 --> 00:02:53.608 panel araştırmasını yayımladık. 00:02:54.523 --> 00:02:58.684 2006'daki kuruluşundan 2017'ye kadar Twitter'da yayılan 00:02:58.708 --> 00:03:00.461 doğru veya yalan olduğu ispatlanmış 00:03:00.485 --> 00:03:04.303 tüm haberleri inceledik. 00:03:04.612 --> 00:03:06.926 Bu bilgileri ele alırken 00:03:06.950 --> 00:03:09.826 bilgi kontrolü yapan altı bağımsız kuruluşun 00:03:09.850 --> 00:03:13.768 doğruladığı haberleri inceledik. 00:03:13.792 --> 00:03:16.554 Yani hangilerinin doğru, 00:03:16.578 --> 00:03:18.704 hangilerinin sahte olduğunu biliyorduk. 00:03:18.728 --> 00:03:20.601 Yayılışlarını ölçebiliyoruz, 00:03:20.625 --> 00:03:22.276 yayılışlarının hızını, derinliğini 00:03:22.300 --> 00:03:24.395 ve kapsamını ölçebiliyoruz, 00:03:24.419 --> 00:03:28.561 kaç kişinin bu bilgi yağmuruna kapıldığını da. 00:03:28.942 --> 00:03:30.426 Bu araştırmada yaptığımız, 00:03:30.450 --> 00:03:34.315 gerçek haberlerin yayılışıyla yalan haberlerin yayılışını kıyaslamaktı. 00:03:34.339 --> 00:03:36.022 Bulduklarımız şunlar: NOTE Paragraph 00:03:36.046 --> 00:03:40.025 Yalan haberlerin araştırdığımız her haber kategorisinde 00:03:40.049 --> 00:03:41.855 doğru haberlerden 00:03:41.879 --> 00:03:44.882 kimi zaman birkaç kat daha uzağa, daha hızlı, 00:03:44.906 --> 00:03:47.405 daha geniş kapsamlı yayıldığını tespit ettik. 00:03:47.842 --> 00:03:51.366 Siyasi yalan haberler en viral olanlardı. 00:03:51.390 --> 00:03:54.537 Diğer tür yalan haber türlerinden daha uzağa, daha derine 00:03:54.561 --> 00:03:57.363 ve daha geniş kitlelere yayılıyorlardı. 00:03:57.387 --> 00:03:58.680 Bunu gördüğümüzde 00:03:58.704 --> 00:04:01.545 hem endişelendik hem meraklandık. 00:04:01.569 --> 00:04:02.720 Neden? 00:04:02.744 --> 00:04:06.117 Neden yalan haberler, gerçeklerden daha uzağa, daha hızlı, 00:04:06.141 --> 00:04:08.005 daha geniş çaplı yayılıyor? NOTE Paragraph 00:04:08.339 --> 00:04:11.300 İlk hipotezimiz 00:04:11.324 --> 00:04:16.116 "Belki yalan haberleri yayanların takipçisi, takip ettikleri daha çok, 00:04:16.140 --> 00:04:17.697 daha çok tweet atıyorlar, 00:04:17.721 --> 00:04:21.847 geneli "doğrulanmış" Twitter kullanıcıları 00:04:21.871 --> 00:04:24.053 veya daha uzun süredir Twitter'dalar. 00:04:24.077 --> 00:04:26.375 Sırayla bunların hepsine baktık. 00:04:26.691 --> 00:04:29.611 Tam tersini bulduk. 00:04:29.635 --> 00:04:32.071 Yalan haberleri yayanların takipçileri daha azdı, 00:04:32.095 --> 00:04:34.349 daha az kişiyi takip ediyorlardı, daha az aktif, 00:04:34.349 --> 00:04:35.887 ender olarak "doğrulanmış"tılar. 00:04:35.887 --> 00:04:38.817 Daha kısa süredir Twitter'daydılar. 00:04:38.841 --> 00:04:40.030 Yine de 00:04:40.054 --> 00:04:45.087 bunlar ve başka faktörler dâhilinde yalan haberin tekrar tweetlenmesi ihtimali 00:04:45.111 --> 00:04:48.474 yüzde 70 daha fazlaydı. NOTE Paragraph 00:04:48.498 --> 00:04:51.188 Öyleyse başka açıklamalar bulmalıydık. 00:04:51.212 --> 00:04:54.679 "Yenilik hipotezi" diye bir şey geliştirdik. 00:04:55.038 --> 00:04:56.998 Araştırmalara bakarsanız 00:04:57.022 --> 00:05:00.776 insanın dikkatinin yeni şeylere, çevrede yeni olan şeylere 00:05:00.800 --> 00:05:03.319 kaydığı iyi bilinir. 00:05:03.343 --> 00:05:05.328 Sosyoloji külliyatına bakarsanız 00:05:05.352 --> 00:05:09.652 yeni bilgileri paylaşmayı sevdiğimizi görürsünüz. 00:05:09.676 --> 00:05:13.514 Gizli bir bilgiye erişimimiz varmış gibi hissettirir 00:05:13.538 --> 00:05:17.323 ve bu tür bilgileri yayarak statü kazanırız. NOTE Paragraph 00:05:17.792 --> 00:05:24.244 Gelen doğru veya yalan bir tweet'in o bireyin önceki 60 günde 00:05:24.268 --> 00:05:28.323 Twitter'da gördüklerine kıyasla ne kadar yeni bir bilgi 00:05:28.347 --> 00:05:31.299 olduğunu ölçtük. 00:05:31.323 --> 00:05:33.982 Ama bu, yeterli değildi. "Yalan haber, 00:05:34.006 --> 00:05:38.214 bilgi teorisi anlamında daha yeni olabilir 00:05:38.238 --> 00:05:41.496 ama belki insanlar onu yeni olarak algılamıyordur." dedik. NOTE Paragraph 00:05:41.849 --> 00:05:45.776 İnsanların yalan haberi nasıl algıladığını anlamak için 00:05:45.800 --> 00:05:49.490 doğru ve yalan haberlere verilen tepkilerdeki 00:05:49.514 --> 00:05:53.720 bilgilere ve hislere baktık. 00:05:54.022 --> 00:05:55.228 Sürpriz, iğrenme, korku, 00:05:55.252 --> 00:05:59.466 üzüntü, beklenti, neşe ve güven gibi 00:05:59.490 --> 00:06:02.791 farklı duyguların ölçümlerine baktığımızda 00:06:02.815 --> 00:06:05.299 bulduğumuz şey 00:06:05.323 --> 00:06:11.180 yalan haberler söz konusu olduğunda bu sahte tweet'lere verilen yanıtların 00:06:11.204 --> 00:06:14.010 çok daha fazla sürpriz ve iğrenme hissine yol açtığıydı. 00:06:14.392 --> 00:06:18.181 Doğru haberlerdeyse doğru tweet'lere verilen yanıtlarda 00:06:18.205 --> 00:06:19.752 daha çok beklenti, 00:06:19.776 --> 00:06:22.323 neşe ve güven vardı. 00:06:22.347 --> 00:06:26.133 Sürpriz, yenilik hipotezine uyuyor. 00:06:26.157 --> 00:06:30.766 Bu, yeni ve şaşırtıcı, dolayısıyla onu paylaşma ihtimalimiz daha yüksek. NOTE Paragraph 00:06:31.092 --> 00:06:34.017 Aynı zamanda ABD Kongre ve Senatosu'nda 00:06:34.041 --> 00:06:37.077 yanlış bilgilerin yayılmasında botların rolüne dair 00:06:37.101 --> 00:06:40.839 ifadeler verildi. 00:06:40.863 --> 00:06:42.217 Biz de buna da baktık. 00:06:42.241 --> 00:06:45.839 Gelişmiş bot tespit algoritmaları kullanarak 00:06:45.863 --> 00:06:48.937 verilerimizdeki botları bulup çıkardık. 00:06:49.347 --> 00:06:52.006 Onları çıkardık, geri koyduk 00:06:52.030 --> 00:06:55.149 ve ölçümlerimize ne olduğuna baktık. 00:06:55.173 --> 00:06:57.466 Şunu bulduk, evet, gerçekten de botlar 00:06:57.490 --> 00:07:01.172 internette yalan haberlerin yayılmasını hızlandırıyordu 00:07:01.196 --> 00:07:03.847 ama doğruların yayılmasını da 00:07:03.871 --> 00:07:06.276 aynı ölçüde hızlandırıyorlardı. 00:07:06.300 --> 00:07:09.158 Yani gerçeklerin ve yalanların 00:07:09.182 --> 00:07:13.895 yayılışındaki farklılıkların sorumlusu botlar değil. 00:07:13.919 --> 00:07:16.768 Bu sorumluluğu başkasına atamayız 00:07:16.792 --> 00:07:21.051 çünkü o yayılmanın sorumlusu biz insanlarız. NOTE Paragraph 00:07:22.472 --> 00:07:25.806 Şimdiye kadar anlattıklarım 00:07:25.830 --> 00:07:27.584 ne yazık ki 00:07:27.608 --> 00:07:28.869 işin iyi yanıydı. NOTE Paragraph 00:07:30.670 --> 00:07:35.120 Bunun sebebi daha da kötüye gidecek olması. 00:07:35.850 --> 00:07:39.532 Bunu kötüleştirecek iki belli başlı teknoloji var. 00:07:40.207 --> 00:07:45.379 Sentetik medya dalgasında ciddi bir artış göreceğiz. 00:07:45.403 --> 00:07:51.434 Dışarıdan bakıldığında ikna edici görünen sahte video, sahte seslendirme. 00:07:51.458 --> 00:07:54.212 Ve iki teknoloji bunu besleyecek. NOTE Paragraph 00:07:54.236 --> 00:07:58.069 İlki "üretken çekişmeli ağlar" olarak biliniyor. 00:07:58.093 --> 00:08:00.656 Bu, iki ağlı bir makine öğrenimi modeli: 00:08:00.680 --> 00:08:02.227 Bir şeyin gerçek mi sahte mi 00:08:02.251 --> 00:08:06.451 olduğunu belirlemekle görevli bir ayrıştırıcı 00:08:06.475 --> 00:08:07.642 ve sentetik medya 00:08:07.666 --> 00:08:10.816 üretmekle yükümlü üretici. 00:08:10.840 --> 00:08:15.942 Sentetik üretici, sentetik video veya sesi üretir 00:08:15.966 --> 00:08:20.641 ve ayrıştırıcı şunu belirlemeyi dener: "Bu sahte mi, gerçek mi?" 00:08:20.665 --> 00:08:23.539 Aslında üreticinin işi 00:08:23.563 --> 00:08:27.998 yarattığı sentetik video ve sesin ayrıştıcı tarafından 00:08:28.022 --> 00:08:31.609 gerçek sanılması ihtimalini 00:08:31.633 --> 00:08:33.363 artırmaktır. 00:08:33.387 --> 00:08:35.760 Bizi kandırmakta ustalaşmaya çalışan, 00:08:35.784 --> 00:08:38.587 döngüye takılmış bir makine hayal edin. NOTE Paragraph 00:08:39.114 --> 00:08:41.614 Bu, ikinci teknolojiyle, 00:08:41.638 --> 00:08:47.360 yapay zekânın demokratikleştirilmesiyle, yani makine öğrenimi 00:08:47.384 --> 00:08:49.573 veya yapay zekâ konusunda 00:08:49.597 --> 00:08:52.427 herhangi bir eğitimi olmayan kişilerin bile 00:08:52.451 --> 00:08:53.987 sentetik medya üretmek için 00:08:53.987 --> 00:08:57.760 bu tür algoritmaları kullanabilmesiyle birleşince 00:08:57.784 --> 00:09:02.331 videoların yaratılması fazlasıyla kolaylaşıyor. NOTE Paragraph 00:09:02.355 --> 00:09:06.776 Beyaz Saray bir gazetecinin mikrofonunu almaya çalışan stajyerle 00:09:06.800 --> 00:09:11.088 etkileşimini gösteren sahte, üstünde oynanmış bir video yayınladı. 00:09:11.427 --> 00:09:13.426 Eylemlerini daha dramatik kılmak için 00:09:13.450 --> 00:09:16.737 bu videodan bazı kareleri çıkardılar. 00:09:17.157 --> 00:09:20.542 Bu teknik konusunda 00:09:20.566 --> 00:09:22.993 videograflar ve dublörlerle görüşüldüğünde 00:09:23.017 --> 00:09:26.845 "Evet, yumruklarımız ve tekmelerimiz daha etkileyici ve saldırgan görünsün diye 00:09:26.869 --> 00:09:31.632 filmlerde bunu hep kullanırız." dediler. 00:09:32.268 --> 00:09:34.135 Sonra bu videoyu yayınladılar 00:09:34.159 --> 00:09:36.659 ve bahsi geçen gazeteci olan Jim Acosta'nın, 00:09:36.683 --> 00:09:40.682 Beyaz Saray basın kartını 00:09:40.706 --> 00:09:42.045 iptal etmekte kullandılar. 00:09:42.069 --> 00:09:46.878 Basın kartının yeniden çıkarılması için CNN dava açmak zorunda kaldı. NOTE Paragraph 00:09:48.538 --> 00:09:54.141 Bugün bu son derece zor sorunları çözmek için 00:09:54.165 --> 00:09:57.904 izleyebileceğimiz beş yol aklıma geliyor. 00:09:58.379 --> 00:10:00.189 Hepsinin potansiyeli var 00:10:00.213 --> 00:10:03.212 ama kendilerine göre zorlukları da var. 00:10:03.236 --> 00:10:05.244 İlki etiketleme. 00:10:05.268 --> 00:10:06.625 Bunu şöyle düşünün: 00:10:06.649 --> 00:10:10.260 Yiyecek almak için markete gittiğinizde 00:10:10.284 --> 00:10:12.188 hepsi detaylı şekilde etiketlenmiş. 00:10:12.212 --> 00:10:14.204 Kaç kalorisi olduğunu, 00:10:14.228 --> 00:10:16.029 ne kadar yağ içerdiğini biliyorsunuz 00:10:16.053 --> 00:10:20.331 ama tükettiğimiz bilgilerin hiçbir etiketi yok. 00:10:20.355 --> 00:10:22.283 Bu bilgi neleri kapsıyor? 00:10:22.307 --> 00:10:23.760 Kaynağı güvenilir mi? 00:10:23.784 --> 00:10:26.101 Bilgi nereden toplanmış? 00:10:26.125 --> 00:10:27.950 Bilgileri tüketirken 00:10:27.974 --> 00:10:30.077 bu bilgiler bize verilmiyor. 00:10:30.101 --> 00:10:33.339 Bu izlenebilecek bir yol ama kendine özgü sorunları var. 00:10:33.363 --> 00:10:39.814 Mesela bir toplumda neyin doğru neyin yanlış olduğuna kim karar verir? 00:10:40.387 --> 00:10:42.029 Hükûmet mi? 00:10:42.053 --> 00:10:43.203 Facebook mu? 00:10:43.601 --> 00:10:47.363 Bilgileri kontrol eden bağımsız bir kurul mu? 00:10:47.387 --> 00:10:49.853 Peki onları kim kontrol edecek? NOTE Paragraph 00:10:50.427 --> 00:10:53.511 Bir diğer yol, teşvik. 00:10:53.535 --> 00:10:56.169 ABD başkanlık seçimi sırasında 00:10:56.193 --> 00:10:59.883 Makedonya'dan bir yanlış bilgi dalgası geldiğini biliyoruz. 00:10:59.907 --> 00:11:02.244 Amaçları siyasi değil, 00:11:02.268 --> 00:11:04.728 ekonomikti. 00:11:04.752 --> 00:11:06.900 Bu ekonomik amaç, var olabilmesini 00:11:06.924 --> 00:11:10.448 yalan haberin, doğrulardan çok daha hızlı, 00:11:10.472 --> 00:11:12.482 çok daha derinlere yayılmasına borçlu 00:11:12.506 --> 00:11:17.466 ve bu tür bilgilerle insanların ilgisini çekerek 00:11:17.490 --> 00:11:19.450 reklam geliri elde edebilirsiniz. 00:11:19.474 --> 00:11:23.307 Ama bu bilginin yayılmasını baskılarsak 00:11:23.331 --> 00:11:26.228 belki de daha baştan yaratılmasına sebep olan 00:11:26.252 --> 00:11:28.942 ekonomik teşvikleri de azaltırız. NOTE Paragraph 00:11:28.966 --> 00:11:31.466 Üçüncüsü, denetim. 00:11:31.490 --> 00:11:33.815 Bu seçeneği düşünmemiz gerektiği kesin. 00:11:33.839 --> 00:11:35.450 Şu anda ABD'de 00:11:35.474 --> 00:11:40.322 Facebook ve benzerleri denetim altına alınsa ne olacağını araştırıyoruz. 00:11:40.346 --> 00:11:44.147 Siyasi söylemleri denetlemeyi, onları siyasi söylem olarak etiketlemeyi, 00:11:44.171 --> 00:11:46.679 dış mihrakların siyasi söylemleri finanse etmesini 00:11:46.703 --> 00:11:50.522 engellemeyi göz önünde bulundurmamız gerekse de 00:11:50.546 --> 00:11:53.093 bunların da kendince tehlikeleri var. 00:11:53.522 --> 00:11:58.400 Mesela Malezya yalan bilgi yaydığı tespit edilenlere 00:11:58.424 --> 00:12:01.158 altı yıl hapis cezası getirdi. 00:12:01.696 --> 00:12:03.775 Otoriter rejimlerde 00:12:03.799 --> 00:12:08.465 bu tür düzenlemeler azınlık görüşlerini bastırmak 00:12:08.489 --> 00:12:11.997 ve baskının kapsamını genişletmek amacıyla kullanılabilir. NOTE Paragraph 00:12:12.680 --> 00:12:16.223 Dördüncü olasılık, şeffaflık. 00:12:16.843 --> 00:12:20.557 Facebook'un algoritmalarının nasıl çalıştığını bilmek istiyoruz. 00:12:20.581 --> 00:12:23.461 Algoritmalarla birleşen veriler 00:12:23.485 --> 00:12:26.323 nasıl oluyor da gördüğümüz sonuçları doğuruyor? 00:12:26.347 --> 00:12:28.696 Kapıyı açmalarını 00:12:28.720 --> 00:12:32.934 ve Facebook'un nasıl işlediğini göstermelerini istiyoruz. 00:12:32.958 --> 00:12:35.737 Sosyal medyanın toplumdaki etkilerini öğrenmek istiyorsak 00:12:35.761 --> 00:12:37.847 bilim insanları, araştırmacılar 00:12:37.871 --> 00:12:41.014 ve benzerlerinin bu tür bilgilere erişmesine ihtiyacımız var. 00:12:41.038 --> 00:12:42.585 Ama aynı zamanda 00:12:42.609 --> 00:12:46.410 Facebook'tan her şeyi kilitlemesini, 00:12:46.434 --> 00:12:48.607 tüm verileri güvende tutmasını istiyoruz. NOTE Paragraph 00:12:48.631 --> 00:12:51.790 Bu yüzden Facebook ve diğer sosyal medya platformları 00:12:51.814 --> 00:12:54.948 şeffaflık paradoksu dediğim şeyle karşı karşıya. 00:12:55.266 --> 00:12:57.940 Onlardan hem açık ve şeffaf olmalarını 00:12:57.964 --> 00:13:02.773 hem de güvenli olmalarını istiyoruz. 00:13:02.797 --> 00:13:05.488 Bu, zor bir görev 00:13:05.512 --> 00:13:08.139 ama sosyal teknolojilerin potansiyelini değerlendirip 00:13:08.139 --> 00:13:11.236 tehlikelerinden kaçınacaksak 00:13:11.260 --> 00:13:12.902 bu görevi başarmalılar. NOTE Paragraph 00:13:12.926 --> 00:13:17.617 Düşünmemiz gereken son konu, algoritmalar ve makine öğrenimi. 00:13:17.641 --> 00:13:22.918 Yalan haberlerin köküne inip onları, nasıl yayıldıklarını anlamamızı, 00:13:22.942 --> 00:13:25.273 akışı yavaşlatmamızı sağlayacak teknolojiler. 00:13:25.824 --> 00:13:28.721 İnsanlar bu teknolojiden haberdar olmalı 00:13:28.745 --> 00:13:31.023 çünkü her teknolojik çözümün 00:13:31.047 --> 00:13:35.085 veya yaklaşımın temelinde, doğruyu ve yalanı nasıl tanımlıyoruz, 00:13:35.109 --> 00:13:39.156 doğrunun ve yalanın ne olduğunu 00:13:39.180 --> 00:13:42.450 tanımlama gücünü kime veriyoruz, 00:13:42.474 --> 00:13:45.654 hangi görüş doğru, hangi söylemlere izin verilmeli gibi 00:13:45.678 --> 00:13:48.138 ahlaki ve felsefi soruların 00:13:48.162 --> 00:13:51.868 yattığı gerçeğinden asla kaçamayız. 00:13:51.892 --> 00:13:54.220 Bunun çözümü teknoloji değil. 00:13:54.244 --> 00:13:57.942 Bunun çözümü ahlak ve felsefe. NOTE Paragraph 00:13:58.950 --> 00:14:02.268 İnsanların karar vermesi, iş birliği 00:14:02.292 --> 00:14:05.053 ve koordinasyonu hakkındaki tüm teorilerin özünde 00:14:05.077 --> 00:14:08.751 bir tür gerçek anlayışı yatar. 00:14:09.347 --> 00:14:11.403 Ama yalan haberlerin, 00:14:11.427 --> 00:14:12.870 sahte videoların, 00:14:12.894 --> 00:14:14.776 sahte seslendirmelerin artışıyla 00:14:14.800 --> 00:14:18.724 gerçeğin kıyısındaki bir noktaya geldik, 00:14:18.748 --> 00:14:22.637 neyin gerçek neyin yalan olduğunu ayırt edemiyoruz 00:14:22.661 --> 00:14:25.700 ve bu, çok tehlikeli olabilir. NOTE Paragraph 00:14:26.931 --> 00:14:30.879 Yanlış bilgilendirmeye karşı gerçekleri savunmak adına 00:14:30.903 --> 00:14:32.437 tetikte olmalıyız. 00:14:32.919 --> 00:14:36.355 Teknolojilerimiz, politikalarımız 00:14:36.379 --> 00:14:38.299 ve belki de en önemlisi 00:14:38.323 --> 00:14:41.537 bireysel sorumluluklarımızla, 00:14:41.561 --> 00:14:45.116 kararlarımız, davranışlarımız ve eylemlerimizle. NOTE Paragraph 00:14:45.553 --> 00:14:46.990 Çok teşekkürler. NOTE Paragraph 00:14:47.014 --> 00:14:50.531 (Alkışlar)