Yanlış bilgilendirme çağında gerçeği nasıl koruyabiliriz
-
0:01 - 0:0723 Nisan 2013'te
-
0:07 - 0:12Associated Press, Twitter'da
şöyle bir tweet attı. -
0:12 - 0:15"Flaş haber:
-
0:15 - 0:17Beyaz Saray'da iki patlama.
-
0:17 - 0:20Barack Obama yaralandı."
-
0:20 - 0:26Bu tweet beş dakikadan kısa sürede
4000 kere paylaşıldı -
0:26 - 0:28ve sonrasında viral oldu.
-
0:29 - 0:33Bu tweet, Associated Press tarafından
paylaşılan gerçek bir haber değildi. -
0:33 - 0:36Aslında sahte veya yalan bir haberdi.
-
0:36 - 0:39Associated Press'in
Twitter hesabını ele geçiren -
0:39 - 0:44Suriyeli bilgisayar korsanlarınca
paylaşılmıştı. -
0:44 - 0:48Amaçları toplumda kargaşa çıkarmaktı
ama çok daha fazlasını yaptılar. -
0:48 - 0:51Çünkü otomatik borsa algoritmaları
-
0:51 - 0:54bu tweet'teki hissiyatı hemen yakaladı
-
0:54 - 0:57ve ABD Başkanı'nın bu patlamada
-
0:57 - 1:01yaralanmış veya öldürülmüş olması
ihtimaline göre alım satım -
1:01 - 1:02yapmaya başladı.
-
1:02 - 1:04Tweet atmaya başladıklarında
-
1:04 - 1:08borsayı çöküşe soktular,
-
1:08 - 1:13bir günde 140 milyar dolarlık
değer kaybına yol açtılar. -
1:13 - 1:18Özel yetkili ABD savcısı Robert Mueller
-
1:18 - 1:21üç Rus şirketine ve 13 Rus bireye karşı
-
1:21 - 1:242016 başkanlık seçimine müdahale ederek
-
1:24 - 1:27ABD'yi dolandırmak amacıyla
-
1:27 - 1:31komplo kurmaktan dava açtı.
-
1:32 - 1:35Bu iddianamenin hikâyesi,
-
1:35 - 1:39Kremlin'in sosyal medyadaki
gizli kolu olan -
1:39 - 1:42Internet Research Agency'nin hikâyesidir.
-
1:43 - 1:46Sırf başkanlık seçimlerinde
-
1:46 - 1:48Internet Agency'nin çabaları
-
1:48 - 1:53ABD'de Facebook üzerinden
126 milyon kişiye ulaştı, -
1:53 - 1:56üç milyon tekil tweet attı
-
1:56 - 2:00ve 43 saatlik YouTube içeriği yayınladı.
-
2:00 - 2:02Bunların hepsi sahteydi.
-
2:02 - 2:08ABD başkanlık seçimlerine şüphe tohumları
ekme amaçlı yanlış bilgilendirmelerdi. -
2:09 - 2:12Oxford Üniversitesi'nin
yakın tarihli bir araştırması -
2:12 - 2:15geçtiğimiz İsveç seçimlerinde
-
2:15 - 2:19sosyal medyada yayınlanan
seçimle ilgili bilgilerin -
2:19 - 2:21üçte birinin
-
2:21 - 2:23yalan veya sahte olduğunu
ortaya koydu. -
2:23 - 2:28Ek olarak, yanlış bilgilendirme amaçlı
bu tür sosyal medya kampanyaları -
2:28 - 2:32Burma'da Rohingya'ya karşı yürütülen
-
2:32 - 2:35veya Hindistan'da linçlere yol açan
"soykırımcı propaganda"ların -
2:35 - 2:38yayılmasına yol açabilir.
-
2:38 - 2:39Biz yalan haberleri araştırdık
-
2:39 - 2:43ve onları araştırmaya bu terim
popüler olmadan önce başladık. -
2:43 - 2:46Bu yıl Mart ayında,
"Science" dergisinin kapağında -
2:46 - 2:50internette yayılan sahte haberleri
konu alan en geniş kapsamlı -
2:50 - 2:54panel araştırmasını yayımladık.
-
2:55 - 2:592006'daki kuruluşundan 2017'ye kadar
Twitter'da yayılan -
2:59 - 3:00doğru veya yalan olduğu ispatlanmış
-
3:00 - 3:04tüm haberleri inceledik.
-
3:05 - 3:07Bu bilgileri ele alırken
-
3:07 - 3:10bilgi kontrolü yapan
altı bağımsız kuruluşun -
3:10 - 3:14doğruladığı haberleri inceledik.
-
3:14 - 3:17Yani hangilerinin doğru,
-
3:17 - 3:19hangilerinin sahte olduğunu biliyorduk.
-
3:19 - 3:21Yayılışlarını ölçebiliyoruz,
-
3:21 - 3:22yayılışlarının hızını, derinliğini
-
3:22 - 3:24ve kapsamını ölçebiliyoruz,
-
3:24 - 3:29kaç kişinin bu bilgi yağmuruna
kapıldığını da. -
3:29 - 3:30Bu araştırmada yaptığımız,
-
3:30 - 3:34gerçek haberlerin yayılışıyla
yalan haberlerin yayılışını kıyaslamaktı. -
3:34 - 3:36Bulduklarımız şunlar:
-
3:36 - 3:40Yalan haberlerin araştırdığımız
her haber kategorisinde -
3:40 - 3:42doğru haberlerden
-
3:42 - 3:45kimi zaman birkaç kat
daha uzağa, daha hızlı, -
3:45 - 3:47daha geniş kapsamlı
yayıldığını tespit ettik. -
3:48 - 3:51Siyasi yalan haberler en viral olanlardı.
-
3:51 - 3:55Diğer tür yalan haber türlerinden
daha uzağa, daha derine -
3:55 - 3:57ve daha geniş kitlelere yayılıyorlardı.
-
3:57 - 3:59Bunu gördüğümüzde
-
3:59 - 4:02hem endişelendik hem meraklandık.
-
4:02 - 4:03Neden?
-
4:03 - 4:06Neden yalan haberler, gerçeklerden
daha uzağa, daha hızlı, -
4:06 - 4:08daha geniş çaplı yayılıyor?
-
4:08 - 4:11İlk hipotezimiz
-
4:11 - 4:16"Belki yalan haberleri yayanların
takipçisi, takip ettikleri daha çok, -
4:16 - 4:18daha çok tweet atıyorlar,
-
4:18 - 4:22geneli "doğrulanmış" Twitter kullanıcıları
-
4:22 - 4:24veya daha uzun süredir Twitter'dalar.
-
4:24 - 4:26Sırayla bunların hepsine baktık.
-
4:27 - 4:30Tam tersini bulduk.
-
4:30 - 4:32Yalan haberleri yayanların
takipçileri daha azdı, -
4:32 - 4:34daha az kişiyi takip ediyorlardı,
daha az aktif, -
4:34 - 4:36ender olarak "doğrulanmış"tılar.
-
4:36 - 4:39Daha kısa süredir Twitter'daydılar.
-
4:39 - 4:40Yine de
-
4:40 - 4:45bunlar ve başka faktörler dâhilinde
yalan haberin tekrar tweetlenmesi ihtimali -
4:45 - 4:48
yüzde 70 daha fazlaydı. -
4:48 - 4:51Öyleyse başka açıklamalar bulmalıydık.
-
4:51 - 4:55"Yenilik hipotezi" diye
bir şey geliştirdik. -
4:55 - 4:57Araştırmalara bakarsanız
-
4:57 - 5:01insanın dikkatinin yeni şeylere,
çevrede yeni olan şeylere -
5:01 - 5:03kaydığı iyi bilinir.
-
5:03 - 5:05Sosyoloji külliyatına bakarsanız
-
5:05 - 5:10yeni bilgileri paylaşmayı
sevdiğimizi görürsünüz. -
5:10 - 5:14Gizli bir bilgiye
erişimimiz varmış gibi hissettirir -
5:14 - 5:17ve bu tür bilgileri yayarak
statü kazanırız. -
5:18 - 5:24Gelen doğru veya yalan bir tweet'in
o bireyin önceki 60 günde -
5:24 - 5:28Twitter'da gördüklerine kıyasla
ne kadar yeni bir bilgi -
5:28 - 5:31olduğunu ölçtük.
-
5:31 - 5:34Ama bu, yeterli değildi. "Yalan haber,
-
5:34 - 5:38bilgi teorisi anlamında daha yeni olabilir
-
5:38 - 5:41ama belki insanlar onu
yeni olarak algılamıyordur." dedik. -
5:42 - 5:46İnsanların yalan haberi
nasıl algıladığını anlamak için -
5:46 - 5:49doğru ve yalan haberlere
verilen tepkilerdeki -
5:50 - 5:54bilgilere ve hislere baktık.
-
5:54 - 5:55Sürpriz, iğrenme, korku,
-
5:55 - 5:59üzüntü, beklenti, neşe ve güven gibi
-
5:59 - 6:03farklı duyguların ölçümlerine baktığımızda
-
6:03 - 6:05bulduğumuz şey
-
6:05 - 6:11yalan haberler söz konusu olduğunda
bu sahte tweet'lere verilen yanıtların -
6:11 - 6:14çok daha fazla sürpriz
ve iğrenme hissine yol açtığıydı. -
6:14 - 6:18Doğru haberlerdeyse
doğru tweet'lere verilen yanıtlarda -
6:18 - 6:20daha çok beklenti,
-
6:20 - 6:22neşe ve güven vardı.
-
6:22 - 6:26Sürpriz, yenilik hipotezine uyuyor.
-
6:26 - 6:31Bu, yeni ve şaşırtıcı, dolayısıyla onu
paylaşma ihtimalimiz daha yüksek. -
6:31 - 6:34Aynı zamanda ABD Kongre ve Senatosu'nda
-
6:34 - 6:37yanlış bilgilerin yayılmasında
botların rolüne dair -
6:37 - 6:41ifadeler verildi.
-
6:41 - 6:42Biz de buna da baktık.
-
6:42 - 6:46Gelişmiş bot tespit
algoritmaları kullanarak -
6:46 - 6:49verilerimizdeki botları bulup çıkardık.
-
6:49 - 6:52Onları çıkardık, geri koyduk
-
6:52 - 6:55ve ölçümlerimize ne olduğuna baktık.
-
6:55 - 6:57Şunu bulduk, evet, gerçekten de botlar
-
6:57 - 7:01internette yalan haberlerin
yayılmasını hızlandırıyordu -
7:01 - 7:04ama doğruların yayılmasını da
-
7:04 - 7:06aynı ölçüde hızlandırıyorlardı.
-
7:06 - 7:09Yani gerçeklerin ve yalanların
-
7:09 - 7:14yayılışındaki farklılıkların
sorumlusu botlar değil. -
7:14 - 7:17Bu sorumluluğu başkasına atamayız
-
7:17 - 7:21çünkü o yayılmanın sorumlusu
biz insanlarız. -
7:22 - 7:26Şimdiye kadar anlattıklarım
-
7:26 - 7:28ne yazık ki
-
7:28 - 7:29işin iyi yanıydı.
-
7:31 - 7:35Bunun sebebi daha da kötüye
gidecek olması. -
7:36 - 7:40Bunu kötüleştirecek
iki belli başlı teknoloji var. -
7:40 - 7:45Sentetik medya dalgasında
ciddi bir artış göreceğiz. -
7:45 - 7:51Dışarıdan bakıldığında ikna edici görünen
sahte video, sahte seslendirme. -
7:51 - 7:54Ve iki teknoloji bunu besleyecek.
-
7:54 - 7:58İlki "üretken çekişmeli ağlar"
olarak biliniyor. -
7:58 - 8:01Bu, iki ağlı bir makine öğrenimi modeli:
-
8:01 - 8:02Bir şeyin gerçek mi sahte mi
-
8:02 - 8:06olduğunu belirlemekle görevli
bir ayrıştırıcı -
8:06 - 8:08ve sentetik medya
-
8:08 - 8:11üretmekle yükümlü üretici.
-
8:11 - 8:16Sentetik üretici,
sentetik video veya sesi üretir -
8:16 - 8:21ve ayrıştırıcı şunu belirlemeyi dener:
"Bu sahte mi, gerçek mi?" -
8:21 - 8:24Aslında üreticinin işi
-
8:24 - 8:28yarattığı sentetik video ve sesin
ayrıştıcı tarafından -
8:28 - 8:32gerçek sanılması ihtimalini
-
8:32 - 8:33artırmaktır.
-
8:33 - 8:36Bizi kandırmakta ustalaşmaya çalışan,
-
8:36 - 8:39döngüye takılmış bir makine hayal edin.
-
8:39 - 8:42Bu, ikinci teknolojiyle,
-
8:42 - 8:47yapay zekânın demokratikleştirilmesiyle,
yani makine öğrenimi -
8:47 - 8:50veya yapay zekâ konusunda
-
8:50 - 8:52herhangi bir eğitimi olmayan
kişilerin bile -
8:52 - 8:54sentetik medya üretmek için
-
8:54 - 8:58bu tür algoritmaları
kullanabilmesiyle birleşince -
8:58 - 9:02videoların yaratılması
fazlasıyla kolaylaşıyor. -
9:02 - 9:07Beyaz Saray bir gazetecinin
mikrofonunu almaya çalışan stajyerle -
9:07 - 9:11etkileşimini gösteren sahte,
üstünde oynanmış bir video yayınladı. -
9:11 - 9:13Eylemlerini daha dramatik kılmak için
-
9:13 - 9:17bu videodan bazı kareleri çıkardılar.
-
9:17 - 9:21Bu teknik konusunda
-
9:21 - 9:23videograflar ve dublörlerle görüşüldüğünde
-
9:23 - 9:27"Evet, yumruklarımız ve tekmelerimiz
daha etkileyici ve saldırgan görünsün diye -
9:27 - 9:32filmlerde bunu hep kullanırız." dediler.
-
9:32 - 9:34Sonra bu videoyu yayınladılar
-
9:34 - 9:37ve bahsi geçen gazeteci olan
Jim Acosta'nın, -
9:37 - 9:41Beyaz Saray basın kartını
-
9:41 - 9:42iptal etmekte kullandılar.
-
9:42 - 9:47Basın kartının yeniden çıkarılması için
CNN dava açmak zorunda kaldı. -
9:49 - 9:54Bugün bu son derece zor
sorunları çözmek için -
9:54 - 9:58izleyebileceğimiz beş yol aklıma geliyor.
-
9:58 - 10:00Hepsinin potansiyeli var
-
10:00 - 10:03ama kendilerine göre zorlukları da var.
-
10:03 - 10:05İlki etiketleme.
-
10:05 - 10:07Bunu şöyle düşünün:
-
10:07 - 10:10Yiyecek almak için markete gittiğinizde
-
10:10 - 10:12hepsi detaylı şekilde etiketlenmiş.
-
10:12 - 10:14Kaç kalorisi olduğunu,
-
10:14 - 10:16ne kadar yağ içerdiğini biliyorsunuz
-
10:16 - 10:20ama tükettiğimiz bilgilerin
hiçbir etiketi yok. -
10:20 - 10:22Bu bilgi neleri kapsıyor?
-
10:22 - 10:24Kaynağı güvenilir mi?
-
10:24 - 10:26Bilgi nereden toplanmış?
-
10:26 - 10:28Bilgileri tüketirken
-
10:28 - 10:30bu bilgiler bize verilmiyor.
-
10:30 - 10:33Bu izlenebilecek bir yol
ama kendine özgü sorunları var. -
10:33 - 10:40Mesela bir toplumda neyin doğru
neyin yanlış olduğuna kim karar verir? -
10:40 - 10:42Hükûmet mi?
-
10:42 - 10:43Facebook mu?
-
10:44 - 10:47Bilgileri kontrol eden
bağımsız bir kurul mu? -
10:47 - 10:50Peki onları kim kontrol edecek?
-
10:50 - 10:54Bir diğer yol, teşvik.
-
10:54 - 10:56ABD başkanlık seçimi sırasında
-
10:56 - 11:00Makedonya'dan bir yanlış bilgi dalgası
geldiğini biliyoruz. -
11:00 - 11:02Amaçları siyasi değil,
-
11:02 - 11:05ekonomikti.
-
11:05 - 11:07Bu ekonomik amaç, var olabilmesini
-
11:07 - 11:10yalan haberin,
doğrulardan çok daha hızlı, -
11:10 - 11:12çok daha derinlere yayılmasına borçlu
-
11:13 - 11:17ve bu tür bilgilerle
insanların ilgisini çekerek -
11:17 - 11:19reklam geliri elde edebilirsiniz.
-
11:19 - 11:23Ama bu bilginin yayılmasını baskılarsak
-
11:23 - 11:26belki de daha baştan
yaratılmasına sebep olan -
11:26 - 11:29ekonomik teşvikleri de azaltırız.
-
11:29 - 11:31Üçüncüsü, denetim.
-
11:31 - 11:34Bu seçeneği düşünmemiz gerektiği kesin.
-
11:34 - 11:35Şu anda ABD'de
-
11:35 - 11:40Facebook ve benzerleri denetim altına
alınsa ne olacağını araştırıyoruz. -
11:40 - 11:44Siyasi söylemleri denetlemeyi,
onları siyasi söylem olarak etiketlemeyi, -
11:44 - 11:47dış mihrakların siyasi söylemleri
finanse etmesini -
11:47 - 11:51engellemeyi göz önünde
bulundurmamız gerekse de -
11:51 - 11:53bunların da kendince tehlikeleri var.
-
11:54 - 11:58Mesela Malezya yalan bilgi yaydığı
tespit edilenlere -
11:58 - 12:01altı yıl hapis cezası getirdi.
-
12:02 - 12:04Otoriter rejimlerde
-
12:04 - 12:08bu tür düzenlemeler
azınlık görüşlerini bastırmak -
12:08 - 12:12ve baskının kapsamını genişletmek
amacıyla kullanılabilir. -
12:13 - 12:16Dördüncü olasılık, şeffaflık.
-
12:17 - 12:21Facebook'un algoritmalarının
nasıl çalıştığını bilmek istiyoruz. -
12:21 - 12:23Algoritmalarla birleşen veriler
-
12:23 - 12:26nasıl oluyor da
gördüğümüz sonuçları doğuruyor? -
12:26 - 12:29Kapıyı açmalarını
-
12:29 - 12:33ve Facebook'un nasıl işlediğini
göstermelerini istiyoruz. -
12:33 - 12:36Sosyal medyanın toplumdaki
etkilerini öğrenmek istiyorsak -
12:36 - 12:38bilim insanları, araştırmacılar
-
12:38 - 12:41ve benzerlerinin bu tür bilgilere
erişmesine ihtiyacımız var. -
12:41 - 12:43Ama aynı zamanda
-
12:43 - 12:46Facebook'tan her şeyi kilitlemesini,
-
12:46 - 12:49tüm verileri güvende tutmasını istiyoruz.
-
12:49 - 12:52Bu yüzden Facebook
ve diğer sosyal medya platformları -
12:52 - 12:55şeffaflık paradoksu dediğim şeyle
karşı karşıya. -
12:55 - 12:58Onlardan hem açık ve şeffaf olmalarını
-
12:58 - 13:03hem de güvenli olmalarını istiyoruz.
-
13:03 - 13:05Bu, zor bir görev
-
13:06 - 13:08ama sosyal teknolojilerin
potansiyelini değerlendirip -
13:08 - 13:11tehlikelerinden kaçınacaksak
-
13:11 - 13:13bu görevi başarmalılar.
-
13:13 - 13:18Düşünmemiz gereken son konu,
algoritmalar ve makine öğrenimi. -
13:18 - 13:23Yalan haberlerin köküne inip
onları, nasıl yayıldıklarını anlamamızı, -
13:23 - 13:25akışı yavaşlatmamızı
sağlayacak teknolojiler. -
13:26 - 13:29İnsanlar bu teknolojiden haberdar olmalı
-
13:29 - 13:31çünkü her teknolojik çözümün
-
13:31 - 13:35veya yaklaşımın temelinde,
doğruyu ve yalanı nasıl tanımlıyoruz, -
13:35 - 13:39doğrunun ve yalanın ne olduğunu
-
13:39 - 13:42tanımlama gücünü kime veriyoruz,
-
13:42 - 13:46hangi görüş doğru,
hangi söylemlere izin verilmeli gibi -
13:46 - 13:48ahlaki ve felsefi soruların
-
13:48 - 13:52yattığı gerçeğinden asla kaçamayız.
-
13:52 - 13:54Bunun çözümü teknoloji değil.
-
13:54 - 13:58Bunun çözümü ahlak ve felsefe.
-
13:59 - 14:02İnsanların karar vermesi, iş birliği
-
14:02 - 14:05ve koordinasyonu hakkındaki
tüm teorilerin özünde -
14:05 - 14:09bir tür gerçek anlayışı yatar.
-
14:09 - 14:11Ama yalan haberlerin,
-
14:11 - 14:13sahte videoların,
-
14:13 - 14:15sahte seslendirmelerin artışıyla
-
14:15 - 14:19gerçeğin kıyısındaki bir noktaya geldik,
-
14:19 - 14:23neyin gerçek neyin yalan olduğunu
ayırt edemiyoruz -
14:23 - 14:26ve bu, çok tehlikeli olabilir.
-
14:27 - 14:31Yanlış bilgilendirmeye karşı
gerçekleri savunmak adına -
14:31 - 14:32tetikte olmalıyız.
-
14:33 - 14:36Teknolojilerimiz, politikalarımız
-
14:36 - 14:38ve belki de en önemlisi
-
14:38 - 14:42bireysel sorumluluklarımızla,
-
14:42 - 14:45kararlarımız, davranışlarımız
ve eylemlerimizle. -
14:46 - 14:47Çok teşekkürler.
-
14:47 - 14:51(Alkışlar)
- Title:
- Yanlış bilgilendirme çağında gerçeği nasıl koruyabiliriz
- Speaker:
- Sinan Aral
- Description:
-
Yalan haberler seçimlerin yönünü değiştirebilir, ekonomileri baltalayabilir ve gündelik hayata nifak tohumları ekebilir. Veri bilimcisi Sinan Aral, dezenformasyon konusundaki en geniş kapsamlı araştırmalardan biri üzerinden yalan haberlerin nasıl ve neden bu kadar hızlı yayıldığını açıklıyor ve gerçeklerle yalanları birbirinden ayırmamızı sağlayacak beş strateji saptıyor.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Cihan Ekmekçi approved Turkish subtitles for How we can protect truth in the age of misinformation | ||
Cihan Ekmekçi edited Turkish subtitles for How we can protect truth in the age of misinformation | ||
Nevaz Mescioğlu accepted Turkish subtitles for How we can protect truth in the age of misinformation | ||
Nevaz Mescioğlu edited Turkish subtitles for How we can protect truth in the age of misinformation | ||
Sirvan Boyraz edited Turkish subtitles for How we can protect truth in the age of misinformation | ||
Sirvan Boyraz edited Turkish subtitles for How we can protect truth in the age of misinformation | ||
Sirvan Boyraz edited Turkish subtitles for How we can protect truth in the age of misinformation | ||
Sirvan Boyraz edited Turkish subtitles for How we can protect truth in the age of misinformation |