23 Nisan 2013'te
Associated Press, Twitter'da
şöyle bir tweet attı.
"Flaş haber:
Beyaz Saray'da iki patlama.
Barack Obama yaralandı."
Bu tweet beş dakikadan kısa sürede
4000 kere paylaşıldı
ve sonrasında viral oldu.
Bu tweet, Associated Press tarafından
paylaşılan gerçek bir haber değildi.
Aslında sahte veya yalan bir haberdi.
Associated Press'in
Twitter hesabını ele geçiren
Suriyeli bilgisayar korsanlarınca
paylaşılmıştı.
Amaçları toplumda kargaşa çıkarmaktı
ama çok daha fazlasını yaptılar.
Çünkü otomatik borsa algoritmaları
bu tweet'teki hissiyatı hemen yakaladı
ve ABD Başkanı'nın bu patlamada
yaralanmış veya öldürülmüş olması
ihtimaline göre alım satım
yapmaya başladı.
Tweet atmaya başladıklarında
borsayı çöküşe soktular,
bir günde 140 milyar dolarlık
değer kaybına yol açtılar.
Özel yetkili ABD savcısı Robert Mueller
üç Rus şirketine ve 13 Rus bireye karşı
2016 başkanlık seçimine müdahale ederek
ABD'yi dolandırmak amacıyla
komplo kurmaktan dava açtı.
Bu iddianamenin hikâyesi,
Kremlin'in sosyal medyadaki
gizli kolu olan
Internet Research Agency'nin hikâyesidir.
Sırf başkanlık seçimlerinde
Internet Agency'nin çabaları
ABD'de Facebook üzerinden
126 milyon kişiye ulaştı,
üç milyon tekil tweet attı
ve 43 saatlik YouTube içeriği yayınladı.
Bunların hepsi sahteydi.
ABD başkanlık seçimlerine şüphe tohumları
ekme amaçlı yanlış bilgilendirmelerdi.
Oxford Üniversitesi'nin
yakın tarihli bir araştırması
geçtiğimiz İsveç seçimlerinde
sosyal medyada yayınlanan
seçimle ilgili bilgilerin
üçte birinin
yalan veya sahte olduğunu
ortaya koydu.
Ek olarak, yanlış bilgilendirme amaçlı
bu tür sosyal medya kampanyaları
Burma'da Rohingya'ya karşı yürütülen
veya Hindistan'da linçlere yol açan
"soykırımcı propaganda"ların
yayılmasına yol açabilir.
Biz yalan haberleri araştırdık
ve onları araştırmaya bu terim
popüler olmadan önce başladık.
Bu yıl Mart ayında,
"Science" dergisinin kapağında
internette yayılan sahte haberleri
konu alan en geniş kapsamlı
panel araştırmasını yayımladık.
2006'daki kuruluşundan 2017'ye kadar
Twitter'da yayılan
doğru veya yalan olduğu ispatlanmış
tüm haberleri inceledik.
Bu bilgileri ele alırken
bilgi kontrolü yapan
altı bağımsız kuruluşun
doğruladığı haberleri inceledik.
Yani hangilerinin doğru,
hangilerinin sahte olduğunu biliyorduk.
Yayılışlarını ölçebiliyoruz,
yayılışlarının hızını, derinliğini
ve kapsamını ölçebiliyoruz,
kaç kişinin bu bilgi yağmuruna
kapıldığını da.
Bu araştırmada yaptığımız,
gerçek haberlerin yayılışıyla
yalan haberlerin yayılışını kıyaslamaktı.
Bulduklarımız şunlar:
Yalan haberlerin araştırdığımız
her haber kategorisinde
doğru haberlerden
kimi zaman birkaç kat
daha uzağa, daha hızlı,
daha geniş kapsamlı
yayıldığını tespit ettik.
Siyasi yalan haberler en viral olanlardı.
Diğer tür yalan haber türlerinden
daha uzağa, daha derine
ve daha geniş kitlelere yayılıyorlardı.
Bunu gördüğümüzde
hem endişelendik hem meraklandık.
Neden?
Neden yalan haberler, gerçeklerden
daha uzağa, daha hızlı,
daha geniş çaplı yayılıyor?
İlk hipotezimiz
"Belki yalan haberleri yayanların
takipçisi, takip ettikleri daha çok,
daha çok tweet atıyorlar,
geneli "doğrulanmış" Twitter kullanıcıları
veya daha uzun süredir Twitter'dalar.
Sırayla bunların hepsine baktık.
Tam tersini bulduk.
Yalan haberleri yayanların
takipçileri daha azdı,
daha az kişiyi takip ediyorlardı,
daha az aktif,
ender olarak "doğrulanmış"tılar.
Daha kısa süredir Twitter'daydılar.
Yine de
bunlar ve başka faktörler dâhilinde
yalan haberin tekrar tweetlenmesi ihtimali
yüzde 70 daha fazlaydı.
Öyleyse başka açıklamalar bulmalıydık.
"Yenilik hipotezi" diye
bir şey geliştirdik.
Araştırmalara bakarsanız
insanın dikkatinin yeni şeylere,
çevrede yeni olan şeylere
kaydığı iyi bilinir.
Sosyoloji külliyatına bakarsanız
yeni bilgileri paylaşmayı
sevdiğimizi görürsünüz.
Gizli bir bilgiye
erişimimiz varmış gibi hissettirir
ve bu tür bilgileri yayarak
statü kazanırız.
Gelen doğru veya yalan bir tweet'in
o bireyin önceki 60 günde
Twitter'da gördüklerine kıyasla
ne kadar yeni bir bilgi
olduğunu ölçtük.
Ama bu, yeterli değildi. "Yalan haber,
bilgi teorisi anlamında daha yeni olabilir
ama belki insanlar onu
yeni olarak algılamıyordur." dedik.
İnsanların yalan haberi
nasıl algıladığını anlamak için
doğru ve yalan haberlere
verilen tepkilerdeki
bilgilere ve hislere baktık.
Sürpriz, iğrenme, korku,
üzüntü, beklenti, neşe ve güven gibi
farklı duyguların ölçümlerine baktığımızda
bulduğumuz şey
yalan haberler söz konusu olduğunda
bu sahte tweet'lere verilen yanıtların
çok daha fazla sürpriz
ve iğrenme hissine yol açtığıydı.
Doğru haberlerdeyse
doğru tweet'lere verilen yanıtlarda
daha çok beklenti,
neşe ve güven vardı.
Sürpriz, yenilik hipotezine uyuyor.
Bu, yeni ve şaşırtıcı, dolayısıyla onu
paylaşma ihtimalimiz daha yüksek.
Aynı zamanda ABD Kongre ve Senatosu'nda
yanlış bilgilerin yayılmasında
botların rolüne dair
ifadeler verildi.
Biz de buna da baktık.
Gelişmiş bot tespit
algoritmaları kullanarak
verilerimizdeki botları bulup çıkardık.
Onları çıkardık, geri koyduk
ve ölçümlerimize ne olduğuna baktık.
Şunu bulduk, evet, gerçekten de botlar
internette yalan haberlerin
yayılmasını hızlandırıyordu
ama doğruların yayılmasını da
aynı ölçüde hızlandırıyorlardı.
Yani gerçeklerin ve yalanların
yayılışındaki farklılıkların
sorumlusu botlar değil.
Bu sorumluluğu başkasına atamayız
çünkü o yayılmanın sorumlusu
biz insanlarız.
Şimdiye kadar anlattıklarım
ne yazık ki
işin iyi yanıydı.
Bunun sebebi daha da kötüye
gidecek olması.
Bunu kötüleştirecek
iki belli başlı teknoloji var.
Sentetik medya dalgasında
ciddi bir artış göreceğiz.
Dışarıdan bakıldığında ikna edici görünen
sahte video, sahte seslendirme.
Ve iki teknoloji bunu besleyecek.
İlki "üretken çekişmeli ağlar"
olarak biliniyor.
Bu, iki ağlı bir makine öğrenimi modeli:
Bir şeyin gerçek mi sahte mi
olduğunu belirlemekle görevli
bir ayrıştırıcı
ve sentetik medya
üretmekle yükümlü üretici.
Sentetik üretici,
sentetik video veya sesi üretir
ve ayrıştırıcı şunu belirlemeyi dener:
"Bu sahte mi, gerçek mi?"
Aslında üreticinin işi
yarattığı sentetik video ve sesin
ayrıştıcı tarafından
gerçek sanılması ihtimalini
artırmaktır.
Bizi kandırmakta ustalaşmaya çalışan,
döngüye takılmış bir makine hayal edin.
Bu, ikinci teknolojiyle,
yapay zekânın demokratikleştirilmesiyle,
yani makine öğrenimi
veya yapay zekâ konusunda
herhangi bir eğitimi olmayan
kişilerin bile
sentetik medya üretmek için
bu tür algoritmaları
kullanabilmesiyle birleşince
videoların yaratılması
fazlasıyla kolaylaşıyor.
Beyaz Saray bir gazetecinin
mikrofonunu almaya çalışan stajyerle
etkileşimini gösteren sahte,
üstünde oynanmış bir video yayınladı.
Eylemlerini daha dramatik kılmak için
bu videodan bazı kareleri çıkardılar.
Bu teknik konusunda
videograflar ve dublörlerle görüşüldüğünde
"Evet, yumruklarımız ve tekmelerimiz
daha etkileyici ve saldırgan görünsün diye
filmlerde bunu hep kullanırız." dediler.
Sonra bu videoyu yayınladılar
ve bahsi geçen gazeteci olan
Jim Acosta'nın,
Beyaz Saray basın kartını
iptal etmekte kullandılar.
Basın kartının yeniden çıkarılması için
CNN dava açmak zorunda kaldı.
Bugün bu son derece zor
sorunları çözmek için
izleyebileceğimiz beş yol aklıma geliyor.
Hepsinin potansiyeli var
ama kendilerine göre zorlukları da var.
İlki etiketleme.
Bunu şöyle düşünün:
Yiyecek almak için markete gittiğinizde
hepsi detaylı şekilde etiketlenmiş.
Kaç kalorisi olduğunu,
ne kadar yağ içerdiğini biliyorsunuz
ama tükettiğimiz bilgilerin
hiçbir etiketi yok.
Bu bilgi neleri kapsıyor?
Kaynağı güvenilir mi?
Bilgi nereden toplanmış?
Bilgileri tüketirken
bu bilgiler bize verilmiyor.
Bu izlenebilecek bir yol
ama kendine özgü sorunları var.
Mesela bir toplumda neyin doğru
neyin yanlış olduğuna kim karar verir?
Hükûmet mi?
Facebook mu?
Bilgileri kontrol eden
bağımsız bir kurul mu?
Peki onları kim kontrol edecek?
Bir diğer yol, teşvik.
ABD başkanlık seçimi sırasında
Makedonya'dan bir yanlış bilgi dalgası
geldiğini biliyoruz.
Amaçları siyasi değil,
ekonomikti.
Bu ekonomik amaç, var olabilmesini
yalan haberin,
doğrulardan çok daha hızlı,
çok daha derinlere yayılmasına borçlu
ve bu tür bilgilerle
insanların ilgisini çekerek
reklam geliri elde edebilirsiniz.
Ama bu bilginin yayılmasını baskılarsak
belki de daha baştan
yaratılmasına sebep olan
ekonomik teşvikleri de azaltırız.
Üçüncüsü, denetim.
Bu seçeneği düşünmemiz gerektiği kesin.
Şu anda ABD'de
Facebook ve benzerleri denetim altına
alınsa ne olacağını araştırıyoruz.
Siyasi söylemleri denetlemeyi,
onları siyasi söylem olarak etiketlemeyi,
dış mihrakların siyasi söylemleri
finanse etmesini
engellemeyi göz önünde
bulundurmamız gerekse de
bunların da kendince tehlikeleri var.
Mesela Malezya yalan bilgi yaydığı
tespit edilenlere
altı yıl hapis cezası getirdi.
Otoriter rejimlerde
bu tür düzenlemeler
azınlık görüşlerini bastırmak
ve baskının kapsamını genişletmek
amacıyla kullanılabilir.
Dördüncü olasılık, şeffaflık.
Facebook'un algoritmalarının
nasıl çalıştığını bilmek istiyoruz.
Algoritmalarla birleşen veriler
nasıl oluyor da
gördüğümüz sonuçları doğuruyor?
Kapıyı açmalarını
ve Facebook'un nasıl işlediğini
göstermelerini istiyoruz.
Sosyal medyanın toplumdaki
etkilerini öğrenmek istiyorsak
bilim insanları, araştırmacılar
ve benzerlerinin bu tür bilgilere
erişmesine ihtiyacımız var.
Ama aynı zamanda
Facebook'tan her şeyi kilitlemesini,
tüm verileri güvende tutmasını istiyoruz.
Bu yüzden Facebook
ve diğer sosyal medya platformları
şeffaflık paradoksu dediğim şeyle
karşı karşıya.
Onlardan hem açık ve şeffaf olmalarını
hem de güvenli olmalarını istiyoruz.
Bu, zor bir görev
ama sosyal teknolojilerin
potansiyelini değerlendirip
tehlikelerinden kaçınacaksak
bu görevi başarmalılar.
Düşünmemiz gereken son konu,
algoritmalar ve makine öğrenimi.
Yalan haberlerin köküne inip
onları, nasıl yayıldıklarını anlamamızı,
akışı yavaşlatmamızı
sağlayacak teknolojiler.
İnsanlar bu teknolojiden haberdar olmalı
çünkü her teknolojik çözümün
veya yaklaşımın temelinde,
doğruyu ve yalanı nasıl tanımlıyoruz,
doğrunun ve yalanın ne olduğunu
tanımlama gücünü kime veriyoruz,
hangi görüş doğru,
hangi söylemlere izin verilmeli gibi
ahlaki ve felsefi soruların
yattığı gerçeğinden asla kaçamayız.
Bunun çözümü teknoloji değil.
Bunun çözümü ahlak ve felsefe.
İnsanların karar vermesi, iş birliği
ve koordinasyonu hakkındaki
tüm teorilerin özünde
bir tür gerçek anlayışı yatar.
Ama yalan haberlerin,
sahte videoların,
sahte seslendirmelerin artışıyla
gerçeğin kıyısındaki bir noktaya geldik,
neyin gerçek neyin yalan olduğunu
ayırt edemiyoruz
ve bu, çok tehlikeli olabilir.
Yanlış bilgilendirmeye karşı
gerçekleri savunmak adına
tetikte olmalıyız.
Teknolojilerimiz, politikalarımız
ve belki de en önemlisi
bireysel sorumluluklarımızla,
kararlarımız, davranışlarımız
ve eylemlerimizle.
Çok teşekkürler.
(Alkışlar)