[Bu konuşma yetişkinlere
yönelik içerikler barındırır.]
Rana Ayyub, çalışmaları hükûmet yozlaşması
ve insan hakları
ihlallerini açığa çıkarmış
Hint bir gazeteci.
Yıllar içerisinde
çalışmalarıyla ilgili eleştiri
ve tartışmalara alışmıştı.
Ama hiçbir şey onu, Nisan 2018'de
karşılaştığı şeye hazırlayamazdı.
İlk gördüğünde arkadaşıyla
bir kafede oturuyordu:
Kendisinin, iki dakika yirmi saniye
uzunluğundaki seks videosu.
Gözlerine inanamadı.
Hiçbir zaman seks videosu çekmemişti.
Fakat maalesef binlerce insan
videodakinin o olduğuna inanacaktı.
Cinsel gizlilikle ilgili
kitabım bağlamında
Bayan Ayyub ile üç ay önce görüştüm.
Bir hukuk profesörü, avukat
ve sivil haklar savunucusuyum.
Şu anda, hukukun ona çok az
yardımının dokunabileceğini bilmek
o kadar sinir bozucu ki.
Konuştukça
sahte seks videosunun muhtemel olduğunu
önceden görmesi gerektiğini söyledi.
Dedi ki: "Ne de olsa seks, kadınları,
özellikle azınlık kadınlarını,
bilhassa güçlü erkeklere meydan
okumayı göze alan azınlık kadınlarını
küçük düşürmek ve utandırmak
için çok sık kullanılıyor."
Çalışmalarında yaptığı da buydu.
Sahte seks videosu 48 saatte viral oldu.
Tüm çevrim içi hesapları videodan
ekran görüntüleriyle doldu.
Sahip olduğu İslam
inancıyla ilgili iftiralara,
açık tecavüz ve ölüm
tehditlerine maruz kaldı.
Çevrim içi gönderiler, onun seks için
"müsait" olduğunu söylüyordu.
İfşa edildi,
yani ev adresi ve cep telefonu numarası
internette yayıldı.
Video 40 bin defadan fazla paylaşıldı.
Artık, birisi bu tür bir siber-çete
saldırısıyla hedef alındığında
verilen zarar çok derin.
Rana Ayyub'un hayatı altüst oldu.
Haftalarca ne yemek
yiyebildi, ne konuşabildi.
Yazmayı bıraktı ve tüm
sosyal medya hesaplarını kapattı.
Bir gazeteci için yapması çok zor bir şey.
Ailesinin evinden çıkmaya korkuyordu.
Ya internettekiler tehditlerinde ciddiyse?
BM İnsan Hakları Konseyi,
Ayyub'un deli olmadığını doğruladı.
Güvenliğinden endişe duyduklarını söyleyen
bir basın açıklaması yayımladılar.
Rana Ayyub'un yüzleştiği şey
bir deepfake videosuydu:
İnsanları, hiç yapmadıkları
veya söylemedikleri şeyleri
yapıp söylerken göstermek için
ses ve video kayıtlarını manipüle eden
veya üreten makine öğrenmesi teknolojisi.
Deepfake videoları orijinal
ve gerçekçi görünüyor ama değil;
tamamen yalan.
Bu teknoloji kapsamlılığı anlamında
halen gelişmekte olsa da
geniş çapta ulaşılabilir durumda.
Şimdiyse, deepfake videolarına
yönelen en son ilginin sebebi
internetteki bir çok şeyde de olduğu gibi
pornografi oldu.
2018'in başlarında birisi,
kullanıcıların pornolara yüz eklemesine
imkan veren bir aracı Reddit'te paylaştı.
Bunu, insanların en sevdiği
kadın ünlüleri içeren
sahte bir porno yağmuru takip etti.
Bugün, YouTube'a girip
masaüstü uygulamanızda
nasıl deepfake videosu yapılacağına dair
adım adım talimatlarla
sayısız öğretici video izleyebilirsiniz.
Yakında bu videoları cep
telefonlarımızdan bile yapabiliriz.
Deepfake videolarını silaha çeviren şey
bazı en temel insani zaaflarımız
ve ağ araçları arasındaki etkileşim.
Açıklayayım.
İnsanlar olarak ses ve videoya
içsel bir tepki gösteririz.
Tabii ki gözlerimizin
ve kulaklarımızın söylediğine
inanabileceğimiz zannıyla
bunların gerçek olduğuna inanırız.
Bizim ortak gerçeklik duygumuzun
altını kazan da bu mekanizmadır.
Deepfake videolarının gerçek olduğuna
inansak da öyle değiller.
Müstehcen, provokatif olan da
bizi kendine çeker.
Olumsuz ve yeni bilgilere inanıp
bunları paylaşma eğilimi gösteririz.
Araştırmacılar, internet
uydurmalarının gerçek hikayelere göre
10 kat daha hızlı yayıldığını saptadılar.
Bakış açımıza paralel bilgiler de
bizi kendine çeker.
Psikologlar bu eğilime
"doğrulama yanlılığı" adını veriyor.
Sosyal medya platformları da
bakış açımıza uyan bilgileri
geniş alanda ve hemen
paylaşmamızı sağlayarak
bu eğilime güç veriyor.
Deepfake videolarının bireylere ve
topluma ciddi hasar verme potansiyeli var.
Amerikan askerlerinin Afganistan'da
Kuran yaktığını gösteren
bir deepfake videosu hayal edin.
Bu videonun o askerlere karşı
şiddeti kışkırtacağını da
hayal edebilirsiniz.
Peki sonraki gün,
Londra'dan ünlü bir imamın,
askerlere yapılan bu
saldırıyı övdüğünü gösteren
başka bir deepfake videosu da
internete düşerse?
Yalnızca Afganistan ve İngiltere'de değil,
tüm dünyada şiddet ve kargaşaya
şahit olabiliriz.
Şunu diyebilirsiniz,
"Hadi be Danielle,
o kadar uzun boylu değil."
Ama öyle.
WhatsApp'tan ve diğer
çevrim içi mesaj hizmetlerinden
yayılan yalanların
etnik azınlıklara karşı
şiddete yol açtığına şahit olduk.
Bunlar sadece metindi --
bir de video olduğunu düşünün.
Deepfake videoları demokratik
kurumlara duyduğumuz güveni
çürütme potansiyeline sahip.
Seçimden bir önceki geceyi düşünün.
Önemli parti adaylarından birini
ciddi hasta olarak gösteren
deepfake videosu olsa
bu video seçimin sonucu tüyosunu verip
seçimlerin meşru olduğu
inancımızı sarsabilir.
Büyük bir küresel bankanın
ilk halka arzından önceki gece
bankanın CEO'sunun
sarhoş halde komplo
teorileri anlattığını gösteren
bir deepfake videosu olduğunu hayal edin.
Bu video halka arzı dibe vurdurabilir.
Daha da kötüsü, finansal pazarların
stabil olduğu inancımızı sarsabilir.
Deepfake videoları; politikacı,
iş liderleri ve diğer etkili liderlere
duyduğumuz derin güvensizliği
suistimal edip büyütebilir.
Bu videolar, kendilerine inanmaya
hazır bir izleyici kitlesi buluyor.
Gerçeğin takip edilmesi de
tehlikeye giriyor.
Teknologlar, yapay zekadaki gelişmelerle
yakın zamanda gerçek bir video ile
sahtesini birbirinden ayırmanın
imkansız değilse de
zor hale gelmesini bekliyorlar.
Deepfake videolarının yönettiği
düşünce pazarında gerçek nasıl bulunur?
Gerçeğe lanet olsun deyip
sadece en kolay yoldan devam edecek
ve inanmak istediğimiz
şeylere mi inanacağız?
Olay sadece sahteliğe inanmak değil,
gerçeğe inanmamaya da başlayabiliriz.
Kendi yanlışlarının gerçek
kanıtlarına gölge düşürmek için
deepfake videoları olgusuna
başvuran insanları zaten gördük.
Rahatsız edici yorumlarının ses kayıtları
hakkında şunu diyen politikacıları duyduk,
"Hadi be, yalan haber bunlar.
Gözleriniz ve kulaklarınızın
anlattığına inanamazsınız."
Profesör Robert Chesney ve benim
"yalancının hissesi"
dediğimiz de işte bu risk:
kendi yanlışlarının
sorumluluğundan kaçmak için
deepfake videolarına başvuracak
yalancıların oluşturduğu risk.
Şüphesiz, işimiz zor.
Teknoloji şirketleri, kanun koyucular,
kanun uygulayıcılar ve medyadan gelecek
proaktif bir çözüme ihtiyacımız olacak.
Dozunda toplumsal
esnekliğe ihtiyacımız olacak.
Şu anda, teknoloji şirketinin
sorumluluğuyla ilgili
kamusal bir diyaloğa dahiliz.
Benim sosyal medya platformlarına tavsiyem
hizmet şartları ve topluluk kurallarını,
zarara sebep olan deepfake videolarını
yasaklayacak şekilde değiştirmeleridir.
Bu kararlılık insani yargı gerektirecektir
ve pahalıdır.
Ama bir deepfake videosunun
içerik ve bağlamına bakıp,
zararlı bir canlandırma mı,
yoksa değerli hiciv, sanat
veya eğitim mi olduğuna
karar verecek insanlara ihtiyacımız var.
Peki ya hukuk?
Hukuk bizim öğretmenimiz.
Hukuk bize neyin zararlı
ve neyin yanlış olduğunu öğretir.
Failleri cezalandırıp
kurbanlar için çözüm sağlayarak
caydırdığı davranışı şekillendirir.
Şu anda hukuk, deepfake
videoları görevine hazır değil.
Dünya çapında,
cinsel gizliliği ihlal eden,
itibar zedeleyen
ve manevi zarara sebep olan
dijital kişisel canlandırmaları
ele almak için tasarlanmış
duruma tam uygun kanunların
eksikliği içerisindeyiz.
Rana Ayyub'a olanlar
gitgide yaygınlaşıyor.
Ayyub, Delhi'de kanunlara başvurduğunda
ona yapacak hiçbir şeyin
olmadığı söylendi.
Acı gerçekse ABD ve Avrupa'da da
durumun aynı olması.
Doldurulması gereken
yasal bir boşluğumuz var.
Meslektaşım Dr. Mary Anne Franks ve ben,
kimlik hırsızlığına eşdeğer olan
zararlı dijital kişisel canlandırmaları
yasaklayacak bir mevzuat
tasarlamaya çalışıyoruz.
Benzer girişimleri İzlanda, İngiltere
ve Avustralya'da gördük.
Bu mevzuat, yapbozunun küçük bir parçası.
Hukukun her şeye çözüm
olmadığını biliyorum. Öyle değil mi?
Hukuk kabaca bir araç
ve bunu akıllıca kullanmalıyız.
Hukuk, bazı pratik engellere de sahip.
Tespit edip bulamadığınız insanlara
karşı hukuku kullanamazsınız.
Bir fail, kurbanın yaşadığı ülkeden
başka bir ülkede yaşıyorsa
failin, adaletle yüzleşmek üzere
yerel mahkemelere gelmesini
sağlayamamanız olası.
Koordineli uluslararası
bir tepkiye ihtiyacımız olacak.
Eğitim de bu tepkinin bir parçası olmalı.
Kanun uygulayıcılar,
bilgi sahibi olmadıkları
kanunları uygulamayacak
ve anlamadıkları sorunları çözmeyecekler.
Siber takiple taciz
hakkındaki araştırmamda
kanun uygulayıcılarının,
ulaşabildikleri kanunların ve internet
tacizi sorununu anlamak için
eğitimlerinin eksik olduğunu keşfettim.
Bu yüzden kurbanlara sık sık şunu dediler:
"Bilgisayarı kapat.
Görmezden gel. Geçer gider."
Bunu Rana Ayyub vakasında da gördük.
Ona söylenen şuydu:
"Hadi ama, olayı ne büyüttün.
Erkekler erkeklik yapıyor işte."
Bu yüzden yeni mevzuatı
eğitim çabalarıyla eşleştirmeliyiz.
Eğitim medyaya da yönelik olmak zorunda.
Gazeteciler, deepfake videolarını
büyütüp yaymamak konusunda
eğitim almalı.
İşte bu kısma hepimiz dahiliz.
Her birimizin eğitime ihtiyacı var.
Tıklıyor, paylaşıyor, beğeniyoruz,
hakkında düşünmüyoruz bile.
Bundan daha iyisini yapmalıyız.
Sahteliğe karşı çok daha iyi
bir radarımız olmalı.
Bu çözümler için çalışırken,
çekilecek çok çile olacak.
Rana Ayyub bunun etkileriyle
hâlâ mücadele ediyor.
Kendisini internette ve dışarıda
ifade etmekte hâlâ özgür hissetmiyor.
Bana söylediğine göre,
akıl yoluyla, videodakinin
kendi bedeni olmadığını bilse de
çıplak bedeni üzerinde binlerce
gözün gezindiğini hâlâ hissediyor.
Özellikle tanımadığı birisi
fotoğrafını çekmeye çalıştığında,
sık sık panik atak geçiriyor.
Kendi kendine "Ya başka bir deepfake
videosu yaparlarsa," diye düşünüyor.
Rana Ayyub gibi bireylerin uğruna,
demokrasimizin uğruna,
tam şu anda bir şeyler yapmamız gerekiyor.
Teşekkür ederim.
(Alkışlar)