Turkish subtitles

← "Deepfake" videoları gerçeği baltalayıp demokrasiyi nasıl tehdit ediyor

Get Embed Code
21 Languages

Showing Revision 16 created 08/05/2020 by Cihan Ekmekçi.

  1. [Bu konuşma yetişkinlere
    yönelik içerikler barındırır.]
  2. Rana Ayyub, çalışmaları hükûmet yozlaşması

  3. ve insan hakları
    ihlallerini açığa çıkarmış
  4. Hint bir gazeteci.
  5. Yıllar içerisinde
  6. çalışmalarıyla ilgili eleştiri
    ve tartışmalara alışmıştı.
  7. Ama hiçbir şey onu, Nisan 2018'de
    karşılaştığı şeye hazırlayamazdı.
  8. İlk gördüğünde arkadaşıyla
    bir kafede oturuyordu:

  9. Kendisinin, iki dakika yirmi saniye
    uzunluğundaki seks videosu.
  10. Gözlerine inanamadı.
  11. Hiçbir zaman seks videosu çekmemişti.
  12. Fakat maalesef binlerce insan
  13. videodakinin o olduğuna inanacaktı.
  14. Cinsel gizlilikle ilgili
    kitabım bağlamında

  15. Bayan Ayyub ile üç ay önce görüştüm.
  16. Bir hukuk profesörü, avukat
    ve sivil haklar savunucusuyum.
  17. Şu anda, hukukun ona çok az
    yardımının dokunabileceğini bilmek
  18. o kadar sinir bozucu ki.
  19. Konuştukça
  20. sahte seks videosunun muhtemel olduğunu
    önceden görmesi gerektiğini söyledi.
  21. Dedi ki: "Ne de olsa seks, kadınları,
    özellikle azınlık kadınlarını,
  22. bilhassa güçlü erkeklere meydan
    okumayı göze alan azınlık kadınlarını
  23. küçük düşürmek ve utandırmak
    için çok sık kullanılıyor."
  24. Çalışmalarında yaptığı da buydu.
  25. Sahte seks videosu 48 saatte viral oldu.
  26. Tüm çevrim içi hesapları videodan
    ekran görüntüleriyle doldu.
  27. Sahip olduğu İslam
    inancıyla ilgili iftiralara,
  28. açık tecavüz ve ölüm
    tehditlerine maruz kaldı.
  29. Çevrim içi gönderiler, onun seks için
    "müsait" olduğunu söylüyordu.
  30. İfşa edildi,
  31. yani ev adresi ve cep telefonu numarası
  32. internette yayıldı.
  33. Video 40 bin defadan fazla paylaşıldı.
  34. Artık, birisi bu tür bir siber-çete
    saldırısıyla hedef alındığında

  35. verilen zarar çok derin.
  36. Rana Ayyub'un hayatı altüst oldu.
  37. Haftalarca ne yemek
    yiyebildi, ne konuşabildi.
  38. Yazmayı bıraktı ve tüm
    sosyal medya hesaplarını kapattı.
  39. Bir gazeteci için yapması çok zor bir şey.
  40. Ailesinin evinden çıkmaya korkuyordu.
  41. Ya internettekiler tehditlerinde ciddiyse?
  42. BM İnsan Hakları Konseyi,
    Ayyub'un deli olmadığını doğruladı.
  43. Güvenliğinden endişe duyduklarını söyleyen
    bir basın açıklaması yayımladılar.
  44. Rana Ayyub'un yüzleştiği şey
    bir deepfake videosuydu:

  45. İnsanları, hiç yapmadıkları
  46. veya söylemedikleri şeyleri
    yapıp söylerken göstermek için
  47. ses ve video kayıtlarını manipüle eden
  48. veya üreten makine öğrenmesi teknolojisi.
  49. Deepfake videoları orijinal
    ve gerçekçi görünüyor ama değil;
  50. tamamen yalan.
  51. Bu teknoloji kapsamlılığı anlamında
    halen gelişmekte olsa da
  52. geniş çapta ulaşılabilir durumda.
  53. Şimdiyse, deepfake videolarına
    yönelen en son ilginin sebebi

  54. internetteki bir çok şeyde de olduğu gibi
  55. pornografi oldu.
  56. 2018'in başlarında birisi,

  57. kullanıcıların pornolara yüz eklemesine
  58. imkan veren bir aracı Reddit'te paylaştı.
  59. Bunu, insanların en sevdiği
    kadın ünlüleri içeren
  60. sahte bir porno yağmuru takip etti.
  61. Bugün, YouTube'a girip
    masaüstü uygulamanızda
  62. nasıl deepfake videosu yapılacağına dair
  63. adım adım talimatlarla
    sayısız öğretici video izleyebilirsiniz.
  64. Yakında bu videoları cep
    telefonlarımızdan bile yapabiliriz.
  65. Deepfake videolarını silaha çeviren şey
  66. bazı en temel insani zaaflarımız
  67. ve ağ araçları arasındaki etkileşim.
  68. Açıklayayım.
  69. İnsanlar olarak ses ve videoya
    içsel bir tepki gösteririz.

  70. Tabii ki gözlerimizin
  71. ve kulaklarımızın söylediğine
    inanabileceğimiz zannıyla
  72. bunların gerçek olduğuna inanırız.
  73. Bizim ortak gerçeklik duygumuzun
  74. altını kazan da bu mekanizmadır.
  75. Deepfake videolarının gerçek olduğuna
    inansak da öyle değiller.
  76. Müstehcen, provokatif olan da
    bizi kendine çeker.
  77. Olumsuz ve yeni bilgilere inanıp
  78. bunları paylaşma eğilimi gösteririz.
  79. Araştırmacılar, internet
    uydurmalarının gerçek hikayelere göre
  80. 10 kat daha hızlı yayıldığını saptadılar.
  81. Bakış açımıza paralel bilgiler de
  82. bizi kendine çeker.
  83. Psikologlar bu eğilime
    "doğrulama yanlılığı" adını veriyor.
  84. Sosyal medya platformları da
    bakış açımıza uyan bilgileri
  85. geniş alanda ve hemen
    paylaşmamızı sağlayarak
  86. bu eğilime güç veriyor.
  87. Deepfake videolarının bireylere ve
    topluma ciddi hasar verme potansiyeli var.

  88. Amerikan askerlerinin Afganistan'da
  89. Kuran yaktığını gösteren
    bir deepfake videosu hayal edin.
  90. Bu videonun o askerlere karşı
    şiddeti kışkırtacağını da
  91. hayal edebilirsiniz.
  92. Peki sonraki gün,
    Londra'dan ünlü bir imamın,
  93. askerlere yapılan bu
    saldırıyı övdüğünü gösteren
  94. başka bir deepfake videosu da
  95. internete düşerse?
  96. Yalnızca Afganistan ve İngiltere'de değil,
  97. tüm dünyada şiddet ve kargaşaya
  98. şahit olabiliriz.
  99. Şunu diyebilirsiniz,

  100. "Hadi be Danielle,
    o kadar uzun boylu değil."
  101. Ama öyle.
  102. WhatsApp'tan ve diğer
    çevrim içi mesaj hizmetlerinden
  103. yayılan yalanların
  104. etnik azınlıklara karşı
    şiddete yol açtığına şahit olduk.
  105. Bunlar sadece metindi --
  106. bir de video olduğunu düşünün.
  107. Deepfake videoları demokratik
    kurumlara duyduğumuz güveni

  108. çürütme potansiyeline sahip.
  109. Seçimden bir önceki geceyi düşünün.
  110. Önemli parti adaylarından birini
    ciddi hasta olarak gösteren
  111. deepfake videosu olsa
  112. bu video seçimin sonucu tüyosunu verip
  113. seçimlerin meşru olduğu
    inancımızı sarsabilir.
  114. Büyük bir küresel bankanın
    ilk halka arzından önceki gece
  115. bankanın CEO'sunun
  116. sarhoş halde komplo
    teorileri anlattığını gösteren
  117. bir deepfake videosu olduğunu hayal edin.
  118. Bu video halka arzı dibe vurdurabilir.
  119. Daha da kötüsü, finansal pazarların
    stabil olduğu inancımızı sarsabilir.
  120. Deepfake videoları; politikacı,
    iş liderleri ve diğer etkili liderlere

  121. duyduğumuz derin güvensizliği
    suistimal edip büyütebilir.
  122. Bu videolar, kendilerine inanmaya
    hazır bir izleyici kitlesi buluyor.
  123. Gerçeğin takip edilmesi de
    tehlikeye giriyor.
  124. Teknologlar, yapay zekadaki gelişmelerle
  125. yakın zamanda gerçek bir video ile
    sahtesini birbirinden ayırmanın
  126. imkansız değilse de
    zor hale gelmesini bekliyorlar.
  127. Deepfake videolarının yönettiği
    düşünce pazarında gerçek nasıl bulunur?

  128. Gerçeğe lanet olsun deyip
  129. sadece en kolay yoldan devam edecek
  130. ve inanmak istediğimiz
    şeylere mi inanacağız?
  131. Olay sadece sahteliğe inanmak değil,
  132. gerçeğe inanmamaya da başlayabiliriz.
  133. Kendi yanlışlarının gerçek
    kanıtlarına gölge düşürmek için
  134. deepfake videoları olgusuna
    başvuran insanları zaten gördük.
  135. Rahatsız edici yorumlarının ses kayıtları
    hakkında şunu diyen politikacıları duyduk,
  136. "Hadi be, yalan haber bunlar.
  137. Gözleriniz ve kulaklarınızın
    anlattığına inanamazsınız."
  138. Profesör Robert Chesney ve benim
  139. "yalancının hissesi"
    dediğimiz de işte bu risk:
  140. kendi yanlışlarının
    sorumluluğundan kaçmak için
  141. deepfake videolarına başvuracak
    yalancıların oluşturduğu risk.
  142. Şüphesiz, işimiz zor.

  143. Teknoloji şirketleri, kanun koyucular,
  144. kanun uygulayıcılar ve medyadan gelecek
  145. proaktif bir çözüme ihtiyacımız olacak.
  146. Dozunda toplumsal
    esnekliğe ihtiyacımız olacak.
  147. Şu anda, teknoloji şirketinin
    sorumluluğuyla ilgili
  148. kamusal bir diyaloğa dahiliz.
  149. Benim sosyal medya platformlarına tavsiyem
  150. hizmet şartları ve topluluk kurallarını,
  151. zarara sebep olan deepfake videolarını
    yasaklayacak şekilde değiştirmeleridir.
  152. Bu kararlılık insani yargı gerektirecektir
  153. ve pahalıdır.
  154. Ama bir deepfake videosunun
    içerik ve bağlamına bakıp,
  155. zararlı bir canlandırma mı,
  156. yoksa değerli hiciv, sanat
    veya eğitim mi olduğuna
  157. karar verecek insanlara ihtiyacımız var.
  158. Peki ya hukuk?

  159. Hukuk bizim öğretmenimiz.
  160. Hukuk bize neyin zararlı
    ve neyin yanlış olduğunu öğretir.
  161. Failleri cezalandırıp
    kurbanlar için çözüm sağlayarak
  162. caydırdığı davranışı şekillendirir.
  163. Şu anda hukuk, deepfake
    videoları görevine hazır değil.
  164. Dünya çapında,
  165. cinsel gizliliği ihlal eden,
  166. itibar zedeleyen
  167. ve manevi zarara sebep olan
  168. dijital kişisel canlandırmaları
    ele almak için tasarlanmış
  169. duruma tam uygun kanunların
    eksikliği içerisindeyiz.
  170. Rana Ayyub'a olanlar
    gitgide yaygınlaşıyor.
  171. Ayyub, Delhi'de kanunlara başvurduğunda
  172. ona yapacak hiçbir şeyin
    olmadığı söylendi.
  173. Acı gerçekse ABD ve Avrupa'da da
  174. durumun aynı olması.
  175. Doldurulması gereken
    yasal bir boşluğumuz var.

  176. Meslektaşım Dr. Mary Anne Franks ve ben,
  177. kimlik hırsızlığına eşdeğer olan
    zararlı dijital kişisel canlandırmaları
  178. yasaklayacak bir mevzuat
    tasarlamaya çalışıyoruz.
  179. Benzer girişimleri İzlanda, İngiltere
  180. ve Avustralya'da gördük.
  181. Bu mevzuat, yapbozunun küçük bir parçası.
  182. Hukukun her şeye çözüm
    olmadığını biliyorum. Öyle değil mi?

  183. Hukuk kabaca bir araç
  184. ve bunu akıllıca kullanmalıyız.
  185. Hukuk, bazı pratik engellere de sahip.
  186. Tespit edip bulamadığınız insanlara
    karşı hukuku kullanamazsınız.
  187. Bir fail, kurbanın yaşadığı ülkeden
  188. başka bir ülkede yaşıyorsa
  189. failin, adaletle yüzleşmek üzere
  190. yerel mahkemelere gelmesini
  191. sağlayamamanız olası.
  192. Koordineli uluslararası
    bir tepkiye ihtiyacımız olacak.
  193. Eğitim de bu tepkinin bir parçası olmalı.
  194. Kanun uygulayıcılar,
  195. bilgi sahibi olmadıkları
    kanunları uygulamayacak
  196. ve anlamadıkları sorunları çözmeyecekler.
  197. Siber takiple taciz
    hakkındaki araştırmamda
  198. kanun uygulayıcılarının,
  199. ulaşabildikleri kanunların ve internet
    tacizi sorununu anlamak için
  200. eğitimlerinin eksik olduğunu keşfettim.
  201. Bu yüzden kurbanlara sık sık şunu dediler:
  202. "Bilgisayarı kapat.
    Görmezden gel. Geçer gider."
  203. Bunu Rana Ayyub vakasında da gördük.
  204. Ona söylenen şuydu:
  205. "Hadi ama, olayı ne büyüttün.
    Erkekler erkeklik yapıyor işte."
  206. Bu yüzden yeni mevzuatı
    eğitim çabalarıyla eşleştirmeliyiz.
  207. Eğitim medyaya da yönelik olmak zorunda.

  208. Gazeteciler, deepfake videolarını
    büyütüp yaymamak konusunda
  209. eğitim almalı.
  210. İşte bu kısma hepimiz dahiliz.
  211. Her birimizin eğitime ihtiyacı var.
  212. Tıklıyor, paylaşıyor, beğeniyoruz,
    hakkında düşünmüyoruz bile.
  213. Bundan daha iyisini yapmalıyız.
  214. Sahteliğe karşı çok daha iyi
    bir radarımız olmalı.
  215. Bu çözümler için çalışırken,

  216. çekilecek çok çile olacak.
  217. Rana Ayyub bunun etkileriyle
    hâlâ mücadele ediyor.
  218. Kendisini internette ve dışarıda
    ifade etmekte hâlâ özgür hissetmiyor.
  219. Bana söylediğine göre,
  220. akıl yoluyla, videodakinin
    kendi bedeni olmadığını bilse de
  221. çıplak bedeni üzerinde binlerce
    gözün gezindiğini hâlâ hissediyor.
  222. Özellikle tanımadığı birisi
    fotoğrafını çekmeye çalıştığında,
  223. sık sık panik atak geçiriyor.
  224. Kendi kendine "Ya başka bir deepfake
    videosu yaparlarsa," diye düşünüyor.
  225. Rana Ayyub gibi bireylerin uğruna,
  226. demokrasimizin uğruna,
  227. tam şu anda bir şeyler yapmamız gerekiyor.
  228. Teşekkür ederim.

  229. (Alkışlar)