1 00:00:00,535 --> 00:00:03,302 [Bu konuşma yetişkinlere yönelik içerikler barındırır.] 2 00:00:05,762 --> 00:00:08,754 Rana Ayyub, çalışmaları hükûmet yozlaşması 3 00:00:08,778 --> 00:00:11,380 ve insan hakları ihlallerini açığa çıkarmış 4 00:00:12,411 --> 00:00:14,568 Hint bir gazeteci. 5 00:00:14,990 --> 00:00:16,157 Yıllar içerisinde 6 00:00:16,181 --> 00:00:19,484 çalışmalarıyla ilgili eleştiri ve tartışmalara alışmıştı. 7 00:00:20,149 --> 00:00:25,258 Ama hiçbir şey onu, Nisan 2018'de karşılaştığı şeye hazırlayamazdı. 8 00:00:26,125 --> 00:00:29,776 İlk gördüğünde arkadaşıyla bir kafede oturuyordu: 9 00:00:29,800 --> 00:00:34,743 Kendisinin, iki dakika yirmi saniye uzunluğundaki seks videosu. 10 00:00:35,188 --> 00:00:37,537 Gözlerine inanamadı. 11 00:00:37,561 --> 00:00:39,834 Hiçbir zaman seks videosu çekmemişti. 12 00:00:40,506 --> 00:00:43,971 Fakat maalesef binlerce insan 13 00:00:43,995 --> 00:00:45,661 videodakinin o olduğuna inanacaktı. 14 00:00:46,673 --> 00:00:49,617 Cinsel gizlilikle ilgili kitabım bağlamında 15 00:00:49,641 --> 00:00:52,145 Bayan Ayyub ile üç ay önce görüştüm. 16 00:00:52,681 --> 00:00:55,879 Bir hukuk profesörü, avukat ve sivil haklar savunucusuyum. 17 00:00:56,204 --> 00:01:00,815 Şu anda, hukukun ona çok az yardımının dokunabileceğini bilmek 18 00:01:00,839 --> 00:01:03,077 o kadar sinir bozucu ki. 19 00:01:03,458 --> 00:01:05,005 Konuştukça 20 00:01:05,029 --> 00:01:09,541 sahte seks videosunun muhtemel olduğunu önceden görmesi gerektiğini söyledi. 21 00:01:10,038 --> 00:01:15,264 Dedi ki: "Ne de olsa seks, kadınları, özellikle azınlık kadınlarını, 22 00:01:15,264 --> 00:01:18,790 bilhassa güçlü erkeklere meydan okumayı göze alan azınlık kadınlarını 23 00:01:18,790 --> 00:01:22,422 küçük düşürmek ve utandırmak için çok sık kullanılıyor." 24 00:01:22,446 --> 00:01:23,979 Çalışmalarında yaptığı da buydu. 25 00:01:25,191 --> 00:01:29,167 Sahte seks videosu 48 saatte viral oldu. 26 00:01:30,064 --> 00:01:35,371 Tüm çevrim içi hesapları videodan ekran görüntüleriyle doldu. 27 00:01:35,395 --> 00:01:38,022 Sahip olduğu İslam inancıyla ilgili iftiralara, 28 00:01:38,046 --> 00:01:40,579 açık tecavüz ve ölüm tehditlerine maruz kaldı. 29 00:01:41,426 --> 00:01:45,990 Çevrim içi gönderiler, onun seks için "müsait" olduğunu söylüyordu. 30 00:01:46,014 --> 00:01:47,624 İfşa edildi, 31 00:01:47,648 --> 00:01:50,426 yani ev adresi ve cep telefonu numarası 32 00:01:50,450 --> 00:01:52,196 internette yayıldı. 33 00:01:52,879 --> 00:01:56,963 Video 40 bin defadan fazla paylaşıldı. 34 00:01:57,760 --> 00:02:01,696 Artık, birisi bu tür bir siber-çete saldırısıyla hedef alındığında 35 00:02:01,720 --> 00:02:03,783 verilen zarar çok derin. 36 00:02:04,482 --> 00:02:07,521 Rana Ayyub'un hayatı altüst oldu. 37 00:02:08,211 --> 00:02:11,545 Haftalarca ne yemek yiyebildi, ne konuşabildi. 38 00:02:11,919 --> 00:02:15,608 Yazmayı bıraktı ve tüm sosyal medya hesaplarını kapattı. 39 00:02:15,632 --> 00:02:18,790 Bir gazeteci için yapması çok zor bir şey. 40 00:02:19,188 --> 00:02:22,672 Ailesinin evinden çıkmaya korkuyordu. 41 00:02:22,696 --> 00:02:25,718 Ya internettekiler tehditlerinde ciddiyse? 42 00:02:26,395 --> 00:02:30,760 BM İnsan Hakları Konseyi, Ayyub'un deli olmadığını doğruladı. 43 00:02:30,784 --> 00:02:35,421 Güvenliğinden endişe duyduklarını söyleyen bir basın açıklaması yayımladılar. 44 00:02:36,776 --> 00:02:41,005 Rana Ayyub'un yüzleştiği şey bir deepfake videosuydu: 45 00:02:41,029 --> 00:02:43,569 İnsanları, hiç yapmadıkları 46 00:02:43,593 --> 00:02:47,704 veya söylemedikleri şeyleri yapıp söylerken göstermek için 47 00:02:47,728 --> 00:02:50,451 ses ve video kayıtlarını manipüle eden 48 00:02:50,475 --> 00:02:52,807 veya üreten makine öğrenmesi teknolojisi. 49 00:02:52,807 --> 00:02:56,168 Deepfake videoları orijinal ve gerçekçi görünüyor ama değil; 50 00:02:56,192 --> 00:02:57,964 tamamen yalan. 51 00:02:59,228 --> 00:03:03,022 Bu teknoloji kapsamlılığı anlamında halen gelişmekte olsa da 52 00:03:03,046 --> 00:03:04,660 geniş çapta ulaşılabilir durumda. 53 00:03:05,371 --> 00:03:08,443 Şimdiyse, deepfake videolarına yönelen en son ilginin sebebi 54 00:03:08,467 --> 00:03:10,628 internetteki bir çok şeyde de olduğu gibi 55 00:03:10,652 --> 00:03:11,907 pornografi oldu. 56 00:03:12,498 --> 00:03:14,609 2018'in başlarında birisi, 57 00:03:14,633 --> 00:03:17,101 kullanıcıların pornolara yüz eklemesine 58 00:03:17,125 --> 00:03:21,537 imkan veren bir aracı Reddit'te paylaştı. 59 00:03:21,561 --> 00:03:25,001 Bunu, insanların en sevdiği kadın ünlüleri içeren 60 00:03:25,025 --> 00:03:27,822 sahte bir porno yağmuru takip etti. 61 00:03:28,712 --> 00:03:32,189 Bugün, YouTube'a girip masaüstü uygulamanızda 62 00:03:32,213 --> 00:03:34,499 nasıl deepfake videosu yapılacağına dair 63 00:03:34,523 --> 00:03:37,686 adım adım talimatlarla sayısız öğretici video izleyebilirsiniz. 64 00:03:38,260 --> 00:03:41,966 Yakında bu videoları cep telefonlarımızdan bile yapabiliriz. 65 00:03:43,072 --> 00:03:48,454 Deepfake videolarını silaha çeviren şey 66 00:03:48,478 --> 00:03:50,160 bazı en temel insani zaaflarımız 67 00:03:50,184 --> 00:03:52,850 ve ağ araçları arasındaki etkileşim. 68 00:03:52,874 --> 00:03:54,074 Açıklayayım. 69 00:03:54,875 --> 00:03:59,441 İnsanlar olarak ses ve videoya içsel bir tepki gösteririz. 70 00:03:59,860 --> 00:04:01,348 Tabii ki gözlerimizin 71 00:04:01,348 --> 00:04:04,194 ve kulaklarımızın söylediğine inanabileceğimiz zannıyla 72 00:04:04,194 --> 00:04:05,952 bunların gerçek olduğuna inanırız. 73 00:04:06,476 --> 00:04:08,175 Bizim ortak gerçeklik duygumuzun 74 00:04:08,199 --> 00:04:11,897 altını kazan da bu mekanizmadır. 75 00:04:11,921 --> 00:04:15,068 Deepfake videolarının gerçek olduğuna inansak da öyle değiller. 76 00:04:15,604 --> 00:04:19,761 Müstehcen, provokatif olan da bizi kendine çeker. 77 00:04:20,365 --> 00:04:23,412 Olumsuz ve yeni bilgilere inanıp 78 00:04:23,436 --> 00:04:25,459 bunları paylaşma eğilimi gösteririz. 79 00:04:25,809 --> 00:04:30,828 Araştırmacılar, internet uydurmalarının gerçek hikayelere göre 80 00:04:30,852 --> 00:04:32,859 10 kat daha hızlı yayıldığını saptadılar. 81 00:04:34,015 --> 00:04:38,395 Bakış açımıza paralel bilgiler de 82 00:04:38,419 --> 00:04:40,311 bizi kendine çeker. 83 00:04:40,950 --> 00:04:44,511 Psikologlar bu eğilime "doğrulama yanlılığı" adını veriyor. 84 00:04:45,300 --> 00:04:49,687 Sosyal medya platformları da bakış açımıza uyan bilgileri 85 00:04:49,711 --> 00:04:53,592 geniş alanda ve hemen paylaşmamızı sağlayarak 86 00:04:53,616 --> 00:04:55,408 bu eğilime güç veriyor. 87 00:04:56,735 --> 00:05:02,303 Deepfake videolarının bireylere ve topluma ciddi hasar verme potansiyeli var. 88 00:05:03,204 --> 00:05:05,228 Amerikan askerlerinin Afganistan'da 89 00:05:05,252 --> 00:05:09,434 Kuran yaktığını gösteren bir deepfake videosu hayal edin. 90 00:05:10,807 --> 00:05:13,831 Bu videonun o askerlere karşı şiddeti kışkırtacağını da 91 00:05:13,855 --> 00:05:15,388 hayal edebilirsiniz. 92 00:05:15,847 --> 00:05:18,720 Peki sonraki gün, Londra'dan ünlü bir imamın, 93 00:05:18,744 --> 00:05:20,998 askerlere yapılan bu saldırıyı övdüğünü gösteren 94 00:05:21,022 --> 00:05:24,339 başka bir deepfake videosu da 95 00:05:24,363 --> 00:05:26,830 internete düşerse? 96 00:05:27,617 --> 00:05:30,780 Yalnızca Afganistan ve İngiltere'de değil, 97 00:05:30,804 --> 00:05:34,053 tüm dünyada şiddet ve kargaşaya 98 00:05:34,077 --> 00:05:35,592 şahit olabiliriz. 99 00:05:36,251 --> 00:05:37,409 Şunu diyebilirsiniz, 100 00:05:37,433 --> 00:05:39,680 "Hadi be Danielle, o kadar uzun boylu değil." 101 00:05:39,704 --> 00:05:40,854 Ama öyle. 102 00:05:41,293 --> 00:05:44,068 WhatsApp'tan ve diğer çevrim içi mesaj hizmetlerinden 103 00:05:44,068 --> 00:05:46,230 yayılan yalanların 104 00:05:46,254 --> 00:05:49,015 etnik azınlıklara karşı şiddete yol açtığına şahit olduk. 105 00:05:49,039 --> 00:05:50,926 Bunlar sadece metindi -- 106 00:05:50,950 --> 00:05:52,974 bir de video olduğunu düşünün. 107 00:05:54,593 --> 00:05:59,950 Deepfake videoları demokratik kurumlara duyduğumuz güveni 108 00:05:59,974 --> 00:06:01,966 çürütme potansiyeline sahip. 109 00:06:03,006 --> 00:06:05,673 Seçimden bir önceki geceyi düşünün. 110 00:06:05,996 --> 00:06:09,234 Önemli parti adaylarından birini ciddi hasta olarak gösteren 111 00:06:09,258 --> 00:06:10,408 deepfake videosu olsa 112 00:06:11,202 --> 00:06:13,535 bu video seçimin sonucu tüyosunu verip 113 00:06:13,559 --> 00:06:16,934 seçimlerin meşru olduğu inancımızı sarsabilir. 114 00:06:18,515 --> 00:06:21,841 Büyük bir küresel bankanın ilk halka arzından önceki gece 115 00:06:21,865 --> 00:06:24,198 bankanın CEO'sunun 116 00:06:24,222 --> 00:06:27,371 sarhoş halde komplo teorileri anlattığını gösteren 117 00:06:27,395 --> 00:06:30,092 bir deepfake videosu olduğunu hayal edin. 118 00:06:30,887 --> 00:06:33,934 Bu video halka arzı dibe vurdurabilir. 119 00:06:33,958 --> 00:06:38,073 Daha da kötüsü, finansal pazarların stabil olduğu inancımızı sarsabilir. 120 00:06:39,385 --> 00:06:46,374 Deepfake videoları; politikacı, iş liderleri ve diğer etkili liderlere 121 00:06:46,398 --> 00:06:50,612 duyduğumuz derin güvensizliği suistimal edip büyütebilir. 122 00:06:50,945 --> 00:06:54,229 Bu videolar, kendilerine inanmaya hazır bir izleyici kitlesi buluyor. 123 00:06:55,287 --> 00:06:58,052 Gerçeğin takip edilmesi de tehlikeye giriyor. 124 00:06:59,077 --> 00:07:02,641 Teknologlar, yapay zekadaki gelişmelerle 125 00:07:02,665 --> 00:07:06,347 yakın zamanda gerçek bir video ile sahtesini birbirinden ayırmanın 126 00:07:06,371 --> 00:07:10,140 imkansız değilse de zor hale gelmesini bekliyorlar. 127 00:07:11,022 --> 00:07:16,363 Deepfake videolarının yönettiği düşünce pazarında gerçek nasıl bulunur? 128 00:07:16,752 --> 00:07:18,912 Gerçeğe lanet olsun deyip 129 00:07:18,912 --> 00:07:21,423 sadece en kolay yoldan devam edecek 130 00:07:21,423 --> 00:07:23,807 ve inanmak istediğimiz şeylere mi inanacağız? 131 00:07:24,831 --> 00:07:28,006 Olay sadece sahteliğe inanmak değil, 132 00:07:28,030 --> 00:07:31,356 gerçeğe inanmamaya da başlayabiliriz. 133 00:07:31,887 --> 00:07:35,966 Kendi yanlışlarının gerçek kanıtlarına gölge düşürmek için 134 00:07:35,990 --> 00:07:39,910 deepfake videoları olgusuna başvuran insanları zaten gördük. 135 00:07:39,934 --> 00:07:45,903 Rahatsız edici yorumlarının ses kayıtları hakkında şunu diyen politikacıları duyduk, 136 00:07:45,927 --> 00:07:47,673 "Hadi be, yalan haber bunlar. 137 00:07:47,697 --> 00:07:51,617 Gözleriniz ve kulaklarınızın anlattığına inanamazsınız." 138 00:07:52,402 --> 00:07:54,133 Profesör Robert Chesney ve benim 139 00:07:54,157 --> 00:07:59,593 "yalancının hissesi" dediğimiz de işte bu risk: 140 00:07:59,617 --> 00:08:02,974 kendi yanlışlarının sorumluluğundan kaçmak için 141 00:08:02,998 --> 00:08:05,903 deepfake videolarına başvuracak yalancıların oluşturduğu risk. 142 00:08:06,963 --> 00:08:10,034 Şüphesiz, işimiz zor. 143 00:08:10,606 --> 00:08:13,931 Teknoloji şirketleri, kanun koyucular, 144 00:08:13,955 --> 00:08:17,466 kanun uygulayıcılar ve medyadan gelecek 145 00:08:17,490 --> 00:08:19,474 proaktif bir çözüme ihtiyacımız olacak. 146 00:08:20,093 --> 00:08:24,109 Dozunda toplumsal esnekliğe ihtiyacımız olacak. 147 00:08:25,506 --> 00:08:29,402 Şu anda, teknoloji şirketinin sorumluluğuyla ilgili 148 00:08:29,426 --> 00:08:32,339 kamusal bir diyaloğa dahiliz. 149 00:08:32,926 --> 00:08:35,958 Benim sosyal medya platformlarına tavsiyem 150 00:08:35,982 --> 00:08:38,185 hizmet şartları ve topluluk kurallarını, 151 00:08:38,185 --> 00:08:42,215 zarara sebep olan deepfake videolarını yasaklayacak şekilde değiştirmeleridir. 152 00:08:42,712 --> 00:08:46,672 Bu kararlılık insani yargı gerektirecektir 153 00:08:46,696 --> 00:08:48,267 ve pahalıdır. 154 00:08:48,673 --> 00:08:51,302 Ama bir deepfake videosunun içerik ve bağlamına bakıp, 155 00:08:51,302 --> 00:08:54,855 zararlı bir canlandırma mı, 156 00:08:54,879 --> 00:08:58,561 yoksa değerli hiciv, sanat veya eğitim mi olduğuna 157 00:08:58,585 --> 00:09:02,967 karar verecek insanlara ihtiyacımız var. 158 00:09:04,118 --> 00:09:05,613 Peki ya hukuk? 159 00:09:06,666 --> 00:09:09,015 Hukuk bizim öğretmenimiz. 160 00:09:09,515 --> 00:09:13,553 Hukuk bize neyin zararlı ve neyin yanlış olduğunu öğretir. 161 00:09:13,577 --> 00:09:18,132 Failleri cezalandırıp kurbanlar için çözüm sağlayarak 162 00:09:18,156 --> 00:09:20,423 caydırdığı davranışı şekillendirir. 163 00:09:21,148 --> 00:09:25,428 Şu anda hukuk, deepfake videoları görevine hazır değil. 164 00:09:26,116 --> 00:09:27,506 Dünya çapında, 165 00:09:27,530 --> 00:09:29,974 cinsel gizliliği ihlal eden, 166 00:09:29,998 --> 00:09:31,828 itibar zedeleyen 167 00:09:31,828 --> 00:09:33,793 ve manevi zarara sebep olan 168 00:09:33,793 --> 00:09:36,674 dijital kişisel canlandırmaları ele almak için tasarlanmış 169 00:09:36,674 --> 00:09:39,529 duruma tam uygun kanunların eksikliği içerisindeyiz. 170 00:09:39,725 --> 00:09:43,598 Rana Ayyub'a olanlar gitgide yaygınlaşıyor. 171 00:09:44,074 --> 00:09:46,288 Ayyub, Delhi'de kanunlara başvurduğunda 172 00:09:46,312 --> 00:09:48,447 ona yapacak hiçbir şeyin olmadığı söylendi. 173 00:09:49,101 --> 00:09:52,284 Acı gerçekse ABD ve Avrupa'da da 174 00:09:52,308 --> 00:09:54,574 durumun aynı olması. 175 00:09:55,300 --> 00:09:59,656 Doldurulması gereken yasal bir boşluğumuz var. 176 00:10:00,292 --> 00:10:04,384 Meslektaşım Dr. Mary Anne Franks ve ben, 177 00:10:04,408 --> 00:10:09,212 kimlik hırsızlığına eşdeğer olan zararlı dijital kişisel canlandırmaları 178 00:10:09,236 --> 00:10:11,769 yasaklayacak bir mevzuat tasarlamaya çalışıyoruz. 179 00:10:12,252 --> 00:10:14,378 Benzer girişimleri İzlanda, İngiltere 180 00:10:14,402 --> 00:10:17,703 ve Avustralya'da gördük. 181 00:10:18,157 --> 00:10:21,416 Bu mevzuat, yapbozunun küçük bir parçası. 182 00:10:22,911 --> 00:10:26,080 Hukukun her şeye çözüm olmadığını biliyorum. Öyle değil mi? 183 00:10:26,104 --> 00:10:27,704 Hukuk kabaca bir araç 184 00:10:28,346 --> 00:10:29,885 ve bunu akıllıca kullanmalıyız. 185 00:10:30,411 --> 00:10:33,223 Hukuk, bazı pratik engellere de sahip. 186 00:10:33,657 --> 00:10:38,701 Tespit edip bulamadığınız insanlara karşı hukuku kullanamazsınız. 187 00:10:39,463 --> 00:10:42,749 Bir fail, kurbanın yaşadığı ülkeden 188 00:10:42,773 --> 00:10:44,527 başka bir ülkede yaşıyorsa 189 00:10:44,551 --> 00:10:46,180 failin, adaletle yüzleşmek üzere 190 00:10:46,204 --> 00:10:48,553 yerel mahkemelere gelmesini 191 00:10:48,577 --> 00:10:49,727 sağlayamamanız olası. 192 00:10:50,236 --> 00:10:54,299 Koordineli uluslararası bir tepkiye ihtiyacımız olacak. 193 00:10:55,819 --> 00:10:59,152 Eğitim de bu tepkinin bir parçası olmalı. 194 00:10:59,803 --> 00:11:02,614 Kanun uygulayıcılar, 195 00:11:02,614 --> 00:11:05,040 bilgi sahibi olmadıkları kanunları uygulamayacak 196 00:11:05,040 --> 00:11:07,636 ve anlamadıkları sorunları çözmeyecekler. 197 00:11:08,376 --> 00:11:10,567 Siber takiple taciz hakkındaki araştırmamda 198 00:11:10,591 --> 00:11:13,010 kanun uygulayıcılarının, 199 00:11:13,010 --> 00:11:16,696 ulaşabildikleri kanunların ve internet tacizi sorununu anlamak için 200 00:11:16,720 --> 00:11:19,069 eğitimlerinin eksik olduğunu keşfettim. 201 00:11:19,093 --> 00:11:21,775 Bu yüzden kurbanlara sık sık şunu dediler: 202 00:11:21,799 --> 00:11:25,770 "Bilgisayarı kapat. Görmezden gel. Geçer gider." 203 00:11:26,261 --> 00:11:28,727 Bunu Rana Ayyub vakasında da gördük. 204 00:11:29,102 --> 00:11:31,130 Ona söylenen şuydu: 205 00:11:31,130 --> 00:11:34,337 "Hadi ama, olayı ne büyüttün. Erkekler erkeklik yapıyor işte." 206 00:11:35,268 --> 00:11:40,520 Bu yüzden yeni mevzuatı eğitim çabalarıyla eşleştirmeliyiz. 207 00:11:42,053 --> 00:11:45,482 Eğitim medyaya da yönelik olmak zorunda. 208 00:11:46,180 --> 00:11:50,440 Gazeteciler, deepfake videolarını büyütüp yaymamak konusunda 209 00:11:50,464 --> 00:11:53,503 eğitim almalı. 210 00:11:54,583 --> 00:11:56,751 İşte bu kısma hepimiz dahiliz. 211 00:11:56,775 --> 00:12:00,630 Her birimizin eğitime ihtiyacı var. 212 00:12:01,375 --> 00:12:05,050 Tıklıyor, paylaşıyor, beğeniyoruz, hakkında düşünmüyoruz bile. 213 00:12:05,551 --> 00:12:07,098 Bundan daha iyisini yapmalıyız. 214 00:12:07,726 --> 00:12:10,535 Sahteliğe karşı çok daha iyi bir radarımız olmalı. 215 00:12:13,744 --> 00:12:17,585 Bu çözümler için çalışırken, 216 00:12:17,609 --> 00:12:20,172 çekilecek çok çile olacak. 217 00:12:21,093 --> 00:12:23,839 Rana Ayyub bunun etkileriyle hâlâ mücadele ediyor. 218 00:12:24,669 --> 00:12:28,858 Kendisini internette ve dışarıda ifade etmekte hâlâ özgür hissetmiyor. 219 00:12:29,566 --> 00:12:30,931 Bana söylediğine göre, 220 00:12:30,955 --> 00:12:36,029 akıl yoluyla, videodakinin kendi bedeni olmadığını bilse de 221 00:12:36,053 --> 00:12:39,714 çıplak bedeni üzerinde binlerce gözün gezindiğini hâlâ hissediyor. 222 00:12:40,371 --> 00:12:43,534 Özellikle tanımadığı birisi fotoğrafını çekmeye çalıştığında, 223 00:12:43,534 --> 00:12:46,844 sık sık panik atak geçiriyor. 224 00:12:46,868 --> 00:12:50,379 Kendi kendine "Ya başka bir deepfake videosu yaparlarsa," diye düşünüyor. 225 00:12:51,082 --> 00:12:55,003 Rana Ayyub gibi bireylerin uğruna, 226 00:12:55,027 --> 00:12:57,333 demokrasimizin uğruna, 227 00:12:57,357 --> 00:12:59,539 tam şu anda bir şeyler yapmamız gerekiyor. 228 00:12:59,563 --> 00:13:00,714 Teşekkür ederim. 229 00:13:00,738 --> 00:13:03,246 (Alkışlar)