0:00:00.535,0:00:03.302 [Bu konuşma yetişkinlere [br]yönelik içerikler barındırır.] 0:00:05.762,0:00:08.754 Rana Ayyub, çalışmaları hükûmet yozlaşması 0:00:08.778,0:00:11.380 ve insan hakları[br]ihlallerini açığa çıkarmış 0:00:12.411,0:00:14.568 Hint bir gazeteci. 0:00:14.990,0:00:16.157 Yıllar içerisinde 0:00:16.181,0:00:19.484 çalışmalarıyla ilgili eleştiri [br]ve tartışmalara alışmıştı. 0:00:20.149,0:00:25.258 Ama hiçbir şey onu, Nisan 2018'de [br]karşılaştığı şeye hazırlayamazdı. 0:00:26.125,0:00:29.776 İlk gördüğünde arkadaşıyla [br]bir kafede oturuyordu: 0:00:29.800,0:00:34.743 Kendisinin, iki dakika yirmi saniye[br]uzunluğundaki seks videosu. 0:00:35.188,0:00:37.537 Gözlerine inanamadı. 0:00:37.561,0:00:39.834 Hiçbir zaman seks videosu çekmemişti. 0:00:40.506,0:00:43.971 Fakat maalesef binlerce insan 0:00:43.995,0:00:45.661 videodakinin o olduğuna inanacaktı. 0:00:46.673,0:00:49.617 Cinsel gizlilikle ilgili[br]kitabım bağlamında 0:00:49.641,0:00:52.145 Bayan Ayyub ile üç ay önce görüştüm. 0:00:52.681,0:00:55.879 Bir hukuk profesörü, avukat[br]ve sivil haklar savunucusuyum. 0:00:56.204,0:01:00.815 Şu anda, hukukun ona çok az[br]yardımının dokunabileceğini bilmek 0:01:00.839,0:01:03.077 o kadar sinir bozucu ki. 0:01:03.458,0:01:05.005 Konuştukça 0:01:05.029,0:01:09.541 sahte seks videosunun muhtemel olduğunu[br]önceden görmesi gerektiğini söyledi. 0:01:10.038,0:01:15.264 Dedi ki: "Ne de olsa seks, kadınları,[br]özellikle azınlık kadınlarını, 0:01:15.264,0:01:18.790 bilhassa güçlü erkeklere meydan [br]okumayı göze alan azınlık kadınlarını 0:01:18.790,0:01:22.422 küçük düşürmek ve utandırmak [br]için çok sık kullanılıyor." 0:01:22.446,0:01:23.979 Çalışmalarında yaptığı da buydu. 0:01:25.191,0:01:29.167 Sahte seks videosu 48 saatte viral oldu. 0:01:30.064,0:01:35.371 Tüm çevrim içi hesapları videodan[br]ekran görüntüleriyle doldu. 0:01:35.395,0:01:38.022 Sahip olduğu İslam [br]inancıyla ilgili iftiralara, 0:01:38.046,0:01:40.579 açık tecavüz ve ölüm[br]tehditlerine maruz kaldı. 0:01:41.426,0:01:45.990 Çevrim içi gönderiler, onun seks için[br]"müsait" olduğunu söylüyordu. 0:01:46.014,0:01:47.624 İfşa edildi, 0:01:47.648,0:01:50.426 yani ev adresi ve cep telefonu numarası 0:01:50.450,0:01:52.196 internette yayıldı. 0:01:52.879,0:01:56.963 Video 40 bin defadan fazla paylaşıldı. 0:01:57.760,0:02:01.696 Artık, birisi bu tür bir siber-çete[br]saldırısıyla hedef alındığında 0:02:01.720,0:02:03.783 verilen zarar çok derin. 0:02:04.482,0:02:07.521 Rana Ayyub'un hayatı altüst oldu. 0:02:08.211,0:02:11.545 Haftalarca ne yemek [br]yiyebildi, ne konuşabildi. 0:02:11.919,0:02:15.608 Yazmayı bıraktı ve tüm [br]sosyal medya hesaplarını kapattı. 0:02:15.632,0:02:18.790 Bir gazeteci için yapması çok zor bir şey. 0:02:19.188,0:02:22.672 Ailesinin evinden çıkmaya korkuyordu. 0:02:22.696,0:02:25.718 Ya internettekiler tehditlerinde ciddiyse? 0:02:26.395,0:02:30.760 BM İnsan Hakları Konseyi, [br]Ayyub'un deli olmadığını doğruladı. 0:02:30.784,0:02:35.421 Güvenliğinden endişe duyduklarını söyleyen[br]bir basın açıklaması yayımladılar. 0:02:36.776,0:02:41.005 Rana Ayyub'un yüzleştiği şey [br]bir deepfake videosuydu: 0:02:41.029,0:02:43.569 İnsanları, hiç yapmadıkları 0:02:43.593,0:02:47.704 veya söylemedikleri şeyleri [br]yapıp söylerken göstermek için 0:02:47.728,0:02:50.451 ses ve video kayıtlarını manipüle eden 0:02:50.475,0:02:52.807 veya üreten makine öğrenmesi teknolojisi. 0:02:52.807,0:02:56.168 Deepfake videoları orijinal [br]ve gerçekçi görünüyor ama değil; 0:02:56.192,0:02:57.964 tamamen yalan. 0:02:59.228,0:03:03.022 Bu teknoloji kapsamlılığı anlamında[br]halen gelişmekte olsa da 0:03:03.046,0:03:04.660 geniş çapta ulaşılabilir durumda. 0:03:05.371,0:03:08.443 Şimdiyse, deepfake videolarına[br]yönelen en son ilginin sebebi 0:03:08.467,0:03:10.628 internetteki bir çok şeyde de olduğu gibi 0:03:10.652,0:03:11.907 pornografi oldu. 0:03:12.498,0:03:14.609 2018'in başlarında birisi, 0:03:14.633,0:03:17.101 kullanıcıların pornolara yüz eklemesine 0:03:17.125,0:03:21.537 imkan veren bir aracı Reddit'te paylaştı. 0:03:21.561,0:03:25.001 Bunu, insanların en sevdiği[br]kadın ünlüleri içeren 0:03:25.025,0:03:27.822 sahte bir porno yağmuru takip etti. 0:03:28.712,0:03:32.189 Bugün, YouTube'a girip[br]masaüstü uygulamanızda 0:03:32.213,0:03:34.499 nasıl deepfake videosu yapılacağına dair 0:03:34.523,0:03:37.686 adım adım talimatlarla[br]sayısız öğretici video izleyebilirsiniz. 0:03:38.260,0:03:41.966 Yakında bu videoları cep [br]telefonlarımızdan bile yapabiliriz. 0:03:43.072,0:03:48.454 Deepfake videolarını silaha çeviren şey 0:03:48.478,0:03:50.160 bazı en temel insani zaaflarımız 0:03:50.184,0:03:52.850 ve ağ araçları arasındaki etkileşim. 0:03:52.874,0:03:54.074 Açıklayayım. 0:03:54.875,0:03:59.441 İnsanlar olarak ses ve videoya[br]içsel bir tepki gösteririz. 0:03:59.860,0:04:01.348 Tabii ki gözlerimizin 0:04:01.348,0:04:04.194 ve kulaklarımızın söylediğine [br]inanabileceğimiz zannıyla 0:04:04.194,0:04:05.952 bunların gerçek olduğuna inanırız. 0:04:06.476,0:04:08.175 Bizim ortak gerçeklik duygumuzun 0:04:08.199,0:04:11.897 altını kazan da bu mekanizmadır. 0:04:11.921,0:04:15.068 Deepfake videolarının gerçek olduğuna[br]inansak da öyle değiller. 0:04:15.604,0:04:19.761 Müstehcen, provokatif olan da [br]bizi kendine çeker. 0:04:20.365,0:04:23.412 Olumsuz ve yeni bilgilere inanıp 0:04:23.436,0:04:25.459 bunları paylaşma eğilimi gösteririz. 0:04:25.809,0:04:30.828 Araştırmacılar, internet [br]uydurmalarının gerçek hikayelere göre 0:04:30.852,0:04:32.859 10 kat daha hızlı yayıldığını saptadılar. 0:04:34.015,0:04:38.395 Bakış açımıza paralel bilgiler de 0:04:38.419,0:04:40.311 bizi kendine çeker. 0:04:40.950,0:04:44.511 Psikologlar bu eğilime[br]"doğrulama yanlılığı" adını veriyor. 0:04:45.300,0:04:49.687 Sosyal medya platformları da[br]bakış açımıza uyan bilgileri 0:04:49.711,0:04:53.592 geniş alanda ve hemen[br]paylaşmamızı sağlayarak 0:04:53.616,0:04:55.408 bu eğilime güç veriyor. 0:04:56.735,0:05:02.303 Deepfake videolarının bireylere ve [br]topluma ciddi hasar verme potansiyeli var. 0:05:03.204,0:05:05.228 Amerikan askerlerinin Afganistan'da 0:05:05.252,0:05:09.434 Kuran yaktığını gösteren [br]bir deepfake videosu hayal edin. 0:05:10.807,0:05:13.831 Bu videonun o askerlere karşı [br]şiddeti kışkırtacağını da 0:05:13.855,0:05:15.388 hayal edebilirsiniz. 0:05:15.847,0:05:18.720 Peki sonraki gün, [br]Londra'dan ünlü bir imamın, 0:05:18.744,0:05:20.998 askerlere yapılan bu[br]saldırıyı övdüğünü gösteren 0:05:21.022,0:05:24.339 başka bir deepfake videosu da 0:05:24.363,0:05:26.830 internete düşerse? 0:05:27.617,0:05:30.780 Yalnızca Afganistan ve İngiltere'de değil, 0:05:30.804,0:05:34.053 tüm dünyada şiddet ve kargaşaya 0:05:34.077,0:05:35.592 şahit olabiliriz. 0:05:36.251,0:05:37.409 Şunu diyebilirsiniz, 0:05:37.433,0:05:39.680 "Hadi be Danielle, [br]o kadar uzun boylu değil." 0:05:39.704,0:05:40.854 Ama öyle. 0:05:41.293,0:05:44.068 WhatsApp'tan ve diğer [br]çevrim içi mesaj hizmetlerinden 0:05:44.068,0:05:46.230 yayılan yalanların 0:05:46.254,0:05:49.015 etnik azınlıklara karşı[br]şiddete yol açtığına şahit olduk. 0:05:49.039,0:05:50.926 Bunlar sadece metindi -- 0:05:50.950,0:05:52.974 bir de video olduğunu düşünün. 0:05:54.593,0:05:59.950 Deepfake videoları demokratik [br]kurumlara duyduğumuz güveni 0:05:59.974,0:06:01.966 çürütme potansiyeline sahip. 0:06:03.006,0:06:05.673 Seçimden bir önceki geceyi düşünün. 0:06:05.996,0:06:09.234 Önemli parti adaylarından birini[br]ciddi hasta olarak gösteren 0:06:09.258,0:06:10.408 deepfake videosu olsa 0:06:11.202,0:06:13.535 bu video seçimin sonucu tüyosunu verip 0:06:13.559,0:06:16.934 seçimlerin meşru olduğu [br]inancımızı sarsabilir. 0:06:18.515,0:06:21.841 Büyük bir küresel bankanın[br]ilk halka arzından önceki gece 0:06:21.865,0:06:24.198 bankanın CEO'sunun 0:06:24.222,0:06:27.371 sarhoş halde komplo [br]teorileri anlattığını gösteren 0:06:27.395,0:06:30.092 bir deepfake videosu olduğunu hayal edin. 0:06:30.887,0:06:33.934 Bu video halka arzı dibe vurdurabilir. 0:06:33.958,0:06:38.073 Daha da kötüsü, finansal pazarların[br]stabil olduğu inancımızı sarsabilir. 0:06:39.385,0:06:46.374 Deepfake videoları; politikacı, [br]iş liderleri ve diğer etkili liderlere 0:06:46.398,0:06:50.612 duyduğumuz derin güvensizliği [br]suistimal edip büyütebilir. 0:06:50.945,0:06:54.229 Bu videolar, kendilerine inanmaya [br]hazır bir izleyici kitlesi buluyor. 0:06:55.287,0:06:58.052 Gerçeğin takip edilmesi de [br]tehlikeye giriyor. 0:06:59.077,0:07:02.641 Teknologlar, yapay zekadaki gelişmelerle 0:07:02.665,0:07:06.347 yakın zamanda gerçek bir video ile [br]sahtesini birbirinden ayırmanın 0:07:06.371,0:07:10.140 imkansız değilse de[br]zor hale gelmesini bekliyorlar. 0:07:11.022,0:07:16.363 Deepfake videolarının yönettiği[br]düşünce pazarında gerçek nasıl bulunur? 0:07:16.752,0:07:18.912 Gerçeğe lanet olsun deyip 0:07:18.912,0:07:21.423 sadece en kolay yoldan devam edecek 0:07:21.423,0:07:23.807 ve inanmak istediğimiz [br]şeylere mi inanacağız? 0:07:24.831,0:07:28.006 Olay sadece sahteliğe inanmak değil, 0:07:28.030,0:07:31.356 gerçeğe inanmamaya da başlayabiliriz. 0:07:31.887,0:07:35.966 Kendi yanlışlarının gerçek [br]kanıtlarına gölge düşürmek için 0:07:35.990,0:07:39.910 deepfake videoları olgusuna[br]başvuran insanları zaten gördük. 0:07:39.934,0:07:45.903 Rahatsız edici yorumlarının ses kayıtları[br]hakkında şunu diyen politikacıları duyduk, 0:07:45.927,0:07:47.673 "Hadi be, yalan haber bunlar. 0:07:47.697,0:07:51.617 Gözleriniz ve kulaklarınızın [br]anlattığına inanamazsınız." 0:07:52.402,0:07:54.133 Profesör Robert Chesney ve benim 0:07:54.157,0:07:59.593 "yalancının hissesi" [br]dediğimiz de işte bu risk: 0:07:59.617,0:08:02.974 kendi yanlışlarının [br]sorumluluğundan kaçmak için 0:08:02.998,0:08:05.903 deepfake videolarına başvuracak[br]yalancıların oluşturduğu risk. 0:08:06.963,0:08:10.034 Şüphesiz, işimiz zor. 0:08:10.606,0:08:13.931 Teknoloji şirketleri, kanun koyucular, 0:08:13.955,0:08:17.466 kanun uygulayıcılar ve medyadan gelecek 0:08:17.490,0:08:19.474 proaktif bir çözüme ihtiyacımız olacak. 0:08:20.093,0:08:24.109 Dozunda toplumsal [br]esnekliğe ihtiyacımız olacak. 0:08:25.506,0:08:29.402 Şu anda, teknoloji şirketinin[br]sorumluluğuyla ilgili 0:08:29.426,0:08:32.339 kamusal bir diyaloğa dahiliz. 0:08:32.926,0:08:35.958 Benim sosyal medya platformlarına tavsiyem 0:08:35.982,0:08:38.185 hizmet şartları ve topluluk kurallarını, 0:08:38.185,0:08:42.215 zarara sebep olan deepfake videolarını [br]yasaklayacak şekilde değiştirmeleridir. 0:08:42.712,0:08:46.672 Bu kararlılık insani yargı gerektirecektir 0:08:46.696,0:08:48.267 ve pahalıdır. 0:08:48.673,0:08:51.302 Ama bir deepfake videosunun [br]içerik ve bağlamına bakıp, 0:08:51.302,0:08:54.855 zararlı bir canlandırma mı, 0:08:54.879,0:08:58.561 yoksa değerli hiciv, sanat [br]veya eğitim mi olduğuna 0:08:58.585,0:09:02.967 karar verecek insanlara ihtiyacımız var. 0:09:04.118,0:09:05.613 Peki ya hukuk? 0:09:06.666,0:09:09.015 Hukuk bizim öğretmenimiz. 0:09:09.515,0:09:13.553 Hukuk bize neyin zararlı [br]ve neyin yanlış olduğunu öğretir. 0:09:13.577,0:09:18.132 Failleri cezalandırıp[br]kurbanlar için çözüm sağlayarak 0:09:18.156,0:09:20.423 caydırdığı davranışı şekillendirir. 0:09:21.148,0:09:25.428 Şu anda hukuk, deepfake [br]videoları görevine hazır değil. 0:09:26.116,0:09:27.506 Dünya çapında, 0:09:27.530,0:09:29.974 cinsel gizliliği ihlal eden, 0:09:29.998,0:09:31.828 itibar zedeleyen 0:09:31.828,0:09:33.793 ve manevi zarara sebep olan 0:09:33.793,0:09:36.674 dijital kişisel canlandırmaları[br]ele almak için tasarlanmış 0:09:36.674,0:09:39.529 duruma tam uygun kanunların [br]eksikliği içerisindeyiz. 0:09:39.725,0:09:43.598 Rana Ayyub'a olanlar[br]gitgide yaygınlaşıyor. 0:09:44.074,0:09:46.288 Ayyub, Delhi'de kanunlara başvurduğunda 0:09:46.312,0:09:48.447 ona yapacak hiçbir şeyin[br]olmadığı söylendi. 0:09:49.101,0:09:52.284 Acı gerçekse ABD ve Avrupa'da da 0:09:52.308,0:09:54.574 durumun aynı olması. 0:09:55.300,0:09:59.656 Doldurulması gereken[br]yasal bir boşluğumuz var. 0:10:00.292,0:10:04.384 Meslektaşım Dr. Mary Anne Franks ve ben, 0:10:04.408,0:10:09.212 kimlik hırsızlığına eşdeğer olan [br]zararlı dijital kişisel canlandırmaları 0:10:09.236,0:10:11.769 yasaklayacak bir mevzuat[br]tasarlamaya çalışıyoruz. 0:10:12.252,0:10:14.378 Benzer girişimleri İzlanda, İngiltere 0:10:14.402,0:10:17.703 ve Avustralya'da gördük. 0:10:18.157,0:10:21.416 Bu mevzuat, yapbozunun küçük bir parçası. 0:10:22.911,0:10:26.080 Hukukun her şeye çözüm [br]olmadığını biliyorum. Öyle değil mi? 0:10:26.104,0:10:27.704 Hukuk kabaca bir araç 0:10:28.346,0:10:29.885 ve bunu akıllıca kullanmalıyız. 0:10:30.411,0:10:33.223 Hukuk, bazı pratik engellere de sahip. 0:10:33.657,0:10:38.701 Tespit edip bulamadığınız insanlara [br]karşı hukuku kullanamazsınız. 0:10:39.463,0:10:42.749 Bir fail, kurbanın yaşadığı ülkeden 0:10:42.773,0:10:44.527 başka bir ülkede yaşıyorsa 0:10:44.551,0:10:46.180 failin, adaletle yüzleşmek üzere 0:10:46.204,0:10:48.553 yerel mahkemelere gelmesini 0:10:48.577,0:10:49.727 sağlayamamanız olası. 0:10:50.236,0:10:54.299 Koordineli uluslararası [br]bir tepkiye ihtiyacımız olacak. 0:10:55.819,0:10:59.152 Eğitim de bu tepkinin bir parçası olmalı. 0:10:59.803,0:11:02.614 Kanun uygulayıcılar, 0:11:02.614,0:11:05.040 bilgi sahibi olmadıkları [br]kanunları uygulamayacak 0:11:05.040,0:11:07.636 ve anlamadıkları sorunları çözmeyecekler. 0:11:08.376,0:11:10.567 Siber takiple taciz[br]hakkındaki araştırmamda 0:11:10.591,0:11:13.010 kanun uygulayıcılarının, 0:11:13.010,0:11:16.696 ulaşabildikleri kanunların ve internet [br]tacizi sorununu anlamak için 0:11:16.720,0:11:19.069 eğitimlerinin eksik olduğunu keşfettim. 0:11:19.093,0:11:21.775 Bu yüzden kurbanlara sık sık şunu dediler: 0:11:21.799,0:11:25.770 "Bilgisayarı kapat.[br]Görmezden gel. Geçer gider." 0:11:26.261,0:11:28.727 Bunu Rana Ayyub vakasında da gördük. 0:11:29.102,0:11:31.130 Ona söylenen şuydu: 0:11:31.130,0:11:34.337 "Hadi ama, olayı ne büyüttün. [br]Erkekler erkeklik yapıyor işte." 0:11:35.268,0:11:40.520 Bu yüzden yeni mevzuatı[br]eğitim çabalarıyla eşleştirmeliyiz. 0:11:42.053,0:11:45.482 Eğitim medyaya da yönelik olmak zorunda. 0:11:46.180,0:11:50.440 Gazeteciler, deepfake videolarını [br]büyütüp yaymamak konusunda 0:11:50.464,0:11:53.503 eğitim almalı. 0:11:54.583,0:11:56.751 İşte bu kısma hepimiz dahiliz. 0:11:56.775,0:12:00.630 Her birimizin eğitime ihtiyacı var. 0:12:01.375,0:12:05.050 Tıklıyor, paylaşıyor, beğeniyoruz,[br]hakkında düşünmüyoruz bile. 0:12:05.551,0:12:07.098 Bundan daha iyisini yapmalıyız. 0:12:07.726,0:12:10.535 Sahteliğe karşı çok daha iyi [br]bir radarımız olmalı. 0:12:13.744,0:12:17.585 Bu çözümler için çalışırken, 0:12:17.609,0:12:20.172 çekilecek çok çile olacak. 0:12:21.093,0:12:23.839 Rana Ayyub bunun etkileriyle [br]hâlâ mücadele ediyor. 0:12:24.669,0:12:28.858 Kendisini internette ve dışarıda[br]ifade etmekte hâlâ özgür hissetmiyor. 0:12:29.566,0:12:30.931 Bana söylediğine göre, 0:12:30.955,0:12:36.029 akıl yoluyla, videodakinin [br]kendi bedeni olmadığını bilse de 0:12:36.053,0:12:39.714 çıplak bedeni üzerinde binlerce [br]gözün gezindiğini hâlâ hissediyor. 0:12:40.371,0:12:43.534 Özellikle tanımadığı birisi [br]fotoğrafını çekmeye çalıştığında, 0:12:43.534,0:12:46.844 sık sık panik atak geçiriyor. 0:12:46.868,0:12:50.379 Kendi kendine "Ya başka bir deepfake[br]videosu yaparlarsa," diye düşünüyor. 0:12:51.082,0:12:55.003 Rana Ayyub gibi bireylerin uğruna, 0:12:55.027,0:12:57.333 demokrasimizin uğruna, 0:12:57.357,0:12:59.539 tam şu anda bir şeyler yapmamız gerekiyor. 0:12:59.563,0:13:00.714 Teşekkür ederim. 0:13:00.738,0:13:03.246 (Alkışlar)