Return to Video

"Deepfake" videoları gerçeği baltalayıp demokrasiyi nasıl tehdit ediyor

  • 0:01 - 0:03
    [Bu konuşma yetişkinlere
    yönelik içerikler barındırır.]
  • 0:06 - 0:09
    Rana Ayyub, çalışmaları hükûmet yozlaşması
  • 0:09 - 0:11
    ve insan hakları
    ihlallerini açığa çıkarmış
  • 0:12 - 0:15
    Hint bir gazeteci.
  • 0:15 - 0:16
    Yıllar içerisinde
  • 0:16 - 0:19
    çalışmalarıyla ilgili eleştiri
    ve tartışmalara alışmıştı.
  • 0:20 - 0:25
    Ama hiçbir şey onu, Nisan 2018'de
    karşılaştığı şeye hazırlayamazdı.
  • 0:26 - 0:30
    İlk gördüğünde arkadaşıyla
    bir kafede oturuyordu:
  • 0:30 - 0:35
    Kendisinin, iki dakika yirmi saniye
    uzunluğundaki seks videosu.
  • 0:35 - 0:38
    Gözlerine inanamadı.
  • 0:38 - 0:40
    Hiçbir zaman seks videosu çekmemişti.
  • 0:41 - 0:44
    Fakat maalesef binlerce insan
  • 0:44 - 0:46
    videodakinin o olduğuna inanacaktı.
  • 0:47 - 0:50
    Cinsel gizlilikle ilgili
    kitabım bağlamında
  • 0:50 - 0:52
    Bayan Ayyub ile üç ay önce görüştüm.
  • 0:53 - 0:56
    Bir hukuk profesörü, avukat
    ve sivil haklar savunucusuyum.
  • 0:56 - 1:01
    Şu anda, hukukun ona çok az
    yardımının dokunabileceğini bilmek
  • 1:01 - 1:03
    o kadar sinir bozucu ki.
  • 1:03 - 1:05
    Konuştukça
  • 1:05 - 1:10
    sahte seks videosunun muhtemel olduğunu
    önceden görmesi gerektiğini söyledi.
  • 1:10 - 1:15
    Dedi ki: "Ne de olsa seks, kadınları,
    özellikle azınlık kadınlarını,
  • 1:15 - 1:19
    bilhassa güçlü erkeklere meydan
    okumayı göze alan azınlık kadınlarını
  • 1:19 - 1:22
    küçük düşürmek ve utandırmak
    için çok sık kullanılıyor."
  • 1:22 - 1:24
    Çalışmalarında yaptığı da buydu.
  • 1:25 - 1:29
    Sahte seks videosu 48 saatte viral oldu.
  • 1:30 - 1:35
    Tüm çevrim içi hesapları videodan
    ekran görüntüleriyle doldu.
  • 1:35 - 1:38
    Sahip olduğu İslam
    inancıyla ilgili iftiralara,
  • 1:38 - 1:41
    açık tecavüz ve ölüm
    tehditlerine maruz kaldı.
  • 1:41 - 1:46
    Çevrim içi gönderiler, onun seks için
    "müsait" olduğunu söylüyordu.
  • 1:46 - 1:48
    İfşa edildi,
  • 1:48 - 1:50
    yani ev adresi ve cep telefonu numarası
  • 1:50 - 1:52
    internette yayıldı.
  • 1:53 - 1:57
    Video 40 bin defadan fazla paylaşıldı.
  • 1:58 - 2:02
    Artık, birisi bu tür bir siber-çete
    saldırısıyla hedef alındığında
  • 2:02 - 2:04
    verilen zarar çok derin.
  • 2:04 - 2:08
    Rana Ayyub'un hayatı altüst oldu.
  • 2:08 - 2:12
    Haftalarca ne yemek
    yiyebildi, ne konuşabildi.
  • 2:12 - 2:16
    Yazmayı bıraktı ve tüm
    sosyal medya hesaplarını kapattı.
  • 2:16 - 2:19
    Bir gazeteci için yapması çok zor bir şey.
  • 2:19 - 2:23
    Ailesinin evinden çıkmaya korkuyordu.
  • 2:23 - 2:26
    Ya internettekiler tehditlerinde ciddiyse?
  • 2:26 - 2:31
    BM İnsan Hakları Konseyi,
    Ayyub'un deli olmadığını doğruladı.
  • 2:31 - 2:35
    Güvenliğinden endişe duyduklarını söyleyen
    bir basın açıklaması yayımladılar.
  • 2:37 - 2:41
    Rana Ayyub'un yüzleştiği şey
    bir deepfake videosuydu:
  • 2:41 - 2:44
    İnsanları, hiç yapmadıkları
  • 2:44 - 2:48
    veya söylemedikleri şeyleri
    yapıp söylerken göstermek için
  • 2:48 - 2:50
    ses ve video kayıtlarını manipüle eden
  • 2:50 - 2:53
    veya üreten makine öğrenmesi teknolojisi.
  • 2:53 - 2:56
    Deepfake videoları orijinal
    ve gerçekçi görünüyor ama değil;
  • 2:56 - 2:58
    tamamen yalan.
  • 2:59 - 3:03
    Bu teknoloji kapsamlılığı anlamında
    halen gelişmekte olsa da
  • 3:03 - 3:05
    geniş çapta ulaşılabilir durumda.
  • 3:05 - 3:08
    Şimdiyse, deepfake videolarına
    yönelen en son ilginin sebebi
  • 3:08 - 3:11
    internetteki bir çok şeyde de olduğu gibi
  • 3:11 - 3:12
    pornografi oldu.
  • 3:12 - 3:15
    2018'in başlarında birisi,
  • 3:15 - 3:17
    kullanıcıların pornolara yüz eklemesine
  • 3:17 - 3:22
    imkan veren bir aracı Reddit'te paylaştı.
  • 3:22 - 3:25
    Bunu, insanların en sevdiği
    kadın ünlüleri içeren
  • 3:25 - 3:28
    sahte bir porno yağmuru takip etti.
  • 3:29 - 3:32
    Bugün, YouTube'a girip
    masaüstü uygulamanızda
  • 3:32 - 3:34
    nasıl deepfake videosu yapılacağına dair
  • 3:35 - 3:38
    adım adım talimatlarla
    sayısız öğretici video izleyebilirsiniz.
  • 3:38 - 3:42
    Yakında bu videoları cep
    telefonlarımızdan bile yapabiliriz.
  • 3:43 - 3:48
    Deepfake videolarını silaha çeviren şey
  • 3:48 - 3:50
    bazı en temel insani zaaflarımız
  • 3:50 - 3:53
    ve ağ araçları arasındaki etkileşim.
  • 3:53 - 3:54
    Açıklayayım.
  • 3:55 - 3:59
    İnsanlar olarak ses ve videoya
    içsel bir tepki gösteririz.
  • 4:00 - 4:01
    Tabii ki gözlerimizin
  • 4:01 - 4:04
    ve kulaklarımızın söylediğine
    inanabileceğimiz zannıyla
  • 4:04 - 4:06
    bunların gerçek olduğuna inanırız.
  • 4:06 - 4:08
    Bizim ortak gerçeklik duygumuzun
  • 4:08 - 4:12
    altını kazan da bu mekanizmadır.
  • 4:12 - 4:15
    Deepfake videolarının gerçek olduğuna
    inansak da öyle değiller.
  • 4:16 - 4:20
    Müstehcen, provokatif olan da
    bizi kendine çeker.
  • 4:20 - 4:23
    Olumsuz ve yeni bilgilere inanıp
  • 4:23 - 4:25
    bunları paylaşma eğilimi gösteririz.
  • 4:26 - 4:31
    Araştırmacılar, internet
    uydurmalarının gerçek hikayelere göre
  • 4:31 - 4:33
    10 kat daha hızlı yayıldığını saptadılar.
  • 4:34 - 4:38
    Bakış açımıza paralel bilgiler de
  • 4:38 - 4:40
    bizi kendine çeker.
  • 4:41 - 4:45
    Psikologlar bu eğilime
    "doğrulama yanlılığı" adını veriyor.
  • 4:45 - 4:50
    Sosyal medya platformları da
    bakış açımıza uyan bilgileri
  • 4:50 - 4:54
    geniş alanda ve hemen
    paylaşmamızı sağlayarak
  • 4:54 - 4:55
    bu eğilime güç veriyor.
  • 4:57 - 5:02
    Deepfake videolarının bireylere ve
    topluma ciddi hasar verme potansiyeli var.
  • 5:03 - 5:05
    Amerikan askerlerinin Afganistan'da
  • 5:05 - 5:09
    Kuran yaktığını gösteren
    bir deepfake videosu hayal edin.
  • 5:11 - 5:14
    Bu videonun o askerlere karşı
    şiddeti kışkırtacağını da
  • 5:14 - 5:15
    hayal edebilirsiniz.
  • 5:16 - 5:19
    Peki sonraki gün,
    Londra'dan ünlü bir imamın,
  • 5:19 - 5:21
    askerlere yapılan bu
    saldırıyı övdüğünü gösteren
  • 5:21 - 5:24
    başka bir deepfake videosu da
  • 5:24 - 5:27
    internete düşerse?
  • 5:28 - 5:31
    Yalnızca Afganistan ve İngiltere'de değil,
  • 5:31 - 5:34
    tüm dünyada şiddet ve kargaşaya
  • 5:34 - 5:36
    şahit olabiliriz.
  • 5:36 - 5:37
    Şunu diyebilirsiniz,
  • 5:37 - 5:40
    "Hadi be Danielle,
    o kadar uzun boylu değil."
  • 5:40 - 5:41
    Ama öyle.
  • 5:41 - 5:44
    WhatsApp'tan ve diğer
    çevrim içi mesaj hizmetlerinden
  • 5:44 - 5:46
    yayılan yalanların
  • 5:46 - 5:49
    etnik azınlıklara karşı
    şiddete yol açtığına şahit olduk.
  • 5:49 - 5:51
    Bunlar sadece metindi --
  • 5:51 - 5:53
    bir de video olduğunu düşünün.
  • 5:55 - 6:00
    Deepfake videoları demokratik
    kurumlara duyduğumuz güveni
  • 6:00 - 6:02
    çürütme potansiyeline sahip.
  • 6:03 - 6:06
    Seçimden bir önceki geceyi düşünün.
  • 6:06 - 6:09
    Önemli parti adaylarından birini
    ciddi hasta olarak gösteren
  • 6:09 - 6:10
    deepfake videosu olsa
  • 6:11 - 6:14
    bu video seçimin sonucu tüyosunu verip
  • 6:14 - 6:17
    seçimlerin meşru olduğu
    inancımızı sarsabilir.
  • 6:19 - 6:22
    Büyük bir küresel bankanın
    ilk halka arzından önceki gece
  • 6:22 - 6:24
    bankanın CEO'sunun
  • 6:24 - 6:27
    sarhoş halde komplo
    teorileri anlattığını gösteren
  • 6:27 - 6:30
    bir deepfake videosu olduğunu hayal edin.
  • 6:31 - 6:34
    Bu video halka arzı dibe vurdurabilir.
  • 6:34 - 6:38
    Daha da kötüsü, finansal pazarların
    stabil olduğu inancımızı sarsabilir.
  • 6:39 - 6:46
    Deepfake videoları; politikacı,
    iş liderleri ve diğer etkili liderlere
  • 6:46 - 6:51
    duyduğumuz derin güvensizliği
    suistimal edip büyütebilir.
  • 6:51 - 6:54
    Bu videolar, kendilerine inanmaya
    hazır bir izleyici kitlesi buluyor.
  • 6:55 - 6:58
    Gerçeğin takip edilmesi de
    tehlikeye giriyor.
  • 6:59 - 7:03
    Teknologlar, yapay zekadaki gelişmelerle
  • 7:03 - 7:06
    yakın zamanda gerçek bir video ile
    sahtesini birbirinden ayırmanın
  • 7:06 - 7:10
    imkansız değilse de
    zor hale gelmesini bekliyorlar.
  • 7:11 - 7:16
    Deepfake videolarının yönettiği
    düşünce pazarında gerçek nasıl bulunur?
  • 7:17 - 7:19
    Gerçeğe lanet olsun deyip
  • 7:19 - 7:21
    sadece en kolay yoldan devam edecek
  • 7:21 - 7:24
    ve inanmak istediğimiz
    şeylere mi inanacağız?
  • 7:25 - 7:28
    Olay sadece sahteliğe inanmak değil,
  • 7:28 - 7:31
    gerçeğe inanmamaya da başlayabiliriz.
  • 7:32 - 7:36
    Kendi yanlışlarının gerçek
    kanıtlarına gölge düşürmek için
  • 7:36 - 7:40
    deepfake videoları olgusuna
    başvuran insanları zaten gördük.
  • 7:40 - 7:46
    Rahatsız edici yorumlarının ses kayıtları
    hakkında şunu diyen politikacıları duyduk,
  • 7:46 - 7:48
    "Hadi be, yalan haber bunlar.
  • 7:48 - 7:52
    Gözleriniz ve kulaklarınızın
    anlattığına inanamazsınız."
  • 7:52 - 7:54
    Profesör Robert Chesney ve benim
  • 7:54 - 8:00
    "yalancının hissesi"
    dediğimiz de işte bu risk:
  • 8:00 - 8:03
    kendi yanlışlarının
    sorumluluğundan kaçmak için
  • 8:03 - 8:06
    deepfake videolarına başvuracak
    yalancıların oluşturduğu risk.
  • 8:07 - 8:10
    Şüphesiz, işimiz zor.
  • 8:11 - 8:14
    Teknoloji şirketleri, kanun koyucular,
  • 8:14 - 8:17
    kanun uygulayıcılar ve medyadan gelecek
  • 8:17 - 8:19
    proaktif bir çözüme ihtiyacımız olacak.
  • 8:20 - 8:24
    Dozunda toplumsal
    esnekliğe ihtiyacımız olacak.
  • 8:26 - 8:29
    Şu anda, teknoloji şirketinin
    sorumluluğuyla ilgili
  • 8:29 - 8:32
    kamusal bir diyaloğa dahiliz.
  • 8:33 - 8:36
    Benim sosyal medya platformlarına tavsiyem
  • 8:36 - 8:38
    hizmet şartları ve topluluk kurallarını,
  • 8:38 - 8:42
    zarara sebep olan deepfake videolarını
    yasaklayacak şekilde değiştirmeleridir.
  • 8:43 - 8:47
    Bu kararlılık insani yargı gerektirecektir
  • 8:47 - 8:48
    ve pahalıdır.
  • 8:49 - 8:51
    Ama bir deepfake videosunun
    içerik ve bağlamına bakıp,
  • 8:51 - 8:55
    zararlı bir canlandırma mı,
  • 8:55 - 8:59
    yoksa değerli hiciv, sanat
    veya eğitim mi olduğuna
  • 8:59 - 9:03
    karar verecek insanlara ihtiyacımız var.
  • 9:04 - 9:06
    Peki ya hukuk?
  • 9:07 - 9:09
    Hukuk bizim öğretmenimiz.
  • 9:10 - 9:14
    Hukuk bize neyin zararlı
    ve neyin yanlış olduğunu öğretir.
  • 9:14 - 9:18
    Failleri cezalandırıp
    kurbanlar için çözüm sağlayarak
  • 9:18 - 9:20
    caydırdığı davranışı şekillendirir.
  • 9:21 - 9:25
    Şu anda hukuk, deepfake
    videoları görevine hazır değil.
  • 9:26 - 9:28
    Dünya çapında,
  • 9:28 - 9:30
    cinsel gizliliği ihlal eden,
  • 9:30 - 9:32
    itibar zedeleyen
  • 9:32 - 9:34
    ve manevi zarara sebep olan
  • 9:34 - 9:37
    dijital kişisel canlandırmaları
    ele almak için tasarlanmış
  • 9:37 - 9:40
    duruma tam uygun kanunların
    eksikliği içerisindeyiz.
  • 9:40 - 9:44
    Rana Ayyub'a olanlar
    gitgide yaygınlaşıyor.
  • 9:44 - 9:46
    Ayyub, Delhi'de kanunlara başvurduğunda
  • 9:46 - 9:48
    ona yapacak hiçbir şeyin
    olmadığı söylendi.
  • 9:49 - 9:52
    Acı gerçekse ABD ve Avrupa'da da
  • 9:52 - 9:55
    durumun aynı olması.
  • 9:55 - 10:00
    Doldurulması gereken
    yasal bir boşluğumuz var.
  • 10:00 - 10:04
    Meslektaşım Dr. Mary Anne Franks ve ben,
  • 10:04 - 10:09
    kimlik hırsızlığına eşdeğer olan
    zararlı dijital kişisel canlandırmaları
  • 10:09 - 10:12
    yasaklayacak bir mevzuat
    tasarlamaya çalışıyoruz.
  • 10:12 - 10:14
    Benzer girişimleri İzlanda, İngiltere
  • 10:14 - 10:18
    ve Avustralya'da gördük.
  • 10:18 - 10:21
    Bu mevzuat, yapbozunun küçük bir parçası.
  • 10:23 - 10:26
    Hukukun her şeye çözüm
    olmadığını biliyorum. Öyle değil mi?
  • 10:26 - 10:28
    Hukuk kabaca bir araç
  • 10:28 - 10:30
    ve bunu akıllıca kullanmalıyız.
  • 10:30 - 10:33
    Hukuk, bazı pratik engellere de sahip.
  • 10:34 - 10:39
    Tespit edip bulamadığınız insanlara
    karşı hukuku kullanamazsınız.
  • 10:39 - 10:43
    Bir fail, kurbanın yaşadığı ülkeden
  • 10:43 - 10:45
    başka bir ülkede yaşıyorsa
  • 10:45 - 10:46
    failin, adaletle yüzleşmek üzere
  • 10:46 - 10:49
    yerel mahkemelere gelmesini
  • 10:49 - 10:50
    sağlayamamanız olası.
  • 10:50 - 10:54
    Koordineli uluslararası
    bir tepkiye ihtiyacımız olacak.
  • 10:56 - 10:59
    Eğitim de bu tepkinin bir parçası olmalı.
  • 11:00 - 11:03
    Kanun uygulayıcılar,
  • 11:03 - 11:05
    bilgi sahibi olmadıkları
    kanunları uygulamayacak
  • 11:05 - 11:08
    ve anlamadıkları sorunları çözmeyecekler.
  • 11:08 - 11:11
    Siber takiple taciz
    hakkındaki araştırmamda
  • 11:11 - 11:13
    kanun uygulayıcılarının,
  • 11:13 - 11:17
    ulaşabildikleri kanunların ve internet
    tacizi sorununu anlamak için
  • 11:17 - 11:19
    eğitimlerinin eksik olduğunu keşfettim.
  • 11:19 - 11:22
    Bu yüzden kurbanlara sık sık şunu dediler:
  • 11:22 - 11:26
    "Bilgisayarı kapat.
    Görmezden gel. Geçer gider."
  • 11:26 - 11:29
    Bunu Rana Ayyub vakasında da gördük.
  • 11:29 - 11:31
    Ona söylenen şuydu:
  • 11:31 - 11:34
    "Hadi ama, olayı ne büyüttün.
    Erkekler erkeklik yapıyor işte."
  • 11:35 - 11:41
    Bu yüzden yeni mevzuatı
    eğitim çabalarıyla eşleştirmeliyiz.
  • 11:42 - 11:45
    Eğitim medyaya da yönelik olmak zorunda.
  • 11:46 - 11:50
    Gazeteciler, deepfake videolarını
    büyütüp yaymamak konusunda
  • 11:50 - 11:54
    eğitim almalı.
  • 11:55 - 11:57
    İşte bu kısma hepimiz dahiliz.
  • 11:57 - 12:01
    Her birimizin eğitime ihtiyacı var.
  • 12:01 - 12:05
    Tıklıyor, paylaşıyor, beğeniyoruz,
    hakkında düşünmüyoruz bile.
  • 12:06 - 12:07
    Bundan daha iyisini yapmalıyız.
  • 12:08 - 12:11
    Sahteliğe karşı çok daha iyi
    bir radarımız olmalı.
  • 12:14 - 12:18
    Bu çözümler için çalışırken,
  • 12:18 - 12:20
    çekilecek çok çile olacak.
  • 12:21 - 12:24
    Rana Ayyub bunun etkileriyle
    hâlâ mücadele ediyor.
  • 12:25 - 12:29
    Kendisini internette ve dışarıda
    ifade etmekte hâlâ özgür hissetmiyor.
  • 12:30 - 12:31
    Bana söylediğine göre,
  • 12:31 - 12:36
    akıl yoluyla, videodakinin
    kendi bedeni olmadığını bilse de
  • 12:36 - 12:40
    çıplak bedeni üzerinde binlerce
    gözün gezindiğini hâlâ hissediyor.
  • 12:40 - 12:44
    Özellikle tanımadığı birisi
    fotoğrafını çekmeye çalıştığında,
  • 12:44 - 12:47
    sık sık panik atak geçiriyor.
  • 12:47 - 12:50
    Kendi kendine "Ya başka bir deepfake
    videosu yaparlarsa," diye düşünüyor.
  • 12:51 - 12:55
    Rana Ayyub gibi bireylerin uğruna,
  • 12:55 - 12:57
    demokrasimizin uğruna,
  • 12:57 - 13:00
    tam şu anda bir şeyler yapmamız gerekiyor.
  • 13:00 - 13:01
    Teşekkür ederim.
  • 13:01 - 13:03
    (Alkışlar)
Title:
"Deepfake" videoları gerçeği baltalayıp demokrasiyi nasıl tehdit ediyor
Speaker:
Danielle Citron
Description:

Şiddeti beslemek veya politikacıları ve gazetecileri karalamak için olsun, kötü niyetli amaçlarla video ve ses manipülasyonu için deepfake teknolojisinin kullanımı gerçek bir tehdit haline gelmekte. Bu araçlar daha erişilebilir ve ürünleri de daha gerçekçi hale geldikçe, dünyayla ilgili inandıklarımızı nasıl şekillendirecek? Bu olağanüstü konuşmada, hukuk profesörü Danielle Citron, deepfake videolarının güvensizliğimizi nasıl büyüttüğünü göz önüne seriyor ve gerçeği korumak için yaklaşımlar öneriyor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Turkish subtitles

Revisions