"Deepfake" videoları gerçeği baltalayıp demokrasiyi nasıl tehdit ediyor
-
0:01 - 0:03[Bu konuşma yetişkinlere
yönelik içerikler barındırır.] -
0:06 - 0:09Rana Ayyub, çalışmaları hükûmet yozlaşması
-
0:09 - 0:11ve insan hakları
ihlallerini açığa çıkarmış -
0:12 - 0:15Hint bir gazeteci.
-
0:15 - 0:16Yıllar içerisinde
-
0:16 - 0:19çalışmalarıyla ilgili eleştiri
ve tartışmalara alışmıştı. -
0:20 - 0:25Ama hiçbir şey onu, Nisan 2018'de
karşılaştığı şeye hazırlayamazdı. -
0:26 - 0:30İlk gördüğünde arkadaşıyla
bir kafede oturuyordu: -
0:30 - 0:35Kendisinin, iki dakika yirmi saniye
uzunluğundaki seks videosu. -
0:35 - 0:38Gözlerine inanamadı.
-
0:38 - 0:40Hiçbir zaman seks videosu çekmemişti.
-
0:41 - 0:44Fakat maalesef binlerce insan
-
0:44 - 0:46videodakinin o olduğuna inanacaktı.
-
0:47 - 0:50Cinsel gizlilikle ilgili
kitabım bağlamında -
0:50 - 0:52Bayan Ayyub ile üç ay önce görüştüm.
-
0:53 - 0:56Bir hukuk profesörü, avukat
ve sivil haklar savunucusuyum. -
0:56 - 1:01Şu anda, hukukun ona çok az
yardımının dokunabileceğini bilmek -
1:01 - 1:03o kadar sinir bozucu ki.
-
1:03 - 1:05Konuştukça
-
1:05 - 1:10sahte seks videosunun muhtemel olduğunu
önceden görmesi gerektiğini söyledi. -
1:10 - 1:15Dedi ki: "Ne de olsa seks, kadınları,
özellikle azınlık kadınlarını, -
1:15 - 1:19bilhassa güçlü erkeklere meydan
okumayı göze alan azınlık kadınlarını -
1:19 - 1:22küçük düşürmek ve utandırmak
için çok sık kullanılıyor." -
1:22 - 1:24Çalışmalarında yaptığı da buydu.
-
1:25 - 1:29Sahte seks videosu 48 saatte viral oldu.
-
1:30 - 1:35Tüm çevrim içi hesapları videodan
ekran görüntüleriyle doldu. -
1:35 - 1:38Sahip olduğu İslam
inancıyla ilgili iftiralara, -
1:38 - 1:41açık tecavüz ve ölüm
tehditlerine maruz kaldı. -
1:41 - 1:46Çevrim içi gönderiler, onun seks için
"müsait" olduğunu söylüyordu. -
1:46 - 1:48İfşa edildi,
-
1:48 - 1:50yani ev adresi ve cep telefonu numarası
-
1:50 - 1:52internette yayıldı.
-
1:53 - 1:57Video 40 bin defadan fazla paylaşıldı.
-
1:58 - 2:02Artık, birisi bu tür bir siber-çete
saldırısıyla hedef alındığında -
2:02 - 2:04verilen zarar çok derin.
-
2:04 - 2:08Rana Ayyub'un hayatı altüst oldu.
-
2:08 - 2:12Haftalarca ne yemek
yiyebildi, ne konuşabildi. -
2:12 - 2:16Yazmayı bıraktı ve tüm
sosyal medya hesaplarını kapattı. -
2:16 - 2:19Bir gazeteci için yapması çok zor bir şey.
-
2:19 - 2:23Ailesinin evinden çıkmaya korkuyordu.
-
2:23 - 2:26Ya internettekiler tehditlerinde ciddiyse?
-
2:26 - 2:31BM İnsan Hakları Konseyi,
Ayyub'un deli olmadığını doğruladı. -
2:31 - 2:35Güvenliğinden endişe duyduklarını söyleyen
bir basın açıklaması yayımladılar. -
2:37 - 2:41Rana Ayyub'un yüzleştiği şey
bir deepfake videosuydu: -
2:41 - 2:44İnsanları, hiç yapmadıkları
-
2:44 - 2:48veya söylemedikleri şeyleri
yapıp söylerken göstermek için -
2:48 - 2:50ses ve video kayıtlarını manipüle eden
-
2:50 - 2:53veya üreten makine öğrenmesi teknolojisi.
-
2:53 - 2:56Deepfake videoları orijinal
ve gerçekçi görünüyor ama değil; -
2:56 - 2:58tamamen yalan.
-
2:59 - 3:03Bu teknoloji kapsamlılığı anlamında
halen gelişmekte olsa da -
3:03 - 3:05geniş çapta ulaşılabilir durumda.
-
3:05 - 3:08Şimdiyse, deepfake videolarına
yönelen en son ilginin sebebi -
3:08 - 3:11internetteki bir çok şeyde de olduğu gibi
-
3:11 - 3:12pornografi oldu.
-
3:12 - 3:152018'in başlarında birisi,
-
3:15 - 3:17kullanıcıların pornolara yüz eklemesine
-
3:17 - 3:22imkan veren bir aracı Reddit'te paylaştı.
-
3:22 - 3:25Bunu, insanların en sevdiği
kadın ünlüleri içeren -
3:25 - 3:28sahte bir porno yağmuru takip etti.
-
3:29 - 3:32Bugün, YouTube'a girip
masaüstü uygulamanızda -
3:32 - 3:34nasıl deepfake videosu yapılacağına dair
-
3:35 - 3:38adım adım talimatlarla
sayısız öğretici video izleyebilirsiniz. -
3:38 - 3:42Yakında bu videoları cep
telefonlarımızdan bile yapabiliriz. -
3:43 - 3:48Deepfake videolarını silaha çeviren şey
-
3:48 - 3:50bazı en temel insani zaaflarımız
-
3:50 - 3:53ve ağ araçları arasındaki etkileşim.
-
3:53 - 3:54Açıklayayım.
-
3:55 - 3:59İnsanlar olarak ses ve videoya
içsel bir tepki gösteririz. -
4:00 - 4:01Tabii ki gözlerimizin
-
4:01 - 4:04ve kulaklarımızın söylediğine
inanabileceğimiz zannıyla -
4:04 - 4:06bunların gerçek olduğuna inanırız.
-
4:06 - 4:08Bizim ortak gerçeklik duygumuzun
-
4:08 - 4:12altını kazan da bu mekanizmadır.
-
4:12 - 4:15Deepfake videolarının gerçek olduğuna
inansak da öyle değiller. -
4:16 - 4:20Müstehcen, provokatif olan da
bizi kendine çeker. -
4:20 - 4:23Olumsuz ve yeni bilgilere inanıp
-
4:23 - 4:25bunları paylaşma eğilimi gösteririz.
-
4:26 - 4:31Araştırmacılar, internet
uydurmalarının gerçek hikayelere göre -
4:31 - 4:3310 kat daha hızlı yayıldığını saptadılar.
-
4:34 - 4:38Bakış açımıza paralel bilgiler de
-
4:38 - 4:40bizi kendine çeker.
-
4:41 - 4:45Psikologlar bu eğilime
"doğrulama yanlılığı" adını veriyor. -
4:45 - 4:50Sosyal medya platformları da
bakış açımıza uyan bilgileri -
4:50 - 4:54geniş alanda ve hemen
paylaşmamızı sağlayarak -
4:54 - 4:55bu eğilime güç veriyor.
-
4:57 - 5:02Deepfake videolarının bireylere ve
topluma ciddi hasar verme potansiyeli var. -
5:03 - 5:05Amerikan askerlerinin Afganistan'da
-
5:05 - 5:09Kuran yaktığını gösteren
bir deepfake videosu hayal edin. -
5:11 - 5:14Bu videonun o askerlere karşı
şiddeti kışkırtacağını da -
5:14 - 5:15hayal edebilirsiniz.
-
5:16 - 5:19Peki sonraki gün,
Londra'dan ünlü bir imamın, -
5:19 - 5:21askerlere yapılan bu
saldırıyı övdüğünü gösteren -
5:21 - 5:24başka bir deepfake videosu da
-
5:24 - 5:27internete düşerse?
-
5:28 - 5:31Yalnızca Afganistan ve İngiltere'de değil,
-
5:31 - 5:34tüm dünyada şiddet ve kargaşaya
-
5:34 - 5:36şahit olabiliriz.
-
5:36 - 5:37Şunu diyebilirsiniz,
-
5:37 - 5:40"Hadi be Danielle,
o kadar uzun boylu değil." -
5:40 - 5:41Ama öyle.
-
5:41 - 5:44WhatsApp'tan ve diğer
çevrim içi mesaj hizmetlerinden -
5:44 - 5:46yayılan yalanların
-
5:46 - 5:49etnik azınlıklara karşı
şiddete yol açtığına şahit olduk. -
5:49 - 5:51Bunlar sadece metindi --
-
5:51 - 5:53bir de video olduğunu düşünün.
-
5:55 - 6:00Deepfake videoları demokratik
kurumlara duyduğumuz güveni -
6:00 - 6:02çürütme potansiyeline sahip.
-
6:03 - 6:06Seçimden bir önceki geceyi düşünün.
-
6:06 - 6:09Önemli parti adaylarından birini
ciddi hasta olarak gösteren -
6:09 - 6:10deepfake videosu olsa
-
6:11 - 6:14bu video seçimin sonucu tüyosunu verip
-
6:14 - 6:17seçimlerin meşru olduğu
inancımızı sarsabilir. -
6:19 - 6:22Büyük bir küresel bankanın
ilk halka arzından önceki gece -
6:22 - 6:24bankanın CEO'sunun
-
6:24 - 6:27sarhoş halde komplo
teorileri anlattığını gösteren -
6:27 - 6:30bir deepfake videosu olduğunu hayal edin.
-
6:31 - 6:34Bu video halka arzı dibe vurdurabilir.
-
6:34 - 6:38Daha da kötüsü, finansal pazarların
stabil olduğu inancımızı sarsabilir. -
6:39 - 6:46Deepfake videoları; politikacı,
iş liderleri ve diğer etkili liderlere -
6:46 - 6:51duyduğumuz derin güvensizliği
suistimal edip büyütebilir. -
6:51 - 6:54Bu videolar, kendilerine inanmaya
hazır bir izleyici kitlesi buluyor. -
6:55 - 6:58Gerçeğin takip edilmesi de
tehlikeye giriyor. -
6:59 - 7:03Teknologlar, yapay zekadaki gelişmelerle
-
7:03 - 7:06yakın zamanda gerçek bir video ile
sahtesini birbirinden ayırmanın -
7:06 - 7:10imkansız değilse de
zor hale gelmesini bekliyorlar. -
7:11 - 7:16Deepfake videolarının yönettiği
düşünce pazarında gerçek nasıl bulunur? -
7:17 - 7:19Gerçeğe lanet olsun deyip
-
7:19 - 7:21sadece en kolay yoldan devam edecek
-
7:21 - 7:24ve inanmak istediğimiz
şeylere mi inanacağız? -
7:25 - 7:28Olay sadece sahteliğe inanmak değil,
-
7:28 - 7:31gerçeğe inanmamaya da başlayabiliriz.
-
7:32 - 7:36Kendi yanlışlarının gerçek
kanıtlarına gölge düşürmek için -
7:36 - 7:40deepfake videoları olgusuna
başvuran insanları zaten gördük. -
7:40 - 7:46Rahatsız edici yorumlarının ses kayıtları
hakkında şunu diyen politikacıları duyduk, -
7:46 - 7:48"Hadi be, yalan haber bunlar.
-
7:48 - 7:52Gözleriniz ve kulaklarınızın
anlattığına inanamazsınız." -
7:52 - 7:54Profesör Robert Chesney ve benim
-
7:54 - 8:00"yalancının hissesi"
dediğimiz de işte bu risk: -
8:00 - 8:03kendi yanlışlarının
sorumluluğundan kaçmak için -
8:03 - 8:06deepfake videolarına başvuracak
yalancıların oluşturduğu risk. -
8:07 - 8:10Şüphesiz, işimiz zor.
-
8:11 - 8:14Teknoloji şirketleri, kanun koyucular,
-
8:14 - 8:17kanun uygulayıcılar ve medyadan gelecek
-
8:17 - 8:19proaktif bir çözüme ihtiyacımız olacak.
-
8:20 - 8:24Dozunda toplumsal
esnekliğe ihtiyacımız olacak. -
8:26 - 8:29Şu anda, teknoloji şirketinin
sorumluluğuyla ilgili -
8:29 - 8:32kamusal bir diyaloğa dahiliz.
-
8:33 - 8:36Benim sosyal medya platformlarına tavsiyem
-
8:36 - 8:38hizmet şartları ve topluluk kurallarını,
-
8:38 - 8:42zarara sebep olan deepfake videolarını
yasaklayacak şekilde değiştirmeleridir. -
8:43 - 8:47Bu kararlılık insani yargı gerektirecektir
-
8:47 - 8:48ve pahalıdır.
-
8:49 - 8:51Ama bir deepfake videosunun
içerik ve bağlamına bakıp, -
8:51 - 8:55zararlı bir canlandırma mı,
-
8:55 - 8:59yoksa değerli hiciv, sanat
veya eğitim mi olduğuna -
8:59 - 9:03karar verecek insanlara ihtiyacımız var.
-
9:04 - 9:06Peki ya hukuk?
-
9:07 - 9:09Hukuk bizim öğretmenimiz.
-
9:10 - 9:14Hukuk bize neyin zararlı
ve neyin yanlış olduğunu öğretir. -
9:14 - 9:18Failleri cezalandırıp
kurbanlar için çözüm sağlayarak -
9:18 - 9:20caydırdığı davranışı şekillendirir.
-
9:21 - 9:25Şu anda hukuk, deepfake
videoları görevine hazır değil. -
9:26 - 9:28Dünya çapında,
-
9:28 - 9:30cinsel gizliliği ihlal eden,
-
9:30 - 9:32itibar zedeleyen
-
9:32 - 9:34ve manevi zarara sebep olan
-
9:34 - 9:37dijital kişisel canlandırmaları
ele almak için tasarlanmış -
9:37 - 9:40duruma tam uygun kanunların
eksikliği içerisindeyiz. -
9:40 - 9:44Rana Ayyub'a olanlar
gitgide yaygınlaşıyor. -
9:44 - 9:46Ayyub, Delhi'de kanunlara başvurduğunda
-
9:46 - 9:48ona yapacak hiçbir şeyin
olmadığı söylendi. -
9:49 - 9:52Acı gerçekse ABD ve Avrupa'da da
-
9:52 - 9:55durumun aynı olması.
-
9:55 - 10:00Doldurulması gereken
yasal bir boşluğumuz var. -
10:00 - 10:04Meslektaşım Dr. Mary Anne Franks ve ben,
-
10:04 - 10:09kimlik hırsızlığına eşdeğer olan
zararlı dijital kişisel canlandırmaları -
10:09 - 10:12yasaklayacak bir mevzuat
tasarlamaya çalışıyoruz. -
10:12 - 10:14Benzer girişimleri İzlanda, İngiltere
-
10:14 - 10:18ve Avustralya'da gördük.
-
10:18 - 10:21Bu mevzuat, yapbozunun küçük bir parçası.
-
10:23 - 10:26Hukukun her şeye çözüm
olmadığını biliyorum. Öyle değil mi? -
10:26 - 10:28Hukuk kabaca bir araç
-
10:28 - 10:30ve bunu akıllıca kullanmalıyız.
-
10:30 - 10:33Hukuk, bazı pratik engellere de sahip.
-
10:34 - 10:39Tespit edip bulamadığınız insanlara
karşı hukuku kullanamazsınız. -
10:39 - 10:43Bir fail, kurbanın yaşadığı ülkeden
-
10:43 - 10:45başka bir ülkede yaşıyorsa
-
10:45 - 10:46failin, adaletle yüzleşmek üzere
-
10:46 - 10:49yerel mahkemelere gelmesini
-
10:49 - 10:50sağlayamamanız olası.
-
10:50 - 10:54Koordineli uluslararası
bir tepkiye ihtiyacımız olacak. -
10:56 - 10:59Eğitim de bu tepkinin bir parçası olmalı.
-
11:00 - 11:03Kanun uygulayıcılar,
-
11:03 - 11:05bilgi sahibi olmadıkları
kanunları uygulamayacak -
11:05 - 11:08ve anlamadıkları sorunları çözmeyecekler.
-
11:08 - 11:11Siber takiple taciz
hakkındaki araştırmamda -
11:11 - 11:13kanun uygulayıcılarının,
-
11:13 - 11:17ulaşabildikleri kanunların ve internet
tacizi sorununu anlamak için -
11:17 - 11:19eğitimlerinin eksik olduğunu keşfettim.
-
11:19 - 11:22Bu yüzden kurbanlara sık sık şunu dediler:
-
11:22 - 11:26"Bilgisayarı kapat.
Görmezden gel. Geçer gider." -
11:26 - 11:29Bunu Rana Ayyub vakasında da gördük.
-
11:29 - 11:31Ona söylenen şuydu:
-
11:31 - 11:34"Hadi ama, olayı ne büyüttün.
Erkekler erkeklik yapıyor işte." -
11:35 - 11:41Bu yüzden yeni mevzuatı
eğitim çabalarıyla eşleştirmeliyiz. -
11:42 - 11:45Eğitim medyaya da yönelik olmak zorunda.
-
11:46 - 11:50Gazeteciler, deepfake videolarını
büyütüp yaymamak konusunda -
11:50 - 11:54eğitim almalı.
-
11:55 - 11:57İşte bu kısma hepimiz dahiliz.
-
11:57 - 12:01Her birimizin eğitime ihtiyacı var.
-
12:01 - 12:05Tıklıyor, paylaşıyor, beğeniyoruz,
hakkında düşünmüyoruz bile. -
12:06 - 12:07Bundan daha iyisini yapmalıyız.
-
12:08 - 12:11Sahteliğe karşı çok daha iyi
bir radarımız olmalı. -
12:14 - 12:18Bu çözümler için çalışırken,
-
12:18 - 12:20çekilecek çok çile olacak.
-
12:21 - 12:24Rana Ayyub bunun etkileriyle
hâlâ mücadele ediyor. -
12:25 - 12:29Kendisini internette ve dışarıda
ifade etmekte hâlâ özgür hissetmiyor. -
12:30 - 12:31Bana söylediğine göre,
-
12:31 - 12:36akıl yoluyla, videodakinin
kendi bedeni olmadığını bilse de -
12:36 - 12:40çıplak bedeni üzerinde binlerce
gözün gezindiğini hâlâ hissediyor. -
12:40 - 12:44Özellikle tanımadığı birisi
fotoğrafını çekmeye çalıştığında, -
12:44 - 12:47sık sık panik atak geçiriyor.
-
12:47 - 12:50Kendi kendine "Ya başka bir deepfake
videosu yaparlarsa," diye düşünüyor. -
12:51 - 12:55Rana Ayyub gibi bireylerin uğruna,
-
12:55 - 12:57demokrasimizin uğruna,
-
12:57 - 13:00tam şu anda bir şeyler yapmamız gerekiyor.
-
13:00 - 13:01Teşekkür ederim.
-
13:01 - 13:03(Alkışlar)
- Title:
- "Deepfake" videoları gerçeği baltalayıp demokrasiyi nasıl tehdit ediyor
- Speaker:
- Danielle Citron
- Description:
-
Şiddeti beslemek veya politikacıları ve gazetecileri karalamak için olsun, kötü niyetli amaçlarla video ve ses manipülasyonu için deepfake teknolojisinin kullanımı gerçek bir tehdit haline gelmekte. Bu araçlar daha erişilebilir ve ürünleri de daha gerçekçi hale geldikçe, dünyayla ilgili inandıklarımızı nasıl şekillendirecek? Bu olağanüstü konuşmada, hukuk profesörü Danielle Citron, deepfake videolarının güvensizliğimizi nasıl büyüttüğünü göz önüne seriyor ve gerçeği korumak için yaklaşımlar öneriyor.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
Cihan Ekmekçi approved Turkish subtitles for How deepfakes undermine truth and threaten democracy | ||
Cihan Ekmekçi edited Turkish subtitles for How deepfakes undermine truth and threaten democracy | ||
Ezgisu Karakaya accepted Turkish subtitles for How deepfakes undermine truth and threaten democracy | ||
Ezgisu Karakaya edited Turkish subtitles for How deepfakes undermine truth and threaten democracy | ||
Yasin Basaran edited Turkish subtitles for How deepfakes undermine truth and threaten democracy | ||
Yasin Basaran edited Turkish subtitles for How deepfakes undermine truth and threaten democracy | ||
Yasin Basaran edited Turkish subtitles for How deepfakes undermine truth and threaten democracy | ||
Yasin Basaran edited Turkish subtitles for How deepfakes undermine truth and threaten democracy |