Return to Video

İnternetteki çocuk cinsel istismar materyalini nasıl saf dışı bırakırız

  • 0:01 - 0:03
    [Bu konuşma yetişkin içeriklidir]
  • 0:06 - 0:07
    Beş yıl önce,
  • 0:07 - 0:11
    hayatımı değiştiren bir telefon aldım.
  • 0:12 - 0:14
    O günü çok berrak hatırlıyorum.
  • 0:15 - 0:17
    Yılın bu zamanlarıydı
  • 0:17 - 0:19
    ve ofisimde oturuyordum.
  • 0:20 - 0:23
    Güneşin pencerenin içinden
    geçtiğini hatırlıyorum.
  • 0:24 - 0:25
    Telefonum çaldı,
  • 0:26 - 0:27
    cevapladım.
  • 0:28 - 0:32
    İki federal ajan yardımımı istiyordu.
  • 0:32 - 0:36
    İnternette buldukları, yüzlerce çocuğun
    cinsel istismar fotoğrafları içindeki
  • 0:36 - 0:40
    küçük bir kızı teşhis etmeliydim.
  • 0:41 - 0:44
    Dava üzerinde çalışmaya
    yeni başlamışlardı.
  • 0:44 - 0:47
    Fakat biliyorlardı ki
  • 0:47 - 0:51
    kızın istismarı, çocukların
    cinsel istismarına adanmış
  • 0:51 - 0:57
    karanlık ağ sitelerinde
    yıllarca yayınlanmıştı.
  • 0:58 - 1:02
    İstismarcısı teknolojik olarak
    oldukça sofistikeydi:
  • 1:02 - 1:07
    Her birkaç haftada
    yeni fotoğraf ve videolar vardı
  • 1:07 - 1:10
    ama kızın kim olduğu
  • 1:10 - 1:12
    ya da nerede olduğuna dair çok az ipucu.
  • 1:13 - 1:15
    Böylece bizi aradılar.
  • 1:15 - 1:17
    Çocuk istismarıyla savaşmaya adanmış,
  • 1:17 - 1:21
    kâr amacı gütmeyen bir teknoloji
    geliştirdiğimizi duymuşlardı.
  • 1:22 - 1:24
    Oysa biz henüz ikinci yılımızdaydık
  • 1:24 - 1:27
    ve sadece çocuk seks ticareti
    üzerine çalışmıştık.
  • 1:28 - 1:30
    Onlara, hiçbir şeyimiz olmadığını
  • 1:30 - 1:31
    söylemek zorunda kaldım.
  • 1:32 - 1:36
    Bu istismarı durdurmaya yarayacak
    hiçbir şeyimiz yoktu.
  • 1:37 - 1:41
    Bu ajanların, sonunda çocuğu bulmaları
  • 1:41 - 1:44
    bir yıl sürdü.
  • 1:45 - 1:47
    Kurtarıldığı sırada,
  • 1:47 - 1:54
    tecavüzünü içeren
    yüzlerce fotoğraf ve video yayılmıştı.
  • 1:54 - 1:55
    Karanlık ağ,
  • 1:55 - 1:58
    bağlantılı internet ağı,
    özel sohbet odaları,
  • 1:58 - 2:02
    ayrıca sizin ve benim
    her gün kullandığımız
  • 2:02 - 2:04
    internet sitelerinde.
  • 2:05 - 2:09
    Şu anda tedavisi için mücadele ederken
  • 2:09 - 2:13
    dünyadaki binlerce insanın,
  • 2:13 - 2:16
    istismarını izlemeye devam ettiği
    gerçeğiyle yaşıyor.
  • 2:18 - 2:20
    Son beş yılda öğrendim ki
  • 2:20 - 2:23
    bu dava benzersiz olmaktan çok çok uzakta.
  • 2:24 - 2:28
    Toplum olarak bu noktaya nasıl geldik?
  • 2:29 - 2:33
    1980'lerin sonunda, çocuk pornografisi --
  • 2:33 - 2:39
    ki bu aslında çocuk
    cinsel istismarı materyali --
  • 2:39 - 2:40
    neredeyse ortadan kaldırıldı.
  • 2:41 - 2:44
    Yeni kanunlar ve artan takipler
  • 2:44 - 2:47
    posta yoluyla takasını
    fazlasıyla tehlikeli yaptı.
  • 2:48 - 2:52
    Sonra internet geldi ve piyasa patladı.
  • 2:53 - 2:57
    Günümüzde, dolaşımdaki içerik miktarı
  • 2:57 - 3:00
    oldukça büyük ve büyümeye devam ediyor.
  • 3:00 - 3:04
    Bu gerçekten de evrensel bir problem.
  • 3:04 - 3:06
    Ama sadece ABD'ye bakacak olursak
  • 3:06 - 3:08
    geçen yıl sadece ABD'de
  • 3:08 - 3:14
    çocuk cinsel istismarına dayalı
    45 milyondan fazla fotoğraf ve video
  • 3:14 - 3:17
    Kayıp ve İstismara Uğramış Çocuklar
    Ulusal Merkezi'ne ihbar edildi.
  • 3:17 - 3:22
    Bu, önceki yıldakinin neredeyse iki katı.
  • 3:23 - 3:28
    Bu sayıların ardındaki detayların
    düşünülmesi çok zor.
  • 3:28 - 3:34
    Fotoğrafların yüzde altmışından
    fazlasında 12 yaşından küçük çocuklar var.
  • 3:34 - 3:38
    Ayrıca birçoğu cinsel istismarın
    oldukça şiddetli eylemlerini içeriyor.
  • 3:39 - 3:44
    Çocuk istismarına adanan
    sohbet odalarında
  • 3:44 - 3:47
    istismarcılar daha fazla
    istismar ve kurbanla,
  • 3:47 - 3:50
    rütbe ve şöhret kazandılar.
  • 3:50 - 3:53
    Bu piyasada
  • 3:53 - 3:57
    para, içeriğin kendisi hâline geldi.
  • 3:58 - 4:02
    İstismarcıların yeni teknolojilerden
    faydalanmakta hızlı olduğu apaçık.
  • 4:02 - 4:05
    Oysa bir toplum olarak
    bizim cevabımız hızlı değil.
  • 4:06 - 4:10
    İstismarcılar internet sitelerindeki
    kullanıcı sözleşmelerini okumuyor
  • 4:10 - 4:14
    ve içerik coğrafi sınırları umursamıyor.
  • 4:15 - 4:21
    Yapbozun sadece bir parçasına
    baktığımızda kazanıyorlar.
  • 4:21 - 4:25
    Ki bu, günümüzdeki cevabımızın
    tam olarak nasıl olduğu.
  • 4:25 - 4:28
    Kolluk kuvvetleri tek yönde çalışıyor.
  • 4:28 - 4:32
    Şirketler sadece kendi
    platformuna bakıyor.
  • 4:32 - 4:34
    Ve bu yolda öğrendikleri veri
  • 4:35 - 4:37
    çok nadiren paylaşılıyor.
  • 4:37 - 4:43
    Bu kopuk yaklaşımın
    işe yaramadığı apaçık ortada.
  • 4:44 - 4:48
    Bu dijital çağ salgınına
    olan yaklaşımımızı
  • 4:48 - 4:49
    yeniden yapılandırmalıyız.
  • 4:50 - 4:53
    İşte bu, Thorn'da
    tam olarak yaptığımız şey.
  • 4:53 - 4:57
    Bu noktaları bağlayacak bir
    teknoloji geliştiriyoruz.
  • 4:57 - 5:02
    Ön sahadaki herkesi -- kolluk kuvvetleri,
    sivil toplum örgütleri ve şirketler --
  • 5:02 - 5:06
    internetteki çocuk istismarı materyalini
    sonunda eleyebilecek
  • 5:06 - 5:08
    araçlarla donatacak bir teknoloji.
  • 5:10 - 5:11
    Bir dakikalığına konuşalım --
  • 5:11 - 5:12
    (Alkışlar)
  • 5:12 - 5:14
    Teşekkür ederim.
  • 5:14 - 5:16
    (Alkışlar)
  • 5:18 - 5:21
    Bu noktaların ne olduğu hakkında
    bir dakika konuşalım.
  • 5:21 - 5:25
    Tahmin edebileceğiniz gibi
    içerik çok korkunç.
  • 5:25 - 5:28
    Bakmak zorunda olmadıkça
    bakmak istemezsiniz.
  • 5:28 - 5:33
    Bu yüzden birçok şirket
    veya kolluk kuvvetinin
  • 5:33 - 5:35
    kullandığı bir yöntem var.
  • 5:35 - 5:39
    Her bir dosyayı, benzersiz
    sayı dizilerine çeviriyorlar.
  • 5:39 - 5:40
    Buna "hash" deniliyor.
  • 5:40 - 5:45
    Bu esasen her dosya
    ve video için parmak izi.
  • 5:45 - 5:49
    Bulunan bilgiyi soruşturmalarda kullanmada
  • 5:49 - 5:52
    ya da platformlarından bu içeriği
    kaldırmak isteyen bir şirketin
  • 5:52 - 5:58
    her bir fotoğraf ve videoya bakmaya
    mecbur kalmamasına yarıyor.
  • 5:58 - 6:00
    Bugünkü problem ise
  • 6:00 - 6:04
    dünyadaki silo veri tabanlarında bekleyen
  • 6:04 - 6:08
    yüz milyonlarca hash olması.
  • 6:08 - 6:09
    Silo,
  • 6:09 - 6:14
    kontrol sahibi bir ajansta işe yarayabilir
    ama bu verileri bağlamamak
  • 6:14 - 6:17
    ne kadarının benzersiz olduğunu
    bilmediğimiz anlamına gelir.
  • 6:17 - 6:20
    Bilmediğimiz şey, hangilerinin kurtarılmış
  • 6:20 - 6:23
    hangilerinin hâlâ tespit edilmesi gereken
    çocukları temsil ettiği.
  • 6:23 - 6:27
    Önceliğimiz, en temel dayanağımız,
  • 6:27 - 6:30
    bu verilerin bağlanması.
  • 6:30 - 6:36
    Küresel ölçekteki bir yazılımla
    birleştirilen bu verinin,
  • 6:37 - 6:40
    bu alanda dönüştürücü etki
    sağlayabileceği iki yolu vardır.
  • 6:40 - 6:43
    İlk olarak kolluk kuvvetlerinin
  • 6:43 - 6:48
    yeni kurbanları daha hızlı
    teşhis etmelerine, istismarı durdurmaya
  • 6:48 - 6:51
    ve bu içeriğin üretilmesine
    son vermeye yardım ediyoruz.
  • 6:51 - 6:54
    İkincisi, şirketler
  • 6:54 - 6:59
    bugün dolaşımdaki yüzlerce milyon dosyayı
    teşhis etmede ipucu olarak kullanabilir,
  • 6:59 - 7:01
    bunları kaldırabilir
  • 7:01 - 7:07
    ve yeni materyale yayılma fırsatı
    tanımadan yüklenmesini durdurabilir.
  • 7:10 - 7:11
    Dört yıl önce,
  • 7:11 - 7:13
    dava sona erdiğinde
  • 7:14 - 7:18
    takımımız oturdu ve biz sadece...
  • 7:20 - 7:23
    başarısız olduğumuzu hissettik,
    böyle söyleyebilirim.
  • 7:23 - 7:27
    Onlar bütün yıl onu ararken
  • 7:27 - 7:28
    biz sadece izlemiştik.
  • 7:28 - 7:32
    Soruşturmadaki her yeri görmüştük.
  • 7:32 - 7:34
    Eğer o zaman bu teknoloji olsaydı
  • 7:34 - 7:37
    onu çok daha hızlı bulabilirlerdi.
  • 7:38 - 7:40
    Bundan uzaklaştık
  • 7:40 - 7:43
    ve nasıl yapıldığını bildiğimiz
    tek şeye yöneldik:
  • 7:43 - 7:45
    Yazılıma başladık.
  • 7:46 - 7:48
    Kolluk kuvvetleriyle başladık.
  • 7:48 - 7:52
    Dünyadaki her görevlinin masasına
    alarm kurmak hayalimizdi.
  • 7:52 - 7:57
    Böylece biri internette yeni bir kurban
    paylaşmaya yeltendiğinde
  • 7:57 - 8:00
    birileri paylaşanı anında
    aramaya başlayacaktı.
  • 8:01 - 8:04
    Yazılımın ayrıntıları hakkında
    elbette konuşamam.
  • 8:04 - 8:07
    Ama bugün 38 ülkede çalışmakta
  • 8:07 - 8:10
    ve bir çocuğa ulaşma süresini
  • 8:10 - 8:12
    yüzde altmış beşten daha fazla
    azaltmış durumda.
  • 8:12 - 8:21
    (Alkışlar)
  • 8:21 - 8:24
    Şimdi ikinci ufka yöneliyoruz:
  • 8:24 - 8:30
    içeriği belirleme ve kaldırmada şirketlere
    yardımcı olacak yazılımı yazmak.
  • 8:31 - 8:34
    Bir dakikalığına
    bu şirketlerden bahsedelim.
  • 8:34 - 8:40
    Söylediğimiz gibi -- geçen yıl sadece
    ABD'de 45 milyon fotoğraf ve video.
  • 8:40 - 8:44
    Bunlar sadece on iki şirketten geldi.
  • 8:46 - 8:52
    On iki şirket, çocuk istismarına
    dair 45 milyon dosya.
  • 8:52 - 9:00
    Bunlar, içeriği kaldırmak için altyapı
    kuracak paraya sahip şirketlerden geldi.
  • 9:00 - 9:07
    Oysa dünya üzerinde, küçük ve orta ölçekli
    yüzlerce şirketin de bunu yapması gerek.
  • 9:07 - 9:12
    Ama ya platformlarının istismar için
    kullanılabileceği akıllarına gelmiyor
  • 9:12 - 9:18
    ya da geliri arttırmayacak bir şeye
    harcayacak paraları yok.
  • 9:19 - 9:22
    Böylece biz de onların yerine
    altyapı kurduk.
  • 9:22 - 9:27
    Katılan her yeni şirketle birlikte
    sistem akıllanıyor.
  • 9:28 - 9:30
    Bir örnekle açıklamama izin verin.
  • 9:30 - 9:34
    İlk ortağımız, Imgur --
    eğer duymadıysanız
  • 9:34 - 9:38
    ABD'de en çok ziyaret edilen
    sitelerden biri --
  • 9:38 - 9:42
    kullanıcılar tarafından her gün yüklenen
    milyonlarca içerikle
  • 9:42 - 9:45
    interneti daha eğlenceli bir yer hâline
    getirmeyi hedefliyor.
  • 9:46 - 9:48
    Önce bizimle partner oldular.
  • 9:48 - 9:51
    Sistemimizi etkinleştirdikten
    yirmi dakika sonra
  • 9:51 - 9:55
    birileri istismar materyali
    yüklemeye çalıştı.
  • 9:55 - 9:57
    Bunu durdurmayı, içeriği kaldırmayı,
  • 9:57 - 10:00
    Kayıp ve İstismara Uğramış Çocuklar
    Ulusal Merkezi'ne bildirmeyi başardılar.
  • 10:00 - 10:02
    Bir adım daha ilerlediler
  • 10:02 - 10:06
    ve içeriği yükleyen kullanıcının
    hesabını tespit ettiler.
  • 10:07 - 10:14
    Çocuk cinsel istismarına dair
    önceden görmediğimiz yüzlerce parça daha.
  • 10:14 - 10:18
    İşte burada üssel etkiyi görmeye başladık.
  • 10:18 - 10:19
    O materyali kaldırırız,
  • 10:20 - 10:23
    Kayıp ve İstismara Uğramış Çocuklar
    Ulusal Merkezi'ne bildirilir,
  • 10:23 - 10:26
    sonra bu hash'ler sisteme geri döner
  • 10:26 - 10:28
    ve diğer tüm şirketlere yarar sağlar.
  • 10:28 - 10:33
    Elimizdeki bu milyonlarca hash, bizi
    milyonlarca başka hash'e yönlendirdiğinde
  • 10:33 - 10:37
    aynı zamanda tüm dünyadaki şirketler
    bu içeriği belirleyip kaldırdığında
  • 10:37 - 10:41
    çocuk cinsel istismar materyalini
  • 10:41 - 10:46
    dünya çapında internetten kaldırma
    hızımızı çarpıcı biçimde arttıracağız.
  • 10:46 - 10:53
    (Alkışlar)
  • 10:54 - 10:57
    İşte bu yüzden, sadece
    yazılım ve veriyle ilgili değil,
  • 10:57 - 10:59
    ölçekle ilgili olmalı.
  • 10:59 - 11:05
    Binlerce görevliyi, dünyadaki
    yüzlerce şirketi aktifleştirmeliyiz,
  • 11:05 - 11:09
    eğer teknoloji, bugün dünya çapında
    saldırganların önüne geçmemize
  • 11:09 - 11:15
    ve çocuk cinsel istismarını normalleştiren
    toplulukları kaldırmamıza izin verirse.
  • 11:15 - 11:18
    İşte bunu yapmanın zamanı geldi.
  • 11:18 - 11:24
    Bunun, çocuklarımız üzerindeki etkisini
    bilmediğimizi daha fazla ileri süremeyiz.
  • 11:25 - 11:29
    İstismarı internette yayılan
    ilk nesil büyüdü
  • 11:29 - 11:31
    ve genç yetişkinler hâline geldi.
  • 11:31 - 11:34
    Kanada Çocuk Koruma Merkezi,
  • 11:34 - 11:37
    bu genç yetişkinler hakkında
    araştırma yaptı.
  • 11:37 - 11:41
    İstismarlarının devam ettiğini
    bilerek atlatmaya çalıştıkları
  • 11:41 - 11:44
    bu benzersiz travmayı
    anlamayı hedeflediler.
  • 11:45 - 11:50
    Bu genç yetişkinlerin yüzde sekseni
    intiharı düşünmüş.
  • 11:51 - 11:55
    Yüzde altmıştan fazlası
    intihara yeltenmiş.
  • 11:56 - 12:01
    Ve birçoğu her gün
    aynı korkuyu yaşıyormuş:
  • 12:01 - 12:05
    sokakta yürürken, iş görüşmesinde,
  • 12:05 - 12:08
    okula giderken
  • 12:08 - 12:10
    ya da internette biriyle tanıştıklarında
  • 12:10 - 12:14
    bu kişinin, istismarını
    gördüğü korkusu.
  • 12:15 - 12:19
    Yüzde otuzundan fazlasında
    bu korku gerçeğe dönüşmüş.
  • 12:20 - 12:25
    İnternetteki istismar materyalleri
    yüzünden tanınmışlar.
  • 12:26 - 12:29
    Kolay olmayacak
  • 12:29 - 12:32
    ama imkânsız da değil.
  • 12:32 - 12:35
    Bunu başarmak için
    istekli olmamız gerekiyor.
  • 12:35 - 12:36
    Toplumumuzun iradesine,
  • 12:37 - 12:40
    bakması çok zor olan
    bir şeye bakma isteğine,
  • 12:40 - 12:43
    karanlıktan bir şey çıkarma
    isteğine ihtiyacımız var ki
  • 12:43 - 12:45
    bu çocuklar söz sahibi olabilsinler.
  • 12:46 - 12:49
    Şirketlerin harekete geçmesine
  • 12:49 - 12:54
    ve platformlarının, çocuk istismarında
    suç ortağı olmadığına emin olmasına
  • 12:55 - 12:59
    ve kurbanlar kendi adlarına
    konuşamadıklarında bile
  • 12:59 - 13:04
    dijital suçu araştırmada
    ihtiyaç duydukları ekipmanlar için
  • 13:04 - 13:08
    hükûmetlerin, kolluk kuvvetlerine
    yetki vermesine ihtiyacımız var.
  • 13:10 - 13:13
    Bu cesur bağlılık, iradenin bir parçası.
  • 13:14 - 13:20
    İnsanlığın en büyük düşmanlarından birine
    karşı açılan bir savaşın bildirgesi.
  • 13:20 - 13:22
    Ama asıl tutunduğum,
  • 13:22 - 13:26
    bu aslında geleceğe dair bir yatırım,
  • 13:26 - 13:29
    her çocuğun sadece çocuk
    olduğu bir gelecek.
  • 13:29 - 13:31
    Teşekkür ederim.
  • 13:31 - 13:37
    (Alkışlar)
Title:
İnternetteki çocuk cinsel istismar materyalini nasıl saf dışı bırakırız
Speaker:
Julie Cordua
Description:

Sosyal girişimci Julie Cordua, hakkında konuşması kolay olmayan bir problem üzerinde çalışıyor: internetteki fotoğraf ve videolarda çocukların cinsel istismarı. Thorn'da teknoloji endüstrisi, kolluk kuvvetleri ve hükûmet arasındaki noktaları birbirine bağlayacak bir teknoloji inşa ediyor -- böylece istismar materyalinin yayılımını hızla bitirebilir ve çocukları daha hızlı kurtarabiliriz. Bu ölçeklenebilir çözümün, bugün dünyanın dört bir yanındaki çocuk cinsel istismarını normalleştiren toplulukların kaldırılmasına nasıl yardımcı olabileceği hakkında daha fazla bilgi edinin. (Bu iddialı plan, TED'in küresel değişime ilham verme ve finanse etme girişimi olan Audacious Projesi'nin bir parçasıdır.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Turkish subtitles

Revisions