İnternetteki çocuk cinsel istismar materyalini nasıl saf dışı bırakırız
-
0:01 - 0:03[Bu konuşma yetişkin içeriklidir]
-
0:06 - 0:07Beş yıl önce,
-
0:07 - 0:11hayatımı değiştiren bir telefon aldım.
-
0:12 - 0:14O günü çok berrak hatırlıyorum.
-
0:15 - 0:17Yılın bu zamanlarıydı
-
0:17 - 0:19ve ofisimde oturuyordum.
-
0:20 - 0:23Güneşin pencerenin içinden
geçtiğini hatırlıyorum. -
0:24 - 0:25Telefonum çaldı,
-
0:26 - 0:27cevapladım.
-
0:28 - 0:32İki federal ajan yardımımı istiyordu.
-
0:32 - 0:36İnternette buldukları, yüzlerce çocuğun
cinsel istismar fotoğrafları içindeki -
0:36 - 0:40küçük bir kızı teşhis etmeliydim.
-
0:41 - 0:44Dava üzerinde çalışmaya
yeni başlamışlardı. -
0:44 - 0:47Fakat biliyorlardı ki
-
0:47 - 0:51kızın istismarı, çocukların
cinsel istismarına adanmış -
0:51 - 0:57karanlık ağ sitelerinde
yıllarca yayınlanmıştı. -
0:58 - 1:02İstismarcısı teknolojik olarak
oldukça sofistikeydi: -
1:02 - 1:07Her birkaç haftada
yeni fotoğraf ve videolar vardı -
1:07 - 1:10ama kızın kim olduğu
-
1:10 - 1:12ya da nerede olduğuna dair çok az ipucu.
-
1:13 - 1:15Böylece bizi aradılar.
-
1:15 - 1:17Çocuk istismarıyla savaşmaya adanmış,
-
1:17 - 1:21kâr amacı gütmeyen bir teknoloji
geliştirdiğimizi duymuşlardı. -
1:22 - 1:24Oysa biz henüz ikinci yılımızdaydık
-
1:24 - 1:27ve sadece çocuk seks ticareti
üzerine çalışmıştık. -
1:28 - 1:30Onlara, hiçbir şeyimiz olmadığını
-
1:30 - 1:31söylemek zorunda kaldım.
-
1:32 - 1:36Bu istismarı durdurmaya yarayacak
hiçbir şeyimiz yoktu. -
1:37 - 1:41Bu ajanların, sonunda çocuğu bulmaları
-
1:41 - 1:44bir yıl sürdü.
-
1:45 - 1:47Kurtarıldığı sırada,
-
1:47 - 1:54tecavüzünü içeren
yüzlerce fotoğraf ve video yayılmıştı. -
1:54 - 1:55Karanlık ağ,
-
1:55 - 1:58bağlantılı internet ağı,
özel sohbet odaları, -
1:58 - 2:02ayrıca sizin ve benim
her gün kullandığımız -
2:02 - 2:04internet sitelerinde.
-
2:05 - 2:09Şu anda tedavisi için mücadele ederken
-
2:09 - 2:13dünyadaki binlerce insanın,
-
2:13 - 2:16istismarını izlemeye devam ettiği
gerçeğiyle yaşıyor. -
2:18 - 2:20Son beş yılda öğrendim ki
-
2:20 - 2:23bu dava benzersiz olmaktan çok çok uzakta.
-
2:24 - 2:28Toplum olarak bu noktaya nasıl geldik?
-
2:29 - 2:331980'lerin sonunda, çocuk pornografisi --
-
2:33 - 2:39ki bu aslında çocuk
cinsel istismarı materyali -- -
2:39 - 2:40neredeyse ortadan kaldırıldı.
-
2:41 - 2:44Yeni kanunlar ve artan takipler
-
2:44 - 2:47posta yoluyla takasını
fazlasıyla tehlikeli yaptı. -
2:48 - 2:52Sonra internet geldi ve piyasa patladı.
-
2:53 - 2:57Günümüzde, dolaşımdaki içerik miktarı
-
2:57 - 3:00oldukça büyük ve büyümeye devam ediyor.
-
3:00 - 3:04Bu gerçekten de evrensel bir problem.
-
3:04 - 3:06Ama sadece ABD'ye bakacak olursak
-
3:06 - 3:08geçen yıl sadece ABD'de
-
3:08 - 3:14çocuk cinsel istismarına dayalı
45 milyondan fazla fotoğraf ve video -
3:14 - 3:17Kayıp ve İstismara Uğramış Çocuklar
Ulusal Merkezi'ne ihbar edildi. -
3:17 - 3:22Bu, önceki yıldakinin neredeyse iki katı.
-
3:23 - 3:28Bu sayıların ardındaki detayların
düşünülmesi çok zor. -
3:28 - 3:34Fotoğrafların yüzde altmışından
fazlasında 12 yaşından küçük çocuklar var. -
3:34 - 3:38Ayrıca birçoğu cinsel istismarın
oldukça şiddetli eylemlerini içeriyor. -
3:39 - 3:44Çocuk istismarına adanan
sohbet odalarında -
3:44 - 3:47istismarcılar daha fazla
istismar ve kurbanla, -
3:47 - 3:50rütbe ve şöhret kazandılar.
-
3:50 - 3:53Bu piyasada
-
3:53 - 3:57para, içeriğin kendisi hâline geldi.
-
3:58 - 4:02İstismarcıların yeni teknolojilerden
faydalanmakta hızlı olduğu apaçık. -
4:02 - 4:05Oysa bir toplum olarak
bizim cevabımız hızlı değil. -
4:06 - 4:10İstismarcılar internet sitelerindeki
kullanıcı sözleşmelerini okumuyor -
4:10 - 4:14ve içerik coğrafi sınırları umursamıyor.
-
4:15 - 4:21Yapbozun sadece bir parçasına
baktığımızda kazanıyorlar. -
4:21 - 4:25Ki bu, günümüzdeki cevabımızın
tam olarak nasıl olduğu. -
4:25 - 4:28Kolluk kuvvetleri tek yönde çalışıyor.
-
4:28 - 4:32Şirketler sadece kendi
platformuna bakıyor. -
4:32 - 4:34Ve bu yolda öğrendikleri veri
-
4:35 - 4:37çok nadiren paylaşılıyor.
-
4:37 - 4:43Bu kopuk yaklaşımın
işe yaramadığı apaçık ortada. -
4:44 - 4:48Bu dijital çağ salgınına
olan yaklaşımımızı -
4:48 - 4:49yeniden yapılandırmalıyız.
-
4:50 - 4:53İşte bu, Thorn'da
tam olarak yaptığımız şey. -
4:53 - 4:57Bu noktaları bağlayacak bir
teknoloji geliştiriyoruz. -
4:57 - 5:02Ön sahadaki herkesi -- kolluk kuvvetleri,
sivil toplum örgütleri ve şirketler -- -
5:02 - 5:06internetteki çocuk istismarı materyalini
sonunda eleyebilecek -
5:06 - 5:08araçlarla donatacak bir teknoloji.
-
5:10 - 5:11Bir dakikalığına konuşalım --
-
5:11 - 5:12(Alkışlar)
-
5:12 - 5:14Teşekkür ederim.
-
5:14 - 5:16(Alkışlar)
-
5:18 - 5:21Bu noktaların ne olduğu hakkında
bir dakika konuşalım. -
5:21 - 5:25Tahmin edebileceğiniz gibi
içerik çok korkunç. -
5:25 - 5:28Bakmak zorunda olmadıkça
bakmak istemezsiniz. -
5:28 - 5:33Bu yüzden birçok şirket
veya kolluk kuvvetinin -
5:33 - 5:35kullandığı bir yöntem var.
-
5:35 - 5:39Her bir dosyayı, benzersiz
sayı dizilerine çeviriyorlar. -
5:39 - 5:40Buna "hash" deniliyor.
-
5:40 - 5:45Bu esasen her dosya
ve video için parmak izi. -
5:45 - 5:49Bulunan bilgiyi soruşturmalarda kullanmada
-
5:49 - 5:52ya da platformlarından bu içeriği
kaldırmak isteyen bir şirketin -
5:52 - 5:58her bir fotoğraf ve videoya bakmaya
mecbur kalmamasına yarıyor. -
5:58 - 6:00Bugünkü problem ise
-
6:00 - 6:04dünyadaki silo veri tabanlarında bekleyen
-
6:04 - 6:08yüz milyonlarca hash olması.
-
6:08 - 6:09Silo,
-
6:09 - 6:14kontrol sahibi bir ajansta işe yarayabilir
ama bu verileri bağlamamak -
6:14 - 6:17ne kadarının benzersiz olduğunu
bilmediğimiz anlamına gelir. -
6:17 - 6:20Bilmediğimiz şey, hangilerinin kurtarılmış
-
6:20 - 6:23hangilerinin hâlâ tespit edilmesi gereken
çocukları temsil ettiği. -
6:23 - 6:27Önceliğimiz, en temel dayanağımız,
-
6:27 - 6:30bu verilerin bağlanması.
-
6:30 - 6:36Küresel ölçekteki bir yazılımla
birleştirilen bu verinin, -
6:37 - 6:40bu alanda dönüştürücü etki
sağlayabileceği iki yolu vardır. -
6:40 - 6:43İlk olarak kolluk kuvvetlerinin
-
6:43 - 6:48yeni kurbanları daha hızlı
teşhis etmelerine, istismarı durdurmaya -
6:48 - 6:51ve bu içeriğin üretilmesine
son vermeye yardım ediyoruz. -
6:51 - 6:54İkincisi, şirketler
-
6:54 - 6:59bugün dolaşımdaki yüzlerce milyon dosyayı
teşhis etmede ipucu olarak kullanabilir, -
6:59 - 7:01bunları kaldırabilir
-
7:01 - 7:07ve yeni materyale yayılma fırsatı
tanımadan yüklenmesini durdurabilir. -
7:10 - 7:11Dört yıl önce,
-
7:11 - 7:13dava sona erdiğinde
-
7:14 - 7:18takımımız oturdu ve biz sadece...
-
7:20 - 7:23başarısız olduğumuzu hissettik,
böyle söyleyebilirim. -
7:23 - 7:27Onlar bütün yıl onu ararken
-
7:27 - 7:28biz sadece izlemiştik.
-
7:28 - 7:32Soruşturmadaki her yeri görmüştük.
-
7:32 - 7:34Eğer o zaman bu teknoloji olsaydı
-
7:34 - 7:37onu çok daha hızlı bulabilirlerdi.
-
7:38 - 7:40Bundan uzaklaştık
-
7:40 - 7:43ve nasıl yapıldığını bildiğimiz
tek şeye yöneldik: -
7:43 - 7:45Yazılıma başladık.
-
7:46 - 7:48Kolluk kuvvetleriyle başladık.
-
7:48 - 7:52Dünyadaki her görevlinin masasına
alarm kurmak hayalimizdi. -
7:52 - 7:57Böylece biri internette yeni bir kurban
paylaşmaya yeltendiğinde -
7:57 - 8:00birileri paylaşanı anında
aramaya başlayacaktı. -
8:01 - 8:04Yazılımın ayrıntıları hakkında
elbette konuşamam. -
8:04 - 8:07Ama bugün 38 ülkede çalışmakta
-
8:07 - 8:10ve bir çocuğa ulaşma süresini
-
8:10 - 8:12yüzde altmış beşten daha fazla
azaltmış durumda. -
8:12 - 8:21(Alkışlar)
-
8:21 - 8:24Şimdi ikinci ufka yöneliyoruz:
-
8:24 - 8:30içeriği belirleme ve kaldırmada şirketlere
yardımcı olacak yazılımı yazmak. -
8:31 - 8:34Bir dakikalığına
bu şirketlerden bahsedelim. -
8:34 - 8:40Söylediğimiz gibi -- geçen yıl sadece
ABD'de 45 milyon fotoğraf ve video. -
8:40 - 8:44Bunlar sadece on iki şirketten geldi.
-
8:46 - 8:52On iki şirket, çocuk istismarına
dair 45 milyon dosya. -
8:52 - 9:00Bunlar, içeriği kaldırmak için altyapı
kuracak paraya sahip şirketlerden geldi. -
9:00 - 9:07Oysa dünya üzerinde, küçük ve orta ölçekli
yüzlerce şirketin de bunu yapması gerek. -
9:07 - 9:12Ama ya platformlarının istismar için
kullanılabileceği akıllarına gelmiyor -
9:12 - 9:18ya da geliri arttırmayacak bir şeye
harcayacak paraları yok. -
9:19 - 9:22Böylece biz de onların yerine
altyapı kurduk. -
9:22 - 9:27Katılan her yeni şirketle birlikte
sistem akıllanıyor. -
9:28 - 9:30Bir örnekle açıklamama izin verin.
-
9:30 - 9:34İlk ortağımız, Imgur --
eğer duymadıysanız -
9:34 - 9:38ABD'de en çok ziyaret edilen
sitelerden biri -- -
9:38 - 9:42kullanıcılar tarafından her gün yüklenen
milyonlarca içerikle -
9:42 - 9:45interneti daha eğlenceli bir yer hâline
getirmeyi hedefliyor. -
9:46 - 9:48Önce bizimle partner oldular.
-
9:48 - 9:51Sistemimizi etkinleştirdikten
yirmi dakika sonra -
9:51 - 9:55birileri istismar materyali
yüklemeye çalıştı. -
9:55 - 9:57Bunu durdurmayı, içeriği kaldırmayı,
-
9:57 - 10:00Kayıp ve İstismara Uğramış Çocuklar
Ulusal Merkezi'ne bildirmeyi başardılar. -
10:00 - 10:02Bir adım daha ilerlediler
-
10:02 - 10:06ve içeriği yükleyen kullanıcının
hesabını tespit ettiler. -
10:07 - 10:14Çocuk cinsel istismarına dair
önceden görmediğimiz yüzlerce parça daha. -
10:14 - 10:18İşte burada üssel etkiyi görmeye başladık.
-
10:18 - 10:19O materyali kaldırırız,
-
10:20 - 10:23Kayıp ve İstismara Uğramış Çocuklar
Ulusal Merkezi'ne bildirilir, -
10:23 - 10:26sonra bu hash'ler sisteme geri döner
-
10:26 - 10:28ve diğer tüm şirketlere yarar sağlar.
-
10:28 - 10:33Elimizdeki bu milyonlarca hash, bizi
milyonlarca başka hash'e yönlendirdiğinde -
10:33 - 10:37aynı zamanda tüm dünyadaki şirketler
bu içeriği belirleyip kaldırdığında -
10:37 - 10:41çocuk cinsel istismar materyalini
-
10:41 - 10:46dünya çapında internetten kaldırma
hızımızı çarpıcı biçimde arttıracağız. -
10:46 - 10:53(Alkışlar)
-
10:54 - 10:57İşte bu yüzden, sadece
yazılım ve veriyle ilgili değil, -
10:57 - 10:59ölçekle ilgili olmalı.
-
10:59 - 11:05Binlerce görevliyi, dünyadaki
yüzlerce şirketi aktifleştirmeliyiz, -
11:05 - 11:09eğer teknoloji, bugün dünya çapında
saldırganların önüne geçmemize -
11:09 - 11:15ve çocuk cinsel istismarını normalleştiren
toplulukları kaldırmamıza izin verirse. -
11:15 - 11:18İşte bunu yapmanın zamanı geldi.
-
11:18 - 11:24Bunun, çocuklarımız üzerindeki etkisini
bilmediğimizi daha fazla ileri süremeyiz. -
11:25 - 11:29İstismarı internette yayılan
ilk nesil büyüdü -
11:29 - 11:31ve genç yetişkinler hâline geldi.
-
11:31 - 11:34Kanada Çocuk Koruma Merkezi,
-
11:34 - 11:37bu genç yetişkinler hakkında
araştırma yaptı. -
11:37 - 11:41İstismarlarının devam ettiğini
bilerek atlatmaya çalıştıkları -
11:41 - 11:44bu benzersiz travmayı
anlamayı hedeflediler. -
11:45 - 11:50Bu genç yetişkinlerin yüzde sekseni
intiharı düşünmüş. -
11:51 - 11:55Yüzde altmıştan fazlası
intihara yeltenmiş. -
11:56 - 12:01Ve birçoğu her gün
aynı korkuyu yaşıyormuş: -
12:01 - 12:05sokakta yürürken, iş görüşmesinde,
-
12:05 - 12:08okula giderken
-
12:08 - 12:10ya da internette biriyle tanıştıklarında
-
12:10 - 12:14bu kişinin, istismarını
gördüğü korkusu. -
12:15 - 12:19Yüzde otuzundan fazlasında
bu korku gerçeğe dönüşmüş. -
12:20 - 12:25İnternetteki istismar materyalleri
yüzünden tanınmışlar. -
12:26 - 12:29Kolay olmayacak
-
12:29 - 12:32ama imkânsız da değil.
-
12:32 - 12:35Bunu başarmak için
istekli olmamız gerekiyor. -
12:35 - 12:36Toplumumuzun iradesine,
-
12:37 - 12:40bakması çok zor olan
bir şeye bakma isteğine, -
12:40 - 12:43karanlıktan bir şey çıkarma
isteğine ihtiyacımız var ki -
12:43 - 12:45bu çocuklar söz sahibi olabilsinler.
-
12:46 - 12:49Şirketlerin harekete geçmesine
-
12:49 - 12:54ve platformlarının, çocuk istismarında
suç ortağı olmadığına emin olmasına -
12:55 - 12:59ve kurbanlar kendi adlarına
konuşamadıklarında bile -
12:59 - 13:04dijital suçu araştırmada
ihtiyaç duydukları ekipmanlar için -
13:04 - 13:08hükûmetlerin, kolluk kuvvetlerine
yetki vermesine ihtiyacımız var. -
13:10 - 13:13Bu cesur bağlılık, iradenin bir parçası.
-
13:14 - 13:20İnsanlığın en büyük düşmanlarından birine
karşı açılan bir savaşın bildirgesi. -
13:20 - 13:22Ama asıl tutunduğum,
-
13:22 - 13:26bu aslında geleceğe dair bir yatırım,
-
13:26 - 13:29her çocuğun sadece çocuk
olduğu bir gelecek. -
13:29 - 13:31Teşekkür ederim.
-
13:31 - 13:37(Alkışlar)
- Title:
- İnternetteki çocuk cinsel istismar materyalini nasıl saf dışı bırakırız
- Speaker:
- Julie Cordua
- Description:
-
Sosyal girişimci Julie Cordua, hakkında konuşması kolay olmayan bir problem üzerinde çalışıyor: internetteki fotoğraf ve videolarda çocukların cinsel istismarı. Thorn'da teknoloji endüstrisi, kolluk kuvvetleri ve hükûmet arasındaki noktaları birbirine bağlayacak bir teknoloji inşa ediyor -- böylece istismar materyalinin yayılımını hızla bitirebilir ve çocukları daha hızlı kurtarabiliriz. Bu ölçeklenebilir çözümün, bugün dünyanın dört bir yanındaki çocuk cinsel istismarını normalleştiren toplulukların kaldırılmasına nasıl yardımcı olabileceği hakkında daha fazla bilgi edinin. (Bu iddialı plan, TED'in küresel değişime ilham verme ve finanse etme girişimi olan Audacious Projesi'nin bir parçasıdır.)
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Cihan Ekmekçi approved Turkish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Cihan Ekmekçi edited Turkish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Nevaz Mescioğlu accepted Turkish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Nevaz Mescioğlu edited Turkish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Ezgisu Karakaya edited Turkish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Ezgisu Karakaya edited Turkish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Ezgisu Karakaya edited Turkish subtitles for How we can eliminate child sexual abuse material from the internet | ||
Ezgisu Karakaya edited Turkish subtitles for How we can eliminate child sexual abuse material from the internet |