چطور میتوانیم سوء استفاده جنسی از کودکان را از اینترنت پاک کنیم
-
0:01 - 0:03[این سخنرانی حاوی محتوی بزرگسالان است]
-
0:06 - 0:07پنج سال قبل،
-
0:07 - 0:11تماس تلفنی دریافت کردم که
زندگیام را تغییر داد. -
0:12 - 0:14آن روز به وضوح خاطرم مانده است.
-
0:15 - 0:17تقریبا همین وقت از سال بود،
-
0:17 - 0:19و من توی دفترم نشسته بودم.
-
0:20 - 0:23یادم است که آفتاب از پنجره میتابید.
-
0:24 - 0:25و تلفنم که زنگ خورد.
-
0:26 - 0:27تلفن را برداشتم،
-
0:28 - 0:32و دو مامور فدرال، از من کمک میخواستند
-
0:32 - 0:34برای شناسایی هویت دختر کوچولویی
-
0:34 - 0:40که در صدها تصویر سوءاستفاده جنسی از
کودکان در اینترنت پیدا کرده بودند. -
0:41 - 0:44تازه کار بر روی پرونده
را شروع کرده بودند، -
0:44 - 0:47اما آنچه میدانستند
-
0:47 - 0:51این بود که تصاویر سوءاستفاده
از او سالها بود که -
0:51 - 0:57در وب تاریک مختص سوءاستفاده
از کودکان پخش میشد. -
0:58 - 1:02و شخص سوءاستفاده کننده
به لحاظ فناوری بسیار پیشرفته بود: -
1:02 - 1:07هر چند هفته تصاویر و ویدئوهای جدید میآمد،
-
1:07 - 1:11اما سرنخهای اندکی وجود داشت
از این که دخترک کیست -
1:11 - 1:12یا کجاست.
-
1:13 - 1:15برای همین با ما تماس گرفتند،
-
1:15 - 1:17چون شنیده بودند ما یک سازمان
غیرانتفاعی جدید هستیم -
1:17 - 1:21که برای مبارزه با سوءاستفاده جنسی
از کودکان فناوری تولید میکنیم. -
1:22 - 1:24اما فقط دو سال قدمت داشتیم،
-
1:24 - 1:27و تنها روی قاچاق کودکان برای
سکس کار کرده بودیم. -
1:28 - 1:30باید به آنها میگفتم
-
1:30 - 1:31که هیچ چیزی نداشتیم.
-
1:32 - 1:36هیچ چیزی نداشتیم که در متوقف کردن
این سوءاستفاده کمکشان کند. -
1:37 - 1:41یک سال دیگر طول کشید تا ماموران
-
1:41 - 1:44بالاخره آن کودک را پیدا کنند.
-
1:45 - 1:47و تا وقتی که نجاتش دهند،
-
1:47 - 1:54صدها عکس و ویدیو از تجاوز به او
همه جا منتشر شده بود، -
1:54 - 1:55از وب تاریک گرفته
-
1:55 - 1:58تا شبکههای نظیر به نظیر،
اتاقهای گفتگوی خصوصی -
1:58 - 2:02و وبسایتهایی که شما و من هر روز
-
2:02 - 2:04استفاده می کنیم.
-
2:05 - 2:09و امروز، همزمان با تلاش برای بهبودی،
-
2:09 - 2:13با این واقعیت زندگی میکند
که هزاران نفر در دنیا -
2:13 - 2:16مشغول تماشای ویدیوهای
سوءاستفاده از او هستند. -
2:18 - 2:20در این پنج سال گذشته فهمیدهام که
-
2:20 - 2:23این یک مورد منحصر به فرد نیست.
-
2:24 - 2:28چطور به عنوان یک جامعه به اینجا رسیدیم؟
-
2:29 - 2:33در اواخر دهه ۱۹۸۰، پورنوگرافی کودکان--
-
2:33 - 2:39یا شکل درست آن یعنی
مطالب سوءاستفاده جنسی از کودکان-- -
2:39 - 2:40تقریبا نابود شد.
-
2:41 - 2:46قوانین جدید و تشدید پیگردهای قانونی
-
2:46 - 2:48تجارت آن از طریق پست را
بسیار پرمخاطره نمود. -
2:48 - 2:52و بعد اینترنت آمد و بازار منفجر شد.
-
2:53 - 2:57میزان محتوای در گردش امروزه
-
2:57 - 3:00عظیم و رو به افزایش است.
-
3:00 - 3:04این مشکل حقیقتا جهانی است،
-
3:04 - 3:06اما اگر فقط به ایالات متحده نگاه کنیم:
-
3:06 - 3:08در ایالات متحده به تنهایی سال قبل،
-
3:08 - 3:14بیش از ۴۵ میلیون تصویر و ویدئو از مطالب
سوء استفاده جنسی از کودکان -
3:14 - 3:17به مرکز ملی برای کودکان استثمار
شده و گمشده گزارش گردیده، -
3:17 - 3:22و چیزی حدود دو برابر سال قبل آن است.
-
3:23 - 3:28و تعمق درباره جزییات پشت این ارقام
دشوار است، -
3:28 - 3:34بیش از ۶۰ درصد تصاویر کودکان
کمتر از ۱۲ سال را نشان می دهد، -
3:34 - 3:38و اکثرشان نشاندهنده اعمال افراطی در
خشونت جنسی است. -
3:39 - 3:44عاملان این خشونت در اتاقهای گفتگوی مختص
سوءاستفاده از کودکان تشویق میشوند، -
3:44 - 3:47جایی که بر اساس شمار قربانیان و
سوءاستفاده بیشتر -
3:47 - 3:50رتبه و سوء شهرت کسب می کنند.
-
3:50 - 3:53در این بازار،
-
3:53 - 3:57ارز به خود محتوی تبدیل شده است.
-
3:58 - 4:02واضح است که بدکاران در استفاده
از فناوریهای جدید سریع عمل کردهاند، -
4:02 - 4:05اما پاسخ ما به عنوان جامعه اینطور نبوده.
-
4:06 - 4:10این خلافکاران توافقنامههای کاربری
وب سایتها را نمیخوانند -
4:10 - 4:14و محتوی ارزشی به مرزهای
جغرافیایی پایبند نیست. -
4:15 - 4:21و هر بار که ما یک تکه از پازل را
تماشا میکنیم، آنها برندهاند. -
4:21 - 4:25که دقیقا نحوه طراحی پاسخ امروز ماست.
-
4:25 - 4:28اجرای قانون در یک
حوزه استحفاظی کار میکند. -
4:28 - 4:32شرکت ها فقط به پایگاههای
خود نگاه میکنند. -
4:32 - 4:34و همه آن دادههایی که در طول راه میآموزند
-
4:35 - 4:37به ندرت به اشتراک گذارده میشود.
-
4:37 - 4:43همچنین روشن است که این رویکرد منفصل
جواب نمیدهد. -
4:44 - 4:48باید پاسخ خود به این اپیدمی را
-
4:48 - 4:49برای عصر دیجیتال بازطراحی کنیم.
-
4:50 - 4:53این همان کاریست که در Thorn
انجام میدهیم. -
4:53 - 4:57ما فناوری اتصال این نقاط را ایجاد میکنیم،
-
4:57 - 4:59تا افراد حاضر در خط مقدم را مسلح کند--
-
4:59 - 5:02پلیس، سازمان های غیرانتفاعی و شرکتها --
-
5:02 - 5:06به ابزار لازم برای حذف نهایی
-
5:06 - 5:08مطالب سوء استفاده جنسی از
کودکان در اینترنت. -
5:10 - 5:11بیایید لحظه ای درباره--
-
5:11 - 5:12(تشویق)
-
5:12 - 5:14متشکرم.
-
5:14 - 5:16(تشویق)
-
5:18 - 5:20بیایید کمی از این بگوییم
که آن نقاط چه هستند. -
5:21 - 5:25همانطور که می دانید این محتوی
هولناک است. -
5:25 - 5:28اگر مجبور نباشید بهتر است آن را نبینید.
-
5:28 - 5:33بنابراین اغلب شرکتها یا
سازمانهای اجرای قانون -
5:33 - 5:35که این محتوی را دارند
-
5:35 - 5:39می توانند تک تک فایلها را به
رشته ارقام منحصر به فردی ترجمه کنند. -
5:39 - 5:40که اصطلاحا «هش» نامیده میشود.
-
5:40 - 5:42در واقع مثل اثر انگشت
-
5:42 - 5:45برای هر فایل یا ویدیو است.
-
5:45 - 5:49این کار به آنها اجازه می دهد از
اطلاعات در تحقیقات استفاده کنند -
5:49 - 5:52یا شرکت ها بتوانند آن محتوی را
از پایگاه خود حذف کنند، -
5:52 - 5:58بدون این که مجبور شوند هر بار
آن تصویر یا ویدئو را ببینند. -
5:58 - 6:00هرچند مشکل امروز
-
6:00 - 6:04وجود صدها میلیون از این هشها است
-
6:04 - 6:08که در پایگاههای داده
در سرتاسر دنیا انبار شده. -
6:08 - 6:09در یک سیلو،
-
6:09 - 6:12شاید برای نهادی که
رویش کنترل دارد موثر عمل کند، -
6:12 - 6:17اما وصل نکردن داده ها به این معناست
که نمیدانیم چه تعدادی منحصربفرد هستند. -
6:17 - 6:20نمیدانیم کدام یک نماینده کودکانی
است که نجات پیدا کرده اند -
6:20 - 6:23یا هنوز شناسایی نشدهاند.
-
6:23 - 6:27بنابراین پیش فرض اولیه ما این است که
تمامی این دادهها -
6:27 - 6:30باید به هم متصل باشند.
-
6:30 - 6:36به دو روش این داده ها در ترکیب
با نرم افزار در مقیاس جهانی، -
6:37 - 6:40می تواند تاثیر آگاهی بخش
در این فضا ایجاد کند. -
6:40 - 6:43اول با اجرای قانون:
-
6:43 - 6:47با کمک کردن به شناسایی
سریعتر قربانیان، -
6:47 - 6:48متوقف کردن سوء استفاده
-
6:48 - 6:51و متوقف کردن کسانی که این محتوی را
تولید میکنند. -
6:51 - 6:54دوم با شرکتهاست:
-
6:54 - 6:58با استفاده از آن بعنوان سرنخهایی برای
شناسایی صها میلیون فایلی که -
6:58 - 6:59امروزه در گردش هستند،
-
6:59 - 7:01پایین کشیدنشان
-
7:01 - 7:07و متوقف کردن بارگیری مطالب جدید
قبل از این که پربازدید شوند. -
7:10 - 7:11چهار سال پیش،
-
7:11 - 7:13وقتی پرونده بسته شد،
-
7:14 - 7:18تیم ما آنجا نشست،
و این حس را داشتیم که... -
7:20 - 7:23حس عمیق شکست، تنها چیزی که
میتوانم بیان کنم، -
7:23 - 7:27زیرا تمام آن سال را وقتی دنبالش میگشتند
-
7:27 - 7:28تماشاگر ماجرا بودیم.
-
7:28 - 7:32و ما در جای جای تحقیقات متوجه شدیم
-
7:32 - 7:34اگر فناوری لازم وجود داشت،
-
7:34 - 7:37او را سریعتر پیدا میکردند.
-
7:38 - 7:40بنابراین آنجا را ترک کردیم
-
7:40 - 7:43و برگشتیم سر تنها کاری که
بلد بودیم انجامش دهیم: -
7:43 - 7:45شروع به ساخت نرم افزار کردیم.
-
7:46 - 7:48بنابراین با اجرای قانون دست به کار شدیم.
-
7:48 - 7:52رویای ما زنگ هشداری بود روی میز کار
افسران در سرتاسر دنیا -
7:52 - 7:57تا به محضی که شخصی جرات پست کردن
قربانی جدیدی را بر اینترنت پیدا کرد -
7:57 - 8:00فردی فورا دست به کار پیدا کردن او شود.
-
8:01 - 8:04مشخصا نمی توانم درباره جزییات آن
نرم افزار صحبت کنم، -
8:04 - 8:07اما امروزه در ۳۸ کشور در حال اجرا است،
-
8:07 - 8:10زمانی که برای رسیدن به یک کودک
صرف می شود را تا -
8:10 - 8:12۳۸٪کاهش داده است.
-
8:12 - 8:17(تشویق)
-
8:21 - 8:24و حال ما آن افق دوم را شروع کرده ایم:
-
8:24 - 8:30ساختن نرم افزاری که به شرکتها کمک کند
این محتوی را شناسایی و حذف نمایند. -
8:31 - 8:34بیایید یک لحظه درباره این شرکتها
حرف بزنیم. -
8:34 - 8:40خب برایتان گفتم که ۴۵ میلیون تصویر و
ویدئو تنها در آمریکا سال گذشته داشتیم. -
8:40 - 8:44اینها حاصل کار تنها ۱۲ شرکت است.
-
8:46 - 8:52دوازده شرکت، ۴۵ میلیون پرونده از مطالب
سوء استفاده جنسی از کودکان. -
8:52 - 8:55اینها از شرکتهای میآیند که پول دارند برای
-
8:55 - 9:00ساخت زیرساختاری که این
محتوی را پایین بکشد. -
9:00 - 9:02اما صدها شرکت دیگر هست،
-
9:02 - 9:05شرکتها کوچک و متوسط در کل دنیا،
-
9:05 - 9:07که برای انجام این کار لازمند،
-
9:07 - 9:12اما آنها یا: ۱) نمی توانند تصور کنند که
از پایگاه آنها سوء استفاده می شود، -
9:12 - 9:18یا ۲) پولی ندارند که صرف چیزی کنند
که برایشان عایدی ندارد. -
9:19 - 9:22بنابراین برای آنها پیش قدم شدیم
و آن را برایشان ساختیم، -
9:22 - 9:27و این سیستم با شرکتهای هر چه بیشتری
که مشارکت میکنند هوشمندتر میشود. -
9:28 - 9:30بگذارید مثالی بزنم.
-
9:30 - 9:34اولین شریک ما، ایمگور--
اگر اسم این کمپانی را نشنیدید، -
9:34 - 9:38یکی از پربازدیدترین وب سایتها در
ایالات متحده-- -
9:38 - 9:43میلیونها تکه از محتویات تولید شده از
سوی کاربر که روزانه بارگیری می شوند، -
9:43 - 9:45در راستای ماموریتی در جهت تبدیل کردن
اینترنت به مکانی بامزه. -
9:46 - 9:48نخست با ما شریک شدند.
-
9:48 - 9:51ظرف ۲۰ دقیقه از پخش زنده در سیستم ما،
-
9:51 - 9:55یکی سعی کرد تکه معروفی با
موضوع سوء استفاده را بارگیری کند. -
9:55 - 9:57متوقفش کردند،
آن را پایین آوردند، -
9:57 - 10:00به مرکز ملی کودکان استثمار شده و گمشده
گزارش دادند. -
10:00 - 10:02حتی یک قدم هم فراتر رفتند
-
10:02 - 10:07سراغ حساب آن شخص رفته و آن را
وارسی کردند. -
10:07 - 10:12صدها تکه دیگر از مطالب
سوء استفاده جنسی از کودکان -
10:12 - 10:14که تا به حال ندیده بودند.
-
10:14 - 10:18و اینجاست که شروع کردیم به دیدن
تاثیر نمایی آن. -
10:18 - 10:19آن مطلب را پایین میاوریم،
-
10:20 - 10:23به مرکز ملی کودکان استثمار شده و گمشده
گزارش می شود -
10:23 - 10:26و بعد آن هشها به داخل سیستم
برمیگردند -
10:26 - 10:28به دیگر شرکتهای درگیر آن نفع میرسانند.
-
10:28 - 10:33و وقتی میلیونها هش که داریم منتهی به
میلیونها هش بیشتر در زمان واقعی میگردد، -
10:33 - 10:37شرکتها در همه جای دنیا به شناسایی و حذف
این محتوی می پردازند، -
10:37 - 10:42ما شدیدا سرعت حذف مطالب سوء استفاده جنسی
کودکان را از -
10:42 - 10:46اینترنت در کل دنیا افزایش خواهیم داد.
-
10:46 - 10:52(تشویق)
-
10:54 - 10:57اما برای همین نمی تواند فقط درباره
نرم افزار و داده باشد، -
10:57 - 10:59درباره مقیاس باید باشد.
-
10:59 - 11:03باید هزاران افسر، صدها شرکت را
-
11:03 - 11:05در سرتاسر دنیا فعال کنیم
-
11:05 - 11:09اگر فناوری به ما اجازه دهد
از بدکاران پیشی بگیریم -
11:09 - 11:13و جوامعی که سوء استفاده جنسی از کودکان را
در سراسر دنیا عادی -
11:13 - 11:15جلوه می دهند خراب کنیم.
-
11:15 - 11:18و الان زمان این کار است.
-
11:18 - 11:24دیگر نمیگوییم از تاثیر آن
بر کودکانمان بیخبریم. -
11:25 - 11:29نخستین نسل از کودکانی که سوء
استفاده از آنها در اینترنت پربیننده بوده -
11:29 - 11:31حالا بزرگسالانی جوان هستند.
-
11:31 - 11:34مرکز کانادایی محافظت از کودکان
-
11:34 - 11:37اخیرا مطالعه ای انجام داده بر روی
این بزرگسالان کم سن -
11:37 - 11:41برای درک این شوک روانی خاصی
که آنها سعی در بهبودی از آن دارند، -
11:41 - 11:44با دانستن این امر که این سوء رفتار
با آنها زندگی میکند. -
11:45 - 11:50۸۰ درصد این بزرگسالان جوان
به خودکشی فکر کردهاند. -
11:51 - 11:55بیش از ۶۰ درصد اقدام
به خودکشی کردهاند. -
11:56 - 12:01و اغلب آنها هر روز با این ترس
زندگی میکنند که -
12:01 - 12:05یک روز که توی خیابان راه می روند یا
جایی مصاحبه شغلی دارند -
12:05 - 12:08یا به مدرسه بروند
-
12:08 - 12:10یا کسی را آنلاین ملاقات کنند
-
12:10 - 12:14که آن شخص سوء استفاده کردن از آنها
را دیده باشد. -
12:15 - 12:19و این موضوع درباره ۳۰ درصد
آنها حقیقت داشته. -
12:20 - 12:25بخاطر موضوع سوء استفاده آنلاین
شناسایی شدهاند. -
12:26 - 12:29قرار نیست آسان باشد،
-
12:29 - 12:32اما غیرممکن نیست.
-
12:32 - 12:35حال قرار است دربرگیرنده ارادهای باشد،
-
12:35 - 12:36اراده جامعه ما
-
12:37 - 12:40برای نگاه کردن به چیزی که
نگاه کردن به آن واقعا دشوار است، -
12:40 - 12:42برای بیرون آوردن چیزی از تاریکی
-
12:42 - 12:45بنابراین این بچهها صدایی دارند؛
-
12:46 - 12:51اراده شرکتها جهت دست به کار شدن
و مطمئن شدن از این که فضای عملیاتی آنها -
12:51 - 12:54در سوء استفاده از یک کودک همدست نیست؛
-
12:55 - 12:59اراده دولتها به داشتن
ابزلری که در اجرای قانون -
12:59 - 13:04جهت تحقیقات درباره
یک جنایت درجه اول دیجیتال نیاز دارند، -
13:04 - 13:08حتی وقتی که قربانیان قادر به حرف زدن
از جانب خود نباشند. -
13:10 - 13:13این تعهد جسورانه بخشی از آن اراده است.
-
13:14 - 13:20این اعلان جنگ علیه یکی از
اهریمنی ترین زوایای بشریت است. -
13:20 - 13:22اما چیزی که من دنبالش هستم
-
13:22 - 13:26در واقع سرمایه گذاری در آیندهای است که
-
13:26 - 13:29آنجا هر بچهای بتواند به سادگی کودکی کند.
-
13:29 - 13:31متشکرم.
-
13:31 - 13:37(تشویق)
- Title:
- چطور میتوانیم سوء استفاده جنسی از کودکان را از اینترنت پاک کنیم
- Speaker:
- جولی کوردوا
- Description:
-
جولی کوردوا کارآفرین اجتماعی روی مشکلی کار میکند که صحبت کردن درباره آن راحت نیست: سوء استفاده جنسی از کودکان در تصویرها و ویدئوها در اینترنت. در Thorn، او فناوری را میسازد که وصل کننده نقاط بین صنعت فناوری، پلیس و دولت است-- تا زود بتوانیم به توزیع پرشتاب مطالب سوء استفاده خاتمه دهیم و نجات کودکان را سریعتر کنیم. بیشتر درباره چگونگی این راهحل مقیاسپذیر بیاموزید که میتواند به نابودی جوامعی که سعی در عادی سازی سوء استفاده جنسی از کودکان امروزه در سراسر دنیا دارند کمک کند. ( این طرح جاهطلبانه بخشی از [پروژه جسورانه] Audacious Project, اقدام ابتکاری TED برای الهامبخشی و کمک مالی جهت تغییرات جهانی است.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
Leila Ataei edited Persian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Leila Ataei approved Persian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Behdad Khazaeli accepted Persian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Behdad Khazaeli edited Persian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Behdad Khazaeli edited Persian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Behdad Khazaeli edited Persian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Leila Ataei approved Persian subtitles for How we can eliminate child sexual abuse material from the internet | ||
Leila Ataei edited Persian subtitles for How we can eliminate child sexual abuse material from the internet |