Return to Video

چطور می‌توانیم سوء استفاده جنسی از کودکان را از اینترنت پاک کنیم

  • 0:01 - 0:03
    [این سخنرانی حاوی محتوی بزرگسالان است]
  • 0:06 - 0:07
    پنج سال قبل،
  • 0:07 - 0:11
    تماس تلفنی دریافت کردم که
    زندگی‌ام را تغییر داد.
  • 0:12 - 0:14
    آن روز به وضوح خاطرم مانده است.
  • 0:15 - 0:17
    تقریبا همین وقت از سال بود،
  • 0:17 - 0:19
    و من توی دفترم نشسته بودم.
  • 0:20 - 0:23
    یادم است که آفتاب از پنجره می‌تابید.
  • 0:24 - 0:25
    و تلفنم که زنگ خورد.
  • 0:26 - 0:27
    تلفن را برداشتم،
  • 0:28 - 0:32
    و دو مامور فدرال، از من کمک می‌خواستند
  • 0:32 - 0:34
    برای شناسایی هویت دختر کوچولویی
  • 0:34 - 0:40
    که در صدها تصویر سوءاستفاده جنسی از
    کودکان در اینترنت پیدا کرده بودند.
  • 0:41 - 0:44
    تازه کار بر روی پرونده
    را شروع کرده بودند،
  • 0:44 - 0:47
    اما آنچه می‌دانستند
  • 0:47 - 0:51
    این بود که تصاویر سوءاستفاده
    از او سالها بود که
  • 0:51 - 0:57
    در وب تاریک مختص سوءاستفاده
    از کودکان پخش می‌شد.
  • 0:58 - 1:02
    و شخص سوءاستفاده کننده
    به لحاظ فناوری بسیار پیشرفته بود:
  • 1:02 - 1:07
    هر چند هفته تصاویر و ویدئوهای جدید می‌آمد،
  • 1:07 - 1:11
    اما سرنخهای اندکی وجود داشت
    از این که دخترک کیست
  • 1:11 - 1:12
    یا کجاست.
  • 1:13 - 1:15
    برای همین با ما تماس گرفتند،
  • 1:15 - 1:17
    چون شنیده بودند ما یک سازمان
    غیرانتفاعی جدید هستیم
  • 1:17 - 1:21
    که برای مبارزه با سوءاستفاده جنسی
    از کودکان فناوری تولید می‌کنیم.
  • 1:22 - 1:24
    اما فقط دو سال قدمت داشتیم،
  • 1:24 - 1:27
    و تنها روی قاچاق کودکان برای
    سکس کار کرده بودیم.
  • 1:28 - 1:30
    باید به آنها می‌گفتم
  • 1:30 - 1:31
    که هیچ چیزی نداشتیم.
  • 1:32 - 1:36
    هیچ چیزی نداشتیم که در متوقف کردن
    این سوءاستفاده کمکشان کند.
  • 1:37 - 1:41
    یک سال دیگر طول کشید تا ماموران
  • 1:41 - 1:44
    بالاخره آن کودک را پیدا کنند.
  • 1:45 - 1:47
    و تا وقتی که نجاتش دهند،
  • 1:47 - 1:54
    صدها عکس و ویدیو از تجاوز به او
    همه جا منتشر شده بود،
  • 1:54 - 1:55
    از وب تاریک گرفته
  • 1:55 - 1:58
    تا شبکه‌های نظیر به نظیر،
    اتاقهای گفتگوی خصوصی
  • 1:58 - 2:02
    و وبسایت‌هایی که شما و من هر روز
  • 2:02 - 2:04
    استفاده‌ می کنیم.
  • 2:05 - 2:09
    و امروز، همزمان با تلاش برای بهبودی،
  • 2:09 - 2:13
    با این واقعیت زندگی می‌کند
    که هزاران نفر در دنیا
  • 2:13 - 2:16
    مشغول تماشای ویدیوهای
    سوءاستفاده از او هستند.
  • 2:18 - 2:20
    در این پنج سال گذشته فهمیده‌ام که
  • 2:20 - 2:23
    این یک مورد منحصر به فرد نیست.
  • 2:24 - 2:28
    چطور به عنوان یک جامعه به اینجا رسیدیم؟
  • 2:29 - 2:33
    در اواخر دهه ۱۹۸۰، پورنوگرافی کودکان--
  • 2:33 - 2:39
    یا شکل درست آن یعنی
    مطالب سوءاستفاده جنسی از کودکان--
  • 2:39 - 2:40
    تقریبا نابود شد.
  • 2:41 - 2:46
    قوانین جدید و تشدید پیگردهای قانونی
  • 2:46 - 2:48
    تجارت آن از طریق پست را
    بسیار پرمخاطره نمود.
  • 2:48 - 2:52
    و بعد اینترنت آمد و بازار منفجر شد.
  • 2:53 - 2:57
    میزان محتوای در گردش امروزه
  • 2:57 - 3:00
    عظیم و رو به افزایش است.
  • 3:00 - 3:04
    این مشکل حقیقتا جهانی است،
  • 3:04 - 3:06
    اما اگر فقط به ایالات متحده نگاه کنیم:
  • 3:06 - 3:08
    در ایالات متحده به تنهایی سال قبل،
  • 3:08 - 3:14
    بیش از ۴۵ میلیون تصویر و ویدئو از مطالب
    سوء استفاده جنسی از کودکان
  • 3:14 - 3:17
    به مرکز ملی برای کودکان استثمار
    شده و گمشده گزارش گردیده،
  • 3:17 - 3:22
    و چیزی حدود دو برابر سال قبل آن است.
  • 3:23 - 3:28
    و تعمق درباره جزییات پشت این ارقام
    دشوار است،
  • 3:28 - 3:34
    بیش از ۶۰ درصد تصاویر کودکان
    کمتر از ۱۲ سال را نشان می دهد،
  • 3:34 - 3:38
    و اکثرشان نشاندهنده اعمال افراطی در
    خشونت جنسی است.
  • 3:39 - 3:44
    عاملان این خشونت در اتاقهای گفتگوی مختص
    سوءاستفاده از کودکان تشویق میشوند،
  • 3:44 - 3:47
    جایی که بر اساس شمار قربانیان و
    سوءاستفاده بیشتر
  • 3:47 - 3:50
    رتبه و سوء شهرت کسب می کنند.
  • 3:50 - 3:53
    در این بازار،
  • 3:53 - 3:57
    ارز به خود محتوی تبدیل شده است.
  • 3:58 - 4:02
    واضح است که بدکاران در استفاده
    از فناوریهای جدید سریع عمل کرده‌اند،
  • 4:02 - 4:05
    اما پاسخ ما به عنوان جامعه اینطور نبوده.
  • 4:06 - 4:10
    این خلافکاران توافقنامه‌های کاربری
    وب سایت‌ها را نمی‌خوانند
  • 4:10 - 4:14
    و محتوی ارزشی به مرزهای
    جغرافیایی پایبند نیست.
  • 4:15 - 4:21
    و هر بار که ما یک تکه از پازل را
    تماشا می‌کنیم، آنها برنده‌اند.
  • 4:21 - 4:25
    که دقیقا نحوه طراحی پاسخ امروز ماست.
  • 4:25 - 4:28
    اجرای قانون در یک
    حوزه استحفاظی کار می‌کند.
  • 4:28 - 4:32
    شرکت ها فقط به پایگاه‌های
    خود نگاه می‌کنند.
  • 4:32 - 4:34
    و همه آن داده‌هایی که در طول راه می‌آموزند
  • 4:35 - 4:37
    به ندرت به اشتراک گذارده می‌شود.
  • 4:37 - 4:43
    همچنین روشن است که این رویکرد منفصل
    جواب نمی‌دهد.
  • 4:44 - 4:48
    باید پاسخ خود به این اپیدمی را
  • 4:48 - 4:49
    برای عصر دیجیتال بازطراحی کنیم.
  • 4:50 - 4:53
    این همان کاریست که در Thorn
    انجام می‌دهیم.
  • 4:53 - 4:57
    ما فناوری اتصال این نقاط را ایجاد می‌کنیم،
  • 4:57 - 4:59
    تا افراد حاضر در خط مقدم را مسلح کند--
  • 4:59 - 5:02
    پلیس، سازمان های غیرانتفاعی و شرکتها --
  • 5:02 - 5:06
    به ابزار لازم برای حذف نهایی
  • 5:06 - 5:08
    مطالب سوء استفاده جنسی از
    کودکان در اینترنت.
  • 5:10 - 5:11
    بیایید لحظه ای درباره--
  • 5:11 - 5:12
    (تشویق)
  • 5:12 - 5:14
    متشکرم.
  • 5:14 - 5:16
    (تشویق)
  • 5:18 - 5:20
    بیایید کمی از این بگوییم
    که آن نقاط چه هستند.
  • 5:21 - 5:25
    همانطور که می دانید این محتوی
    هولناک است.
  • 5:25 - 5:28
    اگر مجبور نباشید بهتر است آن را نبینید.
  • 5:28 - 5:33
    بنابراین اغلب شرکتها یا
    سازمانهای اجرای قانون
  • 5:33 - 5:35
    که این محتوی را دارند
  • 5:35 - 5:39
    می توانند تک تک فایلها را به
    رشته ارقام منحصر به فردی ترجمه کنند.
  • 5:39 - 5:40
    که اصطلاحا «هش» نامیده می‌شود.
  • 5:40 - 5:42
    در واقع مثل اثر انگشت
  • 5:42 - 5:45
    برای هر فایل یا ویدیو است.
  • 5:45 - 5:49
    این کار به آنها اجازه می دهد از
    اطلاعات در تحقیقات استفاده کنند
  • 5:49 - 5:52
    یا شرکت ها بتوانند آن محتوی را
    از پایگاه خود حذف کنند،
  • 5:52 - 5:58
    بدون این که مجبور شوند هر بار
    آن تصویر یا ویدئو را ببینند.
  • 5:58 - 6:00
    هرچند مشکل امروز
  • 6:00 - 6:04
    وجود صدها میلیون از این هشها است
  • 6:04 - 6:08
    که در پایگاههای داده
    در سرتاسر دنیا انبار شده.
  • 6:08 - 6:09
    در یک سیلو،
  • 6:09 - 6:12
    شاید برای نهادی که
    رویش کنترل دارد موثر عمل کند،
  • 6:12 - 6:17
    اما وصل نکردن داده ها به این معناست
    که نمی‌دانیم چه تعدادی منحصربفرد هستند.
  • 6:17 - 6:20
    نمی‌دانیم کدام یک نماینده کودکانی
    است که نجات پیدا کرده اند
  • 6:20 - 6:23
    یا هنوز شناسایی نشده‌اند.
  • 6:23 - 6:27
    بنابراین پیش فرض اولیه ما این است که
    تمامی این داده‌ها
  • 6:27 - 6:30
    باید به هم متصل باشند.
  • 6:30 - 6:36
    به دو روش این داده ها در ترکیب
    با نرم افزار در مقیاس جهانی،
  • 6:37 - 6:40
    می تواند تاثیر آگاهی بخش
    در این فضا ایجاد کند.
  • 6:40 - 6:43
    اول با اجرای قانون:
  • 6:43 - 6:47
    با کمک کردن به شناسایی
    سریعتر قربانیان،
  • 6:47 - 6:48
    متوقف کردن سوء استفاده
  • 6:48 - 6:51
    و متوقف کردن کسانی که این محتوی را
    تولید می‌کنند.
  • 6:51 - 6:54
    دوم با شرکتهاست:
  • 6:54 - 6:58
    با استفاده از آن بعنوان سرنخهایی برای
    شناسایی صها میلیون فایلی که
  • 6:58 - 6:59
    امروزه در گردش هستند،
  • 6:59 - 7:01
    پایین کشیدنشان
  • 7:01 - 7:07
    و متوقف کردن بارگیری مطالب جدید
    قبل از این که پربازدید شوند.
  • 7:10 - 7:11
    چهار سال پیش،
  • 7:11 - 7:13
    وقتی پرونده بسته شد،
  • 7:14 - 7:18
    تیم ما آنجا نشست،
    و این حس را داشتیم که...
  • 7:20 - 7:23
    حس عمیق شکست، تنها چیزی که
    می‌توانم بیان کنم،
  • 7:23 - 7:27
    زیرا تمام آن سال را وقتی دنبالش می‌گشتند
  • 7:27 - 7:28
    تماشاگر ماجرا بودیم.
  • 7:28 - 7:32
    و ما در جای جای تحقیقات متوجه شدیم
  • 7:32 - 7:34
    اگر فناوری لازم وجود داشت،
  • 7:34 - 7:37
    او را سریعتر پیدا می‌کردند.
  • 7:38 - 7:40
    بنابراین آنجا را ترک کردیم
  • 7:40 - 7:43
    و برگشتیم سر تنها کاری که
    بلد بودیم انجامش دهیم:
  • 7:43 - 7:45
    شروع به ساخت نرم افزار کردیم.
  • 7:46 - 7:48
    بنابراین با اجرای قانون دست به کار شدیم.
  • 7:48 - 7:52
    رویای ما زنگ هشداری بود روی میز کار
    افسران در سرتاسر دنیا
  • 7:52 - 7:57
    تا به محضی که شخصی جرات پست کردن
    قربانی جدیدی را بر اینترنت پیدا کرد
  • 7:57 - 8:00
    فردی فورا دست به کار پیدا کردن او شود.
  • 8:01 - 8:04
    مشخصا نمی توانم درباره جزییات آن
    نرم افزار صحبت کنم،
  • 8:04 - 8:07
    اما امروزه در ۳۸ کشور در حال اجرا است،
  • 8:07 - 8:10
    زمانی که برای رسیدن به یک کودک
    صرف می شود را تا
  • 8:10 - 8:12
    ۳۸٪کاهش داده است.
  • 8:12 - 8:17
    (تشویق)
  • 8:21 - 8:24
    و حال ما آن افق دوم را شروع کرده ایم:
  • 8:24 - 8:30
    ساختن نرم افزاری که به شرکتها کمک کند
    این محتوی را شناسایی و حذف نمایند.
  • 8:31 - 8:34
    بیایید یک لحظه درباره این شرکتها
    حرف بزنیم.
  • 8:34 - 8:40
    خب برایتان گفتم که ۴۵ میلیون تصویر و
    ویدئو تنها در آمریکا سال گذشته داشتیم.
  • 8:40 - 8:44
    اینها حاصل کار تنها ۱۲ شرکت است.
  • 8:46 - 8:52
    دوازده شرکت، ۴۵ میلیون پرونده از مطالب
    سوء استفاده جنسی از کودکان.
  • 8:52 - 8:55
    اینها از شرکتهای می‌آیند که پول دارند برای
  • 8:55 - 9:00
    ساخت زیرساختاری که این
    محتوی را پایین بکشد.
  • 9:00 - 9:02
    اما صدها شرکت دیگر هست،
  • 9:02 - 9:05
    شرکتها کوچک و متوسط در کل دنیا،
  • 9:05 - 9:07
    که برای انجام این کار لازمند،
  • 9:07 - 9:12
    اما آنها یا: ۱) نمی توانند تصور کنند که
    از پایگاه آنها سوء استفاده می شود،
  • 9:12 - 9:18
    یا ۲) پولی ندارند که صرف چیزی کنند
    که برایشان عایدی ندارد.
  • 9:19 - 9:22
    بنابراین برای آنها پیش قدم شدیم
    و آن را برایشان ساختیم،
  • 9:22 - 9:27
    و این سیستم با شرکتهای هر چه بیشتری
    که مشارکت می‌کنند هوشمندتر می‌شود.
  • 9:28 - 9:30
    بگذارید مثالی بزنم.
  • 9:30 - 9:34
    اولین شریک ما، ایمگور--
    اگر اسم این کمپانی را نشنیدید،
  • 9:34 - 9:38
    یکی از پربازدیدترین وب سایتها در
    ایالات متحده--
  • 9:38 - 9:43
    میلیونها تکه از محتویات تولید شده از
    سوی کاربر که روزانه بارگیری می شوند،
  • 9:43 - 9:45
    در راستای ماموریتی در جهت تبدیل کردن
    اینترنت به مکانی بامزه.
  • 9:46 - 9:48
    نخست با ما شریک شدند.
  • 9:48 - 9:51
    ظرف ۲۰ دقیقه از پخش زنده در سیستم ما،
  • 9:51 - 9:55
    یکی سعی کرد تکه معروفی با
    موضوع سوء استفاده را بارگیری کند.
  • 9:55 - 9:57
    متوقفش کردند،
    آن را پایین آوردند،
  • 9:57 - 10:00
    به مرکز ملی کودکان استثمار شده و گمشده
    گزارش دادند.
  • 10:00 - 10:02
    حتی یک قدم هم فراتر رفتند
  • 10:02 - 10:07
    سراغ حساب آن شخص رفته و آن را
    وارسی کردند.
  • 10:07 - 10:12
    صدها تکه دیگر از مطالب
    سوء استفاده جنسی از کودکان
  • 10:12 - 10:14
    که تا به حال ندیده بودند.
  • 10:14 - 10:18
    و اینجاست که شروع کردیم به دیدن
    تاثیر نمایی آن.
  • 10:18 - 10:19
    آن مطلب را پایین میاوریم،
  • 10:20 - 10:23
    به مرکز ملی کودکان استثمار شده و گمشده
    گزارش می شود
  • 10:23 - 10:26
    و بعد آن هشها به داخل سیستم
    برمی‌گردند
  • 10:26 - 10:28
    به دیگر شرکتهای درگیر آن نفع می‌رسانند.
  • 10:28 - 10:33
    و وقتی میلیونها هش که داریم منتهی به
    میلیونها هش بیشتر در زمان واقعی می‌گردد،
  • 10:33 - 10:37
    شرکتها در همه جای دنیا به شناسایی و حذف
    این محتوی می پردازند،
  • 10:37 - 10:42
    ما شدیدا سرعت حذف مطالب سوء استفاده جنسی
    کودکان را از
  • 10:42 - 10:46
    اینترنت در کل دنیا افزایش خواهیم داد.
  • 10:46 - 10:52
    (تشویق)
  • 10:54 - 10:57
    اما برای همین نمی تواند فقط درباره
    نرم افزار و داده باشد،
  • 10:57 - 10:59
    درباره مقیاس باید باشد.
  • 10:59 - 11:03
    باید هزاران افسر، صدها شرکت را
  • 11:03 - 11:05
    در سرتاسر دنیا فعال کنیم
  • 11:05 - 11:09
    اگر فناوری به ما اجازه دهد
    از بدکاران پیشی بگیریم
  • 11:09 - 11:13
    و جوامعی که سوء استفاده جنسی از کودکان را
    در سراسر دنیا عادی
  • 11:13 - 11:15
    جلوه می دهند خراب کنیم.
  • 11:15 - 11:18
    و الان زمان این کار است.
  • 11:18 - 11:24
    دیگر نمی‌گوییم از تاثیر آن
    بر کودکانمان بی‌خبریم.
  • 11:25 - 11:29
    نخستین نسل از کودکانی که سوء
    استفاده از آنها در اینترنت پربیننده بوده
  • 11:29 - 11:31
    حالا بزرگسالانی جوان هستند.
  • 11:31 - 11:34
    مرکز کانادایی محافظت از کودکان
  • 11:34 - 11:37
    اخیرا مطالعه ای انجام داده بر روی
    این بزرگسالان کم سن
  • 11:37 - 11:41
    برای درک این شوک روانی خاصی
    که آنها سعی در بهبودی از آن دارند،
  • 11:41 - 11:44
    با دانستن این امر که این سوء رفتار
    با آنها زندگی می‌کند.
  • 11:45 - 11:50
    ۸۰ درصد این بزرگسالان جوان
    به خودکشی فکر کرده‌اند.
  • 11:51 - 11:55
    بیش از ۶۰ درصد اقدام
    به خودکشی کرده‌اند.
  • 11:56 - 12:01
    و اغلب آنها هر روز با این ترس
    زندگی می‌کنند که
  • 12:01 - 12:05
    یک روز که توی خیابان راه می روند یا
    جایی مصاحبه شغلی دارند
  • 12:05 - 12:08
    یا به مدرسه بروند
  • 12:08 - 12:10
    یا کسی را آنلاین ملاقات کنند
  • 12:10 - 12:14
    که آن شخص سوء استفاده کردن از آنها
    را دیده باشد.
  • 12:15 - 12:19
    و این موضوع درباره ۳۰ درصد
    آنها حقیقت داشته.
  • 12:20 - 12:25
    بخاطر موضوع سوء استفاده آنلاین
    شناسایی شده‌اند.
  • 12:26 - 12:29
    قرار نیست آسان باشد،
  • 12:29 - 12:32
    اما غیرممکن نیست.
  • 12:32 - 12:35
    حال قرار است دربرگیرنده اراده‌ای باشد،
  • 12:35 - 12:36
    اراده جامعه ما
  • 12:37 - 12:40
    برای نگاه کردن به چیزی که
    نگاه کردن به آن واقعا دشوار است،
  • 12:40 - 12:42
    برای بیرون آوردن چیزی از تاریکی
  • 12:42 - 12:45
    بنابراین این بچه‌ها صدایی دارند؛
  • 12:46 - 12:51
    اراده شرکتها جهت دست به کار شدن
    و مطمئن شدن از این که فضای عملیاتی آنها
  • 12:51 - 12:54
    در سوء استفاده از یک کودک همدست نیست؛
  • 12:55 - 12:59
    اراده دولتها به داشتن
    ابزلری که در اجرای قانون
  • 12:59 - 13:04
    جهت تحقیقات درباره
    یک جنایت درجه اول دیجیتال نیاز دارند،
  • 13:04 - 13:08
    حتی وقتی که قربانیان قادر به حرف زدن
    از جانب خود نباشند.
  • 13:10 - 13:13
    این تعهد جسورانه بخشی از آن اراده است.
  • 13:14 - 13:20
    این اعلان جنگ علیه یکی از
    اهریمنی ترین زوایای بشریت است.
  • 13:20 - 13:22
    اما چیزی که من دنبالش هستم
  • 13:22 - 13:26
    در واقع سرمایه گذاری در آینده‌ای است که
  • 13:26 - 13:29
    آنجا هر بچه‌ای بتواند به سادگی کودکی کند.
  • 13:29 - 13:31
    متشکرم.
  • 13:31 - 13:37
    (تشویق)
Title:
چطور می‌توانیم سوء استفاده جنسی از کودکان را از اینترنت پاک کنیم
Speaker:
جولی کوردوا
Description:

جولی کوردوا کارآفرین اجتماعی روی مشکلی کار می‌کند که صحبت کردن درباره آن راحت نیست: سوء استفاده جنسی از کودکان در تصویرها و ویدئوها در اینترنت. در Thorn، او فناوری را می‌سازد که وصل کننده نقاط بین صنعت فناوری، پلیس و دولت است-- تا زود بتوانیم به توزیع پرشتاب مطالب سوء استفاده خاتمه دهیم و نجات کودکان را سریعتر کنیم. بیشتر درباره چگونگی این راه‌حل مقیاس‌پذیر بیاموزید که می‌تواند به نابودی جوامعی که سعی در عادی سازی سوء استفاده جنسی از کودکان امروزه در سراسر دنیا دارند کمک کند. ( این طرح جاه‌طلبانه بخشی از [پروژه جسورانه] Audacious Project, اقدام ابتکاری TED برای الهام‌بخشی و کمک مالی جهت تغییرات جهانی است.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Persian subtitles

Revisions Compare revisions