Return to Video

كيف يمكننا إزالة مواد الاعتداء الجنسي على الأطفال من الإنترنت

  • 0:01 - 0:03
    (يحتوي هذا الحديث على محتوى للبالغين)
  • 0:06 - 0:07
    منذ خمسة أعوام،
  • 0:07 - 0:11
    تلقيت مكالمة هاتفية غيرت حياتي.
  • 0:12 - 0:14
    أتذكر هذا اليوم بوضوح شديد.
  • 0:15 - 0:17
    كان في مثل هذا الوقت من السنة،
  • 0:17 - 0:19
    وكنت جالسة في مكتبي.
  • 0:20 - 0:23
    أتذكر انسياب أشعة الشمس من النافذة،
  • 0:24 - 0:25
    عندما رن هاتفي.
  • 0:26 - 0:27
    أجبت،
  • 0:28 - 0:32
    وكان اثنان من العملاء الفيدراليين،
    يطلبون مساعدتي
  • 0:32 - 0:34
    في التعرف على فتاة صغيرة
  • 0:34 - 0:40
    ظهرت في مئات من صور الاعتداء الجنسي
    على الأطفال التي وجدوها عبر الإنترنت.
  • 0:41 - 0:44
    كانوا قد بدأوا لتوهم العمل في القضية
  • 0:44 - 0:47
    لكن ما وجدوه
  • 0:47 - 0:51
    أن استغلالها كان يذاع للعالم لسنوات
  • 0:51 - 0:57
    على مواقع الإنترنت المظلمة المخصصة
    للاستغلال الجنسي للأطفال.
  • 0:58 - 1:02
    وأن المعتدي عليها
    يجيد استخدام التكنولوجيا:
  • 1:02 - 1:07
    صور وأفلام جديدة كل بضعة أسابيع،
  • 1:07 - 1:11
    ولا يوجد أي معلومات عن هويتها
  • 1:11 - 1:12
    أو أين كانت.
  • 1:13 - 1:15
    لذلك استدعونا،
  • 1:15 - 1:17
    لأنهم عرفوا أننا منظمة غير ربحية جديدة
  • 1:17 - 1:21
    نصنع تقنيات لمحاربة الاستغلال الجنسي.
  • 1:22 - 1:24
    لكننا بدأنا منذ عامين فقط،
  • 1:24 - 1:27
    وكنا قد عملنا فقط في قضايا
    الإتجار الجنسي بالأطفال.
  • 1:28 - 1:30
    وكان علي أن أخبرهم
  • 1:30 - 1:31
    بأننا لا نملك فعل شيء.
  • 1:32 - 1:36
    لم يكن لدينا شيء يمكن أن
    يساعدهم على وقف هذا الاعتداء.
  • 1:37 - 1:41
    استغرق العملاء عامًا آخر
  • 1:41 - 1:44
    ليجدوا تلك الطفلة في النهاية.
  • 1:45 - 1:47
    وفي الوقت الذي تم إنقاذها به،
  • 1:47 - 1:54
    كانت قد نُشرت المئات من الصور
    والأفلام التي توثق اغتصابها،
  • 1:54 - 1:55
    من الإنترنت المظلم
  • 1:55 - 1:58
    إلى شبكات النظراء، وغرف الدردشة الخاصة
  • 1:58 - 2:02
    وإلى مواقع نستخدمها جميعاً،
  • 2:02 - 2:04
    يومياً.
  • 2:05 - 2:09
    واليوم، بينما تكافح للتعافي،
  • 2:09 - 2:13
    تواجه حقيقة أن الآلاف حول العالم
  • 2:13 - 2:16
    مازالوا يشاهدون الإساءة لها.
  • 2:18 - 2:20
    تعلمت في آخر خمس سنوات
  • 2:20 - 2:23
    أن هذه القضية ليست فريدة.
  • 2:24 - 2:28
    فكيف وصل المجتمع إلى هذا الحد؟
  • 2:29 - 2:33
    في أواخر الثمانينيات،
    كانت مواد الأطفال الإباحية
  • 2:33 - 2:39
    أو ما هو حقاً مواد استغلال جنسي للأطفال..
  • 2:39 - 2:40
    مُنعت تقريباً.
  • 2:41 - 2:46
    قوانين جديدة وزيادة في الملاحقات
    القضائية جعلته ببساطة خطير للغاية
  • 2:46 - 2:47
    للمتاجرة به عبر البريد.
  • 2:48 - 2:52
    ثم ظهر الإنترنت وانفجر السوق
  • 2:53 - 2:57
    كمية المحتوى المتداول اليوم
  • 2:57 - 3:00
    ضخمة ولازالت تتزايد.
  • 3:00 - 3:04
    إنها حقاً مشكلة عالمية،
  • 3:04 - 3:06
    لكن إذا نظرنا للولايات المتحدة:
  • 3:06 - 3:08
    في الولايات المتحدة فقط العام السابق،
  • 3:08 - 3:14
    أكثر من 45 مليون صورة وفيلم
    لمواد الاستغلال الجنسي للأطفال
  • 3:14 - 3:17
    تم الإبلاغ عنهم للمركز القومي للأطفال
    المفقودين والمستغليين،
  • 3:17 - 3:22
    وهو تقريباً ضعف كمية العام الذي يسبقه.
  • 3:23 - 3:28
    والتفاصيل وراء تلك الأرقام
    من الصعب تصورها،
  • 3:28 - 3:34
    لأكثر من 60% من الصور المعروضة
    لأطفال أقل من 12 سنة،
  • 3:34 - 3:38
    ومعظمها يتضمن أعمال
    متطرفة للعنف الجنسي.
  • 3:39 - 3:44
    المعتدون يمرحون على غرف الدردشة
    المخصصة لاستغلال الأطفال.
  • 3:44 - 3:47
    حيث يحصلون على المكانة وسوء السمعة
  • 3:47 - 3:50
    بالمزيد من الاستغلال والضحايا.
  • 3:50 - 3:53
    في هذا المجال،
  • 3:53 - 3:57
    أصبحت العملة هي المحتوى نفسه.
  • 3:58 - 4:02
    من الواضح أن المعتدين يستفيدون
    من التكنولوجيا الجديدة بسرعة
  • 4:02 - 4:05
    لكن استجابتنا كمجتمع لم تكن بذات السرعة.
  • 4:06 - 4:10
    لا يقرأ هؤلاء المعتدون
    اتفاقيات المستخدم للمواقع،
  • 4:10 - 4:14
    والمُحتوى لا يحترم الحدود الجغرافية.
  • 4:15 - 4:21
    كما أنهم ينتصرون في كل مرة
    ننظر لقطعة من اللغز،
  • 4:21 - 4:25
    وهو بالضبط كيف تم تصميم ردنا اليوم.
  • 4:25 - 4:28
    إنفاذ القانون يعمل في ولاية قضائية واحدة.
  • 4:28 - 4:32
    والشركات تنظر إلى منصاتها فقط.
  • 4:32 - 4:34
    وأياً كانت البيانات التي يتلقونها
  • 4:35 - 4:37
    نادراً ما يشاركونها.
  • 4:37 - 4:43
    من الواضح أن هذا النهج الانعزالي لا يعمل.
  • 4:44 - 4:48
    علينا أن نعيد تصميم
    استجابتنا لهذا الوباء
  • 4:48 - 4:49
    في العصر الرقمي.
  • 4:50 - 4:53
    وهذا هو ما نفعله في ثورن Thorn.
  • 4:53 - 4:57
    حيث نبني التقنية التي
    ستصل هذه النقاط ببعضها،
  • 4:57 - 4:59
    لتسليح كل من هم في المواجهة --
  • 4:59 - 5:02
    من قوات إنفاذ القانون
    والمنظمات غير الحكومية والشركات..
  • 5:02 - 5:06
    بالأدوات التي يحتاجون إليها ليمنعوا تمامًا
  • 5:06 - 5:08
    مواد الاعتداء الجنسي
    على الأطفال من الإنترنت.
  • 5:10 - 5:11
    لنتحدث لدقيقة...
  • 5:11 - 5:12
    (تصفيق)
  • 5:12 - 5:14
    شكرًا لكم.
  • 5:14 - 5:16
    (تصفيق)
  • 5:18 - 5:20
    لنتحدث لدقيقة عن ماهية هذه النقاط.
  • 5:21 - 5:25
    كما يمكنكم أن تتخيلو، هذا المُحتوى مُروع.
  • 5:25 - 5:28
    إن لم تكن مضطرًا لرؤيته فلن تود ذلك.
  • 5:28 - 5:33
    لذلك، معظم الشركات أو وكالات إنفاذ القانون
  • 5:33 - 5:35
    الذين يملكون هذا المُحتوى
  • 5:35 - 5:39
    يمكنهم ترجمة كل ملف
    إلى تسلسل فريد من الأرقام.
  • 5:39 - 5:40
    يُدعى ذلك "التجزئة".
  • 5:40 - 5:42
    وهي بالأساس بصمة فريدة
  • 5:42 - 5:45
    لكل ملف أو فيديو.
  • 5:45 - 5:49
    ويسمح هذا لهم باستخدام
    المعلومات في التحقيق
  • 5:49 - 5:52
    أو يسمح للشركات بمحو المحتوى من منصاتهم،
  • 5:52 - 5:58
    دون الحاجة إلى رؤية
    كل صورة وفيديو في كل مرة.
  • 5:58 - 6:00
    وعلى الرغم من ذلك، فالمشكلة حاليًا،
  • 6:00 - 6:04
    هي وجود المئات أو الملايين
    من هذه التجزئات
  • 6:04 - 6:08
    موجودة في قواعد بيانات مخزنة
    في كل بقاع الأرض.
  • 6:08 - 6:09
    في صوامع،
  • 6:09 - 6:12
    قد تعمل لصالح وكالة واحدة
    لديها السيطرة عليها جميعاً،
  • 6:12 - 6:17
    ولكن عدم ربط هذه البيانات يعني
    أننا لا نعرف عدد الفريدة منها.
  • 6:17 - 6:20
    نحن لا نعلم كم منها تُمثل
    أطفالاً تم إنقاذهم بالفعل
  • 6:20 - 6:23
    أو لازال الطفل بحاجة إلى تعريف.
  • 6:23 - 6:27
    لذلك الفرضية الأساسية والأولى لدينا
    هي أن جميع هذه البيانات
  • 6:27 - 6:30
    لابد أن تكون مترابطة.
  • 6:30 - 6:36
    هناك طريقتان حيث تترابط
    هذه البيانات مع برنامج عالمي،
  • 6:37 - 6:40
    من الممكن أن يكون له
    أثر تحويلي في هذا الفضاء.
  • 6:40 - 6:43
    الأول مع قوات تطبيق القانون:
  • 6:43 - 6:47
    حيث يساعدهم في التعرف
    على الضحايا بشكل أسرع،
  • 6:47 - 6:48
    وإيقاف سوء المعاملة
  • 6:48 - 6:51
    وإيقاف إنتاج هذا المحتوى.
  • 6:51 - 6:54
    الثاني مع الشركات:
  • 6:54 - 6:58
    يتم استخدامه كدليل لتحديد
    مئات الملايين من الملفات
  • 6:58 - 6:59
    المتداولة اليوم،
  • 6:59 - 7:01
    سحبها
  • 7:01 - 7:07
    ومن ثم إيقاف تحميل
    مواد جديدة قبل أن تنتشر.
  • 7:10 - 7:11
    من أربع سنوات مضت،
  • 7:11 - 7:13
    عنما انتهت تلك القضية،
  • 7:14 - 7:18
    مكث فريقنا هناك، وشعرنا فقط بـ...
  • 7:20 - 7:23
    كيف يمكنني وصف أحاسيسنا،
    شعور عميق بالفشل إن أمكنني القول،
  • 7:23 - 7:27
    لأننا شاهدنا ذلك العام بأكمله
  • 7:27 - 7:28
    في حين كانوا يبحثون عنها.
  • 7:28 - 7:32
    ورأينا جميع الأماكن في التحقيق
  • 7:32 - 7:34
    حيث لو تواجدت التكنولوجيا،
  • 7:34 - 7:37
    لوجدوها بشكل أسرع.
  • 7:38 - 7:40
    وهكذا ابتعدنا عن ذلك
  • 7:40 - 7:43
    وقمنا بفعل الشيء الوحيد
    الذي عرفنا فعله:
  • 7:43 - 7:45
    بدأنا في بناء برنامج.
  • 7:46 - 7:48
    لذلك بدأنا مع تطبيق القانون.
  • 7:48 - 7:52
    كان حلمنا جرس إنذار على مكاتب
    الضباط في جميع أنحاء العالم
  • 7:52 - 7:57
    بحيث إن تجرأ شخص آخر على وضع
    ضحية جديدة على الإنترنت،
  • 7:57 - 8:00
    سيبدأ شخص ما
    بالبحث عنها على الفور.
  • 8:01 - 8:04
    من الواضح أنني لا أستطيع التحدث
    عن تفاصيل هذا البرنامج،
  • 8:04 - 8:07
    لكنه اليوم يعمل في 38 دولة،
  • 8:07 - 8:10
    قام بتقليص الوقت الذي يستغرقه
    للوصول إلى الطفل
  • 8:10 - 8:12
    بأكثر من 65%.
  • 8:12 - 8:17
    (تصفيق)
  • 8:21 - 8:24
    ونحن الآن نبدأ في ذلك الأفق الثاني:
  • 8:24 - 8:30
    بناء برنامج يساعد الشركات
    للتعرف وإزالة هذا المحتوى.
  • 8:31 - 8:34
    دعونا نتحدث لدقيقة عن هذه الشركات.
  • 8:34 - 8:40
    أخبرتكم، يوجد 45 مليون صورة وفيديو
    في الولايات المتحدة العام الماضي فقط.
  • 8:40 - 8:44
    من 12 شركة فقط.
  • 8:46 - 8:52
    12 شركة، 45 مليون ملفًا من مواد
    الاعتداء الجنسي على الأطفال.
  • 8:52 - 8:55
    يأتون من هذه الشركات التي تملك المال
  • 8:55 - 9:00
    لبناء قاعدة لسحب هذا المحتوى.
  • 9:00 - 9:02
    لكن يوجد مئات من الشركات الأخرى،
  • 9:02 - 9:05
    شركات صغيرة لمتوسطة حول العالم،
  • 9:05 - 9:07
    التي تحتاج لعمل هذا،
  • 9:07 - 9:12
    لكنهم إما:
    1- لا يتخيلون استخدام منصتهم للعنف،
  • 9:12 - 9:18
    أو 2- لا يملكون المال لتوفيره في شيء
    لا يؤدي لزيادة الإيرادات.
  • 9:19 - 9:22
    لذلك قمنا ببناء ذلك لهم،
  • 9:22 - 9:27
    وأصبح هذا النظام الآن أذكى
    بمشاركة شركات أكثر.
  • 9:28 - 9:30
    سأعطيكم مثالًا.
  • 9:30 - 9:34
    شريكنا الأول، إميجور --
    إذا لم تكن سمعت عنها،
  • 9:34 - 9:38
    أكثر المواقع الإلكترونية التي يتم
    زيارتها في الولايات المتحدة --
  • 9:38 - 9:43
    يُرفع عليها ملايين من المحتوى الناتج
    عن المستخدمين كل يوم،
  • 9:43 - 9:45
    هدفه جعل الإنترنت مكانًا للمرح أكثر.
  • 9:46 - 9:48
    عقدوا شراكة معنا أولاً.
  • 9:48 - 9:51
    في خلال عشرون دقيقة للبث
    المباشر على نظامنا،
  • 9:51 - 9:55
    حاول شخص ما رفع قطعة معروفة
    من المواد المسيئة.
  • 9:55 - 9:57
    كانوا قادرين على وقفه، قاموا بسحبه،
  • 9:57 - 10:00
    قاموا بتبليغ المركز الوطني للأطفال
    المفقودين والمستغلين.
  • 10:00 - 10:02
    لكنهم ذهبوا إلى أبعد من ذلك،
  • 10:02 - 10:07
    قاموا بفحص حساب الشخص
    الذي قام برفع هذا المحتوى.
  • 10:07 - 10:12
    مئات أخرى من القطع الخاصة بمواد
    الإساءة الجنسية للأطفال
  • 10:12 - 10:14
    لم نعد نراها.
  • 10:14 - 10:18
    وهنا حيث بدأنا نرى تأثيرًا متسارعًا.
  • 10:18 - 10:19
    نقوم بسحب هذه المادة،
  • 10:20 - 10:23
    التي يتم التبليغ عنها للمركز
    الوطني للأطفال المفقودين والمستغلين
  • 10:23 - 10:26
    وتعود هذه التجزئات إلى النظام
  • 10:26 - 10:28
    وتستفيد منها الشركات الأخرى.
  • 10:28 - 10:33
    وتقود هذه الملايين من التجزئات التي لدينا
    إلى ملايين أخرى وفي الوقت الحقيقي،
  • 10:33 - 10:37
    تتعرف عليها شركات حول العالم
    وتقوم بسحب المحتوى،
  • 10:37 - 10:42
    سيكون لدينا زيادة كبيرة
    للسرعة التي نزيل بها
  • 10:42 - 10:46
    المواد الجنسية المسيئة للأطفال
    من الإنترنت حول العالم.
  • 10:46 - 10:52
    (تصفيق)
  • 10:54 - 10:57
    لكن هذا سبب أنه لا يمكن أن يكون
    عن برامج أو بيانات فقط،
  • 10:57 - 10:59
    يجب أن يكون حول المدى.
  • 10:59 - 11:03
    يجب علينا تشغيل آلاف من الموظفين،
  • 11:03 - 11:05
    مئات من الشركات حول العالم
  • 11:05 - 11:09
    إذا كانت التكنولوجيا ستسمح لنا
    بالتفوق على الجناة
  • 11:09 - 11:13
    وتفكيك المجتمعات التي تُطبع
    الاعتداء الجنسي على الأطفال
  • 11:13 - 11:15
    حول العالم الآن.
  • 11:15 - 11:18
    والوقت لفعل هذا الآن.
  • 11:18 - 11:24
    لا نستطيع قول أننا لا نعلم تأثير
    هذا على أطفالنا.
  • 11:25 - 11:29
    الجيل الأول من الأطفال الذين تمت
    الإساءة لهم بصورة واسعة
  • 11:29 - 11:31
    صاروا بالغين الآن.
  • 11:31 - 11:34
    قام المركز الكندي لحماية الأطفال
  • 11:34 - 11:37
    بعمل دراسة حديثة على هؤلاء البالغين
  • 11:37 - 11:41
    لفهم الصدمات التي يحاولون التعافي منها،
  • 11:41 - 11:44
    بمعرفة سوء المعاملة الذي يتعرضون له.
  • 11:45 - 11:50
    فكر %80 من هؤلاء البالغين بالانتحار.
  • 11:51 - 11:55
    حاول أكثر من 80% الانتحار.
  • 11:56 - 12:01
    ويعيش معظمهم في خوف كل يوم
  • 12:01 - 12:05
    عندما يسيرون في الشارع أو يذهبون
    لمقابلة عمل
  • 12:05 - 12:08
    أو يذهبون إلى المدرسة
  • 12:08 - 12:10
    أو يقابلون شخصًا على الإنترنت،
  • 12:10 - 12:14
    وقد شاهد ذلك الشخص الإساءة لهم.
  • 12:15 - 12:19
    والواقع أصبح حقيقة لأكثر من 30% منهم.
  • 12:20 - 12:25
    تم التعرف عليهم من مواد
    الإساءة على الإنترنت.
  • 12:26 - 12:29
    هذا لن يكون سهلًا،
  • 12:29 - 12:32
    لكنه غير مستحيل.
  • 12:32 - 12:35
    سيكون هناك إرادة،
  • 12:35 - 12:36
    إرادة مجتمعنا
  • 12:37 - 12:40
    للنظر إلى شيء صعب النظر إليه،
  • 12:40 - 12:42
    لأخذ شيء خارج الظلام
  • 12:42 - 12:45
    ليكون لدى الأطفال صوتًا؛
  • 12:46 - 12:51
    إرادة الشركات لأخذ موقف
    والتأكد من أن منصاتها
  • 12:51 - 12:54
    غير متواطئة للإساءة للطفل؛
  • 12:55 - 12:59
    إرادة الحكومة للاستثمار لتنفيذ القانون
  • 12:59 - 13:04
    للأدوات التي يحتاجونها للتحقيق
    في أول جريمة رقمية،
  • 13:04 - 13:08
    حتى لو لم يستطع الضحايا التكلم بأنفسهم.
  • 13:10 - 13:13
    وهذا الالتزام الجريء جزء من هذه الإرادة.
  • 13:14 - 13:20
    إنه إعلان حرب ضد واحدة
    من أحلك شرور البشرية.
  • 13:20 - 13:22
    ولكن ما تشبثت به
  • 13:22 - 13:26
    أنه في الواقع استثمار في المستقبل
  • 13:26 - 13:29
    حيث يمكن لكل طفل أن يكون مجرد طفل.
  • 13:29 - 13:31
    شكراً لكم.
  • 13:31 - 13:37
    (تصفيق)
Title:
كيف يمكننا إزالة مواد الاعتداء الجنسي على الأطفال من الإنترنت
Speaker:
جولي كوردوا
Description:

تعمل صاحبة المشروع الاجتماعي، جولي كوردوا، على مشكلة ليس من السهل التحدث عنها: الاعتداء الجنسي على الأطفال في صور ومقاطع الفيديو على الإنترنت. تقوم منظمة ثورن ببناء تكنولوجيا لربط النقاط بين صناعة التكنولوجيا وتنفيذ القانون والحكومة - حتى نتمكن من وضع حد سريع لانتشار مواد الإساءة وإنقاذ الأطفال بشكل أسرع. تعرف على المزيد حول كيف يمكن لهذا الحل القابل للتوسع أن يساعد في تفكيك المجتمعات التي تجعل من الاعتداء الجنسي على الأطفال أمراً طبيعياً في جميع أنحاء العالم اليوم.

(هذه الخطة الطموحة هي جزء من مشروع "جريء"، وهي مبادرة من TED لإلهام وتمويل التغيير العالمي).

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Arabic subtitles

Revisions