< Return to Video

فيديوهات كوابيس الأطفال على اليوتيوب وما خطب الإنترنت اليوم

  • 0:01 - 0:02
    أنا جيمس.
  • 0:02 - 0:04
    أنا كاتب وفنان،
  • 0:04 - 0:06
    وأعمل في مجال التكنولوجيا.
  • 0:06 - 0:10
    وأرسم بالحجم الطبيعي
    هيكل الطائرات العسكرية بدون طيار
  • 0:10 - 0:12
    في شوارع المدينة حول العالم،
  • 0:12 - 0:15
    لكي يبدأ الناس في التفكير والفهم
  • 0:15 - 0:19
    ومن الصعب جدا الرؤية
    والتفكير في التكنولوجيا
  • 0:19 - 0:23
    صنعت أشياءً مثل الشبكات العصبية
    التي تُنبئ بنتيجة الانتخابات
  • 0:23 - 0:25
    اعتمادا على تقارير الطقس،
  • 0:25 - 0:26
    لأني مفتون بـ
  • 0:26 - 0:30
    ماهية الإمكانيات الفعلية
    لهذه التكنولوجيا الجديدة والغريبة.
  • 0:31 - 0:34
    السنة الماضية، بنيت
    سيارتي الذاتية القيادة.
  • 0:34 - 0:36
    ولكن لأني لا أثق بالتكنولوجيا،
  • 0:36 - 0:38
    صممت أيضا فخًّا لها.
  • 0:39 - 0:40
    (ضحك)
  • 0:40 - 0:44
    وأفعل هذه الأمور غالبا
    لأني أجدها رائعة تماما،
  • 0:44 - 0:47
    ولكن أيضا لأني أظن
    عندما نتحدث عن التكنولوجيا،
  • 0:47 - 0:49
    نتحدث بشكل كبير عن أنفسنا
  • 0:49 - 0:52
    وطريقة فهمنا للعالم.
  • 0:52 - 0:54
    وهنا قصة عن التكنولوجيا.
  • 0:56 - 0:58
    هذا هو فيديو "بيض المفاجآت".
  • 0:58 - 1:02
    إنه أساسا فيديو عن شخص ما
    يفتح الكثير من بيض الشيكولاتة
  • 1:02 - 1:04
    ويُظهر الألعاب التي بداخلها للمشاهد.
  • 1:04 - 1:07
    وهذا هو. هذا كل شيء فعله ذلك طوال 7 دقائق.
  • 1:07 - 1:10
    وأودُّ أن تلاحظوا أمرين بشأنه.
  • 1:11 - 1:15
    أولا: هذا الفيديو حظى بـ 30 مليون مشاهدة.
  • 1:15 - 1:16
    (ضحك)
  • 1:16 - 1:18
    والشيء الآخر هو،
  • 1:18 - 1:21
    بثّته قناة تحظى بـ 6,3 مليون مشترك،
  • 1:21 - 1:24
    ليبلغ الإجمالي 8 مليار مشاهدة،
  • 1:24 - 1:27
    والأمر كله مجرد الكثير من الفيديوهات مثلها
  • 1:28 - 1:32
    30 مليون شخص يشاهدون رجلا
    يفتح هذه البيضات.
  • 1:32 - 1:37
    يبدو الأمر غريبا، ولكن إذا بحثنا عن
    "بيض المفاجآت" على اليوتيوب
  • 1:37 - 1:40
    ستجد هناك 10 مليون من هذه الفيديوهات،
  • 1:40 - 1:42
    وأظن إنها أقل من الأرقام الفعلية.
  • 1:42 - 1:44
    أظن أن هناك الكثير منها للغاية.
  • 1:44 - 1:46
    إذا واصلت البحث،
    ستجد عددًا لا نهائيًا منها.
  • 1:46 - 1:48
    هناك الملايين من هذه الفيديوهات
  • 1:48 - 1:52
    بمزيج مفصّل ومتزايد من الماركات والمواد،
  • 1:52 - 1:56
    وهناك المزيد والمزيد منهم
    يتم تحميلهم كل يوم.
  • 1:56 - 1:59
    هذا عالم غريب، أليس كذلك؟
  • 1:59 - 2:03
    ولكن الأمر هو أن البالغين
    ليسوا مَن يشاهدوا هذه الفيديوهات.
  • 2:03 - 2:06
    إنهم الأطفال الصغار.
  • 2:06 - 2:08
    وهذه الفيديوهات يدمِنُها الأطفال الصغار.
  • 2:08 - 2:10
    هناك خطبٌ ما حول التكرار،
  • 2:10 - 2:12
    ويكشف لنا الدوبامين
    المستمر الحقيقة،
  • 2:12 - 2:14
    أنها تجذبهم تماما لها.
  • 2:14 - 2:19
    والصغار يشاهدون هذه الفيديوهات
    مرارًا وتكرارًا،
  • 2:19 - 2:21
    ويستغرقون ساعات طويلة في مشاهدتها.
  • 2:21 - 2:24
    وإذا حاولت إبعاد الشاشة عنهم
  • 2:24 - 2:26
    ستتوالى صرخاتهم.
  • 2:26 - 2:27
    إذا لم تصدقني ــ
  • 2:27 - 2:29
    ولقد شاهدت أشخاصا بالفعل
    بين الجمهور يومئون برأسهم ــ
  • 2:29 - 2:33
    إذا لم تصدقني،
    أجد شخصا لديه أطفالا واسألهم،
  • 2:33 - 2:35
    وستجدهم يعرفون أمر فيديوهات بيض المفاجآت.
  • 2:35 - 2:37
    ومن هنا بدأنا.
  • 2:37 - 2:41
    إنه عام 2018، وشخصا ما، أو الكثير منهم،
  • 2:41 - 2:45
    يستخدمون نفس الآلية، التي يستخدمها
    الفيس بوك والانستجرام
  • 2:45 - 2:47
    لتستمر في تفقد ذلك التطبيق،
  • 2:47 - 2:51
    ويستخدمونها على اليوتيوب
    لتخترق عقول صغار الأطفال
  • 2:51 - 2:53
    في مقابل عائدات الإعلانات.
  • 2:54 - 2:56
    على الأقل، هذا ما آمل أنهم يفعلونه.
  • 2:56 - 2:58
    آمل أن هذا ما يفعلونه لأجل ذلك،
  • 2:58 - 3:04
    لأن هناك طرق أسهل للحصول
    على عائدات الإعلانات على اليوتيوب.
  • 3:04 - 3:06
    يمكنك صنع أشياء أو سرقة أشياء.
  • 3:06 - 3:09
    لذا إذا بحثت عن أفلام الكرتون
    المشهورة للأطفال
  • 3:09 - 3:10
    ك"بيبا الخنزير"
  • 3:10 - 3:10
    أو "دوريات المخالب"
  • 3:10 - 3:14
    وستجد هناك الملايين والملايين
    منها أون لاين أيضا.
  • 3:14 - 3:17
    ومعظمها، بالطبع، لم ينشرها
    منشئي المحتوى الأصلي.
  • 3:17 - 3:20
    جاءت من تحميلات من حسابات مختلفة وعشوائية،
  • 3:20 - 3:22
    ومن المستحيل معرفة مَن ينشرهم
  • 3:22 - 3:24
    أو ما هي دوافعهم.
  • 3:24 - 3:26
    أهذا يبدو مألوفاً؟
  • 3:26 - 3:28
    لأنها بالضبط نفس الآلية
  • 3:28 - 3:31
    التي تحدث في معظم خدماتنا الرقمية،
  • 3:31 - 3:34
    حيث من المستحيل معرفة
    من أين تأتي هذه المعلومات.
  • 3:34 - 3:36
    إنها بالتأكيد أخبار مزيفة للأطفال،
  • 3:36 - 3:38
    ونحن ندرّّبهم منذ ولادتهم
  • 3:38 - 3:41
    على النقر على أول رابط يظهر أمامهم،
  • 3:41 - 3:43
    دون النظر إلى مصدره.
  • 3:43 - 3:45
    وهذا لا يبدو كفكرة جيدة للغاية.
  • 3:46 - 3:49
    وهنا شيء آخر خطير بالفعل
    على الأطفال على اليوتيوب.
  • 3:49 - 3:51
    يدعى "أغنية عائلة الأصابع".
  • 3:51 - 3:53
    سمعت للتو شخصا يتأوَّه بين الجمهور.
  • 3:53 - 3:55
    هذه هي "أغنية عائلة الأصابع".
  • 3:55 - 3:57
    وهذا أول فيديو تمكّنت من إيجاده.
  • 3:57 - 4:00
    منذ عام 2007، ولديه فقط 200 ألف مشاهدة،
  • 4:00 - 4:02
    ولا يمثل شيئا
    بالنسبة للمشاهدات الحالية.
  • 4:02 - 4:04
    ولكن لها تأثير النغمات
    التي تتردد في الأذهان،
  • 4:04 - 4:06
    ولن أُشغِّله لكم،
  • 4:06 - 4:08
    لأنها ستؤثر على عقولكم
  • 4:08 - 4:11
    بنفس الطريقة التي أثرت بها على عقلي،
  • 4:11 - 4:12
    ولن أفعل ذلك بكم.
  • 4:12 - 4:14
    ولكن مثل بيض المفاجآت،
  • 4:14 - 4:16
    اخترقت عقول الأطفال
  • 4:16 - 4:18
    وجعلتهم يدمنونها.
  • 4:18 - 4:20
    لذا في خلال بضع سنوات،
    فيديوهات عائلة الأصابع
  • 4:20 - 4:21
    بدأت تظهر في كل مكان،
  • 4:21 - 4:24
    وتجد نسخ بمختلف اللغات
  • 4:24 - 4:26
    بجانب أفلام كارتون الأطفال
    التي تستخدم الطعام
  • 4:26 - 4:28
    أو، صراحةً، تستخدم
    أي نوع من الرسوم المتحركة
  • 4:28 - 4:31
    التي تبدو أنها توجد حولنا.
  • 4:31 - 4:36
    ومرة أخرى، هناك الملايين
    والملايين من هذه الفيديوهات
  • 4:36 - 4:40
    متاحة أون لاين في جميع
    هذه المجموعات الجنونية نوعا ما
  • 4:40 - 4:42
    وكلما قضيت وقتا أطول في مشاهدتها،
  • 4:42 - 4:46
    ربما بدأ إحساسك بالجنون.
  • 4:46 - 4:49
    ومن هنا بدأت أتعمّق فيها
  • 4:49 - 4:53
    ذلك الشعور بالغرابة الشديدة
    والقصور في الفهم
  • 4:53 - 4:57
    حول كيفية إنشاء هذا الشيء
    الذي يبدو أنه يُقدَّم حولي.
  • 4:57 - 5:00
    لأنه من المستحيل أن تعرف مصدر هذه الأشياء.
  • 5:00 - 5:01
    مثل، مَن الذي يصنعهم؟
  • 5:01 - 5:04
    والبعض منهم صنعهم فريق
    من إخصائيي رسوم متحركة محترفين.
  • 5:05 - 5:07
    والبرمجيات جمّعتها بشكل عشوائي.
  • 5:07 - 5:12
    وبعض منهم يبدو مفيدا تماما لتسلية الصغار.
  • 5:12 - 5:13
    وبعضهم أشخاصاً
  • 5:13 - 5:16
    لا ينبغي أن يكونوا بجوار الأطفال نهائياً.
  • 5:16 - 5:18
    (ضحك)
  • 5:19 - 5:24
    ومرة أخرى، تعذّر اكتشاف صانع هذه الأمور ــ
  • 5:24 - 5:25
    مثل، هل هو إنسان آلي؟
  • 5:25 - 5:27
    هل هو شخص؟ أم غولاً؟
  • 5:28 - 5:30
    ماذا يعني ذلك
    أننا لا يمكننا معرفة الاختلاف
  • 5:30 - 5:31
    بين هذه الأمور بعد الآن؟
  • 5:32 - 5:36
    ومجددا، أليس ذلك الشك يبدو مألوفاً الآن؟
  • 5:38 - 5:41
    فالسبيل الأساسي ليحصل الناس
    على نسب مشاهدة لفيديوهاتهم
  • 5:41 - 5:42
    وتذكر، مشاهدات تعني نقود ــ
  • 5:42 - 5:47
    هي أنهم يُعنْوِنون هذه الفيديوهات
    بأسماء مشهورة.
  • 5:47 - 5:49
    مثل "بيض المفاجآت"
  • 5:49 - 5:51
    وأضف "دوريات المخالب"،
    و"بيض شم النسيم"
  • 5:51 - 5:52
    أو أيا من هذه الأشياء،
  • 5:52 - 5:55
    جميعها كلمات من فيديوهات أخرى
    مشهورة لتظهر في عنوانك،
  • 5:55 - 5:58
    حتى تنتهي بهذا النوع من مزيج
    عديم الجدوى للغة
  • 5:58 - 6:01
    لا تجدي نفعا لجميع البشر.
  • 6:01 - 6:04
    لأن بالطبع الصغار فقط
    هم الذين يشاهدون الفيديو الخاص بك،
  • 6:04 - 6:06
    وماذا يعرفون بحق الجحيم؟
  • 6:06 - 6:09
    فجمهورك الحقيقي
    لهذه الأشياء هي البرمجيات.
  • 6:09 - 6:11
    إنها الخوارزميات.
  • 6:11 - 6:12
    إنها البرمجيات التي يستخدمها اليوتيوب
  • 6:12 - 6:15
    لاختيار أي الفيديوهات
    التي تشبه الفيديوهات الأخرى،
  • 6:15 - 6:17
    لإشهارها، وتزكيتها.
  • 6:17 - 6:21
    ولهذا السبب ينتهي بك الأمر
    إلى هذا المزيج عديم الجدوى تماما،
  • 6:21 - 6:23
    سواء من حيث العنوان أو المحتوى.
  • 6:24 - 6:26
    ولكن عليك أن تتذكر،
  • 6:26 - 6:30
    أن لا زال هناك أشخاص في هذا النظام المثالي
    الذي يعمل بشكل لوغاريتمي،
  • 6:30 - 6:33
    أشخاصاً يتزايد اضطرارهم لتمثيل
  • 6:33 - 6:36
    هذا المزيج الغريب والمتزايد من الكلمات،
  • 6:36 - 6:41
    مثل فنان ارتجالي يائس
    يرد على الصرخات المجتمعة
  • 6:41 - 6:44
    لملايين الأطفال في آنٍ واحد.
  • 6:45 - 6:48
    هناك أشخاص حقيقيون
    محاصرون بين هذه الأنظمة،
  • 6:48 - 6:52
    والشيء الآخر الشديد الغرابة حول
    هذه الثقافة المدارة بالشكل اللوغاريتمي،
  • 6:52 - 6:53
    لأنه حتى ولو كنت إنساناً،
  • 6:53 - 6:55
    سينتهي بك الأمر لتتصرّف كالآلة
  • 6:55 - 6:57
    فقط لتبقى حيّا.
  • 6:57 - 6:59
    وأيضا، على الجانب الآخر من الشاشة،
  • 6:59 - 7:02
    لازال يوجد هؤلاء الأطفال
    وهم يشاهدون هذه الفيديوهات،
  • 7:02 - 7:06
    يُعيرون اهتمامهم بالكامل
    لهذه الآليات الغريبة.
  • 7:07 - 7:10
    ومعظم هؤلاء الأطفال
    صغار للغاية لاستخدام أي موقع.
  • 7:10 - 7:13
    إنهم فقط يطرقون
    بأيديهم الصغيرة على الشاشة.
  • 7:13 - 7:14
    وهناك تشغيل تلقائي،
  • 7:14 - 7:18
    حيث تستمر في عرض
    هذه الفيديوهات مرارًا وتكرارًا في حلقة
  • 7:18 - 7:20
    لا نهائية لمدة ساعات طويلة في كل مرة.
  • 7:20 - 7:23
    هناك أشياء غريبة للغاية في النظام الآن
  • 7:23 - 7:26
    فيأخذك التشغيل التلقائي
    إلى أماكن غريبة جدا.
  • 7:26 - 7:28
    وهكذا، من خلال عشرات الخطوات،
  • 7:28 - 7:31
    يمكنك التنقل من فيديو لطيف
    لقطار عد الأرقام
  • 7:31 - 7:34
    لاستمناء ميكي ماوس.
  • 7:35 - 7:37
    نعم. أنا آسف لذلك.
  • 7:37 - 7:39
    والأمر يزداد سوءأ.
  • 7:39 - 7:40
    وهذا ما يحدث
  • 7:40 - 7:43
    عندما كل هذه الكلمات الدلالية المختلفة،
  • 7:43 - 7:45
    وكل الأشكال المختلفة من الاهتمام،
  • 7:45 - 7:48
    وهذا الإنتاج المحبط للمحتوى،
  • 7:48 - 7:51
    تواجدوا جميعا في مكان واحد.
  • 7:52 - 7:56
    هذا هو المكان التي تأتي فيه كل
    الكلمات الأساسية الغريبة للغاية لتستقر.
  • 7:56 - 7:59
    وتمزج فيديو عائلة الأصابع
  • 7:59 - 8:01
    ببعض أمور الأبطال الخوارق الحقيقيين،
  • 8:01 - 8:04
    وتضيف بعض المزحات الاستفزازية أو أي شيء
  • 8:04 - 8:08
    وفجأة، تجد نفسك في موقع غريب للغاية.
  • 8:08 - 8:10
    الأمور التي تُغضب الآباء
  • 8:10 - 8:13
    هي الأمور التي تحتوي
    على مشاهد عنيفة أو جنسية، أليس كذلك؟
  • 8:13 - 8:16
    أفلام كارتون لأطفال يتعرضون للاعتداء،
  • 8:16 - 8:18
    يتعرضون للقتل،
  • 8:18 - 8:21
    مقالب غريبة تُرعب الأطفال بالفعل.
  • 8:21 - 8:25
    فليس لديك إلا برمجيات محاطة
    بكل هذه التأثيرات المختلفة.
  • 8:25 - 8:28
    لتخلق تلقائيا أسوأ كوابيس الأطفال.
  • 8:28 - 8:31
    وهذه الأمور بالفعل تؤثر على الأطفال.
  • 8:31 - 8:34
    وأفاد آباء أن أطفالهم
    قد تعرضوا لصدمة نفسية،
  • 8:34 - 8:35
    أصبحوا يخشوْن الظلام،
  • 8:35 - 8:38
    يخْشَوْن شخصيات
    أفلام الكارتون المفضلة لديهم.
  • 8:39 - 8:42
    والدرس المستفاد من هذه الفيديوهات،
    هو لو أن لديك أطفالا صغارا،
  • 8:42 - 8:44
    أبعدهم عن اليوتيوب بحق الجحيم.
  • 8:45 - 8:49
    (تصفيق)
  • 8:51 - 8:54
    ولكن السبب الذي جعلني
    أستعرض هذه الفيديوهات،
  • 8:54 - 8:58
    هو أنني لست متأكدا كيف
    نصل بالفعل إلى هذه النقطة.
  • 8:59 - 9:02
    لقد أخذنا كل هذه التأثيرات،
    وكل هذه الأمور،
  • 9:02 - 9:05
    وغيّرناها معا بطريقة لا يقصدها أحد بالفعل.
  • 9:05 - 9:08
    ومع ذلك، هذه هي الطريقة
    التي نبني بها العالم بأكمله.
  • 9:08 - 9:10
    نأخد كل هذه البيانات،
  • 9:10 - 9:11
    الكثير من البيانات السيئة،
  • 9:11 - 9:14
    الكثير من البيانات التاريخية
    المليئة بالتحيُّز،
  • 9:14 - 9:17
    مليئة بكل دوافعنا السيئة في التاريخ،
  • 9:17 - 9:19
    وننشئ ذلك في مجموعات ضخمة من البيانات
  • 9:19 - 9:21
    ونجعله أتوماتيكيا.
  • 9:21 - 9:24
    وغيّرنا هذه البيانات معا إلى أشياءٍ
    مثل تقارير الجدارة الائتمانية،
  • 9:24 - 9:26
    إلى أقساط التأمين،
  • 9:26 - 9:29
    إلى أشياء مثل الأنظمة التنبئية لحفظ الأمن،
  • 9:29 - 9:30
    إلى المبادئ التوجيهية لإصدار الأحكام.
  • 9:30 - 9:33
    هذه هي الطريقة التي نبني
    بها بالفعل العالم اليوم
  • 9:33 - 9:34
    بعيداً عن هذه البيانات.
  • 9:34 - 9:36
    ولا أعرف ما هو الأسوأ،
  • 9:36 - 9:39
    فنبني نظاما يبدو مثاليا بالكامل
  • 9:39 - 9:42
    لأسوأ الجوانب تماما لسلوك الإنسان،
  • 9:42 - 9:45
    أو كما يبدو أننا قمنا بذلك بالصدفة،
  • 9:45 - 9:47
    دون حتى أن ندرك ما كنا نفعله،
  • 9:47 - 9:50
    لأننا لم ندرك تماما الأنظمة
    التي قمنا بإنشائها،
  • 9:50 - 9:54
    ولم نفهم تماما كيفية فعل
    أي شيء بصورة مختلفة بها.
  • 9:55 - 9:58
    هناك أمرين أظن أنهما
    يتحكمان بهذا على ما يبدو
  • 9:58 - 9:59
    تحديدا على اليوتيوب،
  • 9:59 - 10:01
    الأمر الأول هو الإعلانات،
  • 10:01 - 10:04
    التي تجني الأرباح من جذب الانتباه
  • 10:04 - 10:07
    دون أي جهد حقيقي مبذول،
  • 10:07 - 10:11
    أي اهتمام للناس
    الذين يطوِّرون بالفعل هذا المحتوى،
  • 10:11 - 10:15
    تمركز القوى، وعزل تلك الأمور.
  • 10:15 - 10:18
    وأظن مهما كان شعورك حول استخدام الإعلانات
  • 10:18 - 10:19
    لدعم تلك الأمور،
  • 10:19 - 10:22
    منظر رجل بالغ يرتدي حفاض يتقلّب في الرمال
  • 10:22 - 10:25
    على أمل أن اللوغاريتم الذي لا يفهموه تماما
  • 10:25 - 10:27
    سيجنون الأموال من جراء ذلك
  • 10:27 - 10:29
    ويشير إلى أن ربما ليس هذا الأمر
  • 10:29 - 10:31
    الذي يجب علينا أن
    نبني به مجتمعنا وثفافتنا،
  • 10:31 - 10:33
    والطريقة التي يجب علينا تمويله من خلالها.
  • 10:34 - 10:37
    والأمر الآخر هو المحرك الرئيسي لهذا
    هو التشغيل التلقائي،
  • 10:37 - 10:39
    الذي يعتبر الموزّع لكل هذه التكنولوجيا
  • 10:39 - 10:42
    بمجرد وصولها،
    مع عدم وجود أي نوع من أنواع الرقابة،
  • 10:42 - 10:43
    ثم بمجرد ظهورها هناك،
  • 10:43 - 10:47
    كأننا نرفع أيدينا ونمضي
    "ونلقي باللوم على التكنولوجيا."
  • 10:47 - 10:49
    كأننا "لم نكن شركاء في ذلك."
  • 10:49 - 10:51
    وذلك ليس جيدا بما يكفي،
  • 10:51 - 10:53
    لأن هذه الأمور
    لا يتم التحكم بها بشكل لوغاريتمي فقط،
  • 10:53 - 10:56
    بل أيضا يتم حمايتها بشكل لوغاريتمي.
  • 10:56 - 10:59
    حينما بدأ اليوتيوب
    أن يولي اهتمامه لهذه الأمور،
  • 10:59 - 11:01
    أول شيء قالوه ليفعلوا شيئا حياله
  • 11:01 - 11:04
    كان أنهم سينشرون
    آلة أفضل على دراية باللوغاريتمات
  • 11:04 - 11:05
    لتعديل المحتوى.
  • 11:05 - 11:09
    قدرة الآلة على التعلم،
    كأي خبير في هذا المجال سيخبرك،
  • 11:09 - 11:10
    هي أساسا ما بدأنا تسميته
  • 11:10 - 11:13
    بالبرامجيات التي لا ندرك بالفعل كيف تعمل.
  • 11:13 - 11:17
    وأظن أن لدينا بالفعل قدر كاف منها.
  • 11:17 - 11:20
    ولم يجدر بنا أن نترك الأمر برمته
    للذكاء الاصطناعي لكي يقرر
  • 11:20 - 11:22
    ما هو مناسب أم غير مناسب،
  • 11:22 - 11:23
    لأننا نعرف ما يحدث.
  • 11:23 - 11:25
    سيبدأ بمراقبة الأشياء الأخرى.
  • 11:25 - 11:26
    سيبدأ بفرض رقابة على المحتوى الغريب.
  • 11:27 - 11:29
    سيبدأ بفرض رقابة
    على الخطاب العام المشروع.
  • 11:29 - 11:31
    وما هو مسموح في هذه المحادثات،
  • 11:31 - 11:34
    ولا ينبغي أن يُترك الأمر برمته
    لأنظمة غير مسؤولة.
  • 11:34 - 11:37
    إنها جزء من مناقشة يجب أن نشارك بها جميعا.
  • 11:37 - 11:38
    ولكن سأترك تذكِرة
  • 11:38 - 11:41
    أن البديل ليس مبهجا للغاية أيضا.
  • 11:41 - 11:42
    وأعلن اليوتيوب مؤخرا
  • 11:42 - 11:45
    أنهم سيطلقون نسخة
    من تطبيقهم الخاص بالأطفال
  • 11:45 - 11:48
    الذي سيعدّله البشر بالكامل.
  • 11:48 - 11:52
    الفيس بوك... تحدّث زوكربيرج كثيرا
    عن نفس الشيء في الكونجرس،
  • 11:52 - 11:55
    عندما أعرب عن كيفية تعديل محتواهم.
  • 11:55 - 11:57
    قال إن لديهم أشخاصا يقومون بذلك.
  • 11:57 - 11:58
    وما يعنيه ذلك الكلام هو أن
  • 11:58 - 12:01
    بدلا من أن يكون الأطفال الصغار
    هم أول من يشاهدوا هذا المحتوى،
  • 12:01 - 12:04
    سيكون هناك موظفين بأجر يعملون بعقد مؤقت
  • 12:04 - 12:06
    بدون دعم مناسب للصحة العقلية
  • 12:06 - 12:07
    التي ستتضرّر بسببها أيضا.
  • 12:07 - 12:08
    (ضحك)
  • 12:08 - 12:11
    أظن أنه يمكننا جميعا أن
    نعمل أفضل كثيرا من ذلك.
  • 12:11 - 12:13
    (تصفيق)
  • 12:14 - 12:19
    أظن أن الفكر الذي يجمع هذه الأمور معا،
    بالنسبة لي،
  • 12:19 - 12:20
    هو الوكالة.
  • 12:20 - 12:23
    كأننا نحدد مقدار ما ندركه بالفعل...
    حسب الوكالة، أعني:
  • 12:23 - 12:28
    كيف نعرف كيفية التصرُّف في مصالحنا الفضلي.
  • 12:28 - 12:30
    التي ... من المستحيل القيام بذلك
  • 12:30 - 12:33
    في هذه الأنظمة التي لا نفهمها تماما.
  • 12:33 - 12:36
    عدم التكافؤ في ميزان القوى
    يؤدي دائما إلى العنف.
  • 12:36 - 12:38
    ويمكننا رؤية داخل هذه الأنظمة
  • 12:38 - 12:40
    أن انعدام المساواة في الفهم
    يؤدي أيضا لنفس النتيجة.
  • 12:41 - 12:44
    إذا كان هناك شيئا ما يمكننا فعله
    للبدء في تحسين هذه الأنظمة،
  • 12:44 - 12:47
    هو أن نوضحها بشكل أفضل
    للناس الذين يستخدمونها،
  • 12:47 - 12:49
    لكي نحظى جميعا بفهم موحد
  • 12:49 - 12:51
    لما يجري هنا بالفعل.
  • 12:52 - 12:55
    الأمر هو أنه، على الرغم من أنني
    أفكر كثيرا في هذه الأنظمة،
  • 12:55 - 12:59
    ليس فقط عن اليوتيوب
    كما آمل أني قد شرحت ذلك.
  • 12:59 - 13:00
    ولكنه عن كل شيء.
  • 13:00 - 13:03
    هذه القضايا المتعلقة بالمسؤولية والوكالة،
  • 13:03 - 13:05
    ومعدل الشفافية والتعقيد،
  • 13:05 - 13:08
    والعنف والاستغلال الذي ينتج تلقائيا
  • 13:08 - 13:11
    عن تمركز القوى بين أياد قليلة...
  • 13:11 - 13:13
    هذه القضايا أكبر بكثير.
  • 13:14 - 13:18
    إنها قضايا ليست متعلقة باليوتيوب فحسب،
    وليست متعلقة بالتكنولوجيا عموما،
  • 13:18 - 13:19
    وليست حتى جديدة.
  • 13:19 - 13:21
    إنها تتواجد معنا منذ قرون.
  • 13:21 - 13:25
    ولكن في النهاية بنينا هذا النظام،
    هذا النظام العالمي، الإنترنت،
  • 13:25 - 13:28
    الذي قدمهم إلينا بالفعل بطريقة رائعة،
  • 13:28 - 13:30
    بشكل لا يمكن إنكاره.
  • 13:30 - 13:33
    التكنولوجيا لديها هذه القدرة الرائعة
  • 13:33 - 13:37
    لتنشئ مثيلا وتستمر
  • 13:37 - 13:41
    في عرض كل رغباتنا الأكثر غرابة
    وغالبا ما تكون رغبات وتحيّزات خفية
  • 13:41 - 13:43
    وترميزهم إلى العالم،
  • 13:43 - 13:46
    ولكن تدوّنهم أيضا لكي نتمكن من رؤيتهم،
  • 13:46 - 13:50
    ولا يمكننا التظاهر بعدم وجودها بعد الآن.
  • 13:50 - 13:54
    نحتاج أن نكف عن التفكير في التكنولوجيا
    كحل لكل مشاكلنا،
  • 13:54 - 13:58
    ولكن نفكر فيها كدليل لمعرفة
    ما هي تلك المشاكل بالفعل،
  • 13:58 - 14:00
    لكي نبدأ بالتفكير فيهم بشكل مناسب
  • 14:00 - 14:02
    ونبدأ في مواجهتهم.
  • 14:02 - 14:03
    شكرا جزيلا لكم.
  • 14:03 - 14:08
    (تصفيق)
  • 14:10 - 14:11
    شكرا لكم.
  • 14:11 - 14:14
    (تصفيق)
  • 14:17 - 14:20
    شكرا لك يا جيمس لقدومك
    وتقديمك لهذه المحادثة لنا.
  • 14:20 - 14:21
    هذا مثير للاهتمام:
  • 14:21 - 14:25
    حينما تفكر في الأفلام التي يسيطر فيها
    الإنسان الآلي ويصبح الحاكم،
  • 14:25 - 14:28
    إنها أكثر إبهارا قليلا عما تصفه.
  • 14:28 - 14:32
    ولكن أتساءل... في تلك الأفلام،
    نرى تصاعد المقاومة.
  • 14:32 - 14:35
    أيوجد تصاعد للمقاومة ضد هذه الأمور؟
  • 14:35 - 14:39
    أترى أي إشارات إيجابية، أي بوادر للمقاومة؟
  • 14:41 - 14:43
    لا أعرف عن المقاومة المباشرة،
  • 14:43 - 14:45
    لأن هذه الأمور طويلة الأمد للغاية.
  • 14:45 - 14:48
    أظن أنها يتم غرسها في ثقافتنا
    بطرق عميقة للغاية.
  • 14:48 - 14:50
    وتقول صديقتي "إلينورسايتا" دائما
  • 14:50 - 14:54
    أي مشاكل تكنولوجية بحجم ونطاق كافٍ
  • 14:54 - 14:56
    هي مشاكل سياسية في المقام الأول.
  • 14:56 - 14:59
    لذا، كل هذه الأمور التي نعمل
    للتصدي لها في هذا النطاق
  • 14:59 - 15:02
    لن يتم التصدي لها فقط
    بإنشاء تكنولوجيا أفضل،
  • 15:02 - 15:05
    ولكن بتغير المجتمع بالفعل
    الذي يُنتج هذه التكنولوجيات.
  • 15:05 - 15:08
    لذا أقول لا، ليس الآن،
    أظن أن لدينا طريق طويل للغاية للمضي فيه.
  • 15:09 - 15:10
    ولكن كما قلت، أظن بإظهارهم،
  • 15:11 - 15:13
    وبتوضيحهم، وبالتحدّث عنهم بصراحة مطلقة،
  • 15:13 - 15:16
    يمكننا البدء على الأقل بهذه الخطوات.
  • 15:16 - 15:19
    وعندما تتحدّث عن سهولة القراءة
    والمعرفة الرقمية،
  • 15:19 - 15:21
    أجد صعوبة في تخيُّل
  • 15:21 - 15:25
    أننا نحتاج إلي أن نضع عِبء المعرفة الرقمية
    على عاتق المستخدمين.
  • 15:25 - 15:29
    ولكن على مَن تقع مسؤولية التعليم
    في هذا العالم الجديد؟
  • 15:29 - 15:33
    مرة أخرى، أظن أنها مسؤوليتنا جميعا،
  • 15:33 - 15:36
    فكل شيء نفعله، وكل شيء نبنيه، ونصنعه،
  • 15:36 - 15:40
    يحتاج أن يتم في مناقشة توافقية
  • 15:40 - 15:42
    مع كل شخص يتجنبها؛
  • 15:42 - 15:46
    لأننا لا ننشئ أنظمة
    بغرض خداع ومفاجأة الناس
  • 15:46 - 15:48
    لفعل الصواب،
  • 15:48 - 15:52
    ولكن نحن بالفعل مشاركون
    في كل خطوة في تعليمهم،
  • 15:52 - 15:54
    لأن كل نظام من هذه النظم يُعد تعليميًا.
  • 15:54 - 15:57
    ولهذا السبب أنا متفائل بشأنه،
    وحتى بشأن هذه الأمور المُروّعة،
  • 15:57 - 15:59
    التي إذا أخذتها وأمعنت النظر فيها،
  • 15:59 - 16:01
    ستجدها بالفعل قطعة تعليمية
  • 16:01 - 16:05
    التي تسمح لك ببدء رؤية كم الأنظمة المعقدة
    التي تجتمع معا وتعمل
  • 16:05 - 16:09
    وربما تُطبق تلك المعرفة
    في أي مكان آخر في العالم.
  • 16:09 - 16:11
    إنها مناقشة هامة يا جيمس،
  • 16:11 - 16:14
    وأعرف الكثير من الأشخاص منفتحين للغاية
    ومستعدين للحصول عليه،
  • 16:14 - 16:16
    لذا، شكرا لأنك بدأت صباحنا بشيء جيد.
  • 16:16 - 16:17
    شكرا لكم جزيلا. هتاف.
  • 16:17 - 16:19
    (تصفيق)
Title:
فيديوهات كوابيس الأطفال على اليوتيوب وما خطب الإنترنت اليوم
Speaker:
جيمس برايدل
Description:

يكشف جيمس برايدل الكاتب والفنان النقاب عن الجانب المظلم والغريب للإنترنت، حيث يخترق أشخاص مجهولون أو مجموعات على اليوتيوب عقول الأطفال الصغار في مقابل عائدات الإعلانات. بدءًا بفيديوهات "بيض المفاجآت" و"أغنية أصابع العائلة" إلى أن ينتهي الأمر بعمليات مزج تمت بطريقة لوغاريتمية لشخصيات معروفة من أفلام الكارتون في مواضع عنيفة، وهذه الفيديوهات تستغل عقول الأطفال الصغار وتُرعبها، إنها تخبرنا شيئا عن إلى أين يتجه العالم المعتمد على البيانات بشكل كبير. ويقول برايدل "نحتاج إلى أن نكف عن التفكير في التكنولوجيا كحل لكل مشاكلنا، ولكن نحتاج في التفكير فيها كمرشد يدلنا على ما هي تلك المشاكل بالفعل، لكي نبدأ بالتفكير بهم بشكل جيد والبدء في التصدي لهم"

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Arabic subtitles

Revisions