Return to Video

كيف يمكننا المساعدة في تحويل الإنترنت إلى فضاء من الثقة

  • 0:02 - 0:04
    بغض النظر عن هويتك أو أين تعيش،
  • 0:04 - 0:06
    أنا أتوقع أنه لديك على الأقل قريب واحد
  • 0:06 - 0:09
    يفضّل تمرير تلك الرسائل الإلكترونية.
  • 0:09 - 0:11
    تعرفون نوعية الرسائل التي أقصدها...
  • 0:11 - 0:14
    رسائل تحتوي على ادعاءات مشكوك فيها
    أو فيديوهات المؤامرة.
  • 0:14 - 0:17
    وغالبًا قد تكون منعتهم
    من الظهور على الفيسبوك
  • 0:17 - 0:19
    لمشاركة منشورات اجتماعية مثل هذه.
  • 0:19 - 0:21
    إنها صورة لموزة
  • 0:21 - 0:23
    يتواجد في مركزها صليب أحمر.
  • 0:23 - 0:26
    والنص حولها يحذر الجميع
  • 0:26 - 0:28
    بأن لا يأكلوا الفاكهة التي تبدو هكذا،
  • 0:28 - 0:30
    مدعين أنها محقونة بدم
  • 0:30 - 0:32
    ملوث بفيروس نقص المناعة المكتسبة.
  • 0:32 - 0:35
    ورسالة المشاركة الاجتماعية
    الموجودة أعلاه تقول:
  • 0:35 - 0:37
    "رجاءً مرّرها لتنفذ الأرواح".
  • 0:38 - 0:41
    مدققو الحقائق كانوا يدحضون
    هذا الادعاء لسنوات،
  • 0:41 - 0:44
    إلا أنها واحدة من تلك الإشاعات
    التي لا تموت ببساطة.
  • 0:44 - 0:45
    كإشاعة الزومبي.
  • 0:46 - 0:48
    وبالطبع، فهي كاذبة تمامًا.
  • 0:48 - 0:51
    من الممكن أن يكون رد فعلك
    الضحك على مثال كهذا وjقول:
  • 0:51 - 0:53
    "حسنًا، من يصدق هذا بأي حال؟"
  • 0:53 - 0:55
    ولكن سبب كونها كإشاعة الزومبي
  • 0:55 - 0:59
    هو أنها تتعامل مع أعمق المخاوف
    لدى الأشخاص حول سلامتهم الشخصية
  • 0:59 - 1:01
    وسلامة أحبائهم.
  • 1:02 - 1:05
    وإذا أمضيت وقتًا كافيًا كالذي أمضيته
    بالنظر في المعلومات الخاطئة،
  • 1:05 - 1:08
    ستعرف أن هذا مجرد مثال واحد
    من أمثلة عديدة
  • 1:08 - 1:11
    تتلاعب في أعمق مخاوف الأشخاص ونقاط ضعفهم.
  • 1:11 - 1:16
    كل يوم، حول العالم، نرى أعدادًا مهولة
    من الصور ذات التعليقات على الإنستغرام
  • 1:16 - 1:19
    تشجع الأهل على عدم إعطاء أولادهم
    لقاحًا ما.
  • 1:19 - 1:23
    نرى فيديوهات جديدة على يوتيوب
    تشرح أن التغير المناخي عبارة عن خدعة.
  • 1:23 - 1:28
    وعلى جميع المنصات، نرى منشورات
    لا نهاية لها مصممة لتشويه صورة الآخرين
  • 1:28 - 1:31
    على أساس عرقهم أو دينهم أو جنسهم.
  • 1:32 - 1:35
    أهلاً بك في أحد التحديات الرئيسية
    في عصرنا.
  • 1:36 - 1:40
    كيف يمكننا الحفاظ على إنترنت
    يقوم في جوهره على حرية التعبير،
  • 1:40 - 1:43
    مع ضمان أن المحتوى الذي يجري نشره
  • 1:43 - 1:47
    لا يؤدي إلى ضرر دائم
    لديمقراطيتنا ومجتمعاتنا
  • 1:47 - 1:49
    بالإضافة إلى سلامتنا الجسدية والنفسية؟
  • 1:50 - 1:52
    لأننا نعيش في عصر المعلومات،
  • 1:52 - 1:56
    إلا أن العنصر الرئيسي
    الذي نعتمد عليه جميعًا...المعلومات...
  • 1:56 - 1:58
    لم تعد تُعتبر جديرة بالثقة بشكل مطلق
  • 1:58 - 2:00
    ويمكن أن تكون في بعض الأحيان خطيرة.
  • 2:01 - 2:05
    هذا بفضل منصات المشاركة الاجتماعية
    التي انتشرت بشكل كبير
  • 2:05 - 2:06
    والتي تتيح لنا التصفح فيها،
  • 2:06 - 2:09
    حيث تتواجد الحقائق
    والأكاذيب جنبًا إلى جنب،
  • 2:09 - 2:12
    ولكن بدون وجود أي من العلامات
    التقليدية التي تعطي الثقة.
  • 2:12 - 2:16
    كما أن لغتنا بشأن هذا الموضوع
    مشوشة بشكل كبير.
  • 2:16 - 2:19
    لا يزال الناس مهووسين
    بعبارة "الأخبار الزائفة"،
  • 2:19 - 2:22
    بالرغم من حقيقة أن هذا الأمر
    غير مفيد إطلاقًا
  • 2:22 - 2:25
    كما أنها تستخدم لوصف
    عدة أشياء مختلفة عن بعضها البعض:
  • 2:25 - 2:28
    أكاذيب، وإشاعات، وخدع،
    ومؤامرات، ودعاية التهويل.
  • 2:29 - 2:32
    وأتمنى فعلًا أن نتوقف عن استعمال تعبيرٍ
  • 2:32 - 2:35
    تبناه سياسيون في جميع أنحاء العالم،
  • 2:35 - 2:36
    من اليسار ومن اليمين،
  • 2:36 - 2:39
    يستخدم كسلاح لمهاجمة الصحافة الحرة
    والمستقلة.
  • 2:40 - 2:45
    (تصفيق)
  • 2:45 - 2:48
    لأننا نحتاج قنواتنا الإخبارية المحترفة
    الآن أكثر من أي وقت مضى.
  • 2:49 - 2:52
    كما أن معظم هذا المحتوى
    لا يوضع في قوالب إخبارية.
  • 2:52 - 2:55
    فهي صور ذات تعليقات،
    وفيديو، ومشاركات اجتماعية.
  • 2:55 - 2:58
    وأغلبها ليست بأكاذيب، ولكنها محتوى مضلل.
  • 2:58 - 3:01
    نميل للتركيز على ما هو صحيح وما هو خاطئ.
  • 3:01 - 3:05
    إلا أن خوفنا الأكبر
    هو استخدام سياق الكلام كسلاح.
  • 3:07 - 3:09
    لأن التضليل الأكثر فعالية
  • 3:09 - 3:12
    هو الذي يحتوي في جوهره على الحقيقة.
  • 3:12 - 3:15
    لنأخذ هذا المثال من لندن، في مارس 2017،
  • 3:15 - 3:17
    تغريدة انتشرت على نطاق واسع
  • 3:17 - 3:21
    في أعقاب حادث إرهابي وقع على جسر وستمنستر.
  • 3:21 - 3:23
    هذه صورة حقيقية وليست مفبركة.
  • 3:23 - 3:26
    تم إجراء مقابلة لاحقًا
    مع السيدة التي تظهر في الصورة،
  • 3:26 - 3:29
    حيث أخبرتنا أنها أصيبت بصدمة كبيرة.
  • 3:29 - 3:30
    كانت تتحدث مع أحد أفراد أسرتها،
  • 3:30 - 3:33
    ولم تكن تنظر للضحية من منطلق احترام.
  • 3:33 - 3:37
    إلا أن الصورة انتشرت على نطاق واسع
    في إطار الإسلاموفوبيا،
  • 3:37 - 3:40
    مرفقة مع وسوم مختلفة
    ومنها #امنعواـالإسلام.
  • 3:40 - 3:43
    تخيل نفسك تعمل لدى تويتر، ماذا ستفعل؟
  • 3:43 - 3:45
    هل ستترك الصورة لتنتشر،
    أم تزيلها من التداول؟
  • 3:47 - 3:50
    ردة فعلي، ردة فعلي العاطفية،
    هي إزالتها.
  • 3:50 - 3:52
    أكره الإطار الذي وُضعت فيه هذه الصورة.
  • 3:53 - 3:55
    لكن حرية التعبير حق بشري،
  • 3:55 - 3:58
    وإذا أزلنا الخطابات
    التي لا نشعر بالراحة تجاهها،
  • 3:58 - 3:59
    فنحن في ورطة.
  • 4:00 - 4:02
    وربما بدت هذه الحالة واضحة بدون لبس،
  • 4:02 - 4:04
    ولكن الحقيقة عكس ذلك
    في معظم الخطابات.
  • 4:04 - 4:06
    من الصعب الفصل فيها بوضوح.
  • 4:06 - 4:08
    ما قد يكون قرارًا واضحًا لشخص ما
  • 4:08 - 4:10
    يكون رقابة صارخة لشخص آخر.
  • 4:11 - 4:14
    ما نعرفه أن الحساب "تكساس لون ستار"،
  • 4:14 - 4:17
    كان جزءًا من حملة كبيرة
    للتضليل أعدّتها روسيا،
  • 4:17 - 4:19
    وقد تمت إزالته من التداول منذ ذاك.
  • 4:19 - 4:21
    هل سيغير ذلك من نظرتكم؟
  • 4:21 - 4:22
    سيغير نظرتي،
  • 4:23 - 4:25
    لأن الوضع الآن أصبح عبارة عن حملة ممنهجة
  • 4:25 - 4:26
    لزرع الفتنة.
  • 4:26 - 4:28
    ولمن يظنون
  • 4:28 - 4:31
    أن الذكاء الاصطناعي سيحل جميع مشاكلكم،
  • 4:31 - 4:33
    أعتقد أننا جميعنا نتفق أن الطريق
    ما زال طويلًا
  • 4:33 - 4:36
    لكي يتمكن الذكاء الاصطناعي
    من تمييز معنى منشور كهذا.
  • 4:37 - 4:39
    لذا سأذكر ثلاثة مواضيع مترابطة
  • 4:39 - 4:42
    تجعل هذا الأمر معقدًا للغاية
  • 4:42 - 4:45
    ثم نناقش بعض الطرق
    التي تمكننا من التعامل مع هذه التحديات.
  • 4:45 - 4:49
    أولاً، نحن لا تربطنا علاقة عقلانية
    مع المعلومات،
  • 4:49 - 4:51
    بل تربطنا علاقة عاطفية.
  • 4:51 - 4:55
    ليس صحيحًا أن المزيد من الحقائق
    سيجعل كل شيء طبيعيًا،
  • 4:55 - 4:58
    لأن الخوارزميات التي تحدد المحتوى
    الذي نشاهده،
  • 4:58 - 5:01
    مصممة لكي تستجيب مع ردود أفعالنا العاطفية.
  • 5:01 - 5:02
    وعندما نخشى أمرًا ما،
  • 5:02 - 5:05
    فإن الروايات المبالغ في تبسيطها
    والتفسيرات التآمرية
  • 5:05 - 5:09
    وخطاب شيطنة الآخرين، تصبح أكثر فاعلية.
  • 5:10 - 5:11
    كما أن العديد من تلك الشركات،
  • 5:11 - 5:14
    تقوم سياسات عملها على جذب الاهتمام،
  • 5:14 - 5:18
    ما يعني أن الخوارزميات تفضل العاطفة أكثر.
  • 5:18 - 5:23
    ثانيًا، معظم الخطابات
    التي أتحدث عنها هنا قانونية.
  • 5:23 - 5:25
    سيكون الأمر مختلفًا تمامًا
  • 5:25 - 5:27
    لو ارتبط الأمر بصور اعتداءات جنسية
    على الأطفال
  • 5:27 - 5:29
    أو محتوى يشجع على العنف.
  • 5:29 - 5:32
    يمكن أن يكون نشر كذبة واضحة
    غير مخالف تمامًا للقانون.
  • 5:33 - 5:37
    إلا أن الناس لا يزالون يتحدثون عن إزالة
    المحتوى "الضار" أو "الإشكالي"،
  • 5:37 - 5:40
    ولكن بدون تعريف واضح لما يعنيه ذلك،
  • 5:40 - 5:41
    بما فيهم مارك زكربورغ،
  • 5:41 - 5:45
    الذي طالب بقوانين عالمية لتقنين الخطاب.
  • 5:45 - 5:47
    وما أخشاه أننا نشاهد حكومات
  • 5:47 - 5:48
    في جميع أنحاء العالم
  • 5:48 - 5:51
    تقرّ سياسات مُتعجلة
  • 5:51 - 5:54
    يمكن أن تؤدي إلى عواقب أكثر خطورة
  • 5:54 - 5:56
    حين يتعلق الأمر بخطاباتنا.
  • 5:56 - 6:00
    وحتى إن تمكنا من تحديد
    أي الخطابات نزيلها أو نبقي عليها،
  • 6:00 - 6:02
    فنحن لم نتعامل
    مع هذا القدر من الخطابات سابقًا.
  • 6:02 - 6:04
    هنالك الملايين من المنشورات كل ثانية
  • 6:04 - 6:06
    يرفعها الناس حول العالم
  • 6:06 - 6:07
    بلغات مختلفة،
  • 6:07 - 6:10
    تستمد سياقاتها من آلاف
    السياقات الثقافية المختلفة.
  • 6:10 - 6:13
    نحن ببساطة لم نمتلك سابقًا آلية فعالة
  • 6:13 - 6:14
    لمراقبة خطابات بهذه الكمية،
  • 6:15 - 6:17
    سواء آليات قائمة على البشر أو التكنولوجيا.
  • 6:18 - 6:22
    وثالثاً، هذه الشركات...جوجل،
    وتويتر، وفيسبوك، وواتس آب...
  • 6:22 - 6:25
    هم جزء من نظام معلوماتي أكبر.
  • 6:25 - 6:28
    ونحن نحب أن نلقي باللوم عليهم،
    إلا أن الحقيقة،
  • 6:28 - 6:32
    أن وسائل الإعلام والمسؤولين المنتخبين
    يمكن أن يلعبوا دورًا مساويًا أيضًا
  • 6:32 - 6:35
    في تضخيم الإشاعات والمؤامرات
    عندما يرغبون في ذلك.
  • 6:36 - 6:41
    نحن نقوم بذلك أيضًا حين نمرّر بلا مبالاة
    مواد مضللة أو مسببة للخلاف
  • 6:41 - 6:42
    دون أي محاولة.
  • 6:42 - 6:44
    نحن نزيد من التلوث.
  • 6:45 - 6:48
    أعرف أننا جميعًا نبحث عن حل سهل.
  • 6:48 - 6:50
    ولكن لا يوجد مثل هذا الأمر.
  • 6:50 - 6:54
    أي حل ينبغي أن يكون
    على نطاق واسع، على نطاق الإنترنت،
  • 6:54 - 6:58
    والمنصات معتادة على العمل في نطاق كهذا.
  • 6:58 - 7:01
    ولكن هل بوسعنا تركهم يصلحون هذه المشكلات؟
    وهل ينبغي علينا السماح لهم بذلك؟
  • 7:02 - 7:03
    هم يحاولون بالتأكيد.
  • 7:03 - 7:07
    إلا أن أغلبنا يتفق في الحقيقة
    أننا لا نرغب أن تكون الشركات العالمية
  • 7:07 - 7:09
    هم حماة الحقيقة والشفافية على الإنترنت.
  • 7:09 - 7:12
    وأعتقد أن تلك المنصات
    ستوافق على ذلك أيضًا.
  • 7:12 - 7:15
    وهو يقومون حاليًا بتجهيز أنفسهم داخليًا.
  • 7:15 - 7:16
    هم يرغبون أن يقولوا لنا
  • 7:16 - 7:19
    أن الإجراءات التي يقومون بتطبيقها
    بدأت تعطي ثمارها،
  • 7:19 - 7:22
    لكن ولأنهم يكتبون
    تقارير النزاهة الخاصة بهم،
  • 7:22 - 7:25
    فلا توجد طريقة لكي نتحقق مما يجري
    بشكل مستقل.
  • 7:26 - 7:30
    (تصفيق)
  • 7:30 - 7:33
    ولنكن واضحين كذلك،
    أغلب التغيرات التي نراها
  • 7:33 - 7:36
    حدثت بعد إجراء صحفيين لتحقيقات
  • 7:36 - 7:37
    وعثورهم على أدلة تؤكد عدم الحيادية
  • 7:37 - 7:40
    أو محتوى يتعارض مع سياسات مجتمعاتهم.
  • 7:41 - 7:45
    ولذا، نعم، يجب على تلك الشركات
    القيام بدور هام جدًا في تلك العملية،
  • 7:45 - 7:47
    ولكن لا يجب أن يتحكموا بها.
  • 7:48 - 7:49
    ماذا بشأن الحكومات؟
  • 7:50 - 7:53
    يعتقد الكثير من الناس
    أن القوانين العالمية هي أملنا الأخير
  • 7:53 - 7:56
    لكي نتمكن من تطهير
    نظامنا المعلوماتي المترابط.
  • 7:56 - 7:59
    إلا أن ما أراه هو أن المشرّعين
    هم الذين يعانون لمواكبة
  • 7:59 - 8:01
    التغيرات المتسارعة في التكنولوجيا.
  • 8:01 - 8:03
    والأسوأ هو أنهم يعملون دون أي دراية،
  • 8:03 - 8:05
    لأنه لا توجد لديهم طريقة للوصول للبيانات
  • 8:05 - 8:08
    لكي يفهموا ما يجري على تلك المنصات.
  • 8:08 - 8:11
    وعلى أي حال، ما هي الحكومات
    التي يمكن أن نثق بها للقيام بذلك؟
  • 8:11 - 8:14
    نريد فعلًا عالميًا وليس محليًا.
  • 8:15 - 8:18
    لذا الحلقة المفقودة هي نحن.
  • 8:18 - 8:21
    الناس الذين يستخدمون تلك التكنولوجيا
    كل يوم.
  • 8:21 - 8:26
    هل يمكننا تصميم بنية تحتية جديدة
    لدعم جودة المعلومات؟
  • 8:26 - 8:28
    حسنًا، أعتقد أنه يمكننا ذلك.
  • 8:28 - 8:31
    ولدي بعض الأفكار
    عما يمكننا القيام به بالفعل.
  • 8:31 - 8:34
    أولاً، إن كنا جادين حقًا
    بشأن إشراك الناس بهذا الأمر،
  • 8:34 - 8:37
    هل يمكن أن نستلهم من تجربة ويكيبيديا؟
  • 8:37 - 8:38
    هم أثبتوا أن الأمر ممكن.
  • 8:38 - 8:40
    أجل، التجربة ليست مثالية،
  • 8:40 - 8:42
    لكنهم أظهروا
    أنه وباستخدام الهياكل الصحيحة،
  • 8:42 - 8:45
    ورقابة عالمية
    ودرجة كبيرة جدًا من الشفافية،
  • 8:45 - 8:48
    يمكن بناء شيء يحظى بثقة أغلب الناس.
  • 8:48 - 8:51
    لأنه يتوجب علينا أن نجد طريقة
    لكي نستفيد من الحكمة الجماعية
  • 8:51 - 8:53
    والخبرات التي يمتلكها كل المستخدمين.
  • 8:54 - 8:56
    وهذا ينطبق بالذات على النساء،
    وذوي البشرة غير البيضاء
  • 8:56 - 8:58
    والمجموعات قليلة التمثيل.
  • 8:58 - 8:59
    هل تعرفون لماذا؟
  • 8:59 - 9:01
    لأنهم خبراء حين يتعلق الأمر
    بالكراهية والتضليل،
  • 9:02 - 9:05
    لأنهم شكّلوا أهدافًا لتلك الحملات
    منذ زمن بعيد.
  • 9:05 - 9:07
    ولقد رفعوا الكثير من علامات التحذير
    على مر السنين،
  • 9:07 - 9:09
    ولم يتم الانتباه لأي منها.
  • 9:09 - 9:10
    يجب أن يتغير هذا الأمر.
  • 9:11 - 9:15
    فهل يمكننا بناء ويكيبيديا
    من أجل الاستيثاق؟
  • 9:15 - 9:19
    هل يمكننا أن نجد طريقة
    ليتمكن المستخدمون من إضافة رؤيتهم؟
  • 9:19 - 9:23
    يمكن أن يقدموا رؤاهم بخصوص
    القرارات الصعبة لمراقبة المحتوى.
  • 9:23 - 9:25
    يمكنهم تقديم ملاحظاتهم
  • 9:25 - 9:29
    حين تقرر المنصات
    تقديم تغيرات جديدة للمستخدمين.
  • 9:29 - 9:32
    ثانيًا، تجارب الناس مع المعلومات
    لها طابعها الشخصي.
  • 9:32 - 9:35
    الأخبار التي تظهر لي على فيسبوك
    تختلف عن تلك التي تظهر لك.
  • 9:35 - 9:38
    مفضَلاتك على يوتيوب
    تختلف تمامًا عن مفضَلاتي.
  • 9:38 - 9:40
    وهو ما يعني أنه من المستحيل
    أن نتمكن من مراجعة
  • 9:40 - 9:42
    المعلومات التي يطلع عليها الناس.
  • 9:43 - 9:44
    هل يمكننا تخيل
  • 9:44 - 9:49
    تطوير مستودع مركزي
    ليكون متاحًا لأخذ البيانات المُجهّلة،
  • 9:49 - 9:52
    على أن يتضمن حلولًا
    لهواجس الخصوصية والأخلاقية؟
  • 9:52 - 9:54
    تخيلوا ما يمكن أن نعرفه
  • 9:54 - 9:57
    إن أنشأنا شبكة عالمية من مواطنين مهتمين
  • 9:57 - 10:01
    يرغبون في التبرع ببياناتهم الاجتماعية
    من أجل العِلم.
  • 10:01 - 10:03
    لأننا في الحقيقة نعلم القليل جدًا
  • 10:03 - 10:06
    عن الآثار الطويلة المدى
    للكراهية والمعلومات المضللة
  • 10:06 - 10:08
    على سلوك الناس وتصرفاتهم.
  • 10:08 - 10:09
    وما نعرفه بالفعل،
  • 10:09 - 10:12
    أنه تم تنفيذ هذا في الولايات المتحدة،
  • 10:12 - 10:14
    بالرغم من أن هذه مشكلة عالمية.
  • 10:14 - 10:16
    يجب أن نهتم بهذا الجانب أيضًا.
  • 10:16 - 10:17
    وثالثًا،
  • 10:17 - 10:20
    هل يمكننا جمع جهات مختلفة معًا؟
  • 10:20 - 10:23
    لا يتمكن قطاع واحد أو حكومة
    ناهيك عن منظمات غير ربحية،
  • 10:23 - 10:25
    من حل هذه المشكلة.
  • 10:25 - 10:27
    لكن يوجد الآن أناس أذكياء
    في جميع أنحاء العالم
  • 10:27 - 10:29
    يعملون على حل هذه التحديات،
  • 10:29 - 10:32
    من غرف الأخبار، إلى المجتمعات المدنية،
    والمجموعات الأكاديمية وكذلك الناشطون.
  • 10:32 - 10:34
    ويمكنكم أن تروا بعضهم هنا.
  • 10:34 - 10:37
    البعض منهم ينشئ مؤشرات
    للدلالة على مصداقية المحتوى.
  • 10:37 - 10:38
    ويتأكد آخرون من المعلومات،
  • 10:38 - 10:42
    حتى تعطى الادعاءات والأفلام
    والصور الكاذبة أولوية أقل في تلك المنصات.
  • 10:42 - 10:45
    توجد منظمة غير ربحية عملتُ على تأسيسها،
    تدعى "فورست درافت"،
  • 10:45 - 10:47
    تعمل مع غرف أخبار متنافسة حول العالم
  • 10:47 - 10:51
    لمساعدتها في بناء برامج استقصائية تعاونية.
  • 10:51 - 10:54
    داني هيليس، مهندس برامج كمبيوتر،
  • 10:54 - 10:56
    يصمم برنامجًا جديدًا يسمى "ذي أندرلاي"،
  • 10:56 - 10:59
    سيوثّق لجميع الإصدارات العامة من الحقائق
  • 10:59 - 11:00
    مع ربطها بمصادرها،
  • 11:00 - 11:04
    لكي تتمكن الخوارزميات والناس
    من تحديد ما هو حقيقي على نحو أدق.
  • 11:05 - 11:08
    كما يوجد مدربون حول العالم
    يختبرون طرقًا متعددة
  • 11:08 - 11:12
    لجعل الناس أكثر حرصًا
    عند اختيار المحتوى الذي يشاركونه.
  • 11:13 - 11:16
    جميعها جهود رائعة
    إلا أنها تبقى منفصلة عن بعضها،
  • 11:16 - 11:18
    وكثير منها يعاني من نقص التمويل.
  • 11:19 - 11:21
    كما يوجد المئات من الأذكياء
  • 11:21 - 11:22
    الذين يعملون في تلك الشركات،
  • 11:22 - 11:25
    ولكن مرة أخرى،
    يشعرون أنهم مفككون عن بعضهم،
  • 11:25 - 11:29
    لأنهم في حقيقة الأمر،
    يطورون حلولًا مختلفة لذات المشكلة.
  • 11:29 - 11:31
    كيف يمكننا أن نجمع هؤلاء معًا
  • 11:31 - 11:35
    في مكانٍ واحدٍ لمدة أيام وأسابيع،
  • 11:35 - 11:37
    لكي يتباحثوا في تلك المشاكل معًا
  • 11:37 - 11:39
    ولكن من وجهات نظر مختلفة؟
  • 11:39 - 11:40
    هل يمكننا القيام بذلك؟
  • 11:40 - 11:44
    هل يمكننا صياغة استجابة منسقة وطموحة،
  • 11:44 - 11:47
    استجابة تتناسب مع تحديات وتعقيدات المشكلة؟
  • 11:48 - 11:49
    أعتقد بحق أنه يمكننا ذلك.
  • 11:49 - 11:52
    لنعمل معًا على إعادة بناء
    معلوماتنا المشتركة.
  • 11:53 - 11:54
    شكرًا جزيلًا.
  • 11:54 - 11:58
    (تصفيق)
Title:
كيف يمكننا المساعدة في تحويل الإنترنت إلى فضاء من الثقة
Speaker:
كلير واردل
Description:

كيف يمكننا إيقاف انتشار المحتوى المضلل، والخطير في بعض الأحيان، مع الحفاظ على الإنترنت كمكان لحرية التعبير في جوهره؟ تستكشف خبيرة المعلومات المضللة، كلير واردل، التحديات الجديدة لبيئتنا الملوثة عبر الإنترنت وتضع خطة لتحويل الإنترنت إلى مكان جدير بالثقة، بمساعدة جميع المستخدمين، حيث تقول: "لنعمل معًا على إعادة بناء
معلوماتنا المشتركة."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Arabic subtitles

Revisions