Return to Video

كيف يمكننا حماية الحقائق في عصر المعلومات المغلوطة

  • 0:01 - 0:07
    إذن، في 23 أبريل من سنة 2013،
  • 0:07 - 0:12
    نشرت وكالة أسوشيتد برس
    تغريدة على منصة تويتر
  • 0:12 - 0:15
    فحواها: "أخبار عاجلة:
  • 0:15 - 0:17
    غارتان استهدفتا البيت الأبيض
  • 0:17 - 0:20
    وأدى القصف لإصابة باراك أوباما."
  • 0:20 - 0:26
    أُعيد تغريد هذا الخبر 4000 مرة
    في أقل من خمس دقائق،
  • 0:26 - 0:28
    فانتشر الخبر بعدئذ انتشار واسعًا.
  • 0:29 - 0:33
    هذه التغريدة ليست خبرًا صحيحًا
    نشرته وكالة أسوشيتد برس.
  • 0:33 - 0:36
    في الحقيقة كان خبرًا ملفقًا،
  • 0:36 - 0:39
    أشاعه قراصنة سوريون
  • 0:39 - 0:44
    حيث استولوا على حساب وكالة أسوشيتد برس
    على تويتر.
  • 0:44 - 0:48
    كان جل هدفهم زعزعت المجتمع،
    لكن فعلتهم هذه أدت إلى زعزعة أخرى.
  • 0:48 - 0:51
    لأنّ خوارزميات التداول الآلية
  • 0:51 - 0:54
    استغلت على الفور الميول المرتبط
    بهذه التغريدة،
  • 0:54 - 0:57
    وبدأت في التداول مرتكزة على احتمالية
  • 0:57 - 1:01
    إصابة أو اغتيال رئيس الولايات المتحدة
  • 1:01 - 1:02
    خلال القصف آنف الذكر.
  • 1:02 - 1:04
    وبمجرّد الانطلاق في التغريد،
  • 1:04 - 1:08
    بدأ سوق الأسهم بالانهيار مباشرة،
  • 1:08 - 1:13
    مسببًا خسائر تقدر بـ140 مليون دولار
    في يوم واحد.
  • 1:13 - 1:18
    أصدر روبرت مولر، المستشار الخاص
    للنائب العام بالولايات المتّحدة،
  • 1:18 - 1:21
    لوائح اتهام ضد ثلاث شركات روسية
  • 1:21 - 1:24
    و13 شخصًا روسيًا
  • 1:24 - 1:27
    في مؤامرة للاحتيال على الولايات المتحدة
  • 1:27 - 1:31
    بالتدخل في الانتخابات الرئاسية لعام 2016.
  • 1:32 - 1:35
    وما ترويه لائحة الاتهامات هذه
  • 1:35 - 1:39
    هو قصة وكالة أبحاث الإنترنت،
  • 1:39 - 1:42
    السلاح المبهم للكرملين على وسائل التواصل.
  • 1:43 - 1:46
    خلال الانتخابات الرئاسية لوحدها،
  • 1:46 - 1:48
    وصلت جهود وكالة أبحاث الإنترنت
  • 1:48 - 1:53
    إلى 126 مليون شخص
    على منصة فيسبوك في الولايات المتحدة،
  • 1:53 - 1:56
    محققة 3 ملايين تغريدة
  • 1:56 - 2:00
    و43 ساعة من محتوى اليوتيوب،
  • 2:00 - 2:02
    كلها كانت أخبارًا ملفقة...
  • 2:02 - 2:08
    معلومات مضللة اختلقت من أجل زرع الشقاق
    في انتخابات الولايات المتحدة.
  • 2:09 - 2:12
    أظهرت دراسة جديدة أجرتها جامعة أكسفورد
  • 2:12 - 2:15
    أنه في الانتخابات الأخيرة للسويد،
  • 2:15 - 2:19
    كانت ثلث المعلومات المنتشرة
    في مواقع التواصل الاجتماعي
  • 2:19 - 2:21
    حول الانتخابات
  • 2:21 - 2:23
    معلومات كاذبة أو ملفقة.
  • 2:23 - 2:28
    إضافة إلى أن هذا النوع من حملات
    التضليل على مواقع التواصل الاجتماعي
  • 2:28 - 2:32
    بوسعها نشر ما يسمى "الدعاية الإبادية"
  • 2:32 - 2:35
    على سبيل المثال، ضدّ الروهينغا في بورما،
  • 2:35 - 2:38
    أو التسبب في مقتل مجموعات واسعة في الهند.
  • 2:38 - 2:39
    لقد درسنا الأخبار الكاذبة
  • 2:39 - 2:43
    وبدأنا في دراستها
    قبل أن تصبح مصطلحًا شائعًا.
  • 2:43 - 2:48
    وقد نشرنا مؤخرًا أكبر دراسة طوليّة
  • 2:48 - 2:50
    عن انتشار الأخبار الخاطئة في الويب
  • 2:50 - 2:54
    على غلاف مجلة ساينس
    في شهر مارس من هذه السنة.
  • 2:55 - 2:59
    لقد درسنا جميع القصص الإخبارية
    الصحيح منها والكاذب
  • 2:59 - 3:00
    التي نُشرت على منصة تويتر،
  • 3:00 - 3:04
    منذ إطلاقه في عام 2006 حتى عام 2017.
  • 3:05 - 3:07
    وعندما درسنا هذه المعلومات،
  • 3:07 - 3:10
    درسنا قصص الأخبار المؤكدة
  • 3:10 - 3:14
    التي تحققت منها ست منظمات مستقلة
    للتحقق من الأخبار.
  • 3:14 - 3:17
    لذلك عرفنا أي القصص كانت صحيحة
  • 3:17 - 3:19
    وأيها كانت كاذبة.
  • 3:19 - 3:21
    بوسعنا قياس انتشارها
  • 3:21 - 3:22
    وسرعة انتشارها،
  • 3:22 - 3:24
    ونطاق ومدى انتشارها،
  • 3:24 - 3:29
    وكم من الناس أصبحوا متشابكين
    في سلسلة المعلومات هذه، وما إلى ذلك.
  • 3:29 - 3:30
    وما فعلناه في هذا البحث
  • 3:30 - 3:35
    هو أننا قارنا سرعة انتشار الأخبار الصحيحة
    مع سرعة انتشار الأخبار الكاذبة.
  • 3:35 - 3:36
    وهذا ما توصلنا إليه.
  • 3:36 - 3:40
    توصلنا إلى أن الأخبار الكاذبة تنتشر
    أبعد وأسرع وأعمق
  • 3:40 - 3:42
    وأوسع من الأخبار الصحيحة
  • 3:42 - 3:45
    في كل فئات المعلومات التي درسناها،
  • 3:45 - 3:47
    أحيانًا يكون الفرق بسبب حجم الخبر.
  • 3:48 - 3:51
    في الحقيقة، توصلنا إلى أن الأخبار
    السياسية الكاذبة هي الأكثر انتشارًا.
  • 3:51 - 3:55
    تنتشر أبعد وأسرع وأعمق وأوسع
  • 3:55 - 3:57
    من أي نوع من الأخبار الكاذبة الأخرى.
  • 3:57 - 3:59
    عندما اطلعنا على هذه الدراسة،
  • 3:59 - 4:02
    أصابنا الذعر لكن انتابنا شيء من الفضول.
    لماذا؟
  • 4:02 - 4:08
    لماذا تنتقل الأخبار الكاذبة أسرع
    وأبعد وأعمق من الأخبار الصحيحة؟
  • 4:08 - 4:11
    كانت أول فرضية توصلنا لها هي:
  • 4:11 - 4:13
    "حسنًا، ربما من ينشرون
  • 4:13 - 4:15
    الأخبار الكاذبة يتابعون الكثير من الحسابات
  • 4:15 - 4:16
    أو لديهم متابعون أكثر،
  • 4:16 - 4:18
    أو يغردون كثيرًا،
  • 4:18 - 4:22
    أو ربما في الغالب هم مستخدمون متحقق منهم
    مع مصداقية أكثر،
  • 4:22 - 4:24
    أو هم فعالون على المنصة منذ مدة طويلة."
  • 4:24 - 4:26
    لذلك فحصنا كل فرضية على حدة.
  • 4:27 - 4:30
    وما وجدناه كان النقيض تمامًا.
  • 4:30 - 4:32
    ناشروا الأخبار الكاذبة لديهم متابعون أقل،
  • 4:32 - 4:34
    ويتابعون أشخاصًا أقل، كما وأنهم أقل نشاطا،
  • 4:34 - 4:36
    وليسوا مستعملين متحقق منهم
  • 4:36 - 4:39
    ولم يمض على تواجدهم على المنصة
    إلا فترة قليلة
  • 4:39 - 4:40
    ومع هذا،
  • 4:40 - 4:45
    كانت الأخبار الكاذبة أكثر عرضة للنشر
    من الأخبار المؤكدة بنسبة 70 في المائة،
  • 4:45 - 4:48
    مسيطرة على كل هذه العوامل وغيرها.
  • 4:48 - 4:51
    لذلك تعين علينا الإتيان بتفسيرات أخرى.
  • 4:51 - 4:55
    وابتكرنا ما أطلقنا عليه "فرضية الحداثة".
  • 4:55 - 4:57
    إن كنت من القراء في مجال الأدب،
  • 4:57 - 5:01
    فمن الشائع أن انتباه الإنسان
    ينجذب نحو الحداثة؛
  • 5:01 - 5:03
    أشياء مستحدثة في البيئة.
  • 5:03 - 5:05
    أما إن كنت من قراء أدب علم الاجتماع،
  • 5:05 - 5:10
    فإنك على دراية بأننا نهوى
    مشاركة المعلومات الجديدة.
  • 5:10 - 5:14
    فبدورها تجعلنا نبدو وكأننا على دراية
    بالأسرار الداخلية،
  • 5:14 - 5:17
    ونكتسب مكانتنا بنشر هذا النوع
    من المعلومات.
  • 5:18 - 5:24
    إذًا ما فعلناه هو أننا قمنا بقياس حداثة تغريدة
    واردة، مؤكدة الصحة كانت أم كاذبة،
  • 5:24 - 5:28
    ومقارنتها بمجموع ما شاهده ذلك الفرد
  • 5:28 - 5:31
    في الشهرين السابقين على تطبيق تويتر.
  • 5:31 - 5:34
    لكن هذا لم يكن كافيًا؛ لأننا اعتقدنا:
  • 5:34 - 5:38
    "حسنًا، ربما تكون الأخبار الكاذبة
    أكثر استحداثًا بالمعنى النظري للمعلومات،
  • 5:38 - 5:41
    لكن ربما لا يتصورها الناس
    على أنها مستحدثة."
  • 5:42 - 5:46
    ولفهم تصورات الناس حول الأخبار الكاذبة،
  • 5:46 - 5:49
    أمعنا النظر في المعلومات والعاطفة
  • 5:50 - 5:54
    الواردة في الردود على التغريدات،
    الحقيقي منها والكاذب.
  • 5:54 - 5:55
    وما وجدناه
  • 5:55 - 5:59
    هو أنه عبر مجموعة من المقاييس
    المختلفة من العاطفة،
  • 5:59 - 6:03
    التفاجؤ والاشمئزاز والخوف والحزن
  • 6:03 - 6:05
    والترقب والفرح والثقة...
  • 6:05 - 6:11
    أظهرت الأخبار الكاذبة نسبة أكبر
    من التفاجؤ والاشمئزاز بشكل ملحوظ
  • 6:11 - 6:14
    في الردود على التغريدات المزيفة.
  • 6:14 - 6:18
    وأظهرت الأخبار الحقيقية نسبة أكبر
    من الترقب
  • 6:18 - 6:20
    والفرح والثقة
  • 6:20 - 6:22
    في الرد على التغريدات الحقيقية.
  • 6:22 - 6:26
    يؤكد التفاجؤ فرضيتنا الجديدة.
  • 6:26 - 6:31
    هذا خبر جديد ومثير للدهشة،
    وعليه من المرجح أن نشاركه.
  • 6:31 - 6:34
    في ذات الوقت، كانت هناك شهادات للكونغرس
  • 6:34 - 6:37
    أمام مجلسيه في الولايات المتحدة،
  • 6:37 - 6:41
    تنظر في دور روبوتات الويب
    في انتشار المعلومات المغلوطة.
  • 6:41 - 6:42
    لذا أجَلنا النظر في هذا أيضًا
  • 6:42 - 6:46
    استخدمنا عدة خوارزميات متطورة
    للكشف عن روبوتات الويب
  • 6:46 - 6:49
    والعثور عليها في بياناتنا ومن ثم سحبها.
  • 6:49 - 6:52
    لذلك قمنا بسحبها، ووضعها مرة أخرى
  • 6:52 - 6:55
    وقارنا ما يحدث في عملية القياس لدينا.
  • 6:55 - 6:57
    وما وجدناه هو، نعم بالفعل،
  • 6:57 - 7:01
    تُسرع الروبوتات معدل نشر الأخبار الكاذبة
    عبر الإنترنت،
  • 7:01 - 7:04
    لكنها كانت تسرع انتشار الأخبار الحقيقية
  • 7:04 - 7:06
    بنفس المعدل تقريبًا.
  • 7:06 - 7:09
    مما يعني أن روبوتات الويب ليست مسؤولة
  • 7:09 - 7:14
    عن التباين بين انتشار الأخبار الحقيقية
    والأخبار الزائفة على شبكة الويب.
  • 7:14 - 7:17
    ليس بوسعنا أن نتخلى عن هذه المسؤولية
    الملقاة على عاتقنا،
  • 7:17 - 7:21
    لأننا نحن البشر، مسؤولون عن هذا الانتشار.
  • 7:22 - 7:26
    الآن، كل ما أخبرتكم به حتى الآن،
  • 7:26 - 7:28
    للأسف بالنسبة لنا جميعًا،
  • 7:28 - 7:29
    هو الخبر السار.
  • 7:31 - 7:35
    السبب هو أنه على وشك أن يزداد الأمر سوءًا.
  • 7:36 - 7:40
    وهناك تقنيتان محددتان ستزيدان الأمر سوءًا.
  • 7:40 - 7:45
    سنرى صعود موجة هائلة
    من الوسائط الاصطناعية.
  • 7:45 - 7:51
    فيديو مزيف، وصوت مزيف
    مقنع للغاية للعين البشرية.
  • 7:51 - 7:54
    وهذا سوف تدعمه تقنيتان.
  • 7:54 - 7:58
    يُعرف أولها باسم
    "شبكات الخصومة التوليدية".
  • 7:58 - 8:01
    ويعتبر نموذج تعليم آلي مزود بشبكتين:
  • 8:01 - 8:02
    شبكة أداة تمييز،
  • 8:02 - 8:06
    وتتمثل مهمتها في تحديد
    ما إذا كان الشيء حقيقيًا أم مزيفًا،
  • 8:06 - 8:08
    وشبكة مولد،
  • 8:08 - 8:11
    وظيفتها إنشاء وسائط اصطناعية.
  • 8:11 - 8:16
    لذا يولد المولد الصناعي مقطع فيديو
    أو صوتًا اصطناعيين،
  • 8:16 - 8:21
    وتحاول شبكة التمييز إخبارنا:
    "هل هذا حقيقي أم مزيف؟"
  • 8:21 - 8:24
    وفي الواقع، إن مهمة الشبكة المولد
  • 8:24 - 8:28
    هي رفع الحد الأقصى من احتمالية
    أن تُخدع شبكة أداة التمييز
  • 8:28 - 8:32
    باعتقاد أن الفيديو والصوت
    الاصطناعيين اللذان تصنعهما
  • 8:32 - 8:33
    حقيقيان في الواقع.
  • 8:33 - 8:36
    تخيلوا آلة في جوف حلقة دوارة،
  • 8:36 - 8:39
    تسعى جاهدة لتحسين الطرق في خداعنا.
  • 8:39 - 8:42
    هذا، إلى جانب التقنية الثانية،
  • 8:42 - 8:47
    والتي تتمثل أساسًا في إضفاء الطابع
    الديمقراطي على الذكاء الاصطناعي للناس،
  • 8:47 - 8:50
    إن قدرة أي شخص،
  • 8:50 - 8:52
    دون أي خلفية في الذكاء الاصطناعي
  • 8:52 - 8:54
    والتعلم الآلي،
  • 8:54 - 8:58
    على نشر هذه الأنواع من الخوارزميات
    لتوليد الوسائط الاصطناعية
  • 8:58 - 9:02
    يُسهل من إنشاء مقاطع الفيديو.
  • 9:02 - 9:07
    أصدر البيت الأبيض شريط فيديو مفبرك
  • 9:07 - 9:11
    عن صحفي يتفاعل مع متدربة كانت تحاول
    التقاط الميكروفون من يده.
  • 9:11 - 9:13
    لقد أزالوا لقطات من هذا الفيديو
  • 9:13 - 9:17
    لجعل تصرفاته تبدو أكثر عدوانية.
  • 9:17 - 9:21
    وعندما أُجريت مقابلات مع مصوري فيديو
    وممثلين بدلاء
  • 9:21 - 9:23
    حول هذا النوع من التقنية،
  • 9:23 - 9:27
    قالوا: "نعم، نستخدم هذه التقنية
    في الأفلام طوال الوقت
  • 9:27 - 9:32
    لجعل اللكمات والركلات
    تبدو أكثر تقلبًا وعدوانية."
  • 9:32 - 9:34
    ثم وضعوا هذا الفيديو
  • 9:34 - 9:37
    واستخدموه جزئيًا كمبرر
  • 9:37 - 9:41
    لإلغاء الإذن الذي يسمح للصحفي جيم أكوستا
  • 9:41 - 9:42
    بدخول البيت الأبيض.
  • 9:42 - 9:47
    مما جعل قناة سي إن إن ترفع دعوى قضائية
    لإعادة تفعيل ذلك الإذن الصحفي.
  • 9:49 - 9:54
    هناك حوالي خمسة مسارات مختلفة
    أرى أنه يمكننا اتباعها
  • 9:54 - 9:58
    لمحاولة معالجة بعض هذه المشاكل
    الصعبة اليوم.
  • 9:58 - 10:00
    كل مسار من هذه المسارات واعد،
  • 10:00 - 10:03
    غير أن كل مسار لديه تحدياته الخاصة.
  • 10:03 - 10:05
    أولها هو وضع بطاقة البيانات الإضاحية.
  • 10:05 - 10:07
    فكروا في الأمر بهذه الطريقة:
  • 10:07 - 10:10
    عندما تذهبون إلى متجر البقالة
    لشراء الطعام،
  • 10:10 - 10:12
    فإن البطاقات تحتوي على بيانات مُفصلة.
  • 10:12 - 10:14
    فيتسنى لك معرفة عدد السعرات الحرارية،
  • 10:14 - 10:16
    ومقدار الدهون التي تحتوي عليها،
  • 10:16 - 10:20
    لكن عندما نستهلك المعلومات،
    ليست لدينا بطاقات إضاحية البتة.
  • 10:20 - 10:22
    ما الذي تشمله هذه المعلومات؟
  • 10:22 - 10:24
    هل المصدر موثوق؟
  • 10:24 - 10:26
    من أين جُمعت هذه المعلومات؟
  • 10:26 - 10:28
    ليس لدينا أي من هذه المعطيات
  • 10:28 - 10:30
    عندما نستهلك المعلومات.
  • 10:30 - 10:33
    هذه أحد السبل المحتملة،
    لكنها تأتي مع تحدياتها.
  • 10:33 - 10:40
    على سبيل المثال، في المجتمع، من الذي يقرر
    ما هو الصحيح وما هو الخطأ؟
  • 10:40 - 10:42
    هل هي الحكومات؟
  • 10:42 - 10:43
    هل هو فيسبوك؟
  • 10:44 - 10:47
    هل هو اتحاد مستقل من مدققي الحقائق؟
  • 10:47 - 10:50
    ومن الذي يتحقق من مدققي الحقائق؟
  • 10:50 - 10:54
    أحد السبل المحتملة الأخرى هي الحوافز.
  • 10:54 - 10:56
    نعلم أنه خلال الانتخابات
    الرئاسية الأمريكية
  • 10:56 - 11:00
    كانت هناك موجة من المعلومات المغلوطة
    التي جاءت بها دولة مقدونيا
  • 11:00 - 11:02
    والتي لم يكن لها أي دافع سياسي
  • 11:02 - 11:05
    ولكن بدلاً من ذلك كان لها دافع اقتصادي.
  • 11:05 - 11:07
    تداعى تواجد هذا الدافع الاقتصادي
  • 11:07 - 11:10
    جراء تنقل الأخبار الكاذبة تنقلًا سريعًا
  • 11:10 - 11:12
    وعميقًا مقارنة بالأخبار الحقيقة،
  • 11:13 - 11:17
    ويمكنك أن تكسب دولارًا إعلانيًا
    بينما تغوي العيون والأذهان
  • 11:17 - 11:19
    بهذا النوع من المعلومات.
  • 11:19 - 11:23
    ولكن إذا كان باستطاعتنا
    تقليل انتشار هذه المعلومات،
  • 11:23 - 11:26
    فربما يقلل ذلك من الحافز الاقتصادي
  • 11:26 - 11:29
    لإنتاجها في المقام الأول.
  • 11:29 - 11:31
    ثالثًا، يمكننا التفكير في التنظيم،
  • 11:31 - 11:34
    وبالتأكيد علينا أن نفكر في هذا الخيار.
  • 11:34 - 11:35
    في الولايات المتحدة، حاليًا،
  • 11:35 - 11:40
    نستكشف ما قد يحدث إذا تم تنسيق منصة فيسبوك
    وغيرها من المنصات تنسيقا قانونيا.
  • 11:40 - 11:44
    على الرغم من أنه ينبغي علينا إمعان النظر
    في أمور كتنظيم الخطاب السياسي،
  • 11:44 - 11:47
    مع الإشارة إلى حقيقة أنه خطاب سياسي،
  • 11:47 - 11:51
    والتأكد من عدم قدرة الجهات الأجنبية
    الفاعلة على تمويل الخطاب السياسي،
  • 11:51 - 11:53
    فإن لهذا أيضًا مخاطره الخاصة.
  • 11:54 - 11:58
    على سبيل المثال، فرضت ماليزيا عقوبة
    بالسجن لمدة ست سنوات
  • 11:58 - 12:01
    في حق أي شخص ينشر معلومات مضللة.
  • 12:02 - 12:04
    وفي الأنظمة الاستبدادية،
  • 12:04 - 12:08
    يمكن استخدام هذه الأنواع
    من السياسات لقمع آراء الأقليات
  • 12:08 - 12:12
    ومواصلة كبحها.
  • 12:13 - 12:16
    الخيار الرابع المحتمل هو الشفافية.
  • 12:17 - 12:21
    نريد أن نعرف كيف تعمل خوارزميات فيسبوك.
  • 12:21 - 12:23
    وكيف تتحد البيانات مع الخوارزميات
  • 12:23 - 12:26
    لتسفر عن النتائج التي نراها؟
  • 12:26 - 12:29
    نريدهم أن يُفصحوا عن الخبايا
  • 12:29 - 12:33
    ويظهروا لنا بالضبط الأسرار الداخلية
    لكيفية عمل فيسبوك.
  • 12:33 - 12:36
    وإذا كنا نريد معرفة تأثير وسائل التواصل
    على المجتمع،
  • 12:36 - 12:38
    فيجب أن يكون من السهل
    على العلماء والباحثين
  • 12:38 - 12:41
    وغيرهم الوصول إلى هذا النوع من المعلومات.
  • 12:41 - 12:43
    وفي الآن ذاته،
  • 12:43 - 12:46
    نحن نطالب من فيسبوك تأمين كل شيء،
  • 12:46 - 12:49
    للحفاظ على أمان كافة البيانات.
  • 12:49 - 12:52
    لذا، تواجه كل من منصة فيسبوك
    ومنصات التواصل الاجتماعي الأخرى
  • 12:52 - 12:55
    ما أسميه بـ"مفارقة الشفافية".
  • 12:55 - 12:58
    نطلب من هذه المنصات
  • 12:58 - 13:03
    أن تتسم بالانفتاح والشفافية
    وأن تكون وسائل آمنة في آن واحد.
  • 13:03 - 13:05
    تعتبر هذه معضلة صعبة للغاية،
  • 13:06 - 13:07
    لكنهم بحاجة لحلها
  • 13:07 - 13:11
    إذا ما أردنا تحقيق البشرى الموعودة
    من التقنيات الاجتماعية
  • 13:11 - 13:13
    إلى جانب ردع مخاطرها.
  • 13:13 - 13:18
    الأمر الأخير الذي يمكننا التفكير
    في توظيفه هو الخوارزميات والتعلم الآلي.
  • 13:18 - 13:23
    ابتكار تقنية لاستئصال الأخبار الملفقة،
    وفهم ماهيتها، وكيفية انتشارها
  • 13:23 - 13:25
    ومحاولة كبح تدفقها.
  • 13:26 - 13:29
    ينبغي على البشر أن ينضموا
    إلى هذه الحلقة من التكنولوجيا؛
  • 13:29 - 13:31
    لأنه لا مفر،
  • 13:31 - 13:35
    حيث أنه يقبع خلف أي حل أو مقاربة تكنولوجية
  • 13:35 - 13:39
    سؤال أخلاقي وفلسفي أساسي
  • 13:39 - 13:42
    حول تعريف الحقيقة والزيف،
  • 13:42 - 13:46
    ولمن نمنح صلاحية تعريف الحقيقة والزيف،
  • 13:46 - 13:48
    وأي الآراء شرعية،
  • 13:48 - 13:52
    وأي نوع من الخطاب مسموح، وهلم جرًا.
  • 13:52 - 13:54
    التكنولوجيا ليست حلًا لذلك.
  • 13:54 - 13:58
    إن الأخلاق والفلسفة هي الحل.
  • 13:59 - 14:02
    تتمتع تقريبًا كل نظرية
    حول اتخاذ القرارات الإنسانية،
  • 14:02 - 14:05
    والتعاون الإنساني، والتنسيق الإنساني
  • 14:05 - 14:09
    بنسبة من الحقيقة في جوهرها.
  • 14:09 - 14:11
    ولكن في ظل ظهور الأخبار المزيفة
  • 14:11 - 14:13
    والفيديوهات المزيفة،
  • 14:13 - 14:15
    والأصوات المزيفة،
  • 14:15 - 14:19
    فإننا نتأرجح على حافة نهاية الواقع،
  • 14:19 - 14:23
    حيث لا يمكننا معرفة ما هو حقيقي
    من ما هو مزيف.
  • 14:23 - 14:26
    وهذا يُحتمل أن يكون خطيرًا بشكل لا يصدق.
  • 14:27 - 14:31
    علينا أن نكون يقظين في الدفاع عن الحقيقة
  • 14:31 - 14:32
    ضد المعلومات المغلوطة.
  • 14:33 - 14:36
    من خلال تقنياتنا، وسياساتنا،
  • 14:36 - 14:38
    وربما الأهم من ذلك،
  • 14:38 - 14:42
    عبر مسؤولياتنا وقراراتنا
  • 14:42 - 14:45
    وسلوكياتنا وأفعالنا الفردية.
  • 14:46 - 14:47
    شكرًا جزيلًا لكم.
  • 14:47 - 14:51
    (تصفيق)
Title:
كيف يمكننا حماية الحقائق في عصر المعلومات المغلوطة
Speaker:
سنان آرال
Description:

بوسع الأخبار المزيفة أن تؤثر على الانتخابات، وتدمر الاقتصاد، وتزرع الفتنة في الحياة اليومية. يزيل عالم البيانات سنان آرال الغموض عن ماهية سرعة انتشار المعلومات المغلوطة، مستشهدًا بأحد أكبر الدراسات حولها، كما ويحدد خمس استراتيجيات لمساعدتنا على فك عقدة شبكة الإنترنت بين ما يُنشر من معلومات حقيقية ومعلومات مغلوطة.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Arabic subtitles

Revisions