كيف يمكننا حماية الحقائق في عصر المعلومات المغلوطة
-
0:01 - 0:07إذن، في 23 أبريل من سنة 2013،
-
0:07 - 0:12نشرت وكالة أسوشيتد برس
تغريدة على منصة تويتر -
0:12 - 0:15فحواها: "أخبار عاجلة:
-
0:15 - 0:17غارتان استهدفتا البيت الأبيض
-
0:17 - 0:20وأدى القصف لإصابة باراك أوباما."
-
0:20 - 0:26أُعيد تغريد هذا الخبر 4000 مرة
في أقل من خمس دقائق، -
0:26 - 0:28فانتشر الخبر بعدئذ انتشار واسعًا.
-
0:29 - 0:33هذه التغريدة ليست خبرًا صحيحًا
نشرته وكالة أسوشيتد برس. -
0:33 - 0:36في الحقيقة كان خبرًا ملفقًا،
-
0:36 - 0:39أشاعه قراصنة سوريون
-
0:39 - 0:44حيث استولوا على حساب وكالة أسوشيتد برس
على تويتر. -
0:44 - 0:48كان جل هدفهم زعزعت المجتمع،
لكن فعلتهم هذه أدت إلى زعزعة أخرى. -
0:48 - 0:51لأنّ خوارزميات التداول الآلية
-
0:51 - 0:54استغلت على الفور الميول المرتبط
بهذه التغريدة، -
0:54 - 0:57وبدأت في التداول مرتكزة على احتمالية
-
0:57 - 1:01إصابة أو اغتيال رئيس الولايات المتحدة
-
1:01 - 1:02خلال القصف آنف الذكر.
-
1:02 - 1:04وبمجرّد الانطلاق في التغريد،
-
1:04 - 1:08بدأ سوق الأسهم بالانهيار مباشرة،
-
1:08 - 1:13مسببًا خسائر تقدر بـ140 مليون دولار
في يوم واحد. -
1:13 - 1:18أصدر روبرت مولر، المستشار الخاص
للنائب العام بالولايات المتّحدة، -
1:18 - 1:21لوائح اتهام ضد ثلاث شركات روسية
-
1:21 - 1:24و13 شخصًا روسيًا
-
1:24 - 1:27في مؤامرة للاحتيال على الولايات المتحدة
-
1:27 - 1:31بالتدخل في الانتخابات الرئاسية لعام 2016.
-
1:32 - 1:35وما ترويه لائحة الاتهامات هذه
-
1:35 - 1:39هو قصة وكالة أبحاث الإنترنت،
-
1:39 - 1:42السلاح المبهم للكرملين على وسائل التواصل.
-
1:43 - 1:46خلال الانتخابات الرئاسية لوحدها،
-
1:46 - 1:48وصلت جهود وكالة أبحاث الإنترنت
-
1:48 - 1:53إلى 126 مليون شخص
على منصة فيسبوك في الولايات المتحدة، -
1:53 - 1:56محققة 3 ملايين تغريدة
-
1:56 - 2:00و43 ساعة من محتوى اليوتيوب،
-
2:00 - 2:02كلها كانت أخبارًا ملفقة...
-
2:02 - 2:08معلومات مضللة اختلقت من أجل زرع الشقاق
في انتخابات الولايات المتحدة. -
2:09 - 2:12أظهرت دراسة جديدة أجرتها جامعة أكسفورد
-
2:12 - 2:15أنه في الانتخابات الأخيرة للسويد،
-
2:15 - 2:19كانت ثلث المعلومات المنتشرة
في مواقع التواصل الاجتماعي -
2:19 - 2:21حول الانتخابات
-
2:21 - 2:23معلومات كاذبة أو ملفقة.
-
2:23 - 2:28إضافة إلى أن هذا النوع من حملات
التضليل على مواقع التواصل الاجتماعي -
2:28 - 2:32بوسعها نشر ما يسمى "الدعاية الإبادية"
-
2:32 - 2:35على سبيل المثال، ضدّ الروهينغا في بورما،
-
2:35 - 2:38أو التسبب في مقتل مجموعات واسعة في الهند.
-
2:38 - 2:39لقد درسنا الأخبار الكاذبة
-
2:39 - 2:43وبدأنا في دراستها
قبل أن تصبح مصطلحًا شائعًا. -
2:43 - 2:48وقد نشرنا مؤخرًا أكبر دراسة طوليّة
-
2:48 - 2:50عن انتشار الأخبار الخاطئة في الويب
-
2:50 - 2:54على غلاف مجلة ساينس
في شهر مارس من هذه السنة. -
2:55 - 2:59لقد درسنا جميع القصص الإخبارية
الصحيح منها والكاذب -
2:59 - 3:00التي نُشرت على منصة تويتر،
-
3:00 - 3:04منذ إطلاقه في عام 2006 حتى عام 2017.
-
3:05 - 3:07وعندما درسنا هذه المعلومات،
-
3:07 - 3:10درسنا قصص الأخبار المؤكدة
-
3:10 - 3:14التي تحققت منها ست منظمات مستقلة
للتحقق من الأخبار. -
3:14 - 3:17لذلك عرفنا أي القصص كانت صحيحة
-
3:17 - 3:19وأيها كانت كاذبة.
-
3:19 - 3:21بوسعنا قياس انتشارها
-
3:21 - 3:22وسرعة انتشارها،
-
3:22 - 3:24ونطاق ومدى انتشارها،
-
3:24 - 3:29وكم من الناس أصبحوا متشابكين
في سلسلة المعلومات هذه، وما إلى ذلك. -
3:29 - 3:30وما فعلناه في هذا البحث
-
3:30 - 3:35هو أننا قارنا سرعة انتشار الأخبار الصحيحة
مع سرعة انتشار الأخبار الكاذبة. -
3:35 - 3:36وهذا ما توصلنا إليه.
-
3:36 - 3:40توصلنا إلى أن الأخبار الكاذبة تنتشر
أبعد وأسرع وأعمق -
3:40 - 3:42وأوسع من الأخبار الصحيحة
-
3:42 - 3:45في كل فئات المعلومات التي درسناها،
-
3:45 - 3:47أحيانًا يكون الفرق بسبب حجم الخبر.
-
3:48 - 3:51في الحقيقة، توصلنا إلى أن الأخبار
السياسية الكاذبة هي الأكثر انتشارًا. -
3:51 - 3:55تنتشر أبعد وأسرع وأعمق وأوسع
-
3:55 - 3:57من أي نوع من الأخبار الكاذبة الأخرى.
-
3:57 - 3:59عندما اطلعنا على هذه الدراسة،
-
3:59 - 4:02أصابنا الذعر لكن انتابنا شيء من الفضول.
لماذا؟ -
4:02 - 4:08لماذا تنتقل الأخبار الكاذبة أسرع
وأبعد وأعمق من الأخبار الصحيحة؟ -
4:08 - 4:11كانت أول فرضية توصلنا لها هي:
-
4:11 - 4:13"حسنًا، ربما من ينشرون
-
4:13 - 4:15الأخبار الكاذبة يتابعون الكثير من الحسابات
-
4:15 - 4:16أو لديهم متابعون أكثر،
-
4:16 - 4:18أو يغردون كثيرًا،
-
4:18 - 4:22أو ربما في الغالب هم مستخدمون متحقق منهم
مع مصداقية أكثر، -
4:22 - 4:24أو هم فعالون على المنصة منذ مدة طويلة."
-
4:24 - 4:26لذلك فحصنا كل فرضية على حدة.
-
4:27 - 4:30وما وجدناه كان النقيض تمامًا.
-
4:30 - 4:32ناشروا الأخبار الكاذبة لديهم متابعون أقل،
-
4:32 - 4:34ويتابعون أشخاصًا أقل، كما وأنهم أقل نشاطا،
-
4:34 - 4:36وليسوا مستعملين متحقق منهم
-
4:36 - 4:39ولم يمض على تواجدهم على المنصة
إلا فترة قليلة -
4:39 - 4:40ومع هذا،
-
4:40 - 4:45كانت الأخبار الكاذبة أكثر عرضة للنشر
من الأخبار المؤكدة بنسبة 70 في المائة، -
4:45 - 4:48مسيطرة على كل هذه العوامل وغيرها.
-
4:48 - 4:51لذلك تعين علينا الإتيان بتفسيرات أخرى.
-
4:51 - 4:55وابتكرنا ما أطلقنا عليه "فرضية الحداثة".
-
4:55 - 4:57إن كنت من القراء في مجال الأدب،
-
4:57 - 5:01فمن الشائع أن انتباه الإنسان
ينجذب نحو الحداثة؛ -
5:01 - 5:03أشياء مستحدثة في البيئة.
-
5:03 - 5:05أما إن كنت من قراء أدب علم الاجتماع،
-
5:05 - 5:10فإنك على دراية بأننا نهوى
مشاركة المعلومات الجديدة. -
5:10 - 5:14فبدورها تجعلنا نبدو وكأننا على دراية
بالأسرار الداخلية، -
5:14 - 5:17ونكتسب مكانتنا بنشر هذا النوع
من المعلومات. -
5:18 - 5:24إذًا ما فعلناه هو أننا قمنا بقياس حداثة تغريدة
واردة، مؤكدة الصحة كانت أم كاذبة، -
5:24 - 5:28ومقارنتها بمجموع ما شاهده ذلك الفرد
-
5:28 - 5:31في الشهرين السابقين على تطبيق تويتر.
-
5:31 - 5:34لكن هذا لم يكن كافيًا؛ لأننا اعتقدنا:
-
5:34 - 5:38"حسنًا، ربما تكون الأخبار الكاذبة
أكثر استحداثًا بالمعنى النظري للمعلومات، -
5:38 - 5:41لكن ربما لا يتصورها الناس
على أنها مستحدثة." -
5:42 - 5:46ولفهم تصورات الناس حول الأخبار الكاذبة،
-
5:46 - 5:49أمعنا النظر في المعلومات والعاطفة
-
5:50 - 5:54الواردة في الردود على التغريدات،
الحقيقي منها والكاذب. -
5:54 - 5:55وما وجدناه
-
5:55 - 5:59هو أنه عبر مجموعة من المقاييس
المختلفة من العاطفة، -
5:59 - 6:03التفاجؤ والاشمئزاز والخوف والحزن
-
6:03 - 6:05والترقب والفرح والثقة...
-
6:05 - 6:11أظهرت الأخبار الكاذبة نسبة أكبر
من التفاجؤ والاشمئزاز بشكل ملحوظ -
6:11 - 6:14في الردود على التغريدات المزيفة.
-
6:14 - 6:18وأظهرت الأخبار الحقيقية نسبة أكبر
من الترقب -
6:18 - 6:20والفرح والثقة
-
6:20 - 6:22في الرد على التغريدات الحقيقية.
-
6:22 - 6:26يؤكد التفاجؤ فرضيتنا الجديدة.
-
6:26 - 6:31هذا خبر جديد ومثير للدهشة،
وعليه من المرجح أن نشاركه. -
6:31 - 6:34في ذات الوقت، كانت هناك شهادات للكونغرس
-
6:34 - 6:37أمام مجلسيه في الولايات المتحدة،
-
6:37 - 6:41تنظر في دور روبوتات الويب
في انتشار المعلومات المغلوطة. -
6:41 - 6:42لذا أجَلنا النظر في هذا أيضًا
-
6:42 - 6:46استخدمنا عدة خوارزميات متطورة
للكشف عن روبوتات الويب -
6:46 - 6:49والعثور عليها في بياناتنا ومن ثم سحبها.
-
6:49 - 6:52لذلك قمنا بسحبها، ووضعها مرة أخرى
-
6:52 - 6:55وقارنا ما يحدث في عملية القياس لدينا.
-
6:55 - 6:57وما وجدناه هو، نعم بالفعل،
-
6:57 - 7:01تُسرع الروبوتات معدل نشر الأخبار الكاذبة
عبر الإنترنت، -
7:01 - 7:04لكنها كانت تسرع انتشار الأخبار الحقيقية
-
7:04 - 7:06بنفس المعدل تقريبًا.
-
7:06 - 7:09مما يعني أن روبوتات الويب ليست مسؤولة
-
7:09 - 7:14عن التباين بين انتشار الأخبار الحقيقية
والأخبار الزائفة على شبكة الويب. -
7:14 - 7:17ليس بوسعنا أن نتخلى عن هذه المسؤولية
الملقاة على عاتقنا، -
7:17 - 7:21لأننا نحن البشر، مسؤولون عن هذا الانتشار.
-
7:22 - 7:26الآن، كل ما أخبرتكم به حتى الآن،
-
7:26 - 7:28للأسف بالنسبة لنا جميعًا،
-
7:28 - 7:29هو الخبر السار.
-
7:31 - 7:35السبب هو أنه على وشك أن يزداد الأمر سوءًا.
-
7:36 - 7:40وهناك تقنيتان محددتان ستزيدان الأمر سوءًا.
-
7:40 - 7:45سنرى صعود موجة هائلة
من الوسائط الاصطناعية. -
7:45 - 7:51فيديو مزيف، وصوت مزيف
مقنع للغاية للعين البشرية. -
7:51 - 7:54وهذا سوف تدعمه تقنيتان.
-
7:54 - 7:58يُعرف أولها باسم
"شبكات الخصومة التوليدية". -
7:58 - 8:01ويعتبر نموذج تعليم آلي مزود بشبكتين:
-
8:01 - 8:02شبكة أداة تمييز،
-
8:02 - 8:06وتتمثل مهمتها في تحديد
ما إذا كان الشيء حقيقيًا أم مزيفًا، -
8:06 - 8:08وشبكة مولد،
-
8:08 - 8:11وظيفتها إنشاء وسائط اصطناعية.
-
8:11 - 8:16لذا يولد المولد الصناعي مقطع فيديو
أو صوتًا اصطناعيين، -
8:16 - 8:21وتحاول شبكة التمييز إخبارنا:
"هل هذا حقيقي أم مزيف؟" -
8:21 - 8:24وفي الواقع، إن مهمة الشبكة المولد
-
8:24 - 8:28هي رفع الحد الأقصى من احتمالية
أن تُخدع شبكة أداة التمييز -
8:28 - 8:32باعتقاد أن الفيديو والصوت
الاصطناعيين اللذان تصنعهما -
8:32 - 8:33حقيقيان في الواقع.
-
8:33 - 8:36تخيلوا آلة في جوف حلقة دوارة،
-
8:36 - 8:39تسعى جاهدة لتحسين الطرق في خداعنا.
-
8:39 - 8:42هذا، إلى جانب التقنية الثانية،
-
8:42 - 8:47والتي تتمثل أساسًا في إضفاء الطابع
الديمقراطي على الذكاء الاصطناعي للناس، -
8:47 - 8:50إن قدرة أي شخص،
-
8:50 - 8:52دون أي خلفية في الذكاء الاصطناعي
-
8:52 - 8:54والتعلم الآلي،
-
8:54 - 8:58على نشر هذه الأنواع من الخوارزميات
لتوليد الوسائط الاصطناعية -
8:58 - 9:02يُسهل من إنشاء مقاطع الفيديو.
-
9:02 - 9:07أصدر البيت الأبيض شريط فيديو مفبرك
-
9:07 - 9:11عن صحفي يتفاعل مع متدربة كانت تحاول
التقاط الميكروفون من يده. -
9:11 - 9:13لقد أزالوا لقطات من هذا الفيديو
-
9:13 - 9:17لجعل تصرفاته تبدو أكثر عدوانية.
-
9:17 - 9:21وعندما أُجريت مقابلات مع مصوري فيديو
وممثلين بدلاء -
9:21 - 9:23حول هذا النوع من التقنية،
-
9:23 - 9:27قالوا: "نعم، نستخدم هذه التقنية
في الأفلام طوال الوقت -
9:27 - 9:32لجعل اللكمات والركلات
تبدو أكثر تقلبًا وعدوانية." -
9:32 - 9:34ثم وضعوا هذا الفيديو
-
9:34 - 9:37واستخدموه جزئيًا كمبرر
-
9:37 - 9:41لإلغاء الإذن الذي يسمح للصحفي جيم أكوستا
-
9:41 - 9:42بدخول البيت الأبيض.
-
9:42 - 9:47مما جعل قناة سي إن إن ترفع دعوى قضائية
لإعادة تفعيل ذلك الإذن الصحفي. -
9:49 - 9:54هناك حوالي خمسة مسارات مختلفة
أرى أنه يمكننا اتباعها -
9:54 - 9:58لمحاولة معالجة بعض هذه المشاكل
الصعبة اليوم. -
9:58 - 10:00كل مسار من هذه المسارات واعد،
-
10:00 - 10:03غير أن كل مسار لديه تحدياته الخاصة.
-
10:03 - 10:05أولها هو وضع بطاقة البيانات الإضاحية.
-
10:05 - 10:07فكروا في الأمر بهذه الطريقة:
-
10:07 - 10:10عندما تذهبون إلى متجر البقالة
لشراء الطعام، -
10:10 - 10:12فإن البطاقات تحتوي على بيانات مُفصلة.
-
10:12 - 10:14فيتسنى لك معرفة عدد السعرات الحرارية،
-
10:14 - 10:16ومقدار الدهون التي تحتوي عليها،
-
10:16 - 10:20لكن عندما نستهلك المعلومات،
ليست لدينا بطاقات إضاحية البتة. -
10:20 - 10:22ما الذي تشمله هذه المعلومات؟
-
10:22 - 10:24هل المصدر موثوق؟
-
10:24 - 10:26من أين جُمعت هذه المعلومات؟
-
10:26 - 10:28ليس لدينا أي من هذه المعطيات
-
10:28 - 10:30عندما نستهلك المعلومات.
-
10:30 - 10:33هذه أحد السبل المحتملة،
لكنها تأتي مع تحدياتها. -
10:33 - 10:40على سبيل المثال، في المجتمع، من الذي يقرر
ما هو الصحيح وما هو الخطأ؟ -
10:40 - 10:42هل هي الحكومات؟
-
10:42 - 10:43هل هو فيسبوك؟
-
10:44 - 10:47هل هو اتحاد مستقل من مدققي الحقائق؟
-
10:47 - 10:50ومن الذي يتحقق من مدققي الحقائق؟
-
10:50 - 10:54أحد السبل المحتملة الأخرى هي الحوافز.
-
10:54 - 10:56نعلم أنه خلال الانتخابات
الرئاسية الأمريكية -
10:56 - 11:00كانت هناك موجة من المعلومات المغلوطة
التي جاءت بها دولة مقدونيا -
11:00 - 11:02والتي لم يكن لها أي دافع سياسي
-
11:02 - 11:05ولكن بدلاً من ذلك كان لها دافع اقتصادي.
-
11:05 - 11:07تداعى تواجد هذا الدافع الاقتصادي
-
11:07 - 11:10جراء تنقل الأخبار الكاذبة تنقلًا سريعًا
-
11:10 - 11:12وعميقًا مقارنة بالأخبار الحقيقة،
-
11:13 - 11:17ويمكنك أن تكسب دولارًا إعلانيًا
بينما تغوي العيون والأذهان -
11:17 - 11:19بهذا النوع من المعلومات.
-
11:19 - 11:23ولكن إذا كان باستطاعتنا
تقليل انتشار هذه المعلومات، -
11:23 - 11:26فربما يقلل ذلك من الحافز الاقتصادي
-
11:26 - 11:29لإنتاجها في المقام الأول.
-
11:29 - 11:31ثالثًا، يمكننا التفكير في التنظيم،
-
11:31 - 11:34وبالتأكيد علينا أن نفكر في هذا الخيار.
-
11:34 - 11:35في الولايات المتحدة، حاليًا،
-
11:35 - 11:40نستكشف ما قد يحدث إذا تم تنسيق منصة فيسبوك
وغيرها من المنصات تنسيقا قانونيا. -
11:40 - 11:44على الرغم من أنه ينبغي علينا إمعان النظر
في أمور كتنظيم الخطاب السياسي، -
11:44 - 11:47مع الإشارة إلى حقيقة أنه خطاب سياسي،
-
11:47 - 11:51والتأكد من عدم قدرة الجهات الأجنبية
الفاعلة على تمويل الخطاب السياسي، -
11:51 - 11:53فإن لهذا أيضًا مخاطره الخاصة.
-
11:54 - 11:58على سبيل المثال، فرضت ماليزيا عقوبة
بالسجن لمدة ست سنوات -
11:58 - 12:01في حق أي شخص ينشر معلومات مضللة.
-
12:02 - 12:04وفي الأنظمة الاستبدادية،
-
12:04 - 12:08يمكن استخدام هذه الأنواع
من السياسات لقمع آراء الأقليات -
12:08 - 12:12ومواصلة كبحها.
-
12:13 - 12:16الخيار الرابع المحتمل هو الشفافية.
-
12:17 - 12:21نريد أن نعرف كيف تعمل خوارزميات فيسبوك.
-
12:21 - 12:23وكيف تتحد البيانات مع الخوارزميات
-
12:23 - 12:26لتسفر عن النتائج التي نراها؟
-
12:26 - 12:29نريدهم أن يُفصحوا عن الخبايا
-
12:29 - 12:33ويظهروا لنا بالضبط الأسرار الداخلية
لكيفية عمل فيسبوك. -
12:33 - 12:36وإذا كنا نريد معرفة تأثير وسائل التواصل
على المجتمع، -
12:36 - 12:38فيجب أن يكون من السهل
على العلماء والباحثين -
12:38 - 12:41وغيرهم الوصول إلى هذا النوع من المعلومات.
-
12:41 - 12:43وفي الآن ذاته،
-
12:43 - 12:46نحن نطالب من فيسبوك تأمين كل شيء،
-
12:46 - 12:49للحفاظ على أمان كافة البيانات.
-
12:49 - 12:52لذا، تواجه كل من منصة فيسبوك
ومنصات التواصل الاجتماعي الأخرى -
12:52 - 12:55ما أسميه بـ"مفارقة الشفافية".
-
12:55 - 12:58نطلب من هذه المنصات
-
12:58 - 13:03أن تتسم بالانفتاح والشفافية
وأن تكون وسائل آمنة في آن واحد. -
13:03 - 13:05تعتبر هذه معضلة صعبة للغاية،
-
13:06 - 13:07لكنهم بحاجة لحلها
-
13:07 - 13:11إذا ما أردنا تحقيق البشرى الموعودة
من التقنيات الاجتماعية -
13:11 - 13:13إلى جانب ردع مخاطرها.
-
13:13 - 13:18الأمر الأخير الذي يمكننا التفكير
في توظيفه هو الخوارزميات والتعلم الآلي. -
13:18 - 13:23ابتكار تقنية لاستئصال الأخبار الملفقة،
وفهم ماهيتها، وكيفية انتشارها -
13:23 - 13:25ومحاولة كبح تدفقها.
-
13:26 - 13:29ينبغي على البشر أن ينضموا
إلى هذه الحلقة من التكنولوجيا؛ -
13:29 - 13:31لأنه لا مفر،
-
13:31 - 13:35حيث أنه يقبع خلف أي حل أو مقاربة تكنولوجية
-
13:35 - 13:39سؤال أخلاقي وفلسفي أساسي
-
13:39 - 13:42حول تعريف الحقيقة والزيف،
-
13:42 - 13:46ولمن نمنح صلاحية تعريف الحقيقة والزيف،
-
13:46 - 13:48وأي الآراء شرعية،
-
13:48 - 13:52وأي نوع من الخطاب مسموح، وهلم جرًا.
-
13:52 - 13:54التكنولوجيا ليست حلًا لذلك.
-
13:54 - 13:58إن الأخلاق والفلسفة هي الحل.
-
13:59 - 14:02تتمتع تقريبًا كل نظرية
حول اتخاذ القرارات الإنسانية، -
14:02 - 14:05والتعاون الإنساني، والتنسيق الإنساني
-
14:05 - 14:09بنسبة من الحقيقة في جوهرها.
-
14:09 - 14:11ولكن في ظل ظهور الأخبار المزيفة
-
14:11 - 14:13والفيديوهات المزيفة،
-
14:13 - 14:15والأصوات المزيفة،
-
14:15 - 14:19فإننا نتأرجح على حافة نهاية الواقع،
-
14:19 - 14:23حيث لا يمكننا معرفة ما هو حقيقي
من ما هو مزيف. -
14:23 - 14:26وهذا يُحتمل أن يكون خطيرًا بشكل لا يصدق.
-
14:27 - 14:31علينا أن نكون يقظين في الدفاع عن الحقيقة
-
14:31 - 14:32ضد المعلومات المغلوطة.
-
14:33 - 14:36من خلال تقنياتنا، وسياساتنا،
-
14:36 - 14:38وربما الأهم من ذلك،
-
14:38 - 14:42عبر مسؤولياتنا وقراراتنا
-
14:42 - 14:45وسلوكياتنا وأفعالنا الفردية.
-
14:46 - 14:47شكرًا جزيلًا لكم.
-
14:47 - 14:51(تصفيق)
- Title:
- كيف يمكننا حماية الحقائق في عصر المعلومات المغلوطة
- Speaker:
- سنان آرال
- Description:
-
بوسع الأخبار المزيفة أن تؤثر على الانتخابات، وتدمر الاقتصاد، وتزرع الفتنة في الحياة اليومية. يزيل عالم البيانات سنان آرال الغموض عن ماهية سرعة انتشار المعلومات المغلوطة، مستشهدًا بأحد أكبر الدراسات حولها، كما ويحدد خمس استراتيجيات لمساعدتنا على فك عقدة شبكة الإنترنت بين ما يُنشر من معلومات حقيقية ومعلومات مغلوطة.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Fatima Zahra El Hafa approved Arabic subtitles for How we can protect truth in the age of misinformation | ||
Fatima Zahra El Hafa accepted Arabic subtitles for How we can protect truth in the age of misinformation | ||
Fatima Zahra El Hafa edited Arabic subtitles for How we can protect truth in the age of misinformation | ||
Fatima Zahra El Hafa edited Arabic subtitles for How we can protect truth in the age of misinformation | ||
Reham Almrouti edited Arabic subtitles for How we can protect truth in the age of misinformation | ||
Reham Almrouti edited Arabic subtitles for How we can protect truth in the age of misinformation | ||
Reham Almrouti edited Arabic subtitles for How we can protect truth in the age of misinformation | ||
Reham Almrouti edited Arabic subtitles for How we can protect truth in the age of misinformation |