WEBVTT 00:00:01.468 --> 00:00:06.690 إذن، في 23 أبريل من سنة 2013، 00:00:06.714 --> 00:00:12.228 نشرت وكالة أسوشيتد برس تغريدة على منصة تويتر 00:00:12.252 --> 00:00:14.649 فحواها: "أخبار عاجلة: 00:00:14.673 --> 00:00:17.244 غارتان استهدفتا البيت الأبيض 00:00:17.268 --> 00:00:19.601 وأدى القصف لإصابة باراك أوباما." 00:00:20.212 --> 00:00:25.637 أُعيد تغريد هذا الخبر 4000 مرة في أقل من خمس دقائق، 00:00:25.661 --> 00:00:27.878 فانتشر الخبر بعدئذ انتشار واسعًا. NOTE Paragraph 00:00:28.760 --> 00:00:33.110 هذه التغريدة ليست خبرًا صحيحًا نشرته وكالة أسوشيتد برس. 00:00:33.134 --> 00:00:36.467 في الحقيقة كان خبرًا ملفقًا، 00:00:36.491 --> 00:00:39.316 أشاعه قراصنة سوريون 00:00:39.340 --> 00:00:44.034 حيث استولوا على حساب وكالة أسوشيتد برس على تويتر. 00:00:44.407 --> 00:00:48.296 كان جل هدفهم زعزعت المجتمع، لكن فعلتهم هذه أدت إلى زعزعة أخرى. 00:00:48.320 --> 00:00:50.796 لأنّ خوارزميات التداول الآلية 00:00:50.820 --> 00:00:54.180 استغلت على الفور الميول المرتبط بهذه التغريدة، 00:00:54.204 --> 00:00:57.172 وبدأت في التداول مرتكزة على احتمالية 00:00:57.196 --> 00:01:00.577 إصابة أو اغتيال رئيس الولايات المتحدة 00:01:00.601 --> 00:01:01.801 خلال القصف آنف الذكر. 00:01:02.188 --> 00:01:04.180 وبمجرّد الانطلاق في التغريد، 00:01:04.204 --> 00:01:07.553 بدأ سوق الأسهم بالانهيار مباشرة، 00:01:07.577 --> 00:01:12.744 مسببًا خسائر تقدر بـ140 مليون دولار في يوم واحد. NOTE Paragraph 00:01:13.062 --> 00:01:17.538 أصدر روبرت مولر، المستشار الخاص للنائب العام بالولايات المتّحدة، 00:01:17.562 --> 00:01:21.454 لوائح اتهام ضد ثلاث شركات روسية 00:01:21.478 --> 00:01:24.097 و13 شخصًا روسيًا 00:01:24.121 --> 00:01:27.288 في مؤامرة للاحتيال على الولايات المتحدة 00:01:27.312 --> 00:01:31.092 بالتدخل في الانتخابات الرئاسية لعام 2016. 00:01:31.855 --> 00:01:35.419 وما ترويه لائحة الاتهامات هذه 00:01:35.443 --> 00:01:38.585 هو قصة وكالة أبحاث الإنترنت، 00:01:38.609 --> 00:01:42.203 السلاح المبهم للكرملين على وسائل التواصل. 00:01:42.815 --> 00:01:45.592 خلال الانتخابات الرئاسية لوحدها، 00:01:45.616 --> 00:01:47.505 وصلت جهود وكالة أبحاث الإنترنت 00:01:47.529 --> 00:01:52.696 إلى 126 مليون شخص على منصة فيسبوك في الولايات المتحدة، 00:01:52.720 --> 00:01:55.997 محققة 3 ملايين تغريدة 00:01:56.021 --> 00:01:59.863 و43 ساعة من محتوى اليوتيوب، 00:01:59.887 --> 00:02:01.539 كلها كانت أخبارًا ملفقة... 00:02:01.563 --> 00:02:07.886 معلومات مضللة اختلقت من أجل زرع الشقاق في انتخابات الولايات المتحدة. NOTE Paragraph 00:02:08.996 --> 00:02:11.646 أظهرت دراسة جديدة أجرتها جامعة أكسفورد 00:02:11.670 --> 00:02:14.940 أنه في الانتخابات الأخيرة للسويد، 00:02:14.964 --> 00:02:19.339 كانت ثلث المعلومات المنتشرة في مواقع التواصل الاجتماعي 00:02:19.363 --> 00:02:20.561 حول الانتخابات 00:02:20.585 --> 00:02:22.672 معلومات كاذبة أو ملفقة. NOTE Paragraph 00:02:23.037 --> 00:02:28.115 إضافة إلى أن هذا النوع من حملات التضليل على مواقع التواصل الاجتماعي 00:02:28.139 --> 00:02:32.290 بوسعها نشر ما يسمى "الدعاية الإبادية" 00:02:32.314 --> 00:02:35.425 على سبيل المثال، ضدّ الروهينغا في بورما، 00:02:35.449 --> 00:02:37.752 أو التسبب في مقتل مجموعات واسعة في الهند. NOTE Paragraph 00:02:37.776 --> 00:02:39.270 لقد درسنا الأخبار الكاذبة 00:02:39.294 --> 00:02:42.513 وبدأنا في دراستها قبل أن تصبح مصطلحًا شائعًا. 00:02:43.030 --> 00:02:48.070 وقد نشرنا مؤخرًا أكبر دراسة طوليّة 00:02:48.094 --> 00:02:50.380 عن انتشار الأخبار الخاطئة في الويب 00:02:50.404 --> 00:02:53.608 على غلاف مجلة ساينس في شهر مارس من هذه السنة. 00:02:54.523 --> 00:02:58.684 لقد درسنا جميع القصص الإخبارية الصحيح منها والكاذب 00:02:58.708 --> 00:03:00.461 التي نُشرت على منصة تويتر، 00:03:00.485 --> 00:03:04.303 منذ إطلاقه في عام 2006 حتى عام 2017. 00:03:04.612 --> 00:03:06.926 وعندما درسنا هذه المعلومات، 00:03:06.950 --> 00:03:09.826 درسنا قصص الأخبار المؤكدة 00:03:09.850 --> 00:03:13.768 التي تحققت منها ست منظمات مستقلة للتحقق من الأخبار. 00:03:13.792 --> 00:03:16.554 لذلك عرفنا أي القصص كانت صحيحة 00:03:16.578 --> 00:03:18.704 وأيها كانت كاذبة. 00:03:18.728 --> 00:03:20.601 بوسعنا قياس انتشارها 00:03:20.625 --> 00:03:22.276 وسرعة انتشارها، 00:03:22.300 --> 00:03:24.395 ونطاق ومدى انتشارها، 00:03:24.419 --> 00:03:28.561 وكم من الناس أصبحوا متشابكين في سلسلة المعلومات هذه، وما إلى ذلك. 00:03:28.942 --> 00:03:30.426 وما فعلناه في هذا البحث 00:03:30.450 --> 00:03:34.789 هو أننا قارنا سرعة انتشار الأخبار الصحيحة مع سرعة انتشار الأخبار الكاذبة. 00:03:34.789 --> 00:03:36.022 وهذا ما توصلنا إليه. NOTE Paragraph 00:03:36.046 --> 00:03:40.025 توصلنا إلى أن الأخبار الكاذبة تنتشر أبعد وأسرع وأعمق 00:03:40.049 --> 00:03:41.855 وأوسع من الأخبار الصحيحة 00:03:41.879 --> 00:03:44.882 في كل فئات المعلومات التي درسناها، 00:03:44.906 --> 00:03:47.405 أحيانًا يكون الفرق بسبب حجم الخبر. 00:03:47.842 --> 00:03:51.366 في الحقيقة، توصلنا إلى أن الأخبار السياسية الكاذبة هي الأكثر انتشارًا. 00:03:51.390 --> 00:03:54.537 تنتشر أبعد وأسرع وأعمق وأوسع 00:03:54.561 --> 00:03:57.363 من أي نوع من الأخبار الكاذبة الأخرى. 00:03:57.387 --> 00:03:58.904 عندما اطلعنا على هذه الدراسة، 00:03:58.904 --> 00:04:02.095 أصابنا الذعر لكن انتابنا شيء من الفضول. لماذا؟ 00:04:02.451 --> 00:04:08.057 لماذا تنتقل الأخبار الكاذبة أسرع وأبعد وأعمق من الأخبار الصحيحة؟ 00:04:08.217 --> 00:04:11.234 كانت أول فرضية توصلنا لها هي: NOTE Paragraph 00:04:11.483 --> 00:04:13.094 "حسنًا، ربما من ينشرون 00:04:13.094 --> 00:04:15.100 الأخبار الكاذبة يتابعون الكثير من الحسابات 00:04:15.100 --> 00:04:16.318 أو لديهم متابعون أكثر، 00:04:16.318 --> 00:04:17.690 أو يغردون كثيرًا، 00:04:17.721 --> 00:04:21.847 أو ربما في الغالب هم مستخدمون متحقق منهم مع مصداقية أكثر، 00:04:21.871 --> 00:04:24.053 أو هم فعالون على المنصة منذ مدة طويلة." 00:04:24.077 --> 00:04:26.375 لذلك فحصنا كل فرضية على حدة. 00:04:26.691 --> 00:04:29.611 وما وجدناه كان النقيض تمامًا. 00:04:29.635 --> 00:04:32.071 ناشروا الأخبار الكاذبة لديهم متابعون أقل، 00:04:32.095 --> 00:04:34.433 ويتابعون أشخاصًا أقل، كما وأنهم أقل نشاطا، 00:04:34.433 --> 00:04:35.833 وليسوا مستعملين متحقق منهم 00:04:35.857 --> 00:04:38.817 ولم يمض على تواجدهم على المنصة إلا فترة قليلة 00:04:38.841 --> 00:04:40.030 ومع هذا، 00:04:40.054 --> 00:04:45.087 كانت الأخبار الكاذبة أكثر عرضة للنشر من الأخبار المؤكدة بنسبة 70 في المائة، 00:04:45.111 --> 00:04:48.474 مسيطرة على كل هذه العوامل وغيرها. NOTE Paragraph 00:04:48.498 --> 00:04:51.188 لذلك تعين علينا الإتيان بتفسيرات أخرى. 00:04:51.212 --> 00:04:54.679 وابتكرنا ما أطلقنا عليه "فرضية الحداثة". 00:04:55.038 --> 00:04:56.998 إن كنت من القراء في مجال الأدب، 00:04:57.022 --> 00:05:00.776 فمن الشائع أن انتباه الإنسان ينجذب نحو الحداثة؛ 00:05:00.800 --> 00:05:03.319 أشياء مستحدثة في البيئة. 00:05:03.343 --> 00:05:05.328 أما إن كنت من قراء أدب علم الاجتماع، 00:05:05.352 --> 00:05:09.652 فإنك على دراية بأننا نهوى مشاركة المعلومات الجديدة. 00:05:09.676 --> 00:05:13.514 فبدورها تجعلنا نبدو وكأننا على دراية بالأسرار الداخلية، 00:05:13.538 --> 00:05:17.323 ونكتسب مكانتنا بنشر هذا النوع من المعلومات. NOTE Paragraph 00:05:17.792 --> 00:05:24.268 إذًا ما فعلناه هو أننا قمنا بقياس حداثة تغريدة واردة، مؤكدة الصحة كانت أم كاذبة، 00:05:24.268 --> 00:05:28.323 ومقارنتها بمجموع ما شاهده ذلك الفرد 00:05:28.347 --> 00:05:31.299 في الشهرين السابقين على تطبيق تويتر. 00:05:31.323 --> 00:05:33.982 لكن هذا لم يكن كافيًا؛ لأننا اعتقدنا: 00:05:34.006 --> 00:05:38.214 "حسنًا، ربما تكون الأخبار الكاذبة أكثر استحداثًا بالمعنى النظري للمعلومات، 00:05:38.238 --> 00:05:41.496 لكن ربما لا يتصورها الناس على أنها مستحدثة." NOTE Paragraph 00:05:41.849 --> 00:05:45.776 ولفهم تصورات الناس حول الأخبار الكاذبة، 00:05:45.800 --> 00:05:49.490 أمعنا النظر في المعلومات والعاطفة 00:05:49.514 --> 00:05:53.720 الواردة في الردود على التغريدات، الحقيقي منها والكاذب. 00:05:54.022 --> 00:05:55.228 وما وجدناه 00:05:55.252 --> 00:05:59.466 هو أنه عبر مجموعة من المقاييس المختلفة من العاطفة، 00:05:59.490 --> 00:06:02.791 التفاجؤ والاشمئزاز والخوف والحزن 00:06:02.815 --> 00:06:05.299 والترقب والفرح والثقة... 00:06:05.323 --> 00:06:11.180 أظهرت الأخبار الكاذبة نسبة أكبر من التفاجؤ والاشمئزاز بشكل ملحوظ 00:06:11.204 --> 00:06:14.010 في الردود على التغريدات المزيفة. 00:06:14.392 --> 00:06:18.181 وأظهرت الأخبار الحقيقية نسبة أكبر من الترقب 00:06:18.205 --> 00:06:19.752 والفرح والثقة 00:06:19.776 --> 00:06:22.323 في الرد على التغريدات الحقيقية. 00:06:22.347 --> 00:06:26.133 يؤكد التفاجؤ فرضيتنا الجديدة. 00:06:26.157 --> 00:06:30.766 هذا خبر جديد ومثير للدهشة، وعليه من المرجح أن نشاركه. NOTE Paragraph 00:06:31.092 --> 00:06:34.017 في ذات الوقت، كانت هناك شهادات للكونغرس 00:06:34.041 --> 00:06:37.077 أمام مجلسيه في الولايات المتحدة، 00:06:37.101 --> 00:06:40.839 تنظر في دور روبوتات الويب في انتشار المعلومات المغلوطة. 00:06:40.863 --> 00:06:42.241 لذا أجَلنا النظر في هذا أيضًا 00:06:42.241 --> 00:06:45.839 استخدمنا عدة خوارزميات متطورة للكشف عن روبوتات الويب 00:06:45.863 --> 00:06:48.937 والعثور عليها في بياناتنا ومن ثم سحبها. 00:06:49.347 --> 00:06:52.006 لذلك قمنا بسحبها، ووضعها مرة أخرى 00:06:52.030 --> 00:06:55.149 وقارنا ما يحدث في عملية القياس لدينا. 00:06:55.173 --> 00:06:57.466 وما وجدناه هو، نعم بالفعل، 00:06:57.490 --> 00:07:01.172 تُسرع الروبوتات معدل نشر الأخبار الكاذبة عبر الإنترنت، 00:07:01.196 --> 00:07:03.847 لكنها كانت تسرع انتشار الأخبار الحقيقية 00:07:03.871 --> 00:07:06.276 بنفس المعدل تقريبًا. 00:07:06.300 --> 00:07:09.158 مما يعني أن روبوتات الويب ليست مسؤولة 00:07:09.182 --> 00:07:13.895 عن التباين بين انتشار الأخبار الحقيقية والأخبار الزائفة على شبكة الويب. 00:07:13.919 --> 00:07:16.768 ليس بوسعنا أن نتخلى عن هذه المسؤولية الملقاة على عاتقنا، 00:07:16.792 --> 00:07:21.051 لأننا نحن البشر، مسؤولون عن هذا الانتشار. NOTE Paragraph 00:07:22.472 --> 00:07:25.806 الآن، كل ما أخبرتكم به حتى الآن، 00:07:25.830 --> 00:07:27.584 للأسف بالنسبة لنا جميعًا، 00:07:27.608 --> 00:07:28.869 هو الخبر السار. NOTE Paragraph 00:07:30.670 --> 00:07:35.120 السبب هو أنه على وشك أن يزداد الأمر سوءًا. 00:07:35.850 --> 00:07:39.532 وهناك تقنيتان محددتان ستزيدان الأمر سوءًا. 00:07:40.207 --> 00:07:45.379 سنرى صعود موجة هائلة من الوسائط الاصطناعية. 00:07:45.403 --> 00:07:51.434 فيديو مزيف، وصوت مزيف مقنع للغاية للعين البشرية. 00:07:51.458 --> 00:07:54.212 وهذا سوف تدعمه تقنيتان. NOTE Paragraph 00:07:54.236 --> 00:07:58.069 يُعرف أولها باسم "شبكات الخصومة التوليدية". 00:07:58.093 --> 00:08:00.656 ويعتبر نموذج تعليم آلي مزود بشبكتين: 00:08:00.680 --> 00:08:02.227 شبكة أداة تمييز، 00:08:02.251 --> 00:08:06.451 وتتمثل مهمتها في تحديد ما إذا كان الشيء حقيقيًا أم مزيفًا، 00:08:06.475 --> 00:08:07.642 وشبكة مولد، 00:08:07.666 --> 00:08:10.816 وظيفتها إنشاء وسائط اصطناعية. 00:08:10.840 --> 00:08:15.942 لذا يولد المولد الصناعي مقطع فيديو أو صوتًا اصطناعيين، 00:08:15.966 --> 00:08:20.641 وتحاول شبكة التمييز إخبارنا: "هل هذا حقيقي أم مزيف؟" 00:08:20.665 --> 00:08:23.539 وفي الواقع، إن مهمة الشبكة المولد 00:08:23.563 --> 00:08:27.998 هي رفع الحد الأقصى من احتمالية أن تُخدع شبكة أداة التمييز 00:08:28.022 --> 00:08:31.609 باعتقاد أن الفيديو والصوت الاصطناعيين اللذان تصنعهما 00:08:31.633 --> 00:08:33.363 حقيقيان في الواقع. 00:08:33.387 --> 00:08:35.760 تخيلوا آلة في جوف حلقة دوارة، 00:08:35.784 --> 00:08:38.587 تسعى جاهدة لتحسين الطرق في خداعنا. NOTE Paragraph 00:08:39.114 --> 00:08:41.614 هذا، إلى جانب التقنية الثانية، 00:08:41.638 --> 00:08:47.360 والتي تتمثل أساسًا في إضفاء الطابع الديمقراطي على الذكاء الاصطناعي للناس، 00:08:47.384 --> 00:08:49.573 إن قدرة أي شخص، 00:08:49.597 --> 00:08:52.427 دون أي خلفية في الذكاء الاصطناعي 00:08:52.451 --> 00:08:53.633 والتعلم الآلي، 00:08:53.657 --> 00:08:57.760 على نشر هذه الأنواع من الخوارزميات لتوليد الوسائط الاصطناعية 00:08:57.784 --> 00:09:02.331 يُسهل من إنشاء مقاطع الفيديو. NOTE Paragraph 00:09:02.355 --> 00:09:06.776 أصدر البيت الأبيض شريط فيديو مفبرك 00:09:06.800 --> 00:09:11.088 عن صحفي يتفاعل مع متدربة كانت تحاول التقاط الميكروفون من يده. 00:09:11.427 --> 00:09:13.426 لقد أزالوا لقطات من هذا الفيديو 00:09:13.450 --> 00:09:16.737 لجعل تصرفاته تبدو أكثر عدوانية. 00:09:17.157 --> 00:09:20.542 وعندما أُجريت مقابلات مع مصوري فيديو وممثلين بدلاء 00:09:20.566 --> 00:09:22.993 حول هذا النوع من التقنية، 00:09:23.017 --> 00:09:26.845 قالوا: "نعم، نستخدم هذه التقنية في الأفلام طوال الوقت 00:09:26.869 --> 00:09:31.632 لجعل اللكمات والركلات تبدو أكثر تقلبًا وعدوانية." 00:09:32.268 --> 00:09:34.135 ثم وضعوا هذا الفيديو 00:09:34.159 --> 00:09:36.659 واستخدموه جزئيًا كمبرر 00:09:36.683 --> 00:09:40.682 لإلغاء الإذن الذي يسمح للصحفي جيم أكوستا 00:09:40.706 --> 00:09:42.045 بدخول البيت الأبيض. 00:09:42.069 --> 00:09:46.878 مما جعل قناة سي إن إن ترفع دعوى قضائية لإعادة تفعيل ذلك الإذن الصحفي. NOTE Paragraph 00:09:48.538 --> 00:09:54.141 هناك حوالي خمسة مسارات مختلفة أرى أنه يمكننا اتباعها 00:09:54.165 --> 00:09:57.904 لمحاولة معالجة بعض هذه المشاكل الصعبة اليوم. 00:09:58.379 --> 00:10:00.189 كل مسار من هذه المسارات واعد، 00:10:00.213 --> 00:10:03.212 غير أن كل مسار لديه تحدياته الخاصة. 00:10:03.236 --> 00:10:05.244 أولها هو وضع بطاقة البيانات الإضاحية. 00:10:05.268 --> 00:10:06.625 فكروا في الأمر بهذه الطريقة: 00:10:06.649 --> 00:10:10.260 عندما تذهبون إلى متجر البقالة لشراء الطعام، 00:10:10.284 --> 00:10:12.188 فإن البطاقات تحتوي على بيانات مُفصلة. 00:10:12.212 --> 00:10:14.204 فيتسنى لك معرفة عدد السعرات الحرارية، 00:10:14.228 --> 00:10:16.029 ومقدار الدهون التي تحتوي عليها، 00:10:16.053 --> 00:10:20.331 لكن عندما نستهلك المعلومات، ليست لدينا بطاقات إضاحية البتة. 00:10:20.355 --> 00:10:22.283 ما الذي تشمله هذه المعلومات؟ 00:10:22.307 --> 00:10:23.760 هل المصدر موثوق؟ 00:10:23.784 --> 00:10:26.101 من أين جُمعت هذه المعلومات؟ 00:10:26.125 --> 00:10:27.950 ليس لدينا أي من هذه المعطيات 00:10:27.974 --> 00:10:30.077 عندما نستهلك المعلومات. 00:10:30.101 --> 00:10:33.339 هذه أحد السبل المحتملة، لكنها تأتي مع تحدياتها. 00:10:33.363 --> 00:10:39.814 على سبيل المثال، في المجتمع، من الذي يقرر ما هو الصحيح وما هو الخطأ؟ 00:10:40.387 --> 00:10:42.029 هل هي الحكومات؟ 00:10:42.053 --> 00:10:43.203 هل هو فيسبوك؟ 00:10:43.601 --> 00:10:47.363 هل هو اتحاد مستقل من مدققي الحقائق؟ 00:10:47.387 --> 00:10:49.853 ومن الذي يتحقق من مدققي الحقائق؟ NOTE Paragraph 00:10:50.427 --> 00:10:53.511 أحد السبل المحتملة الأخرى هي الحوافز. 00:10:53.535 --> 00:10:56.169 نعلم أنه خلال الانتخابات الرئاسية الأمريكية 00:10:56.193 --> 00:10:59.883 كانت هناك موجة من المعلومات المغلوطة التي جاءت بها دولة مقدونيا 00:10:59.907 --> 00:11:02.244 والتي لم يكن لها أي دافع سياسي 00:11:02.268 --> 00:11:04.728 ولكن بدلاً من ذلك كان لها دافع اقتصادي. 00:11:04.752 --> 00:11:06.900 تداعى تواجد هذا الدافع الاقتصادي 00:11:06.924 --> 00:11:10.448 جراء تنقل الأخبار الكاذبة تنقلًا سريعًا 00:11:10.472 --> 00:11:12.482 وعميقًا مقارنة بالأخبار الحقيقة، 00:11:12.506 --> 00:11:17.466 ويمكنك أن تكسب دولارًا إعلانيًا بينما تغوي العيون والأذهان 00:11:17.490 --> 00:11:19.450 بهذا النوع من المعلومات. 00:11:19.474 --> 00:11:23.307 ولكن إذا كان باستطاعتنا تقليل انتشار هذه المعلومات، 00:11:23.331 --> 00:11:26.228 فربما يقلل ذلك من الحافز الاقتصادي 00:11:26.252 --> 00:11:28.942 لإنتاجها في المقام الأول. NOTE Paragraph 00:11:28.966 --> 00:11:31.466 ثالثًا، يمكننا التفكير في التنظيم، 00:11:31.490 --> 00:11:33.815 وبالتأكيد علينا أن نفكر في هذا الخيار. 00:11:33.839 --> 00:11:35.450 في الولايات المتحدة، حاليًا، 00:11:35.474 --> 00:11:40.322 نستكشف ما قد يحدث إذا تم تنسيق منصة فيسبوك وغيرها من المنصات تنسيقا قانونيا. 00:11:40.346 --> 00:11:44.147 على الرغم من أنه ينبغي علينا إمعان النظر في أمور كتنظيم الخطاب السياسي، 00:11:44.171 --> 00:11:46.679 مع الإشارة إلى حقيقة أنه خطاب سياسي، 00:11:46.703 --> 00:11:50.522 والتأكد من عدم قدرة الجهات الأجنبية الفاعلة على تمويل الخطاب السياسي، 00:11:50.546 --> 00:11:53.093 فإن لهذا أيضًا مخاطره الخاصة. 00:11:53.522 --> 00:11:58.400 على سبيل المثال، فرضت ماليزيا عقوبة بالسجن لمدة ست سنوات 00:11:58.424 --> 00:12:01.158 في حق أي شخص ينشر معلومات مضللة. 00:12:01.696 --> 00:12:03.775 وفي الأنظمة الاستبدادية، 00:12:03.799 --> 00:12:08.465 يمكن استخدام هذه الأنواع من السياسات لقمع آراء الأقليات 00:12:08.489 --> 00:12:11.997 ومواصلة كبحها. NOTE Paragraph 00:12:12.680 --> 00:12:16.223 الخيار الرابع المحتمل هو الشفافية. 00:12:16.843 --> 00:12:20.557 نريد أن نعرف كيف تعمل خوارزميات فيسبوك. 00:12:20.581 --> 00:12:23.461 وكيف تتحد البيانات مع الخوارزميات 00:12:23.485 --> 00:12:26.323 لتسفر عن النتائج التي نراها؟ 00:12:26.347 --> 00:12:28.696 نريدهم أن يُفصحوا عن الخبايا 00:12:28.720 --> 00:12:32.934 ويظهروا لنا بالضبط الأسرار الداخلية لكيفية عمل فيسبوك. 00:12:32.958 --> 00:12:35.737 وإذا كنا نريد معرفة تأثير وسائل التواصل على المجتمع، 00:12:35.761 --> 00:12:37.847 فيجب أن يكون من السهل على العلماء والباحثين 00:12:37.871 --> 00:12:41.014 وغيرهم الوصول إلى هذا النوع من المعلومات. 00:12:41.038 --> 00:12:42.585 وفي الآن ذاته، 00:12:42.609 --> 00:12:46.410 نحن نطالب من فيسبوك تأمين كل شيء، 00:12:46.434 --> 00:12:48.607 للحفاظ على أمان كافة البيانات. NOTE Paragraph 00:12:48.631 --> 00:12:51.790 لذا، تواجه كل من منصة فيسبوك ومنصات التواصل الاجتماعي الأخرى 00:12:51.814 --> 00:12:54.948 ما أسميه بـ"مفارقة الشفافية". 00:12:55.266 --> 00:12:57.940 نطلب من هذه المنصات 00:12:57.964 --> 00:13:02.773 أن تتسم بالانفتاح والشفافية وأن تكون وسائل آمنة في آن واحد. 00:13:02.797 --> 00:13:05.488 تعتبر هذه معضلة صعبة للغاية، 00:13:05.512 --> 00:13:07.425 لكنهم بحاجة لحلها 00:13:07.449 --> 00:13:11.236 إذا ما أردنا تحقيق البشرى الموعودة من التقنيات الاجتماعية 00:13:11.260 --> 00:13:12.902 إلى جانب ردع مخاطرها. NOTE Paragraph 00:13:12.926 --> 00:13:17.641 الأمر الأخير الذي يمكننا التفكير في توظيفه هو الخوارزميات والتعلم الآلي. 00:13:17.641 --> 00:13:22.918 ابتكار تقنية لاستئصال الأخبار الملفقة، وفهم ماهيتها، وكيفية انتشارها 00:13:22.942 --> 00:13:25.273 ومحاولة كبح تدفقها. 00:13:25.824 --> 00:13:28.721 ينبغي على البشر أن ينضموا إلى هذه الحلقة من التكنولوجيا؛ 00:13:28.745 --> 00:13:31.023 لأنه لا مفر، 00:13:31.047 --> 00:13:35.085 حيث أنه يقبع خلف أي حل أو مقاربة تكنولوجية 00:13:35.109 --> 00:13:39.156 سؤال أخلاقي وفلسفي أساسي 00:13:39.180 --> 00:13:42.450 حول تعريف الحقيقة والزيف، 00:13:42.474 --> 00:13:45.654 ولمن نمنح صلاحية تعريف الحقيقة والزيف، 00:13:45.678 --> 00:13:48.138 وأي الآراء شرعية، 00:13:48.162 --> 00:13:51.868 وأي نوع من الخطاب مسموح، وهلم جرًا. 00:13:51.892 --> 00:13:54.220 التكنولوجيا ليست حلًا لذلك. 00:13:54.244 --> 00:13:57.942 إن الأخلاق والفلسفة هي الحل. NOTE Paragraph 00:13:58.950 --> 00:14:02.268 تتمتع تقريبًا كل نظرية حول اتخاذ القرارات الإنسانية، 00:14:02.292 --> 00:14:05.053 والتعاون الإنساني، والتنسيق الإنساني 00:14:05.077 --> 00:14:08.751 بنسبة من الحقيقة في جوهرها. 00:14:09.347 --> 00:14:11.403 ولكن في ظل ظهور الأخبار المزيفة 00:14:11.427 --> 00:14:12.870 والفيديوهات المزيفة، 00:14:12.894 --> 00:14:14.776 والأصوات المزيفة، 00:14:14.800 --> 00:14:18.724 فإننا نتأرجح على حافة نهاية الواقع، 00:14:18.748 --> 00:14:22.637 حيث لا يمكننا معرفة ما هو حقيقي من ما هو مزيف. 00:14:22.661 --> 00:14:25.700 وهذا يُحتمل أن يكون خطيرًا بشكل لا يصدق. NOTE Paragraph 00:14:26.931 --> 00:14:30.879 علينا أن نكون يقظين في الدفاع عن الحقيقة 00:14:30.903 --> 00:14:32.437 ضد المعلومات المغلوطة. 00:14:32.919 --> 00:14:36.355 من خلال تقنياتنا، وسياساتنا، 00:14:36.379 --> 00:14:38.299 وربما الأهم من ذلك، 00:14:38.323 --> 00:14:41.537 عبر مسؤولياتنا وقراراتنا 00:14:41.561 --> 00:14:45.116 وسلوكياتنا وأفعالنا الفردية. NOTE Paragraph 00:14:45.553 --> 00:14:46.990 شكرًا جزيلًا لكم. NOTE Paragraph 00:14:47.014 --> 00:14:50.531 (تصفيق)