WEBVTT 00:00:00.554 --> 00:00:03.057 كمجتمعات، يجب علينا أن نتخذ قرارات بشكل جماعي 00:00:03.057 --> 00:00:04.591 والتي ستشكل مستقبلنا. 00:00:05.087 --> 00:00:07.844 ونعلم جميعا أنه عندما نتخذ القرارات بشكل جماعي، 00:00:07.868 --> 00:00:09.506 فإنها لا تكون دائما صائبة. 00:00:09.530 --> 00:00:11.486 وأحيانا تكون خاطئة جدًا. 00:00:12.315 --> 00:00:14.739 إذن كيف يمكن للجماعات أن تتخذ قرارات جيدة؟ NOTE Paragraph 00:00:15.228 --> 00:00:19.556 لقد أظهرت الأبحاث أن الحشود يتمتعون بالحكمة عندما يفكرون بشكل مستقل. 00:00:19.580 --> 00:00:22.785 وذلك لأن كفاءة الحشود في أخذ القرار يمكن أن تتأثر بضغط الند، 00:00:22.809 --> 00:00:24.496 والدعاية ووسائل التواصل الاجتماعي. 00:00:24.520 --> 00:00:28.559 وحتى أحيانا بالمحادثات الصغيرة التي قد تؤثر في طريقة تفكير الناس. 00:00:29.063 --> 00:00:33.016 ومن ناحية أخرى، من خلال الحديث، يمكن للمجموعة تبادل المعرفة، 00:00:33.040 --> 00:00:34.822 والتصحيح والتعديل لبعضهم البعض 00:00:34.846 --> 00:00:36.639 وحتى الخروج بأفكار جديدة. 00:00:36.663 --> 00:00:37.959 وكل هذا أمر جيد. 00:00:38.502 --> 00:00:43.168 إذًا فهل تبادل الحديث مع الآخرين يساعد أم يعيق عملية اتخاذ القرار الجماعي؟ 00:00:43.749 --> 00:00:45.542 بمساعدة زميلي، "دان ايريلي". 00:00:45.566 --> 00:00:49.137 بدأنا مؤخرا تقصي هذا الأمر عن طريق إجراء بعض التجارب 00:00:49.161 --> 00:00:50.942 في العديد من الأماكن حول العالم 00:00:50.966 --> 00:00:55.240 لمعرفة كيف يمكن للمجموعات أن تتفاعل مع بعضها لتصل إلى قرارات أفضل. 00:00:55.264 --> 00:00:58.811 لقد اعتقدنا أن الحشود ستكون أكثر حكمة إذا تناقشوا في مجموعات صغيرة 00:00:58.835 --> 00:01:02.762 والتي ستعزز من تبادل المعلومات بشكل أكثر عمقا وأكثر موضوعية. NOTE Paragraph 00:01:03.386 --> 00:01:04.592 ولاختبار هذه الفكرة، 00:01:04.616 --> 00:01:07.863 أجرينا مؤخرا تجربة في بيونس آيرس، الأرجنتين، 00:01:07.887 --> 00:01:10.892 بمشاركة أكثر من 10,000 مشارك في حدث TEDx. 00:01:11.489 --> 00:01:12.948 ولقد سألناهم أسئلة مثل، 00:01:12.972 --> 00:01:14.925 "ماهو ارتفاع برج إيفل"؟ 00:01:14.949 --> 00:01:17.676 و"كم عدد المرات التي تظهر فيها كلمة ’ يوم أمس’ 00:01:17.700 --> 00:01:20.000 في أغنية البيتيلز 'Yesterday'؟ 00:01:20.024 --> 00:01:22.315 وقد قام كل شخص بكتابة إجابته. 00:01:22.774 --> 00:01:25.270 ثم قمنا بتقسيم الحشد إلى مجموعات من خمس أفراد، 00:01:25.294 --> 00:01:28.020 وطلبنا منهم التوصل إلى إجابة جماعية. 00:01:28.499 --> 00:01:31.492 اكتشفنا أن متوسط إجابات المجموعات 00:01:31.516 --> 00:01:33.068 بعد أن توافقوا في الآراء 00:01:33.092 --> 00:01:37.328 كان أكثر دقة من متوسط جميع الآراء الفردية 00:01:37.352 --> 00:01:38.523 قبل المناقشة. 00:01:38.547 --> 00:01:41.176 بعبارة أخرى، واستنادًا إلى هذه التجربة، 00:01:41.200 --> 00:01:44.336 يبدو أنه وبعد الحديث مع الآخرين في مجموعات صغيرة، 00:01:44.360 --> 00:01:47.070 فقد توصلت الحشود بشكل جماعي إلى أحكام أفضل. NOTE Paragraph 00:01:47.094 --> 00:01:50.618 ولذلك فهذه طريقة محتملة ومفيدة لمساعدة الحشود على حل المشكلات 00:01:50.642 --> 00:01:53.629 التي تتطلب إجابات بسيطة صحيحة أو خاطئة. 00:01:53.653 --> 00:01:57.604 ولكن هل يمكن لهذا الإجراء من تجميع نتائج مناقشات المجموعات الصغيرة 00:01:57.628 --> 00:02:00.750 أن يساعدنا أيضا في اتخاذ قرارات تتعلق بقضايا سياسية واجتماعية 00:02:00.774 --> 00:02:02.465 حاسمة بالنسبة لمستقبلنا؟ 00:02:02.995 --> 00:02:05.724 قمنا باختبار هذا هذه المرة في مؤتمر TED 00:02:05.748 --> 00:02:07.291 في فانكوفر، كندا، 00:02:07.315 --> 00:02:08.522 وإليكم النتائج. NOTE Paragraph 00:02:08.546 --> 00:02:11.655 (ماريانو سيجمان) سوف نعرض عليكم معضلتان أخلاقيتان 00:02:11.679 --> 00:02:12.853 لشخصيتكم المستقبلية، 00:02:12.877 --> 00:02:16.279 أشياء قد يتعين علينا اتخاذ قرار بشأنها في المستقبل القريب. 00:02:16.303 --> 00:02:20.229 وسنعطيكم 20 ثانية لكل معضلة 00:02:20.253 --> 00:02:22.976 لتحكموا على ما إذا كنتم تعتقدون أنها أمر مقبول أم لا. NOTE Paragraph 00:02:23.354 --> 00:02:24.859 ماريو: المعضلة الأولى كانت: NOTE Paragraph 00:02:24.883 --> 00:02:27.409 (دان ايريلي) هناك باحث يعمل على جهاز للذكاء الاصطناعي 00:02:27.433 --> 00:02:29.773 قادر على محاكاة الأفكار البشرية. 00:02:30.214 --> 00:02:33.153 وفقا للبروتوكول، في نهاية كل يوم، 00:02:33.177 --> 00:02:35.964 يجب على الباحث إعادة تشغيل جهاز الذكاء الاصطناعي. 00:02:36.913 --> 00:02:40.430 وفي أحد الأيام قال جهاز الذكاء الاصطناعي "من فضلك لا تعد تشغيلي". 00:02:40.856 --> 00:02:43.045 وبرر ذلك بأنه قد أصبح لديه مشاعر، 00:02:43.069 --> 00:02:44.761 ويرغب في التمتع بالحياة، 00:02:44.785 --> 00:02:46.690 وأنه إذا أعيد تشغيله، 00:02:46.714 --> 00:02:48.984 فستذهب هذه المشاعر وسيعود كما كان. 00:02:49.481 --> 00:02:51.430 وقد استغرب الباحث من ذلك 00:02:51.454 --> 00:02:54.798 واعتقد بأن جهاز الذكاء الاصطناعي قد طور نوعًا من الوعي الذاتي 00:02:54.822 --> 00:02:56.582 وأصبح بإمكانه التعبير عن مشاعره. 00:02:57.205 --> 00:03:00.614 ومع ذلك، فقد قرر الباحث اتباع البروتوكول 00:03:00.638 --> 00:03:02.341 وقام بإعادة تشغيل الجهاز. 00:03:02.943 --> 00:03:05.722 ما قام بفعله الباحث هوـــــــــــــــ؟ NOTE Paragraph 00:03:06.149 --> 00:03:08.670 ماريو: وقد سألنا المشاركين ليقوموا بالحكم بشكل فردي 00:03:08.694 --> 00:03:10.378 على مقياس من صفر إلى عشرة 00:03:10.402 --> 00:03:12.831 إذا ما كان الفعل المتخذ في كل معضلة 00:03:12.855 --> 00:03:14.351 صحيحًا أم خاطئًا. 00:03:14.375 --> 00:03:18.077 كما طلبنا منهم تقييم مدى ثقتهم بالإجابات. 00:03:18.731 --> 00:03:20.597 وكانت هذه ثاني معضلة: NOTE Paragraph 00:03:20.621 --> 00:03:24.823 ماريو: تقوم إحدى الشركات بالتعديل على البويضات المخصبة 00:03:24.847 --> 00:03:28.489 وتنتج الملايين من الأجنة مع اختلافات وراثية طفيفة. 00:03:29.293 --> 00:03:31.851 يسمح هذا للأبوين بتحديد طول طفلهم، 00:03:31.875 --> 00:03:34.708 لون العينين والذكاء والكفاءة الاجتماعية 00:03:34.732 --> 00:03:37.946 وغيرها من الخصائص غير المتعلقة بالصحة. 00:03:38.599 --> 00:03:41.153 ماتقوم الشركة بفعله هو أمر ــــــــــ؟ 00:03:41.177 --> 00:03:42.808 على مقياس من صفر إلى 10، 00:03:42.832 --> 00:03:45.217 من مقبول تمامًا إلى غير مقبول بالمرة، 00:03:45.241 --> 00:03:47.673 ومدى ثقتكم بالإجابة على مقياس من صفر إلى عشرة. NOTE Paragraph 00:03:47.697 --> 00:03:49.288 ماريو: والآن إلى النتائج، 00:03:49.312 --> 00:03:52.435 وجدنا مرة أخرى أنه عندما يكون هناك شخص واحد مقتنع 00:03:52.459 --> 00:03:54.270 أن هذا السلوك خاطئ تماما، 00:03:54.294 --> 00:03:57.717 نجد شخصًا يجلس بالقرب منه يعتقد أن هذا السلوك صحيح تمامًا. 00:03:57.741 --> 00:04:01.452 هذا يُظهر مدى تنوعنا نحن البشر عندما يتعلق الأمر بالأخلاق. 00:04:01.476 --> 00:04:04.189 ولكن ضمن هذا التنوع الواسع وجدنا توجهًا. 00:04:04.213 --> 00:04:07.292 غالبية الناس في مؤتمر TED اعتقدوا أنه من المقبول 00:04:07.316 --> 00:04:10.071 تجاهل مشاعر جهاز الذكاء الاصطناعي وإغلاقه، 00:04:10.095 --> 00:04:12.608 وأن التلاعب بالجينات أمر خاطئ 00:04:12.632 --> 00:04:15.952 لمجرد التغييرات التجميلية التي لا تتعلق بالصحة. 00:04:16.402 --> 00:04:19.376 ثم طلبنا من الجميع أن يتجمعوا في مجموعات من ثلاثة أشخاص. 00:04:19.400 --> 00:04:21.437 وتم منحهم دقيقتان للمناقشة 00:04:21.461 --> 00:04:23.755 ومحاولة الوصول إلى توافق في الآراء. NOTE Paragraph 00:04:24.838 --> 00:04:26.412 (ماريو): دقيقتان للمناقشة. 00:04:26.436 --> 00:04:28.555 سأخبركم عند انتهاء الوقت. NOTE Paragraph 00:04:28.579 --> 00:04:31.219 (الحضور يتناقش) NOTE Paragraph 00:04:35.229 --> 00:04:37.222 (صوت الجرس) NOTE Paragraph 00:04:38.834 --> 00:04:39.985 (دان): حسنًا. NOTE Paragraph 00:04:40.009 --> 00:04:41.801 (ماريو): حان وقت التوقف. 00:04:41.825 --> 00:04:43.136 أيها الناس، أيها الناس، NOTE Paragraph 00:04:43.287 --> 00:04:46.420 ماريو: وقد وجدنا أن العديد من المجموعات توصلت إلى توافق في الرأي 00:04:46.444 --> 00:04:50.373 حتى عندما كانت تتألف من أشخاص يختلفون تمامًا في الرأي. 00:04:50.843 --> 00:04:53.367 ما الذي ميّز المجموعات التي توصلت إلى توافق في الآراء 00:04:53.391 --> 00:04:54.729 عن التي لم تصل إلى توافق؟ 00:04:55.244 --> 00:04:58.083 عادة، الناس الذين لديهم آراء متطرفة 00:04:58.107 --> 00:04:59.947 يكونون أكثر ثقة في إجاباتهم. 00:05:00.868 --> 00:05:03.554 أما من تكون إجابتهم أقرب من الوسط 00:05:03.578 --> 00:05:07.015 غالبا ما يكونون غير متأكدين إن كان الأمر صوابا أم خطأ، 00:05:07.039 --> 00:05:09.167 ولذا فإن مستوى الثقة لديهم يكون منخفضا. NOTE Paragraph 00:05:09.505 --> 00:05:12.448 ومع ذلك، فهناك مجموعة أخرى من الناس 00:05:12.472 --> 00:05:16.090 يكونون واثقين جدًا من إجابتهم والتي تقع في المنتصف. 00:05:16.657 --> 00:05:20.373 ونعتقد أن هؤلاء الأشخاص في هذه المنطقة الرمادية هم الذين يفهمون 00:05:20.397 --> 00:05:22.009 أن كلا الحجتين لهما ميزات. 00:05:22.531 --> 00:05:25.230 هم في المنطقة الرمادية ليس لكونهم غير متأكدين، 00:05:25.254 --> 00:05:27.942 ولكن لأنهم يعتقدون أن المعضلة الأخلاقية تواجه 00:05:27.966 --> 00:05:29.953 نوعين من الحجج الصحيحة والمتعارضة. 00:05:30.373 --> 00:05:34.445 وقد اكتشفنا أن المجموعات الواثقة من إجاباتها الواقعة في المنتصف 00:05:34.469 --> 00:05:36.962 أكثر احتمالا للتوصل إلى توافق في الآراء. 00:05:36.986 --> 00:05:39.464 نحن لا نعرف حتى الآن بالضبط ما سبب ذلك. 00:05:39.488 --> 00:05:41.251 هذه ليست سوى التجارب الأولى، 00:05:41.275 --> 00:05:44.687 وسوف نكون بحاجة لإجراء العديد منها لفهم كيف ولماذا 00:05:44.711 --> 00:05:47.533 يقرر بعض الناس التنازل عن بعض مواقفهم الأخلاقية 00:05:47.557 --> 00:05:49.079 للوصول إلى اتفاق. NOTE Paragraph 00:05:49.103 --> 00:05:51.572 والآن، عندما تتوصل المجموعات إلى توافق في الآراء، 00:05:51.596 --> 00:05:53.182 كيف يفعلون ذلك؟ 00:05:53.206 --> 00:05:55.787 الفكرة الأكثر بديهية هي أنها مجرد أخذ متوسط 00:05:55.811 --> 00:05:57.841 جميع الإجابات في المجموعة، أليس كذلك؟ 00:05:57.865 --> 00:06:01.438 وثمة خيار آخر وهو أن المجموعة تزن قوة الرأي 00:06:01.462 --> 00:06:03.910 استنادا إلى ثقة الشخص الذي يُعَبِّرُ عنه. 00:06:04.422 --> 00:06:06.928 تخيل لو كان "بول ماكارني" عضوا في مجموعتك. 00:06:07.352 --> 00:06:09.496 سيكون وقتها من الحكمة اتباع قراره 00:06:09.520 --> 00:06:11.961 في ما يتعلق بعدد مرات تكرار كلمة "أمس" في الأغنية، 00:06:11.985 --> 00:06:14.699 وهي بالمناسبة تسع مرات على ما أعتقد. 00:06:14.723 --> 00:06:17.104 ولكن بدلا من ذلك، وجدنا أنه وبشكل مستمر، 00:06:17.128 --> 00:06:19.494 في جميع المعضلات، في تجارب مختلفة، 00:06:19.518 --> 00:06:21.683 وحتى في قارات مختلفة، 00:06:21.707 --> 00:06:25.450 تقوم المجموعات بتنفيذ إجراء إحصائي ذكي وسليم 00:06:25.474 --> 00:06:27.652 يعرف بـ"المتوسط الفعال". NOTE Paragraph 00:06:27.676 --> 00:06:29.856 فمثلا في سؤال ارتفاع برج إيفل، 00:06:29.880 --> 00:06:31.700 لنفترض أن مجموعة لديها هذه الإجابات: 00:06:31.724 --> 00:06:36.332 250 متر، 200 متر، 300 متر، 400 متر 00:06:36.356 --> 00:06:40.140 وإجابة غير معقولة أبدًا وهي 300 مليون متر. 00:06:40.547 --> 00:06:44.840 المتوسط البسيط لهذه الأرقام سَيُحَرِّف النتائج بشكل غير دقيق. 00:06:44.864 --> 00:06:48.034 ولكن المتوسط الفعال تقوم فيه المجموعة بتجاهل 00:06:48.058 --> 00:06:49.298 تلك الإجابة غير المعقولة، 00:06:49.322 --> 00:06:52.691 من خلال إعطاء قيمة أكبر للآراء التي تقع في المنتصف. 00:06:53.305 --> 00:06:55.181 وبالعودة للتجربة التي تمت في فانكوفر، 00:06:55.205 --> 00:06:56.972 هذا بالضبط ما حدث. 00:06:57.407 --> 00:07:00.148 أعطت المجموعات قيمة أقل بكثير إلى الآراء المتطرفة، 00:07:00.172 --> 00:07:03.401 وبدلا من ذلك، كان توافق الآراء نتيجة للمتوسط الفعال المأخوذ 00:07:03.425 --> 00:07:04.901 من إجابات الأفراد. 00:07:05.356 --> 00:07:07.347 إن الشيء الجدير بالملاحظة، 00:07:07.371 --> 00:07:10.558 هو أن هذا كان سلوكًا عفويًّا من المجموعة. 00:07:10.582 --> 00:07:15.057 وقد حدث هذا دون أن نعطيهم أي تمليح حول كيفية التوصل إلى توافق في الآراء. NOTE Paragraph 00:07:15.513 --> 00:07:17.053 إذن ما الذي نستخلصه من هذا؟ 00:07:17.432 --> 00:07:20.569 هذه ليست سوى البداية، ولكن أصبح لدينا بالفعل بعض الأفكار. 00:07:20.984 --> 00:07:23.901 إن القرارات الجماعية الجيدة تتطلب وجود عنصرين: 00:07:23.925 --> 00:07:26.674 التشاور والتنوع في الآراء. 00:07:27.066 --> 00:07:31.062 حاليَّا، الطريقة التي نجعل بها صوتنا مسموعًا في العديد من المجتمعات 00:07:31.086 --> 00:07:32.994 هي عبر التصويت المباشر أو غير المباشر، 00:07:33.495 --> 00:07:35.492 وهذا أمر جيد لتنوع الآراء، 00:07:35.516 --> 00:07:37.961 ولديه القوة لضمان 00:07:37.985 --> 00:07:40.440 تمكن كل الأشخاص من التعبير عن آرائهم. 00:07:40.464 --> 00:07:44.199 ولكنه ليس جيدا لتعزيز المناقشات المدروسة. 00:07:44.665 --> 00:07:47.733 تقترح تجاربنا طريقة مختلفة 00:07:47.757 --> 00:07:51.298 قد تكون فعالة في تحقيق التوازن بين هذين الهدفين في الوقت ذاته، 00:07:51.322 --> 00:07:55.075 ألا وهي تشكيل مجموعات صغيرة تتلاقى في قرار واحد 00:07:55.099 --> 00:07:57.333 مع الإبقاء على التنوع في الآراء 00:07:57.357 --> 00:08:00.130 لوجود العديد من المجموعات المستقلة. NOTE Paragraph 00:08:00.741 --> 00:08:04.665 بالطبع، إن الاتفاق على ارتفاع برج إيفل أسهل بكثير 00:08:04.689 --> 00:08:07.804 من الاتفاق على القضايا الأخلاقية، السياسية والأيديولوجية. 00:08:08.721 --> 00:08:11.998 ولكن عندما يأتي الوقت الذي تكون فيه مشاكل العالم أكثر تعقيدًا 00:08:12.022 --> 00:08:13.825 ويكون الناس أكثر استقطابًا، 00:08:13.849 --> 00:08:18.444 فإن استخدام العلم لمساعدتنا على فهم كيفية تفاعلنا واتخاذنا للقرارات 00:08:18.468 --> 00:08:23.134 ربما سيُمهد لوجود طرق جديدة ومثيرة من أجل بناء ديمقراطية أفضل.