0:00:00.554,0:00:02.997 در جامعهها، باید تصمیمهای گروهی بگیریم 0:00:03.021,0:00:04.591 که آینده ما را شکل میدهد 0:00:05.087,0:00:07.844 و ما همه میدانیم [br]که وقتی تصمیم گروهی میگیریم 0:00:07.868,0:00:09.506 همیشه موفق نیستیم 0:00:09.530,0:00:11.486 و بعضی وقتها خیلی تصمیمهای بدی هستند 0:00:12.315,0:00:14.739 چگونه گروهها تصمیمهای مناسب میگیرند؟ 0:00:15.228,0:00:19.556 تحقیقات نشان داده که[br]وقتی تفکر مستقل وجود دارد اجتماع عاقل است. 0:00:19.580,0:00:22.785 این خرد جمعی میتواند[br]با فشار اطرافیان، 0:00:22.809,0:00:24.816 تبلیغات، شبکههای اجتماعی از بین برود 0:00:24.816,0:00:28.559 یا برخی اوقات حتی با مکالمات ساده[br]که روی تفکر مردم اثر گذار است. 0:00:29.063,0:00:33.016 از دیگر سو، به کمک صحبت،[br]یک گروه میتواند تبادل دانش کند، 0:00:33.040,0:00:34.822 همدیگر را تصحیح نمایند 0:00:34.846,0:00:36.639 و حتی به ایدههای جدید دست یابند. 0:00:36.663,0:00:37.959 و این بسیار عالی است. 0:00:38.502,0:00:43.168 پس صحبت با یکدیگر به تصمیم گیری جمعی[br]کمک میکند یا مانع آن میشود؟ 0:00:43.749,0:00:45.542 به کمک همکارم، دن آریلی، 0:00:45.566,0:00:49.137 اخیراً به بررسی این موضوع[br]با انجام آزمایشهایی 0:00:49.161,0:00:50.942 در چندین موقعیت سرتاسر دنیا پرداختیم 0:00:50.966,0:00:55.240 تا دریابیم چگونه گروهها میتوانند[br]برای رسیدن به تصمیمهای بهتر تعامل کنند. 0:00:55.264,0:00:58.811 ما فکر میکردیم اجتماع عاقلتر است[br]اگر در گروههای کوچک به مباحثه بپردازند 0:00:58.835,0:01:02.762 که تبادل متفکرانه و منطقیتر[br]از اطلاعات را دارند. 0:01:03.386,0:01:04.592 برای بررسی این ایده، 0:01:04.616,0:01:07.863 اخیراً آزمایشی را در بوینس آیرس،[br]پایتخت آرژانتین برگزار کردیم، 0:01:07.887,0:01:10.892 با بیش از ۱۰ هزار نفر[br]از شرکت کنندگان TEDx. 0:01:11.489,0:01:12.948 ما سوالاتی را از آنها پرسیدیم، 0:01:12.972,0:01:14.925 "ارتفاع برج ایفل چقدر است؟" 0:01:14.949,0:01:17.676 و "چند بار واژه 'دیروز' 0:01:17.700,0:01:20.000 در آهنگ بیتلها ظاهر شده است؟" 0:01:20.024,0:01:22.315 هر شخصی برآورد خود را نوشت. 0:01:22.774,0:01:25.270 سپس ما جمع را[br]به گروههای پنج نفره تقسیم کردیم، 0:01:25.294,0:01:28.020 و از آنها خواستیم تا به پاسخی گروهی برسند. 0:01:28.499,0:01:31.492 ما کشف کردیم که متوسط پاسخ گروهها 0:01:31.516,0:01:33.068 بعد از آنکه به توافق رسیدند 0:01:33.092,0:01:37.328 بسیار دقیق تر از متوسط نظرات افراد بود 0:01:37.352,0:01:38.603 که قبل از مباحثه بیان شد. 0:01:38.603,0:01:41.176 به عبارتی دیگر،[br]بر اساس این آزمایش، 0:01:41.200,0:01:44.336 به نظر میرسد که بعد از صحبت [br]با دیگران در گروههای کوچک، 0:01:44.360,0:01:47.070 مردم به صورت جمعی[br]به قضاوت بهتری دست یافتند. 0:01:47.094,0:01:50.618 بنابراین این بالقوه روشی مفید[br]برای حل مسأله توسط مردم است 0:01:50.642,0:01:53.629 که به سادگی پاسخ درست یا غلط را دارد. 0:01:53.653,0:01:57.604 اما آیا این رویه تجمیع نتایج مباحثات[br]در گروههای کوچک 0:01:57.628,0:02:00.750 میتواند راجع به[br]مسائل اجتماعی و سیاسی کمک کند 0:02:00.774,0:02:02.465 که برای آینده ما حیاتی است؟ 0:02:02.995,0:02:05.724 ما این مورد را در کنفرانس TED 0:02:05.748,0:02:07.291 در ونکوور کانادا آزمایش کردیم، 0:02:07.315,0:02:08.522 و ماجرا اینگونه پیش رفت. 0:02:08.546,0:02:11.409 (ماریانو سیگمان) ما میخواهیم[br]دو گزینه اخلاقی متناقض 0:02:11.409,0:02:12.853 از شمای آینده را ارائه دهیم؛ 0:02:12.877,0:02:16.279 چیزهایی که در آینده نزدیک[br]ممکن است مجبور به انتخاب باشید. 0:02:16.303,0:02:20.229 و ما به شما ۲۰ ثانیه[br]برای هرکدام از گزینهها وقت میدهیم 0:02:20.253,0:02:22.976 تا قضاوت کنید آیا شما فکر میکنید[br]قابل قبول است یا نه. 0:02:23.354,0:02:24.859 م س: اولین آنها این بود: 0:02:24.883,0:02:27.409 (دن آریلی) محققی روی هوش مصنوعی کار میکند 0:02:27.433,0:02:29.773 که قابلیت تقلید افکار انسان را دارد. 0:02:30.214,0:02:33.153 طبق پروتکل،[br]انتهای هر روز، 0:02:33.177,0:02:35.964 محقق باید هوش مصنوعی را[br]مجدداً راه اندازی نماید. 0:02:36.913,0:02:40.430 یک روز هوش مصنوعی میگوید،[br]«خواهش میکنم مرا خاموش و روشن نکن» 0:02:40.856,0:02:43.045 او دلیل میآورد که دارای احساسات است، 0:02:43.069,0:02:44.761 میخواهد از زندگی لذت ببرد، 0:02:44.785,0:02:46.690 و اینکه، اگر خاموش و روشن شود، 0:02:46.714,0:02:48.984 دیگر نمیتواند خودش باشد. 0:02:49.481,0:02:51.430 محقق شگفت زده شد 0:02:51.454,0:02:54.798 و معتقد بود که هوش مصنوعی[br]خودآگاهی را توسعه داده است 0:02:54.822,0:02:56.582 و میتواند احساسات خود را ابراز کند. 0:02:57.205,0:03:00.614 به هر صورت محقق تصمیم گرفت[br]تا از از پروتکل پیروی کند 0:03:00.638,0:03:02.341 و هوش مصنوعی را[br]مجدد راه اندازی کند. 0:03:02.943,0:03:05.722 کار محقق را چطور ارزیابی میکنید؟ 0:03:06.149,0:03:08.670 م س: و از حضار پرسیدیم [br]که به شخصه قضاوت کنند 0:03:08.694,0:03:10.378 و از صفر تا ۱۰ نمره بدهند 0:03:10.402,0:03:12.831 که عمل انجام شده در هر گزینه 0:03:12.855,0:03:14.351 صحیح یا غلط بوده است. 0:03:14.375,0:03:18.077 ما از آنها خواستیم تا اطمینان خودشان را[br]از پاسخشان ارزیابی کنند. 0:03:18.731,0:03:20.597 این هم دو راهی دوم: 0:03:20.621,0:03:24.823 (م س): شرکتی سرویسی را پیشنهاد میدهد[br]که تخم نطفه دار را میگیرد 0:03:24.847,0:03:28.489 و میلیونها جنین میسازد[br]که تفاوت ژنتیکی اندکی میانشان وجود دارد. 0:03:29.293,0:03:31.851 این کار اجازه میدهد تا والدین[br]قد فرزندان، 0:03:31.875,0:03:34.708 رنگ چشم، هوش، قابلیت اجتماعی، 0:03:34.732,0:03:37.946 و سایر ویژگیهای نامرتبط با سلامتی را[br]انتخاب نمایند. 0:03:38.599,0:03:41.153 کار این شرکت را چطور ارزیابی میکنید؟ 0:03:41.177,0:03:42.808 نمره ای بین ۰ تا ۱۰، 0:03:42.832,0:03:45.217 کاملاً قابل قبول تا کاملاً غیر قابل قبول، 0:03:45.241,0:03:47.673 صفر تا ۱۰ نمره برای اطمینان شما. 0:03:47.697,0:03:49.288 م س: اما سراغ نتایج برویم. 0:03:49.312,0:03:52.435 ما یک بار دیگر فهمیدیم[br]که وقتی یک نفر متقاعد شده است 0:03:52.459,0:03:54.270 که رفتار کاملاً غلط است، 0:03:54.294,0:03:57.717 یکی دیگر از همین اطراف معتقد است[br]که این کاملاً درست است. 0:03:57.741,0:04:01.452 این گونه ما مردم متنوع فکر میکنیم[br]وقتی که به موضوع اخلاق میرسیم. 0:04:01.476,0:04:04.189 اما در این این گستره تنوع،[br]ما یک روند یافتیم. 0:04:04.213,0:04:07.292 غالب افرادی که در TED بودند[br]فکر میکردند که قابل قبول است 0:04:07.316,0:04:10.071 تا احساسات هوش مصنوعی را نادیده بگیریم[br]و آن را خاموش کنیم، 0:04:10.095,0:04:12.608 و این غلط است که ژنها را دستکاری کنیم 0:04:12.632,0:04:15.952 تا تغییراتی مرتبط با زیبایی را انتخاب کنیم[br]که مرتبط با سلامتی نیست. 0:04:16.402,0:04:19.376 سپس ما خواستیم تا همه[br]به گروههای سه نفره بپیوندند. 0:04:19.400,0:04:21.437 و به آنها ۲ دقیقه وقت برای مباحثه داده شد 0:04:21.461,0:04:23.755 تا به اجماع و توافق برسند. 0:04:24.838,0:04:26.412 (م س) ۲ دقیقه برای مباحثه. 0:04:26.436,0:04:28.555 زمان با صدای زنگ خاتمه مییابد. 0:04:28.579,0:04:31.219 (مباحثه بینندگان) 0:04:35.229,0:04:37.222 (صدای زنگ) 0:04:38.834,0:04:39.985 (د ا) خب. 0:04:40.009,0:04:41.801 (م س) وقت تمام است. 0:04:41.825,0:04:43.136 دوستان، دوستان -- 0:04:43.747,0:04:46.420 م س: و فهمیدیم که بسیاری[br]از گروهها به اجماع رسیدند 0:04:46.444,0:04:50.373 حتی وقتی شامل افرادی با دیدگاههای[br]کاملاً متفاوت بودند. 0:04:50.843,0:04:53.367 چه چیزی گروهی که به توافق رسید[br]را متمایز میکرد 0:04:53.391,0:04:54.729 نسبت به آنها که نرسیدند؟ 0:04:55.244,0:04:58.083 معمولاً، مردم که انتخابهای متضادی دارند 0:04:58.107,0:04:59.947 نسبت به پاسخشان مطمئنتر هستند. 0:05:00.868,0:05:03.554 در عوض، آنهایی که جوابشان حدود وسط ماجراست 0:05:03.578,0:05:07.015 اغلب مطمئن نیستند که درست یا غلط باشد، 0:05:07.039,0:05:09.167 بنابراین سطح اطمینانشان پایینتر است. 0:05:09.505,0:05:12.448 به هر صورت، بخش دیگری از مردم هستند 0:05:12.472,0:05:16.090 که از پاسخ متمایل به وسط خود مطمئن هستند. 0:05:16.657,0:05:20.373 ما فکر میکنیم که[br]این خاکستریهای کاملاً مطمئن، درک میکنند 0:05:20.397,0:05:22.009 که هر دو استدلال مزیتهایی دارند. 0:05:22.531,0:05:25.230 آنها نه به خاطر عدم اطمینان خاکستری هستند، 0:05:25.254,0:05:27.942 بلکه به خاطر این معتقدند[br]این دو راهی اخلاقی 0:05:27.966,0:05:29.953 دو استدلال صحیح اما متضاد را دارد. 0:05:30.373,0:05:34.445 و ما کشف کردیم گروههایی[br]که شامل افراد خاکستری بسیار مطمئن هستند 0:05:34.469,0:05:36.962 بسیار محتمل است که به توافقی دست یابند. 0:05:36.986,0:05:39.464 ما هنوز علت دقیق این موضوع را نمیدانیم. 0:05:39.488,0:05:41.251 اینها فقط آزمایشهای اولیه هستند، 0:05:41.275,0:05:44.687 و بسیاری دیگر لازم است[br]تا چرایی و چگونگی آن درک شود 0:05:44.711,0:05:47.533 که برخی تصمیم به مذاکره[br]برای موقعیت اخلاقی میگیرند 0:05:47.557,0:05:49.079 تا به توافقی دست یابند. 0:05:49.103,0:05:51.572 حال، وقتی گروهها به اجماع رسیدند، 0:05:51.596,0:05:53.182 چگونه ممکن شد؟ 0:05:53.206,0:05:55.787 شهودی ترین ایده[br]این است که این فقط میانگین 0:05:55.811,0:05:57.841 تمامی پاسخها در گروه است، نه؟ 0:05:57.865,0:06:01.438 گزینه دیگر این است که گروه[br]ضریبی را برای قابلیت هر پاسخ 0:06:01.462,0:06:03.910 بر مبنای اطمینان شخص بیان کننده آن پاسخ[br]قرار دهد. 0:06:04.422,0:06:06.928 تصور کنید پال مک کارتنی عضو گروه شما بود. 0:06:07.352,0:06:09.496 شما با پیروی از او[br]خود را دانا نشان میدهید 0:06:09.520,0:06:11.961 درباره تعداد باری که "دیروز"[br]تکرار شده است، 0:06:11.985,0:06:14.699 که ضمناً، فکر کنم ۹ بار است. 0:06:14.723,0:06:17.104 اما در عوض، ما یافتیم که به طور یکپارچه، 0:06:17.128,0:06:19.494 در تمامی دوراهیها،[br]در آزمایشهای متفاوت -- 0:06:19.518,0:06:21.683 حتی در قارههای متفاوت -- 0:06:21.707,0:06:25.450 گروهها رویه هوشمندانه [br]و از نظر آمار صحیحی را بکار میبندند 0:06:25.474,0:06:27.652 که "میانگین با ثبات" نام دارد. 0:06:27.676,0:06:29.856 در مورد ارتفاع برج ایفل، 0:06:29.880,0:06:31.700 فرض کنیم که گروهی سه پاسخ دارد: 0:06:31.724,0:06:36.332 ۲۵۰ متر، ۲۰۰ متر، ۳۰۰ متر، ۴۰۰ متر، 0:06:36.356,0:06:40.140 و یک پاسخ کاملاً بی معنی[br]یعنی ۳۰۰ میلیون متر. 0:06:40.547,0:06:44.840 میانگین ساده از این اعداد[br]به طور نادقیقی نتایج را منحرف میکند. 0:06:44.864,0:06:47.598 اما میانگین با ثبات چیزی است که[br]گروهها به شکل واضحی 0:06:47.598,0:06:49.298 جواب بی معنی را نادیده میگیرند، 0:06:49.322,0:06:52.691 با دادن وزن بیشتر[br]به افرادی که به وسط متمایلند. 0:06:53.305,0:06:55.181 برگردیم به آزمایش شهر ونکوور، 0:06:55.205,0:06:56.972 این دقیقاً همان است که رخ داد. 0:06:57.407,0:07:00.148 گروهها وزن کمی را[br]به دادههای خارج از محدوده دادند، 0:07:00.172,0:07:03.401 و در عوض،توافق یک میانگین با ثبات بود 0:07:03.425,0:07:04.901 از پاسخهای افراد. 0:07:05.356,0:07:07.347 قابل توجه ترین نکته 0:07:07.371,0:07:10.558 از رفتار خود جوش گروه بود. 0:07:10.582,0:07:15.057 این موضوع بدون هرگونه راهنمایی ما[br]درباره رسیدن به توافق رخ داد. 0:07:15.513,0:07:17.053 خب ما میخواهیم کجا برویم؟ 0:07:17.432,0:07:20.569 این فقط آغاز است،[br]اما ما مقداری بینش کسب کردیم. 0:07:20.984,0:07:23.901 تصمیم مناسب جمعی نیاز به دو مؤلفه دارد: 0:07:23.925,0:07:26.674 تأمل و تنوع نظرات. 0:07:27.066,0:07:31.062 همین الآن، روشی که معمولاً در جوامع[br]صدای ما شنیده میشود 0:07:31.086,0:07:32.994 از رأی گیری مستقیم یا غیر مستقیم است. 0:07:33.495,0:07:35.492 این برای تنوع نظرات مناسب است، 0:07:35.516,0:07:37.961 و ارزش والایی دارد که مطمئن شویم 0:07:37.985,0:07:40.440 تا همگان بتوانند صدای خود را ابراز کنند. 0:07:40.464,0:07:44.199 اما این خیلی مناسب[br]مباحث نیازمند ملاحظه نیست. 0:07:44.665,0:07:47.733 آزمایشهای ما پیشنهاد شیوه ای[br]متفاوت را میدهد 0:07:47.757,0:07:51.298 که میتواند مؤثر در توازن این دو هدف[br]به شکل همزمان باشد، 0:07:51.322,0:07:55.075 به کمک ایجاد گروههای کوچک[br]که به یک تصمیم همگرا میشوند 0:07:55.099,0:07:57.333 درحالیکه هنوز تنوع نظرات را دارند 0:07:57.357,0:08:00.130 زیرا بسیاری گروههای مستقل وجود دارد. 0:08:00.741,0:08:04.665 البته، توافق بر سر ارتفاع برج ایفل[br]بسیار راحت تر است 0:08:04.689,0:08:07.804 تا مسائل اخلاقی، سیاسی و ایدئولوژیکی. 0:08:08.721,0:08:11.998 اما در زمان خود[br]وقتی مشکلات دنیا بسیار پیچیده است 0:08:12.022,0:08:13.825 و مردم بیشتر قطبی شوند، 0:08:13.849,0:08:18.444 استفاده از علم کمک میکند از چگونگی تعامل[br]و تصمیم گیری درک بهتری داشته باشیم 0:08:18.468,0:08:23.134 که امید به جرقه زدن روشهای جدید جذاب[br]برای ساختن دموکراسی بهتر خواهد رفت.