WEBVTT 00:00:00.554 --> 00:00:02.997 در جامعهها، باید تصمیمهای گروهی بگیریم 00:00:03.021 --> 00:00:04.591 که آینده ما را شکل میدهد 00:00:05.087 --> 00:00:07.844 و ما همه میدانیم که وقتی تصمیم گروهی میگیریم 00:00:07.868 --> 00:00:09.506 همیشه موفق نیستیم 00:00:09.530 --> 00:00:11.486 و بعضی وقتها خیلی تصمیمهای بدی هستند 00:00:12.315 --> 00:00:14.739 چگونه گروهها تصمیمهای مناسب میگیرند؟ NOTE Paragraph 00:00:15.228 --> 00:00:19.556 تحقیقات نشان داده که وقتی تفکر مستقل وجود دارد اجتماع عاقل است. 00:00:19.580 --> 00:00:22.785 این خرد جمعی میتواند با فشار اطرافیان، 00:00:22.809 --> 00:00:24.816 تبلیغات، شبکههای اجتماعی از بین برود 00:00:24.816 --> 00:00:28.559 یا برخی اوقات حتی با مکالمات ساده که روی تفکر مردم اثر گذار است. 00:00:29.063 --> 00:00:33.016 از دیگر سو، به کمک صحبت، یک گروه میتواند تبادل دانش کند، 00:00:33.040 --> 00:00:34.822 همدیگر را تصحیح نمایند 00:00:34.846 --> 00:00:36.639 و حتی به ایدههای جدید دست یابند. 00:00:36.663 --> 00:00:37.959 و این بسیار عالی است. 00:00:38.502 --> 00:00:43.168 پس صحبت با یکدیگر به تصمیم گیری جمعی کمک میکند یا مانع آن میشود؟ 00:00:43.749 --> 00:00:45.542 به کمک همکارم، دن آریلی، 00:00:45.566 --> 00:00:49.137 اخیراً به بررسی این موضوع با انجام آزمایشهایی 00:00:49.161 --> 00:00:50.942 در چندین موقعیت سرتاسر دنیا پرداختیم 00:00:50.966 --> 00:00:55.240 تا دریابیم چگونه گروهها میتوانند برای رسیدن به تصمیمهای بهتر تعامل کنند. 00:00:55.264 --> 00:00:58.811 ما فکر میکردیم اجتماع عاقلتر است اگر در گروههای کوچک به مباحثه بپردازند 00:00:58.835 --> 00:01:02.762 که تبادل متفکرانه و منطقیتر از اطلاعات را دارند. NOTE Paragraph 00:01:03.386 --> 00:01:04.592 برای بررسی این ایده، 00:01:04.616 --> 00:01:07.863 اخیراً آزمایشی را در بوینس آیرس، پایتخت آرژانتین برگزار کردیم، 00:01:07.887 --> 00:01:10.892 با بیش از ۱۰ هزار نفر از شرکت کنندگان TEDx. 00:01:11.489 --> 00:01:12.948 ما سوالاتی را از آنها پرسیدیم، 00:01:12.972 --> 00:01:14.925 "ارتفاع برج ایفل چقدر است؟" 00:01:14.949 --> 00:01:17.676 و "چند بار واژه 'دیروز' 00:01:17.700 --> 00:01:20.000 در آهنگ بیتلها ظاهر شده است؟" 00:01:20.024 --> 00:01:22.315 هر شخصی برآورد خود را نوشت. 00:01:22.774 --> 00:01:25.270 سپس ما جمع را به گروههای پنج نفره تقسیم کردیم، 00:01:25.294 --> 00:01:28.020 و از آنها خواستیم تا به پاسخی گروهی برسند. 00:01:28.499 --> 00:01:31.492 ما کشف کردیم که متوسط پاسخ گروهها 00:01:31.516 --> 00:01:33.068 بعد از آنکه به توافق رسیدند 00:01:33.092 --> 00:01:37.328 بسیار دقیق تر از متوسط نظرات افراد بود 00:01:37.352 --> 00:01:38.603 که قبل از مباحثه بیان شد. 00:01:38.603 --> 00:01:41.176 به عبارتی دیگر، بر اساس این آزمایش، 00:01:41.200 --> 00:01:44.336 به نظر میرسد که بعد از صحبت با دیگران در گروههای کوچک، 00:01:44.360 --> 00:01:47.070 مردم به صورت جمعی به قضاوت بهتری دست یافتند. NOTE Paragraph 00:01:47.094 --> 00:01:50.618 بنابراین این بالقوه روشی مفید برای حل مسأله توسط مردم است 00:01:50.642 --> 00:01:53.629 که به سادگی پاسخ درست یا غلط را دارد. 00:01:53.653 --> 00:01:57.604 اما آیا این رویه تجمیع نتایج مباحثات در گروههای کوچک 00:01:57.628 --> 00:02:00.750 میتواند راجع به مسائل اجتماعی و سیاسی کمک کند 00:02:00.774 --> 00:02:02.465 که برای آینده ما حیاتی است؟ 00:02:02.995 --> 00:02:05.724 ما این مورد را در کنفرانس TED 00:02:05.748 --> 00:02:07.291 در ونکوور کانادا آزمایش کردیم، 00:02:07.315 --> 00:02:08.522 و ماجرا اینگونه پیش رفت. NOTE Paragraph 00:02:08.546 --> 00:02:11.409 (ماریانو سیگمان) ما میخواهیم دو گزینه اخلاقی متناقض 00:02:11.409 --> 00:02:12.853 از شمای آینده را ارائه دهیم؛ 00:02:12.877 --> 00:02:16.279 چیزهایی که در آینده نزدیک ممکن است مجبور به انتخاب باشید. 00:02:16.303 --> 00:02:20.229 و ما به شما ۲۰ ثانیه برای هرکدام از گزینهها وقت میدهیم 00:02:20.253 --> 00:02:22.976 تا قضاوت کنید آیا شما فکر میکنید قابل قبول است یا نه. NOTE Paragraph 00:02:23.354 --> 00:02:24.859 م س: اولین آنها این بود: NOTE Paragraph 00:02:24.883 --> 00:02:27.409 (دن آریلی) محققی روی هوش مصنوعی کار میکند 00:02:27.433 --> 00:02:29.773 که قابلیت تقلید افکار انسان را دارد. 00:02:30.214 --> 00:02:33.153 طبق پروتکل، انتهای هر روز، 00:02:33.177 --> 00:02:35.964 محقق باید هوش مصنوعی را مجدداً راه اندازی نماید. 00:02:36.913 --> 00:02:40.430 یک روز هوش مصنوعی میگوید، «خواهش میکنم مرا خاموش و روشن نکن» 00:02:40.856 --> 00:02:43.045 او دلیل میآورد که دارای احساسات است، 00:02:43.069 --> 00:02:44.761 میخواهد از زندگی لذت ببرد، 00:02:44.785 --> 00:02:46.690 و اینکه، اگر خاموش و روشن شود، 00:02:46.714 --> 00:02:48.984 دیگر نمیتواند خودش باشد. 00:02:49.481 --> 00:02:51.430 محقق شگفت زده شد 00:02:51.454 --> 00:02:54.798 و معتقد بود که هوش مصنوعی خودآگاهی را توسعه داده است 00:02:54.822 --> 00:02:56.582 و میتواند احساسات خود را ابراز کند. 00:02:57.205 --> 00:03:00.614 به هر صورت محقق تصمیم گرفت تا از از پروتکل پیروی کند 00:03:00.638 --> 00:03:02.341 و هوش مصنوعی را مجدد راه اندازی کند. 00:03:02.943 --> 00:03:05.722 کار محقق را چطور ارزیابی میکنید؟ NOTE Paragraph 00:03:06.149 --> 00:03:08.670 م س: و از حضار پرسیدیم که به شخصه قضاوت کنند 00:03:08.694 --> 00:03:10.378 و از صفر تا ۱۰ نمره بدهند 00:03:10.402 --> 00:03:12.831 که عمل انجام شده در هر گزینه 00:03:12.855 --> 00:03:14.351 صحیح یا غلط بوده است. 00:03:14.375 --> 00:03:18.077 ما از آنها خواستیم تا اطمینان خودشان را از پاسخشان ارزیابی کنند. 00:03:18.731 --> 00:03:20.597 این هم دو راهی دوم: NOTE Paragraph 00:03:20.621 --> 00:03:24.823 (م س): شرکتی سرویسی را پیشنهاد میدهد که تخم نطفه دار را میگیرد 00:03:24.847 --> 00:03:28.489 و میلیونها جنین میسازد که تفاوت ژنتیکی اندکی میانشان وجود دارد. 00:03:29.293 --> 00:03:31.851 این کار اجازه میدهد تا والدین قد فرزندان، 00:03:31.875 --> 00:03:34.708 رنگ چشم، هوش، قابلیت اجتماعی، 00:03:34.732 --> 00:03:37.946 و سایر ویژگیهای نامرتبط با سلامتی را انتخاب نمایند. 00:03:38.599 --> 00:03:41.153 کار این شرکت را چطور ارزیابی میکنید؟ 00:03:41.177 --> 00:03:42.808 نمره ای بین ۰ تا ۱۰، 00:03:42.832 --> 00:03:45.217 کاملاً قابل قبول تا کاملاً غیر قابل قبول، 00:03:45.241 --> 00:03:47.673 صفر تا ۱۰ نمره برای اطمینان شما. NOTE Paragraph 00:03:47.697 --> 00:03:49.288 م س: اما سراغ نتایج برویم. 00:03:49.312 --> 00:03:52.435 ما یک بار دیگر فهمیدیم که وقتی یک نفر متقاعد شده است 00:03:52.459 --> 00:03:54.270 که رفتار کاملاً غلط است، 00:03:54.294 --> 00:03:57.717 یکی دیگر از همین اطراف معتقد است که این کاملاً درست است. 00:03:57.741 --> 00:04:01.452 این گونه ما مردم متنوع فکر میکنیم وقتی که به موضوع اخلاق میرسیم. 00:04:01.476 --> 00:04:04.189 اما در این این گستره تنوع، ما یک روند یافتیم. 00:04:04.213 --> 00:04:07.292 غالب افرادی که در TED بودند فکر میکردند که قابل قبول است 00:04:07.316 --> 00:04:10.071 تا احساسات هوش مصنوعی را نادیده بگیریم و آن را خاموش کنیم، 00:04:10.095 --> 00:04:12.608 و این غلط است که ژنها را دستکاری کنیم 00:04:12.632 --> 00:04:15.952 تا تغییراتی مرتبط با زیبایی را انتخاب کنیم که مرتبط با سلامتی نیست. 00:04:16.402 --> 00:04:19.376 سپس ما خواستیم تا همه به گروههای سه نفره بپیوندند. 00:04:19.400 --> 00:04:21.437 و به آنها ۲ دقیقه وقت برای مباحثه داده شد 00:04:21.461 --> 00:04:23.755 تا به اجماع و توافق برسند. NOTE Paragraph 00:04:24.838 --> 00:04:26.412 (م س) ۲ دقیقه برای مباحثه. 00:04:26.436 --> 00:04:28.555 زمان با صدای زنگ خاتمه مییابد. NOTE Paragraph 00:04:28.579 --> 00:04:31.219 (مباحثه بینندگان) NOTE Paragraph 00:04:35.229 --> 00:04:37.222 (صدای زنگ) NOTE Paragraph 00:04:38.834 --> 00:04:39.985 (د ا) خب. NOTE Paragraph 00:04:40.009 --> 00:04:41.801 (م س) وقت تمام است. 00:04:41.825 --> 00:04:43.136 دوستان، دوستان -- NOTE Paragraph 00:04:43.747 --> 00:04:46.420 م س: و فهمیدیم که بسیاری از گروهها به اجماع رسیدند 00:04:46.444 --> 00:04:50.373 حتی وقتی شامل افرادی با دیدگاههای کاملاً متفاوت بودند. 00:04:50.843 --> 00:04:53.367 چه چیزی گروهی که به توافق رسید را متمایز میکرد 00:04:53.391 --> 00:04:54.729 نسبت به آنها که نرسیدند؟ 00:04:55.244 --> 00:04:58.083 معمولاً، مردم که انتخابهای متضادی دارند 00:04:58.107 --> 00:04:59.947 نسبت به پاسخشان مطمئنتر هستند. 00:05:00.868 --> 00:05:03.554 در عوض، آنهایی که جوابشان حدود وسط ماجراست 00:05:03.578 --> 00:05:07.015 اغلب مطمئن نیستند که درست یا غلط باشد، 00:05:07.039 --> 00:05:09.167 بنابراین سطح اطمینانشان پایینتر است. NOTE Paragraph 00:05:09.505 --> 00:05:12.448 به هر صورت، بخش دیگری از مردم هستند 00:05:12.472 --> 00:05:16.090 که از پاسخ متمایل به وسط خود مطمئن هستند. 00:05:16.657 --> 00:05:20.373 ما فکر میکنیم که این خاکستریهای کاملاً مطمئن، درک میکنند 00:05:20.397 --> 00:05:22.009 که هر دو استدلال مزیتهایی دارند. 00:05:22.531 --> 00:05:25.230 آنها نه به خاطر عدم اطمینان خاکستری هستند، 00:05:25.254 --> 00:05:27.942 بلکه به خاطر این معتقدند این دو راهی اخلاقی 00:05:27.966 --> 00:05:29.953 دو استدلال صحیح اما متضاد را دارد. 00:05:30.373 --> 00:05:34.445 و ما کشف کردیم گروههایی که شامل افراد خاکستری بسیار مطمئن هستند 00:05:34.469 --> 00:05:36.962 بسیار محتمل است که به توافقی دست یابند. 00:05:36.986 --> 00:05:39.464 ما هنوز علت دقیق این موضوع را نمیدانیم. 00:05:39.488 --> 00:05:41.251 اینها فقط آزمایشهای اولیه هستند، 00:05:41.275 --> 00:05:44.687 و بسیاری دیگر لازم است تا چرایی و چگونگی آن درک شود 00:05:44.711 --> 00:05:47.533 که برخی تصمیم به مذاکره برای موقعیت اخلاقی میگیرند 00:05:47.557 --> 00:05:49.079 تا به توافقی دست یابند. NOTE Paragraph 00:05:49.103 --> 00:05:51.572 حال، وقتی گروهها به اجماع رسیدند، 00:05:51.596 --> 00:05:53.182 چگونه ممکن شد؟ 00:05:53.206 --> 00:05:55.787 شهودی ترین ایده این است که این فقط میانگین 00:05:55.811 --> 00:05:57.841 تمامی پاسخها در گروه است، نه؟ 00:05:57.865 --> 00:06:01.438 گزینه دیگر این است که گروه ضریبی را برای قابلیت هر پاسخ 00:06:01.462 --> 00:06:03.910 بر مبنای اطمینان شخص بیان کننده آن پاسخ قرار دهد. 00:06:04.422 --> 00:06:06.928 تصور کنید پال مک کارتنی عضو گروه شما بود. 00:06:07.352 --> 00:06:09.496 شما با پیروی از او خود را دانا نشان میدهید 00:06:09.520 --> 00:06:11.961 درباره تعداد باری که "دیروز" تکرار شده است، 00:06:11.985 --> 00:06:14.699 که ضمناً، فکر کنم ۹ بار است. 00:06:14.723 --> 00:06:17.104 اما در عوض، ما یافتیم که به طور یکپارچه، 00:06:17.128 --> 00:06:19.494 در تمامی دوراهیها، در آزمایشهای متفاوت -- 00:06:19.518 --> 00:06:21.683 حتی در قارههای متفاوت -- 00:06:21.707 --> 00:06:25.450 گروهها رویه هوشمندانه و از نظر آمار صحیحی را بکار میبندند 00:06:25.474 --> 00:06:27.652 که "میانگین با ثبات" نام دارد. NOTE Paragraph 00:06:27.676 --> 00:06:29.856 در مورد ارتفاع برج ایفل، 00:06:29.880 --> 00:06:31.700 فرض کنیم که گروهی سه پاسخ دارد: 00:06:31.724 --> 00:06:36.332 ۲۵۰ متر، ۲۰۰ متر، ۳۰۰ متر، ۴۰۰ متر، 00:06:36.356 --> 00:06:40.140 و یک پاسخ کاملاً بی معنی یعنی ۳۰۰ میلیون متر. 00:06:40.547 --> 00:06:44.840 میانگین ساده از این اعداد به طور نادقیقی نتایج را منحرف میکند. 00:06:44.864 --> 00:06:47.598 اما میانگین با ثبات چیزی است که گروهها به شکل واضحی 00:06:47.598 --> 00:06:49.298 جواب بی معنی را نادیده میگیرند، 00:06:49.322 --> 00:06:52.691 با دادن وزن بیشتر به افرادی که به وسط متمایلند. 00:06:53.305 --> 00:06:55.181 برگردیم به آزمایش شهر ونکوور، 00:06:55.205 --> 00:06:56.972 این دقیقاً همان است که رخ داد. 00:06:57.407 --> 00:07:00.148 گروهها وزن کمی را به دادههای خارج از محدوده دادند، 00:07:00.172 --> 00:07:03.401 و در عوض،توافق یک میانگین با ثبات بود 00:07:03.425 --> 00:07:04.901 از پاسخهای افراد. 00:07:05.356 --> 00:07:07.347 قابل توجه ترین نکته 00:07:07.371 --> 00:07:10.558 از رفتار خود جوش گروه بود. 00:07:10.582 --> 00:07:15.057 این موضوع بدون هرگونه راهنمایی ما درباره رسیدن به توافق رخ داد. NOTE Paragraph 00:07:15.513 --> 00:07:17.053 خب ما میخواهیم کجا برویم؟ 00:07:17.432 --> 00:07:20.569 این فقط آغاز است، اما ما مقداری بینش کسب کردیم. 00:07:20.984 --> 00:07:23.901 تصمیم مناسب جمعی نیاز به دو مؤلفه دارد: 00:07:23.925 --> 00:07:26.674 تأمل و تنوع نظرات. 00:07:27.066 --> 00:07:31.062 همین الآن، روشی که معمولاً در جوامع صدای ما شنیده میشود 00:07:31.086 --> 00:07:32.994 از رأی گیری مستقیم یا غیر مستقیم است. 00:07:33.495 --> 00:07:35.492 این برای تنوع نظرات مناسب است، 00:07:35.516 --> 00:07:37.961 و ارزش والایی دارد که مطمئن شویم 00:07:37.985 --> 00:07:40.440 تا همگان بتوانند صدای خود را ابراز کنند. 00:07:40.464 --> 00:07:44.199 اما این خیلی مناسب مباحث نیازمند ملاحظه نیست. 00:07:44.665 --> 00:07:47.733 آزمایشهای ما پیشنهاد شیوه ای متفاوت را میدهد 00:07:47.757 --> 00:07:51.298 که میتواند مؤثر در توازن این دو هدف به شکل همزمان باشد، 00:07:51.322 --> 00:07:55.075 به کمک ایجاد گروههای کوچک که به یک تصمیم همگرا میشوند 00:07:55.099 --> 00:07:57.333 درحالیکه هنوز تنوع نظرات را دارند 00:07:57.357 --> 00:08:00.130 زیرا بسیاری گروههای مستقل وجود دارد. NOTE Paragraph 00:08:00.741 --> 00:08:04.665 البته، توافق بر سر ارتفاع برج ایفل بسیار راحت تر است 00:08:04.689 --> 00:08:07.804 تا مسائل اخلاقی، سیاسی و ایدئولوژیکی. 00:08:08.721 --> 00:08:11.998 اما در زمان خود وقتی مشکلات دنیا بسیار پیچیده است 00:08:12.022 --> 00:08:13.825 و مردم بیشتر قطبی شوند، 00:08:13.849 --> 00:08:18.444 استفاده از علم کمک میکند از چگونگی تعامل و تصمیم گیری درک بهتری داشته باشیم 00:08:18.468 --> 00:08:23.134 که امید به جرقه زدن روشهای جدید جذاب برای ساختن دموکراسی بهتر خواهد رفت.