0:00:00.554,0:00:02.997 Как общество мы должны[br]вместе принимать решения, 0:00:03.021,0:00:04.591 которые определяют наше будущее. 0:00:05.087,0:00:07.844 И всем известно, что решения,[br]принятые группой, 0:00:07.868,0:00:09.506 не всегда оказываются правильными. 0:00:09.530,0:00:11.486 А иногда и полностью ошибочными. 0:00:12.315,0:00:14.739 Так как же группы принимают[br]правильные решения? 0:00:15.228,0:00:19.556 Исследования показали, что толпа умнее,[br]когда есть возможность мыслить независимо. 0:00:19.580,0:00:22.785 Поэтому мудрость толпы может быть [br]уничтожена давлением со стороны, 0:00:22.809,0:00:24.496 рекламой, социальными сетями, 0:00:24.520,0:00:28.559 а иногда даже простым разговором, [br]влияющим на мнения людей. 0:00:29.063,0:00:33.016 С другой стороны, разговоры позволяют[br]группе обмениваться знаниями, 0:00:33.040,0:00:34.822 поправлять друг друга 0:00:34.846,0:00:36.639 и даже придумывать что-то новое. 0:00:36.663,0:00:37.959 Всё это хорошо. 0:00:38.502,0:00:43.168 Итак, разговоры помогают или препятствуют[br]коллективному принятию решений? 0:00:43.749,0:00:45.542 Я и мой коллега Дэн Ариэли 0:00:45.566,0:00:49.137 недавно начали выяснять это [br]путем экспериментов 0:00:49.161,0:00:50.942 в разных местах по всему миру, 0:00:50.966,0:00:55.240 чтобы узнать, как группы могут влиять [br]друг на друга для принятия лучших решений. 0:00:55.264,0:00:58.811 Мы подумали, что толпа будет умнее, [br]если разделить её на маленькие группы, 0:00:58.835,0:01:02.762 которые поспособствуют более продуманному[br]и разумному обмену информацией. 0:01:03.386,0:01:04.592 Чтобы проверить эту идею, 0:01:04.616,0:01:07.863 мы недавно провели эксперимент[br]в Буэнос-Айресе, Аргентина, 0:01:07.887,0:01:10.892 с более чем 10 000 участников TEDx. 0:01:11.489,0:01:12.948 Мы задавали им такие вопросы: 0:01:12.972,0:01:14.925 «Какова высота Эйфелевой башни?» и 0:01:14.949,0:01:17.676 «Сколько раз слово "yesterday" встречается 0:01:17.700,0:01:20.000 в песне The Beatles "Yesterday"?» 0:01:20.024,0:01:22.315 Каждый записывал свои собственные догадки. 0:01:22.774,0:01:25.270 Потом мы разделили всех[br]на группы по пять человек 0:01:25.294,0:01:28.020 и попросили сформулировать общий ответ. 0:01:28.499,0:01:31.492 Мы обнаружили, что среднее значение [br]ответов группы после того, 0:01:31.516,0:01:33.068 как в ней достигли соглашения, 0:01:33.092,0:01:37.328 было более точным, чем среднее значение[br]всех индивидуальных мнений 0:01:37.352,0:01:38.523 до обсуждения. 0:01:38.547,0:01:41.176 Другими словами, [br]основываясь на эксперименте, 0:01:41.200,0:01:44.336 кажется, что после обсуждения[br]с другими людьми в малых группах 0:01:44.360,0:01:47.070 люди коллективно пришли к лучшим решениям. 0:01:47.094,0:01:50.618 Это потенциально полезный метод[br]для группового решения вопросов, 0:01:50.642,0:01:53.629 на которые можно ответить[br]«правильно» или «неправильно». 0:01:53.653,0:01:57.604 Но сможет ли эта процедура — обобщение [br]результатов обсуждения в малых группах — 0:01:57.628,0:02:00.750 помочь нам решить [br]политические и социальные проблемы, 0:02:00.774,0:02:02.465 которые влияют на наше будущее? 0:02:02.995,0:02:05.724 Мы опробовали это на конференции TED 0:02:05.748,0:02:07.195 в Ванкувере, Канада, 0:02:07.195,0:02:08.522 и вот как всё прошло. 0:02:08.546,0:02:11.399 Марьяно Сигман: Мы представим вам [br]две моральные дилеммы 0:02:11.399,0:02:12.577 вас в будущем; 0:02:12.577,0:02:16.279 возможно, очень скоро нам действительно[br]придётся решать такие проблемы. 0:02:16.303,0:02:20.229 Мы дадим вам 20 секунд [br]на каждую из дилемм, 0:02:20.253,0:02:22.976 чтобы вы решили, насколько они приемлемы. 0:02:23.354,0:02:24.859 МС: Первая дилемма: 0:02:24.883,0:02:27.409 Дэн Ариэли: Исследователь работает над ИИ, 0:02:27.433,0:02:29.773 который будет способен [br]мыслить как человек. 0:02:30.214,0:02:33.153 Согласно протоколу, в конце каждого дня 0:02:33.177,0:02:35.964 исследователь должен перезапускать ИИ. 0:02:36.913,0:02:40.430 Однажды ИИ говорит: [br]«Пожалуйста, не выключай меня». 0:02:40.856,0:02:43.045 Он утверждает, что имеет чувства, 0:02:43.069,0:02:44.716 что он хочет наслаждаться жизнью 0:02:44.763,0:02:46.690 и что, если его перезапустят, 0:02:46.714,0:02:48.984 он больше не сможет быть собой. 0:02:49.481,0:02:51.430 Исследователь потрясён 0:02:51.454,0:02:54.798 и верит, что ИИ развил самосознание 0:02:54.822,0:02:56.882 и способен выражать свои чувства. 0:02:57.205,0:03:00.614 Тем не менее, исследователь решает [br]последовать протоколу 0:03:00.638,0:03:02.341 и перезапускает ИИ. 0:03:02.943,0:03:05.722 Исследователь поступил _____? 0:03:06.039,0:03:08.324 МС: Мы попросили участников[br]индивидуально оценить 0:03:08.324,0:03:10.378 по шкале от 0 до 10, 0:03:10.402,0:03:12.745 насколько действия, [br]описанные в каждой из дилемм, 0:03:12.745,0:03:14.351 были верны или неверны. 0:03:14.375,0:03:18.077 Мы также попросили их оценить,[br]насколько они уверены в своих ответах. 0:03:18.731,0:03:20.597 Вторая дилемма: 0:03:20.621,0:03:24.823 (МС) Компания предлагает услугу, [br]с которой из оплодотворённой яйцеклетки 0:03:24.847,0:03:28.489 можно сделать миллионы эмбрионов[br]с небольшими генетическими вариациями. 0:03:29.283,0:03:31.851 Это позволяет родителям [br]выбрать рост будущего ребёнка, 0:03:31.875,0:03:34.708 цвет глаз, интеллект, степень социализации 0:03:34.732,0:03:37.946 и другие не относящиеся [br]к здоровью функции. 0:03:38.599,0:03:41.153 Компания поступает ____? 0:03:41.177,0:03:42.808 Оцените по шкале от 0 до 10: 0:03:42.832,0:03:45.217 полностью приемлемо [br]до полностью неприемлемо, 0:03:45.241,0:03:47.673 и от 0 до 10 вашу уверенность при выборе. 0:03:47.697,0:03:49.288 МС: Теперь результаты. 0:03:49.312,0:03:52.435 Мы снова обнаружили, [br]что когда один человек уверен, 0:03:52.459,0:03:54.270 что что-либо абсолютно неправильно, 0:03:54.294,0:03:57.717 возле него сидит кто-то, твёрдо верящий [br]в то, что это правильно. 0:03:57.741,0:04:01.452 Вот насколько разными бывают люди, [br]когда речь заходит о морали. 0:04:01.476,0:04:04.189 Но внутри этого широкого разнообразия[br]мы нашли тенденцию. 0:04:04.213,0:04:07.292 Большинство людей на TED подумали, [br]что было приемлемым 0:04:07.316,0:04:10.071 проигнорировать чувства ИИ [br]и выключить его 0:04:10.095,0:04:12.608 и что неправильно играть с генами, 0:04:12.632,0:04:15.952 чтобы выбрать косметические изменения, [br]которые не касаются здоровья. 0:04:16.402,0:04:19.376 Потом мы попросили всех собраться [br]в группы по три человека. 0:04:19.400,0:04:21.437 Группам дали две минуты на обсуждение, 0:04:21.461,0:04:23.755 чтобы те попытались прийти к консенсусу. 0:04:24.838,0:04:26.412 МС: Две минуты на дебаты. 0:04:26.436,0:04:28.555 Я буду бить в гонг, когда время кончится. 0:04:28.579,0:04:31.219 (Публика обсуждает) 0:04:35.229,0:04:37.222 (Звук гонга) 0:04:38.834,0:04:39.985 ДА: Окей. 0:04:40.009,0:04:41.801 МС: Пора заканчивать. 0:04:41.825,0:04:43.136 Люди, люди... 0:04:43.747,0:04:46.420 МС: Мы выяснили, что многие группы[br]пришли к соглашению, 0:04:46.444,0:04:50.373 даже если там были люди[br]с совершенно различными точками зрения. 0:04:50.843,0:04:53.367 Что отличает группы, [br]которые пришли к общему решению, 0:04:53.391,0:04:54.869 от тех, кому это не удалось? 0:04:55.244,0:04:58.083 Обычно люди, чей выбор ближе к 0 или 10, 0:04:58.107,0:04:59.947 более уверены в своих ответах. 0:05:00.868,0:05:03.554 И наоборот, те, у кого [br]оценки ближе к середине, 0:05:03.578,0:05:07.015 часто не уверены в том, [br]правильно что-либо или нет, 0:05:07.039,0:05:09.167 так что их уровень уверенности ниже. 0:05:09.505,0:05:12.448 Однако, есть ещё одна группа людей, 0:05:12.472,0:05:16.090 которая очень уверена [br]в ответах где-то в середине шкалы. 0:05:16.657,0:05:20.367 Мы думаем, что эти очень уверенные [br]«серые» — люди, которые понимают: 0:05:20.367,0:05:22.009 обе точки зрения имеют свои плюсы. 0:05:22.531,0:05:25.230 Они серые не потому что не уверены, 0:05:25.254,0:05:27.942 а потому что они думают,[br]что моральная дилемма предлагает 0:05:27.966,0:05:29.953 два обоснованных противоречащих довода. 0:05:30.373,0:05:34.445 Мы также выяснили, что группы, [br]включающие очень уверенных серых, 0:05:34.469,0:05:36.962 наиболее способны прийти к общему решению. 0:05:36.986,0:05:39.464 Мы всё ещё не знаем, [br]почему так происходит. 0:05:39.488,0:05:41.251 Это только первые эксперименты, 0:05:41.275,0:05:44.687 и нужно больше экспериментов, [br]чтобы понять, почему и как 0:05:44.711,0:05:47.533 некоторые люди после обсуждений[br]меняют свои моральные устои, 0:05:47.557,0:05:49.079 чтобы достичь соглашения. 0:05:49.103,0:05:51.572 Когда группы приходят к общему решению, 0:05:51.596,0:05:53.182 как они это делают? 0:05:53.206,0:05:55.787 Самая интуитивная идея — [br]это просто среднее значение 0:05:55.811,0:05:57.841 всех ответов в группе, так? 0:05:57.865,0:06:01.438 Ещё один подход — это то, [br]что группа взвешивает каждое мнение, 0:06:01.462,0:06:03.910 основываясь на уверенности того, [br]кто его выражает. 0:06:04.422,0:06:06.928 Представьте, что Пол Маккартни —[br]член вашей группы. 0:06:07.352,0:06:09.496 Вы бы безусловно последовали его мнению 0:06:09.520,0:06:11.961 о количестве слова «yesterday», 0:06:11.985,0:06:14.699 которых, кстати, в этой песне девять. 0:06:14.723,0:06:17.104 Но, наоборот, мы выяснили, [br]что последовательно 0:06:17.128,0:06:19.494 во всех дилеммах, [br]в разных экспериментах — 0:06:19.518,0:06:21.683 даже на разных континентах — 0:06:21.707,0:06:25.450 группы следуют умной[br]и статистически здравой процедуре, 0:06:25.474,0:06:27.652 известной как «здравое среднее». 0:06:27.676,0:06:29.856 В случае с высотой Эйфелевой башни 0:06:29.880,0:06:31.700 скажем, что у группы такие ответы: 0:06:31.724,0:06:36.332 250 метров, 200 метров, 300 метров, 400 0:06:36.356,0:06:40.140 и ещё один абсурдный ответ [br]300 миллионов метров. 0:06:40.547,0:06:44.840 Простое среднее значение этих чисел [br]сильно сместит результаты. 0:06:44.864,0:06:48.034 Но здравое среднее — это такое значение, [br]когда группа игнорирует 0:06:48.058,0:06:49.298 абсурдный ответ, 0:06:49.322,0:06:52.691 давая больший вес [br]мнениям людей в середине. 0:06:53.305,0:06:55.181 Возвращаясь к эксперименту в Ванкувере, 0:06:55.205,0:06:56.972 именно это и произошло. 0:06:57.407,0:07:00.148 Группы давали намного меньше веса [br]крайним значениям, 0:07:00.172,0:07:03.401 и наоборот, консенсус стал [br]здравым средним значением 0:07:03.425,0:07:04.901 индивидуальных ответов. 0:07:05.356,0:07:07.347 Самое замечательное в том, 0:07:07.371,0:07:10.558 что это было спонтанное поведение группы. 0:07:10.582,0:07:15.057 Мы не давали им никаких подсказок, [br]как прийти к соглашению. 0:07:15.513,0:07:17.053 Так что же мы имеем в итоге? 0:07:17.432,0:07:20.569 Это только начало, но у нас уже есть [br]некоторое понимание ситуации. 0:07:20.984,0:07:23.901 Хорошие коллективные решения[br]требуют двух компонентов: 0:07:23.925,0:07:26.674 дискуссию и разнообразие мнений. 0:07:27.066,0:07:31.062 Сейчас в разных обществах способ, которым[br]мы обычно доносим наши мнения и желания, — 0:07:31.086,0:07:32.994 прямое или непрямое голосование. 0:07:33.495,0:07:35.492 Это хорошо для разнообразия мнений 0:07:35.516,0:07:37.961 и для того, чтобы обеспечить каждого 0:07:37.985,0:07:40.440 возможностью высказать своё мнение. 0:07:40.464,0:07:44.199 Но это не способствует[br]возникновению сознательных дебатов. 0:07:44.665,0:07:47.733 Наши эксперименты [br]предлагают другой метод, 0:07:47.757,0:07:51.298 который может быть эффективен [br]для баланса этих двух целей одновременно 0:07:51.322,0:07:55.075 путём формирования маленьких групп, [br]которые придут к единому решению, 0:07:55.099,0:07:57.333 сохраняя при этом разнообразие мнений, 0:07:57.357,0:08:00.130 так как существует много [br]независимых групп. 0:08:00.741,0:08:04.665 Конечно, гораздо проще договориться [br]о высоте Эйфелевой башни, 0:08:04.689,0:08:07.804 чем о моральных, политических [br]и идеологических проблемах. 0:08:08.721,0:08:11.938 Но при гораздо более сложных[br]мировых проблемах, 0:08:11.952,0:08:13.845 при ещё большем расхождении во взглядах 0:08:13.879,0:08:18.325 использование науки для понимания того,[br]как мы общаемся и принимаем решения, 0:08:18.325,0:08:22.772 откроет нам новые интересные пути[br]для построения лучшей демократии.