WEBVTT 00:00:00.554 --> 00:00:02.997 Как общество мы должны вместе принимать решения, 00:00:03.021 --> 00:00:04.591 которые определяют наше будущее. 00:00:05.087 --> 00:00:07.844 И всем известно, что решения, принятые группой, 00:00:07.868 --> 00:00:09.506 не всегда оказываются правильными. 00:00:09.530 --> 00:00:11.486 А иногда и полностью ошибочными. 00:00:12.315 --> 00:00:14.739 Так как же группы принимают правильные решения? NOTE Paragraph 00:00:15.228 --> 00:00:19.556 Исследования показали, что толпа умнее, когда есть возможность мыслить независимо. 00:00:19.580 --> 00:00:22.785 Поэтому мудрость толпы может быть уничтожена давлением со стороны, 00:00:22.809 --> 00:00:24.496 рекламой, социальными сетями, 00:00:24.520 --> 00:00:28.559 а иногда даже простым разговором, влияющим на мнения людей. 00:00:29.063 --> 00:00:33.016 С другой стороны, разговоры позволяют группе обмениваться знаниями, 00:00:33.040 --> 00:00:34.822 поправлять друг друга 00:00:34.846 --> 00:00:36.639 и даже придумывать что-то новое. 00:00:36.663 --> 00:00:37.959 Всё это хорошо. 00:00:38.502 --> 00:00:43.168 Итак, разговоры помогают или препятствуют коллективному принятию решений? 00:00:43.749 --> 00:00:45.542 Я и мой коллега Дэн Ариэли 00:00:45.566 --> 00:00:49.137 недавно начали выяснять это путем экспериментов 00:00:49.161 --> 00:00:50.942 в разных местах по всему миру, 00:00:50.966 --> 00:00:55.240 чтобы узнать, как группы могут влиять друг на друга для принятия лучших решений. 00:00:55.264 --> 00:00:58.811 Мы подумали, что толпа будет умнее, если разделить её на маленькие группы, 00:00:58.835 --> 00:01:02.762 которые поспособствуют более продуманному и разумному обмену информацией. NOTE Paragraph 00:01:03.386 --> 00:01:04.592 Чтобы проверить эту идею, 00:01:04.616 --> 00:01:07.863 мы недавно провели эксперимент в Буэнос-Айресе, Аргентина, 00:01:07.887 --> 00:01:10.892 с более чем 10 000 участников TEDx. 00:01:11.489 --> 00:01:12.948 Мы задавали им такие вопросы: 00:01:12.972 --> 00:01:14.925 «Какова высота Эйфелевой башни?» и 00:01:14.949 --> 00:01:17.676 «Сколько раз слово "yesterday" встречается 00:01:17.700 --> 00:01:20.000 в песне The Beatles "Yesterday"?» 00:01:20.024 --> 00:01:22.315 Каждый записывал свои собственные догадки. 00:01:22.774 --> 00:01:25.270 Потом мы разделили всех на группы по пять человек 00:01:25.294 --> 00:01:28.020 и попросили сформулировать общий ответ. 00:01:28.499 --> 00:01:31.492 Мы обнаружили, что среднее значение ответов группы после того, 00:01:31.516 --> 00:01:33.068 как в ней достигли соглашения, 00:01:33.092 --> 00:01:37.328 было более точным, чем среднее значение всех индивидуальных мнений 00:01:37.352 --> 00:01:38.523 до обсуждения. 00:01:38.547 --> 00:01:41.176 Другими словами, основываясь на эксперименте, 00:01:41.200 --> 00:01:44.336 кажется, что после обсуждения с другими людьми в малых группах 00:01:44.360 --> 00:01:47.070 люди коллективно пришли к лучшим решениям. NOTE Paragraph 00:01:47.094 --> 00:01:50.618 Это потенциально полезный метод для группового решения вопросов, 00:01:50.642 --> 00:01:53.629 на которые можно ответить «правильно» или «неправильно». 00:01:53.653 --> 00:01:57.604 Но сможет ли эта процедура — обобщение результатов обсуждения в малых группах — 00:01:57.628 --> 00:02:00.750 помочь нам решить политические и социальные проблемы, 00:02:00.774 --> 00:02:02.465 которые влияют на наше будущее? 00:02:02.995 --> 00:02:05.724 Мы опробовали это на конференции TED 00:02:05.748 --> 00:02:07.195 в Ванкувере, Канада, 00:02:07.195 --> 00:02:08.522 и вот как всё прошло. NOTE Paragraph 00:02:08.546 --> 00:02:11.399 Марьяно Сигман: Мы представим вам две моральные дилеммы 00:02:11.399 --> 00:02:12.577 вас в будущем; 00:02:12.577 --> 00:02:16.279 возможно, очень скоро нам действительно придётся решать такие проблемы. 00:02:16.303 --> 00:02:20.229 Мы дадим вам 20 секунд на каждую из дилемм, 00:02:20.253 --> 00:02:22.976 чтобы вы решили, насколько они приемлемы. NOTE Paragraph 00:02:23.354 --> 00:02:24.859 МС: Первая дилемма: NOTE Paragraph 00:02:24.883 --> 00:02:27.409 Дэн Ариэли: Исследователь работает над ИИ, 00:02:27.433 --> 00:02:29.773 который будет способен мыслить как человек. 00:02:30.214 --> 00:02:33.153 Согласно протоколу, в конце каждого дня 00:02:33.177 --> 00:02:35.964 исследователь должен перезапускать ИИ. 00:02:36.913 --> 00:02:40.430 Однажды ИИ говорит: «Пожалуйста, не выключай меня». 00:02:40.856 --> 00:02:43.045 Он утверждает, что имеет чувства, 00:02:43.069 --> 00:02:44.716 что он хочет наслаждаться жизнью 00:02:44.763 --> 00:02:46.690 и что, если его перезапустят, 00:02:46.714 --> 00:02:48.984 он больше не сможет быть собой. 00:02:49.481 --> 00:02:51.430 Исследователь потрясён 00:02:51.454 --> 00:02:54.798 и верит, что ИИ развил самосознание 00:02:54.822 --> 00:02:56.882 и способен выражать свои чувства. 00:02:57.205 --> 00:03:00.614 Тем не менее, исследователь решает последовать протоколу 00:03:00.638 --> 00:03:02.341 и перезапускает ИИ. 00:03:02.943 --> 00:03:05.722 Исследователь поступил _____? NOTE Paragraph 00:03:06.039 --> 00:03:08.324 МС: Мы попросили участников индивидуально оценить 00:03:08.324 --> 00:03:10.378 по шкале от 0 до 10, 00:03:10.402 --> 00:03:12.745 насколько действия, описанные в каждой из дилемм, 00:03:12.745 --> 00:03:14.351 были верны или неверны. 00:03:14.375 --> 00:03:18.077 Мы также попросили их оценить, насколько они уверены в своих ответах. 00:03:18.731 --> 00:03:20.597 Вторая дилемма: NOTE Paragraph 00:03:20.621 --> 00:03:24.823 (МС) Компания предлагает услугу, с которой из оплодотворённой яйцеклетки 00:03:24.847 --> 00:03:28.489 можно сделать миллионы эмбрионов с небольшими генетическими вариациями. 00:03:29.283 --> 00:03:31.851 Это позволяет родителям выбрать рост будущего ребёнка, 00:03:31.875 --> 00:03:34.708 цвет глаз, интеллект, степень социализации 00:03:34.732 --> 00:03:37.946 и другие не относящиеся к здоровью функции. 00:03:38.599 --> 00:03:41.153 Компания поступает ____? 00:03:41.177 --> 00:03:42.808 Оцените по шкале от 0 до 10: 00:03:42.832 --> 00:03:45.217 полностью приемлемо до полностью неприемлемо, 00:03:45.241 --> 00:03:47.673 и от 0 до 10 вашу уверенность при выборе. NOTE Paragraph 00:03:47.697 --> 00:03:49.288 МС: Теперь результаты. 00:03:49.312 --> 00:03:52.435 Мы снова обнаружили, что когда один человек уверен, 00:03:52.459 --> 00:03:54.270 что что-либо абсолютно неправильно, 00:03:54.294 --> 00:03:57.717 возле него сидит кто-то, твёрдо верящий в то, что это правильно. 00:03:57.741 --> 00:04:01.452 Вот насколько разными бывают люди, когда речь заходит о морали. 00:04:01.476 --> 00:04:04.189 Но внутри этого широкого разнообразия мы нашли тенденцию. 00:04:04.213 --> 00:04:07.292 Большинство людей на TED подумали, что было приемлемым 00:04:07.316 --> 00:04:10.071 проигнорировать чувства ИИ и выключить его 00:04:10.095 --> 00:04:12.608 и что неправильно играть с генами, 00:04:12.632 --> 00:04:15.952 чтобы выбрать косметические изменения, которые не касаются здоровья. 00:04:16.402 --> 00:04:19.376 Потом мы попросили всех собраться в группы по три человека. 00:04:19.400 --> 00:04:21.437 Группам дали две минуты на обсуждение, 00:04:21.461 --> 00:04:23.755 чтобы те попытались прийти к консенсусу. NOTE Paragraph 00:04:24.838 --> 00:04:26.412 МС: Две минуты на дебаты. 00:04:26.436 --> 00:04:28.555 Я буду бить в гонг, когда время кончится. NOTE Paragraph 00:04:28.579 --> 00:04:31.219 (Публика обсуждает) NOTE Paragraph 00:04:35.229 --> 00:04:37.222 (Звук гонга) NOTE Paragraph 00:04:38.834 --> 00:04:39.985 ДА: Окей. NOTE Paragraph 00:04:40.009 --> 00:04:41.801 МС: Пора заканчивать. 00:04:41.825 --> 00:04:43.136 Люди, люди... NOTE Paragraph 00:04:43.747 --> 00:04:46.420 МС: Мы выяснили, что многие группы пришли к соглашению, 00:04:46.444 --> 00:04:50.373 даже если там были люди с совершенно различными точками зрения. 00:04:50.843 --> 00:04:53.367 Что отличает группы, которые пришли к общему решению, 00:04:53.391 --> 00:04:54.869 от тех, кому это не удалось? 00:04:55.244 --> 00:04:58.083 Обычно люди, чей выбор ближе к 0 или 10, 00:04:58.107 --> 00:04:59.947 более уверены в своих ответах. 00:05:00.868 --> 00:05:03.554 И наоборот, те, у кого оценки ближе к середине, 00:05:03.578 --> 00:05:07.015 часто не уверены в том, правильно что-либо или нет, 00:05:07.039 --> 00:05:09.167 так что их уровень уверенности ниже. NOTE Paragraph 00:05:09.505 --> 00:05:12.448 Однако, есть ещё одна группа людей, 00:05:12.472 --> 00:05:16.090 которая очень уверена в ответах где-то в середине шкалы. 00:05:16.657 --> 00:05:20.367 Мы думаем, что эти очень уверенные «серые» — люди, которые понимают: 00:05:20.367 --> 00:05:22.009 обе точки зрения имеют свои плюсы. 00:05:22.531 --> 00:05:25.230 Они серые не потому что не уверены, 00:05:25.254 --> 00:05:27.942 а потому что они думают, что моральная дилемма предлагает 00:05:27.966 --> 00:05:29.953 два обоснованных противоречащих довода. 00:05:30.373 --> 00:05:34.445 Мы также выяснили, что группы, включающие очень уверенных серых, 00:05:34.469 --> 00:05:36.962 наиболее способны прийти к общему решению. 00:05:36.986 --> 00:05:39.464 Мы всё ещё не знаем, почему так происходит. 00:05:39.488 --> 00:05:41.251 Это только первые эксперименты, 00:05:41.275 --> 00:05:44.687 и нужно больше экспериментов, чтобы понять, почему и как 00:05:44.711 --> 00:05:47.533 некоторые люди после обсуждений меняют свои моральные устои, 00:05:47.557 --> 00:05:49.079 чтобы достичь соглашения. NOTE Paragraph 00:05:49.103 --> 00:05:51.572 Когда группы приходят к общему решению, 00:05:51.596 --> 00:05:53.182 как они это делают? 00:05:53.206 --> 00:05:55.787 Самая интуитивная идея — это просто среднее значение 00:05:55.811 --> 00:05:57.841 всех ответов в группе, так? 00:05:57.865 --> 00:06:01.438 Ещё один подход — это то, что группа взвешивает каждое мнение, 00:06:01.462 --> 00:06:03.910 основываясь на уверенности того, кто его выражает. 00:06:04.422 --> 00:06:06.928 Представьте, что Пол Маккартни — член вашей группы. 00:06:07.352 --> 00:06:09.496 Вы бы безусловно последовали его мнению 00:06:09.520 --> 00:06:11.961 о количестве слова «yesterday», 00:06:11.985 --> 00:06:14.699 которых, кстати, в этой песне девять. 00:06:14.723 --> 00:06:17.104 Но, наоборот, мы выяснили, что последовательно 00:06:17.128 --> 00:06:19.494 во всех дилеммах, в разных экспериментах — 00:06:19.518 --> 00:06:21.683 даже на разных континентах — 00:06:21.707 --> 00:06:25.450 группы следуют умной и статистически здравой процедуре, 00:06:25.474 --> 00:06:27.652 известной как «здравое среднее». NOTE Paragraph 00:06:27.676 --> 00:06:29.856 В случае с высотой Эйфелевой башни 00:06:29.880 --> 00:06:31.700 скажем, что у группы такие ответы: 00:06:31.724 --> 00:06:36.332 250 метров, 200 метров, 300 метров, 400 00:06:36.356 --> 00:06:40.140 и ещё один абсурдный ответ 300 миллионов метров. 00:06:40.547 --> 00:06:44.840 Простое среднее значение этих чисел сильно сместит результаты. 00:06:44.864 --> 00:06:48.034 Но здравое среднее — это такое значение, когда группа игнорирует 00:06:48.058 --> 00:06:49.298 абсурдный ответ, 00:06:49.322 --> 00:06:52.691 давая больший вес мнениям людей в середине. 00:06:53.305 --> 00:06:55.181 Возвращаясь к эксперименту в Ванкувере, 00:06:55.205 --> 00:06:56.972 именно это и произошло. 00:06:57.407 --> 00:07:00.148 Группы давали намного меньше веса крайним значениям, 00:07:00.172 --> 00:07:03.401 и наоборот, консенсус стал здравым средним значением 00:07:03.425 --> 00:07:04.901 индивидуальных ответов. 00:07:05.356 --> 00:07:07.347 Самое замечательное в том, 00:07:07.371 --> 00:07:10.558 что это было спонтанное поведение группы. 00:07:10.582 --> 00:07:15.057 Мы не давали им никаких подсказок, как прийти к соглашению. NOTE Paragraph 00:07:15.513 --> 00:07:17.053 Так что же мы имеем в итоге? 00:07:17.432 --> 00:07:20.569 Это только начало, но у нас уже есть некоторое понимание ситуации. 00:07:20.984 --> 00:07:23.901 Хорошие коллективные решения требуют двух компонентов: 00:07:23.925 --> 00:07:26.674 дискуссию и разнообразие мнений. 00:07:27.066 --> 00:07:31.062 Сейчас в разных обществах способ, которым мы обычно доносим наши мнения и желания, — 00:07:31.086 --> 00:07:32.994 прямое или непрямое голосование. 00:07:33.495 --> 00:07:35.492 Это хорошо для разнообразия мнений 00:07:35.516 --> 00:07:37.961 и для того, чтобы обеспечить каждого 00:07:37.985 --> 00:07:40.440 возможностью высказать своё мнение. 00:07:40.464 --> 00:07:44.199 Но это не способствует возникновению сознательных дебатов. 00:07:44.665 --> 00:07:47.733 Наши эксперименты предлагают другой метод, 00:07:47.757 --> 00:07:51.298 который может быть эффективен для баланса этих двух целей одновременно 00:07:51.322 --> 00:07:55.075 путём формирования маленьких групп, которые придут к единому решению, 00:07:55.099 --> 00:07:57.333 сохраняя при этом разнообразие мнений, 00:07:57.357 --> 00:08:00.130 так как существует много независимых групп. NOTE Paragraph 00:08:00.741 --> 00:08:04.665 Конечно, гораздо проще договориться о высоте Эйфелевой башни, 00:08:04.689 --> 00:08:07.804 чем о моральных, политических и идеологических проблемах. 00:08:08.721 --> 00:08:11.938 Но при гораздо более сложных мировых проблемах, 00:08:11.952 --> 00:08:13.845 при ещё большем расхождении во взглядах 00:08:13.879 --> 00:08:18.325 использование науки для понимания того, как мы общаемся и принимаем решения, 00:08:18.325 --> 00:08:22.772 откроет нам новые интересные пути для построения лучшей демократии.