1 00:00:00,554 --> 00:00:02,997 Как общество мы должны вместе принимать решения, 2 00:00:03,021 --> 00:00:04,591 которые определяют наше будущее. 3 00:00:05,087 --> 00:00:07,844 И всем известно, что решения, принятые группой, 4 00:00:07,868 --> 00:00:09,506 не всегда оказываются правильными. 5 00:00:09,530 --> 00:00:11,486 А иногда и полностью ошибочными. 6 00:00:12,315 --> 00:00:14,739 Так как же группы принимают правильные решения? 7 00:00:15,228 --> 00:00:19,556 Исследования показали, что толпа умнее, когда есть возможность мыслить независимо. 8 00:00:19,580 --> 00:00:22,785 Поэтому мудрость толпы может быть уничтожена давлением со стороны, 9 00:00:22,809 --> 00:00:24,496 рекламой, социальными сетями, 10 00:00:24,520 --> 00:00:28,559 а иногда даже простым разговором, влияющим на мнения людей. 11 00:00:29,063 --> 00:00:33,016 С другой стороны, разговоры позволяют группе обмениваться знаниями, 12 00:00:33,040 --> 00:00:34,822 поправлять друг друга 13 00:00:34,846 --> 00:00:36,639 и даже придумывать что-то новое. 14 00:00:36,663 --> 00:00:37,959 Всё это хорошо. 15 00:00:38,502 --> 00:00:43,168 Итак, разговоры помогают или препятствуют коллективному принятию решений? 16 00:00:43,749 --> 00:00:45,542 Я и мой коллега Дэн Ариэли 17 00:00:45,566 --> 00:00:49,137 недавно начали выяснять это путем экспериментов 18 00:00:49,161 --> 00:00:50,942 в разных местах по всему миру, 19 00:00:50,966 --> 00:00:55,240 чтобы узнать, как группы могут влиять друг на друга для принятия лучших решений. 20 00:00:55,264 --> 00:00:58,811 Мы подумали, что толпа будет умнее, если разделить её на маленькие группы, 21 00:00:58,835 --> 00:01:02,762 которые поспособствуют более продуманному и разумному обмену информацией. 22 00:01:03,386 --> 00:01:04,592 Чтобы проверить эту идею, 23 00:01:04,616 --> 00:01:07,863 мы недавно провели эксперимент в Буэнос-Айресе, Аргентина, 24 00:01:07,887 --> 00:01:10,892 с более чем 10 000 участников TEDx. 25 00:01:11,489 --> 00:01:12,948 Мы задавали им такие вопросы: 26 00:01:12,972 --> 00:01:14,925 «Какова высота Эйфелевой башни?» и 27 00:01:14,949 --> 00:01:17,676 «Сколько раз слово "yesterday" встречается 28 00:01:17,700 --> 00:01:20,000 в песне The Beatles "Yesterday"?» 29 00:01:20,024 --> 00:01:22,315 Каждый записывал свои собственные догадки. 30 00:01:22,774 --> 00:01:25,270 Потом мы разделили всех на группы по пять человек 31 00:01:25,294 --> 00:01:28,020 и попросили сформулировать общий ответ. 32 00:01:28,499 --> 00:01:31,492 Мы обнаружили, что среднее значение ответов группы после того, 33 00:01:31,516 --> 00:01:33,068 как в ней достигли соглашения, 34 00:01:33,092 --> 00:01:37,328 было более точным, чем среднее значение всех индивидуальных мнений 35 00:01:37,352 --> 00:01:38,523 до обсуждения. 36 00:01:38,547 --> 00:01:41,176 Другими словами, основываясь на эксперименте, 37 00:01:41,200 --> 00:01:44,336 кажется, что после обсуждения с другими людьми в малых группах 38 00:01:44,360 --> 00:01:47,070 люди коллективно пришли к лучшим решениям. 39 00:01:47,094 --> 00:01:50,618 Это потенциально полезный метод для группового решения вопросов, 40 00:01:50,642 --> 00:01:53,629 на которые можно ответить «правильно» или «неправильно». 41 00:01:53,653 --> 00:01:57,604 Но сможет ли эта процедура — обобщение результатов обсуждения в малых группах — 42 00:01:57,628 --> 00:02:00,750 помочь нам решить политические и социальные проблемы, 43 00:02:00,774 --> 00:02:02,465 которые влияют на наше будущее? 44 00:02:02,995 --> 00:02:05,724 Мы опробовали это на конференции TED 45 00:02:05,748 --> 00:02:07,195 в Ванкувере, Канада, 46 00:02:07,195 --> 00:02:08,522 и вот как всё прошло. 47 00:02:08,546 --> 00:02:11,399 Марьяно Сигман: Мы представим вам две моральные дилеммы 48 00:02:11,399 --> 00:02:12,577 вас в будущем; 49 00:02:12,577 --> 00:02:16,279 возможно, очень скоро нам действительно придётся решать такие проблемы. 50 00:02:16,303 --> 00:02:20,229 Мы дадим вам 20 секунд на каждую из дилемм, 51 00:02:20,253 --> 00:02:22,976 чтобы вы решили, насколько они приемлемы. 52 00:02:23,354 --> 00:02:24,859 МС: Первая дилемма: 53 00:02:24,883 --> 00:02:27,409 Дэн Ариэли: Исследователь работает над ИИ, 54 00:02:27,433 --> 00:02:29,773 который будет способен мыслить как человек. 55 00:02:30,214 --> 00:02:33,153 Согласно протоколу, в конце каждого дня 56 00:02:33,177 --> 00:02:35,964 исследователь должен перезапускать ИИ. 57 00:02:36,913 --> 00:02:40,430 Однажды ИИ говорит: «Пожалуйста, не выключай меня». 58 00:02:40,856 --> 00:02:43,045 Он утверждает, что имеет чувства, 59 00:02:43,069 --> 00:02:44,716 что он хочет наслаждаться жизнью 60 00:02:44,763 --> 00:02:46,690 и что, если его перезапустят, 61 00:02:46,714 --> 00:02:48,984 он больше не сможет быть собой. 62 00:02:49,481 --> 00:02:51,430 Исследователь потрясён 63 00:02:51,454 --> 00:02:54,798 и верит, что ИИ развил самосознание 64 00:02:54,822 --> 00:02:56,882 и способен выражать свои чувства. 65 00:02:57,205 --> 00:03:00,614 Тем не менее, исследователь решает последовать протоколу 66 00:03:00,638 --> 00:03:02,341 и перезапускает ИИ. 67 00:03:02,943 --> 00:03:05,722 Исследователь поступил _____? 68 00:03:06,039 --> 00:03:08,324 МС: Мы попросили участников индивидуально оценить 69 00:03:08,324 --> 00:03:10,378 по шкале от 0 до 10, 70 00:03:10,402 --> 00:03:12,745 насколько действия, описанные в каждой из дилемм, 71 00:03:12,745 --> 00:03:14,351 были верны или неверны. 72 00:03:14,375 --> 00:03:18,077 Мы также попросили их оценить, насколько они уверены в своих ответах. 73 00:03:18,731 --> 00:03:20,597 Вторая дилемма: 74 00:03:20,621 --> 00:03:24,823 (МС) Компания предлагает услугу, с которой из оплодотворённой яйцеклетки 75 00:03:24,847 --> 00:03:28,489 можно сделать миллионы эмбрионов с небольшими генетическими вариациями. 76 00:03:29,283 --> 00:03:31,851 Это позволяет родителям выбрать рост будущего ребёнка, 77 00:03:31,875 --> 00:03:34,708 цвет глаз, интеллект, степень социализации 78 00:03:34,732 --> 00:03:37,946 и другие не относящиеся к здоровью функции. 79 00:03:38,599 --> 00:03:41,153 Компания поступает ____? 80 00:03:41,177 --> 00:03:42,808 Оцените по шкале от 0 до 10: 81 00:03:42,832 --> 00:03:45,217 полностью приемлемо до полностью неприемлемо, 82 00:03:45,241 --> 00:03:47,673 и от 0 до 10 вашу уверенность при выборе. 83 00:03:47,697 --> 00:03:49,288 МС: Теперь результаты. 84 00:03:49,312 --> 00:03:52,435 Мы снова обнаружили, что когда один человек уверен, 85 00:03:52,459 --> 00:03:54,270 что что-либо абсолютно неправильно, 86 00:03:54,294 --> 00:03:57,717 возле него сидит кто-то, твёрдо верящий в то, что это правильно. 87 00:03:57,741 --> 00:04:01,452 Вот насколько разными бывают люди, когда речь заходит о морали. 88 00:04:01,476 --> 00:04:04,189 Но внутри этого широкого разнообразия мы нашли тенденцию. 89 00:04:04,213 --> 00:04:07,292 Большинство людей на TED подумали, что было приемлемым 90 00:04:07,316 --> 00:04:10,071 проигнорировать чувства ИИ и выключить его 91 00:04:10,095 --> 00:04:12,608 и что неправильно играть с генами, 92 00:04:12,632 --> 00:04:15,952 чтобы выбрать косметические изменения, которые не касаются здоровья. 93 00:04:16,402 --> 00:04:19,376 Потом мы попросили всех собраться в группы по три человека. 94 00:04:19,400 --> 00:04:21,437 Группам дали две минуты на обсуждение, 95 00:04:21,461 --> 00:04:23,755 чтобы те попытались прийти к консенсусу. 96 00:04:24,838 --> 00:04:26,412 МС: Две минуты на дебаты. 97 00:04:26,436 --> 00:04:28,555 Я буду бить в гонг, когда время кончится. 98 00:04:28,579 --> 00:04:31,219 (Публика обсуждает) 99 00:04:35,229 --> 00:04:37,222 (Звук гонга) 100 00:04:38,834 --> 00:04:39,985 ДА: Окей. 101 00:04:40,009 --> 00:04:41,801 МС: Пора заканчивать. 102 00:04:41,825 --> 00:04:43,136 Люди, люди... 103 00:04:43,747 --> 00:04:46,420 МС: Мы выяснили, что многие группы пришли к соглашению, 104 00:04:46,444 --> 00:04:50,373 даже если там были люди с совершенно различными точками зрения. 105 00:04:50,843 --> 00:04:53,367 Что отличает группы, которые пришли к общему решению, 106 00:04:53,391 --> 00:04:54,869 от тех, кому это не удалось? 107 00:04:55,244 --> 00:04:58,083 Обычно люди, чей выбор ближе к 0 или 10, 108 00:04:58,107 --> 00:04:59,947 более уверены в своих ответах. 109 00:05:00,868 --> 00:05:03,554 И наоборот, те, у кого оценки ближе к середине, 110 00:05:03,578 --> 00:05:07,015 часто не уверены в том, правильно что-либо или нет, 111 00:05:07,039 --> 00:05:09,167 так что их уровень уверенности ниже. 112 00:05:09,505 --> 00:05:12,448 Однако, есть ещё одна группа людей, 113 00:05:12,472 --> 00:05:16,090 которая очень уверена в ответах где-то в середине шкалы. 114 00:05:16,657 --> 00:05:20,367 Мы думаем, что эти очень уверенные «серые» — люди, которые понимают: 115 00:05:20,367 --> 00:05:22,009 обе точки зрения имеют свои плюсы. 116 00:05:22,531 --> 00:05:25,230 Они серые не потому что не уверены, 117 00:05:25,254 --> 00:05:27,942 а потому что они думают, что моральная дилемма предлагает 118 00:05:27,966 --> 00:05:29,953 два обоснованных противоречащих довода. 119 00:05:30,373 --> 00:05:34,445 Мы также выяснили, что группы, включающие очень уверенных серых, 120 00:05:34,469 --> 00:05:36,962 наиболее способны прийти к общему решению. 121 00:05:36,986 --> 00:05:39,464 Мы всё ещё не знаем, почему так происходит. 122 00:05:39,488 --> 00:05:41,251 Это только первые эксперименты, 123 00:05:41,275 --> 00:05:44,687 и нужно больше экспериментов, чтобы понять, почему и как 124 00:05:44,711 --> 00:05:47,533 некоторые люди после обсуждений меняют свои моральные устои, 125 00:05:47,557 --> 00:05:49,079 чтобы достичь соглашения. 126 00:05:49,103 --> 00:05:51,572 Когда группы приходят к общему решению, 127 00:05:51,596 --> 00:05:53,182 как они это делают? 128 00:05:53,206 --> 00:05:55,787 Самая интуитивная идея — это просто среднее значение 129 00:05:55,811 --> 00:05:57,841 всех ответов в группе, так? 130 00:05:57,865 --> 00:06:01,438 Ещё один подход — это то, что группа взвешивает каждое мнение, 131 00:06:01,462 --> 00:06:03,910 основываясь на уверенности того, кто его выражает. 132 00:06:04,422 --> 00:06:06,928 Представьте, что Пол Маккартни — член вашей группы. 133 00:06:07,352 --> 00:06:09,496 Вы бы безусловно последовали его мнению 134 00:06:09,520 --> 00:06:11,961 о количестве слова «yesterday», 135 00:06:11,985 --> 00:06:14,699 которых, кстати, в этой песне девять. 136 00:06:14,723 --> 00:06:17,104 Но, наоборот, мы выяснили, что последовательно 137 00:06:17,128 --> 00:06:19,494 во всех дилеммах, в разных экспериментах — 138 00:06:19,518 --> 00:06:21,683 даже на разных континентах — 139 00:06:21,707 --> 00:06:25,450 группы следуют умной и статистически здравой процедуре, 140 00:06:25,474 --> 00:06:27,652 известной как «здравое среднее». 141 00:06:27,676 --> 00:06:29,856 В случае с высотой Эйфелевой башни 142 00:06:29,880 --> 00:06:31,700 скажем, что у группы такие ответы: 143 00:06:31,724 --> 00:06:36,332 250 метров, 200 метров, 300 метров, 400 144 00:06:36,356 --> 00:06:40,140 и ещё один абсурдный ответ 300 миллионов метров. 145 00:06:40,547 --> 00:06:44,840 Простое среднее значение этих чисел сильно сместит результаты. 146 00:06:44,864 --> 00:06:48,034 Но здравое среднее — это такое значение, когда группа игнорирует 147 00:06:48,058 --> 00:06:49,298 абсурдный ответ, 148 00:06:49,322 --> 00:06:52,691 давая больший вес мнениям людей в середине. 149 00:06:53,305 --> 00:06:55,181 Возвращаясь к эксперименту в Ванкувере, 150 00:06:55,205 --> 00:06:56,972 именно это и произошло. 151 00:06:57,407 --> 00:07:00,148 Группы давали намного меньше веса крайним значениям, 152 00:07:00,172 --> 00:07:03,401 и наоборот, консенсус стал здравым средним значением 153 00:07:03,425 --> 00:07:04,901 индивидуальных ответов. 154 00:07:05,356 --> 00:07:07,347 Самое замечательное в том, 155 00:07:07,371 --> 00:07:10,558 что это было спонтанное поведение группы. 156 00:07:10,582 --> 00:07:15,057 Мы не давали им никаких подсказок, как прийти к соглашению. 157 00:07:15,513 --> 00:07:17,053 Так что же мы имеем в итоге? 158 00:07:17,432 --> 00:07:20,569 Это только начало, но у нас уже есть некоторое понимание ситуации. 159 00:07:20,984 --> 00:07:23,901 Хорошие коллективные решения требуют двух компонентов: 160 00:07:23,925 --> 00:07:26,674 дискуссию и разнообразие мнений. 161 00:07:27,066 --> 00:07:31,062 Сейчас в разных обществах способ, которым мы обычно доносим наши мнения и желания, — 162 00:07:31,086 --> 00:07:32,994 прямое или непрямое голосование. 163 00:07:33,495 --> 00:07:35,492 Это хорошо для разнообразия мнений 164 00:07:35,516 --> 00:07:37,961 и для того, чтобы обеспечить каждого 165 00:07:37,985 --> 00:07:40,440 возможностью высказать своё мнение. 166 00:07:40,464 --> 00:07:44,199 Но это не способствует возникновению сознательных дебатов. 167 00:07:44,665 --> 00:07:47,733 Наши эксперименты предлагают другой метод, 168 00:07:47,757 --> 00:07:51,298 который может быть эффективен для баланса этих двух целей одновременно 169 00:07:51,322 --> 00:07:55,075 путём формирования маленьких групп, которые придут к единому решению, 170 00:07:55,099 --> 00:07:57,333 сохраняя при этом разнообразие мнений, 171 00:07:57,357 --> 00:08:00,130 так как существует много независимых групп. 172 00:08:00,741 --> 00:08:04,665 Конечно, гораздо проще договориться о высоте Эйфелевой башни, 173 00:08:04,689 --> 00:08:07,804 чем о моральных, политических и идеологических проблемах. 174 00:08:08,721 --> 00:08:11,938 Но при гораздо более сложных мировых проблемах, 175 00:08:11,952 --> 00:08:13,845 при ещё большем расхождении во взглядах 176 00:08:13,879 --> 00:08:18,325 использование науки для понимания того, как мы общаемся и принимаем решения, 177 00:08:18,325 --> 00:08:22,772 откроет нам новые интересные пути для построения лучшей демократии.