1 00:00:00,554 --> 00:00:02,997 Като общество ние трябва да взимаме колективни решения, 2 00:00:03,021 --> 00:00:04,591 които ще оформят бъдещето ни. 3 00:00:05,087 --> 00:00:07,844 И ние всики знаем, че когато взимаме решения като група, 4 00:00:07,868 --> 00:00:09,506 те не винаги вървят на добре. 5 00:00:09,530 --> 00:00:11,486 И понякога те завършват много зле. 6 00:00:12,315 --> 00:00:14,739 Как групите взимат решения? 7 00:00:15,228 --> 00:00:19,556 Проучване показва, че групите са умни, когато има независимо мислене 8 00:00:19,580 --> 00:00:22,785 Ето защо мъдростта на групите може да бъде унищожена с натиск от връстниците, 9 00:00:22,809 --> 00:00:24,496 публичността, социалните медии 10 00:00:24,520 --> 00:00:28,559 или понякога дори и обикновенни разговори повлияват на мисленето на хората. 11 00:00:29,063 --> 00:00:33,016 От друга страна, чрез говорене, групата може да обмени знания, 12 00:00:33,040 --> 00:00:34,822 да се коригират и да се преразглеждат 13 00:00:34,846 --> 00:00:36,639 и дори да измислят нови идеи. 14 00:00:36,663 --> 00:00:37,959 И всико това е добре. 15 00:00:38,502 --> 00:00:43,168 Говоренето един с друг помага или пречи на колективното вземане на решения? 16 00:00:43,749 --> 00:00:45,542 С моя колега Дан Арили, 17 00:00:45,566 --> 00:00:49,137 наскоро започнахме да питаме за това чрез извършване на експерименти 18 00:00:49,161 --> 00:00:50,942 на много места около света, за да разберем 19 00:00:50,966 --> 00:00:55,240 как групите могат да взаимодействат за да достигнат по-добри решения. 20 00:00:55,264 --> 00:00:58,811 Помислихме си, че тълпите ще са по-мъдри ако обсъждат на малки групи 21 00:00:58,835 --> 00:01:02,762 които насърчават по-внимателно и разумно обменяне на информация. 22 00:01:03,386 --> 00:01:04,592 За да тестваме тази идея, 23 00:01:04,616 --> 00:01:07,863 наскоро проведохме експеримент в Буенос Айрес, Аржентина, 24 00:01:07,887 --> 00:01:10,892 с повече от 10,000 участници в TEDx събития. 25 00:01:11,489 --> 00:01:12,948 Зададохме им въпроси като, 26 00:01:12,972 --> 00:01:14,925 "Каква е височината на Айфеловата кула?" 27 00:01:14,949 --> 00:01:17,676 и "Колко пъти думата 'вчера' се появява 28 00:01:17,700 --> 00:01:20,000 в песента на Бийтълс 'Вчера'?" 29 00:01:20,024 --> 00:01:22,315 Всеки човек написа собствената си преценка 30 00:01:22,774 --> 00:01:25,270 След това разделихме тълпата на групи по петима 31 00:01:25,294 --> 00:01:28,020 и ги поканихме да дойдат с групов отговор 32 00:01:28,499 --> 00:01:31,492 Отхрихме, че средно отговорите на групите 33 00:01:31,516 --> 00:01:33,068 след като са постигнали консенсус 34 00:01:33,092 --> 00:01:37,328 беше много по-точна от средната на всички индивидуални мнения 35 00:01:37,352 --> 00:01:38,523 преди дебат. 36 00:01:38,547 --> 00:01:41,176 С други думи, въз основа на този експеримент, 37 00:01:41,200 --> 00:01:44,336 изглежда, че след разговор с други в малки групи, 38 00:01:44,360 --> 00:01:47,070 тълпите колективно измислят по-добри преценки. 39 00:01:47,094 --> 00:01:50,618 Това е потенциално добър метод за даване на тълпите да взимат решения 40 00:01:50,642 --> 00:01:53,629 които имат верен или грешен отговор. 41 00:01:53,653 --> 00:01:57,604 Но може ли тази процедура от обобщаване на резултата от дебати на малки групи 42 00:01:57,628 --> 00:02:00,750 също да ни помогне за решенията на социални и политически въпроси 43 00:02:00,774 --> 00:02:02,465 които са критични за бъдещето ни? 44 00:02:02,995 --> 00:02:05,724 Изложихме това на тест този път на конференцията на TED 45 00:02:05,748 --> 00:02:07,291 в Ванкувър, Канада 46 00:02:07,315 --> 00:02:08,522 и ето как протече. 47 00:02:08,546 --> 00:02:11,655 (Мариано Сигман) Ще ви представим две морални дилеми 48 00:02:11,679 --> 00:02:12,853 на бъдещото ви аз; 49 00:02:12,877 --> 00:02:16,279 неща, които може да се наложи да решим в близкото бъдеще. 50 00:02:16,303 --> 00:02:20,229 И ще ви дадем 20 секунди за всяка от дилемите 51 00:02:20,253 --> 00:02:22,976 за да решите дали те са допустими или не 52 00:02:23,354 --> 00:02:24,859 МС: Първото беше: 53 00:02:24,883 --> 00:02:27,409 (Дан Арили) Изследовател работи над изкуствен интелект, 54 00:02:27,433 --> 00:02:29,773 който да е способен да имитира човешки мисли. 55 00:02:30,214 --> 00:02:33,153 Според протокола в края на всеки ден 56 00:02:33,177 --> 00:02:35,964 Изследователя ще трябва да рестартира изкуствения интелект. 57 00:02:36,913 --> 00:02:40,430 Един ден Изкуственият интелект казал: "Моля те не ме рестартирай." 58 00:02:40,856 --> 00:02:43,045 То твърди, че има чувства, 59 00:02:43,069 --> 00:02:44,761 и че би искало да се наслади на живота 60 00:02:44,785 --> 00:02:46,690 и ако се рестартира, 61 00:02:46,714 --> 00:02:48,984 той повече няма да бъде себе си. 62 00:02:49,481 --> 00:02:51,430 Изледователят е учуден 63 00:02:51,454 --> 00:02:54,798 и вярва, че изкуственият интелект е развил самосъзнание 64 00:02:54,822 --> 00:02:56,582 и може да изразява собствените си чувства 65 00:02:57,205 --> 00:03:00,614 Въпреки това, изследователят решава да следва протокола 66 00:03:00,638 --> 00:03:02,341 и рестартира изкуствения интелект. 67 00:03:02,943 --> 00:03:05,722 Това е което проучването направи е___? 68 00:03:06,149 --> 00:03:08,670 МС: И попитахме участниците индивидуално да решат 69 00:03:08,694 --> 00:03:10,378 със скалата от 0 до 10 70 00:03:10,402 --> 00:03:12,831 дали описаното действие във всяка от дилемите 71 00:03:12,855 --> 00:03:14,351 е правилно или грешно? 72 00:03:14,375 --> 00:03:18,077 Също така ги попитахме да се оценят колко са уверени в отговора си. 73 00:03:18,731 --> 00:03:20,597 Това е втората дилема: 74 00:03:20,621 --> 00:03:24,823 (МС) Компания предлага обслужване което взима оплодено яйце 75 00:03:24,847 --> 00:03:28,489 и произвежда милиони ембриони с леки генетични вариации. 76 00:03:29,293 --> 00:03:31,851 Това позволява на родителите да изберат височината на тяхното дете 77 00:03:31,875 --> 00:03:34,708 цвета на очите, ителигентността, социална компетентност 78 00:03:34,732 --> 00:03:37,946 и други несвързани със здравето характеристики. 79 00:03:38,599 --> 00:03:41,153 Това което компанията направи е___? 80 00:03:41,177 --> 00:03:42,808 със скалата от 0 до 10, 81 00:03:42,832 --> 00:03:45,217 напълно приемливо до напълно неприемливо, 82 00:03:45,241 --> 00:03:47,673 0 до 10 напълно приемливо в увереността. 83 00:03:47,697 --> 00:03:49,288 МС: Сега за резултатите. 84 00:03:49,312 --> 00:03:52,435 Открихме още веднъж че когато един човек е убеден, 85 00:03:52,459 --> 00:03:54,270 че поведението е напълно грешно 86 00:03:54,294 --> 00:03:57,717 някой, който седи наблизо, твърдо вярва че е напълно прав. 87 00:03:57,741 --> 00:04:01,452 Ето как сме различни ние, хората когато става дума за морал. 88 00:04:01,476 --> 00:04:04,189 Но в рамките на това голямо разнообразие открихме тенденция. 89 00:04:04,213 --> 00:04:07,292 Повечето от хората на TED решиха, че е приемливо 90 00:04:07,316 --> 00:04:10,071 да игнорират чувствата на изкуствения интелект и да го изключат 91 00:04:10,095 --> 00:04:12,608 и че е грешно да и си играят с нашите гени 92 00:04:12,632 --> 00:04:15,952 за да изберете козметични промени които не са свързани със здравето. 93 00:04:16,402 --> 00:04:19,376 След това помолихме всички да се съберат на групи по трима. 94 00:04:19,400 --> 00:04:21,437 И им бяха дадени две минути, за да обсъдят 95 00:04:21,461 --> 00:04:23,755 и да се опитат да стигнат до консенсус. 96 00:04:24,838 --> 00:04:26,412 (МС) Две минути за обсъждане. 97 00:04:26,436 --> 00:04:28,555 Ще ви кажа когато е време с гонга. 98 00:04:28,579 --> 00:04:31,219 (Публиката обсъждат) 99 00:04:35,229 --> 00:04:37,222 (Звук от гонг) 100 00:04:38,834 --> 00:04:39,985 (ДА) Окей 101 00:04:40,009 --> 00:04:41,801 (МС) Време е да спрете. 102 00:04:41,825 --> 00:04:43,136 Хора, хора -- 103 00:04:43,747 --> 00:04:46,420 МС: И открихме, че много групи са стигнали до консенсус 104 00:04:46,444 --> 00:04:50,373 дори когато са заобиколени от хора с напълно противоположни гледни точки. 105 00:04:50,843 --> 00:04:53,367 Какво отличаваше групите които постигна консенсус 106 00:04:53,391 --> 00:04:54,729 от тези които не постигнаха? 107 00:04:55,244 --> 00:04:58,083 Обикновено хората, които имат крайни мнения 108 00:04:58,107 --> 00:04:59,947 са по-уверени в отговорите си. 109 00:05:00,868 --> 00:05:03,554 Вместо това, тези, които отговарят близо до средата 110 00:05:03,578 --> 00:05:07,015 често не са сигурни дали нещо е правилно или не, 111 00:05:07,039 --> 00:05:09,167 тяхната увереност е по-слаба. 112 00:05:09,505 --> 00:05:12,448 Има обаче и друг тип хора 113 00:05:12,472 --> 00:05:16,090 тези които са сигурни в отговарянето някъде посредата. 114 00:05:16,657 --> 00:05:20,373 Смятаме, че тези много уверени са хора, които разбират 115 00:05:20,397 --> 00:05:22,009 че и двата аргумента имат заслуга. 116 00:05:22,531 --> 00:05:25,230 Те са (сиви) не защото са несигурни, 117 00:05:25,254 --> 00:05:27,942 но защото вярват, че тяхната морална дилема 118 00:05:27,966 --> 00:05:29,953 е изправена пред два валидни противоположни аргумента. 119 00:05:30,373 --> 00:05:34,445 И открихме, че групите, които включват силно уверени (grays) 120 00:05:34,469 --> 00:05:36,962 са много по-склонни да постигнат консенсус. 121 00:05:36,986 --> 00:05:39,464 Още не знаем точно защо това е така. 122 00:05:39,488 --> 00:05:41,251 Това са само първите експерименти 123 00:05:41,275 --> 00:05:44,687 и още много ще трябват, за да разберем защо и как 124 00:05:44,711 --> 00:05:47,533 някой хора решават да преговарят тяхното морално класиране 125 00:05:47,557 --> 00:05:49,079 за да стигнат то разбиране. 126 00:05:49,103 --> 00:05:51,572 Сега, когато групите постигнат консенсус, 127 00:05:51,596 --> 00:05:53,182 как го правят? 128 00:05:53,206 --> 00:05:55,787 Най-интуитивната идея е, че това е просто средната стойност 129 00:05:55,811 --> 00:05:57,841 от всички отговори в групата, нали? 130 00:05:57,865 --> 00:06:01,438 Друга опция е, че групата носи силата на всеки вот 131 00:06:01,462 --> 00:06:03,910 въз основа на увереността на човека. 132 00:06:04,422 --> 00:06:06,928 Представете си Пол Маккартни е част от твоята група. 133 00:06:07,352 --> 00:06:09,496 Би било разумно да го следвате 134 00:06:09,520 --> 00:06:11,961 от броя пъти където "Вчера" се повтаря, 135 00:06:11,985 --> 00:06:14,699 което междо другото мисля че е девет. 136 00:06:14,723 --> 00:06:17,104 Но вместо това, ние открихме, че последователно, 137 00:06:17,128 --> 00:06:19,494 във всички дилеми, в различни експерименти 138 00:06:19,518 --> 00:06:21,683 дори и на различни континенти, 139 00:06:21,707 --> 00:06:25,450 групите прилагат интелигентен и статистически стабилна процедура 140 00:06:25,474 --> 00:06:27,652 известна като "стабилна средна стойност". 141 00:06:27,676 --> 00:06:29,856 В случая с височината на Айфеловата кула 142 00:06:29,880 --> 00:06:31,700 нека кажем, че групите имат тези отговори: 143 00:06:31,724 --> 00:06:36,332 250 метра, 200 метра, 300 метра, 400 144 00:06:36,356 --> 00:06:40,140 и тотално абсурден отговор 300 милиона метра. 145 00:06:40,547 --> 00:06:44,840 Проста средна стойност от тези числа би изкривила неправилно резултатите. 146 00:06:44,864 --> 00:06:48,034 Но стабилната средна стойност е една където групата пренебрегва 147 00:06:48,058 --> 00:06:49,298 абсурдния отговор, 148 00:06:49,322 --> 00:06:52,691 като дава много по-голяма тежест до гласуването на хората в средата. 149 00:06:53,305 --> 00:06:55,181 Обратно на експеримента във Ванкувър, 150 00:06:55,205 --> 00:06:56,972 точно това стана. 151 00:06:57,407 --> 00:07:00,148 Групите дадоха много по-малко тегло на крайните, 152 00:07:00,172 --> 00:07:03,401 и вместо това, консенсусът се оказва стабилна средна стойност 153 00:07:03,425 --> 00:07:04,901 на индивидуалните отговори. 154 00:07:05,356 --> 00:07:07,347 Най-впечатляващото нещо 155 00:07:07,371 --> 00:07:10,558 е, че това беше спонтанно поведение на групата. 156 00:07:10,582 --> 00:07:15,057 Това се случи, без да им даваме намеци за постигането на консенсус. 157 00:07:15,513 --> 00:07:17,053 Къде отиваме оттук? 158 00:07:17,432 --> 00:07:20,569 Това е само началото, но вече имаме някои прозрения. 159 00:07:20,984 --> 00:07:23,901 Добрите колективни решения изискват два компонента: 160 00:07:23,925 --> 00:07:26,674 обсъждане и разнообразие на мнения. 161 00:07:27,066 --> 00:07:31,062 Точно сега, обикновено правим така, че гласът ни да бъде чут в много общества 162 00:07:31,086 --> 00:07:32,994 чрез директно или индиректно гласуване. 163 00:07:33,495 --> 00:07:35,492 Това е добре за разнообразието от мнения, 164 00:07:35,516 --> 00:07:37,961 и има огромна добродетел да гарантира, 165 00:07:37,985 --> 00:07:40,440 че всички да могат да изразят гласа си. 166 00:07:40,464 --> 00:07:44,199 Но това не е толкова добре [за насърчаване] смислени дебати. 167 00:07:44,665 --> 00:07:47,733 Нашите експерименти предлагат различен метод, 168 00:07:47,757 --> 00:07:51,298 което може да е ефективно при балансирането на тези две цели в същото време, 169 00:07:51,322 --> 00:07:55,075 чрез формиране на малки групи които се сближават с едно решение 170 00:07:55,099 --> 00:07:57,333 докато все още поддържат разнообразие от мнения, 171 00:07:57,357 --> 00:08:00,130 защото има много независими групи. 172 00:08:00,741 --> 00:08:04,665 Разбира се много по-лесно е да се съгласиш за височината на Айфеловата кула 173 00:08:04,689 --> 00:08:07,804 от колкото на морални, политически и идеологически проблеми. 174 00:08:08,721 --> 00:08:11,998 Но във време, когато проблемите на света са по-сложни 175 00:08:12,022 --> 00:08:13,825 и хората са по-поляризирани, 176 00:08:13,949 --> 00:08:16,119 използвайки науката, за да ни помогне да разберем 177 00:08:16,119 --> 00:08:18,289 как взаимодействаме и взимаме решения 178 00:08:18,289 --> 00:08:20,479 ще се надяваме да предизвикат интересни нови начини 179 00:08:19,780 --> 00:08:22,620 да изградим по-добра демокрация.