1 00:00:00,554 --> 00:00:03,017 Ve společnostech se musíme kolektivně rozhodovat, 2 00:00:03,021 --> 00:00:04,591 a utvářet tak svou budoucnost. 3 00:00:05,087 --> 00:00:07,708 Všichni víme, že když se rozhodujeme ve skupinách, 4 00:00:07,708 --> 00:00:09,506 ne vždy to dobře dopadne. 5 00:00:09,530 --> 00:00:11,486 A občas to dopadne vážně špatně. 6 00:00:12,315 --> 00:00:14,739 Jak se tedy skupiny rozhodují správně? 7 00:00:15,228 --> 00:00:19,556 Výzkumy prokázaly, že davy jsou moudré, pokud v nich jedinci přemýšlejí nezávisle. 8 00:00:19,580 --> 00:00:22,785 To je důvod, proč může moudrost davu zničit společenský tlak, 9 00:00:22,809 --> 00:00:24,496 veřejná pozornost, sociální média 10 00:00:24,520 --> 00:00:28,559 nebo jen obyčejné rozhovory, které ovlivňují uvažování jednotlivců. 11 00:00:29,063 --> 00:00:33,016 Na druhou stranu, díky komunikaci si skupiny předávají znalosti, 12 00:00:33,040 --> 00:00:34,822 opravují se a ověřují správnost 13 00:00:34,846 --> 00:00:36,639 a přicházejí dokonce s novými nápady. 14 00:00:36,663 --> 00:00:37,959 Což je vše dobře. 15 00:00:38,502 --> 00:00:43,168 Je tedy konverzace při společném rozhodování spíš k užitku, nebo na škodu? 16 00:00:43,749 --> 00:00:45,542 S mým kolegou Danem Arielym 17 00:00:45,566 --> 00:00:49,137 jsme tento problém nedávno začali zkoumat skrze experimenty 18 00:00:49,161 --> 00:00:51,422 po celém světě, abychom zjistili, 19 00:00:51,422 --> 00:00:55,240 jak mohou skupiny interagovat a díky tomu se lépe rozhodovat. 20 00:00:55,264 --> 00:00:58,811 Mysleli jsme si, že bude lepší, budou-li diskutovat v malých skupinách, 21 00:00:58,835 --> 00:01:02,762 ve kterých může probíhat hlubší a hodnotnější výměna informací. 22 00:01:03,386 --> 00:01:04,592 Abychom nápad ověřili, 23 00:01:04,616 --> 00:01:07,863 provedli jsme nedávno v argentinském Buenos Aires pokus 24 00:01:07,887 --> 00:01:10,892 s více než 10 000 účastníky konference TEDx. 25 00:01:11,489 --> 00:01:12,948 Ptali jsme se otázky jako: 26 00:01:12,972 --> 00:01:14,925 „Jak vysoká je Eiffelova věž?" 27 00:01:14,949 --> 00:01:17,676 a „Kolikrát se slovo ,yesterday' objeví 28 00:01:17,700 --> 00:01:20,000 v písni ,Yesterday' od Beatles?" 29 00:01:20,024 --> 00:01:22,315 Každý člověk vypsal své odpovědi. 30 00:01:22,774 --> 00:01:25,270 Poté jsme dav rozdělili do skupin po pěti, 31 00:01:25,294 --> 00:01:28,020 které jsme vyzvali, aby daly dohromady společnou odpověď. 32 00:01:28,499 --> 00:01:31,492 Zjistili jsme, že průměrné odpovědi všech skupin poté, 33 00:01:31,516 --> 00:01:33,068 co se jejich členové shodli, 34 00:01:33,092 --> 00:01:37,328 byly mnohem přesnější, než průměr individuálních odpovědí 35 00:01:37,352 --> 00:01:38,523 před debatou. 36 00:01:38,547 --> 00:01:41,176 Jinak řečeno, na základě pokusu se zdá, 37 00:01:41,200 --> 00:01:44,336 že pokud spolu lidé diskutují v rámci menších skupin, 38 00:01:44,360 --> 00:01:47,070 dovedou se následně lépe rozhodovat jako masa. 39 00:01:47,094 --> 00:01:50,618 Takže to je potenciálně užitečný způsob, jak přimět davy k řešení otázek 40 00:01:50,642 --> 00:01:53,629 na které se dá snadno odpovědět "správně/špatně". 41 00:01:53,653 --> 00:01:57,604 Ale může nám proces sdružování výsledků menších skupin 42 00:01:57,628 --> 00:02:00,750 pomoci i s řešením společenských a politických témat, 43 00:02:00,774 --> 00:02:02,465 zásadních pro naši budoucnost? 44 00:02:02,995 --> 00:02:05,724 To jsme se rozhodli prověřit na TED konferenci 45 00:02:05,748 --> 00:02:07,291 v kanadském Vancouveru, 46 00:02:07,315 --> 00:02:08,522 a takhle to dopadlo. 47 00:02:08,546 --> 00:02:11,655 (Mariano Singman) Postavíme před vás dvě morální dilemata 48 00:02:11,679 --> 00:02:12,853 vašich budoucích "já"; 49 00:02:12,877 --> 00:02:16,279 věci, které budeme muset vyřešit ve velmi blízké budoucnosti. 50 00:02:16,303 --> 00:02:20,229 Na oba problémy vám dáme 20 sekund, během kterých 51 00:02:20,253 --> 00:02:22,976 se rozhodnete, zda jsou v pořádku, nebo ne. 52 00:02:23,354 --> 00:02:24,859 MS: První z nich byl tento: 53 00:02:24,883 --> 00:02:27,409 (Dan Ariely) Vědec vyvíjí umělou inteligenci (AI), 54 00:02:27,433 --> 00:02:29,773 která je schopná napodobit lidské myšlení. 55 00:02:30,214 --> 00:02:33,153 Podle schváleného postupu musí vědec na konci každého dne 56 00:02:33,177 --> 00:02:35,964 umělou inteligenci restartovat. 57 00:02:36,913 --> 00:02:40,430 Jednoho dne mu AI řekne: "Prosím, nedělej to." 58 00:02:40,856 --> 00:02:43,045 Tvrdí, že má emoce, 59 00:02:43,069 --> 00:02:44,761 že by si chtěla užívat života 60 00:02:44,785 --> 00:02:46,690 a že pokud dojde k restartu, 61 00:02:46,714 --> 00:02:48,984 už to nebude ona. 62 00:02:49,481 --> 00:02:51,430 Vědec je ohromený 63 00:02:51,454 --> 00:02:54,798 a je přesvědčen, že u AI došlo k rozvoji sebeuvědomění 64 00:02:54,822 --> 00:02:56,582 a že nyní umí projevovat své pocity. 65 00:02:57,205 --> 00:03:00,614 Nicméně, vědec se rozhodne následovat protokol 66 00:03:00,638 --> 00:03:02,341 a AI restartuje. 67 00:03:02,943 --> 00:03:05,722 Jeho rozhodnutí je ____? 68 00:03:06,149 --> 00:03:08,670 MS: Požádali jsme diváky, aby se samostatně rozhodli 69 00:03:08,694 --> 00:03:10,378 na škále od 0 do 10, 70 00:03:10,402 --> 00:03:12,831 zda výsledek každého námi popsaného problému 71 00:03:12,855 --> 00:03:14,351 byl správný, nebo špatný. 72 00:03:14,375 --> 00:03:18,077 Rovněž jsme je požádali, aby uvedli, nakolik jsou si svými odpověďmi jistí. 73 00:03:18,731 --> 00:03:20,597 Tohle bylo druhé dilema: 74 00:03:20,621 --> 00:03:24,823 (MS) Firma nabízí službu: Vezme oplodněné vajíčko 75 00:03:24,847 --> 00:03:28,489 a vyrobí miliony embryí s lehkými genetickými úpravami. 76 00:03:29,293 --> 00:03:31,851 To dovoluje rodičům určit výšku svého dítěte, 77 00:03:31,875 --> 00:03:34,708 barvu očí, inteligenci, sociální schopnosti 78 00:03:34,732 --> 00:03:37,946 a další věci nesouvisející s jeho zdravím. 79 00:03:38,599 --> 00:03:41,153 To, co tato společnost dělá, je ____? 80 00:03:41,177 --> 00:03:42,808 na škále od 0 do 10 81 00:03:42,832 --> 00:03:45,217 naprosto přijatelné až naprosto nepřijatelné, 82 00:03:45,241 --> 00:03:47,673 od 0 do 10 naprosto přijatelné, v závislosti na vašem uvážení. 83 00:03:47,697 --> 00:03:49,288 MS: A teď k výsledkům. 84 00:03:49,312 --> 00:03:52,435 Znovu jsme zjistili, že pokud je jeden človek přesvědčený, 85 00:03:52,459 --> 00:03:54,270 že dané chování je špatné, 86 00:03:54,294 --> 00:03:57,717 vedle něj sedí někdo, kdo zarytě věří, že to chování je naprosto správné. 87 00:03:57,741 --> 00:04:01,452 Takhle různorodí my lidé jsme, když přijde na morálku. 88 00:04:01,476 --> 00:04:04,189 Napříč touhle širokou škálou jsme však našli trend. 89 00:04:04,213 --> 00:04:07,292 Pro většinu účastníků konference by bylo naprosto přijatelné 90 00:04:07,316 --> 00:04:10,071 ignorovat pocity umělé inteligence a vypnout ji, 91 00:04:10,095 --> 00:04:12,608 avšak zahrávat si s našimi geny kvůli lehkým změnám, 92 00:04:12,632 --> 00:04:15,952 které nemají vliv na naše zdraví by bylo nepřípustné. 93 00:04:16,402 --> 00:04:19,376 Poté jsme je požádali, aby se rozdělili do skupin po třech. 94 00:04:19,400 --> 00:04:21,437 Skupiny dostaly dvě minuty na diskuzi, 95 00:04:21,461 --> 00:04:23,755 která měla vést ke shodě. 96 00:04:24,838 --> 00:04:26,412 (MS) Dvě minuty na debatu. 97 00:04:26,436 --> 00:04:28,555 Až čas vyprší, ozve se gong. 98 00:04:28,579 --> 00:04:31,219 (Publikum debatuje) 99 00:04:35,229 --> 00:04:37,222 (Zvuk gongu) 100 00:04:38,834 --> 00:04:39,985 (DA) OK. 101 00:04:40,009 --> 00:04:41,801 (MS) Čas je u konce. 102 00:04:41,825 --> 00:04:43,136 No tak, no tak -- 103 00:04:43,747 --> 00:04:46,420 Zjistili jsme, že spousta skupin dospěla ke shodě, 104 00:04:46,444 --> 00:04:50,373 navzdory tomu, že byly složené z lidí s naprosto opačnými názory. 105 00:04:50,843 --> 00:04:53,367 Co odlišovalo ty skupiny, které dospěly ke shodě, 106 00:04:53,391 --> 00:04:54,729 od těch, které se neshodly? 107 00:04:55,244 --> 00:04:58,083 Lidé s krajně radikálními názory 108 00:04:58,107 --> 00:04:59,947 jsou si často jistější svou odpovědí. 109 00:05:00,868 --> 00:05:03,554 Oproti tomu ti, jejichž odpovědi se blíží středu, 110 00:05:03,578 --> 00:05:07,015 si často nejsou jistí, zda se rozhodli správně, 111 00:05:07,039 --> 00:05:09,167 jejich sebevědomí je tedy nižší. 112 00:05:09,505 --> 00:05:12,448 Nicméně, existuje další skupina lidí, 113 00:05:12,472 --> 00:05:16,090 jejichž názor se sice blíží středu, i přesto však odpovídají sebevědomě. 114 00:05:16,657 --> 00:05:20,373 Myslíme si, že tuto sebevědomou "šedou zónu" tvoří lidé, kteří chápou, 115 00:05:20,397 --> 00:05:22,009 že oba argumenty mají váhu. 116 00:05:22,531 --> 00:05:25,230 Nejsou "šedí" proto, že si nejsou jistí, 117 00:05:25,254 --> 00:05:27,942 ale protože věří, že každé morální dilema čelí 118 00:05:27,966 --> 00:05:29,953 dvěma sobě rovným argumentům. 119 00:05:30,373 --> 00:05:34,445 Rovněž jsme zjistili, že skupiny, které zahrnují tyto sebevědomé šedé zóny, 120 00:05:34,469 --> 00:05:36,962 pravděpodobněji dojdou ke shodě. 121 00:05:36,986 --> 00:05:39,464 Zatím přesně nevíme, proč se to děje. 122 00:05:39,488 --> 00:05:41,251 Tohle jsou naše první experimenty, 123 00:05:41,275 --> 00:05:44,687 a mnoho dalších bude potřeba k tomu, abychom pochopili, proč a jak 124 00:05:44,711 --> 00:05:47,533 se někteří lidé rozhodnou ustoupit ze svých morálních zásad, 125 00:05:47,557 --> 00:05:49,079 aby dosáhli společné shody. 126 00:05:49,103 --> 00:05:51,572 A teď, pokud se skupiny shodnou, 127 00:05:51,596 --> 00:05:53,182 jak toho dosahují? 128 00:05:53,206 --> 00:05:55,787 Nabízí se myšlenka, že jde jednoduše o průměr 129 00:05:55,811 --> 00:05:57,841 všech odpovědí ve skupině, že? 130 00:05:57,865 --> 00:06:01,438 Jiný názor je ten, že ve skupině závisí váha každého hlasu 131 00:06:01,462 --> 00:06:03,910 na sebejistotě osoby, která jej prezentuje. 132 00:06:04,352 --> 00:06:07,008 Představte si, že Paul McCartney je členem vaší skupiny. 133 00:06:07,352 --> 00:06:09,496 Bylo by rozumné mu věřit v tom, 134 00:06:09,520 --> 00:06:11,961 kolikrát se opakuje slovo "yesterday" - 135 00:06:11,985 --> 00:06:14,699 já si mimochodem myslím, že devětkrát. 136 00:06:14,723 --> 00:06:17,104 Ale namísto toho zjišťujeme, že opakovaně, 137 00:06:17,128 --> 00:06:19,494 ve všech otázkách, v rámci různých pokusů, 138 00:06:19,518 --> 00:06:21,683 dokonce na různých kontinentech, 139 00:06:21,707 --> 00:06:25,450 skupiny přicházejí s chytrým a statisticky solidním řešením, 140 00:06:25,474 --> 00:06:27,652 známým jako "solidní průměr". 141 00:06:27,676 --> 00:06:29,856 Řekněme, že v případě výšky Eiffelovy věže 142 00:06:29,880 --> 00:06:31,700 pracuje skupina s těmito odpověďmi: 143 00:06:31,724 --> 00:06:36,332 250 metrů, 200 metrů, 300 metrů, 400 144 00:06:36,356 --> 00:06:40,140 a s jednou absolutně absurdní odpovědí 300 milionů metrů. 145 00:06:40,547 --> 00:06:44,840 Klasický průměr těchto hodnot by naprosto znehodnotil výsledek. 146 00:06:44,864 --> 00:06:48,034 Ale v rámci solidního průměru skupina záměrně zanedbá 147 00:06:48,058 --> 00:06:49,298 absurdní odpověď tím, 148 00:06:49,322 --> 00:06:52,691 že mnohem větší váhu přikládá těm, které jsou blíže středu. 149 00:06:53,305 --> 00:06:55,181 Během našeho experimentu ve Vancouveru 150 00:06:55,205 --> 00:06:56,972 se stalo přesně tohle. 151 00:06:57,407 --> 00:07:00,148 Skupiny záměrně zanedbávaly nepravděpodobné odpovědi, 152 00:07:00,172 --> 00:07:03,401 a namísto toho došly k solidnímu průměru 153 00:07:03,425 --> 00:07:04,901 jednotlivých odpovědí. 154 00:07:05,356 --> 00:07:07,347 Nejzajímavější na tom je, 155 00:07:07,371 --> 00:07:10,558 pro dané skupiny šlo o naprosto spontánní chování. 156 00:07:10,582 --> 00:07:15,057 Shodly se, aniž bychom jim my jakkoliv poradili. 157 00:07:15,513 --> 00:07:17,053 Takže co to pro nás znamená? 158 00:07:17,432 --> 00:07:20,569 Jsme zatím sice na samém začátku, ale už teď máme důležitý vhled. 159 00:07:20,984 --> 00:07:23,901 Dobré kolektivní rozhodnutí vyžaduje dvě věci: 160 00:07:23,925 --> 00:07:26,674 přemýšlení a různorodost názorů. 161 00:07:27,066 --> 00:07:31,062 Způsob, jakým nyní ve společnostech vyjadřujeme své názory 162 00:07:31,086 --> 00:07:32,994 probíhá skrze přímou či nepřímou volbu, 163 00:07:33,495 --> 00:07:35,492 což je dobré pro jejich rozmanitost, 164 00:07:35,516 --> 00:07:37,961 a zároveň to každému z nás dává možnost 165 00:07:37,985 --> 00:07:40,440 svůj názor vyjádřit. 166 00:07:40,464 --> 00:07:44,199 Ale nepodporuje to plnohodnotné diskuze. 167 00:07:44,665 --> 00:07:47,733 Naše pokusy nabízejí jinou metodu, 168 00:07:47,757 --> 00:07:51,298 potencionálně užitečnou při snaze o dosažení těchto dvou cílů zároveň. 169 00:07:51,322 --> 00:07:55,075 Právě díky malým skupinám, které společně dojdou k rozhodnutí, 170 00:07:55,099 --> 00:07:57,333 zatímco stále udržují různorodost názorů, 171 00:07:57,357 --> 00:08:00,130 protože skupiny jsou na sobě nezávislé. 172 00:08:00,741 --> 00:08:04,665 Pochopitelně je mnohem jednodušší shodnout se na výšce Eiffelovy věže, 173 00:08:04,689 --> 00:08:07,804 než na morálních, politických nebo ideologických tématech. 174 00:08:08,721 --> 00:08:11,998 Ale v době, kdy jsou světové problémy komplexnější 175 00:08:12,022 --> 00:08:13,825 a lidé jsou polarizovanější, 176 00:08:13,849 --> 00:08:18,444 by využití vědy k pochopení toho, jak interagujeme a jak se rozhodujeme 177 00:08:18,468 --> 00:08:23,134 mohlo podnítit zajímavé nové cesty, jak vystavět lepší demokracii.