0:00:00.554,0:00:03.017 Ve společnostech se musíme [br]kolektivně rozhodovat, 0:00:03.021,0:00:04.591 a utvářet tak svou budoucnost. 0:00:05.087,0:00:07.708 Všichni víme, že když[br]se rozhodujeme ve skupinách, 0:00:07.708,0:00:09.506 ne vždy to dobře dopadne. 0:00:09.530,0:00:11.486 A občas to dopadne vážně špatně. 0:00:12.315,0:00:14.739 Jak se tedy skupiny rozhodují správně? 0:00:15.228,0:00:19.556 Výzkumy prokázaly, že davy jsou moudré,[br]pokud v nich jedinci přemýšlejí nezávisle. 0:00:19.580,0:00:22.785 To je důvod, proč může moudrost davu[br]zničit společenský tlak, 0:00:22.809,0:00:24.496 veřejná pozornost, sociální média 0:00:24.520,0:00:28.559 nebo jen obyčejné rozhovory,[br]které ovlivňují uvažování jednotlivců. 0:00:29.063,0:00:33.016 Na druhou stranu, díky komunikaci[br]si skupiny předávají znalosti, 0:00:33.040,0:00:34.822 opravují se a ověřují správnost 0:00:34.846,0:00:36.639 a přicházejí dokonce s novými nápady. 0:00:36.663,0:00:37.959 Což je vše dobře. 0:00:38.502,0:00:43.168 Je tedy konverzace při společném [br]rozhodování spíš k užitku, nebo na škodu? 0:00:43.749,0:00:45.542 S mým kolegou Danem Arielym 0:00:45.566,0:00:49.137 jsme tento problém nedávno začali [br]zkoumat skrze experimenty 0:00:49.161,0:00:51.422 po celém světě, abychom zjistili, 0:00:51.422,0:00:55.240 jak mohou skupiny interagovat[br]a díky tomu se lépe rozhodovat. 0:00:55.264,0:00:58.811 Mysleli jsme si, že bude lepší,[br]budou-li diskutovat v malých skupinách, 0:00:58.835,0:01:02.762 ve kterých může probíhat[br]hlubší a hodnotnější výměna informací. 0:01:03.386,0:01:04.592 Abychom nápad ověřili, 0:01:04.616,0:01:07.863 provedli jsme nedávno[br]v argentinském Buenos Aires pokus 0:01:07.887,0:01:10.892 s více než 10 000 účastníky[br]konference TEDx. 0:01:11.489,0:01:12.948 Ptali jsme se otázky jako: 0:01:12.972,0:01:14.925 „Jak vysoká je Eiffelova věž?" 0:01:14.949,0:01:17.676 a „Kolikrát se slovo ,yesterday' objeví 0:01:17.700,0:01:20.000 v písni ,Yesterday' od Beatles?" 0:01:20.024,0:01:22.315 Každý člověk vypsal své odpovědi. 0:01:22.774,0:01:25.270 Poté jsme dav rozdělili[br]do skupin po pěti, 0:01:25.294,0:01:28.020 které jsme vyzvali, [br]aby daly dohromady společnou odpověď. 0:01:28.499,0:01:31.492 Zjistili jsme, že průměrné[br]odpovědi všech skupin poté, 0:01:31.516,0:01:33.068 co se jejich členové shodli, 0:01:33.092,0:01:37.328 byly mnohem přesnější, než [br]průměr individuálních odpovědí 0:01:37.352,0:01:38.523 před debatou. 0:01:38.547,0:01:41.176 Jinak řečeno, na základě pokusu se zdá, 0:01:41.200,0:01:44.336 že pokud spolu lidé diskutují[br]v rámci menších skupin, 0:01:44.360,0:01:47.070 dovedou se následně [br]lépe rozhodovat jako masa. 0:01:47.094,0:01:50.618 Takže to je potenciálně užitečný způsob,[br]jak přimět davy k řešení otázek 0:01:50.642,0:01:53.629 na které se dá snadno [br]odpovědět "správně/špatně". 0:01:53.653,0:01:57.604 Ale může nám proces sdružování [br]výsledků menších skupin 0:01:57.628,0:02:00.750 pomoci i s řešením [br]společenských a politických témat, 0:02:00.774,0:02:02.465 zásadních pro naši budoucnost? 0:02:02.995,0:02:05.724 To jsme se rozhodli prověřit[br]na TED konferenci 0:02:05.748,0:02:07.291 v kanadském Vancouveru, 0:02:07.315,0:02:08.522 a takhle to dopadlo. 0:02:08.546,0:02:11.655 (Mariano Singman) Postavíme před vás[br]dvě morální dilemata 0:02:11.679,0:02:12.853 vašich budoucích "já"; 0:02:12.877,0:02:16.279 věci, které budeme muset vyřešit[br]ve velmi blízké budoucnosti. 0:02:16.303,0:02:20.229 Na oba problémy vám dáme[br]20 sekund, během kterých 0:02:20.253,0:02:22.976 se rozhodnete, zda jsou [br]v pořádku, nebo ne. 0:02:23.354,0:02:24.859 MS: První z nich byl tento: 0:02:24.883,0:02:27.409 (Dan Ariely) Vědec[br]vyvíjí umělou inteligenci (AI), 0:02:27.433,0:02:29.773 která je schopná napodobit lidské myšlení. 0:02:30.214,0:02:33.153 Podle schváleného postupu[br]musí vědec na konci každého dne 0:02:33.177,0:02:35.964 umělou inteligenci restartovat. 0:02:36.913,0:02:40.430 Jednoho dne mu AI řekne: "Prosím,[br]nedělej to." 0:02:40.856,0:02:43.045 Tvrdí, že má emoce, 0:02:43.069,0:02:44.761 že by si chtěla užívat života 0:02:44.785,0:02:46.690 a že pokud dojde k restartu, 0:02:46.714,0:02:48.984 už to nebude ona. 0:02:49.481,0:02:51.430 Vědec je ohromený 0:02:51.454,0:02:54.798 a je přesvědčen, že u AI [br]došlo k rozvoji sebeuvědomění 0:02:54.822,0:02:56.582 a že nyní umí projevovat své pocity. 0:02:57.205,0:03:00.614 Nicméně, vědec se rozhodne[br]následovat protokol 0:03:00.638,0:03:02.341 a AI restartuje. 0:03:02.943,0:03:05.722 Jeho rozhodnutí je ____? 0:03:06.149,0:03:08.670 MS: Požádali jsme diváky,[br]aby se samostatně rozhodli 0:03:08.694,0:03:10.378 na škále od 0 do 10, 0:03:10.402,0:03:12.831 zda výsledek každého [br]námi popsaného problému 0:03:12.855,0:03:14.351 byl správný, nebo špatný. 0:03:14.375,0:03:18.077 Rovněž jsme je požádali, aby uvedli,[br]nakolik jsou si svými odpověďmi jistí. 0:03:18.731,0:03:20.597 Tohle bylo druhé dilema: 0:03:20.621,0:03:24.823 (MS) Firma nabízí službu: [br]Vezme oplodněné vajíčko 0:03:24.847,0:03:28.489 a vyrobí miliony embryí[br]s lehkými genetickými úpravami. 0:03:29.293,0:03:31.851 To dovoluje rodičům[br]určit výšku svého dítěte, 0:03:31.875,0:03:34.708 barvu očí, inteligenci, [br]sociální schopnosti 0:03:34.732,0:03:37.946 a další věci nesouvisející s jeho zdravím. 0:03:38.599,0:03:41.153 To, co tato společnost dělá, je ____? 0:03:41.177,0:03:42.808 na škále od 0 do 10 0:03:42.832,0:03:45.217 naprosto přijatelné [br]až naprosto nepřijatelné, 0:03:45.241,0:03:47.673 od 0 do 10 naprosto přijatelné,[br]v závislosti na vašem uvážení. 0:03:47.697,0:03:49.288 MS: A teď k výsledkům. 0:03:49.312,0:03:52.435 Znovu jsme zjistili,[br]že pokud je jeden človek přesvědčený, 0:03:52.459,0:03:54.270 že dané chování je špatné, 0:03:54.294,0:03:57.717 vedle něj sedí někdo, kdo zarytě věří,[br]že to chování je naprosto správné. 0:03:57.741,0:04:01.452 Takhle různorodí my lidé jsme,[br]když přijde na morálku. 0:04:01.476,0:04:04.189 Napříč touhle širokou škálou[br]jsme však našli trend. 0:04:04.213,0:04:07.292 Pro většinu účastníků konference[br]by bylo naprosto přijatelné 0:04:07.316,0:04:10.071 ignorovat pocity umělé inteligence[br]a vypnout ji, 0:04:10.095,0:04:12.608 avšak zahrávat si s našimi [br]geny kvůli lehkým změnám, 0:04:12.632,0:04:15.952 které nemají vliv na naše zdraví[br]by bylo nepřípustné. 0:04:16.402,0:04:19.376 Poté jsme je požádali, [br]aby se rozdělili do skupin po třech. 0:04:19.400,0:04:21.437 Skupiny dostaly dvě minuty na diskuzi, 0:04:21.461,0:04:23.755 která měla vést ke shodě. 0:04:24.838,0:04:26.412 (MS) Dvě minuty na debatu. 0:04:26.436,0:04:28.555 Až čas vyprší, [br]ozve se gong. 0:04:28.579,0:04:31.219 (Publikum debatuje) 0:04:35.229,0:04:37.222 (Zvuk gongu) 0:04:38.834,0:04:39.985 (DA) OK. 0:04:40.009,0:04:41.801 (MS) Čas je u konce. 0:04:41.825,0:04:43.136 No tak, no tak -- 0:04:43.747,0:04:46.420 Zjistili jsme, že spousta skupin[br]dospěla ke shodě, 0:04:46.444,0:04:50.373 navzdory tomu, že byly složené z lidí[br]s naprosto opačnými názory. 0:04:50.843,0:04:53.367 Co odlišovalo ty skupiny,[br]které dospěly ke shodě, 0:04:53.391,0:04:54.729 od těch, které se neshodly? 0:04:55.244,0:04:58.083 Lidé s krajně [br]radikálními názory 0:04:58.107,0:04:59.947 jsou si často jistější svou odpovědí. 0:05:00.868,0:05:03.554 Oproti tomu ti, jejichž odpovědi[br]se blíží středu, 0:05:03.578,0:05:07.015 si často nejsou jistí,[br]zda se rozhodli správně, 0:05:07.039,0:05:09.167 jejich sebevědomí je tedy nižší. 0:05:09.505,0:05:12.448 Nicméně, existuje další skupina lidí, 0:05:12.472,0:05:16.090 jejichž názor se sice blíží středu, [br]i přesto však odpovídají sebevědomě. 0:05:16.657,0:05:20.373 Myslíme si, že tuto sebevědomou [br]"šedou zónu" tvoří lidé, kteří chápou, 0:05:20.397,0:05:22.009 že oba argumenty mají váhu. 0:05:22.531,0:05:25.230 Nejsou "šedí" proto, že si nejsou jistí, 0:05:25.254,0:05:27.942 ale protože věří, [br]že každé morální dilema čelí 0:05:27.966,0:05:29.953 dvěma sobě rovným argumentům. 0:05:30.373,0:05:34.445 Rovněž jsme zjistili, že skupiny,[br]které zahrnují tyto sebevědomé šedé zóny, 0:05:34.469,0:05:36.962 pravděpodobněji dojdou ke shodě. 0:05:36.986,0:05:39.464 Zatím přesně nevíme, proč se to děje. 0:05:39.488,0:05:41.251 Tohle jsou naše první experimenty, 0:05:41.275,0:05:44.687 a mnoho dalších bude potřeba k tomu, [br]abychom pochopili, proč a jak 0:05:44.711,0:05:47.533 se někteří lidé rozhodnou ustoupit[br]ze svých morálních zásad, 0:05:47.557,0:05:49.079 aby dosáhli společné shody. 0:05:49.103,0:05:51.572 A teď, pokud se skupiny shodnou, 0:05:51.596,0:05:53.182 jak toho dosahují? 0:05:53.206,0:05:55.787 Nabízí se myšlenka,[br]že jde jednoduše o průměr 0:05:55.811,0:05:57.841 všech odpovědí ve skupině, že? 0:05:57.865,0:06:01.438 Jiný názor je ten, že ve skupině[br]závisí váha každého hlasu 0:06:01.462,0:06:03.910 na sebejistotě osoby, [br]která jej prezentuje. 0:06:04.352,0:06:07.008 Představte si, že Paul McCartney[br]je členem vaší skupiny. 0:06:07.352,0:06:09.496 Bylo by rozumné mu věřit v tom, 0:06:09.520,0:06:11.961 kolikrát se opakuje [br]slovo "yesterday" - 0:06:11.985,0:06:14.699 já si mimochodem myslím, že devětkrát. 0:06:14.723,0:06:17.104 Ale namísto toho zjišťujeme, že opakovaně, 0:06:17.128,0:06:19.494 ve všech otázkách, [br]v rámci různých pokusů, 0:06:19.518,0:06:21.683 dokonce na různých kontinentech, 0:06:21.707,0:06:25.450 skupiny přicházejí s chytrým[br]a statisticky solidním řešením, 0:06:25.474,0:06:27.652 známým jako "solidní průměr". 0:06:27.676,0:06:29.856 Řekněme, že v případě[br]výšky Eiffelovy věže 0:06:29.880,0:06:31.700 pracuje skupina s těmito odpověďmi: 0:06:31.724,0:06:36.332 250 metrů, 200 metrů, 300 metrů, 400 0:06:36.356,0:06:40.140 a s jednou absolutně absurdní odpovědí[br]300 milionů metrů. 0:06:40.547,0:06:44.840 Klasický průměr těchto hodnot[br]by naprosto znehodnotil výsledek. 0:06:44.864,0:06:48.034 Ale v rámci solidního průměru[br]skupina záměrně zanedbá 0:06:48.058,0:06:49.298 absurdní odpověď tím, 0:06:49.322,0:06:52.691 že mnohem větší váhu[br]přikládá těm, které jsou blíže středu. 0:06:53.305,0:06:55.181 Během našeho experimentu ve Vancouveru 0:06:55.205,0:06:56.972 se stalo přesně tohle. 0:06:57.407,0:07:00.148 Skupiny záměrně zanedbávaly[br]nepravděpodobné odpovědi, 0:07:00.172,0:07:03.401 a namísto toho došly [br]k solidnímu průměru 0:07:03.425,0:07:04.901 jednotlivých odpovědí. 0:07:05.356,0:07:07.347 Nejzajímavější na tom je, 0:07:07.371,0:07:10.558 pro dané skupiny šlo o naprosto[br]spontánní chování. 0:07:10.582,0:07:15.057 Shodly se, aniž bychom jim [br]my jakkoliv poradili. 0:07:15.513,0:07:17.053 Takže co to pro nás znamená? 0:07:17.432,0:07:20.569 Jsme zatím sice na samém začátku,[br]ale už teď máme důležitý vhled. 0:07:20.984,0:07:23.901 Dobré kolektivní rozhodnutí[br]vyžaduje dvě věci: 0:07:23.925,0:07:26.674 přemýšlení a různorodost názorů. 0:07:27.066,0:07:31.062 Způsob, jakým nyní ve společnostech[br]vyjadřujeme své názory 0:07:31.086,0:07:32.994 probíhá skrze přímou či nepřímou volbu, 0:07:33.495,0:07:35.492 což je dobré pro jejich rozmanitost, 0:07:35.516,0:07:37.961 a zároveň to každému z nás dává možnost 0:07:37.985,0:07:40.440 svůj názor vyjádřit. 0:07:40.464,0:07:44.199 Ale nepodporuje to[br]plnohodnotné diskuze. 0:07:44.665,0:07:47.733 Naše pokusy nabízejí jinou metodu, 0:07:47.757,0:07:51.298 potencionálně užitečnou při snaze [br]o dosažení těchto dvou cílů zároveň. 0:07:51.322,0:07:55.075 Právě díky malým skupinám, [br]které společně dojdou k rozhodnutí, 0:07:55.099,0:07:57.333 zatímco stále udržují[br]různorodost názorů, 0:07:57.357,0:08:00.130 protože skupiny jsou na sobě nezávislé. 0:08:00.741,0:08:04.665 Pochopitelně je mnohem jednodušší[br]shodnout se na výšce Eiffelovy věže, 0:08:04.689,0:08:07.804 než na morálních, politických[br]nebo ideologických tématech. 0:08:08.721,0:08:11.998 Ale v době, kdy[br]jsou světové problémy komplexnější 0:08:12.022,0:08:13.825 a lidé jsou polarizovanější, 0:08:13.849,0:08:18.444 by využití vědy k pochopení toho,[br]jak interagujeme a jak se rozhodujeme 0:08:18.468,0:08:23.134 mohlo podnítit zajímavé nové cesty,[br]jak vystavět lepší demokracii.