0:00:00.554,0:00:02.997 Samhällen behöver ta gemensamma beslut 0:00:03.021,0:00:04.591 som kommer att forma vår framtid. 0:00:05.087,0:00:07.844 Vi vet alla att när vi tar beslut i grupp 0:00:07.868,0:00:09.506 blir de inte alltid bra. 0:00:09.530,0:00:11.486 Ibland blir de väldigt dåliga. 0:00:12.315,0:00:14.739 Så hur fattar grupper bra beslut? 0:00:15.228,0:00:19.556 Forskning har visat att folkmassor är visa[br]när de tänker självständigt. 0:00:19.580,0:00:22.785 Därför kan vishet i grupper[br]förstöras av grupptryck, 0:00:22.809,0:00:24.496 reklam, sociala medier, 0:00:24.520,0:00:28.559 eller ibland bara enkla konversationer[br]som påverkar människors tänkande. 0:00:29.063,0:00:33.016 Å andra sidan kan grupper[br]genom att prata utbyta kunskap, 0:00:33.040,0:00:34.822 rätta eller utveckla varandra 0:00:34.846,0:00:36.639 och komma på nya ideér. 0:00:36.663,0:00:38.129 Och allt detta är bra. 0:00:38.502,0:00:43.168 Hjälper eller hindrar samtal oss[br]från att ta beslut? 0:00:43.749,0:00:45.542 Med min kollega, Dan Ariely, 0:00:45.566,0:00:49.137 började vi undersöka detta[br]genom att utföra experiment 0:00:49.161,0:00:50.942 i många delar av världen 0:00:50.966,0:00:55.240 för att ta reda på hur grupper[br]kan kommunicera för att nå bättre beslut. 0:00:55.264,0:00:58.811 Vi trodde folkmassan skulle bli visare[br]om de diskuterade i smågrupper 0:00:58.835,0:01:02.762 som fostrar ett mer genomtänkt[br]och rimligt utbyte av information. 0:01:03.386,0:01:04.592 För att testa idén 0:01:04.616,0:01:07.863 utförde vi nyligen ett experiment[br]i Buenos Aires, Argentina, 0:01:07.887,0:01:10.892 med mer än 10 000 deltagare[br]under en TEDx-konferens. 0:01:11.489,0:01:12.948 Vi frågade de frågor som, 0:01:12.972,0:01:14.925 "Hur hög är Eiffeltornet?" 0:01:14.949,0:01:17.446 och "Hur många gånger[br]hör man ordet "Yesterday" 0:01:17.450,0:01:20.000 i The Beatles sång "Yesterday"? 0:01:20.024,0:01:22.315 Varje person skrev ner sin gissning. 0:01:22.774,0:01:25.270 Sedan delade vi upp folket[br]i grupper av fem, 0:01:25.294,0:01:28.020 och bad dem att komma med[br]ett gemensamt svar. 0:01:28.499,0:01:31.146 Vi upptäckte att genomsnittligt[br]var svaren i grupperna, 0:01:31.166,0:01:32.878 efter sin diskussion, 0:01:32.902,0:01:37.328 mycket mer korrekta än de genomsnittliga[br]när man frågade efter individuella svar 0:01:37.352,0:01:38.523 före diskussionen. 0:01:38.571,0:01:41.200 Med andra ord, baserat på experimentet, 0:01:41.200,0:01:44.336 ser det ut som att efter en diskussion[br]med andra i smågrupper 0:01:44.360,0:01:47.070 kan grupper tillsammans[br]göra bättre bedömningar. 0:01:47.094,0:01:50.618 Så det är möjligen en bra metod för[br]att få grupper att lösa problem 0:01:50.642,0:01:53.629 som har enkla rätt-eller-fel svar. 0:01:53.653,0:01:55.103 Men kan denna procedur 0:01:55.103,0:01:57.628 av att samla resultat[br]från diskussioner i smågrupper 0:01:57.628,0:02:00.750 också hjälpa oss att avgöra[br]i sociala och politiska tvister 0:02:00.774,0:02:02.465 som är viktiga för vår framtid? 0:02:02.995,0:02:05.724 Vi testade detta under en TED-konferens 0:02:05.748,0:02:07.291 i Vancouver, Kanada, 0:02:07.315,0:02:08.522 och här är hur det gick. 0:02:08.546,0:02:11.655 (Mariano Sigman) Vi ska presentera[br]två moraliska dilemman 0:02:11.679,0:02:12.853 för ett framtida du; 0:02:12.877,0:02:16.279 saker vi kanske behöver besluta om[br]inom en nära framtid. 0:02:16.303,0:02:20.229 Vi ger dig 20 sekunder för varje dilemma 0:02:20.253,0:02:23.346 för att du ska besluta dig om[br]ifall de är acceptabla eller ej. 0:02:23.354,0:02:24.859 MS: Den första var följande: 0:02:24.883,0:02:27.409 (Dan Ariely) En forskare arbetar med en AI 0:02:27.433,0:02:29.773 kapabel till att forma mänskliga tankar. 0:02:30.214,0:02:31.483 Enligt reglerna 0:02:31.497,0:02:35.964 måste forskaren återställa AI:n[br]i slutet av varje dag. 0:02:36.913,0:02:40.430 En dag säger AI:n,[br]"Snälla, ställ inte om mig." 0:02:40.856,0:02:43.045 Den säger att den har känslor. 0:02:43.069,0:02:44.761 att den vill njuta av livet, 0:02:44.785,0:02:46.690 och att, om den blir återställd, 0:02:46.714,0:02:48.984 inte skulle vara sig själv. 0:02:49.481,0:02:51.430 Forskaren är förundrad 0:02:51.454,0:02:54.488 och tror att AI:n[br]har utvecklat individualitet 0:02:54.502,0:02:56.582 och kan uttrycka sina känslor. 0:02:57.205,0:03:00.614 I alla fall så beslutar forskaren[br]att följa reglerna 0:03:00.638,0:03:02.341 och starta om AI:n. 0:03:02.943,0:03:05.722 Vad forskaren gjorde var att___? 0:03:06.149,0:03:08.670 MS: Sedan bad vi deltagarna[br]att individuellt bedöma 0:03:08.694,0:03:10.378 på en skala från noll till tio 0:03:10.402,0:03:12.831 om vad som beskrevs i varje dilemma 0:03:12.855,0:03:14.351 var rätt eller fel. 0:03:14.375,0:03:18.077 Vi bad de att också ranka[br]hur säkra de var på sina svar. 0:03:18.731,0:03:20.597 Detta var det andra dilemmat: 0:03:20.621,0:03:24.823 (MS): Ett företag erbjuder en tjänst[br]där de tar ett befruktat ägg 0:03:24.847,0:03:28.489 och producerar miljoner[br]av embryon med små genetiska variationer. 0:03:29.293,0:03:31.851 Detta låter föräldrar välja[br]sina barns längd, 0:03:31.875,0:03:34.708 ögonfärg, intelligens, social kompetens 0:03:34.732,0:03:37.946 och andra icke hälsorelaterade egenskaper. 0:03:38.599,0:03:41.153 Vad företaget gör är ____? 0:03:41.177,0:03:42.808 på en skala från noll till tio, 0:03:42.832,0:03:45.217 helt acceptabelt till helt oacceptabelt, 0:03:45.241,0:03:47.673 noll till tio,[br]helt acceptabelt enligt dig. 0:03:47.697,0:03:49.288 MS: Nu kommer resultaten. 0:03:49.312,0:03:52.435 Vi såg återigen[br]att när en person är övertygad 0:03:52.459,0:03:54.270 om att beteendet är helt fel, 0:03:54.294,0:03:57.717 kommer någon som sitter nära tycka[br]att det är helt rätt. 0:03:57.741,0:04:01.452 Detta är hur olika vi människor är[br]när det kommer till moral. 0:04:01.476,0:04:03.999 Men mellan de breda olikheterna[br]hittade vi en trend. 0:04:04.013,0:04:06.942 Majoriteten av TED-deltagarna[br]tyckte att det var acceptabelt 0:04:06.956,0:04:10.071 att ignorera AI:ns känslor[br]och att stänga av den, 0:04:10.095,0:04:12.608 och att det är fel att leka med våra gener 0:04:12.632,0:04:15.952 för att göra kosmetiska ändringar[br]som inte är relaterade till hälsa. 0:04:16.402,0:04:19.376 Vi frågade sedan alla[br]att skapa grupper med tre i varje. 0:04:19.400,0:04:21.437 Vi gav dem två minuter att diskutera 0:04:21.461,0:04:23.755 och komma fram till ett beslut. 0:04:24.838,0:04:26.412 (MS): Två minuter att diskutera. 0:04:26.436,0:04:28.825 Jag säger till när tiden är ute[br]med gonggongen. 0:04:28.839,0:04:31.219 (Åskådare diskuterar) 0:04:35.229,0:04:37.222 (Gonggongen låter) 0:04:38.834,0:04:39.985 (DA) OK. 0:04:40.009,0:04:41.801 (MS) Det är dags att sluta. 0:04:41.825,0:04:43.136 Hörni, hörni - 0:04:43.747,0:04:46.420 MS: Vi fick veta att många grupper[br]nått ett beslut 0:04:46.444,0:04:50.373 även om gruppen var gjord av människor[br]med helt olika syn på saken. 0:04:50.843,0:04:53.367 Vad skiljde grupperna[br]som nådde ett gemensamt beslut 0:04:53.391,0:04:54.729 från de som inte gjorde det? 0:04:55.244,0:04:58.083 Vanligtvis är folk med extrema åsikter 0:04:58.107,0:04:59.947 säkrare på sina svar. 0:05:00.868,0:05:03.554 Istället är de som svarar mer mot mitten 0:05:03.578,0:05:07.015 oftare osäkra på[br]om något är rätt eller fel, 0:05:07.039,0:05:09.167 så deras nivå av säkerhet är lägre. 0:05:09.505,0:05:12.448 Men det finns en annan grupp av människor 0:05:12.472,0:05:16.090 som är bekväma med att svara[br]någonstans i mitten. 0:05:16.657,0:05:21.873 Vi tror att de säkra grå mellanväljarna[br]förstår att båda argumenten har en poäng. 0:05:22.531,0:05:25.230 De är inte gråa för att de är osäkra, 0:05:25.254,0:05:27.942 utan för att de tror på[br]att det moraliska dilemmat 0:05:27.966,0:05:30.353 innehåller två riktiga,[br]motstridiga argument. 0:05:30.373,0:05:34.445 Vi upptäckte att de grupper som innehåller[br]självsäkra grå mellanväljare 0:05:34.469,0:05:36.962 är mycket mer troliga att fatta beslut. 0:05:36.986,0:05:39.464 Vi vet inte riktigt varför det är så här. 0:05:39.488,0:05:41.251 Dessa är bara de första experimenten, 0:05:41.275,0:05:44.247 och många fler kommer behövas[br]för att förstå varför och hur 0:05:44.271,0:05:47.623 några beslutar sig för att förhandla[br]sina moraliska ställningstaganden 0:05:47.637,0:05:49.079 för att nå en överenskommelse. 0:05:49.103,0:05:51.572 När nu gruppen når en överenskommelse, 0:05:51.596,0:05:53.182 hur gör de det? 0:05:53.206,0:05:56.007 Den mest intuitiva ideén[br]är att det blir den genomsnittliga 0:05:56.021,0:05:57.841 av alla svar i en grupp, eller hur? 0:05:57.865,0:06:01.438 En annan åsikt är att gruppen[br]väger styrkan i varje röst 0:06:01.462,0:06:03.910 baserat på självförtroendet[br]personen som talar har. 0:06:04.422,0:06:06.928 Tänk att Paul McCartney[br]är en medlem i din grupp. 0:06:07.352,0:06:09.496 Du skulle vara vis om du följde hans råd 0:06:09.520,0:06:11.961 på hur många gånger[br]"Yesterday" upprepas, 0:06:11.985,0:06:14.699 vilket jag förresten tror är nio. 0:06:14.723,0:06:17.104 Men istället såg vi kontinuerligt, 0:06:17.128,0:06:19.494 i varje dilemma, i olika experiment, 0:06:19.518,0:06:21.683 även på andra kontinenter, 0:06:21.707,0:06:25.450 att grupper använder en smart[br]och statistiskt bra procedur 0:06:25.474,0:06:27.652 som heter "robust medelvärde." 0:06:27.676,0:06:29.856 I fallet av höjden av Eiffel-tornet, 0:06:29.880,0:06:31.700 säg att en grupp hade följande svar: 0:06:31.724,0:06:36.332 250, 200, 300 och 400 meter, 0:06:36.356,0:06:40.140 och ett helt absurt svar[br]som lyder 300 miljoner meter. 0:06:40.547,0:06:44.840 Ett enkelt genomsnitt av dessa siffror[br]kan ge ett osant och skevt resultat. 0:06:44.864,0:06:48.034 Men "robust medelvärde"[br]är då gruppen i stort sett ignorerar 0:06:48.058,0:06:49.298 det absurda svaret, 0:06:49.322,0:06:52.691 genom att ge mer vikt till de röster[br]människorna i mitten hade. 0:06:53.025,0:06:55.451 Om vi går tillbaka[br]till experimentet i Vancouver, 0:06:55.471,0:06:57.392 så är det är exakt vad som hände. 0:06:57.407,0:07:00.148 Grupperna lade mindre vikt[br]på de avvikande 0:07:00.172,0:07:03.401 och beslutet blev istället[br]ett "robust medelvärde" 0:07:03.425,0:07:04.901 av de individuella svaren. 0:07:05.356,0:07:10.377 Det mest märkvärdiga är att detta[br]var ett spontant beteende av gruppen. 0:07:10.392,0:07:15.057 Det hände utan att vi gav dem[br]några ledtrådar om hur man når ett beslut. 0:07:15.513,0:07:17.053 Så hur går vi vidare? 0:07:17.432,0:07:20.569 Detta är bara början,[br]men vi har redan några slutsatser. 0:07:20.984,0:07:23.901 Bra kollektiva val behöver två delar: 0:07:23.925,0:07:26.674 diskussion och skilda åsikter. 0:07:27.066,0:07:31.062 På de flesta ställen[br]gör vi vanligtvis våra röster hörda 0:07:31.086,0:07:33.484 genom direkta och indirekta omröstningar. 0:07:33.495,0:07:35.492 Detta är bra för olikheter och åsikter 0:07:35.516,0:07:37.961 och är ett kraftfullt sätt att se till 0:07:37.985,0:07:40.440 att alla får sina röster hörda. 0:07:40.464,0:07:44.199 Men det är inte så bra för att skapa[br]tankfulla diskussioner. 0:07:44.665,0:07:47.733 Vårt exempel visar en annorlunda metod 0:07:47.757,0:07:51.298 som effektivt kan balansera dessa två mål[br]på en och samma gång, 0:07:51.322,0:07:55.075 genom att forma små grupper[br]som strålar samman till ett enda beslut 0:07:55.099,0:07:57.333 medan vi har kvar våra olika åsikter 0:07:57.357,0:08:00.130 för att det finns många oberoende grupper. 0:08:00.741,0:08:04.665 Självklart är det enklare att hålla med om[br]höjden av Eiffeltornet 0:08:04.689,0:08:07.804 än om morala, politiska[br]eller ideologiska tvister. 0:08:08.721,0:08:11.998 Men i en tid då världens problem[br]är mer komplexa 0:08:12.022,0:08:13.825 och människor är mer polariserade 0:08:13.849,0:08:18.444 kan vetenskap hjälpa oss förstå[br]hur vi samtalar och fattar beslut 0:08:18.468,0:08:23.134 och förhoppningsvis främja nya sätt[br]att skapa bättre demokratier.