1 00:00:00,344 --> 00:00:02,771 Als maatschappij nemen we collectieve beslissingen 2 00:00:02,771 --> 00:00:04,591 die onze toekomst bepalen 3 00:00:04,997 --> 00:00:07,678 en we weten allemaal dat collective beslissingen 4 00:00:07,678 --> 00:00:09,506 niet altijd goed aflopen. 5 00:00:09,530 --> 00:00:11,486 Soms gaat het zelfs helemaal fout. 6 00:00:12,255 --> 00:00:14,739 Dus hoe kunnen groepen goede beslissingen nemen? 7 00:00:15,228 --> 00:00:19,556 Uit onderzoek blijkt dat groepen wijs zijn wanneer er onafhankelijk nagedacht wordt. 8 00:00:19,580 --> 00:00:22,785 Daarom kan de groepswijsheid vernietigd worden door groepsdruk, 9 00:00:22,809 --> 00:00:24,496 publiciteit, sociale media 10 00:00:24,520 --> 00:00:28,639 of soms zelfs simpele gesprekken die iemands denken beïnvloeden. 11 00:00:29,063 --> 00:00:32,880 Aan de andere kant kan een groep door te praten kennis uitwisselen, 12 00:00:32,880 --> 00:00:34,822 elkaar verbeteren 13 00:00:34,846 --> 00:00:36,639 en zelfs nieuwe ideeën bedenken. 14 00:00:36,663 --> 00:00:37,959 En dat is allemaal goed. 15 00:00:38,502 --> 00:00:43,168 Dus is praten met elkaar goed of slecht bij het nemen van groepsbeslissingen? 16 00:00:43,669 --> 00:00:47,291 Met mijn collega, Dan Ariely, ben ik onlangs begonnen dit te onderzoeken 17 00:00:47,291 --> 00:00:50,926 door experimenten uit te voeren over de hele wereld 18 00:00:50,926 --> 00:00:55,094 om uit te dokteren hoe groepen tot betere beslissingen kunnen komen. 19 00:00:55,094 --> 00:00:58,811 We dachten dat groepen wijzer waren als ze in kleine groepjes debatteerden 20 00:00:58,835 --> 00:01:02,762 vanwege de meer doordachte uitwisseling van informatie. 21 00:01:03,386 --> 00:01:04,576 Om dit idee te testen 22 00:01:04,576 --> 00:01:07,863 voerden we onlangs een experiment uit in Buenos Aires, Argentinië, 23 00:01:07,887 --> 00:01:10,892 met meer dan tienduizend deelnemers aan een TEDx evenement. 24 00:01:11,489 --> 00:01:12,942 We stelden hen vragen zoals 25 00:01:12,942 --> 00:01:14,925 "Hoe hoog is de Eiffeltoren?" 26 00:01:14,949 --> 00:01:17,676 en "Hoe vaak hoor je het woord 'Yesterday' 27 00:01:17,700 --> 00:01:20,000 in het gelijknamige lied van de Beatles?" 28 00:01:20,024 --> 00:01:22,315 Iedereen schreef zijn of haar schatting neer. 29 00:01:22,774 --> 00:01:25,244 Dan verdeelden we de hele groep in groepjes van vijf 30 00:01:25,244 --> 00:01:28,020 en nodigden hen uit een antwoord als groep te geven. 31 00:01:28,469 --> 00:01:31,512 We ontdekten dat het gemiddelde van de antwoorden van de groepjes 32 00:01:31,516 --> 00:01:33,068 nadat er overlegd was 33 00:01:33,092 --> 00:01:37,328 veel juister was dan het gemiddelde van al de individuele schattingen 34 00:01:37,352 --> 00:01:38,523 vóór het overleg. 35 00:01:38,547 --> 00:01:41,176 Met andere woorden, volgens dit experiment 36 00:01:41,200 --> 00:01:44,336 lijkt het dat na gesprekken in kleinere groepjes 37 00:01:44,360 --> 00:01:47,070 grote groepen samen juistere oordelen vellen. 38 00:01:47,094 --> 00:01:50,618 Dus dat is mogelijk een goede methode om groepen te helpen bij problemen 39 00:01:50,642 --> 00:01:53,629 die vragen om een simpel juist-of-fout-antwoord. 40 00:01:53,653 --> 00:01:57,604 Maar kan die procedure van het samenvoegen van overleg in kleine groepjes 41 00:01:57,628 --> 00:02:00,750 ons ook helpen bij beslissingen rond sociale en politieke zaken 42 00:02:00,754 --> 00:02:02,465 die kritiek zijn voor onze toekomst? 43 00:02:02,995 --> 00:02:05,708 Dat onderzochten we op de TED conferentie 44 00:02:05,708 --> 00:02:07,291 in Vancouver, Canada, 45 00:02:07,315 --> 00:02:08,522 en het ging zo ... 46 00:02:08,546 --> 00:02:11,299 We leggen jullie twee morele dilemma's voor 47 00:02:11,299 --> 00:02:12,437 van de toekomstige jij; 48 00:02:12,437 --> 00:02:16,279 zaken waarover we misschien al in de nabije toekomst moeten beslissen. 49 00:02:16,303 --> 00:02:20,083 En we geven je 20 seconden per dilemma 50 00:02:20,083 --> 00:02:22,976 om te bepalen of je vindt dat het acceptabel is of niet. 51 00:02:23,354 --> 00:02:24,793 Dit was het eerste dilemma: 52 00:02:24,793 --> 00:02:26,963 Een onderzoeker werkt aan een AI, 53 00:02:26,963 --> 00:02:30,163 kunstmatige intelligentie die menselijke gedachten kan produceren. 54 00:02:30,164 --> 00:02:33,693 Volgens het protocol moet de wetenschapper aan het eind van elke dag 55 00:02:33,693 --> 00:02:35,964 de AI herstarten. 56 00:02:36,913 --> 00:02:40,430 Op een dag zegt de AI: "Herstart me alsjeblieft niet." 57 00:02:40,856 --> 00:02:43,039 Het beweert gevoelens te hebben 58 00:02:43,039 --> 00:02:44,761 en van het leven te willen genieten, 59 00:02:44,785 --> 00:02:46,690 en dat het na het herstarten 60 00:02:46,714 --> 00:02:48,984 niet langer zichzelf zal zijn. 61 00:02:49,481 --> 00:02:51,424 De onderzoeker is verwonderd 62 00:02:51,424 --> 00:02:54,792 en gelooft dat de AI een zelfbewustzijn heeft ontwikkeld 63 00:02:54,792 --> 00:02:56,582 en zijn eigen gevoel kan uitdrukken. 64 00:02:57,205 --> 00:03:00,614 Toch besluit de onderzoeker het protocol uit te voeren 65 00:03:00,618 --> 00:03:02,341 en de AI te herstarten. 66 00:03:02,943 --> 00:03:05,722 Wat de onderzoeker deed is ... ? 67 00:03:06,149 --> 00:03:08,670 We vroegen deelnemers individueel te beoordelen 68 00:03:08,694 --> 00:03:10,378 op een schaal van nul tot tien 69 00:03:10,402 --> 00:03:12,831 of de acties beschreven in de dilemma's 70 00:03:12,855 --> 00:03:14,351 juist of fout waren. 71 00:03:14,375 --> 00:03:18,077 We vroegen hen ook aan te geven hoe zeker ze waren van hun antwoorden. 72 00:03:18,731 --> 00:03:20,597 Dit was het tweede dilemma: 73 00:03:20,621 --> 00:03:24,823 Een bedrijf heeft als dienst een bevrucht eitje te nemen 74 00:03:24,847 --> 00:03:28,489 en miljoenen embryo's te produceren met lichte genetische variaties. 75 00:03:29,293 --> 00:03:31,851 Zo kunnen ouders de lengte, oogkleur, 76 00:03:31,875 --> 00:03:34,708 intelligentie, sociale vaardigheid 77 00:03:34,732 --> 00:03:37,946 en andere niet aan de gezondheid gerelateerde eigenschappen kiezen. 78 00:03:38,599 --> 00:03:41,153 Wat het bedrijf doet is ... ? 79 00:03:41,177 --> 00:03:42,808 Op een schaal van nul tot tien, 80 00:03:42,832 --> 00:03:46,057 volledig acceptabel tot volledig onacceptabel 81 00:03:46,057 --> 00:03:47,697 en hoe zeker ben je daarvan? 82 00:03:47,697 --> 00:03:49,288 Hier zijn de resultaten. 83 00:03:49,312 --> 00:03:52,435 Opnieuw ondervonden we dat wanneer iemand ervan overtuigd is 84 00:03:52,459 --> 00:03:54,270 dat het gedrag helemaal verkeerd is, 85 00:03:54,294 --> 00:03:57,717 iemand die vlakbij zit het juist helemaal goed vindt. 86 00:03:57,741 --> 00:04:01,452 Zo divers zijn wij mensen als het gaat om moraliteit. 87 00:04:01,476 --> 00:04:04,189 Maar we zagen wel een trend in die verscheidenheid. 88 00:04:04,213 --> 00:04:07,046 De meerderheid van de TED-bezoekers vond het acceptabel 89 00:04:07,046 --> 00:04:10,121 om de gevoelens van de AI te negeren en het uit te schakelen 90 00:04:10,121 --> 00:04:12,522 en vond dat het fout was met onze genen te spelen 91 00:04:12,522 --> 00:04:16,262 om uiterlijkheden te selecteren die niets te maken hebben met gezondheid. 92 00:04:16,382 --> 00:04:19,396 Hierna vroegen we iedereen groepjes van drie personen te vormen. 93 00:04:19,400 --> 00:04:21,437 Ze kregen twee minuten om te debatteren 94 00:04:21,461 --> 00:04:23,755 en te trachten tot een consensus te komen. 95 00:04:24,838 --> 00:04:26,412 Twee minuten voor overleg. 96 00:04:26,436 --> 00:04:28,555 De gong geeft aan wanneer de tijd om is. 97 00:04:28,579 --> 00:04:31,219 (Publiek overlegt) 98 00:04:35,229 --> 00:04:37,222 (Geluid van de gong) 99 00:04:38,834 --> 00:04:39,985 Oké. 100 00:04:40,009 --> 00:04:41,801 Tijd om te stoppen. 101 00:04:41,825 --> 00:04:43,136 Mensen, mensen -- 102 00:04:43,617 --> 00:04:46,420 En we zagen dat veel groepen een consensus bereikt hadden, 103 00:04:46,444 --> 00:04:50,373 ook al hadden de groepsleden volledig uiteenlopende visies. 104 00:04:50,843 --> 00:04:53,367 Waarin verschilden de groepen met consensus dan 105 00:04:53,391 --> 00:04:54,729 van de groepen zonder? 106 00:04:55,244 --> 00:04:58,057 Mensen met extreme meningen 107 00:04:58,057 --> 00:05:00,037 hebben meer vertrouwen in hun antwoorden. 108 00:05:00,868 --> 00:05:03,554 Degenen die meer naar het midden neigen, 109 00:05:03,578 --> 00:05:06,999 zijn vaak onzeker of iets goed of fout is, 110 00:05:06,999 --> 00:05:09,167 dus hun vertrouwen ligt lager. 111 00:05:09,505 --> 00:05:12,448 Er is echter nog een groep mensen 112 00:05:12,472 --> 00:05:16,090 die vol vertrouwen ergens in het midden antwoorden. 113 00:05:16,657 --> 00:05:20,307 Volgens ons zijn die zelfzekere grijzerds díe mensen 114 00:05:20,307 --> 00:05:22,539 die begrijpen dat beide argumenten iets hebben. 115 00:05:22,539 --> 00:05:25,230 Ze zijn niet grijs omdat ze onzeker zijn, 116 00:05:25,254 --> 00:05:27,916 maar omdat ze geloven dat het morele dilemma 117 00:05:27,916 --> 00:05:30,293 twee valide, tegengestelde argumenten confronteert. 118 00:05:30,373 --> 00:05:34,445 We ontdekten dat groepen met zelfzekere grijzerds 119 00:05:34,469 --> 00:05:36,962 veel waarschijnlijker consensus bereiken. 120 00:05:36,986 --> 00:05:39,448 We weten nog niet precies waarom. 121 00:05:39,448 --> 00:05:41,311 Dit waren de eerste experimenten 122 00:05:41,311 --> 00:05:44,687 en er zijn er nog veel meer nodig om te begrijpen hoe en waarom 123 00:05:44,711 --> 00:05:47,533 sommigen willen onderhandelen over hun morele standpunt 124 00:05:47,557 --> 00:05:49,079 om een akkoord te bereiken. 125 00:05:49,103 --> 00:05:51,572 Als groepen consensus bereiken, 126 00:05:51,596 --> 00:05:53,182 hoe doen ze dat dan? 127 00:05:53,186 --> 00:05:55,837 Je intuïtie zegt dat het gewoon het gemiddelde 128 00:05:55,837 --> 00:05:57,841 van alle antwoorden in de groep is, toch? 129 00:05:57,865 --> 00:06:01,438 Een andere optie is dat de groep een gewicht geeft aan elke stem 130 00:06:01,462 --> 00:06:03,910 gebaseerd op de zekerheid van de persoon erachter. 131 00:06:04,422 --> 00:06:06,928 Stel dat Paul McCartney een lid van jouw groep is. 132 00:06:07,352 --> 00:06:09,440 Het zou wijs zijn om zijn idee te volgen 133 00:06:09,440 --> 00:06:12,021 omtrent hoe vaak 'Yesterday' herhaald wordt -- 134 00:06:12,021 --> 00:06:14,699 wat trouwens negen keer is, denk ik. 135 00:06:14,723 --> 00:06:17,104 Maar in plaats daarvan vonden we steeds, 136 00:06:17,128 --> 00:06:19,494 in alle dilemma's, in verschillende experimenten, 137 00:06:19,518 --> 00:06:21,683 zelfs op verschillende continenten, 138 00:06:21,707 --> 00:06:25,450 dat groepen gebruik maken van een slim, statistisch concept, 139 00:06:25,474 --> 00:06:27,646 namelijk het 'robuuste gemiddelde'. 140 00:06:27,646 --> 00:06:29,630 Stel dat in het geval van de Eiffeltoren 141 00:06:29,630 --> 00:06:31,700 een groep deze antwoorden heeft: 142 00:06:31,724 --> 00:06:36,332 250 meter, 200 meter, 300 meter, 400 meter 143 00:06:36,356 --> 00:06:40,140 en een volledig absurd antwoord van 300 miljoen meter. 144 00:06:40,547 --> 00:06:44,840 Een simpel gemiddelde van die getallen zou het resultaat scheeftrekken. 145 00:06:44,864 --> 00:06:48,034 Maar bij het robuuste gemiddelde negeert de groep grotendeels 146 00:06:48,058 --> 00:06:49,298 het absurde antwoord 147 00:06:49,322 --> 00:06:52,691 door meer gewicht te geven aan de stemmen in het midden. 148 00:06:53,305 --> 00:06:55,181 Terug naar het experiment in Vancouver: 149 00:06:55,205 --> 00:06:56,972 dat is precies wat er gebeurde. 150 00:06:57,407 --> 00:07:00,148 Groepen gaven veel minder gewicht aan de uitschieters 151 00:07:00,172 --> 00:07:03,395 en de consensus bleek overeen te komen met het robuuste gemiddelde 152 00:07:03,395 --> 00:07:04,901 van de individuele antwoorden. 153 00:07:05,356 --> 00:07:07,347 Het meest opvallende hieraan 154 00:07:07,371 --> 00:07:10,558 is dat de groep dit spontaan deed. 155 00:07:10,582 --> 00:07:15,057 Het gebeurde zonder dat we hen een hint moesten geven. 156 00:07:15,513 --> 00:07:17,053 Hoe gaan we hier nu mee verder? 157 00:07:17,432 --> 00:07:20,569 Dit is nog maar het begin, maar we hebben al wel wat inzicht. 158 00:07:20,984 --> 00:07:23,901 Goede collectieve beslissingen vereisen twee componenten: 159 00:07:23,925 --> 00:07:26,674 overleg en verscheiden meningen. 160 00:07:27,066 --> 00:07:31,062 Hoe we vandaag doorgaans onze stem laten horen in de maatschappij, 161 00:07:31,086 --> 00:07:32,994 is door directe en indirecte stemming. 162 00:07:33,495 --> 00:07:35,492 Dit is goed voor verscheiden meningen 163 00:07:35,516 --> 00:07:37,961 en het heeft het grote voordeel 164 00:07:37,985 --> 00:07:40,440 dat iedereen zijn of haar stem kan laten horen. 165 00:07:40,464 --> 00:07:44,199 Maar het is niet zo goed voor bedachtzame debatten. 166 00:07:44,665 --> 00:07:47,733 Onze experimenten suggereren een andere methode 167 00:07:47,757 --> 00:07:51,298 die deze twee doelen in balans kan brengen 168 00:07:51,322 --> 00:07:55,075 door kleine groepen te vormen die samen tot één besluit komen, 169 00:07:55,099 --> 00:07:57,333 wat de verscheidenheid aan meningen behoudt 170 00:07:57,357 --> 00:08:00,130 omdat er veel onafhankelijke groepen zijn. 171 00:08:00,741 --> 00:08:04,649 Het is natuurlijk veel makkelijker om het eens te zijn over de Eiffeltoren 172 00:08:04,649 --> 00:08:07,804 dan over morele, politieke en ideologische kwesties. 173 00:08:08,721 --> 00:08:11,998 Maar in tijden waarin wereldproblemen zo complex zijn 174 00:08:12,022 --> 00:08:13,825 en de mensen zo gepolariseerd, 175 00:08:13,849 --> 00:08:18,444 kan de wetenschap ons leren hoe we met elkaar om moeten gaan 176 00:08:18,468 --> 00:08:23,134 om beslissingen te nemen die hopelijk tot een betere democratie leiden.