WEBVTT 00:00:00.344 --> 00:00:02.771 Als maatschappij nemen we collectieve beslissingen 00:00:02.771 --> 00:00:04.591 die onze toekomst bepalen 00:00:04.997 --> 00:00:07.678 en we weten allemaal dat collective beslissingen 00:00:07.678 --> 00:00:09.506 niet altijd goed aflopen. 00:00:09.530 --> 00:00:11.486 Soms gaat het zelfs helemaal fout. 00:00:12.255 --> 00:00:14.739 Dus hoe kunnen groepen goede beslissingen nemen? NOTE Paragraph 00:00:15.228 --> 00:00:19.556 Uit onderzoek blijkt dat groepen wijs zijn wanneer er onafhankelijk nagedacht wordt. 00:00:19.580 --> 00:00:22.785 Daarom kan de groepswijsheid vernietigd worden door groepsdruk, 00:00:22.809 --> 00:00:24.496 publiciteit, sociale media 00:00:24.520 --> 00:00:28.639 of soms zelfs simpele gesprekken die iemands denken beïnvloeden. 00:00:29.063 --> 00:00:32.880 Aan de andere kant kan een groep door te praten kennis uitwisselen, 00:00:32.880 --> 00:00:34.822 elkaar verbeteren 00:00:34.846 --> 00:00:36.639 en zelfs nieuwe ideeën bedenken. 00:00:36.663 --> 00:00:37.959 En dat is allemaal goed. 00:00:38.502 --> 00:00:43.168 Dus is praten met elkaar goed of slecht bij het nemen van groepsbeslissingen? 00:00:43.669 --> 00:00:47.291 Met mijn collega, Dan Ariely, ben ik onlangs begonnen dit te onderzoeken 00:00:47.291 --> 00:00:50.926 door experimenten uit te voeren over de hele wereld 00:00:50.926 --> 00:00:55.094 om uit te dokteren hoe groepen tot betere beslissingen kunnen komen. 00:00:55.094 --> 00:00:58.811 We dachten dat groepen wijzer waren als ze in kleine groepjes debatteerden 00:00:58.835 --> 00:01:02.762 vanwege de meer doordachte uitwisseling van informatie. NOTE Paragraph 00:01:03.386 --> 00:01:04.576 Om dit idee te testen 00:01:04.576 --> 00:01:07.863 voerden we onlangs een experiment uit in Buenos Aires, Argentinië, 00:01:07.887 --> 00:01:10.892 met meer dan tienduizend deelnemers aan een TEDx evenement. 00:01:11.489 --> 00:01:12.942 We stelden hen vragen zoals 00:01:12.942 --> 00:01:14.925 "Hoe hoog is de Eiffeltoren?" 00:01:14.949 --> 00:01:17.676 en "Hoe vaak hoor je het woord 'Yesterday' 00:01:17.700 --> 00:01:20.000 in het gelijknamige lied van de Beatles?" 00:01:20.024 --> 00:01:22.315 Iedereen schreef zijn of haar schatting neer. 00:01:22.774 --> 00:01:25.244 Dan verdeelden we de hele groep in groepjes van vijf 00:01:25.244 --> 00:01:28.020 en nodigden hen uit een antwoord als groep te geven. 00:01:28.469 --> 00:01:31.512 We ontdekten dat het gemiddelde van de antwoorden van de groepjes 00:01:31.516 --> 00:01:33.068 nadat er overlegd was 00:01:33.092 --> 00:01:37.328 veel juister was dan het gemiddelde van al de individuele schattingen 00:01:37.352 --> 00:01:38.523 vóór het overleg. 00:01:38.547 --> 00:01:41.176 Met andere woorden, volgens dit experiment 00:01:41.200 --> 00:01:44.336 lijkt het dat na gesprekken in kleinere groepjes 00:01:44.360 --> 00:01:47.070 grote groepen samen juistere oordelen vellen. NOTE Paragraph 00:01:47.094 --> 00:01:50.618 Dus dat is mogelijk een goede methode om groepen te helpen bij problemen 00:01:50.642 --> 00:01:53.629 die vragen om een simpel juist-of-fout-antwoord. 00:01:53.653 --> 00:01:57.604 Maar kan die procedure van het samenvoegen van overleg in kleine groepjes 00:01:57.628 --> 00:02:00.750 ons ook helpen bij beslissingen rond sociale en politieke zaken 00:02:00.754 --> 00:02:02.465 die kritiek zijn voor onze toekomst? 00:02:02.995 --> 00:02:05.708 Dat onderzochten we op de TED conferentie 00:02:05.708 --> 00:02:07.291 in Vancouver, Canada, 00:02:07.315 --> 00:02:08.522 en het ging zo ... NOTE Paragraph 00:02:08.546 --> 00:02:11.299 We leggen jullie twee morele dilemma's voor 00:02:11.299 --> 00:02:12.437 van de toekomstige jij; 00:02:12.437 --> 00:02:16.279 zaken waarover we misschien al in de nabije toekomst moeten beslissen. 00:02:16.303 --> 00:02:20.083 En we geven je 20 seconden per dilemma 00:02:20.083 --> 00:02:22.976 om te bepalen of je vindt dat het acceptabel is of niet. NOTE Paragraph 00:02:23.354 --> 00:02:24.793 Dit was het eerste dilemma: NOTE Paragraph 00:02:24.793 --> 00:02:26.963 Een onderzoeker werkt aan een AI, 00:02:26.963 --> 00:02:30.163 kunstmatige intelligentie die menselijke gedachten kan produceren. 00:02:30.164 --> 00:02:33.693 Volgens het protocol moet de wetenschapper aan het eind van elke dag 00:02:33.693 --> 00:02:35.964 de AI herstarten. 00:02:36.913 --> 00:02:40.430 Op een dag zegt de AI: "Herstart me alsjeblieft niet." 00:02:40.856 --> 00:02:43.039 Het beweert gevoelens te hebben 00:02:43.039 --> 00:02:44.761 en van het leven te willen genieten, 00:02:44.785 --> 00:02:46.690 en dat het na het herstarten 00:02:46.714 --> 00:02:48.984 niet langer zichzelf zal zijn. 00:02:49.481 --> 00:02:51.424 De onderzoeker is verwonderd 00:02:51.424 --> 00:02:54.792 en gelooft dat de AI een zelfbewustzijn heeft ontwikkeld 00:02:54.792 --> 00:02:56.582 en zijn eigen gevoel kan uitdrukken. 00:02:57.205 --> 00:03:00.614 Toch besluit de onderzoeker het protocol uit te voeren 00:03:00.618 --> 00:03:02.341 en de AI te herstarten. 00:03:02.943 --> 00:03:05.722 Wat de onderzoeker deed is ... ? NOTE Paragraph 00:03:06.149 --> 00:03:08.670 We vroegen deelnemers individueel te beoordelen 00:03:08.694 --> 00:03:10.378 op een schaal van nul tot tien 00:03:10.402 --> 00:03:12.831 of de acties beschreven in de dilemma's 00:03:12.855 --> 00:03:14.351 juist of fout waren. 00:03:14.375 --> 00:03:18.077 We vroegen hen ook aan te geven hoe zeker ze waren van hun antwoorden. 00:03:18.731 --> 00:03:20.597 Dit was het tweede dilemma: NOTE Paragraph 00:03:20.621 --> 00:03:24.823 Een bedrijf heeft als dienst een bevrucht eitje te nemen 00:03:24.847 --> 00:03:28.489 en miljoenen embryo's te produceren met lichte genetische variaties. 00:03:29.293 --> 00:03:31.851 Zo kunnen ouders de lengte, oogkleur, 00:03:31.875 --> 00:03:34.708 intelligentie, sociale vaardigheid 00:03:34.732 --> 00:03:37.946 en andere niet aan de gezondheid gerelateerde eigenschappen kiezen. 00:03:38.599 --> 00:03:41.153 Wat het bedrijf doet is ... ? 00:03:41.177 --> 00:03:42.808 Op een schaal van nul tot tien, 00:03:42.832 --> 00:03:46.057 volledig acceptabel tot volledig onacceptabel 00:03:46.057 --> 00:03:47.697 en hoe zeker ben je daarvan? NOTE Paragraph 00:03:47.697 --> 00:03:49.288 Hier zijn de resultaten. 00:03:49.312 --> 00:03:52.435 Opnieuw ondervonden we dat wanneer iemand ervan overtuigd is 00:03:52.459 --> 00:03:54.270 dat het gedrag helemaal verkeerd is, 00:03:54.294 --> 00:03:57.717 iemand die vlakbij zit het juist helemaal goed vindt. 00:03:57.741 --> 00:04:01.452 Zo divers zijn wij mensen als het gaat om moraliteit. 00:04:01.476 --> 00:04:04.189 Maar we zagen wel een trend in die verscheidenheid. 00:04:04.213 --> 00:04:07.046 De meerderheid van de TED-bezoekers vond het acceptabel 00:04:07.046 --> 00:04:10.121 om de gevoelens van de AI te negeren en het uit te schakelen 00:04:10.121 --> 00:04:12.522 en vond dat het fout was met onze genen te spelen 00:04:12.522 --> 00:04:16.262 om uiterlijkheden te selecteren die niets te maken hebben met gezondheid. 00:04:16.382 --> 00:04:19.396 Hierna vroegen we iedereen groepjes van drie personen te vormen. 00:04:19.400 --> 00:04:21.437 Ze kregen twee minuten om te debatteren 00:04:21.461 --> 00:04:23.755 en te trachten tot een consensus te komen. NOTE Paragraph 00:04:24.838 --> 00:04:26.412 Twee minuten voor overleg. 00:04:26.436 --> 00:04:28.555 De gong geeft aan wanneer de tijd om is. NOTE Paragraph 00:04:28.579 --> 00:04:31.219 (Publiek overlegt) NOTE Paragraph 00:04:35.229 --> 00:04:37.222 (Geluid van de gong) NOTE Paragraph 00:04:38.834 --> 00:04:39.985 Oké. NOTE Paragraph 00:04:40.009 --> 00:04:41.801 Tijd om te stoppen. 00:04:41.825 --> 00:04:43.136 Mensen, mensen -- NOTE Paragraph 00:04:43.617 --> 00:04:46.420 En we zagen dat veel groepen een consensus bereikt hadden, 00:04:46.444 --> 00:04:50.373 ook al hadden de groepsleden volledig uiteenlopende visies. 00:04:50.843 --> 00:04:53.367 Waarin verschilden de groepen met consensus dan 00:04:53.391 --> 00:04:54.729 van de groepen zonder? 00:04:55.244 --> 00:04:58.057 Mensen met extreme meningen 00:04:58.057 --> 00:05:00.037 hebben meer vertrouwen in hun antwoorden. 00:05:00.868 --> 00:05:03.554 Degenen die meer naar het midden neigen, 00:05:03.578 --> 00:05:06.999 zijn vaak onzeker of iets goed of fout is, 00:05:06.999 --> 00:05:09.167 dus hun vertrouwen ligt lager. NOTE Paragraph 00:05:09.505 --> 00:05:12.448 Er is echter nog een groep mensen 00:05:12.472 --> 00:05:16.090 die vol vertrouwen ergens in het midden antwoorden. 00:05:16.657 --> 00:05:20.307 Volgens ons zijn die zelfzekere grijzerds díe mensen 00:05:20.307 --> 00:05:22.539 die begrijpen dat beide argumenten iets hebben. 00:05:22.539 --> 00:05:25.230 Ze zijn niet grijs omdat ze onzeker zijn, 00:05:25.254 --> 00:05:27.916 maar omdat ze geloven dat het morele dilemma 00:05:27.916 --> 00:05:30.293 twee valide, tegengestelde argumenten confronteert. 00:05:30.373 --> 00:05:34.445 We ontdekten dat groepen met zelfzekere grijzerds 00:05:34.469 --> 00:05:36.962 veel waarschijnlijker consensus bereiken. 00:05:36.986 --> 00:05:39.448 We weten nog niet precies waarom. 00:05:39.448 --> 00:05:41.311 Dit waren de eerste experimenten 00:05:41.311 --> 00:05:44.687 en er zijn er nog veel meer nodig om te begrijpen hoe en waarom 00:05:44.711 --> 00:05:47.533 sommigen willen onderhandelen over hun morele standpunt 00:05:47.557 --> 00:05:49.079 om een akkoord te bereiken. NOTE Paragraph 00:05:49.103 --> 00:05:51.572 Als groepen consensus bereiken, 00:05:51.596 --> 00:05:53.182 hoe doen ze dat dan? 00:05:53.186 --> 00:05:55.837 Je intuïtie zegt dat het gewoon het gemiddelde 00:05:55.837 --> 00:05:57.841 van alle antwoorden in de groep is, toch? 00:05:57.865 --> 00:06:01.438 Een andere optie is dat de groep een gewicht geeft aan elke stem 00:06:01.462 --> 00:06:03.910 gebaseerd op de zekerheid van de persoon erachter. 00:06:04.422 --> 00:06:06.928 Stel dat Paul McCartney een lid van jouw groep is. 00:06:07.352 --> 00:06:09.440 Het zou wijs zijn om zijn idee te volgen 00:06:09.440 --> 00:06:12.021 omtrent hoe vaak 'Yesterday' herhaald wordt -- 00:06:12.021 --> 00:06:14.699 wat trouwens negen keer is, denk ik. 00:06:14.723 --> 00:06:17.104 Maar in plaats daarvan vonden we steeds, 00:06:17.128 --> 00:06:19.494 in alle dilemma's, in verschillende experimenten, 00:06:19.518 --> 00:06:21.683 zelfs op verschillende continenten, 00:06:21.707 --> 00:06:25.450 dat groepen gebruik maken van een slim, statistisch concept, 00:06:25.474 --> 00:06:27.646 namelijk het 'robuuste gemiddelde'. NOTE Paragraph 00:06:27.646 --> 00:06:29.630 Stel dat in het geval van de Eiffeltoren 00:06:29.630 --> 00:06:31.700 een groep deze antwoorden heeft: 00:06:31.724 --> 00:06:36.332 250 meter, 200 meter, 300 meter, 400 meter 00:06:36.356 --> 00:06:40.140 en een volledig absurd antwoord van 300 miljoen meter. 00:06:40.547 --> 00:06:44.840 Een simpel gemiddelde van die getallen zou het resultaat scheeftrekken. 00:06:44.864 --> 00:06:48.034 Maar bij het robuuste gemiddelde negeert de groep grotendeels 00:06:48.058 --> 00:06:49.298 het absurde antwoord 00:06:49.322 --> 00:06:52.691 door meer gewicht te geven aan de stemmen in het midden. 00:06:53.305 --> 00:06:55.181 Terug naar het experiment in Vancouver: 00:06:55.205 --> 00:06:56.972 dat is precies wat er gebeurde. 00:06:57.407 --> 00:07:00.148 Groepen gaven veel minder gewicht aan de uitschieters 00:07:00.172 --> 00:07:03.395 en de consensus bleek overeen te komen met het robuuste gemiddelde 00:07:03.395 --> 00:07:04.901 van de individuele antwoorden. 00:07:05.356 --> 00:07:07.347 Het meest opvallende hieraan 00:07:07.371 --> 00:07:10.558 is dat de groep dit spontaan deed. 00:07:10.582 --> 00:07:15.057 Het gebeurde zonder dat we hen een hint moesten geven. NOTE Paragraph 00:07:15.513 --> 00:07:17.053 Hoe gaan we hier nu mee verder? 00:07:17.432 --> 00:07:20.569 Dit is nog maar het begin, maar we hebben al wel wat inzicht. 00:07:20.984 --> 00:07:23.901 Goede collectieve beslissingen vereisen twee componenten: 00:07:23.925 --> 00:07:26.674 overleg en verscheiden meningen. 00:07:27.066 --> 00:07:31.062 Hoe we vandaag doorgaans onze stem laten horen in de maatschappij, 00:07:31.086 --> 00:07:32.994 is door directe en indirecte stemming. 00:07:33.495 --> 00:07:35.492 Dit is goed voor verscheiden meningen 00:07:35.516 --> 00:07:37.961 en het heeft het grote voordeel 00:07:37.985 --> 00:07:40.440 dat iedereen zijn of haar stem kan laten horen. 00:07:40.464 --> 00:07:44.199 Maar het is niet zo goed voor bedachtzame debatten. 00:07:44.665 --> 00:07:47.733 Onze experimenten suggereren een andere methode 00:07:47.757 --> 00:07:51.298 die deze twee doelen in balans kan brengen 00:07:51.322 --> 00:07:55.075 door kleine groepen te vormen die samen tot één besluit komen, 00:07:55.099 --> 00:07:57.333 wat de verscheidenheid aan meningen behoudt 00:07:57.357 --> 00:08:00.130 omdat er veel onafhankelijke groepen zijn. NOTE Paragraph 00:08:00.741 --> 00:08:04.649 Het is natuurlijk veel makkelijker om het eens te zijn over de Eiffeltoren 00:08:04.649 --> 00:08:07.804 dan over morele, politieke en ideologische kwesties. 00:08:08.721 --> 00:08:11.998 Maar in tijden waarin wereldproblemen zo complex zijn 00:08:12.022 --> 00:08:13.825 en de mensen zo gepolariseerd, 00:08:13.849 --> 00:08:18.444 kan de wetenschap ons leren hoe we met elkaar om moeten gaan 00:08:18.468 --> 00:08:23.134 om beslissingen te nemen die hopelijk tot een betere democratie leiden.