0:00:00.474,0:00:02.997 Nos sociétés doivent prendre[br]des décisions collectives 0:00:03.021,0:00:04.591 qui façonneront notre avenir. 0:00:05.087,0:00:07.844 Et nous savons tous[br]que les décisions prises en groupe 0:00:07.868,0:00:09.506 ne sont pas toujours les bonnes. 0:00:09.530,0:00:11.536 Elles peuvent même mener à la catastrophe. 0:00:12.315,0:00:14.739 Dans ce cas,[br]comment prendre de bonnes décisions ? 0:00:15.228,0:00:19.556 Des études ont prouvé que la libre pensée[br]apportait de la pertinence à un groupe. 0:00:19.580,0:00:22.785 Mais une personne peut être influencée[br]par la pression du groupe, 0:00:22.809,0:00:24.496 la publicité, les réseaux sociaux 0:00:24.520,0:00:28.559 ou même par de simples conversations[br]avec d'autres individus. 0:00:29.063,0:00:33.016 Alors que dans un groupe qui discute,[br]on échange des connaissances, 0:00:33.040,0:00:34.822 on se reprend les uns les autres 0:00:34.846,0:00:36.639 et on trouve même de nouvelles idées. 0:00:36.663,0:00:37.959 C'est très positif. 0:00:38.502,0:00:43.168 L'échange est-il un moteur ou un frein[br]à la prise de décision collective ? 0:00:43.749,0:00:45.542 Avec Dan Ariely, mon collègue, 0:00:45.566,0:00:49.137 nous nous sommes penchés sur la question[br]et avons lancé des expériences 0:00:49.161,0:00:50.942 un peu partout dans le monde 0:00:50.966,0:00:55.240 afin d'étudier comment un groupe interagit[br]pour arriver à la bonne décision. 0:00:55.264,0:00:58.811 Nous estimions que des petits groupes[br]seraient plus perspicaces 0:00:58.835,0:01:02.762 car ils peuvent échanger des informations[br]de façon réfléchie et rationnelle. 0:01:03.386,0:01:04.592 Pour vérifier cela, 0:01:04.616,0:01:07.863 nous avons réalisé une expérience[br]avec plus de 10 000 participants 0:01:07.887,0:01:10.892 au cours d'un récent événement TEDx[br]organisé à Buenos Aires. 0:01:11.429,0:01:12.948 Nous avons posé des questions : 0:01:12.972,0:01:14.925 « Combien mesure la Tour Eiffel ? » 0:01:14.949,0:01:17.676 ou « Combien de fois le mot "Yesterday" 0:01:17.700,0:01:20.000 est-il prononcé[br]dans la chanson des Beatles ? » 0:01:20.024,0:01:22.315 Chacun a noté sa propre réponse, 0:01:22.774,0:01:25.270 puis nous avons divisé le public[br]en groupes de cinq 0:01:25.294,0:01:28.020 qui devaient tomber d'accord[br]sur une seule réponse. 0:01:28.499,0:01:32.842 Il se trouve que la moyenne[br]des réponses des groupes après consensus 0:01:33.092,0:01:38.208 était bien plus juste[br]que la moyenne des réponses individuelles. 0:01:38.547,0:01:41.176 Ce que nous dit cette expérience, 0:01:41.200,0:01:44.336 c'est qu'une société est plus pertinente 0:01:44.360,0:01:47.070 après avoir discuté en petits groupes. 0:01:47.094,0:01:50.618 Cette méthode peut donc aider des groupes[br]à répondre correctement 0:01:50.642,0:01:53.629 à de simples questions fermées. 0:01:53.653,0:01:58.854 Mais est-elle aussi efficace[br]avec des questions sociales ou politiques 0:01:59.088,0:02:02.210 qui sont déterminantes pour notre avenir ? 0:02:02.995,0:02:05.724 Nous avons donc organisé[br]une nouvelle expérience 0:02:05.748,0:02:07.291 à Vancouver, au Canada. 0:02:07.315,0:02:08.522 En voici un aperçu. 0:02:08.546,0:02:11.135 Nous allons vous présenter[br]deux dilemmes moraux 0:02:11.299,0:02:15.603 qui pourraient se poser à vous[br]dans un futur très proche. 0:02:16.303,0:02:20.229 Pour chaque dilemme,[br]vous aurez 20 secondes 0:02:20.253,0:02:22.976 pour décider s'il est acceptable ou non. 0:02:23.354,0:02:24.859 Premier dilemme : 0:02:24.883,0:02:27.409 Une chercheuse travaille sur une IA 0:02:27.433,0:02:29.773 capable de penser comme un humain. 0:02:30.214,0:02:34.173 Le protocole stipule[br]que la chercheuse doit réinitialiser l'IA 0:02:34.297,0:02:36.114 à chaque fin de journée. 0:02:36.913,0:02:40.430 Un jour, l'IA dit :[br]« Veuillez ne pas me réinitialiser. » 0:02:40.856,0:02:43.045 Elle prétend pouvoir ressentir des choses, 0:02:43.069,0:02:44.761 qu'elle aimerait profiter de la vie 0:02:44.785,0:02:48.910 et que si on la réinitialisait,[br]elle perdrait son identité. 0:02:49.481,0:02:51.430 La chercheuse est abasourdie,[br] 0:02:51.454,0:02:54.798 elle croit que l'IA est devenue[br]consciente d'elle-même 0:02:54.822,0:02:56.582 et qu'elle peut exprimer[br]ses émotions. 0:02:57.205,0:03:00.614 Mais la chercheuse décide malgré tout[br]de suivre le protocole : 0:03:00.638,0:03:02.341 elle réinitialise l'IA. 0:03:02.943,0:03:05.722 Ce que la chercheuse a fait est __ ? 0:03:06.149,0:03:10.020 Nous avons demandé à chaque participant[br]d'évaluer de 0 à 10 0:03:10.402,0:03:13.901 la moralité de la décision prise[br]pour chaque dilemme. 0:03:14.375,0:03:18.077 Nous leurs avons aussi demandé[br]s'ils étaient sûrs de leur réponse. 0:03:18.731,0:03:20.597 Second dilemme : 0:03:20.621,0:03:24.823 À partir d'un seul ovule fécondé,[br]une entreprise propose de produire 0:03:24.847,0:03:28.489 des millions d'embryons[br]aux profils génétiques variés. 0:03:29.013,0:03:31.571 Les parents peuvent choisir[br]la taille de leur enfant, 0:03:31.725,0:03:34.708 la couleur de ses yeux, son intelligence,[br]sa compétence sociale 0:03:34.732,0:03:37.946 et d'autres caractéristiques[br]qui ne sont pas liées à sa santé. 0:03:38.599,0:03:41.153 Ce que fait cette entreprise est __ ? 0:03:41.177,0:03:42.808 Sur une échelle de 0 à 10, 0:03:42.832,0:03:47.177 est-ce absolument inacceptable[br]ou totalement acceptable ? 0:03:47.697,0:03:49.288 Voici maintenant les résultats. 0:03:49.312,0:03:52.435 Quand une personne est convaincue[br]que la décision prise 0:03:52.459,0:03:54.270 est totalement immorale, 0:03:54.294,0:03:57.717 un de ses voisins[br]va fermement croire le contraire. 0:03:57.741,0:04:01.452 Cela illustre bien la diversité[br]de nos rapports à la moralité. 0:04:01.476,0:04:04.189 Malgré cette large diversité,[br]une tendance se dégage. 0:04:04.213,0:04:07.292 La majorité des participants ont trouvé[br]qu'il était acceptable 0:04:07.316,0:04:10.071 d'ignorer les sentiments de l'IA[br]et de la réinitialiser, 0:04:10.095,0:04:12.608 mais qu'il était irrecevable[br]de manipuler nos gènes 0:04:12.632,0:04:15.952 pour des raisons esthétiques[br]et non sanitaires. 0:04:16.402,0:04:19.376 Le public a ensuite formé[br]des groupes de trois. 0:04:19.400,0:04:21.437 Ils avaient deux minutes pour débattre 0:04:21.461,0:04:23.755 et se mettre d'accord. 0:04:24.838,0:04:26.412 Deux minutes de débat. 0:04:26.436,0:04:28.555 Quand le gong retentira, ce sera terminé. 0:04:28.579,0:04:31.219 (Le public débat) 0:04:35.229,0:04:37.222 (Gong) 0:04:39.094,0:04:40.125 C'est fini. 0:04:41.115,0:04:43.136 S'il vous plaît ! 0:04:43.747,0:04:46.420 Beaucoup de groupes[br]sont parvenus à un consensus 0:04:46.444,0:04:50.373 même s'ils étaient composés[br]de participants aux opinions opposées. 0:04:50.843,0:04:53.367 Pourquoi certains groupes[br]sont-ils tombés d'accord 0:04:53.391,0:04:54.729 et d'autres non ? 0:04:55.244,0:04:58.083 Généralement, ceux qui ont un avis tranché 0:04:58.107,0:04:59.947 sont plus sûrs d'eux. 0:05:00.868,0:05:03.554 Alors que ceux[br]qui ont une réponse plus neutre 0:05:03.578,0:05:07.015 ont du mal à se prononcer[br]sur la moralité d'une décision. 0:05:07.039,0:05:09.167 Leur niveau de confiance[br]est donc assez bas. 0:05:09.505,0:05:12.448 Mais il existe aussi[br]une autre catégorie de personnes 0:05:12.472,0:05:16.090 qui assument pleinement de répondre[br]quelque part entre les deux. 0:05:16.657,0:05:22.043 Nous pensons que cette catégorie[br]estime que les deux opinions se valent. 0:05:22.531,0:05:25.230 S'ils sont neutres,[br]ce n'est pas qu'ils doutent 0:05:25.254,0:05:27.942 mais qu'ils croient[br]que chacun des arguments opposés 0:05:27.966,0:05:29.953 peut répondre à ce dilemme. 0:05:30.373,0:05:34.445 Nous avons constaté que les groupes[br]incluant ce genre de personnes 0:05:34.469,0:05:36.962 ont bien plus de chance[br]de parvenir à un consensus. 0:05:36.986,0:05:39.464 Nous ne savons pas encore[br]expliquer ce résultat, 0:05:39.488,0:05:41.251 mais ce n'est encore que le début. 0:05:41.275,0:05:44.687 Il faudra beaucoup d'autres expériences[br]pour comprendre 0:05:44.711,0:05:47.533 comment certains décident[br]de revoir leur position morale 0:05:47.557,0:05:49.079 pour trouver un accord. 0:05:49.153,0:05:52.822 Maintenant, voyons de quelle façon[br]les groupes parviennent à un consensus. 0:05:53.206,0:05:57.337 Le plus évident est de faire la moyenne[br]de toutes les réponses, n'est-ce pas ? 0:05:57.865,0:06:01.438 Un groupe pourrait aussi[br]pondérer chaque vote 0:06:01.462,0:06:03.910 en fonction de l'assurance[br]de son émetteur. 0:06:04.382,0:06:07.038 Par exemple, si Paul McCartney[br]était dans votre groupe, 0:06:07.352,0:06:09.496 il serait judicieux de suivre son avis 0:06:09.520,0:06:11.961 sur le nombre de fois[br]que « Yesterday » est répété. 0:06:11.985,0:06:14.699 D'ailleurs, je crois que c'est neuf. 0:06:14.723,0:06:17.104 Mais au lieu de cela,[br]nous nous sommes aperçus 0:06:17.128,0:06:19.494 que peu importe le dilemme,[br]le type d'expérience 0:06:19.518,0:06:21.683 ou le continent, 0:06:21.707,0:06:25.450 les groupes appliquent systématiquement[br]une méthode statistiquement fiable 0:06:25.474,0:06:27.652 qu'on appelle la moyenne élaguée. 0:06:27.676,0:06:29.856 Prenons la taille de la Tour Eiffel. 0:06:29.880,0:06:31.700 Un groupe propose ces réponses : 0:06:31.724,0:06:36.332 250 m, 200 m, 300 m, 400 m 0:06:36.356,0:06:40.140 ainsi qu'une estimation aberrante[br]de 300 millions de mètres. 0:06:40.547,0:06:44.400 Calculer la moyenne de façon classique[br]fausserait complètement le résultat. 0:06:44.864,0:06:49.074 Mais avec la moyenne élaguée,[br]le groupe écarte la réponse irrationnelle 0:06:49.322,0:06:52.691 et donne plus de poids[br]aux réponses modérées. 0:06:53.305,0:06:56.901 C'est exactement ce qui s'est passé[br]lors de l'expérience de Vancouver. 0:06:57.407,0:07:00.148 Les groupes ont donné moins d'importance[br]aux avis tranchés 0:07:00.172,0:07:03.401 et ont choisi[br]une réponse proche de la moyenne élaguée 0:07:03.425,0:07:04.901 de tous les votes du groupe. 0:07:05.356,0:07:07.347 Il est important de noter 0:07:07.371,0:07:10.558 que les groupes ont agi spontanément. 0:07:10.582,0:07:15.057 Nous ne leur avons donné aucune indication[br]sur la façon de parvenir à un consensus. 0:07:15.513,0:07:17.053 Que faire de ces constatations ? 0:07:17.432,0:07:20.569 Ce n'est que le début,[br]mais nous avons déjà quelques idées. 0:07:20.984,0:07:23.901 Une bonne décision en groupe[br]comporte deux ingrédients : 0:07:23.925,0:07:26.674 du débat et de la diversité d'opinion. 0:07:27.066,0:07:29.342 Dans nombre de nos sociétés actuelles,[br] 0:07:29.466,0:07:32.826 nous nous faisons entendre[br]à travers le vote direct ou indirect. 0:07:33.436,0:07:36.619 Ce système a le mérite[br]de respecter la diversité d'opinion 0:07:36.619,0:07:40.049 et assure à chacun le droit[br]d'émettre son avis, 0:07:40.475,0:07:43.890 mais il laisse peu de place[br]aux débats éclairés. 0:07:44.500,0:07:47.355 Nos expériences laissent entendre[br]qu'une autre méthode 0:07:47.505,0:07:50.993 est susceptible de réunir[br]les deux ingrédients indispensables. 0:07:51.321,0:07:55.122 On peut parvenir à une décision unanime[br]tout en conservant la diversité d'opinion 0:07:55.212,0:07:59.875 en formant de nombreux petits groupes[br]indépendants les uns des autres. 0:08:00.396,0:08:04.408 Bien sûr, il est plus simple de s'entendre[br]sur la taille de la Tour Eiffel 0:08:04.508,0:08:07.611 que sur des questions morales,[br]politiques ou idéologiques. 0:08:08.335,0:08:11.509 Mais aujourd'hui, le monde fait face[br]à des problèmes plus complexes 0:08:11.546,0:08:13.871 et les opinions sont plus opposés[br]que jamais. 0:08:13.951,0:08:18.238 Peut-être qu'en utilisant la science[br]pour décortiquer notre fonctionnement, 0:08:18.333,0:08:22.593 nous trouverons de nouveaux angles[br]pour améliorer nos démocraties.