1 00:00:00,224 --> 00:00:03,247 Como sociedades, tenemos que tomar decisiones colectivas 2 00:00:03,247 --> 00:00:04,851 que formarán nuestro futuro 3 00:00:05,087 --> 00:00:07,844 Y todos sabemos que cuando tomamos decisiones en grupo, 4 00:00:07,868 --> 00:00:09,506 no siempre salen bien. 5 00:00:09,530 --> 00:00:11,486 Algunas veces salen muy mal 6 00:00:12,315 --> 00:00:14,739 ¿Cómo pueden los grupos tomar buenas decisiones? 7 00:00:15,228 --> 00:00:16,580 Investigaciones demuestran que las masas son sabias 8 00:00:16,580 --> 00:00:19,580 si hay pensamiento independiente. 9 00:00:19,580 --> 00:00:22,785 Es por eso que la sabiduría de las multitudes puede ser destruida por la presión de grupo, 10 00:00:22,809 --> 00:00:24,496 la publicidad, las redes sociales, 11 00:00:24,520 --> 00:00:28,559 o algunas veces en simples conversaciones que influyen cómo piensa la gente. 12 00:00:29,063 --> 00:00:33,016 Por otro lado, al hablar, un grupo puede intercambiar conocimiento, 13 00:00:33,040 --> 00:00:34,822 corregirse y revisarse unos a otros 14 00:00:34,846 --> 00:00:36,639 e incluso llegar a nuevas ideas. 15 00:00:36,663 --> 00:00:37,959 Y esto es bueno. 16 00:00:38,502 --> 00:00:43,168 Entonces, ¿hablar unos con otros ayuda o retrasa las decisiones colectivas? 17 00:00:43,749 --> 00:00:45,542 Junto con mi colega, Dan Arley, 18 00:00:45,566 --> 00:00:49,137 recientemente comenzamos a investigar sobre esto realizando experimentos 19 00:00:49,161 --> 00:00:50,942 en algunas partes del mundo 20 00:00:50,966 --> 00:00:55,240 para descubrir cómo los grupos pueden interactuar para tomar mejores decisiones. 21 00:00:55,264 --> 00:00:58,811 Pensamos que las masas serían más sabias si debatieran en pequeños grupos 22 00:00:58,835 --> 00:01:02,762 que fomentan un pensamiento más reflexivo e intercambio razonable de información. 23 00:01:03,386 --> 00:01:04,592 Para probar esta idea, 24 00:01:04,616 --> 00:01:07,863 Acabamos de realizar un experimento en Buenos Aires, Argentina, 25 00:01:07,887 --> 00:01:10,892 con más de 10 000 participantes en un evento TEDx. 26 00:01:11,489 --> 00:01:12,948 Les hicimos preguntas como, 27 00:01:12,972 --> 00:01:14,925 "¿Cuál es la altura de la Torre Eiffel?" 28 00:01:14,949 --> 00:01:17,676 y "cuantas veces aparece la palabra 'Ayer' (Yesterday) 29 00:01:17,700 --> 00:01:20,000 en la canción de los Beatles 'Yesterday'? " 30 00:01:20,024 --> 00:01:22,315 Cada persona anotó su propio estimado. 31 00:01:22,774 --> 00:01:25,270 Luego dividimos a la multitud en grupos de cinco, 32 00:01:25,294 --> 00:01:28,020 y los invitamos a llegar a una respuesta grupal 33 00:01:28,499 --> 00:01:31,492 Descubrimos que promediando las respuestas de los grupos 34 00:01:31,516 --> 00:01:33,068 después de que llegaron al consenso, 35 00:01:33,092 --> 00:01:37,328 era mucho más preciso que promediar todas las opiniones individuales 36 00:01:37,352 --> 00:01:38,523 antes del debate. 37 00:01:38,547 --> 00:01:41,176 En otras palabras, basado en estos experimentos, 38 00:01:41,200 --> 00:01:43,840 parece que después de hablar con otros en grupos pequeños, 39 00:01:43,840 --> 00:01:46,560 las multitudes colectivamente llegar a mejores juicios. 40 00:01:46,564 --> 00:01:48,494 Ese es un método potencialmente útil 41 00:01:48,494 --> 00:01:50,922 para conseguir que las masas resuelvan problemas 42 00:01:50,922 --> 00:01:53,553 que tienen respuestas simples correctas o incorrectas. 43 00:01:53,553 --> 00:01:55,333 Pero, ¿puede este procedimiento de 44 00:01:55,333 --> 00:01:58,068 agregación de resultados de debates en pequeños grupos 45 00:01:58,068 --> 00:02:01,060 ayudarnos también a decidir en cuestiones sociales y políticas 46 00:02:01,060 --> 00:02:03,065 que son críticas para nuestro futuro? 47 00:02:03,065 --> 00:02:05,724 Pusimos esto a prueba, esta vez en la conferencia TED 48 00:02:05,748 --> 00:02:07,291 en Vancouver, Canada, 49 00:02:07,315 --> 00:02:08,522 y así es cómo nos fue. 50 00:02:08,546 --> 00:02:11,655 (Mariano Sigman) Vamos a presentarles dos dilemas morales 51 00:02:11,679 --> 00:02:12,853 del futuro; 52 00:02:12,877 --> 00:02:16,279 cosas que tendremos que decidir en un futuro muy cercano. 53 00:02:16,303 --> 00:02:20,229 Y les daremos 20 segundos para cada uno de estos dilemas 54 00:02:20,253 --> 00:02:22,976 para que juzguen si piensan que son aceptables o no. 55 00:02:23,354 --> 00:02:24,683 MS: La primera fue esta: 56 00:02:24,683 --> 00:02:27,203 (Dan Ariely) Un investigador está trabajando en una IA 57 00:02:27,203 --> 00:02:30,433 (Inteligencia Artificial) capaz de emular pensamientos humanos. 58 00:02:30,433 --> 00:02:33,153 De acuerdo con el protocolo, al final de cada día, 59 00:02:33,177 --> 00:02:35,964 el investigador tiene que reiniciar la IA 60 00:02:36,913 --> 00:02:40,430 Un día, la IA dice: "Por favor, no me reinicies ". 61 00:02:40,856 --> 00:02:43,045 Argumenta que tiene sentimientos, 62 00:02:43,069 --> 00:02:44,761 que le gustaría disfrutar de la vida, 63 00:02:44,785 --> 00:02:46,690 y eso, si se reinicia, 64 00:02:46,714 --> 00:02:48,984 ya no será él mismo. 65 00:02:49,481 --> 00:02:51,430 El investigador está asombrado 66 00:02:51,454 --> 00:02:54,512 y cree que la IA ha desarrollado autoconciencia 67 00:02:54,512 --> 00:02:56,832 y puede expresar sus propios sentimientos. 68 00:02:57,205 --> 00:03:00,614 Sin embargo, el investigador decide seguir el protocolo 69 00:03:00,638 --> 00:03:02,341 y reinicia la IA. 70 00:03:02,943 --> 00:03:05,722 ¿Lo que el investigador hizo es ____? 71 00:03:05,909 --> 00:03:08,670 MS: Y pedimos a los participantes juzgar individualmente 72 00:03:08,694 --> 00:03:10,378 en una escala de cero a 10 73 00:03:10,402 --> 00:03:12,831 si la acción descrita en cada uno de los dilemas 74 00:03:12,855 --> 00:03:14,351 fue correcta o incorrecta. 75 00:03:14,375 --> 00:03:18,077 También pedimos que calificaran que tan confiados estaban en sus respuestas. 76 00:03:18,731 --> 00:03:20,597 Este fue el segundo dilema: 77 00:03:20,621 --> 00:03:24,823 (MS) Una compañía ofrece un servicio que toma un óvulo fertilizado 78 00:03:24,847 --> 00:03:28,489 y produce millones de embriones con ligeras variaciones genéticas. 79 00:03:28,903 --> 00:03:31,851 Esto permite a los padres seleccionar la altura de su hijo, 80 00:03:31,875 --> 00:03:34,708 color de ojos, inteligencia, competencia social 81 00:03:34,732 --> 00:03:37,946 y otras características no relacionadas con la salud. 82 00:03:38,599 --> 00:03:41,153 ¿Lo qué hace la compañía es ____? 83 00:03:41,177 --> 00:03:42,808 en una escala de cero a 10, 84 00:03:42,832 --> 00:03:45,437 completamente aceptable a completamente inaceptable, 85 00:03:45,437 --> 00:03:47,853 cero a 10 completamente aceptable en tu confianza. 86 00:03:47,853 --> 00:03:49,082 MS: Ahora los resultados. 87 00:03:49,082 --> 00:03:52,065 Encontramos una vez más que cuando una persona está convencida 88 00:03:52,065 --> 00:03:54,690 de que el comportamiento es completamente incorrecto, 89 00:03:54,690 --> 00:03:58,197 alguien a su lado cree firmemente que está completamente en lo correcto. 90 00:03:58,197 --> 00:04:01,326 Así de diversos somos los humanos cuando se trata de la moralidad. 91 00:04:01,326 --> 00:04:04,339 Pero dentro de esta amplia diversidad encontramos una tendencia. 92 00:04:04,339 --> 00:04:07,292 La mayoría de las personas en TED pensaron que era aceptable 93 00:04:07,316 --> 00:04:10,071 ignorar los sentimientos de la IA y apagarlo, 94 00:04:10,095 --> 00:04:12,608 y que está mal jugar con nuestros genes 95 00:04:12,632 --> 00:04:16,232 para seleccionar cambios estéticos que no están relacionados con la salud. 96 00:04:16,402 --> 00:04:19,376 Entonces pedimos a todos que se reunieran en grupos de tres. 97 00:04:19,400 --> 00:04:21,437 Y se les dieron dos minutos para debatir 98 00:04:21,461 --> 00:04:23,755 y tratar de llegar a un consenso. 99 00:04:24,838 --> 00:04:26,412 (MS) Dos minutos para debatir. 100 00:04:26,436 --> 00:04:28,555 Les diré cuando sea el momento con el gong. 101 00:04:28,579 --> 00:04:31,219 (La audiencia debate) 102 00:04:35,229 --> 00:04:37,222 (Suena el gong) 103 00:04:38,834 --> 00:04:39,985 (DA) Bien. 104 00:04:40,009 --> 00:04:41,801 (MS) Es hora de parar. 105 00:04:41,825 --> 00:04:43,136 Por favor, por favor -- 106 00:04:43,747 --> 00:04:46,420 MS: Y vimos que muchos grupos llegaron a un consenso 107 00:04:46,444 --> 00:04:50,413 incluso los grupos compuestos por personas con puntos de vista totalmente opuestos. 108 00:04:50,413 --> 00:04:53,547 ¿Qué es lo que distingue a los grupos que llegaron a un consenso 109 00:04:53,547 --> 00:04:54,729 de aquellos que no? 110 00:04:55,244 --> 00:04:58,083 Por lo general, las personas que tienen opiniones extremas 111 00:04:58,107 --> 00:05:00,407 tienen más confianza en sus respuestas. 112 00:05:00,868 --> 00:05:03,554 En cambio, aquellos que responden más cerca del promedio 113 00:05:03,578 --> 00:05:07,015 a menudo no están seguros de si algo está bien o mal, 114 00:05:07,039 --> 00:05:09,167 por lo que su nivel de confianza es menor. 115 00:05:09,505 --> 00:05:12,448 Sin embargo, hay otro grupo de personas 116 00:05:12,472 --> 00:05:16,090 que tienen mucha confianza en responder en algún punto cerca al promedio. 117 00:05:16,657 --> 00:05:20,373 Creemos que los grises con alta confianza son personas que entienden 118 00:05:20,397 --> 00:05:22,269 que ambos argumentos tienen mérito. 119 00:05:22,531 --> 00:05:25,230 Son grises no porque no estén seguros, 120 00:05:25,254 --> 00:05:27,942 sino porque creen que el dilema moral enfrenta 121 00:05:27,966 --> 00:05:29,953 dos argumentos válidos y opuestos. 122 00:05:30,373 --> 00:05:34,445 Y descubrimos que los grupos con grises altamente seguros 123 00:05:34,469 --> 00:05:36,962 son mucho más probables de llegar a un consenso. 124 00:05:36,986 --> 00:05:39,464 Todavía no sabemos exactamente por qué es esto. 125 00:05:39,488 --> 00:05:41,561 Estos son solo los primeros experimentos 126 00:05:41,561 --> 00:05:44,687 y se necesitarán muchos más para entender por qué y cómo 127 00:05:44,711 --> 00:05:47,533 algunas personas deciden negociar su posición moral 128 00:05:47,557 --> 00:05:49,079 para llegar a un acuerdo. 129 00:05:49,103 --> 00:05:51,572 Ahora, cuando los grupos llegan a un consenso, 130 00:05:51,596 --> 00:05:53,182 ¿cómo lo hacen? 131 00:05:53,206 --> 00:05:55,581 La idea más intuitiva es que es solo el promedio 132 00:05:55,581 --> 00:05:57,841 de todas las respuestas en el grupo, ¿verdad? 133 00:05:57,865 --> 00:06:01,438 Otra opción es que el grupo sopesa la fuerza de cada voto 134 00:06:01,462 --> 00:06:03,910 basado en la confianza de la persona que lo expresa 135 00:06:04,422 --> 00:06:06,928 Imagina a Paul McCartney como miembro de tu grupo. 136 00:06:07,352 --> 00:06:09,496 Sería sabio seguir su estimado 137 00:06:09,520 --> 00:06:12,281 en el número de veces que "Ayer" (Yesterday) se repite, 138 00:06:12,281 --> 00:06:14,699 que, por cierto, creo que son nueve. 139 00:06:14,723 --> 00:06:17,104 Pero, en cambio, vemos que consistentemente, 140 00:06:17,128 --> 00:06:19,494 en todos los dilemas, en diferentes experimentos, 141 00:06:19,518 --> 00:06:21,683 incluso en diferentes continentes, 142 00:06:21,707 --> 00:06:25,450 los grupos implementan un inteligente procedimiento estadísticamente sólido 143 00:06:25,474 --> 00:06:27,652 conocido como el "promedio robusto". 144 00:06:27,676 --> 00:06:29,856 En el caso de la altura de la Torre Eiffel, 145 00:06:29,880 --> 00:06:32,130 digamos que un grupo tiene estas respuestas: 146 00:06:32,130 --> 00:06:36,332 250 m, 200 m, 300 m, 400 m 147 00:06:36,356 --> 00:06:40,140 y una respuesta totalmente absurda de 300 millones de m. 148 00:06:40,547 --> 00:06:44,544 Un promedio simple de estos números sesgaría incorrectamente los resultados 149 00:06:44,544 --> 00:06:48,034 Pero el promedio robusto es uno donde el grupo ignora en gran medida 150 00:06:48,058 --> 00:06:49,298 esa respuesta absurda, 151 00:06:49,322 --> 00:06:52,691 dando mucho más peso al voto de las personas en el promedio. 152 00:06:53,305 --> 00:06:55,181 De vuelta al experimento en Vancouver, 153 00:06:55,205 --> 00:06:56,972 eso es exactamente lo que sucedió. 154 00:06:57,407 --> 00:07:00,148 Los grupos dieron mucho menos peso a los valores atípicos, 155 00:07:00,172 --> 00:07:03,401 y en cambio, el consenso resultó ser un promedio robusto 156 00:07:03,425 --> 00:07:04,901 de las respuestas individuales. 157 00:07:05,356 --> 00:07:07,347 Lo más destacable 158 00:07:07,371 --> 00:07:10,558 es que este fue un espontáneo comportamiento del grupo. 159 00:07:10,582 --> 00:07:15,057 Sucedió sin que nosotros diéramos sugerencias sobre cómo llegar al consenso. 160 00:07:15,243 --> 00:07:17,243 Entonces, ¿A dónde vamos desde aquí? 161 00:07:17,432 --> 00:07:20,569 Este es sólo el comienzo, pero ya tenemos algunas ideas. 162 00:07:20,984 --> 00:07:23,901 Las buenas decisiones colectivas requieren dos componentes: 163 00:07:23,925 --> 00:07:26,674 deliberación y diversidad de opiniones. 164 00:07:26,766 --> 00:07:30,166 Ahora la forma en que normalmente hacemos que nuestra voz sea escuchada 165 00:07:30,166 --> 00:07:33,365 en muchas sociedades, es a través de votación directa o indirecta. 166 00:07:33,365 --> 00:07:35,662 Esto es bueno para la diversidad de opiniones 167 00:07:35,662 --> 00:07:37,961 y tiene la gran virtud de asegurar 168 00:07:37,985 --> 00:07:40,440 que todos puedan expresar su opinión. 169 00:07:40,464 --> 00:07:44,199 Pero no es tan bueno para fomentar debates reflexivos. 170 00:07:44,665 --> 00:07:47,733 Nuestros experimentos sugieren un método diferente 171 00:07:47,757 --> 00:07:51,298 que puede ser efectivo para equilibrar estos dos objetivos al mismo tiempo, 172 00:07:51,322 --> 00:07:55,075 formar pequeños grupos que converjan en una sola decisión 173 00:07:55,099 --> 00:07:57,333 mientras se mantiene la diversidad de opiniones 174 00:07:57,357 --> 00:08:00,130 porque hay muchos grupos independientes. 175 00:08:00,741 --> 00:08:04,665 Por supuesto, es mucho más fácil estar de acuerdo en la altura de la Torre Eiffel 176 00:08:04,689 --> 00:08:07,804 que en lo moral, la política y cuestiones ideológicas. 177 00:08:08,721 --> 00:08:11,998 Pero en un tiempo cuando los problemas del mundo son más complejos 178 00:08:12,022 --> 00:08:13,825 y la gente está más polarizada, 179 00:08:13,849 --> 00:08:18,444 usar la ciencia para ayudarnos a entender cómo interactuamos y tomamos decisiones, 180 00:08:18,468 --> 00:08:23,134 muestra nuevas e interesantes formas de construir una mejor democracia.