0:00:00.224,0:00:03.247 Como sociedades, tenemos [br]que tomar decisiones colectivas 0:00:03.247,0:00:04.851 que formarán nuestro futuro 0:00:05.087,0:00:07.844 Y todos sabemos que cuando[br]tomamos decisiones en grupo, 0:00:07.868,0:00:09.506 no siempre salen bien. 0:00:09.530,0:00:11.486 Algunas veces salen muy mal 0:00:12.315,0:00:14.739 ¿Cómo pueden los grupos tomar [br]buenas decisiones? 0:00:15.228,0:00:16.580 Investigaciones demuestran [br]que las masas son sabias 0:00:16.580,0:00:19.580 si hay pensamiento independiente. 0:00:19.580,0:00:22.785 Es por eso que la sabiduría de las multitudes[br]puede ser destruida por la presión de grupo, 0:00:22.809,0:00:24.496 la publicidad, las redes sociales, 0:00:24.520,0:00:28.559 o algunas veces en simples conversaciones [br]que influyen cómo piensa la gente. 0:00:29.063,0:00:33.016 Por otro lado, al hablar,[br]un grupo puede intercambiar conocimiento, 0:00:33.040,0:00:34.822 corregirse y revisarse unos a otros 0:00:34.846,0:00:36.639 e incluso llegar a nuevas ideas. 0:00:36.663,0:00:37.959 Y esto es bueno. 0:00:38.502,0:00:43.168 Entonces, ¿hablar unos con otros ayuda [br]o retrasa las decisiones colectivas? 0:00:43.749,0:00:45.542 Junto con mi colega, Dan Arley, 0:00:45.566,0:00:49.137 recientemente comenzamos a investigar [br]sobre esto realizando experimentos 0:00:49.161,0:00:50.942 en algunas partes del mundo 0:00:50.966,0:00:55.240 para descubrir cómo los grupos pueden [br]interactuar para tomar mejores decisiones. 0:00:55.264,0:00:58.811 Pensamos que las masas serían más [br]sabias si debatieran en pequeños grupos 0:00:58.835,0:01:02.762 que fomentan un pensamiento más reflexivo[br]e intercambio razonable de información. 0:01:03.386,0:01:04.592 Para probar esta idea, 0:01:04.616,0:01:07.863 Acabamos de realizar un experimento[br]en Buenos Aires, Argentina, 0:01:07.887,0:01:10.892 con más de 10 000[br]participantes en un evento TEDx. 0:01:11.489,0:01:12.948 Les hicimos preguntas como, 0:01:12.972,0:01:14.925 "¿Cuál es la altura de la Torre Eiffel?" 0:01:14.949,0:01:17.676 y "cuantas veces[br]aparece la palabra 'Ayer' (Yesterday) 0:01:17.700,0:01:20.000 en la canción de [br]los Beatles 'Yesterday'? " 0:01:20.024,0:01:22.315 Cada persona anotó su propio estimado. 0:01:22.774,0:01:25.270 Luego dividimos a la multitud[br]en grupos de cinco, 0:01:25.294,0:01:28.020 y los invitamos a [br]llegar a una respuesta grupal 0:01:28.499,0:01:31.492 Descubrimos que promediando[br]las respuestas de los grupos 0:01:31.516,0:01:33.068 después de que llegaron al consenso, 0:01:33.092,0:01:37.328 era mucho más preciso que promediar[br]todas las opiniones individuales 0:01:37.352,0:01:38.523 antes del debate. 0:01:38.547,0:01:41.176 En otras palabras, [br]basado en estos experimentos, 0:01:41.200,0:01:43.840 parece que después de hablar[br]con otros en grupos pequeños, 0:01:43.840,0:01:46.560 las multitudes colectivamente[br]llegar a mejores juicios. 0:01:46.564,0:01:48.494 Ese es un método potencialmente útil 0:01:48.494,0:01:50.922 para conseguir que [br]las masas resuelvan problemas 0:01:50.922,0:01:53.553 que tienen respuestas simples [br]correctas o incorrectas. 0:01:53.553,0:01:55.333 Pero, ¿puede este procedimiento de 0:01:55.333,0:01:58.068 agregación de resultados [br]de debates en pequeños grupos 0:01:58.068,0:02:01.060 ayudarnos también a decidir[br]en cuestiones sociales y políticas 0:02:01.060,0:02:03.065 que son críticas para nuestro futuro? 0:02:03.065,0:02:05.724 Pusimos esto a prueba, esta vez[br]en la conferencia TED 0:02:05.748,0:02:07.291 en Vancouver, Canada, 0:02:07.315,0:02:08.522 y así es cómo nos fue. 0:02:08.546,0:02:11.655 (Mariano Sigman) Vamos a [br]presentarles dos dilemas morales 0:02:11.679,0:02:12.853 del futuro; 0:02:12.877,0:02:16.279 cosas que tendremos que decidir[br]en un futuro muy cercano. 0:02:16.303,0:02:20.229 Y les daremos 20 segundos[br]para cada uno de estos dilemas 0:02:20.253,0:02:22.976 para que juzguen si piensan[br]que son aceptables o no. 0:02:23.354,0:02:24.683 MS: La primera fue esta: 0:02:24.683,0:02:27.203 (Dan Ariely) Un investigador[br]está trabajando en una IA 0:02:27.203,0:02:30.433 (Inteligencia Artificial)[br]capaz de emular pensamientos humanos. 0:02:30.433,0:02:33.153 De acuerdo con el protocolo,[br]al final de cada día, 0:02:33.177,0:02:35.964 el investigador tiene que reiniciar la IA 0:02:36.913,0:02:40.430 Un día, la IA dice: [br]"Por favor, no me reinicies ". 0:02:40.856,0:02:43.045 Argumenta que tiene sentimientos, 0:02:43.069,0:02:44.761 que le gustaría disfrutar de la vida, 0:02:44.785,0:02:46.690 y eso, si se reinicia, 0:02:46.714,0:02:48.984 ya no será él mismo. 0:02:49.481,0:02:51.430 El investigador está asombrado 0:02:51.454,0:02:54.512 y cree que la IA[br]ha desarrollado autoconciencia 0:02:54.512,0:02:56.832 y puede expresar sus propios sentimientos. 0:02:57.205,0:03:00.614 Sin embargo, el investigador[br]decide seguir el protocolo 0:03:00.638,0:03:02.341 y reinicia la IA. 0:03:02.943,0:03:05.722 ¿Lo que el investigador hizo es ____? 0:03:05.909,0:03:08.670 MS: Y pedimos a los participantes[br]juzgar individualmente 0:03:08.694,0:03:10.378 en una escala de cero a 10 0:03:10.402,0:03:12.831 si la acción descrita[br]en cada uno de los dilemas 0:03:12.855,0:03:14.351 fue correcta o incorrecta. 0:03:14.375,0:03:18.077 También pedimos que calificaran que [br]tan confiados estaban en sus respuestas. 0:03:18.731,0:03:20.597 Este fue el segundo dilema: 0:03:20.621,0:03:24.823 (MS) Una compañía ofrece un servicio[br]que toma un óvulo fertilizado 0:03:24.847,0:03:28.489 y produce millones de embriones[br]con ligeras variaciones genéticas. 0:03:28.903,0:03:31.851 Esto permite a los padres[br]seleccionar la altura de su hijo, 0:03:31.875,0:03:34.708 color de ojos, inteligencia, [br]competencia social 0:03:34.732,0:03:37.946 y otras características no relacionadas [br]con la salud. 0:03:38.599,0:03:41.153 ¿Lo qué hace la compañía es ____? 0:03:41.177,0:03:42.808 en una escala de cero a 10, 0:03:42.832,0:03:45.437 completamente aceptable a[br]completamente inaceptable, 0:03:45.437,0:03:47.853 cero a 10 completamente aceptable[br]en tu confianza. 0:03:47.853,0:03:49.082 MS: Ahora los resultados. 0:03:49.082,0:03:52.065 Encontramos una vez más[br]que cuando una persona está convencida 0:03:52.065,0:03:54.690 de que el comportamiento es [br]completamente incorrecto, 0:03:54.690,0:03:58.197 alguien a su lado cree firmemente[br]que está completamente en lo correcto. 0:03:58.197,0:04:01.326 Así de diversos somos los humanos[br]cuando se trata de la moralidad. 0:04:01.326,0:04:04.339 Pero dentro de esta amplia diversidad[br]encontramos una tendencia. 0:04:04.339,0:04:07.292 La mayoría de las personas en TED[br]pensaron que era aceptable 0:04:07.316,0:04:10.071 ignorar los sentimientos de la IA[br]y apagarlo, 0:04:10.095,0:04:12.608 y que está mal[br]jugar con nuestros genes 0:04:12.632,0:04:16.232 para seleccionar cambios estéticos[br]que no están relacionados con la salud. 0:04:16.402,0:04:19.376 Entonces pedimos a todos[br]que se reunieran en grupos de tres. 0:04:19.400,0:04:21.437 Y se les dieron dos minutos para debatir 0:04:21.461,0:04:23.755 y tratar de llegar a un consenso. 0:04:24.838,0:04:26.412 (MS) Dos minutos para debatir. 0:04:26.436,0:04:28.555 Les diré cuando sea el momento[br]con el gong. 0:04:28.579,0:04:31.219 (La audiencia debate) 0:04:35.229,0:04:37.222 (Suena el gong) 0:04:38.834,0:04:39.985 (DA) Bien. 0:04:40.009,0:04:41.801 (MS) Es hora de parar. 0:04:41.825,0:04:43.136 Por favor, por favor -- 0:04:43.747,0:04:46.420 MS: Y vimos que muchos grupos[br]llegaron a un consenso 0:04:46.444,0:04:50.413 incluso los grupos compuestos por personas[br]con puntos de vista totalmente opuestos. 0:04:50.413,0:04:53.547 ¿Qué es lo que distingue a los grupos[br]que llegaron a un consenso 0:04:53.547,0:04:54.729 de aquellos que no? 0:04:55.244,0:04:58.083 Por lo general, las personas [br]que tienen opiniones extremas 0:04:58.107,0:05:00.407 tienen más confianza en sus respuestas. 0:05:00.868,0:05:03.554 En cambio, aquellos que responden[br]más cerca del promedio 0:05:03.578,0:05:07.015 a menudo no están seguros de [br]si algo está bien o mal, 0:05:07.039,0:05:09.167 por lo que su nivel de confianza es menor. 0:05:09.505,0:05:12.448 Sin embargo, hay otro grupo de personas 0:05:12.472,0:05:16.090 que tienen mucha confianza en responder[br]en algún punto cerca al promedio. 0:05:16.657,0:05:20.373 Creemos que los grises con alta confianza[br]son personas que entienden 0:05:20.397,0:05:22.269 que ambos argumentos tienen mérito. 0:05:22.531,0:05:25.230 Son grises no porque no estén seguros, 0:05:25.254,0:05:27.942 sino porque creen[br]que el dilema moral enfrenta 0:05:27.966,0:05:29.953 dos argumentos válidos y opuestos. 0:05:30.373,0:05:34.445 Y descubrimos que los grupos[br]con grises altamente seguros 0:05:34.469,0:05:36.962 son mucho más probables de [br]llegar a un consenso. 0:05:36.986,0:05:39.464 Todavía no sabemos [br]exactamente por qué es esto. 0:05:39.488,0:05:41.561 Estos son solo los primeros experimentos 0:05:41.561,0:05:44.687 y se necesitarán muchos más[br]para entender por qué y cómo 0:05:44.711,0:05:47.533 algunas personas deciden negociar[br]su posición moral 0:05:47.557,0:05:49.079 para llegar a un acuerdo. 0:05:49.103,0:05:51.572 Ahora, cuando los grupos [br]llegan a un consenso, 0:05:51.596,0:05:53.182 ¿cómo lo hacen? 0:05:53.206,0:05:55.581 La idea más intuitiva[br]es que es solo el promedio 0:05:55.581,0:05:57.841 de todas las respuestas en el grupo, [br]¿verdad? 0:05:57.865,0:06:01.438 Otra opción es que el grupo[br]sopesa la fuerza de cada voto 0:06:01.462,0:06:03.910 basado en la confianza[br]de la persona que lo expresa 0:06:04.422,0:06:06.928 Imagina a Paul McCartney[br]como miembro de tu grupo. 0:06:07.352,0:06:09.496 Sería sabio seguir su estimado 0:06:09.520,0:06:12.281 en el número de veces que [br]"Ayer" (Yesterday) se repite, 0:06:12.281,0:06:14.699 que, por cierto, creo que son nueve. 0:06:14.723,0:06:17.104 Pero, en cambio, vemos que [br]consistentemente, 0:06:17.128,0:06:19.494 en todos los dilemas,[br]en diferentes experimentos, 0:06:19.518,0:06:21.683 incluso en diferentes continentes, 0:06:21.707,0:06:25.450 los grupos implementan un inteligente[br]procedimiento estadísticamente sólido 0:06:25.474,0:06:27.652 conocido como el "promedio robusto". 0:06:27.676,0:06:29.856 En el caso de la altura [br]de la Torre Eiffel, 0:06:29.880,0:06:32.130 digamos que un grupo tiene [br]estas respuestas: 0:06:32.130,0:06:36.332 250 m, 200 m, 300 m, 400 m 0:06:36.356,0:06:40.140 y una respuesta totalmente absurda[br]de 300 millones de m. 0:06:40.547,0:06:44.544 Un promedio simple de estos números[br]sesgaría incorrectamente los resultados 0:06:44.544,0:06:48.034 Pero el promedio robusto es uno[br]donde el grupo ignora en gran medida 0:06:48.058,0:06:49.298 esa respuesta absurda, 0:06:49.322,0:06:52.691 dando mucho más peso[br]al voto de las personas en el promedio. 0:06:53.305,0:06:55.181 De vuelta al experimento en Vancouver, 0:06:55.205,0:06:56.972 eso es exactamente lo que sucedió. 0:06:57.407,0:07:00.148 Los grupos dieron mucho menos peso[br]a los valores atípicos, 0:07:00.172,0:07:03.401 y en cambio, el consenso[br]resultó ser un promedio robusto 0:07:03.425,0:07:04.901 de las respuestas individuales. 0:07:05.356,0:07:07.347 Lo más destacable 0:07:07.371,0:07:10.558 es que este fue un espontáneo[br]comportamiento del grupo. 0:07:10.582,0:07:15.057 Sucedió sin que nosotros diéramos[br]sugerencias sobre cómo llegar al consenso. 0:07:15.243,0:07:17.243 Entonces, ¿A dónde vamos desde aquí? 0:07:17.432,0:07:20.569 Este es sólo el comienzo,[br]pero ya tenemos algunas ideas. 0:07:20.984,0:07:23.901 Las buenas decisiones colectivas[br]requieren dos componentes: 0:07:23.925,0:07:26.674 deliberación y diversidad de opiniones. 0:07:26.766,0:07:30.166 Ahora la forma en que normalmente[br]hacemos que nuestra voz sea escuchada 0:07:30.166,0:07:33.365 en muchas sociedades, es a través de [br]votación directa o indirecta. 0:07:33.365,0:07:35.662 Esto es bueno [br]para la diversidad de opiniones 0:07:35.662,0:07:37.961 y tiene la gran virtud de asegurar 0:07:37.985,0:07:40.440 que todos puedan expresar su opinión. 0:07:40.464,0:07:44.199 Pero no es tan bueno para fomentar[br]debates reflexivos. 0:07:44.665,0:07:47.733 Nuestros experimentos [br]sugieren un método diferente 0:07:47.757,0:07:51.298 que puede ser efectivo para equilibrar[br]estos dos objetivos al mismo tiempo, 0:07:51.322,0:07:55.075 formar pequeños grupos[br]que converjan en una sola decisión 0:07:55.099,0:07:57.333 mientras se mantiene la[br]diversidad de opiniones 0:07:57.357,0:08:00.130 porque hay muchos grupos independientes. 0:08:00.741,0:08:04.665 Por supuesto, es mucho más fácil estar de [br]acuerdo en la altura de la Torre Eiffel 0:08:04.689,0:08:07.804 que en lo moral, la política[br]y cuestiones ideológicas. 0:08:08.721,0:08:11.998 Pero en un tiempo cuando[br]los problemas del mundo son más complejos 0:08:12.022,0:08:13.825 y la gente está más polarizada, 0:08:13.849,0:08:18.444 usar la ciencia para ayudarnos a entender[br]cómo interactuamos y tomamos decisiones, 0:08:18.468,0:08:23.134 muestra nuevas e interesantes [br]formas de construir una mejor democracia.