1 00:00:00,835 --> 00:00:02,990 Mark Twain resumió lo que considero es 2 00:00:02,990 --> 00:00:06,110 uno de los problemas fundamentales de la ciencia cognitiva 3 00:00:06,110 --> 00:00:07,820 con un solo chiste. 4 00:00:08,410 --> 00:00:11,492 Dijo: "Hay algo fascinante en la ciencia. 5 00:00:11,492 --> 00:00:14,720 Uno obtiene enormes retornos en conjeturas 6 00:00:14,720 --> 00:00:17,924 con muy poca inversión en hechos". 7 00:00:17,924 --> 00:00:19,509 (Risas) 8 00:00:20,199 --> 00:00:22,803 Twain lo decía en broma, claro, pero tiene razón: 9 00:00:22,803 --> 00:00:25,679 Hay algo fascinante en la ciencia. 10 00:00:25,679 --> 00:00:29,940 A partir de unos pocos huesos, inferimos la existencia de dinosaurios. 11 00:00:30,910 --> 00:00:34,781 A partir de las líneas espectrales, la composición de las nebulosas. 12 00:00:35,471 --> 00:00:38,409 A partir de moscas de la fruta, 13 00:00:38,409 --> 00:00:41,352 los mecanismos de la herencia, 14 00:00:41,352 --> 00:00:45,601 y a partir de imágenes reconstruidas de sangre que fluye a través del cerebro, 15 00:00:45,601 --> 00:00:50,309 o en mi caso, desde el comportamiento de los niños muy pequeños, 16 00:00:50,309 --> 00:00:53,137 tratamos de decir algo sobre los mecanismos fundamentales 17 00:00:53,137 --> 00:00:54,756 de la cognición humana. 18 00:00:55,502 --> 00:00:57,475 En particular, en mi laboratorio en el 19 00:00:57,475 --> 00:01:00,475 Departamento de Cerebro y Ciencias Cognitivas del MIT, 20 00:01:00,475 --> 00:01:04,129 he pasado los últimos diez años tratando de entender el misterio 21 00:01:04,129 --> 00:01:08,106 de cómo los niños aprenden mucho rápidamente a partir de tan poco. 22 00:01:08,666 --> 00:01:11,644 Porque resulta que lo fascinante de la ciencia 23 00:01:11,644 --> 00:01:15,173 es también una cosa fascinante en los niños, 24 00:01:15,173 --> 00:01:17,980 que, para ponerlo en términos de Mark Twain, pero más suave 25 00:01:17,980 --> 00:01:22,404 es precisamente su capacidad para dibujar ricas inferencias abstractas 26 00:01:22,404 --> 00:01:27,065 rápidamente y con precisión a partir de datos dispersos, confusos. 27 00:01:28,355 --> 00:01:30,753 Daré solo dos ejemplos hoy. 28 00:01:30,753 --> 00:01:33,040 Uno es sobre un problema de generalización, 29 00:01:33,040 --> 00:01:35,890 y el otro sobre un problema de razonamiento causal. 30 00:01:35,890 --> 00:01:38,415 Y aunque hablaré del trabajo en mi laboratorio, 31 00:01:38,415 --> 00:01:41,875 este trabajo se inspira y está en deuda con un campo. 32 00:01:41,875 --> 00:01:46,158 Se lo agradezco a los mentores, colegas y colaboradores de todo el mundo. 33 00:01:47,308 --> 00:01:50,282 Permítanme comenzar con el problema de la generalización. 34 00:01:50,652 --> 00:01:52,765 Generalizar a partir de pequeñas muestras de datos 35 00:01:52,765 --> 00:01:54,785 es el pan de cada día de la ciencia. 36 00:01:54,785 --> 00:01:57,339 Entrevistamos a una pequeña fracción del electorado 37 00:01:57,339 --> 00:02:00,260 y podemos predecir el resultado de las elecciones nacionales. 38 00:02:00,260 --> 00:02:04,165 Vemos un puñado de pacientes responder al tratamiento en un ensayo clínico, 39 00:02:04,165 --> 00:02:07,230 y lanzamos los fármacos a un mercado nacional. 40 00:02:07,230 --> 00:02:11,595 Pero esto solo funciona si la muestra se extrae al azar de la población. 41 00:02:11,595 --> 00:02:14,330 Si la muestra es seleccionada de alguna manera 42 00:02:14,330 --> 00:02:16,715 --por ejemplo, un sondeo a solo votantes urbanos, 43 00:02:16,715 --> 00:02:20,790 o, en un ensayo clínico de tratamientos para enfermedades del corazón, 44 00:02:20,790 --> 00:02:22,671 solo incluimos hombres-- 45 00:02:22,671 --> 00:02:25,829 los resultados no pueden generalizarse a la población en general. 46 00:02:26,479 --> 00:02:29,726 Los científicos se preocupan si la evidencia es tomada o no al azar, 47 00:02:29,726 --> 00:02:31,928 pero ¿qué tiene esto que ver con los bebés? 48 00:02:32,588 --> 00:02:34,792 Los bebés tienen que generalizar a partir de 49 00:02:34,792 --> 00:02:37,206 pequeñas muestras de datos todo el tiempo. 50 00:02:37,206 --> 00:02:40,364 Ellos ven un par de patos de goma y aprenden que flotan, 51 00:02:40,364 --> 00:02:43,939 o un par de pelotas y aprenden que rebotan. 52 00:02:43,939 --> 00:02:46,890 Y desarrollan expectativas sobre patos y pelotas 53 00:02:46,890 --> 00:02:49,606 que van a extender a los patos de goma y a las pelotas 54 00:02:49,606 --> 00:02:51,485 por el resto de sus vidas. 55 00:02:51,485 --> 00:02:55,224 El tipo de generalizaciones que los bebés tienen que hacer sobre patos y bolas 56 00:02:55,224 --> 00:02:57,313 tienen que hacerlas con casi todo: 57 00:02:57,313 --> 00:03:01,230 zapatos y barcos y cera y coles y reyes. 58 00:03:02,200 --> 00:03:05,161 ¿A los bebés les importa si las pocas pruebas que ven, 59 00:03:05,161 --> 00:03:08,853 representan una población más grande? 60 00:03:09,763 --> 00:03:11,663 Vamos a ver. 61 00:03:11,663 --> 00:03:13,386 Les mostraré dos películas, 62 00:03:13,386 --> 00:03:16,134 una de cada una de las dos condiciones de un experimento, 63 00:03:16,134 --> 00:03:18,286 y como son solo dos películas, 64 00:03:18,286 --> 00:03:20,422 verán solo dos bebés, 65 00:03:20,422 --> 00:03:24,369 y los dos bebés difieren entre sí en innumerables maneras. 66 00:03:24,369 --> 00:03:27,420 Pero estos bebés, por supuesto, son parte de grupos de bebés, 67 00:03:27,420 --> 00:03:29,315 y las diferencias que verán 68 00:03:29,315 --> 00:03:32,426 representan diferencias del grupo promedio 69 00:03:32,426 --> 00:03:35,160 en el comportamiento según las condiciones. 70 00:03:35,160 --> 00:03:37,743 En cada película, verán a un bebé haciendo 71 00:03:37,743 --> 00:03:41,203 exactamente lo que cabría esperar que haga un bebé, 72 00:03:41,203 --> 00:03:45,220 y difícilmente podemos hacer a los bebés más mágicos de lo que ya son. 73 00:03:46,090 --> 00:03:48,100 Pero a para mi mente lo mágico, 74 00:03:48,100 --> 00:03:50,189 y a lo que quiero que presten atención, 75 00:03:50,189 --> 00:03:53,300 es al contraste entre estas dos condiciones, 76 00:03:53,300 --> 00:03:56,829 porque lo único en que se diferencian estas dos películas 77 00:03:56,829 --> 00:04:00,295 es la evidencia estadística que los bebés observarán. 78 00:04:01,425 --> 00:04:04,608 Les mostraremos una caja de bolas de color azul y amarillo, 79 00:04:04,608 --> 00:04:09,228 y mi entonces estudiante de posgrado, ahora colega en Stanford, Hyowon Gweon, 80 00:04:09,228 --> 00:04:12,305 sacará tres bolas de color azul en fila de esta caja, 81 00:04:12,305 --> 00:04:15,428 y al sacar esas bolas fuera, las apretará, 82 00:04:15,428 --> 00:04:17,541 y las bolas chirriarán. 83 00:04:17,541 --> 00:04:20,303 Y si fueran el bebé, sería como una TED Talk. 84 00:04:20,303 --> 00:04:22,208 No hay nada mejor que eso. 85 00:04:22,208 --> 00:04:24,769 (Risas) 86 00:04:26,968 --> 00:04:30,627 Pero el punto importante es que es muy fácil sacar tres bolas azules en fila 87 00:04:30,627 --> 00:04:32,932 de una caja de pelotas en su mayoría azules. 88 00:04:32,932 --> 00:04:34,992 Podrían hacerlo con los ojos cerrados. 89 00:04:34,992 --> 00:04:37,988 Es posible una muestra aleatoria de esta población. 90 00:04:37,988 --> 00:04:41,720 Y si se pueden sacar de la caja al azar y sacar cosas que chirrían, 91 00:04:41,720 --> 00:04:44,559 entonces tal vez todo en la caja chirría. 92 00:04:44,559 --> 00:04:48,209 Tal vez los bebés deben esperar que esas bolas amarillas chirríen también. 93 00:04:48,209 --> 00:04:50,728 Las bolas amarillas tienen palos divertidos al final, 94 00:04:50,728 --> 00:04:53,585 así los bebés podrían hacer otras cosas con ellas si quisieran. 95 00:04:53,585 --> 00:04:55,416 Podrían sacudirlas o golpear a ellas. 96 00:04:55,416 --> 00:04:58,002 Pero vamos a ver lo que hace el bebé. 97 00:05:00,548 --> 00:05:03,891 (Video) Hyowon Gweon: ¿Ves esto? (Bola chirría) 98 00:05:04,531 --> 00:05:07,576 ¿Viste eso? (Bola chirría) 99 00:05:08,036 --> 00:05:11,102 Genial. 100 00:05:12,706 --> 00:05:14,656 ¿Ves este? 101 00:05:14,656 --> 00:05:16,537 (Bola chirría) 102 00:05:16,537 --> 00:05:19,190 Guauu. 103 00:05:21,854 --> 00:05:23,967 Laura Schulz: Lo dije. (Risas) 104 00:05:23,967 --> 00:05:27,998 (Video) HG: ¿Ves este? (Bola chirría) 105 00:05:27,998 --> 00:05:32,617 Clara, este es para ti. Puedes jugar. 106 00:05:39,854 --> 00:05:44,219 (Risas) 107 00:05:44,219 --> 00:05:47,214 LS: No tengo ni siquiera que hablar, ¿verdad? 108 00:05:47,214 --> 00:05:50,113 Está bien, es bueno que los bebés generalicen propiedades 109 00:05:50,113 --> 00:05:51,641 de bolas azules a amarillas, 110 00:05:51,641 --> 00:05:54,737 y es impresionante que pueden aprender de nosotros imitando, 111 00:05:54,737 --> 00:05:58,406 pero ido aprendiendo esas cosas de los bebés durante mucho tiempo. 112 00:05:58,406 --> 00:06:00,217 La pregunta realmente interesante 113 00:06:00,217 --> 00:06:03,069 es qué sucede cuando les mostramos a los bebés lo mismo, 114 00:06:03,069 --> 00:06:06,680 y sabemos que es lo mismo, porque tenemos un compartimiento secreto 115 00:06:06,680 --> 00:06:08,790 y que en realidad tomamos las bolas de allí, 116 00:06:08,790 --> 00:06:12,268 pero esta vez, lo único que cambiamos es la población aparente 117 00:06:12,268 --> 00:06:15,170 de la que se extrae la evidencia. 118 00:06:15,170 --> 00:06:18,723 Esta vez, mostraremos a los bebés tres bolas azules 119 00:06:18,723 --> 00:06:22,107 sacadas de una caja de pelotas en su mayoría de color amarillo, 120 00:06:22,107 --> 00:06:23,429 ¿y adivinen qué? 121 00:06:23,429 --> 00:06:26,269 Seguramente no sacarán al azar tres bolas azules en fila 122 00:06:26,269 --> 00:06:28,753 de una caja de pelotas en su mayoría amarillas. 123 00:06:28,753 --> 00:06:32,500 Eso no es plausible en muestreos aleatorios. 124 00:06:32,500 --> 00:06:37,623 Esa evidencia sugiere que tal vez Hyowon tomaba deliberadamente las bolas azules. 125 00:06:37,623 --> 00:06:40,206 Tal vez hay algo especial con las bolas azules. 126 00:06:40,846 --> 00:06:43,822 Tal vez solo las bolas azules chirrían. 127 00:06:43,822 --> 00:06:45,717 Vamos a ver lo que hace el bebé. 128 00:06:45,717 --> 00:06:48,621 (Video) HG: ¿Ves esto? (Bola chirría) 129 00:06:50,851 --> 00:06:53,496 ¿Ves este juguete? (Bola chirría) 130 00:06:53,496 --> 00:06:58,976 Oh, eso fue genial. ¿Ves? (Bola chirría) 131 00:06:58,976 --> 00:07:03,370 Este es para que juegues. Puedes jugar. 132 00:07:06,074 --> 00:07:12,421 (Hace ruidos) (Risas) 133 00:07:14,901 --> 00:07:17,649 LS: Acaban de ver dos bebés de 15 meses de edad 134 00:07:17,649 --> 00:07:19,591 hacer cosas completamente diferentes 135 00:07:19,591 --> 00:07:23,190 basados solo en la probabilidad de la muestra que observaron. 136 00:07:23,190 --> 00:07:25,511 Les enseñaré los resultados experimentales. 137 00:07:25,511 --> 00:07:28,275 En el eje vertical, verán el porcentaje de bebés 138 00:07:28,275 --> 00:07:30,805 que apretaron la pelota en cada condición, 139 00:07:30,805 --> 00:07:34,520 y como verán, los bebés son mucho más propensos a generalizar las pruebas 140 00:07:34,520 --> 00:07:37,655 cuando es plausiblemente representativa de la población 141 00:07:37,655 --> 00:07:41,393 que cuando la evidencia es claramente escogida. 142 00:07:41,393 --> 00:07:43,808 Y esto lleva a una predicción extraña: 143 00:07:43,808 --> 00:07:48,676 Supongamos que sacamos solo una bola azul de una caja con mayoría amarilla. 144 00:07:48,896 --> 00:07:52,765 Probablemente no sacarán tres azules en fila al azar de una caja de amarillas, 145 00:07:52,765 --> 00:07:55,220 pero se podría solo una bola azul al azar. 146 00:07:55,220 --> 00:07:57,190 Esa no es una muestra improbable. 147 00:07:57,190 --> 00:07:59,414 Y si pudieran tomar una al azar de una caja 148 00:07:59,414 --> 00:08:03,401 y sacar algo que chirría, tal vez todo en la caja chirriaría. 149 00:08:03,875 --> 00:08:08,320 Así que a pesar de que los bebés verán mucha menos evidencia de chirridos, 150 00:08:08,320 --> 00:08:10,562 y tienen muchas menos acciones para imitar 151 00:08:10,562 --> 00:08:13,905 en esta condición de una bola que es la que van a ver, 152 00:08:13,905 --> 00:08:17,797 predijimos que los bebés sí la exprimirían más, 153 00:08:17,797 --> 00:08:20,691 y eso es exactamente lo que encontramos. 154 00:08:20,691 --> 00:08:25,102 Los bebés de 15 meses de edad, en este sentido, al igual que los científicos, 155 00:08:25,102 --> 00:08:28,190 tienen cuidado de si la evidencia es de una muestra al azar o no, 156 00:08:28,190 --> 00:08:31,697 y utilizan esto para desarrollar expectativas sobre el mundo: 157 00:08:31,697 --> 00:08:33,879 que chirría y que no, 158 00:08:33,879 --> 00:08:37,024 qué explorar y qué ignorar. 159 00:08:38,384 --> 00:08:40,450 Les mostraré otro ejemplo, 160 00:08:40,450 --> 00:08:43,179 sobre un problema de razonamiento causal. 161 00:08:43,179 --> 00:08:45,619 Comienza con un problema confuso de evidencia 162 00:08:45,619 --> 00:08:47,291 que todos tenemos, 163 00:08:47,291 --> 00:08:49,311 que es que somos parte del mundo. 164 00:08:49,311 --> 00:08:52,747 Puede no parecer un problema, pero como la mayoría de los problemas, 165 00:08:52,747 --> 00:08:55,084 es solo un problema cuando las cosas van mal. 166 00:08:55,464 --> 00:08:57,275 Tomen este bebé, por ejemplo. 167 00:08:57,275 --> 00:08:58,980 Las cosas van mal para él. 168 00:08:58,980 --> 00:09:01,251 Le gustaría jugar con este juguete, y no puede. 169 00:09:01,251 --> 00:09:03,780 Les mostraré unos pocos segundos del clip. 170 00:09:09,340 --> 00:09:11,260 Hay dos grandes posibilidades: 171 00:09:11,260 --> 00:09:13,894 Tal vez él está haciendo algo mal, 172 00:09:13,894 --> 00:09:18,110 o tal vez hay algo mal con el juguete. 173 00:09:18,110 --> 00:09:20,221 Así que en el siguiente experimento, 174 00:09:20,221 --> 00:09:23,518 daremos a los bebés solo unos pocos datos estadísticos 175 00:09:23,518 --> 00:09:26,100 para apoyar una hipótesis sobre la otra, 176 00:09:26,100 --> 00:09:29,555 y veremos si pueden usarlos para tomar decisiones diferentes 177 00:09:29,555 --> 00:09:31,389 acerca de qué hacer. 178 00:09:31,389 --> 00:09:33,411 Aquí está la configuración. 179 00:09:34,071 --> 00:09:37,101 Hyowon intentará que el juguete funcione y tenga éxito. 180 00:09:37,101 --> 00:09:40,421 Yo a continuación lo intentaré dos veces y fallaré en ambas, 181 00:09:40,421 --> 00:09:43,533 y luego Hyowon lo intentará de nuevo y tendrá éxito, 182 00:09:43,533 --> 00:09:46,705 lo que resume casi mi relación con mis estudiantes de posgrado 183 00:09:46,705 --> 00:09:49,540 en tecnología en todos los ámbitos. 184 00:09:50,030 --> 00:09:53,322 Pero el punto importante aquí es que proporciona algo de evidencia 185 00:09:53,322 --> 00:09:56,990 que el problema no es con el juguete, que es con la persona. 186 00:09:56,990 --> 00:09:59,340 Algunos pueden hacer funcionar este juguete, 187 00:09:59,340 --> 00:10:00,299 y otros no pueden. 188 00:10:00,799 --> 00:10:04,212 Cuando el bebé recibe el juguete, optará por una alternativa. 189 00:10:04,212 --> 00:10:06,400 Su mamá está ahí, 190 00:10:06,400 --> 00:10:09,715 para que pueda continuar y cambiar a la persona, 191 00:10:09,715 --> 00:10:12,873 pero también habrá otro juguete al final de esa tela, 192 00:10:12,873 --> 00:10:16,425 y él puede tirar de la tela hacia él y cambiar el juguete. 193 00:10:16,425 --> 00:10:18,515 Así que veamos qué hace el bebé. 194 00:10:18,515 --> 00:10:22,698 (Video) HG: Dos, tres. ¡Adelante! (Música) 195 00:10:22,698 --> 00:10:25,829 LS: Uno, dos, tres, ¡ya! 196 00:10:25,829 --> 00:10:33,211 Arthur, voy a intentarlo de nuevo. Uno, dos, tres, ¡ya! 197 00:10:33,677 --> 00:10:36,277 YG: Arthur, déjame intentarlo de nuevo, ¿de acuerdo? 198 00:10:36,277 --> 00:10:40,827 Uno, dos, tres, ¡ya! (Música) 199 00:10:41,583 --> 00:10:43,466 Mira eso. ¿Recuerdas estos juguetes? 200 00:10:43,466 --> 00:10:46,730 ¿Ves estos juguetes? Sí, voy a poner este aquí, 201 00:10:46,730 --> 00:10:48,792 y te voy a dar este. 202 00:10:48,792 --> 00:10:51,127 Puede jugar. 203 00:11:11,213 --> 00:11:15,950 BT: Bueno, Laura, pero, por supuesto, los bebés aman a sus mamás. 204 00:11:15,950 --> 00:11:18,132 Claro, los bebés dan juguetes a sus mamás 205 00:11:18,132 --> 00:11:20,162 cuando no pueden hacer que funcionen. 206 00:11:20,162 --> 00:11:23,755 De nuevo, la pregunta realmente importante es qué sucede cuando cambiamos 207 00:11:23,755 --> 00:11:26,909 los datos estadísticos ligeramente. 208 00:11:26,909 --> 00:11:30,996 Esta vez, los bebés verán el juguete funcionar y fallar en el mismo orden, 209 00:11:30,996 --> 00:11:33,411 pero cambiamos la distribución de las pruebas. 210 00:11:33,411 --> 00:11:37,822 Esta vez, Hyowon tendrá éxito una vez y fallará otra, y yo también 211 00:11:37,822 --> 00:11:43,459 Y esto sugiere que no importa quién usa el juguete, el juguete falla. 212 00:11:43,459 --> 00:11:45,345 No funciona todo el tiempo. 213 00:11:45,345 --> 00:11:47,310 Una vez más, el bebé tendrá una elección. 214 00:11:47,310 --> 00:11:50,706 Su mamá está justo al lado, para que ella pueda cambiar a la persona, 215 00:11:50,706 --> 00:11:53,910 y habrá otro juguete al final de la tela. 216 00:11:53,910 --> 00:11:55,288 Vamos a ver lo que hace. 217 00:11:55,288 --> 00:11:59,636 (Video) HG: Dos, tres, ¡ya! (Música) 218 00:11:59,636 --> 00:12:04,620 Déjame intentarlo una vez más. Uno, dos, tres, ¡ya! 219 00:12:05,460 --> 00:12:07,157 Hmm. 220 00:12:07,950 --> 00:12:10,642 LS: Déjame intentar, Clara. 221 00:12:10,642 --> 00:12:14,587 Uno, dos, tres, ¡ya! 222 00:12:15,265 --> 00:12:17,200 Hmm, déjame intentarlo de nuevo. 223 00:12:17,200 --> 00:12:22,870 Uno, dos, tres, ¡ya! (Música) 224 00:12:23,009 --> 00:12:25,242 HG: Voy a poner este por aquí, 225 00:12:25,242 --> 00:12:27,243 y te voy a dar éste. 226 00:12:27,243 --> 00:12:30,840 Puedes usarlo y jugar. 227 00:12:46,376 --> 00:12:51,273 (Aplausos) 228 00:12:52,993 --> 00:12:55,385 LS: Les mostrará los resultados experimentales. 229 00:12:55,385 --> 00:12:57,860 En el eje vertical, verán la distribución 230 00:12:57,860 --> 00:13:00,437 de opciones de los niños en cada condición, 231 00:13:00,437 --> 00:13:04,988 y verán que la distribución de las opciones de los niños 232 00:13:04,988 --> 00:13:07,775 dependen de los ensayos que observan. 233 00:13:07,775 --> 00:13:09,632 Así, en el segundo año de vida, 234 00:13:09,632 --> 00:13:12,209 los bebés pueden usar algo de los datos estadísticos 235 00:13:12,209 --> 00:13:15,576 para decidir entre dos estrategias fundamentalmente diferentes 236 00:13:15,576 --> 00:13:17,457 para actuar en el mundo: 237 00:13:17,457 --> 00:13:20,200 pedir ayuda y explorar. 238 00:13:21,700 --> 00:13:25,134 Acabo de mostrarles dos experimentos de laboratorio 239 00:13:25,134 --> 00:13:28,825 de literalmente cientos en el campo que llegan a resultados similares, 240 00:13:28,825 --> 00:13:31,217 debido a que el punto realmente crítico es 241 00:13:31,217 --> 00:13:36,325 que la capacidad de los niños para hacer inferencias a partir de datos escasos 242 00:13:36,325 --> 00:13:41,666 subyace a todo el aprendizaje cultural específico de la especie. 243 00:13:41,666 --> 00:13:46,263 Los niños aprenden nuevas herramientas a partir de solo algunos ejemplos. 244 00:13:46,263 --> 00:13:50,980 Aprenden nuevas relaciones causales a partir de solo algunos ejemplos. 245 00:13:51,928 --> 00:13:56,799 Incluso aprenden nuevas palabras, en este caso en el lenguaje de señas americano. 246 00:13:56,799 --> 00:13:59,110 Quiero cerrar con solo dos puntos. 247 00:14:00,050 --> 00:14:03,738 Si han seguido mi mundo, el campo de las ciencias cerebrales y cognitivas, 248 00:14:03,738 --> 00:14:05,665 en los últimos años, 249 00:14:05,665 --> 00:14:08,080 tres grandes ideas habrán llamado su atención. 250 00:14:08,080 --> 00:14:11,516 La primera es que esta es la era del cerebro. 251 00:14:11,516 --> 00:14:15,185 Y, en efecto, ha habido descubrimientos asombrosos en neurociencia: 252 00:14:15,185 --> 00:14:18,621 localización de regiones funcionalmente especializados de la corteza, 253 00:14:18,621 --> 00:14:21,222 logrando cerebros de ratón transparentes, 254 00:14:21,222 --> 00:14:24,998 la activación de las neuronas con la luz. 255 00:14:24,998 --> 00:14:26,994 Una segunda gran idea 256 00:14:26,994 --> 00:14:31,098 es que esta es la era de los grandes datos y el aprendizaje automático, 257 00:14:31,098 --> 00:14:34,392 y las máquinas que aprenden prometen revolucionar nuestra comprensión 258 00:14:34,392 --> 00:14:38,906 de todo, desde las redes sociales a la epidemiología. 259 00:14:38,906 --> 00:14:41,599 Tal vez, al afrontar problemas de la escena comprensión 260 00:14:41,599 --> 00:14:43,592 y el procesamiento del lenguaje natural, 261 00:14:43,592 --> 00:14:46,916 nos diga algo sobre la cognición humana. 262 00:14:47,756 --> 00:14:49,693 Y la gran idea final que habrán oído 263 00:14:49,693 --> 00:14:53,080 es que tal vez es una buena idea que vamos a saber tanto de cerebros 264 00:14:53,080 --> 00:14:54,997 y tener tanto acceso a grandes datos, 265 00:14:54,997 --> 00:14:57,504 porque dejaremos a nuestros propios dispositivos, 266 00:14:57,504 --> 00:15:01,335 los seres humanos son falibles, tomamos atajos, 267 00:15:01,335 --> 00:15:04,772 erramos, cometemos errores, 268 00:15:04,772 --> 00:15:08,456 estamos sesgados, y en innumerables formas, 269 00:15:08,456 --> 00:15:11,425 obtenemos el mundo equivocado. 270 00:15:12,843 --> 00:15:15,792 Creo que estas son todas historias importantes, 271 00:15:15,792 --> 00:15:19,577 y tienen mucho que decirnos acerca de lo que significa ser humano, 272 00:15:19,577 --> 00:15:23,106 pero tengan en cuenta que hoy les conté una historia muy diferente. 273 00:15:23,966 --> 00:15:27,773 Es una historia acerca de la mente y no del cerebro, 274 00:15:27,773 --> 00:15:30,779 y, en particular, es una historia sobre los tipos de cálculos 275 00:15:30,779 --> 00:15:33,369 que las mentes humanas pueden realizar de forma única, 276 00:15:33,369 --> 00:15:37,313 que implican, ricos conocimientos estructurados y capacidad de aprender 277 00:15:37,313 --> 00:15:42,581 desde pequeñas cantidades de datos, la evidencia de unos pocos ejemplos. 278 00:15:44,301 --> 00:15:48,600 Y fundamentalmente, es una historia sobre cómo iniciar a los niños muy pequeños 279 00:15:48,600 --> 00:15:52,780 y continuar hasta el final a los más grandes logros 280 00:15:52,780 --> 00:15:56,623 de nuestra cultura, 281 00:15:56,623 --> 00:15:58,620 tenemos al mundo bien. 282 00:16:00,433 --> 00:16:05,700 La mente humana no solo aprende de pequeñas cantidades de datos. 283 00:16:06,285 --> 00:16:08,386 Las mentes humanas piensan nuevas ideas. 284 00:16:08,746 --> 00:16:11,787 Las mentes humanas generan investigación y descubrimiento, 285 00:16:11,787 --> 00:16:17,060 y las mentes humanas producen arte y literatura y poesía y teatro, 286 00:16:17,070 --> 00:16:20,830 y las mentes humanas cuidan de otros seres humanos: 287 00:16:20,830 --> 00:16:24,257 nuestros mayores, nuestros jóvenes, nuestros enfermos. 288 00:16:24,517 --> 00:16:26,884 Incluso nos sana. 289 00:16:27,564 --> 00:16:30,667 En los próximos años, veremos las innovaciones tecnológicas 290 00:16:30,667 --> 00:16:34,464 incluso más allá de lo que yo pueda imaginar, 291 00:16:34,464 --> 00:16:36,614 pero es muy poco probable 292 00:16:36,614 --> 00:16:42,323 ver cualquier cosa, incluso aproximarse a la potencia de cálculo de un niño humano 293 00:16:42,323 --> 00:16:46,621 en mi vida o en la suya. 294 00:16:46,621 --> 00:16:51,668 Si invertimos en estos más poderosos alumnos y en su desarrollo, 295 00:16:51,668 --> 00:16:54,585 en los bebés y niños 296 00:16:54,585 --> 00:16:56,411 y madres y padres 297 00:16:56,411 --> 00:16:59,110 y cuidadores y maestros 298 00:16:59,110 --> 00:17:03,280 en la forma en que invertimos en nuestras otras formas más poderosas y elegantes 299 00:17:03,280 --> 00:17:06,498 de tecnología, ingeniería y diseño, 300 00:17:06,498 --> 00:17:09,436 no vamos simplemente a estar soñando con un futuro mejor, 301 00:17:09,436 --> 00:17:11,564 estaremos planeando para uno. 302 00:17:11,564 --> 00:17:13,909 Muchas gracias. 303 00:17:13,909 --> 00:17:17,329 (Aplausos) 304 00:17:17,810 --> 00:17:22,236 Chris Anderson: Laura, gracias. En realidad tengo una pregunta. 305 00:17:22,236 --> 00:17:24,595 En primer lugar, la investigación es una locura. 306 00:17:24,595 --> 00:17:28,319 Quiero decir, ¿quién diseñaría un experimento como ese? (Risas) 307 00:17:29,150 --> 00:17:30,940 Los he visto un par de veces, 308 00:17:30,940 --> 00:17:34,162 y todavía honestamente no creo que realmente esté pasando, 309 00:17:34,162 --> 00:17:37,320 pero otras personas han hecho experimentos similares; revisen. 310 00:17:37,320 --> 00:17:38,953 Los bebés son realmente genios. 311 00:17:38,953 --> 00:17:41,960 LS: Se ven realmente impresionantes en nuestros experimentos, 312 00:17:41,960 --> 00:17:44,612 pero piensa en cómo se ven en la vida real, ¿verdad? 313 00:17:44,612 --> 00:17:45,762 Empiezan como un bebé. 314 00:17:45,762 --> 00:17:47,769 18 meses más tarde, hablan contigo, 315 00:17:47,769 --> 00:17:50,810 y las primeras palabras no son solo cosas como pelotas y patos, 316 00:17:50,810 --> 00:17:53,691 son cosas como "se acabó", que se refieren a desaparición, 317 00:17:53,691 --> 00:17:55,974 o "uh-oh", para acciones intencionales. 318 00:17:55,974 --> 00:17:57,536 Tiene que ser tan poderoso. 319 00:17:57,536 --> 00:18:00,311 Tiene que ser mucho más poderoso que cualquier otra cosa. 320 00:18:00,311 --> 00:18:02,285 Están averiguando el mundo entero. 321 00:18:02,285 --> 00:18:05,429 Un niño de 4 años, puede hablarte de casi cualquier cosa. 322 00:18:05,429 --> 00:18:07,030 (Aplausos) 323 00:18:07,030 --> 00:18:10,444 CA: ¿Y te he entendido bien, el otro punto clave que estás haciendo es, 324 00:18:10,444 --> 00:18:13,198 que hemos pasado estos años donde hay todas estas charlas 325 00:18:13,198 --> 00:18:15,130 de lo rara y loca que es nuestra mente, 326 00:18:15,130 --> 00:18:17,997 la economía del comportamiento y las teorías subyacentes 327 00:18:17,997 --> 00:18:19,600 de que no somos agentes racionales. 328 00:18:19,600 --> 00:18:23,816 Realmente dices que la historia más grande es lo extraordinario, 329 00:18:23,816 --> 00:18:28,760 y que en realidad es el genio que es poco apreciado. 330 00:18:28,760 --> 00:18:30,830 LS: Una de mis citas favoritas de psicología 331 00:18:30,830 --> 00:18:33,120 proviene del psicólogo social Solomon Asch, quien dijo 332 00:18:33,120 --> 00:18:35,927 que la tarea fundamental de la psicología es quitar 333 00:18:35,927 --> 00:18:38,553 el velo de la autoevidencia de las cosas. 334 00:18:38,553 --> 00:18:43,104 Hay órdenes de magnitud, más decisiones que tomar cada día 335 00:18:43,104 --> 00:18:44,451 que logran un buen mundo. 336 00:18:44,451 --> 00:18:46,583 Sabes de los objetos y sus propiedades. 337 00:18:46,583 --> 00:18:49,612 Los conoces cuando están ocultos. Los conoces en la oscuridad. 338 00:18:49,612 --> 00:18:50,920 Puedes caminar por salas. 339 00:18:50,920 --> 00:18:54,452 Puedes averiguar qué están pensando otros. Puedes hablar con ellos. 340 00:18:54,452 --> 00:18:56,682 Navegas por el espacio. Sabes sobre números. 341 00:18:56,682 --> 00:18:59,704 Sabes las relaciones causales. Y sobre el razonamiento moral. 342 00:18:59,704 --> 00:19:02,060 Lo haces sin esfuerzo, así que no lo ves, 343 00:19:02,060 --> 00:19:04,972 pero así es como conseguimos un buen mundo, y es un notable 344 00:19:04,972 --> 00:19:07,290 y logros muy difíciles de entender. 345 00:19:07,290 --> 00:19:09,918 CA: Sospecho que hay gente en la audiencia que tiene 346 00:19:09,918 --> 00:19:12,156 la visión de la aceleración tecnológica 347 00:19:12,156 --> 00:19:15,114 que podría controvertir tu afirmación de que en nuestras vidas 348 00:19:15,114 --> 00:19:18,212 una computadora no hará lo que un niño de tres años puede hacer, 349 00:19:18,212 --> 00:19:20,980 pero lo que está claro es que en cualquier escenario, 350 00:19:20,980 --> 00:19:24,750 nuestras máquinas tienen mucho que aprender de nuestros niños. 351 00:19:26,230 --> 00:19:29,446 LS: Creo que sí. Habrá máquinas de aprendizaje automático. 352 00:19:29,446 --> 00:19:33,649 Quiero decir, nunca debe apostar en contra de los bebés o los chimpancés 353 00:19:33,649 --> 00:19:37,294 o la tecnología como una cuestión de práctica, 354 00:19:37,294 --> 00:19:41,822 pero no se trata solo de una diferencia en la cantidad, 355 00:19:41,822 --> 00:19:43,586 es una diferencia en cualidad. 356 00:19:43,586 --> 00:19:45,746 Tenemos computadoras muy potentes, 357 00:19:45,746 --> 00:19:48,137 y las hacen hacer cosas muy sofisticadas, 358 00:19:48,137 --> 00:19:51,341 a menudo con muy grandes cantidades de datos. 359 00:19:51,341 --> 00:19:53,948 Las mentes humanas hacen, creo, algo muy distinto, 360 00:19:53,948 --> 00:19:57,843 y creo que es la naturaleza estructurada y jerárquica del conocimiento humano 361 00:19:57,843 --> 00:19:59,875 lo que sigue siendo un verdadero desafío. 362 00:19:59,875 --> 00:20:03,449 CA: Laura Schulz, maravilloso alimento para la reflexión. Muchas gracias. 363 00:20:03,449 --> 00:20:05,858 LS: Gracias. (Aplausos)