0:00:00.835,0:00:02.990 Mark Twain resumió lo que considero es 0:00:02.990,0:00:06.110 uno de los problemas fundamentales [br]de la ciencia cognitiva 0:00:06.110,0:00:07.820 con un solo chiste. 0:00:08.410,0:00:11.492 Dijo: "Hay algo fascinante en la ciencia. 0:00:11.492,0:00:14.720 Uno obtiene enormes retornos [br]en conjeturas 0:00:14.720,0:00:17.924 con muy poca inversión en hechos". 0:00:17.924,0:00:19.509 (Risas) 0:00:20.199,0:00:22.803 Twain lo decía en broma, [br]claro, pero tiene razón: 0:00:22.803,0:00:25.679 Hay algo fascinante en la ciencia. 0:00:25.679,0:00:29.940 A partir de unos pocos huesos, [br]inferimos la existencia de dinosaurios. 0:00:30.910,0:00:34.781 A partir de las líneas espectrales, [br]la composición de las nebulosas. 0:00:35.471,0:00:38.409 A partir de moscas de la fruta, 0:00:38.409,0:00:41.352 los mecanismos de la herencia, 0:00:41.352,0:00:45.601 y a partir de imágenes reconstruidas [br]de sangre que fluye a través del cerebro, 0:00:45.601,0:00:50.309 o en mi caso, desde el comportamiento [br]de los niños muy pequeños, 0:00:50.309,0:00:53.137 tratamos de decir algo sobre los [br]mecanismos fundamentales 0:00:53.137,0:00:54.756 de la cognición humana. 0:00:55.502,0:00:57.475 En particular, en mi laboratorio en el 0:00:57.475,0:01:00.475 Departamento de Cerebro [br]y Ciencias Cognitivas del MIT, 0:01:00.475,0:01:04.129 he pasado los últimos diez años [br]tratando de entender el misterio 0:01:04.129,0:01:08.106 de cómo los niños aprenden mucho [br]rápidamente a partir de tan poco. 0:01:08.666,0:01:11.644 Porque resulta que lo fascinante [br]de la ciencia 0:01:11.644,0:01:15.173 es también una cosa fascinante [br]en los niños, 0:01:15.173,0:01:17.980 que, para ponerlo en términos de [br]Mark Twain, pero más suave 0:01:17.980,0:01:22.404 es precisamente su capacidad para [br]dibujar ricas inferencias abstractas 0:01:22.404,0:01:27.065 rápidamente y con precisión [br]a partir de datos dispersos, confusos. 0:01:28.355,0:01:30.753 Daré solo dos ejemplos hoy. 0:01:30.753,0:01:33.040 Uno es sobre un problema [br]de generalización, 0:01:33.040,0:01:35.890 y el otro sobre un problema [br]de razonamiento causal. 0:01:35.890,0:01:38.415 Y aunque hablaré [br]del trabajo en mi laboratorio, 0:01:38.415,0:01:41.875 este trabajo se inspira [br]y está en deuda con un campo. 0:01:41.875,0:01:46.158 Se lo agradezco a los mentores, colegas [br]y colaboradores de todo el mundo. 0:01:47.308,0:01:50.282 Permítanme comenzar con el problema [br]de la generalización. 0:01:50.652,0:01:52.765 Generalizar a partir de [br]pequeñas muestras de datos 0:01:52.765,0:01:54.785 es el pan de cada día de la ciencia. 0:01:54.785,0:01:57.339 Entrevistamos a una pequeña fracción [br]del electorado 0:01:57.339,0:02:00.260 y podemos predecir el resultado [br]de las elecciones nacionales. 0:02:00.260,0:02:04.165 Vemos un puñado de pacientes responder [br]al tratamiento en un ensayo clínico, 0:02:04.165,0:02:07.230 y lanzamos los fármacos[br]a un mercado nacional. 0:02:07.230,0:02:11.595 Pero esto solo funciona si la muestra [br]se extrae al azar de la población. 0:02:11.595,0:02:14.330 Si la muestra es seleccionada [br]de alguna manera 0:02:14.330,0:02:16.715 --por ejemplo, un sondeo [br]a solo votantes urbanos, 0:02:16.715,0:02:20.790 o, en un ensayo clínico de tratamientos [br]para enfermedades del corazón, 0:02:20.790,0:02:22.671 solo incluimos hombres-- 0:02:22.671,0:02:25.829 los resultados no pueden generalizarse [br]a la población en general. 0:02:26.479,0:02:29.726 Los científicos se preocupan si [br]la evidencia es tomada o no al azar, 0:02:29.726,0:02:31.928 pero ¿qué tiene esto [br]que ver con los bebés? 0:02:32.588,0:02:34.792 Los bebés tienen que [br]generalizar a partir de 0:02:34.792,0:02:37.206 pequeñas muestras de datos [br]todo el tiempo. 0:02:37.206,0:02:40.364 Ellos ven un par de patos de goma [br]y aprenden que flotan, 0:02:40.364,0:02:43.939 o un par de pelotas [br]y aprenden que rebotan. 0:02:43.939,0:02:46.890 Y desarrollan expectativas [br]sobre patos y pelotas 0:02:46.890,0:02:49.606 que van a extender a los patos de goma [br]y a las pelotas 0:02:49.606,0:02:51.485 por el resto de sus vidas. 0:02:51.485,0:02:55.224 El tipo de generalizaciones que los bebés [br]tienen que hacer sobre patos y bolas 0:02:55.224,0:02:57.313 tienen que hacerlas con casi todo: 0:02:57.313,0:03:01.230 zapatos y barcos y cera y coles y reyes. 0:03:02.200,0:03:05.161 ¿A los bebés les importa si [br]las pocas pruebas que ven, 0:03:05.161,0:03:08.853 representan una población más grande? 0:03:09.763,0:03:11.663 Vamos a ver. 0:03:11.663,0:03:13.386 Les mostraré dos películas, 0:03:13.386,0:03:16.134 una de cada una de las dos condiciones [br]de un experimento, 0:03:16.134,0:03:18.286 y como son solo dos películas, 0:03:18.286,0:03:20.422 verán solo dos bebés, 0:03:20.422,0:03:24.369 y los dos bebés difieren entre sí [br]en innumerables maneras. 0:03:24.369,0:03:27.420 Pero estos bebés, por supuesto, [br]son parte de grupos de bebés, 0:03:27.420,0:03:29.315 y las diferencias que verán 0:03:29.315,0:03:32.426 representan diferencias [br]del grupo promedio 0:03:32.426,0:03:35.160 en el comportamiento [br]según las condiciones. 0:03:35.160,0:03:37.743 En cada película, verán [br]a un bebé haciendo 0:03:37.743,0:03:41.203 exactamente lo que cabría esperar [br]que haga un bebé, 0:03:41.203,0:03:45.220 y difícilmente podemos hacer a [br]los bebés más mágicos de lo que ya son. 0:03:46.090,0:03:48.100 Pero a para mi mente lo mágico, 0:03:48.100,0:03:50.189 y a lo que quiero que presten atención, 0:03:50.189,0:03:53.300 es al contraste entre [br]estas dos condiciones, 0:03:53.300,0:03:56.829 porque lo único en que se diferencian [br]estas dos películas 0:03:56.829,0:04:00.295 es la evidencia estadística [br]que los bebés observarán. 0:04:01.425,0:04:04.608 Les mostraremos una caja [br]de bolas de color azul y amarillo, 0:04:04.608,0:04:09.228 y mi entonces estudiante de posgrado, [br]ahora colega en Stanford, Hyowon Gweon, 0:04:09.228,0:04:12.305 sacará tres bolas de color azul [br]en fila de esta caja, 0:04:12.305,0:04:15.428 y al sacar esas bolas fuera, [br]las apretará, 0:04:15.428,0:04:17.541 y las bolas chirriarán. 0:04:17.541,0:04:20.303 Y si fueran el bebé, [br]sería como una TED Talk. 0:04:20.303,0:04:22.208 No hay nada mejor que eso. 0:04:22.208,0:04:24.769 (Risas) 0:04:26.968,0:04:30.627 Pero el punto importante es que es muy [br]fácil sacar tres bolas azules en fila 0:04:30.627,0:04:32.932 de una caja de pelotas [br]en su mayoría azules. 0:04:32.932,0:04:34.992 Podrían hacerlo con los ojos cerrados. 0:04:34.992,0:04:37.988 Es posible una muestra aleatoria [br]de esta población. 0:04:37.988,0:04:41.720 Y si se pueden sacar de la caja al azar [br]y sacar cosas que chirrían, 0:04:41.720,0:04:44.559 entonces tal vez todo en la caja chirría. 0:04:44.559,0:04:48.209 Tal vez los bebés deben esperar que esas [br]bolas amarillas chirríen también. 0:04:48.209,0:04:50.728 Las bolas amarillas [br]tienen palos divertidos al final, 0:04:50.728,0:04:53.585 así los bebés podrían hacer [br]otras cosas con ellas si quisieran. 0:04:53.585,0:04:55.416 Podrían sacudirlas o golpear a ellas. 0:04:55.416,0:04:58.002 Pero vamos a ver lo que hace el bebé. 0:05:00.548,0:05:03.891 (Video) Hyowon Gweon: ¿Ves esto? [br](Bola chirría) 0:05:04.531,0:05:07.576 ¿Viste eso? [br](Bola chirría) 0:05:08.036,0:05:11.102 Genial. 0:05:12.706,0:05:14.656 ¿Ves este? 0:05:14.656,0:05:16.537 (Bola chirría) 0:05:16.537,0:05:19.190 Guauu. 0:05:21.854,0:05:23.967 Laura Schulz: Lo dije. [br](Risas) 0:05:23.967,0:05:27.998 (Video) HG: ¿Ves este? [br](Bola chirría) 0:05:27.998,0:05:32.617 Clara, este es para ti. [br]Puedes jugar. 0:05:39.854,0:05:44.219 (Risas) 0:05:44.219,0:05:47.214 LS: No tengo ni siquiera [br]que hablar, ¿verdad? 0:05:47.214,0:05:50.113 Está bien, es bueno que los bebés [br]generalicen propiedades 0:05:50.113,0:05:51.641 de bolas azules a amarillas, 0:05:51.641,0:05:54.737 y es impresionante que pueden [br]aprender de nosotros imitando, 0:05:54.737,0:05:58.406 pero ido aprendiendo esas cosas de [br]los bebés durante mucho tiempo. 0:05:58.406,0:06:00.217 La pregunta realmente interesante 0:06:00.217,0:06:03.069 es qué sucede cuando [br]les mostramos a los bebés lo mismo, 0:06:03.069,0:06:06.680 y sabemos que es lo mismo, porque [br]tenemos un compartimiento secreto 0:06:06.680,0:06:08.790 y que en realidad [br]tomamos las bolas de allí, 0:06:08.790,0:06:12.268 pero esta vez, lo único que cambiamos [br]es la población aparente 0:06:12.268,0:06:15.170 de la que se extrae la evidencia. 0:06:15.170,0:06:18.723 Esta vez, mostraremos [br]a los bebés tres bolas azules 0:06:18.723,0:06:22.107 sacadas de una caja de pelotas [br]en su mayoría de color amarillo, 0:06:22.107,0:06:23.429 ¿y adivinen qué? 0:06:23.429,0:06:26.269 Seguramente no sacarán al azar [br]tres bolas azules en fila 0:06:26.269,0:06:28.753 de una caja de pelotas [br]en su mayoría amarillas. 0:06:28.753,0:06:32.500 Eso no es plausible [br]en muestreos aleatorios. 0:06:32.500,0:06:37.623 Esa evidencia sugiere que tal vez Hyowon [br]tomaba deliberadamente las bolas azules. 0:06:37.623,0:06:40.206 Tal vez hay algo especial [br]con las bolas azules. 0:06:40.846,0:06:43.822 Tal vez solo las bolas azules chirrían. 0:06:43.822,0:06:45.717 Vamos a ver lo que hace el bebé. 0:06:45.717,0:06:48.621 (Video) HG: ¿Ves esto? [br](Bola chirría) 0:06:50.851,0:06:53.496 ¿Ves este juguete? [br](Bola chirría) 0:06:53.496,0:06:58.976 Oh, eso fue genial. ¿Ves? [br](Bola chirría) 0:06:58.976,0:07:03.370 Este es para que juegues. [br]Puedes jugar. 0:07:06.074,0:07:12.421 (Hace ruidos) [br](Risas) 0:07:14.901,0:07:17.649 LS: Acaban de ver dos bebés [br]de 15 meses de edad 0:07:17.649,0:07:19.591 hacer cosas completamente diferentes 0:07:19.591,0:07:23.190 basados solo en la probabilidad de [br]la muestra que observaron. 0:07:23.190,0:07:25.511 Les enseñaré [br]los resultados experimentales. 0:07:25.511,0:07:28.275 En el eje vertical, [br]verán el porcentaje de bebés 0:07:28.275,0:07:30.805 que apretaron la pelota en cada condición, 0:07:30.805,0:07:34.520 y como verán, los bebés son mucho más [br]propensos a generalizar las pruebas 0:07:34.520,0:07:37.655 cuando es plausiblemente [br]representativa de la población 0:07:37.655,0:07:41.393 que cuando la evidencia [br]es claramente escogida. 0:07:41.393,0:07:43.808 Y esto lleva a una predicción extraña: 0:07:43.808,0:07:48.676 Supongamos que sacamos solo una bola [br]azul de una caja con mayoría amarilla. 0:07:48.896,0:07:52.765 Probablemente no sacarán tres azules [br]en fila al azar de una caja de amarillas, 0:07:52.765,0:07:55.220 pero se podría solo una bola azul al azar. 0:07:55.220,0:07:57.190 Esa no es una muestra improbable. 0:07:57.190,0:07:59.414 Y si pudieran tomar [br]una al azar de una caja 0:07:59.414,0:08:03.401 y sacar algo que chirría, tal vez [br]todo en la caja chirriaría. 0:08:03.875,0:08:08.320 Así que a pesar de que los bebés verán [br]mucha menos evidencia de chirridos, 0:08:08.320,0:08:10.562 y tienen muchas menos acciones para imitar 0:08:10.562,0:08:13.905 en esta condición de una bola [br]que es la que van a ver, 0:08:13.905,0:08:17.797 predijimos que los bebés [br]sí la exprimirían más, 0:08:17.797,0:08:20.691 y eso es exactamente [br]lo que encontramos. 0:08:20.691,0:08:25.102 Los bebés de 15 meses de edad, en este [br]sentido, al igual que los científicos, 0:08:25.102,0:08:28.190 tienen cuidado de si la evidencia [br]es de una muestra al azar o no, 0:08:28.190,0:08:31.697 y utilizan esto para desarrollar [br]expectativas sobre el mundo: 0:08:31.697,0:08:33.879 que chirría y que no, 0:08:33.879,0:08:37.024 qué explorar y qué ignorar. 0:08:38.384,0:08:40.450 Les mostraré otro ejemplo, 0:08:40.450,0:08:43.179 sobre un problema [br]de razonamiento causal. 0:08:43.179,0:08:45.619 Comienza con un problema [br]confuso de evidencia 0:08:45.619,0:08:47.291 que todos tenemos, 0:08:47.291,0:08:49.311 que es que somos parte del mundo. 0:08:49.311,0:08:52.747 Puede no parecer un problema, [br]pero como la mayoría de los problemas, 0:08:52.747,0:08:55.084 es solo un problema [br]cuando las cosas van mal. 0:08:55.464,0:08:57.275 Tomen este bebé, por ejemplo. 0:08:57.275,0:08:58.980 Las cosas van mal para él. 0:08:58.980,0:09:01.251 Le gustaría jugar con este juguete, [br]y no puede. 0:09:01.251,0:09:03.780 Les mostraré unos pocos segundos del clip. 0:09:09.340,0:09:11.260 Hay dos grandes posibilidades: 0:09:11.260,0:09:13.894 Tal vez él está haciendo algo mal, 0:09:13.894,0:09:18.110 o tal vez hay algo mal con el juguete. 0:09:18.110,0:09:20.221 Así que en el siguiente experimento, 0:09:20.221,0:09:23.518 daremos a los bebés solo [br]unos pocos datos estadísticos 0:09:23.518,0:09:26.100 para apoyar una hipótesis sobre la otra, 0:09:26.100,0:09:29.555 y veremos si pueden usarlos [br]para tomar decisiones diferentes 0:09:29.555,0:09:31.389 acerca de qué hacer. 0:09:31.389,0:09:33.411 Aquí está la configuración. 0:09:34.071,0:09:37.101 Hyowon intentará que [br]el juguete funcione y tenga éxito. 0:09:37.101,0:09:40.421 Yo a continuación lo intentaré [br]dos veces y fallaré en ambas, 0:09:40.421,0:09:43.533 y luego Hyowon lo intentará de nuevo [br]y tendrá éxito, 0:09:43.533,0:09:46.705 lo que resume casi mi relación [br]con mis estudiantes de posgrado 0:09:46.705,0:09:49.540 en tecnología en todos los ámbitos. 0:09:50.030,0:09:53.322 Pero el punto importante aquí es [br]que proporciona algo de evidencia 0:09:53.322,0:09:56.990 que el problema no es con el juguete, [br]que es con la persona. 0:09:56.990,0:09:59.340 Algunos pueden [br]hacer funcionar este juguete, 0:09:59.340,0:10:00.299 y otros no pueden. 0:10:00.799,0:10:04.212 Cuando el bebé recibe el juguete, [br]optará por una alternativa. 0:10:04.212,0:10:06.400 Su mamá está ahí, 0:10:06.400,0:10:09.715 para que pueda continuar [br]y cambiar a la persona, 0:10:09.715,0:10:12.873 pero también habrá [br]otro juguete al final de esa tela, 0:10:12.873,0:10:16.425 y él puede tirar de la tela hacia él [br]y cambiar el juguete. 0:10:16.425,0:10:18.515 Así que veamos qué hace el bebé. 0:10:18.515,0:10:22.698 (Video) HG: Dos, tres. ¡Adelante! [br](Música) 0:10:22.698,0:10:25.829 LS: Uno, dos, tres, ¡ya! 0:10:25.829,0:10:33.211 Arthur, voy a intentarlo de nuevo. [br]Uno, dos, tres, ¡ya! 0:10:33.677,0:10:36.277 YG: Arthur, déjame intentarlo de nuevo, [br]¿de acuerdo? 0:10:36.277,0:10:40.827 Uno, dos, tres, ¡ya! [br](Música) 0:10:41.583,0:10:43.466 Mira eso. ¿Recuerdas estos juguetes? 0:10:43.466,0:10:46.730 ¿Ves estos juguetes? [br]Sí, voy a poner este aquí, 0:10:46.730,0:10:48.792 y te voy a dar este. 0:10:48.792,0:10:51.127 Puede jugar. 0:11:11.213,0:11:15.950 BT: Bueno, Laura, pero, por supuesto, [br]los bebés aman a sus mamás. 0:11:15.950,0:11:18.132 Claro, los bebés [br]dan juguetes a sus mamás 0:11:18.132,0:11:20.162 cuando no pueden hacer que funcionen. 0:11:20.162,0:11:23.755 De nuevo, la pregunta realmente [br]importante es qué sucede cuando cambiamos 0:11:23.755,0:11:26.909 los datos estadísticos ligeramente. 0:11:26.909,0:11:30.996 Esta vez, los bebés verán el juguete [br]funcionar y fallar en el mismo orden, 0:11:30.996,0:11:33.411 pero cambiamos la distribución [br]de las pruebas. 0:11:33.411,0:11:37.822 Esta vez, Hyowon tendrá éxito una vez [br]y fallará otra, y yo también 0:11:37.822,0:11:43.459 Y esto sugiere que no importa quién usa [br]el juguete, el juguete falla. 0:11:43.459,0:11:45.345 No funciona todo el tiempo. 0:11:45.345,0:11:47.310 Una vez más, [br]el bebé tendrá una elección. 0:11:47.310,0:11:50.706 Su mamá está justo al lado, para que [br]ella pueda cambiar a la persona, 0:11:50.706,0:11:53.910 y habrá otro juguete al final de la tela. 0:11:53.910,0:11:55.288 Vamos a ver lo que hace. 0:11:55.288,0:11:59.636 (Video) HG: Dos, tres, ¡ya! [br](Música) 0:11:59.636,0:12:04.620 Déjame intentarlo una vez más. [br]Uno, dos, tres, ¡ya! 0:12:05.460,0:12:07.157 Hmm. 0:12:07.950,0:12:10.642 LS: Déjame intentar, Clara. 0:12:10.642,0:12:14.587 Uno, dos, tres, ¡ya! 0:12:15.265,0:12:17.200 Hmm, déjame intentarlo de nuevo. 0:12:17.200,0:12:22.870 Uno, dos, tres, ¡ya! [br](Música) 0:12:23.009,0:12:25.242 HG: Voy a poner este por aquí, 0:12:25.242,0:12:27.243 y te voy a dar éste. 0:12:27.243,0:12:30.840 Puedes usarlo y jugar. 0:12:46.376,0:12:51.273 (Aplausos) 0:12:52.993,0:12:55.385 LS: Les mostrará [br]los resultados experimentales. 0:12:55.385,0:12:57.860 En el eje vertical, verán la distribución 0:12:57.860,0:13:00.437 de opciones de los niños [br]en cada condición, 0:13:00.437,0:13:04.988 y verán que la distribución [br]de las opciones de los niños 0:13:04.988,0:13:07.775 dependen de los ensayos que observan. 0:13:07.775,0:13:09.632 Así, en el segundo año de vida, 0:13:09.632,0:13:12.209 los bebés pueden usar [br]algo de los datos estadísticos 0:13:12.209,0:13:15.576 para decidir entre dos estrategias [br]fundamentalmente diferentes 0:13:15.576,0:13:17.457 para actuar en el mundo: 0:13:17.457,0:13:20.200 pedir ayuda y explorar. 0:13:21.700,0:13:25.134 Acabo de mostrarles [br]dos experimentos de laboratorio 0:13:25.134,0:13:28.825 de literalmente cientos en el campo [br]que llegan a resultados similares, 0:13:28.825,0:13:31.217 debido a que el punto realmente crítico es 0:13:31.217,0:13:36.325 que la capacidad de los niños para hacer [br]inferencias a partir de datos escasos 0:13:36.325,0:13:41.666 subyace a todo el aprendizaje cultural [br]específico de la especie. 0:13:41.666,0:13:46.263 Los niños aprenden nuevas herramientas [br]a partir de solo algunos ejemplos. 0:13:46.263,0:13:50.980 Aprenden nuevas relaciones causales [br]a partir de solo algunos ejemplos. 0:13:51.928,0:13:56.799 Incluso aprenden nuevas palabras, en este [br]caso en el lenguaje de señas americano. 0:13:56.799,0:13:59.110 Quiero cerrar con solo dos puntos. 0:14:00.050,0:14:03.738 Si han seguido mi mundo, el campo [br]de las ciencias cerebrales y cognitivas, 0:14:03.738,0:14:05.665 en los últimos años, 0:14:05.665,0:14:08.080 tres grandes ideas [br]habrán llamado su atención. 0:14:08.080,0:14:11.516 La primera es que esta [br]es la era del cerebro. 0:14:11.516,0:14:15.185 Y, en efecto, ha habido descubrimientos [br]asombrosos en neurociencia: 0:14:15.185,0:14:18.621 localización de regiones funcionalmente [br]especializados de la corteza, 0:14:18.621,0:14:21.222 logrando cerebros de ratón transparentes, 0:14:21.222,0:14:24.998 la activación de las neuronas con la luz. 0:14:24.998,0:14:26.994 Una segunda gran idea 0:14:26.994,0:14:31.098 es que esta es la era de los grandes [br]datos y el aprendizaje automático, 0:14:31.098,0:14:34.392 y las máquinas que aprenden prometen [br]revolucionar nuestra comprensión 0:14:34.392,0:14:38.906 de todo, desde las redes sociales [br]a la epidemiología. 0:14:38.906,0:14:41.599 Tal vez, al afrontar problemas [br]de la escena comprensión 0:14:41.599,0:14:43.592 y el procesamiento del lenguaje natural, 0:14:43.592,0:14:46.916 nos diga algo sobre la cognición humana. 0:14:47.756,0:14:49.693 Y la gran idea final que habrán oído 0:14:49.693,0:14:53.080 es que tal vez es una buena idea que [br]vamos a saber tanto de cerebros 0:14:53.080,0:14:54.997 y tener tanto acceso a grandes datos, 0:14:54.997,0:14:57.504 porque dejaremos a [br]nuestros propios dispositivos, 0:14:57.504,0:15:01.335 los seres humanos son falibles, [br]tomamos atajos, 0:15:01.335,0:15:04.772 erramos, cometemos errores, 0:15:04.772,0:15:08.456 estamos sesgados, [br]y en innumerables formas, 0:15:08.456,0:15:11.425 obtenemos el mundo equivocado. 0:15:12.843,0:15:15.792 Creo que estas son todas [br]historias importantes, 0:15:15.792,0:15:19.577 y tienen mucho que decirnos [br]acerca de lo que significa ser humano, 0:15:19.577,0:15:23.106 pero tengan en cuenta que hoy [br]les conté una historia muy diferente. 0:15:23.966,0:15:27.773 Es una historia acerca de la mente [br]y no del cerebro, 0:15:27.773,0:15:30.779 y, en particular, es una historia [br]sobre los tipos de cálculos 0:15:30.779,0:15:33.369 que las mentes humanas pueden realizar [br]de forma única, 0:15:33.369,0:15:37.313 que implican, ricos conocimientos [br]estructurados y capacidad de aprender 0:15:37.313,0:15:42.581 desde pequeñas cantidades de datos, [br]la evidencia de unos pocos ejemplos. 0:15:44.301,0:15:48.600 Y fundamentalmente, es una historia sobre [br]cómo iniciar a los niños muy pequeños 0:15:48.600,0:15:52.780 y continuar hasta el final [br]a los más grandes logros 0:15:52.780,0:15:56.623 de nuestra cultura, 0:15:56.623,0:15:58.620 tenemos al mundo bien. 0:16:00.433,0:16:05.700 La mente humana no solo aprende [br]de pequeñas cantidades de datos. 0:16:06.285,0:16:08.386 Las mentes humanas piensan nuevas ideas. 0:16:08.746,0:16:11.787 Las mentes humanas generan [br]investigación y descubrimiento, 0:16:11.787,0:16:17.060 y las mentes humanas producen arte [br]y literatura y poesía y teatro, 0:16:17.070,0:16:20.830 y las mentes humanas [br]cuidan de otros seres humanos: 0:16:20.830,0:16:24.257 nuestros mayores, nuestros jóvenes, [br]nuestros enfermos. 0:16:24.517,0:16:26.884 Incluso nos sana. 0:16:27.564,0:16:30.667 En los próximos años, veremos [br]las innovaciones tecnológicas 0:16:30.667,0:16:34.464 incluso más allá de lo [br]que yo pueda imaginar, 0:16:34.464,0:16:36.614 pero es muy poco probable 0:16:36.614,0:16:42.323 ver cualquier cosa, incluso aproximarse a [br]la potencia de cálculo de un niño humano 0:16:42.323,0:16:46.621 en mi vida o en la suya. 0:16:46.621,0:16:51.668 Si invertimos en estos más [br]poderosos alumnos y en su desarrollo, 0:16:51.668,0:16:54.585 en los bebés y niños 0:16:54.585,0:16:56.411 y madres y padres 0:16:56.411,0:16:59.110 y cuidadores y maestros 0:16:59.110,0:17:03.280 en la forma en que invertimos en nuestras [br]otras formas más poderosas y elegantes 0:17:03.280,0:17:06.498 de tecnología, ingeniería y diseño, 0:17:06.498,0:17:09.436 no vamos simplemente a estar soñando [br]con un futuro mejor, 0:17:09.436,0:17:11.564 estaremos planeando para uno. 0:17:11.564,0:17:13.909 Muchas gracias. 0:17:13.909,0:17:17.329 (Aplausos) 0:17:17.810,0:17:22.236 Chris Anderson: Laura, gracias. En [br]realidad tengo una pregunta. 0:17:22.236,0:17:24.595 En primer lugar, [br]la investigación es una locura. 0:17:24.595,0:17:28.319 Quiero decir, ¿quién diseñaría un [br]experimento como ese? (Risas) 0:17:29.150,0:17:30.940 Los he visto un par de veces, 0:17:30.940,0:17:34.162 y todavía honestamente no creo que [br]realmente esté pasando, 0:17:34.162,0:17:37.320 pero otras personas han hecho [br]experimentos similares; revisen. 0:17:37.320,0:17:38.953 Los bebés son realmente genios. 0:17:38.953,0:17:41.960 LS: Se ven realmente [br]impresionantes en nuestros experimentos, 0:17:41.960,0:17:44.612 pero piensa en cómo se ven [br]en la vida real, ¿verdad? 0:17:44.612,0:17:45.762 Empiezan como un bebé. 0:17:45.762,0:17:47.769 18 meses más tarde, [br]hablan contigo, 0:17:47.769,0:17:50.810 y las primeras palabras no son solo [br]cosas como pelotas y patos, 0:17:50.810,0:17:53.691 son cosas como "se acabó", [br]que se refieren a desaparición, 0:17:53.691,0:17:55.974 o "uh-oh", para acciones intencionales. 0:17:55.974,0:17:57.536 Tiene que ser tan poderoso. 0:17:57.536,0:18:00.311 Tiene que ser mucho más poderoso [br]que cualquier otra cosa. 0:18:00.311,0:18:02.285 Están averiguando el mundo entero. 0:18:02.285,0:18:05.429 Un niño de 4 años, [br]puede hablarte de casi cualquier cosa. 0:18:05.429,0:18:07.030 (Aplausos) 0:18:07.030,0:18:10.444 CA: ¿Y te he entendido bien, el otro [br]punto clave que estás haciendo es, 0:18:10.444,0:18:13.198 que hemos pasado estos años [br]donde hay todas estas charlas 0:18:13.198,0:18:15.130 de lo rara y loca[br]que es nuestra mente, 0:18:15.130,0:18:17.997 la economía del comportamiento [br]y las teorías subyacentes 0:18:17.997,0:18:19.600 de que no somos agentes racionales. 0:18:19.600,0:18:23.816 Realmente dices que la historia [br]más grande es lo extraordinario, 0:18:23.816,0:18:28.760 y que en realidad [br]es el genio que es poco apreciado. 0:18:28.760,0:18:30.830 LS: Una de mis citas favoritas [br]de psicología 0:18:30.830,0:18:33.120 proviene del psicólogo social [br]Solomon Asch, quien dijo 0:18:33.120,0:18:35.927 que la tarea fundamental [br]de la psicología es quitar 0:18:35.927,0:18:38.553 el velo de la autoevidencia de las cosas. 0:18:38.553,0:18:43.104 Hay órdenes de magnitud, [br]más decisiones que tomar cada día 0:18:43.104,0:18:44.451 que logran un buen mundo. 0:18:44.451,0:18:46.583 Sabes de los objetos y sus propiedades. 0:18:46.583,0:18:49.612 Los conoces cuando están ocultos. [br]Los conoces en la oscuridad. 0:18:49.612,0:18:50.920 Puedes caminar por salas. 0:18:50.920,0:18:54.452 Puedes averiguar qué están pensando [br]otros. Puedes hablar con ellos. 0:18:54.452,0:18:56.682 Navegas por el espacio. [br]Sabes sobre números. 0:18:56.682,0:18:59.704 Sabes las relaciones causales. [br]Y sobre el razonamiento moral. 0:18:59.704,0:19:02.060 Lo haces sin esfuerzo, así que no lo ves, 0:19:02.060,0:19:04.972 pero así es como conseguimos [br]un buen mundo, y es un notable 0:19:04.972,0:19:07.290 y logros muy difíciles de entender. 0:19:07.290,0:19:09.918 CA: Sospecho que hay gente [br]en la audiencia que tiene 0:19:09.918,0:19:12.156 la visión de la aceleración tecnológica 0:19:12.156,0:19:15.114 que podría controvertir tu afirmación [br]de que en nuestras vidas 0:19:15.114,0:19:18.212 una computadora no hará lo que un niño [br]de tres años puede hacer, 0:19:18.212,0:19:20.980 pero lo que está claro [br]es que en cualquier escenario, 0:19:20.980,0:19:24.750 nuestras máquinas tienen mucho [br]que aprender de nuestros niños. 0:19:26.230,0:19:29.446 LS: Creo que sí. Habrá máquinas [br]de aprendizaje automático. 0:19:29.446,0:19:33.649 Quiero decir, nunca debe apostar [br]en contra de los bebés o los chimpancés 0:19:33.649,0:19:37.294 o la tecnología como [br]una cuestión de práctica, 0:19:37.294,0:19:41.822 pero no se trata solo [br]de una diferencia en la cantidad, 0:19:41.822,0:19:43.586 es una diferencia en cualidad. 0:19:43.586,0:19:45.746 Tenemos computadoras muy potentes, 0:19:45.746,0:19:48.137 y las hacen hacer cosas [br]muy sofisticadas, 0:19:48.137,0:19:51.341 a menudo con muy grandes [br]cantidades de datos. 0:19:51.341,0:19:53.948 Las mentes humanas hacen, [br]creo, algo muy distinto, 0:19:53.948,0:19:57.843 y creo que es la naturaleza estructurada [br]y jerárquica del conocimiento humano 0:19:57.843,0:19:59.875 lo que sigue siendo un verdadero desafío. 0:19:59.875,0:20:03.449 CA: Laura Schulz, maravilloso alimento [br]para la reflexión. Muchas gracias. 0:20:03.449,0:20:05.858 LS: Gracias. [br](Aplausos)