0:00:00.000,0:00:03.394 ♪ (música) ♪ 0:00:03.394,0:00:05.633 [Narradora] Bienvenidos[br]a Conversaciones Nobel. 0:00:06.992,0:00:10.103 En este episodio,[br]Josh Angrist y Guido Imbens 0:00:10.103,0:00:13.446 están reunidos con Isaiah Andrews[br]para debatir y discrepar 0:00:13.446,0:00:15.221 sobre el papel[br]del aprendizaje automático 0:00:15.221,0:00:16.816 en la econometría aplicada. 0:00:17.894,0:00:19.896 [Isaiah] Bien, por supuesto[br]que hay muchos temas 0:00:19.896,0:00:21.465 en los que ustedes[br]están muy de acuerdo, 0:00:21.465,0:00:22.595 pero me gustaría pasar a uno 0:00:22.595,0:00:24.365 sobre el que tal vez[br]opinen algo distinto. 0:00:24.365,0:00:26.103 Me gustaría escuchar[br]algunas de sus opiniones 0:00:26.103,0:00:27.319 sobre el aprendizaje automático 0:00:27.319,0:00:30.257 y el papel que desempeña[br]y desempeñará en la economía. 0:00:30.257,0:00:31.858 [Guido] He consultado[br]algunos datos, 0:00:31.858,0:00:33.349 como los datos privados. 0:00:33.349,0:00:35.306 Vemos que no hay[br]ningún documento publicado allí. 0:00:36.835,0:00:39.609 Se hizo un experimento[br]sobre algún algoritmo de búsqueda 0:00:40.300,0:00:41.810 y la cuestión era... 0:00:42.581,0:00:45.492 se trataba de clasificar cosas[br]y cambiar la clasificación. 0:00:45.990,0:00:47.163 Y estaba más o menos claro 0:00:47.163,0:00:50.271 que iba a haber[br]mucha heterogeneidad. 0:00:52.110,0:00:55.864 Si buscas, digamos, 0:00:58.122,0:01:00.640 una foto de Britney Spears, 0:01:00.640,0:01:02.505 realmente no importa[br]dónde la clasifiques 0:01:02.505,0:01:05.214 porque vas a encontrar[br]lo que estás buscando, 0:01:06.196,0:01:07.580 ya sea que la clasifiques 0:01:07.580,0:01:09.744 en primera, segunda[br]o tercera posición. 0:01:10.270,0:01:12.346 Pero si estás buscando[br]el mejor libro de econometría, 0:01:14.094,0:01:16.510 ya sea que pongas tu libro[br]en el primer lugar o en el décimo, 0:01:16.510,0:01:18.340 eso va a suponer[br]una gran diferencia 0:01:18.340,0:01:19.835 en la frecuencia 0:01:19.835,0:01:21.286 con la que la gente[br]hará clic en él. 0:01:22.060,0:01:23.312 Así que ahí... 0:01:23.312,0:01:24.326 [Josh] ¿Por qué necesito 0:01:24.326,0:01:27.314 el aprendizaje automático[br]para descubrir eso? 0:01:27.314,0:01:29.463 Porque parece que puedo descubrirlo[br]de forma sencilla. 0:01:29.463,0:01:30.517 [Guido] En general... 0:01:30.517,0:01:32.233 [Josh] Había[br]un montón de posibles... 0:01:32.233,0:01:34.233 [Guido]...quieres pensar[br]que los artículos 0:01:34.233,0:01:37.920 tienen un montón[br]de características, 0:01:37.920,0:01:38.940 que quieres entender 0:01:38.940,0:01:43.650 lo que impulsa la heterogeneidad[br]en el efecto de... 0:01:43.669,0:01:44.876 [Josh] Pero solo estás prediciendo. 0:01:44.876,0:01:46.570 En cierto sentido, 0:01:46.570,0:01:47.793 estás resolviendo[br]un problema de marketing. 0:01:47.793,0:01:49.210 [Guido] No, es un efecto causal, 0:01:49.210,0:01:51.738 [Josh] Es causal, pero no tiene[br]contenido científico. 0:01:51.738,0:01:52.809 Piensa en... 0:01:53.669,0:01:55.456 [Guido] No,[br]pero hay cosas similares 0:01:55.456,0:01:57.243 en el ámbito médico. 0:01:57.693,0:01:59.312 Si haces un experimento, 0:01:59.312,0:02:02.492 puedes estar muy interesado[br]en si el tratamiento funciona 0:02:02.492,0:02:03.821 para algunos grupos o no. 0:02:03.821,0:02:05.946 Y tienes un montón[br]de características individuales, 0:02:05.946,0:02:08.109 y quieres buscar sistemáticamente... 0:02:08.109,0:02:09.883 [Josh] Sí.[br]Tengo mis dudas sobre esa... 0:02:09.883,0:02:12.588 esa especie de idea de que hay[br]un efecto causal personal 0:02:12.588,0:02:13.902 que me debería importar 0:02:13.902,0:02:15.164 y que el aprendizaje automático 0:02:15.164,0:02:17.103 puede descubrirlo[br]de alguna manera que sea útil. 0:02:17.517,0:02:18.678 Así que piensa en... 0:02:18.678,0:02:20.182 He trabajado mucho en las escuelas, 0:02:20.182,0:02:22.358 yendo a, digamos,[br]una escuela chárter, 0:02:22.358,0:02:24.498 una escuela privada[br]financiada con fondos públicos, 0:02:24.780,0:02:27.392 efectivamente,[br]que es libre de estructurar 0:02:27.392,0:02:29.587 su propio plan de estudios[br]en función del contexto. 0:02:29.587,0:02:30.938 Algunos tipos de escuelas chárter 0:02:30.938,0:02:33.379 consiguen[br]un rendimiento espectacular 0:02:33.959,0:02:36.321 y en el conjunto de datos[br]que produce ese resultado, 0:02:36.321,0:02:37.968 tengo un montón de covariables. 0:02:37.968,0:02:39.584 Tengo[br]las puntuaciones de referencia 0:02:39.584,0:02:41.321 y los antecedentes familiares, 0:02:41.321,0:02:45.524 la educación de los padres,[br]el sexo del niño, la raza del niño. 0:02:46.600,0:02:49.758 Y, bueno, en cuanto reúno[br]media docena de ellas, 0:02:49.758,0:02:51.751 tengo un espacio[br]de muy alta dimensión. 0:02:52.391,0:02:55.394 Sin duda, me interesan[br]las características del curso 0:02:55.394,0:02:56.803 de ese efecto del tratamiento 0:02:56.803,0:02:58.688 como; por ejemplo, si es mejor[br]para las personas 0:02:58.688,0:03:02.540 que provienen de familias[br]con menores ingresos. 0:03:02.540,0:03:05.656 Me cuesta creer[br]que haya una aplicación 0:03:07.456,0:03:09.970 para la versión[br]de muy alta dimensión, 0:03:09.970,0:03:12.499 en la que descubrí[br]que para los niños no blancos 0:03:12.499,0:03:15.280 que tienen[br]ingresos familiares altos 0:03:15.280,0:03:17.747 pero puntuaciones de referencia[br]en el tercer cuartil 0:03:17.747,0:03:20.535 y que solo fueron[br]a la escuela pública 0:03:20.535,0:03:23.128 en el tercer grado[br]pero no en el sexto. 0:03:23.128,0:03:25.681 Así que eso es lo que produce[br]ese análisis de alta dimensión. 0:03:25.681,0:03:27.938 Es una declaración condicional[br]muy elaborada. 0:03:28.328,0:03:30.702 Hay dos cosas que están mal,[br]en mi opinión. 0:03:30.702,0:03:32.418 En primer lugar, no lo veo como... 0:03:32.418,0:03:34.492 No puedo imaginar[br]por qué es algo procesable. 0:03:34.492,0:03:36.518 No sé por qué[br]querrías actuar sobre ello. 0:03:36.518,0:03:39.381 Y también sé que hay[br]algún modelo alternativo 0:03:39.381,0:03:42.856 que encaja casi igual de bien,[br]que lo invierte todo. 0:03:42.978,0:03:44.591 Porque el aprendizaje automático 0:03:44.591,0:03:48.473 no me dice que este es realmente[br]el predictor que importa, 0:03:48.473,0:03:50.779 solo me dice[br]que este es un buen predictor. 0:03:51.396,0:03:54.875 Así que creo,[br]que hay algo diferente 0:03:54.875,0:03:57.688 en el contexto[br]de las ciencias sociales. 0:03:57.688,0:04:00.270 [Guido] Creo que las aplicaciones[br]de las ciencias sociales 0:04:00.270,0:04:03.922 de las que hablas[br]son aquellas en las que, creo, 0:04:03.922,0:04:07.923 no hay una gran cantidad[br]de heterogeneidad en los efectos. 0:04:09.760,0:04:13.610 [Josh] Bueno, podría haberla[br]si me permites llenar ese espacio. 0:04:13.610,0:04:15.648 [Guido] No... ni siquiera entonces. 0:04:15.648,0:04:18.506 Creo que para muchas[br]de esas intervenciones, 0:04:18.506,0:04:22.840 se espera que el efecto[br]sea del mismo signo para todos. 0:04:23.550,0:04:27.320 Puede haber pequeñas diferencias[br]en la magnitud, pero no es... 0:04:27.576,0:04:29.968 Porque muchas de estas[br]diferencias educativas 0:04:29.968,0:04:31.612 son buenas para todos. 0:04:31.612,0:04:35.932 No es que sean malas[br]para algunas personas 0:04:35.932,0:04:37.408 y buenas para otras 0:04:37.408,0:04:39.797 y luego hay unos pocos casos[br]en los que son malas. 0:04:40.189,0:04:43.633 Pero puede haber[br]algo de variación en la magnitud, 0:04:43.633,0:04:44.808 pero se necesitarían 0:04:44.808,0:04:47.190 conjuntos de datos[br]muy muy grandes para encontrarlos. 0:04:47.190,0:04:48.985 Estoy de acuerdo en que,[br]en esos casos, 0:04:48.985,0:04:51.393 probablemente no serían[br]muy procesables de todos modos. 0:04:51.881,0:04:54.150 Pero creo que hay[br]muchos otros escenarios 0:04:54.150,0:04:56.483 donde hay mucha más heterogeneidad. 0:04:57.046,0:04:59.164 [Josh] Bueno, estoy abierto[br]a esa posibilidad 0:04:59.164,0:05:00.977 y creo que el ejemplo que has dado 0:05:00.977,0:05:04.857 es esencialmente[br]un ejemplo de marketing. 0:05:05.938,0:05:09.714 [Guido] No, esos tienen[br]implicaciones respecto a ello 0:05:09.714,0:05:11.596 y esa es la organización, 0:05:11.596,0:05:13.708 si tienes que preocuparte por la... 0:05:15.358,0:05:17.857 [Josh] Bueno, necesito[br]ver ese documento. 0:05:18.289,0:05:21.490 [Isaiah] Así que, la sensación[br]que tengo es que... 0:05:21.490,0:05:23.371 [Josh] Todavía estamos[br]en desacuerdo en algo. 0:05:23.371,0:05:25.735 - [Isaiah] Sí.[br]- [Josh] No coincidimos en todo. 0:05:25.735,0:05:27.393 [Isaiah] Tengo esa sensación.[br][risas] 0:05:27.393,0:05:29.470 [Josh] En realidad,[br]hemos discrepado en esto 0:05:29.470,0:05:30.729 porque no estaba para discutir. 0:05:30.729,0:05:33.144 [risas] 0:05:33.144,0:05:35.600 [Guido] ¿Se está poniendo[br]algo caluroso aquí? 0:05:35.720,0:05:37.854 [Isaiah] Caluroso.[br]Es bueno que esté caluroso. 0:05:37.854,0:05:39.501 La sensación que tengo es, Josh, 0:05:39.501,0:05:41.951 que no estás diciendo[br]que estás seguro 0:05:41.951,0:05:44.159 de que no hay manera[br]de que haya una aplicación 0:05:44.159,0:05:45.667 en la que estas cosas sean útiles. 0:05:45.667,0:05:47.169 Estás diciendo[br]que no estás convencido 0:05:47.169,0:05:49.444 con las aplicaciones existentes[br]hasta la fecha. 0:05:49.907,0:05:51.665 - Me parece bien.[br]- [Guido] Estoy muy seguro. 0:05:51.858,0:05:54.179 [risas] 0:05:54.179,0:05:55.270 [Josh] En este caso. 0:05:55.270,0:05:56.791 [Guido] Creo que Josh tiene razón 0:05:57.737,0:06:00.101 en que incluso[br]en los casos de predicción, 0:06:01.601,0:06:03.757 donde muchos de los métodos[br]de aprendizaje automático 0:06:03.757,0:06:06.517 realmente se destacan es donde hay[br]un montón de heterogeneidad. 0:06:06.785,0:06:10.400 [Josh] No te importan mucho[br]los detalles, ¿verdad? 0:06:10.400,0:06:11.480 [Guido] Sí. 0:06:11.480,0:06:14.752 [Josh] No tiene[br]un ángulo normativo o algo así. 0:06:14.752,0:06:17.535 [Guido] El reconocimiento[br]de dígitos escritos a mano 0:06:17.535,0:06:18.721 y demás... 0:06:18.721,0:06:23.861 lo hace mucho mejor[br]que construir un modelo complicado. 0:06:24.201,0:06:26.925 Pero muchas[br]de las ciencias sociales, 0:06:26.925,0:06:28.454 muchas[br]de las aplicaciones económicas, 0:06:28.454,0:06:29.610 en realidad, sabemos mucho 0:06:29.610,0:06:32.670 sobre la relación[br]entre sus variables. 0:06:32.670,0:06:34.761 Muchas de las relaciones[br]son estrictamente monótonas. 0:06:35.399,0:06:39.266 La educación va a aumentar[br]los ingresos de la gente, 0:06:39.836,0:06:41.916 sin importar[br]las características demográficas, 0:06:41.916,0:06:44.763 sin importar[br]el nivel de educación que se tenga. 0:06:44.763,0:06:46.325 [Isaiah] Hasta que lleguen[br]a un doctorado. 0:06:46.325,0:06:48.126 [Josh] ¿Eso se aplica[br]a la escuela de posgrado? 0:06:48.126,0:06:49.218 [risas] 0:06:49.218,0:06:50.593 [Guido] En un rango razonable. 0:06:50.593,0:06:55.592 No va a bajar mucho. 0:06:55.592,0:06:58.178 En muchos de los entornos[br]en los que se destacan 0:06:58.178,0:07:00.209 estos métodos[br]de aprendizaje automático, 0:07:00.209,0:07:02.810 hay mucha falta de monotonicidad, 0:07:02.810,0:07:04.912 una especie de multimodalidad[br]en estas relaciones 0:07:05.357,0:07:08.475 y van a ser muy poderosos. 0:07:08.701,0:07:11.426 Pero sigo sosteniendo lo mismo. 0:07:12.538,0:07:17.530 Estos métodos tienen mucho[br]para ofrecerles a los economistas 0:07:17.530,0:07:21.465 y serán una gran parte del futuro. 0:07:21.629,0:07:23.183 APLICACIONES[br]DEL APRENDIZAJE AUTOMÁTICO 0:07:23.183,0:07:24.814 [Isaiah] Parece que hay[br]algo interesante por decir 0:07:24.814,0:07:26.139 sobre el aprendizaje automático. 0:07:26.139,0:07:27.412 Así que, Guido, me preguntaba 0:07:27.412,0:07:29.416 ¿podrías dar tal vez[br]algunos de los ejemplos 0:07:29.416,0:07:30.694 que estás pensando 0:07:30.694,0:07:32.507 con las aplicaciones[br]que salen en el momento? 0:07:32.507,0:07:35.779 [Guido] Un área[br]es donde en lugar de buscar 0:07:35.779,0:07:37.235 efectos causales promedio 0:07:37.235,0:07:39.684 estamos buscando[br]estimaciones individualizadas, 0:07:39.684,0:07:43.212 predicciones de efectos causales, 0:07:43.212,0:07:45.856 y allí, los algoritmos[br]de aprendizaje automático 0:07:45.856,0:07:47.384 han sido muy eficaces. 0:07:47.958,0:07:49.892 Hasta ahora,[br]hemos hecho estas cosas 0:07:49.892,0:07:51.458 utilizando los métodos de Kernel, 0:07:51.458,0:07:53.846 y teóricamente, funcionan muy bien, 0:07:53.846,0:07:56.226 y hay quienes comentan[br]que, formalmente, 0:07:56.226,0:07:57.575 no se puede hacer nada mejor. 0:07:57.575,0:07:59.422 Pero en la práctica,[br]no funcionan muy bien. 0:08:00.963,0:08:03.570 Las cosas aleatorias[br]de tipo bosque causal 0:08:03.570,0:08:05.833 en las que Stefan Wager[br]y Susan Athey 0:08:05.833,0:08:09.310 han estado trabajando[br]se utilizan muy ampliamente. 0:08:09.537,0:08:11.895 Han sido muy eficaces[br]en estos entornos 0:08:11.895,0:08:14.998 para obtener efectos causales 0:08:14.998,0:08:19.118 que varían según las covariables. 0:08:19.118,0:08:23.665 Creo que esto es solo el comienzo[br]de estos métodos. 0:08:23.665,0:08:25.605 Pero en muchos casos, 0:08:27.201,0:08:29.572 estos algoritmos son muy eficaces, 0:08:29.572,0:08:31.481 como en la búsqueda[br]en grandes espacios 0:08:31.481,0:08:36.908 y encontrar las funciones[br]que se ajustan muy bien 0:08:37.228,0:08:40.444 en formas que realmente[br]no podíamos hacer antes. 0:08:41.511,0:08:42.866 [Josh] No conozco ningún ejemplo 0:08:42.866,0:08:45.379 en el que el aprendizaje automático[br]haya generado conocimientos 0:08:45.379,0:08:47.260 sobre un efecto causal[br]que me interese. 0:08:47.619,0:08:49.133 Y sí conozco ejemplos 0:08:49.133,0:08:51.106 en los que es potencialmente[br]muy engañoso. 0:08:51.485,0:08:53.487 He trabajado con Brigham Frandsen 0:08:53.487,0:08:55.916 utilizando, por ejemplo,[br]bosques aleatorios 0:08:55.916,0:08:57.943 para modelar[br]los efectos de las covariables 0:08:57.943,0:08:59.885 en un problema[br]de variables instrumentales 0:09:00.155,0:09:03.328 en el que hay que condicionar[br]las covariables. 0:09:04.270,0:09:06.456 Y no tienes[br]un sentimiento muy fuerte 0:09:06.456,0:09:08.130 sobre la forma funcional para eso, 0:09:08.130,0:09:09.845 así que tal vez[br]se debería curvar... 0:09:10.565,0:09:12.814 estar abierto[br]a un ajuste flexible de la curva. 0:09:12.977,0:09:14.484 Y eso te lleva a un camino 0:09:14.484,0:09:16.617 donde hay un montón[br]de no linealidades en el modelo, 0:09:17.407,0:09:19.857 y eso es muy peligroso con el VI 0:09:19.857,0:09:22.698 porque cualquier tipo[br]de no linealidad excluida 0:09:22.698,0:09:25.945 genera potencialmente[br]un efecto causal espurio 0:09:25.945,0:09:29.384 y Brigham y yo lo mostramos,[br]creo que muy convincentemente, 0:09:29.384,0:09:32.104 en el caso de dos instrumentos 0:09:32.684,0:09:34.963 que vienen de un trabajo mío[br]con Bill Evans, 0:09:34.963,0:09:37.295 donde, si se reemplaza... 0:09:37.295,0:09:40.896 un estimador tradicional[br]de mínimos cuadrados en dos etapas 0:09:40.896,0:09:42.676 con algún tipo de bosque aleatorio, 0:09:42.676,0:09:46.745 se obtienen estimaciones[br]sin sentido muy precisas. 0:09:48.887,0:09:51.560 Creo que eso[br]es una gran advertencia. 0:09:51.560,0:09:53.381 A la vista de esos resultados, 0:09:53.571,0:09:55.332 en un ejemplo que me interese 0:09:55.332,0:09:57.353 en el que los instrumentos[br]sean muy simples 0:09:57.353,0:10:01.149 y crea que son válidos,[br]sería escéptico al respecto. 0:10:02.280,0:10:06.258 La no linealidad y el VI[br]no se mezclan muy cómodamente. 0:10:06.258,0:10:09.191 [Guido] No, parece que eso[br]ya es más complicado... 0:10:09.621,0:10:11.914 [Josh] Bueno, es VI...[br][Guido] Sí. 0:10:11.914,0:10:13.554 [Josh] pero luego[br]trabajamos en eso. 0:10:13.554,0:10:15.456 [risas] 0:10:15.456,0:10:16.862 [Guido] Está bien. 0:10:16.862,0:10:18.645 OPORTUNIDADES[br]PARA PUBLICAR EN REVISTAS 0:10:18.645,0:10:20.470 [Guido] Como editor[br]de Econometrica, 0:10:20.470,0:10:22.575 muchos de estos trabajos[br]llegan a mi escritorio, 0:10:22.755,0:10:26.659 pero la motivación no es clara 0:10:27.461,0:10:29.706 y, de hecho, realmente no existe. 0:10:29.883,0:10:34.875 No son... artículos fundacionales[br]de tipo semiparamétrico. 0:10:35.515,0:10:37.790 Así que, ese es un gran problema. 0:10:37.947,0:10:41.364 Un problema relacionado[br]es que, en econometría, 0:10:41.364,0:10:43.726 tenemos la tradición[br]de estar muy centrados 0:10:43.726,0:10:46.448 en estos resultados[br]asintóticos formales. 0:10:46.757,0:10:50.040 Tenemos muchos artículos 0:10:50.730,0:10:53.244 en los que la gente[br]propone un método 0:10:53.244,0:10:55.689 y luego establece[br]las propiedades asintóticas 0:10:56.472,0:10:59.345 de una manera muy estandarizada. 0:11:00.696,0:11:01.954 [Josh] ¿Es eso malo? 0:11:02.202,0:11:06.186 [Guido] Bueno,[br]creo que les ha cerrado la puerta 0:11:06.186,0:11:08.215 a muchos trabajos[br]que no encajan 0:11:08.215,0:11:11.328 en la literatura[br]del aprendizaje automático, 0:11:11.328,0:11:13.247 donde muchas cosas[br]son más algorítmicas. 0:11:13.927,0:11:18.323 La gente tenía algoritmos[br]para hacer predicciones 0:11:18.714,0:11:22.490 que resultaron funcionar[br]mucho mejor que, por ejemplo, 0:11:22.490,0:11:23.865 la regresión Kernel no paramétrica. 0:11:23.865,0:11:25.128 Durante mucho tiempo, 0:11:25.128,0:11:26.920 en econometría[br]hicimos toda la no paramétrica 0:11:26.920,0:11:28.753 y usamos la regresión Kernel. 0:11:29.178,0:11:30.969 Y eso fue genial[br]para probar teoremas. 0:11:30.969,0:11:32.637 Podías obtener[br]intervalos de confianza, 0:11:32.637,0:11:34.567 consistencia,[br]normalidad asintótica 0:11:34.567,0:11:36.875 y todo iba genial,[br]pero no era muy útil. 0:11:37.101,0:11:39.326 Y las cosas que hicieron[br]en el aprendizaje automático 0:11:39.326,0:11:40.805 son mucho, mucho mejores. 0:11:41.540,0:11:42.766 Pero no tenían el problema... 0:11:42.766,0:11:44.961 [Josh] Ese no es mi problema[br]con el aprendizaje automático, 0:11:44.961,0:11:46.983 que la teoría sea débil.[br][risas] 0:11:47.730,0:11:50.768 [Guido] No, pero estoy diciendo[br]que, en cuanto a la predicción, 0:11:51.138,0:11:52.359 lo hace mucho mejor. 0:11:52.359,0:11:54.590 [Josh] Sí, es una mejor herramienta[br]de ajuste de curvas. 0:11:54.590,0:11:58.655 [Guido] Pero lo hizo de una manera[br]que no habría hecho 0:11:58.655,0:12:02.399 que esos trabajos fueran[br]inicialmente fáciles de incorporar 0:12:02.399,0:12:04.291 en las revistas de econometría, 0:12:04.291,0:12:06.715 porque no estaba probando[br]el tipo de cosas... 0:12:06.990,0:12:09.842 Cuando Breiman[br]hacía sus árboles de regresión... 0:12:09.842,0:12:11.235 simplemente no encajaban. 0:12:11.477,0:12:15.815 Creo que le habría sido muy difícil[br]publicar estas cosas 0:12:15.815,0:12:18.183 en las revistas de econometría. 0:12:20.124,0:12:23.426 Creo que nos hemos limitado[br]demasiado 0:12:23.457,0:12:27.467 y nos hemos cerrado 0:12:27.615,0:12:29.816 a muchos de estos métodos[br]de aprendizaje automático 0:12:29.816,0:12:31.117 que son realmente muy útiles. 0:12:31.292,0:12:33.625 Es decir, creo, en general, 0:12:33.625,0:12:36.614 que la literatura,[br]los ingenieros de sistemas 0:12:36.614,0:12:39.070 han presentado una gran cantidad[br]de estos algoritmos, 0:12:40.776,0:12:42.635 han propuesto[br]una gran cantidad de algoritmos 0:12:42.635,0:12:44.076 que realmente son muy útiles 0:12:44.076,0:12:48.792 y que están afectando la forma[br]en que haremos el trabajo empírico. 0:12:49.674,0:12:52.140 Pero no lo hemos interiorizado[br]del todo 0:12:52.140,0:12:54.500 porque todavía[br]estamos muy centrados 0:12:54.500,0:12:56.276 en obtener estimaciones puntuales 0:12:56.276,0:12:59.967 y obtener errores estándar[br]y obtener valores P 0:13:00.247,0:13:02.956 de una manera[br]que necesitamos superar 0:13:02.956,0:13:08.257 para aprovechar plenamente[br]la fuerza, los beneficios 0:13:08.257,0:13:10.564 de la literatura[br]de aprendizaje automático. 0:13:11.374,0:13:14.070 [Isaiah] Por un lado, creo[br]que entiendo tu punto de vista 0:13:14.070,0:13:16.738 de que el marco tradicional[br]de la econometría 0:13:16.738,0:13:19.734 de proponer un método,[br]demostrar un teorema límite 0:13:19.734,0:13:23.403 bajo alguna historia asintótica,[br]y otra, y otra y otra... 0:13:24.429,0:13:26.969 ...y luego publicar el documento,[br]es restrictivo, 0:13:26.969,0:13:28.805 y que, en cierto sentido, 0:13:28.805,0:13:30.301 al pensar más ampliamente 0:13:30.301,0:13:31.862 sobre cómo podría ser[br]un documento de métodos, 0:13:31.862,0:13:33.578 podemos escribir, en cierto sentido, 0:13:33.578,0:13:35.339 desde luego que la literatura[br]de aprendizaje automático 0:13:35.339,0:13:36.430 ha encontrado[br]un montón de cosas 0:13:36.430,0:13:38.269 que parecen funcionar bastante[br]bien para una serie de problemas 0:13:38.269,0:13:40.984 y ahora están influyendo[br]sustancialmente en la economía. 0:13:41.530,0:13:43.339 Supongo que una pregunta[br]que me interesa 0:13:43.339,0:13:46.278 es cómo piensas en el papel de... 0:13:48.754,0:13:50.990 ¿Crees que no hay valor[br]en la parte de la teoría? 0:13:50.990,0:13:52.174 Porque supongo 0:13:52.174,0:13:54.118 que una pregunta[br]que a menudo me hago 0:13:54.118,0:13:55.729 al ver el resultado 0:13:55.729,0:13:57.273 de una herramienta[br]de aprendizaje automático... 0:13:57.273,0:13:59.397 y, en realidad, varios[br]de los métodos de los que hablaste 0:13:59.397,0:14:01.759 tienen resultados inferenciales[br]desarrollados para ellos, 0:14:01.759,0:14:03.918 algo que siempre me pregunto, 0:14:03.918,0:14:05.642 una especie de cuantificación[br]de la incertidumbre 0:14:05.642,0:14:06.735 y simplemente... 0:14:06.735,0:14:07.801 Tengo mi... 0:14:07.801,0:14:09.743 vengo al mundo[br]con mi punto de vista, 0:14:09.743,0:14:11.000 veo el resultado de esta cosa. 0:14:11.000,0:14:12.633 ¿Cómo debo actualizarlo[br]en función de eso? 0:14:12.633,0:14:14.341 Y en cierto sentido,[br]si estoy en un mundo 0:14:14.341,0:14:16.250 donde las cosas[br]se distribuyen normalmente, 0:14:16.250,0:14:17.271 sé cómo hacerlo. 0:14:17.271,0:14:18.350 Aquí no lo sé. 0:14:18.350,0:14:21.160 Así que, me interesa escuchar[br]lo que piensas al respecto. 0:14:21.389,0:14:24.106 [Guido] No veo esto[br]como si fuera a decir 0:14:24.106,0:14:26.384 que estos resultados[br]no son interesantes, 0:14:26.384,0:14:27.712 pero habrá un montón de casos 0:14:27.712,0:14:29.317 en los que va a ser[br]increíblemente difícil 0:14:29.317,0:14:30.340 obtener esos resultados 0:14:30.340,0:14:32.435 y puede que no seamos capaces[br]de llegar allí 0:14:32.435,0:14:34.894 y puede que tengamos[br]que hacerlo en etapas, 0:14:34.894,0:14:36.472 donde primero alguien dice: 0:14:36.472,0:14:40.744 "Oye, tengo[br]este algoritmo interesante 0:14:40.744,0:14:42.370 para hacer algo", 0:14:42.370,0:14:46.507 y funciona bien[br]según cierto criterio 0:14:47.695,0:14:49.868 en este conjunto de datos[br]en particular, 0:14:50.998,0:14:52.663 y debemos ponerlo en conocimiento. 0:14:53.587,0:14:55.276 Y tal vez alguien[br]descubra una forma 0:14:55.276,0:14:58.500 en la que más tarde[br]se pueda seguir haciendo inferencia 0:14:58.500,0:14:59.569 bajo algunas condiciones, 0:14:59.569,0:15:01.800 y tal vez no sean condiciones[br]particularmente realistas. 0:15:01.800,0:15:03.889 Entonces, podemos ir más allá. 0:15:03.889,0:15:08.443 Pero creo que hemos estado[br]restringiendo demasiado las cosas 0:15:08.443,0:15:09.681 donde dijimos: 0:15:09.681,0:15:13.151 "Este es el tipo de cosas[br]que tenemos que hacer". 0:15:13.151,0:15:16.261 Y en cierto sentido, eso se remonta 0:15:16.261,0:15:19.993 a la forma en que Josh[br]y yo pensamos 0:15:19.993,0:15:22.020 respecto del efecto[br]del tratamiento local promedio. 0:15:22.020,0:15:24.052 Esa no era la forma[br]en que la gente pensaba 0:15:24.052,0:15:25.285 en estos problemas anteriormente. 0:15:25.285,0:15:28.513 Había una sensación[br]de que algunas personas 0:15:28.513,0:15:30.570 decían que la forma[br]de hacer estas cosas; 0:15:30.570,0:15:33.722 es decir, primero,[br]lo que te interesa estimar 0:15:34.142,0:15:37.255 y luego hacer lo mejor[br]que puedas en la estimación. 0:15:38.029,0:15:43.936 Y lo que ustedes hacen[br]es hacerlo al revés. 0:15:44.430,0:15:46.743 Ustedes dicen: "Aquí tengo[br]un estimador 0:15:47.393,0:15:50.726 y ahora voy a averiguar[br]qué está estimando". 0:15:50.726,0:15:53.883 Y supongo que vas a decir[br]por qué crees que es interesante 0:15:53.883,0:15:56.615 o tal vez por qué no es interesante[br]y eso no está bien. 0:15:56.615,0:15:58.504 No está permitido[br]hacerlo de esa manera. 0:15:58.813,0:16:01.791 Y creo que deberíamos ser[br]un poco más flexibles 0:16:02.181,0:16:06.579 a la hora de pensar[br]en cómo ver los problemas 0:16:06.579,0:16:11.206 porque creo que nos hemos perdido[br]algunas cosas por no hacer eso. 0:16:11.206,0:16:12.993 ¡ISAIAH ANDREWS ARBITRA! 0:16:12.993,0:16:15.660 [Josh] Así que, has escuchado[br]nuestros puntos de vista, Isaiah, 0:16:15.660,0:16:18.268 y has visto que no estamos[br]de acuerdo en algunos puntos. 0:16:18.413,0:16:22.500 ¿Por qué no nos arbitras[br]esta disputa? [risas] 0:16:22.500,0:16:25.190 [Isaiah] Oh, qué amable eres[br]al hacerme una pequeña pregunta. 0:16:25.190,0:16:26.490 [risas] 0:16:26.508,0:16:28.840 Así que supongo que, por un lado, 0:16:28.840,0:16:35.240 estoy muy de acuerdo con algo[br]que Guido dijo antes de... [risas] 0:16:35.711,0:16:36.815 Así que, un aspecto 0:16:36.815,0:16:38.937 en el que el asunto[br]del aprendizaje automático 0:16:38.937,0:16:40.200 parece relativamente claro 0:16:40.200,0:16:42.489 es en los entornos[br]donde nos interesa 0:16:42.489,0:16:45.110 alguna versión de un problema[br]de predicción no paramétrica. 0:16:45.110,0:16:46.799 Así que estoy interesado[br]en la estimación 0:16:46.799,0:16:49.729 de una expectativa condicional[br]o probabilidad condicional, 0:16:49.942,0:16:52.490 y en el pasado, tal vez[br]habría utilizado un Kernel... 0:16:52.490,0:16:53.696 Habría utilizado[br]una regresión Kernel 0:16:53.696,0:16:57.105 o habría utilizado una regresión[br]en serie, o algo por el estilo. 0:16:57.475,0:16:59.225 Parece que, en este momento, 0:16:59.225,0:17:00.595 tenemos una idea bastante clara 0:17:00.595,0:17:02.884 de que,[br]en una amplia gama de aplicaciones, 0:17:03.064,0:17:04.560 los métodos[br]de aprendizaje automático 0:17:04.560,0:17:05.750 parecen funcionar mejor 0:17:05.750,0:17:08.536 para estimar las funciones[br]de media condicional, 0:17:08.536,0:17:10.150 o las probabilidades condicionales, 0:17:10.150,0:17:12.208 o varios otros objetos[br]no paramétricos 0:17:12.208,0:17:15.323 que los métodos no paramétricos[br]más tradicionales 0:17:15.323,0:17:17.327 que se estudiaron[br]en econometría y estadística, 0:17:17.327,0:17:19.435 especialmente en entornos[br]de alta dimensión. 0:17:19.480,0:17:22.141 [Josh] ¿Así que, estás pensando[br]en la puntuación de propensión 0:17:22.141,0:17:23.167 o algo así? 0:17:23.167,0:17:25.221 - [Isaiah] Sí, exactamente.[br]- [Guido] Funciones de molestia. 0:17:25.221,0:17:27.569 [Isaiah] Sí, cosas como[br]las puntuaciones de propensión. 0:17:28.008,0:17:30.407 Incluso objetos[br]de interés más directo, 0:17:30.407,0:17:32.250 como los efectos del tratamiento[br]promedio condicional, 0:17:32.250,0:17:33.320 que son la diferencia 0:17:33.320,0:17:35.189 de dos funciones[br]de expectativa condicional, 0:17:35.189,0:17:36.431 potencialmente cosas así. 0:17:36.611,0:17:40.190 Por supuesto, incluso allí,[br]la teoría... 0:17:40.420,0:17:43.596 La inferencia de la teoría[br]de cómo interpretar, 0:17:43.596,0:17:45.950 cómo hacer declaraciones[br]de muestras grandes 0:17:45.950,0:17:47.740 sobre algunas de estas cosas[br]están menos desarrolladas 0:17:47.740,0:17:49.435 dependiendo del estimador[br]de aprendizaje automático 0:17:49.435,0:17:50.608 que se utilice. 0:17:50.608,0:17:53.184 Y así, creo que algo[br]que es complicado 0:17:53.184,0:17:54.846 es que podemos tener[br]estos métodos, 0:17:54.846,0:17:55.884 que funcionan mucho... 0:17:55.884,0:17:57.981 que parecen funcionar mucho mejor[br]para algunos fines, 0:17:57.981,0:18:00.223 pero que tenemos que ser[br]un poco cuidadosos 0:18:00.223,0:18:01.364 en cómo los incorporamos 0:18:01.364,0:18:03.441 o cómo interpretamos[br]las declaraciones resultantes. 0:18:03.441,0:18:05.769 Pero, por supuesto,[br]esa es un área muy, muy activa 0:18:05.769,0:18:08.255 ahora mismo en la que la gente[br]está haciendo un gran trabajo. 0:18:08.255,0:18:12.299 Así que, espero ver[br]mucho más en el futuro. 0:18:13.161,0:18:14.818 Un problema[br]con el aprendizaje automático 0:18:14.818,0:18:16.663 que siempre parece un peligro es... 0:18:16.663,0:18:18.459 o que a veces es un peligro 0:18:18.459,0:18:20.306 y que a veces ha llevado 0:18:20.306,0:18:22.213 a aplicaciones[br]que han tenido menos sentido 0:18:22.213,0:18:23.894 es cuando la gente empieza 0:18:23.894,0:18:27.252 con un método[br]que les entusiasma mucho 0:18:27.252,0:18:28.506 en lugar de una pregunta. 0:18:28.572,0:18:30.406 Así que empezar con una pregunta 0:18:30.406,0:18:33.469 donde aquí está el objeto[br]que me interesa, 0:18:33.469,0:18:35.430 aquí está el parámetro de interés, 0:18:35.430,0:18:39.242 déjame pensar[br]en cómo identificaría esa cosa, 0:18:39.242,0:18:41.566 cómo recuperaría esa cosa[br]si tuviera una tonelada de datos. 0:18:41.790,0:18:44.145 Vaya, aquí hay una función[br]de expectativa condicional, 0:18:44.145,0:18:46.797 permítanme incorporar un estimador[br]de aprendizaje automático para eso, 0:18:46.797,0:18:48.565 eso parece muy muy sensato. 0:18:48.895,0:18:50.276 Mientras que, ya sabes, 0:18:50.276,0:18:52.782 si hago una regresión[br]de la cantidad sobre el precio 0:18:53.189,0:18:54.564 y digo que he utilizado 0:18:54.564,0:18:56.230 un método[br]de aprendizaje automático, 0:18:56.370,0:18:58.169 tal vez estoy satisfecho[br]de que eso resuelva 0:18:58.169,0:19:00.312 el problema de endogeneidad[br]que normalmente nos preocupa allí; 0:19:00.312,0:19:01.617 tal vez no lo estoy. 0:19:01.617,0:19:05.179 Pero, de nuevo, allí[br]la forma de abordarlo 0:19:05.179,0:19:06.484 parece relativamente clara. 0:19:06.484,0:19:09.747 Es encontrar tu objeto de interés[br]y pensar en... 0:19:09.747,0:19:11.446 [Guido] Es simplemente incorporar[br]la economía. 0:19:11.446,0:19:12.661 [Isaiah] Exactamente. 0:19:12.661,0:19:14.227 [Guido] Y pensar[br]en la heterogeneidad, 0:19:14.227,0:19:15.299 pero aprovechar 0:19:15.299,0:19:17.245 el poder de los métodos[br]de aprendizaje automático 0:19:17.245,0:19:20.177 para algunos de los componentes. 0:19:20.177,0:19:21.224 [Isaiah] Precisamente. 0:19:21.224,0:19:22.260 Exactamente. 0:19:22.260,0:19:25.411 Así que la cuestión de interés[br]es la misma de siempre, 0:19:25.411,0:19:26.785 pero ahora tenemos mejores métodos 0:19:26.785,0:19:28.481 para estimar[br]algunas partes de esto. 0:19:29.150,0:19:32.659 Lo que parece[br]más difícil de pronosticar 0:19:32.659,0:19:35.253 es que, obviamente,[br]ocurren muchas cosas 0:19:35.253,0:19:37.305 dentro de la literatura[br]de aprendizaje automático 0:19:37.305,0:19:40.180 y las formas limitadas[br]de incorporarlo 0:19:40.180,0:19:41.689 a las que he hecho referencia[br]hasta ahora 0:19:41.689,0:19:43.141 son una parte limitada de eso. 0:19:43.141,0:19:45.380 Así que, creo que hay [br]muchas otras preguntas interesantes 0:19:45.380,0:19:48.336 sobre dónde...[br]¿a dónde va esta interacción? 0:19:48.336,0:19:49.541 ¿Qué más podemos aprender? 0:19:49.541,0:19:52.959 Y eso es algo en lo que creo[br]que hay mucho trabajo en curso, 0:19:52.959,0:19:54.417 lo que parece muy prometedor, 0:19:54.417,0:19:56.430 y no tengo ni idea[br]de cuál es la respuesta. 0:19:56.606,0:20:00.810 [Guido] No, estoy totalmente[br]de acuerdo con eso, 0:20:00.810,0:20:03.526 pero eso lo hace muy emocionante. 0:20:03.823,0:20:05.996 Y creo que hay un montón[br]de trabajo por hacer allí. 0:20:05.996,0:20:07.290 Muy bien. 0:20:07.290,0:20:08.894 Entonces, Isaiah[br]está de acuerdo conmigo en eso. 0:20:08.894,0:20:10.307 [risas] 0:20:10.307,0:20:11.729 [Isaiah] Yo no he dicho eso en sí. 0:20:11.729,0:20:13.246 [risas] 0:20:13.246,0:20:14.585 ♪ (música) ♪ 0:20:14.585,0:20:16.708 [Narradora] Si desea ver más[br]de Conversaciones Nobel, 0:20:16.708,0:20:17.748 haga clic aquí. 0:20:17.986,0:20:20.900 O si quiere aprender más[br]sobre econometría, 0:20:20.900,0:20:23.300 eche un vistazo a la serie[br]Mastering Econometrics de Josh. 0:20:23.307,0:20:26.373 Si quiere saber más[br]sobre Guido, Josh e Isaiah, 0:20:26.373,0:20:28.337 consulte los enlaces[br]en la descripción. 0:20:28.337,0:20:31.657 ♪ (música) ♪