♪ (música) ♪ - [Narradora] Bienvenidos a Nobel Conversations. En este episodio, Josh Angrist y Guido Imbens se reúnen con Isaiah Andrews para discutir y discrepar sobre el papel del aprendizaje automático en la econometría aplicada. - [Isaiah] Bien. Por supuesto que hay muchos temas en los que ustedes están muy de acuerdo, pero me gustaría pasar a uno sobre el que tal vez opinen algo distinto. Me gustaría escuchar algunas de sus opiniones sobre el aprendizaje automático y el papel que desempeña y desempeñará en la economía. - [Guido] He consultado algunos datos, como los datos privados. Vemos que no hay ningún documento publicado allí. Se hizo un experimento sobre algún algoritmo de búsqueda y la cuestión era... se trataba de clasificar cosas y cambiar la clasificación. Y estaba más o menos claro que iba a haber mucha heterogeneidad. Si buscas, digamos, una foto de Britney Spears, realmente no importa dónde la clasifiques porque vas a encontrar lo que estás buscando, ya sea que la clasifiques en primera, segunda o tercera posición. Pero si estás buscando el mejor libro de econometría, si pones tu libro en primer lugar o en el décimo, eso va a suponer una gran diferencia en la frecuencia con la que la gente hará clic en él. Así que ahí-- [Josh] ¿Por qué necesito el aprendizaje automático para descubrir eso? Porque parece que puedo descubrirlo de forma sencilla. - [Guido] En general-- - [Josh] Había un montón de posibles-- - [Guido]...quieres pensar que los artículos tienen montón de características, que quieres entender lo que impulsa la heterogeneidad en el efecto de-- - Pero solo estás prediciendo. En cierto sentido, estás resolviendo un problema de marketing. - No, es un efecto causal, - Es causal, pero no tiene contenido científico. Piensa en-- - No, pero hay cosas similares en el ámbito médico. Si haces un experimento, puedes estar muy interesado en si el tratamiento funciona para algunos grupos o no. Y tienes un montón de características individuales, y quieres buscar sistemáticamente-- - Sí. Tengo mis dudas sobre esa... esa especie de idea de que hay un efecto causal personal que me debería importar y que el aprendizaje automático puede descubrirlo de alguna manera que sea útil. Así que piensa en-- he trabajado mucho en las escuelas, yendo a, digamos, una escuela chárter, una escuela privada financiada con fondos públicos, efectivamente, que es libre de estructurar su propio plan de estudios en función del contexto. Algunos tipos de escuelas chárter consiguen un rendimiento espectacular y en el conjunto de datos que produce ese resultado, tengo un montón de covariables. Tengo las puntuaciones de referencia y los antecedentes familiares, la educación de los padres, el sexo del niño, la raza del niño. Y, bueno, en cuanto reúno media docena de ellas, tengo un espacio de muy alta dimensión. Sin duda, me interesan las características del curso de ese efecto del tratamiento, como por ejemplo, si es mejor para las personas que provienen de familias con menores ingresos. Me cuesta creer que haya una aplicación para la versión de muy alta dimensión, en la que descubrí que para los niños no blancos que tienen ingresos familiares altos pero puntuaciones de referencia en el tercer cuartil y que solo fueron a la escuela pública en el tercer grado pero no en el sexto. Así que eso es lo que produce ese análisis de alta dimensión. Es una declaración condicional muy elaborada. Hay dos cosas que están mal, en mi opinión. En primer lugar, no lo veo como-- no puedo imaginar por qué es algo procesable. No sé por qué querrías actuar sobre ello. Y también sé que hay algún modelo alternativo que encaja casi igual de bien, que lo invierte todo. Porque el aprendizaje automático no me dice que este es realmente el predictor que importa, solo me dice que este es un buen predictor. Así que creo, que hay algo diferente en el contexto de las ciencias sociales. - [Guido] Creo que las aplicaciones de las ciencias sociales de las que hablas son aquellas en las que, creo, no hay una gran cantidad de heterogeneidad en los efectos. - [Josh] Bueno, podría haberla si me permites llenar ese espacio. - No... ni siquiera entonces. Creo que para muchas de esas intervenciones, se espera que el efecto sea del mismo signo para todos. Puede haber pequeñas diferencias en la magnitud, pero no es... Porque muchas de estas diferencias educativas son buenas para todos. No es que sean malas para algunas personas y buenas para otras y en algunos pequeños casos pueden ser malas. Pero puede haber algo de variación en la magnitud, pero se necesitarían conjuntos de datos muy muy grandes para encontrarlos. Estoy de acuerdo en que, en esos casos, probablemente no serían muy procesables de todos modos. Pero creo que hay muchos otros escenarios donde hay mucha más heterogeneidad. - Bueno, estoy abierto a esa posibilidad y creo que el ejemplo que has dado es esencialmente un ejemplo de marketing. - No, esos tienen implicaciones para ello y esa es la organización, si tienes que preocuparte por la-- - Bueno, necesito ver ese documento. - Así que, la sensación que tengo es que... - Todavía no estamos de acuerdo en algo. - Sí. - No hemos coincidido en todo. - Tengo esa sensación. [risas] - En realidad, hemos discrepado en esto porque no estaba para discutir. [risas] - ¿Se está poniendo algo caluroso aquí? - Caluroso. Es bueno que esté caluroso. La sensación que tengo es, Josh, que no estás diciendo que estás seguro de que no hay manera de que haya una aplicación en la que estas cosas sean útiles. Estás diciendo que no estás convencido con las aplicaciones existentes hasta la fecha. - Es justo. - Estoy muy seguro. [risas] - En este caso. - Creo que Josh tiene un punto que incluso en los casos de predicción donde muchos de los métodos de aprendizaje de la máquina realmente brillan es donde hay un montón de heterogeneidad. - No te importan mucho los detalles, ¿verdad? - [Guido] Sí. - No tiene un ángulo de política o algo así.