1 00:00:03,800 --> 00:00:05,800 Bienvenidos a Conversaciones Nobel. 2 00:00:07,040 --> 00:00:08,100 En este episodio, 3 00:00:08,100 --> 00:00:11,441 Josh Angrist y Guido Imbens se sientan con Isaiah Andrews 4 00:00:11,441 --> 00:00:12,614 para hablar de cómo 5 00:00:12,614 --> 00:00:14,584 está evolucionando el campo de la econometría. 6 00:00:16,100 --> 00:00:19,208 Guido y Josh, ambos son pioneros en el desarrollo 7 00:00:19,208 --> 00:00:21,500 de herramientas para investigación empírica en economía. 8 00:00:21,500 --> 00:00:23,174 Y por eso me gustaría explorar 9 00:00:23,174 --> 00:00:25,300 hacia dónde creen que se dirige el campo de la... 10 00:00:25,709 --> 00:00:28,079 la economía, la econometría, y todo este ámbito. 11 00:00:28,510 --> 00:00:31,302 Para empezar, me interesaría escuchar 12 00:00:32,171 --> 00:00:35,200 sobre si consideran que, la forma en que 13 00:00:35,200 --> 00:00:38,400 el marco de los efectos del tratamiento local tuvo lugar, 14 00:00:38,400 --> 00:00:41,518 si tienen alguna lección sobre cómo nuevos métodos empíricos 15 00:00:41,518 --> 00:00:44,156 en economía se desarrollan y difunden, o cómo deben hacerlo. 16 00:00:44,560 --> 00:00:45,960 Esa es una buena pregunta. 17 00:00:46,610 --> 00:00:47,790 Tú vas primero. 18 00:00:47,790 --> 00:00:49,240 [risas] 19 00:00:49,700 --> 00:00:52,940 Sí, creo que que lo importante es 20 00:00:52,940 --> 00:00:58,550 desarrollar casos convincentes 21 00:00:58,550 --> 00:01:02,207 donde las preguntas sean claras 22 00:01:02,400 --> 00:01:05,720 y donde los métodos se apliquen en general. 23 00:01:06,253 --> 00:01:07,560 Una cosa que... 24 00:01:08,192 --> 00:01:12,000 mirando hacia atrás a la literatura subsecuente. 25 00:01:12,200 --> 00:01:16,700 Me gusta mucho la literatura de discontinuidad de regresión 26 00:01:16,700 --> 00:01:19,670 donde había claramente un montón de ejemplos realmente convincentes 27 00:01:19,670 --> 00:01:23,378 y eso permitió a la gente pensar con más claridad, 28 00:01:23,378 --> 00:01:27,200 mirar con más detenimiento las cuestiones metodológicas. 29 00:01:27,400 --> 00:01:28,800 Hacer aplicaciones claras 30 00:01:28,800 --> 00:01:30,600 que luego te permiten pensar en ello, 31 00:01:30,600 --> 00:01:33,600 "Vaya, ¿este tipo de suposiciones son realmente razonables? 32 00:01:33,600 --> 00:01:38,000 ¿Qué tipo de cosas no nos gustan en los primeros documentos? 33 00:01:38,500 --> 00:01:39,852 ¿Cómo podemos mejorar las cosas?" 34 00:01:39,852 --> 00:01:41,042 Por lo tanto, 35 00:01:41,042 --> 00:01:44,210 tener claras las aplicaciones que motiven estas literaturas, 36 00:01:44,210 --> 00:01:46,400 creo que es muy útil. 37 00:01:46,670 --> 00:01:48,050 Me alegro de que hayas mencionado 38 00:01:48,050 --> 00:01:49,452 la discontinuidad de regresión, Guido. 39 00:01:49,452 --> 00:01:51,376 Creo que hay mucha complementariedad 40 00:01:51,376 --> 00:01:53,300 entre la IV y la RD, 41 00:01:54,700 --> 00:01:55,880 las variables instrumentales 42 00:01:55,880 --> 00:01:57,427 y la discontinuidad de la regresión. 43 00:02:00,506 --> 00:02:03,050 Muchas de las aplicaciones econométricas 44 00:02:03,050 --> 00:02:04,520 de la discontinuidad de la regresión 45 00:02:04,520 --> 00:02:07,230 son lo que antes se llamaba RD "difusa", 46 00:02:07,230 --> 00:02:11,620 donde no es discreto o determinista en el corte 47 00:02:11,620 --> 00:02:14,900 sino solo en el cambio en las tasas o la intensidad. 48 00:02:14,900 --> 00:02:17,737 Y el marco LATE nos ayuda a entender 49 00:02:17,737 --> 00:02:18,740 esas aplicaciones 50 00:02:18,740 --> 00:02:21,140 y nos da una clara interpretación 51 00:02:21,140 --> 00:02:25,000 para algo como en mi trabajo con Victor Lavy, 52 00:02:25,000 --> 00:02:26,550 donde usamos la regla de Maimónides, 53 00:02:26,550 --> 00:02:28,100 los límites del tamaño de la clase, 54 00:02:28,430 --> 00:02:30,030 ¿y qué obtienes de eso? 55 00:02:30,030 --> 00:02:31,820 Por supuesto, puedes responder a esa pregunta 56 00:02:31,820 --> 00:02:33,900 con un modelo de efectos constantes, 57 00:02:34,200 --> 00:02:36,310 pero resulta que no estamos limitados a eso, 58 00:02:36,310 --> 00:02:39,889 y la RD sigue siendo muy poderosa y esclarecedora, 59 00:02:40,368 --> 00:02:43,092 incluso cuando la correlación 60 00:02:43,092 --> 00:02:45,866 entre el punto de corte y la variable de interés, 61 00:02:45,866 --> 00:02:49,133 en este caso, el tamaño de la clase, es parcial, 62 00:02:49,133 --> 00:02:51,000 tal vez incluso no tan fuerte. 63 00:02:52,000 --> 00:02:54,999 Así que definitivamente hubo un desarrollo paralelo. 64 00:02:54,999 --> 00:02:56,400 También es interesante... 65 00:02:57,253 --> 00:02:59,391 Nadie ha hablado de diseños de regresión discontinua 66 00:02:59,391 --> 00:03:01,220 cuando estábamos en la escuela de posgrado-- 67 00:03:01,220 --> 00:03:02,843 era algo 68 00:03:02,843 --> 00:03:05,300 en lo que otros científicos sociales estaban interesados, 69 00:03:05,800 --> 00:03:09,507 y que creció junto con el marco de LATE, 70 00:03:09,507 --> 00:03:11,927 y ambos hemos trabajado 71 00:03:11,927 --> 00:03:14,565 tanto en aplicaciones como en los métodos, 72 00:03:14,565 --> 00:03:18,377 y ha sido muy emocionante ver cómo se desarrolló 73 00:03:18,377 --> 00:03:19,940 y se convirtió en algo tan importante. 74 00:03:20,000 --> 00:03:21,767 Es parte de una evolución general, 75 00:03:21,767 --> 00:03:26,086 Creo que, vamos hacia estrategias de identificación creíbles, 76 00:03:26,086 --> 00:03:27,441 efectos causales, 77 00:03:29,393 --> 00:03:30,642 haciendo econometría 78 00:03:30,642 --> 00:03:33,300 más sobre cuestiones causales que sobre modelos. 79 00:03:33,640 --> 00:03:34,650 En términos de futuro, 80 00:03:34,650 --> 00:03:37,660 Creo que una cosa que LATE ha ayudado a facilitar 81 00:03:37,660 --> 00:03:42,008 es un movimiento hacia ensayos más creativos y aleatorios 82 00:03:42,008 --> 00:03:44,400 donde hay algo de interés. 83 00:03:45,500 --> 00:03:48,460 No es posible ni sencillo 84 00:03:48,460 --> 00:03:50,700 simplemente apagarlo o encenderlo, 85 00:03:51,000 --> 00:03:54,584 pero puede fomentarla o desalentarla. 86 00:03:54,584 --> 00:03:58,200 Se subvenciona la escolarización con ayudas económicas, por ejemplo. 87 00:03:59,000 --> 00:04:02,080 Así que ahora tenemos todo un marco para interpretarlo, 88 00:04:03,600 --> 00:04:07,113 y abre las puertas a los ensayos aleatorios 89 00:04:07,113 --> 00:04:09,265 de cosas que tal vez 90 00:04:10,300 --> 00:04:12,471 no hubieran parecido posibles antes. 91 00:04:14,500 --> 00:04:17,864 Lo hemos utilizado mucho en el trabajo que hacemos en las escuelas en nuestro -- 92 00:04:17,864 --> 00:04:21,160 en el Blueprint Lab en el MIT. 93 00:04:22,360 --> 00:04:26,600 Estamos explotando la asignación aleatoria de forma muy creativa, creo. 94 00:04:28,100 --> 00:04:31,395 - [Isaiah] En relación con eso, ¿ves factores particulares 95 00:04:31,395 --> 00:04:34,445 que hacen una investigación útil en la econometría? 96 00:04:34,445 --> 00:04:38,443 Has aludido a que tiene una clara conexión 97 00:04:38,443 --> 00:04:40,300 con los problemas que están surgiendo en la actualidad, 98 00:04:40,300 --> 00:04:42,862 y la práctica empírica suele ser una buena idea. 99 00:04:43,290 --> 00:04:45,000 - ¿No es siempre una buena idea? 100 00:04:45,700 --> 00:04:50,112 A menudo me encuentro sentado en un seminario de teoría econométrica, 101 00:04:50,700 --> 00:04:52,500 digamos el seminario del MIT de Harvard, 102 00:04:53,400 --> 00:04:56,350 y pienso: "¿Qué problema está resolviendo este tipo? 103 00:04:56,350 --> 00:04:57,960 ¿Quién tiene este problema?" 104 00:04:57,960 --> 00:04:59,800 Y, ya sabes... 105 00:05:01,600 --> 00:05:04,700 a veces hay un silencio incómodo si pregunto 106 00:05:04,900 --> 00:05:08,300 o puede haber un escenario bastante complicado. 107 00:05:08,800 --> 00:05:11,600 Quiero ver dónde es útil la herramienta. 108 00:05:12,500 --> 00:05:14,765 Hay algunas herramientas puramente fundacionales -- 109 00:05:14,765 --> 00:05:16,250 Entiendo el punto. 110 00:05:16,250 --> 00:05:21,735 Hay gente que está trabajando en los fundamentos conceptuales de... 111 00:05:22,600 --> 00:05:25,300 y se convierte en algo más parecido a la estadística matemática. 112 00:05:25,800 --> 00:05:27,653 Quiero decir, recuerdo un primer ejemplo de eso 113 00:05:27,653 --> 00:05:29,920 que me costó entender, 114 00:05:29,920 --> 00:05:32,500 era la idea de la equicontinuidad estocástica, 115 00:05:32,500 --> 00:05:35,070 que uno de mis asesores de tesis, Whitney Newey, 116 00:05:35,070 --> 00:05:36,479 estaba utilizando con gran efecto, 117 00:05:36,479 --> 00:05:38,821 y yo intentaba entenderlo. 118 00:05:40,600 --> 00:05:42,034 Es realmente fundamental. 119 00:05:42,034 --> 00:05:45,200 no hay una aplicación que lo esté promoviendo, 120 00:05:45,890 --> 00:05:47,300 al menos no inmediatamente. 121 00:05:48,600 --> 00:05:53,200 Pero la mayoría de las cosas no son así, y por eso debería haber un problema. 122 00:05:53,800 --> 00:05:59,247 Y creo que depende del vendedor de ese tipo de cosas, 123 00:06:00,480 --> 00:06:02,250 porque hay un coste de oportunidad, 124 00:06:02,250 --> 00:06:05,295 el tiempo y la atención y el esfuerzo para entender las cosas. 125 00:06:05,980 --> 00:06:07,200 Es el vendedor quien debe decirlo, 126 00:06:07,400 --> 00:06:08,900 "Oye, estoy resolviendo este problema, 127 00:06:09,400 --> 00:06:12,900 y aquí hay un conjunto de resultados que muestran que es útil, 128 00:06:12,900 --> 00:06:15,200 y aquí hay una visión que obtengo". 129 00:06:16,097 --> 00:06:18,280 - [Isaiah] Como dijiste, Josh, ha habido un movimiento 130 00:06:18,280 --> 00:06:20,700 en la dirección de pensar más sobre la causalidad 131 00:06:20,700 --> 00:06:22,900 en economía y el trabajo empírico en economía. 132 00:06:22,900 --> 00:06:26,570 ¿Hay alguna consecuencia de la difusión de ese punto de vista que te haya sorprendido 133 00:06:26,570 --> 00:06:28,347 o algo que veas como desventajas 134 00:06:28,705 --> 00:06:31,500 de la forma que ha tomado la economía empírica? 135 00:06:31,500 --> 00:06:34,322 - A veces veo que alguien hace IV, 136 00:06:34,322 --> 00:06:38,304 y obtienen un resultado que parece inverosímilmente grande-- 137 00:06:38,800 --> 00:06:40,200 es el caso habitual. 138 00:06:42,500 --> 00:06:45,220 Así que podría un efecto casual extraordinariamente grande 139 00:06:45,220 --> 00:06:48,600 de alguna intervención relativamente menor, 140 00:06:49,100 --> 00:06:52,260 que fue aleatoria o para la que se podría hacer un caso 141 00:06:52,260 --> 00:06:54,490 de que hay un buen diseño. 142 00:06:54,900 --> 00:06:57,205 Y entonces, cuando veo eso, 143 00:06:57,944 --> 00:07:00,101 creo que es muy difícil para mí creer 144 00:07:00,101 --> 00:07:02,030 que esta relativamente intervención menor 145 00:07:02,030 --> 00:07:03,720 tenga un efecto tan grande. 146 00:07:04,100 --> 00:07:06,277 El autor recurrirá a veces 147 00:07:06,277 --> 00:07:08,690 al teorema de los efectos del tratamiento a media local 148 00:07:08,690 --> 00:07:11,066 y dirá, "Bueno, estos proveedores-- 149 00:07:11,066 --> 00:07:12,700 son especiales de alguna manera, 150 00:07:13,300 --> 00:07:15,800 y se benefician extraordinariamente 151 00:07:15,800 --> 00:07:17,600 de esta intervención". 152 00:07:18,100 --> 00:07:21,175 Soy reacio a tomar eso al pie de la letra. 153 00:07:21,175 --> 00:07:23,750 Creo que a menudo, cuando los efectos son demasiado grandes, 154 00:07:24,300 --> 00:07:26,780 es porque la restricción de exclusión está fallando, 155 00:07:26,780 --> 00:07:29,456 por lo que no tienes la variable endógena 156 00:07:29,456 --> 00:07:31,380 para escalar ese resultado. 157 00:07:32,000 --> 00:07:35,700 Y por lo tanto, no me alegra ver 158 00:07:36,937 --> 00:07:39,692 un argumento de heterogeneidad genérica 159 00:07:40,022 --> 00:07:41,760 que se utiliza para excusar algo 160 00:07:41,760 --> 00:07:43,800 que creo que puede ser un problema más profundo. 161 00:07:45,190 --> 00:07:47,358 - [Guido] Creo que desempeñó un papel desafortunado 162 00:07:47,358 --> 00:07:50,083 en las discusiones entre la forma reducida 163 00:07:50,083 --> 00:07:51,700 y los enfoques estructurales, 164 00:07:51,700 --> 00:07:55,510 donde siento que no era del todo correcto. 165 00:07:56,090 --> 00:07:58,810 Las suposiciones de las de variables instrumentales 166 00:07:58,810 --> 00:08:01,510 están en el centro, 167 00:08:01,510 --> 00:08:03,483 suposiciones estructurales sobre el comportamiento -- 168 00:08:03,483 --> 00:08:05,200 venían de la economía... 169 00:08:07,100 --> 00:08:09,900 pensando en el comportamiento comportamiento de los agentes, 170 00:08:10,300 --> 00:08:15,100 y de alguna manera fue empujado en una dirección 171 00:08:15,100 --> 00:08:17,600 que creo que no era realmente útil. 172 00:08:20,426 --> 00:08:21,663 Creo que, inicialmente, 173 00:08:22,800 --> 00:08:24,067 escribimos las cosas, 174 00:08:24,067 --> 00:08:26,480 se describía lo que estaba ocurriendo. 175 00:08:26,480 --> 00:08:29,783 Había un conjunto de métodos que la gente utilizaba. 176 00:08:29,783 --> 00:08:32,111 Aclaramos lo que esos métodos estaban haciendo 177 00:08:32,811 --> 00:08:38,361 de una manera que creo que contiene una buena cantidad de información. 178 00:08:39,100 --> 00:08:42,050 Pero de alguna manera fue arrinconado 179 00:08:42,050 --> 00:08:45,379 que no creo que haya sido necesariamente muy útil. 180 00:08:45,379 --> 00:08:48,604 - Sólo en el lenguaje de la forma reducida frente a la estructural, 181 00:08:48,604 --> 00:08:50,306 me parece divertido en el sentido 182 00:08:50,306 --> 00:08:52,985 de que el promedio local modelo de efecto del tratamiento, 183 00:08:52,985 --> 00:08:54,154 el modelo de resultados potenciales 184 00:08:54,154 --> 00:08:56,110 es un modelo estructural estructural no paramétrico, 185 00:08:56,110 --> 00:08:58,600 si quieres pensar en ello, como sugeriste, Guido. 186 00:08:58,600 --> 00:09:01,129 Es algo divertido 187 00:09:01,129 --> 00:09:03,505 poner estas dos cosas en oposición cuando -- 188 00:09:03,505 --> 00:09:05,116 - [Guido] Sí. - [Josh] Ese lenguaje, por supuesto, 189 00:09:05,116 --> 00:09:08,371 viene del marco de las ecuaciones simultáneas 190 00:09:08,371 --> 00:09:09,641 que hemos heredado. 191 00:09:10,400 --> 00:09:11,440 Tiene la ventaja 192 00:09:11,440 --> 00:09:14,085 de que la gente parece saber lo que quieres decir cuando lo usas, 193 00:09:14,085 --> 00:09:15,164 pero podría ser 194 00:09:16,559 --> 00:09:18,300 que diferentes personas están escuchando cosas diferentes. 195 00:09:18,300 --> 00:09:20,480 - [Guido] Sí. Creo que la forma reducida se ha venido usando 196 00:09:20,480 --> 00:09:22,200 de forma peyorativa... 197 00:09:22,200 --> 00:09:23,540 - [Josh] A veces. 198 00:09:25,104 --> 00:09:28,250 ...y eso no es realmente para lo que para lo que fue originalmente concebida. 199 00:09:30,100 --> 00:09:33,090 - [Isaiah] Supongo que algo más que me llama la atención al pensar 200 00:09:33,090 --> 00:09:35,645 en los efectos de la media local marco del efecto del tratamiento 201 00:09:35,645 --> 00:09:37,676 es que a menudo la gente apelará 202 00:09:37,676 --> 00:09:40,000 a la intuición de los efectos del tratamiento de tratamiento local 203 00:09:40,000 --> 00:09:42,358 para entornos más allá de aquellos 204 00:09:42,358 --> 00:09:44,963 donde cualquier tipo de resultado formal se ha establecido realmente. 205 00:09:45,440 --> 00:09:49,180 Y tengo curiosidad, dado todo el trabajo que ustedes hicieron 206 00:09:49,180 --> 00:09:52,390 para establecer resultados tardíos en diferentes escenarios, 207 00:09:52,390 --> 00:09:54,415 Tengo curiosidad, ¿alguna opinión al respecto? 208 00:09:55,360 --> 00:09:57,306 - Creo que va a haber un montón de casos 209 00:09:57,306 --> 00:10:02,200 donde la intuición te puede llevar hasta cierto punto, 210 00:10:02,800 --> 00:10:04,989 pero va a ser algo limitado, 211 00:10:04,989 --> 00:10:07,600 y establecer resultados formales allí 212 00:10:08,400 --> 00:10:09,490 puede ser un poco complicado 213 00:10:09,490 --> 00:10:12,700 y tal vez sólo funcione en circunstancias especiales, 214 00:10:14,600 --> 00:10:16,540 y terminas con mucha formalidad 215 00:10:16,540 --> 00:10:19,500 que la intuición podría no captar del todo. 216 00:10:19,900 --> 00:10:21,550 A veces me siento algo incómodo con ellos, 217 00:10:21,550 --> 00:10:24,438 y no son necesariamente los trabajos que yo querría escribir, 218 00:10:25,148 --> 00:10:27,819 pero creo que la intuición 219 00:10:27,819 --> 00:10:30,912 a menudo capta parte del problema. 220 00:10:33,100 --> 00:10:36,300 Creo que, en cierto sentido, fuimos muy afortunados allí 221 00:10:36,900 --> 00:10:39,250 en la forma en que el documento LATE se manejó en la revista, 222 00:10:39,250 --> 00:10:41,766 por lo que, en realidad, el editor lo hizo mucho más corto 223 00:10:42,100 --> 00:10:46,300 y eso nos permitió centrarnos en resultados muy claros y nítidos. 224 00:10:49,924 --> 00:10:51,770 Hay una tendencia desafortunada tendencia 225 00:10:51,770 --> 00:10:53,118 en la literatura econométrica 226 00:10:53,118 --> 00:10:54,870 de hacer que los artículos sean cada vez más largos. 227 00:10:54,870 --> 00:10:56,550 - Bueno, deberías arreglar eso. 228 00:10:56,550 --> 00:10:58,915 - Estoy tratando de arreglar eso. [risas] 229 00:10:58,915 --> 00:11:01,510 Pero creo que este es un ejemplo donde está muy claro 230 00:11:01,510 --> 00:11:03,097 que el hecho de que sea corto es en realidad -- 231 00:11:03,097 --> 00:11:04,750 - Deberías haber impuesto que ningún artículo 232 00:11:04,750 --> 00:11:06,802 sea más largo que el artículo de LATE. 233 00:11:07,269 --> 00:11:09,617 - Eso... ¡vaya! Eso puede ser genial. 234 00:11:09,617 --> 00:11:11,685 - Al menos no hay teoría, no hay un artículo de la teoría. 235 00:11:11,892 --> 00:11:13,339 - Sí, y creo que... 236 00:11:14,500 --> 00:11:16,800 Estoy intentando con todas mis fuerzas que los artículos sean más cortos, 237 00:11:16,800 --> 00:11:19,514 y creo que hay mucho de valor hoy en día 238 00:11:19,514 --> 00:11:21,573 porque a menudo es la segunda parte del artículo 239 00:11:21,573 --> 00:11:25,049 la que en realidad te lleva mucho más lejos 240 00:11:25,049 --> 00:11:26,395 en la comprensión de las cosas, 241 00:11:27,000 --> 00:11:29,870 y hace que las cosas sean mucho más difíciles de leer. 242 00:11:32,426 --> 00:11:36,179 Todo vuelve al punto de cómo creo que la econometría debería hacerse. 243 00:11:36,179 --> 00:11:38,070 Deberías centrarte en... 244 00:11:38,700 --> 00:11:41,300 Debería estar razonablemente cerca de los problemas empíricos. 245 00:11:41,500 --> 00:11:43,900 Deberían ser problemas muy claros. 246 00:11:44,800 --> 00:11:48,900 Pero a menudo la teoría no necesita ser tan larga. 247 00:11:48,900 --> 00:11:50,010 - [Josh] Sí. 248 00:11:51,100 --> 00:11:54,670 - Creo que las cosas se han desviado un poco. 249 00:11:56,260 --> 00:11:57,750 - [Isaiah] Un cambio relativamente reciente 250 00:11:57,750 --> 00:12:00,230 ha sido un aparente gran aumento de la demanda 251 00:12:00,230 --> 00:12:03,765 de personas con conocimientos y habilidades de econometría en la estimación de efectos causales 252 00:12:03,765 --> 00:12:04,994 en el sector tecnológico. 253 00:12:04,994 --> 00:12:07,563 Estoy interesado, ¿alguno de ustedes tiene alguna idea 254 00:12:07,563 --> 00:12:09,840 de cómo va a interactuar eso 255 00:12:09,840 --> 00:12:11,600 con el desarrollo de los métodos empíricos 256 00:12:11,600 --> 00:12:13,950 o la investigación empírica en la economía en el futuro? 257 00:12:14,600 --> 00:12:16,770 - [Josh] Bueno, hay una especie de meta-punto, 258 00:12:16,770 --> 00:12:21,000 que es que hay este nuevo tipo de empleador, 259 00:12:21,800 --> 00:12:27,530 como Amazon y Uber, y el mundo de TripAdvisor, 260 00:12:28,000 --> 00:12:29,300 y creo que eso es genial. 261 00:12:29,300 --> 00:12:32,030 Me gusta contarle a mis estudiantes sobre eso. 262 00:12:32,600 --> 00:12:35,500 En el MIT, tenemos un montón de estudiantes de ciencias de la computación... 263 00:12:35,500 --> 00:12:37,000 esa es nuestra mayor carrera. 264 00:12:37,400 --> 00:12:42,362 Intento seducir a algunas de esas personas a la economía diciendo 265 00:12:43,228 --> 00:12:46,700 que pueden ir a trabajar a estas empresas 266 00:12:46,700 --> 00:12:49,250 para las cuales la gente está muy dispuesta a trabajar, 267 00:12:49,250 --> 00:12:50,800 porque el trabajo parece emocionante, 268 00:12:52,000 --> 00:12:54,250 que las habilidades que se obtienen en la econometría 269 00:12:54,250 --> 00:12:56,100 son tan buenas o mejores 270 00:12:56,100 --> 00:12:59,736 que cualquier otra disciplina de la competencia. 271 00:12:59,736 --> 00:13:02,143 Así que al menos deberías tomar algo de economía -- 272 00:13:02,143 --> 00:13:04,290 tomar algo de econometría y algo de economía. 273 00:13:04,800 --> 00:13:07,000 Hice un proyecto divertido con Uber 274 00:13:07,600 --> 00:13:09,501 sobre la oferta laboral de los conductores de Uber, 275 00:13:09,920 --> 00:13:12,805 y fue muy emocionante ser parte de eso. 276 00:13:13,100 --> 00:13:15,400 Además, tuve que conducir para Uber durante un tiempo, 277 00:13:15,900 --> 00:13:17,730 y también me pareció divertido. 278 00:13:17,730 --> 00:13:19,231 No hice lo suficiente 279 00:13:19,231 --> 00:13:22,616 y estuve tentado a dejar mi trabajo en el MIT, 280 00:13:22,616 --> 00:13:25,100 pero disfruté de la experiencia. 281 00:13:25,230 --> 00:13:27,534 Veo un desafío potencial 282 00:13:27,534 --> 00:13:30,900 a nuestro modelo de educación de postgrado aquí, 283 00:13:31,700 --> 00:13:36,068 que es, si estamos entrenando a la gente para ir a trabajar a Amazon, 284 00:13:37,900 --> 00:13:41,190 no está claro por qué deberíamos pagar 285 00:13:41,190 --> 00:13:42,900 subsidios a los graduados por eso. 286 00:13:43,200 --> 00:13:47,280 ¿Por qué debería el contribuyente estar subvencionando eso? 287 00:13:47,280 --> 00:13:51,180 Nuestra educación de postgrado en los Estados Unidos está generosamente subvencionada, 288 00:13:51,180 --> 00:13:53,272 incluso en las universidades privadas-- 289 00:13:54,906 --> 00:13:56,477 hay mucho dinero público. 290 00:13:56,477 --> 00:13:59,300 Y creo que la razón tradicional de esto es... 291 00:13:59,643 --> 00:14:01,992 que estábamos formando educadores y académicos, 292 00:14:01,992 --> 00:14:05,657 y hay una gran externalidad del trabajo que hacemos, 293 00:14:05,657 --> 00:14:07,910 es o bien la externalidad de la investigación, 294 00:14:07,910 --> 00:14:09,557 o la externalidad de la enseñanza. 295 00:14:10,100 --> 00:14:13,389 Pero si muchos de nuestros estudiantes van a trabajar 296 00:14:13,389 --> 00:14:14,688 en el sector privado -- 297 00:14:16,300 --> 00:14:17,414 está bien, 298 00:14:19,000 --> 00:14:21,700 pero tal vez sus empleadores deberían pagar por ellos. 299 00:14:22,120 --> 00:14:23,370 - Para mí, es tan diferente 300 00:14:23,370 --> 00:14:26,780 de la gente que trabaja para empresas de consultoría. 301 00:14:27,200 --> 00:14:28,780 No me queda claro 302 00:14:28,780 --> 00:14:32,836 que el número de puestos de trabajo en el mundo académico haya cambiado. 303 00:14:33,370 --> 00:14:36,325 - Siento que este es un sector en crecimiento, 304 00:14:36,325 --> 00:14:37,807 mientras que la consultoría... 305 00:14:37,807 --> 00:14:39,289 Tienes razón al plantear eso. 306 00:14:39,289 --> 00:14:42,100 Podría ser lo mismo para la consultoría. 307 00:14:44,846 --> 00:14:47,500 Estoy colocando cada vez más estudiantes en estas empresas, 308 00:14:47,500 --> 00:14:49,467 así que está en mi mente, en cierto modo, 309 00:14:49,467 --> 00:14:54,212 que no he estado atento a los trabajos de consultoría. 310 00:14:54,212 --> 00:14:56,920 La consultoría siempre fue importante, 311 00:14:56,920 --> 00:14:58,950 y creo que también hay algún movimiento 312 00:14:58,950 --> 00:15:01,140 de la consultoría de vuelta a la investigación... 313 00:15:01,140 --> 00:15:02,723 es un poco más fluido. 314 00:15:03,900 --> 00:15:07,630 Gran parte del trabajo en ambos dominios, 315 00:15:07,630 --> 00:15:09,430 Tengo que decir que no es realmente diferente, 316 00:15:09,430 --> 00:15:12,730 pero la gente que trabaja en el sector tecnológico 317 00:15:12,730 --> 00:15:15,480 están haciendo cosas que son potencialmente de interés científico, 318 00:15:15,480 --> 00:15:16,800 pero la mayor parte está oculta. 319 00:15:17,100 --> 00:15:18,550 Entonces sí que debemos preguntarnos, 320 00:15:18,550 --> 00:15:20,900 ¿por qué el gobierno pagando por esto? 321 00:15:22,104 --> 00:15:23,732 - Aunque, a propósito de Guido, 322 00:15:23,732 --> 00:15:26,783 Supongo que esto se trata de un asunto de datos, 323 00:15:26,783 --> 00:15:32,772 ¿tiene el total [no CE] el empleo del sector lucrativo 324 00:15:32,772 --> 00:15:35,595 del programa de doctorado en economía graduados de programas de doctorado en economía 325 00:15:35,595 --> 00:15:38,290 o ha sido simplemente una sustitución de las finanzas 326 00:15:38,290 --> 00:15:40,300 y la consultoría hacia la tecnología? 327 00:15:40,300 --> 00:15:42,300 - Puede que esté reaccionando a algo 328 00:15:42,300 --> 00:15:44,400 que no está sucediendo realmente. 329 00:15:44,400 --> 00:15:45,890 - En realidad he hecho algo de trabajo 330 00:15:45,890 --> 00:15:48,200 con algunas de estas empresas tecnológicas. 331 00:15:49,100 --> 00:15:52,200 No estoy en desacuerdo con el punto de Josh de que tenemos que pensar 332 00:15:52,200 --> 00:15:53,675 un poco sobre el modelo de financiación 333 00:15:53,675 --> 00:15:56,390 quién es, al final, el que paga por la educación de postgrado. 334 00:15:56,913 --> 00:15:59,400 Pero desde una perspectiva científica, 335 00:15:59,980 --> 00:16:02,840 no sólo estos lugares tienen grandes datos, 336 00:16:02,840 --> 00:16:05,112 y hoy en día tienden a ser muy cuidadosos con eso 337 00:16:05,112 --> 00:16:07,100 por razones de privacidad, 338 00:16:07,380 --> 00:16:08,900 pero también tienen grandes preguntas. 339 00:16:10,200 --> 00:16:13,929 Me parece muy inspirador escuchar a la gente de allí 340 00:16:13,929 --> 00:16:15,950 y ver qué tipo de preguntas tienen, 341 00:16:15,950 --> 00:16:17,330 y a menudo son preguntas 342 00:16:18,200 --> 00:16:21,241 que también surgen fuera de estas empresas. 343 00:16:21,241 --> 00:16:27,430 Tengo un par de documentos con Raj Chetty y Susan Athey 344 00:16:27,430 --> 00:16:31,600 donde buscamos formas de combinar datos experimentales 345 00:16:31,600 --> 00:16:33,274 y datos observacionales. 346 00:16:35,500 --> 00:16:38,600 Raj Chetty estaba interesado en cuál es el efecto 347 00:16:38,600 --> 00:16:42,893 de los programas de la primera infancia sobre los resultados más adelante en la vida, 348 00:16:42,893 --> 00:16:46,330 no sólo en los resultados de las pruebas sino en los ingresos y otras cosas, 349 00:16:46,330 --> 00:16:48,300 y hemos desarrollado métodos 350 00:16:48,600 --> 00:16:51,500 que ayudarían a arrojar luz en eso bajo algunos... 351 00:16:52,718 --> 00:16:53,868 en algunos escenarios, 352 00:16:53,868 --> 00:16:56,920 y surgieron los mismos problemas 353 00:16:56,920 --> 00:17:00,533 en estos entornos de empresas tecnológicas. 354 00:17:00,800 --> 00:17:03,240 Y por lo tanto, desde mi perspectiva, 355 00:17:03,240 --> 00:17:05,420 es el mismo tipo de -- 356 00:17:05,420 --> 00:17:07,600 Estaba hablando con gente haciendo un trabajo empírico. 357 00:17:07,600 --> 00:17:09,700 Traté de analizar estos problemas específicos 358 00:17:09,700 --> 00:17:13,370 y luego tratar de investigar problemas más generales, 359 00:17:15,110 --> 00:17:18,230 reformulando los problemas a un nivel superior 360 00:17:18,500 --> 00:17:22,900 para poder pensar en soluciones que funcionen en una serie de escenarios. 361 00:17:23,400 --> 00:17:24,933 Y desde esa perspectiva, 362 00:17:24,933 --> 00:17:27,570 las interacciones con las empresas tecnológicas 363 00:17:27,570 --> 00:17:30,300 son muy valiosas y muy útiles. 364 00:17:31,700 --> 00:17:35,204 Ahora tenemos estudiantes haciendo prácticas allí 365 00:17:35,204 --> 00:17:38,516 y luego regresan y escriben tesis más interesantes 366 00:17:38,516 --> 00:17:43,400 como resultado de sus experiencias allí. 367 00:17:44,600 --> 00:17:47,020 - [Narrador] Si desea ver más Conversaciones Nobel, 368 00:17:47,020 --> 00:17:48,200 haga clic aquí. 369 00:17:48,200 --> 00:17:50,500 O si desea aprender más sobre econometría, 370 00:17:50,500 --> 00:17:53,100 vea la serie "Mastering Econometrics" de Josh. 371 00:17:53,700 --> 00:17:56,720 Si desea saber más sobre Guido, Josh e Isaiah, 372 00:17:56,720 --> 00:17:58,300 consulte los enlaces en la descripción. 373 00:17:59,036 --> 00:18:01,495 [música]