< Return to Video

¿Cómo impactará el aprendizaje automático en la economía?

  • 0:00 - 0:02
    ♪ (música) ♪
  • 0:04 - 0:06
    - [Narradora] Bienvenidos
    a Nobel Conversations.
  • 0:07 - 0:09
    En este episodio,
    Josh Angrist y Guido Imbens
  • 0:09 - 0:09
    están con Isaiah Andrews
    para discutir y discrepar
  • 0:09 - 0:10
    sobre el papel
    del aprendizaje automático
  • 0:10 - 0:10
    en la econometría aplicada.
  • 0:10 - 0:12
    - [Isaiah] Entonces, por supuesto
    que hay muchos temas
  • 0:12 - 0:13
    en los que ustedes están muy de acuerdo,
    pero me gustaría pasar a uno
  • 0:13 - 0:14
    en el que tal vez
    tengan algunas discrepancias.
  • 0:14 - 0:15
    Me gustaría escuchar
    algunas de sus opiniones
  • 0:15 - 0:16
    sobre el aprendizaje automático
  • 0:16 - 0:17
    y el papel que está desempeñando
    y va a desempeñar en la economía.
  • 0:18 - 0:19
    - [Guido] He consultado algunos datos
    como el propietario----------------------.
  • 0:19 - 0:19
    Vemos que no hay
    ningún documento publicado allí.
  • 0:19 - 0:20
    Se hizo un experimento
    sobre algún algoritmo de búsqueda
  • 0:20 - 0:20
    y la cuestión era...
  • 0:20 - 0:20
    se trataba de clasificar cosas
    y cambiar la clasificación.
  • 0:20 - 0:20
    Y estaba más o menos claro
    que iba a haber mucha heterogeneidad.
  • 0:20 - 0:20
    Si buscas, digamos, una foto de Britney Spears --
  • 0:20 - 0:20
    realmente no importa dónde la clasifiques-----------------------------------
    porque vas a encontrar lo que estás buscando,
  • 0:20 - 0:20
    ya sea que la pongas en la primera,
    segunda o tercera posición del ranking.
  • 0:20 - 0:20
    Pero si estás buscando
    el mejor libro de econometría,
  • 0:20 - 0:20
    si pones tu libro en primer lugar
    o en el décimo,
  • 0:20 - 0:20
    eso va a suponer una gran diferencia
  • 0:20 - 0:20
    en la frecuencia
    con la que la gente va a hacer clic en él.
  • 0:20 - 0:20
    Así que ahí...
  • 0:22 - 0:23
    [Josh] ¿Por qué necesito
    el aprendizaje automático para descubrir eso?
  • 0:23 - 0:24
    Parece que --porque puedo descubrirlo simplemente.-----------------------
  • 0:24 - 0:25
    - [Guido] En general --
  • 0:25 - 0:25
    - [Josh] Había un montón de posibles...
  • 0:25 - 0:26
    - Quieres pensar en que hay un montón de características de los artículos,
  • 0:26 - 0:26
    que quieres entender lo que impulsa la heterogeneidad en el efecto de --
  • 0:26 - 0:26
    - Pero solo estás prediciendo.
  • 0:26 - 0:26
    En cierto sentido, estás resolviendo
    un problema de marketing.
  • 0:26 - 0:26
    - No, es un efecto causal,
  • 0:26 - 0:26
    - Es causal, pero no tiene contenido científico.
  • 0:26 - 0:26
    Piensa en...
  • 0:26 - 0:26
    - No, pero hay cosas similares
    en el ámbito médico.
  • 0:26 - 0:26
    Si haces un experimento,
  • 0:26 - 0:26
    puedes estar muy interesado
    en si el tratamiento funciona
  • 0:26 - 0:26
    para algunos grupos o no.
  • 0:26 - 0:26
    Y tienes un montón
    de características individuales,
  • 0:26 - 0:26
    y quieres buscar sistemáticamente...
  • 0:26 - 0:26
    - Sí. Soy escéptico sobre esa...
  • 0:26 - 0:26
    esa especie de idea de que hay
    un efecto causal personal
  • 0:26 - 0:26
    que me debería importar
  • 0:26 - 0:26
    y que el aprendizaje automático
    puede descubrirlo de alguna manera que sea útil.
  • 0:26 - 0:26
    Así que piensa en --
  • 0:26 - 0:26
    he hecho
    un montón de trabajo en las escuelas,
  • 0:26 - 0:26
    ir a, digamos, una escuela charter,-------------------------------------------------
  • 0:26 - 0:26
    una escuela privada financiada
    con fondos públicos,
  • 0:26 - 0:26
    efectivamente, que es libre de estructurar
    su propio plan de estudios para el contexto allí.
  • 0:26 - 0:26
    Algunos tipos de escuelas chárter
    generan espectaculares ganancias de rendimiento
  • 0:26 - 0:26
    y en el conjunto de datos
    que produce ese resultado,
  • 0:26 - 0:26
    tengo un montón de covariables.
  • 0:26 - 0:26
    Así que tengo las puntuaciones de referencia
  • 0:26 - 0:26
    y tengo los antecedentes familiares,
  • 0:26 - 0:26
    la educación de los padres,
    el sexo del niño, la raza del niño.
  • 0:26 - 0:26
    Y, bueno, en cuanto reúno
    media docena de ellas,
  • 0:26 - 0:26
    tengo un espacio de muy alta dimensión.
  • 0:26 - 0:26
    Definitivamente me interesan
    las características del curso
  • 0:26 - 0:26
    de ese efecto del tratamiento,
  • 0:26 - 0:26
    como por ejemplo si es mejor para las personas
    que provienen de familias con menores ingresos.
  • 0:26 - 0:26
    Me cuesta creer que haya una aplicación para la versión de muy alta dimensión de eso,
  • 0:26 - 0:26
    en la que descubrí
    que para los niños no blancos
  • 0:26 - 0:26
    que tienen ingresos familiares altos
  • 0:26 - 0:26
    pero puntuaciones de referencia en el tercer cuartil
  • 0:26 - 0:26
    y que solo fueron a la escuela pública
    en el tercer grado pero no en el sexto.
  • 0:26 - 0:26
    Así que eso es lo que produce
    ese análisis de alta dimensión.
  • 0:26 - 0:27
    Es una declaración condicional
    muy elaborada.
  • 0:30 - 0:33
    Hay dos cosas que están mal,
    en mi opinión.
  • 0:33 - 0:34
    En primer lugar, no lo veo como...
  • 0:34 - 0:35
    no puedo imaginar
    por qué es procesable.
  • 0:35 - 0:35
    No sé por qué querrías actuar sobre ello.
  • 0:35 - 0:35
    Y también sé que hay algún modelo alternativo que encaja casi igual, que lo invierte todo.
  • 0:35 - 0:35
    Porque el aprendizaje automático
  • 0:35 - 0:35
    no me dice que este es realmente
    el predictor que importa --
  • 0:35 - 0:35
    sólo me dice que este es un buen predictor.
  • 0:36 - 0:37
    Así que creo que hay algo diferente
    en el contexto de las ciencias sociales.
  • 0:37 - 0:38
    - [Guido] Creo que las aplicaciones
    de las ciencias sociales
  • 0:38 - 0:38
    de las que hablas
    son aquellas en las que, creo,
  • 0:38 - 0:38
    no hay una gran cantidad de heterogeneidad
    en los efectos.
  • 0:38 - 0:38
    - [Josh] Bueno, podría haberla
    si me permites llenar ese espacio.
  • 0:38 - 0:38
    - No... ni siquiera entonces.
  • 0:38 - 0:38
    Creo que para muchas de esas intervenciones,
  • 0:38 - 0:38
    se espera que el efecto sea del mismo signo para todos.
  • 0:38 - 0:38
    Puede haber pequeñas diferencias
    en la magnitud, pero no es...
  • 0:38 - 0:38
    Para muchas de estas defensas educativas
    - son buenas para todos.
  • 0:38 - 0:38
    No es que sean malas para algunas personas
    y buenas para otras
  • 0:38 - 0:38
    y eso es una especie ------------------------------------------------------------------------------------------------------------------------------------.
  • 0:38 - 0:39
    Pero puede haber
    algo de variación en la magnitud,
  • 0:39 - 0:39
    pero se necesitarían conjuntos de datos
    muy, muy grandes para encontrarlos.
  • 0:39 - 0:39
    Estoy de acuerdo en que, en esos casos,
    probablemente no serían muy procesables de todos modos.
  • 0:39 - 0:39
    Pero creo que hay muchos otros escenarios
    donde hay mucha más heterogeneidad.
  • 0:39 - 0:39
    - Bueno, estoy abierto a esa posibilidad
  • 0:39 - 0:39
    y creo que el ejemplo que has dado
    es esencialmente un ejemplo de marketing.
  • 0:39 - 0:39
    - No, esos tienen implicaciones para ello
    y esa es la organización,
  • 0:39 - 0:39
    si tienes que preocuparte por la...
  • 0:39 - 0:39
    - Bueno, necesito ver ese documento.
  • 0:39 - 0:39
    - Así que, la sensación que tengo es que...
  • 0:39 - 0:39
    - Todavía no estamos de acuerdo en algo.
  • 0:39 - 0:39
    - Sí.
  • 0:39 - 0:39
    - No hemos convergido en todo.
  • 0:39 - 0:39
    - Tengo esa sensación. [risas]
  • 0:39 - 0:39
    - En realidad, hemos divergido
    en esto porque esto no estaba para discutir.
  • 0:39 - 0:39
    [risas]
  • 0:39 - 0:39
    - ¿Se está calentando un poco aquí?
  • 0:39 - 0:39
    - ------------------------------------------------------es bueno.
  • 0:39 - 0:39
    La sensación que tengo es, Josh,
  • 0:39 - 0:39
    que no estás diciendo
    que estás seguro de que no hay manera de que haya una aplicación en la que estas cosas sean útiles.
  • 0:39 - 0:39
    Estás diciendo
    que no estás convencido
  • 0:39 - 0:39
    de las aplicaciones existentes
    hasta la fecha.
  • 0:39 - 0:39
    - Es justo.
  • 0:39 - 0:39
    - Estoy muy seguro.
  • 0:39 - 0:39
    [risas]
  • 0:39 - 0:39
    - En este caso.
  • 0:39 - 0:39
    - Creo que Josh tiene un punto que incluso en los casos de predicción donde muchos de los métodos de aprendizaje de la máquina realmente brillan es donde hay un montón de heterogeneidad.
  • 0:39 - 0:39
    - No te importan mucho los detalles,
    ¿verdad?
  • 0:39 - 0:39
    - [Guido] Sí.
  • 0:39 - 0:39
    - No tiene un ángulo de política o algo así.
  • 0:39 - 0:40
  • 0:40 - 0:41
  • 0:43 - 0:46
  • 0:46 - 0:47
  • 0:48 - 0:51
  • 0:52 - 0:56
  • 0:58 - 1:01
  • 1:01 - 1:02
  • 1:02 - 1:06
  • 1:06 - 1:08
  • 1:08 - 1:10
  • 1:10 - 1:12
  • 1:13 - 1:16
  • 1:16 - 1:18
  • 1:19 - 1:21
  • 1:22 - 1:23
  • 1:23 - 1:27
  • 1:27 - 1:29
  • 1:29 - 1:30
  • 1:30 - 1:32
  • 1:32 - 1:35
  • 1:35 - 1:37
  • 1:38 - 1:42
  • 1:42 - 1:43
  • 1:43 - 1:45
  • 1:45 - 1:48
  • 1:48 - 1:49
  • 1:49 - 1:52
  • 1:52 - 1:53
  • 1:54 - 1:57
  • 1:58 - 2:01
  • 2:01 - 2:04
  • 2:04 - 2:06
  • 2:06 - 2:08
  • 2:08 - 2:10
  • 2:10 - 2:13
  • 2:13 - 2:14
  • 2:14 - 2:16
  • 2:16 - 2:17
  • 2:17 - 2:20
  • 2:20 - 2:22
  • 2:22 - 2:24
  • 2:25 - 2:27
  • 2:27 - 2:29
  • 2:29 - 2:31
  • 2:31 - 2:34
  • 2:34 - 2:36
  • 2:36 - 2:38
  • 2:38 - 2:41
  • 2:41 - 2:43
  • 2:44 - 2:46
  • 2:46 - 2:50
  • 2:50 - 2:52
  • 2:52 - 2:55
  • 2:55 - 2:56
  • 2:56 - 2:59
  • 2:59 - 3:02
  • 3:03 - 3:06
  • 3:07 - 3:10
  • 3:10 - 3:12
  • 3:12 - 3:15
  • 3:15 - 3:18
  • 3:18 - 3:22
  • 3:22 - 3:23
  • 3:23 - 3:26
  • 3:26 - 3:28
  • 3:28 - 3:31
  • 3:31 - 3:32
  • 3:32 - 3:34
  • 3:35 - 3:37
  • 3:37 - 3:39
  • 3:39 - 3:41
  • 3:42 - 3:43
  • 3:43 - 3:45
  • 3:45 - 3:49
  • 3:49 - 3:51
  • 3:51 - 3:55
  • 3:55 - 3:58
  • 3:58 - 4:00
  • 4:00 - 4:02
  • 4:02 - 4:03
  • 4:03 - 4:08
  • 4:10 - 4:12
  • 4:12 - 4:13
  • 4:13 - 4:16
  • 4:16 - 4:19
  • 4:19 - 4:23
  • 4:24 - 4:28
  • 4:28 - 4:30
  • 4:30 - 4:32
  • 4:34 - 4:36
  • 4:36 - 4:38
  • 4:38 - 4:39
  • 4:39 - 4:41
  • 4:41 - 4:44
  • 4:44 - 4:47
  • 4:48 - 4:49
  • 4:49 - 4:51
  • 4:52 - 4:54
  • 4:54 - 4:57
  • 4:57 - 4:59
  • 4:59 - 5:05
  • 5:06 - 5:10
  • 5:10 - 5:11
  • 5:12 - 5:14
  • 5:15 - 5:18
  • 5:18 - 5:21
  • 5:21 - 5:24
  • 5:24 - 5:25
  • 5:25 - 5:27
  • 5:27 - 5:29
  • 5:29 - 5:31
  • 5:31 - 5:32
  • 5:33 - 5:35
  • 5:36 - 5:38
  • 5:38 - 5:41
  • 5:41 - 5:43
  • 5:43 - 5:45
  • 5:45 - 5:47
  • 5:47 - 5:49
  • 5:50 - 5:52
  • 5:52 - 5:54
  • 5:54 - 5:55
  • 5:55 - 5:57
  • 5:57 - 6:00
  • 6:02 - 6:05
  • 6:05 - 6:07
  • 6:07 - 6:11
  • 6:11 - 6:12
  • 6:12 - 6:15
  • 6:15 - 6:18
  • 6:19 - 6:20
  • 6:20 - 6:24
  • 6:24 - 6:28
  • 6:28 - 6:30
  • 6:30 - 6:32
  • 6:32 - 6:35
  • 6:37 - 6:39
  • 6:40 - 6:42
  • 6:42 - 6:45
  • 6:45 - 6:46
  • 6:46 - 6:48
  • 6:48 - 6:49
  • 6:49 - 6:51
  • 6:52 - 6:55
  • 6:56 - 6:58
  • 6:58 - 7:00
  • 7:00 - 7:02
  • 7:02 - 7:05
  • 7:05 - 7:09
  • 7:09 - 7:12
  • 7:12 - 7:15
  • 7:16 - 7:18
  • 7:18 - 7:22
  • 7:22 - 7:23
  • 7:23 - 7:25
  • 7:25 - 7:26
  • 7:26 - 7:28
  • 7:28 - 7:30
  • 7:30 - 7:31
  • 7:31 - 7:33
  • 7:33 - 7:34
  • 7:35 - 7:37
  • 7:37 - 7:39
  • 7:41 - 7:43
  • 7:43 - 7:46
  • 7:46 - 7:48
  • 7:48 - 7:51
  • 7:51 - 7:54
  • 7:54 - 7:56
  • 7:56 - 7:58
  • 7:58 - 8:00
  • 8:01 - 8:04
  • 8:04 - 8:07
  • 8:07 - 8:09
  • 8:09 - 8:12
  • 8:12 - 8:19
  • 8:21 - 8:24
  • 8:24 - 8:26
  • 8:27 - 8:32
  • 8:32 - 8:37
  • 8:37 - 8:41
  • 8:42 - 8:43
  • 8:43 - 8:45
  • 8:45 - 8:48
  • 8:48 - 8:50
  • 8:50 - 8:51
  • 8:51 - 8:54
  • 8:54 - 8:58
  • 8:58 - 9:00
  • 9:00 - 9:03
  • 9:04 - 9:07
  • 9:07 - 9:08
  • 9:08 - 9:10
  • 9:11 - 9:13
  • 9:13 - 9:15
  • 9:15 - 9:17
  • 9:17 - 9:20
  • 9:20 - 9:23
  • 9:23 - 9:26
  • 9:26 - 9:29
  • 9:29 - 9:32
  • 9:33 - 9:35
  • 9:35 - 9:38
  • 9:39 - 9:41
  • 9:41 - 9:43
  • 9:43 - 9:47
  • 9:49 - 9:51
  • 9:52 - 9:55
  • 9:55 - 9:57
  • 9:57 - 9:59
  • 9:59 - 10:01
  • 10:03 - 10:06
  • 10:06 - 10:09
  • 10:10 - 10:12
  • 10:13 - 10:14
  • 10:14 - 10:16
  • 10:16 - 10:17
  • 10:17 - 10:18
  • 10:18 - 10:20
  • 10:20 - 10:22
  • 10:23 - 10:27
  • 10:28 - 10:30
  • 10:30 - 10:31
  • 10:32 - 10:35
  • 10:35 - 10:37
  • 10:39 - 10:43
  • 10:43 - 10:47
  • 10:49 - 10:53
  • 10:53 - 10:56
  • 10:56 - 10:59
  • 11:01 - 11:02
  • 11:03 - 11:06
  • 11:06 - 11:09
  • 11:09 - 11:12
  • 11:12 - 11:13
  • 11:14 - 11:18
  • 11:19 - 11:21
  • 11:21 - 11:24
  • 11:24 - 11:27
  • 11:27 - 11:29
  • 11:29 - 11:31
  • 11:31 - 11:33
  • 11:33 - 11:35
  • 11:35 - 11:36
  • 11:36 - 11:37
  • 11:37 - 11:39
  • 11:39 - 11:41
  • 11:41 - 11:43
  • 11:43 - 11:44
  • 11:44 - 11:46
  • 11:46 - 11:47
  • 11:47 - 11:51
  • 11:51 - 11:52
  • 11:52 - 11:54
  • 11:55 - 11:58
  • 11:58 - 12:00
  • 12:00 - 12:04
  • 12:04 - 12:06
  • 12:07 - 12:10
  • 12:10 - 12:11
  • 12:13 - 12:15
  • 12:15 - 12:18
  • 12:20 - 12:24
  • 12:25 - 12:28
  • 12:28 - 12:30
  • 12:30 - 12:31
  • 12:31 - 12:34
  • 12:35 - 12:37
  • 12:37 - 12:40
  • 12:41 - 12:43
  • 12:43 - 12:44
  • 12:44 - 12:46
  • 12:46 - 12:49
  • 12:50 - 12:52
  • 12:52 - 12:54
  • 12:54 - 12:58
  • 12:59 - 13:00
  • 13:00 - 13:03
  • 13:03 - 13:06
  • 13:07 - 13:08
  • 13:08 - 13:11
  • 13:11 - 13:14
  • 13:14 - 13:17
  • 13:17 - 13:20
  • 13:20 - 13:24
  • 13:24 - 13:27
  • 13:27 - 13:30
  • 13:30 - 13:32
  • 13:32 - 13:33
  • 13:33 - 13:35
  • 13:35 - 13:37
  • 13:37 - 13:38
  • 13:38 - 13:41
  • 13:41 - 13:43
  • 13:43 - 13:46
  • 13:49 - 13:51
  • 13:52 - 13:54
  • 13:54 - 13:57
  • 13:57 - 13:58
  • 13:58 - 13:59
  • 13:59 - 14:01
  • 14:01 - 14:02
  • 14:03 - 14:04
  • 14:04 - 14:07
  • 14:07 - 14:08
  • 14:08 - 14:11
  • 14:11 - 14:12
  • 14:12 - 14:14
  • 14:14 - 14:16
  • 14:16 - 14:17
  • 14:17 - 14:18
  • 14:18 - 14:21
  • 14:22 - 14:24
  • 14:25 - 14:27
  • 14:27 - 14:28
  • 14:28 - 14:30
  • 14:30 - 14:32
  • 14:32 - 14:35
  • 14:35 - 14:36
  • 14:36 - 14:41
  • 14:41 - 14:42
  • 14:42 - 14:47
  • 14:47 - 14:50
  • 14:51 - 14:53
  • 14:53 - 14:55
  • 14:55 - 14:58
  • 14:58 - 14:59
  • 14:59 - 15:02
  • 15:02 - 15:04
  • 15:04 - 15:08
  • 15:08 - 15:10
  • 15:10 - 15:13
  • 15:13 - 15:15
  • 15:16 - 15:18
  • 15:20 - 15:22
  • 15:22 - 15:23
  • 15:23 - 15:25
  • 15:26 - 15:29
  • 15:30 - 15:32
  • 15:32 - 15:34
  • 15:34 - 15:38
  • 15:38 - 15:44
  • 15:44 - 15:47
  • 15:47 - 15:51
  • 15:51 - 15:54
  • 15:54 - 15:57
  • 15:57 - 15:59
  • 15:59 - 16:02
  • 16:02 - 16:07
  • 16:07 - 16:08
  • 16:08 - 16:11
  • 16:11 - 16:13
  • 16:13 - 16:15
  • 16:15 - 16:18
  • 16:18 - 16:20
  • 16:21 - 16:22
  • 16:22 - 16:25
  • 16:25 - 16:26
  • 16:26 - 16:28
  • 16:28 - 16:33
  • 16:34 - 16:36
  • 16:36 - 16:37
  • 16:37 - 16:40
  • 16:40 - 16:43
  • 16:43 - 16:45
  • 16:45 - 16:46
  • 16:46 - 16:50
  • 16:50 - 16:52
  • 16:52 - 16:54
  • 16:54 - 16:55
  • 16:55 - 16:57
  • 16:58 - 17:00
  • 17:00 - 17:03
  • 17:03 - 17:06
  • 17:06 - 17:09
  • 17:09 - 17:10
  • 17:10 - 17:12
  • 17:12 - 17:15
  • 17:15 - 17:17
  • 17:17 - 17:19
  • 17:20 - 17:22
  • 17:22 - 17:23
  • 17:23 - 17:25
  • 17:25 - 17:27
  • 17:28 - 17:30
  • 17:30 - 17:32
  • 17:32 - 17:35
  • 17:35 - 17:37
  • 17:37 - 17:41
  • 17:41 - 17:44
  • 17:44 - 17:46
  • 17:46 - 17:48
  • 17:48 - 17:50
  • 17:50 - 17:53
  • 17:53 - 17:56
  • 17:56 - 17:58
  • 17:58 - 18:01
  • 18:01 - 18:03
  • 18:04 - 18:06
  • 18:06 - 18:08
  • 18:08 - 18:11
  • 18:11 - 18:13
  • 18:13 - 18:17
  • 18:17 - 18:19
  • 18:19 - 18:21
  • 18:21 - 18:22
  • 18:22 - 18:27
  • 18:27 - 18:29
  • 18:29 - 18:30
  • 18:30 - 18:34
  • 18:34 - 18:35
  • 18:36 - 18:40
  • 18:40 - 18:42
  • 18:42 - 18:44
  • 18:44 - 18:47
  • 18:47 - 18:49
  • 18:49 - 18:53
  • 18:54 - 18:56
  • 18:56 - 18:59
  • 18:59 - 19:01
  • 19:02 - 19:03
  • 19:03 - 19:06
  • 19:06 - 19:08
  • 19:08 - 19:10
  • 19:10 - 19:11
  • 19:11 - 19:13
  • 19:13 - 19:14
  • 19:14 - 19:17
  • 19:17 - 19:20
  • 19:20 - 19:21
  • 19:21 - 19:24
  • 19:24 - 19:26
  • 19:26 - 19:29
  • 19:30 - 19:33
  • 19:33 - 19:36
  • 19:36 - 19:38
  • 19:38 - 19:40
  • 19:40 - 19:41
  • 19:41 - 19:43
  • 19:43 - 19:45
  • 19:45 - 19:47
  • 19:47 - 19:49
  • 19:49 - 19:53
  • 19:53 - 19:54
  • 19:54 - 19:56
  • 19:57 - 20:00
  • 20:00 - 20:04
  • 20:04 - 20:06
  • 20:07 - 20:09
  • 20:09 - 20:10
  • 20:10 - 20:12
  • 20:13 - 20:14
  • 20:14 - 20:17
  • 20:17 - 20:18
  • 20:18 - 20:20
  • 20:20 - 20:23
  • 20:24 - 20:27
  • 20:27 - 20:29
  • 20:29 - 20:31
Title:
¿Cómo impactará el aprendizaje automático en la economía?
ASR Confidence:
0.83
Description:

more » « less
Video Language:
English
Team:
Marginal Revolution University
Duration:
20:33

Spanish (Latin America) subtitles

Revisions Compare revisions