Return to Video

Las maravillosas y pavorosas consecuencias de los computadores que pueden aprender

  • 0:01 - 0:05
    Antes, si querías que un computador
    hiciera algo nuevo
  • 0:05 - 0:07
    tenías, normalmente, que programarlo.
  • 0:07 - 0:10
    La programación, para quienes
    no la han practicado,
  • 0:10 - 0:13
    requiere especificar
    con el más mínimo detalle
  • 0:13 - 0:16
    cada paso que uno quiere
    que haga su computador
  • 0:16 - 0:19
    para alcanzar el objetivo.
  • 0:19 - 0:22
    Si quieren hacer algo que
    no saben hacer por sí mismos
  • 0:22 - 0:24
    entonces están ante un gran reto.
  • 0:24 - 0:28
    Ese fue el reto al que se enfrentó
    este hombre, Arthur Samuel.
  • 0:28 - 0:34
    En 1956, quería hacer que su computador
    pudiera ganarle a las damas.
  • 0:34 - 0:36
    ¿Cómo se puede diseñar un programa,
  • 0:36 - 0:40
    teniendo en cuenta el más mínimo detalle
    que sea mejor que sí mismo a las damas?
  • 0:40 - 0:42
    Y se le ocurrió una idea:
  • 0:42 - 0:46
    hizo jugar al computador
    contra sí mismo miles de veces
  • 0:46 - 0:48
    y le hizo aprender
    a jugar a las damas.
  • 0:48 - 0:51
    De hecho funcionó, ya en 1962,
  • 0:51 - 0:54
    este computador había ganado
    la competición estatal de Connecticut.
  • 0:55 - 0:58
    Arthur Samuel fue el padre
    del aprendizaje automático,
  • 0:58 - 1:00
    y tengo una deuda con él,
  • 1:00 - 1:03
    porque soy un profesional
    del aprendizaje automático.
  • 1:03 - 1:04
    Fui presidente de Kaggle,
  • 1:04 - 1:06
    una comunidad de unos 200 000
  • 1:06 - 1:07
    profesionales del
    aprendizaje automático.
  • 1:07 - 1:10
    Kaggle contribuye con competiciones
  • 1:10 - 1:13
    para tratar de resolver problemas
    anteriores no resueltos,
  • 1:13 - 1:16
    y tuvo éxito cientos de veces.
  • 1:17 - 1:19
    Así que desde esa perspectiva,
    pude descubrir
  • 1:19 - 1:23
    mucho sobre lo que el aprendizaje
    automático hizo, puede hacer hoy
  • 1:23 - 1:26
    y lo que podrá hacer en el futuro.
  • 1:26 - 1:28
    Quizás el primer gran éxito
  • 1:28 - 1:30
    del aprendizaje automático
    en el mercado fue Google.
  • 1:30 - 1:34
    Google demostró que era posible
    encontrar información
  • 1:34 - 1:35
    usando un algoritmo informático
  • 1:35 - 1:39
    y ese algoritmo se basa en
    el aprendizaje automático.
  • 1:39 - 1:43
    Desde entonces, ha habido muchos éxitos
    comerciales del aprendizaje automático.
  • 1:43 - 1:45
    Compañías como Amazon y Netflix
    usan el aprendizaje automático
  • 1:45 - 1:48
    para sugerir artículos
    que les puedan interesar comprar,
  • 1:48 - 1:49
    películas que les puedan interesar ver
  • 1:49 - 1:51
    A veces, es casi escalofriante.
  • 1:51 - 1:53
    Compañías como
    LinkedIn y Facebook
  • 1:53 - 1:56
    dicen, en ocasiones, cuáles
    pueden ser sus amigos
  • 1:56 - 1:58
    y uno no tiene ni idea
    de cómo lo han hecho,
  • 1:58 - 2:00
    y es porque hace uso del poder
    del aprendizaje automático.
  • 2:00 - 2:04
    Estos son algoritmos que han aprendido
    como hacerlo a partir de los datos
  • 2:04 - 2:07
    en lugar de ser programados a mano.
  • 2:07 - 2:09
    Así es también como IBM tuvo éxito
  • 2:09 - 2:13
    en conseguir que Watson ganara
    dos campeonatos mundiales de "Jeopardy"
  • 2:14 - 2:16
    respondiendo preguntas increíblemente
    ingeniosas, como esta.
  • 2:16 - 2:20
    [El antiguo "León de Nimrud" se perdió
    del Museo Nacional de esta ciudad en 2003]
  • 2:20 - 2:23
    También es por eso, que podemos ver
    los primeros autos sin piloto.
  • 2:23 - 2:26
    Si pueden diferenciar
    entre, por ejemplo
  • 2:26 - 2:29
    un árbol y un peatón,
    es algo muy importante.
  • 2:29 - 2:32
    No sabemos diseñar
    estos programas manualmente,
  • 2:32 - 2:34
    pero con el aprendizaje
    automático es posible.
  • 2:34 - 2:38
    De hecho, este auto ha conducido
    más de un millón y medio de kilómetros
  • 2:38 - 2:40
    sin tener accidentes en carretera.
  • 2:40 - 2:44
    Así, sabemos que los computadores
    pueden aprender
  • 2:44 - 2:46
    y pueden aprender a hacer cosas
  • 2:46 - 2:49
    que de hecho nosotros, a veces,
    no sabemos hacer,
  • 2:49 - 2:51
    o las pueden hacer mejor que nosotros.
  • 2:51 - 2:56
    Uno de los ejemplos más sorprendentes
    que he visto en aprendizaje automático
  • 2:56 - 2:58
    ocurrió en un proyecto
    que dirigía en Kaggle
  • 2:58 - 3:02
    donde un equipo dirigido por un chico
    llamado Geoffrey Hinton
  • 3:02 - 3:03
    de la Universidad de Toronto
  • 3:03 - 3:06
    ganó un concurso para el descubrimiento
    automático de medicamentos.
  • 3:06 - 3:09
    Lo extraordinario fue no solo que batiera
  • 3:09 - 3:11
    a todos los algoritmos
    desarrollados por Merck
  • 3:11 - 3:13
    o la comunidad académica internacional,
  • 3:13 - 3:16
    sino que nadie del equipo
    tenía experiencia en química
  • 3:16 - 3:20
    o biología o ciencias biológicas
    y lo hicieron en dos semanas.
  • 3:20 - 3:22
    ¿Cómo lo hicieron?
  • 3:22 - 3:25
    Usaron un algoritmo extraordinario
    llamado aprendizaje profundo.
  • 3:25 - 3:28
    Fue tan exitoso que tuvo cobertura
  • 3:28 - 3:31
    en The New York Times en un artículo
    de portada unas semanas después.
  • 3:31 - 3:34
    Este es Geoffrey Hinton
    a la izquierda.
  • 3:34 - 3:38
    El aprendizaje profundo es un algoritmo
    inspirado en el cerebro humano
  • 3:38 - 3:40
    y como resultado
  • 3:40 - 3:43
    no tiene limitaciones teóricas
    en lo que puede hacer.
  • 3:43 - 3:47
    Cuantos más datos
    y tiempo de cálculo uno le dé
  • 3:47 - 3:48
    mejor funciona.
  • 3:48 - 3:50
    The New York Times mostró,
    también en su artículo
  • 3:50 - 3:53
    otro resultado extraordinario
    del aprendizaje profundo
  • 3:53 - 3:55
    que mostraré ahora.
  • 3:55 - 3:59
    Demuestra que los computadores
    pueden escuchar y comprender.
  • 4:01 - 4:03
    (Vídeo) Richard Rashid:
    El último paso
  • 4:04 - 4:06
    que quiero dar en este proceso
  • 4:07 - 4:09
    es hablar en chino.
  • 4:12 - 4:13
    La clave es,
  • 4:13 - 4:18
    hemos recopilado una gran información
    de hablantes de chino
  • 4:18 - 4:21
    y producido un sistema de conversión
    de texto a voz
  • 4:21 - 4:25
    que toma el texto en chino
    y lo convierte en lengua oral,
  • 4:27 - 4:30
    luego hemos grabado
    una hora de mi voz
  • 4:30 - 4:32
    que usamos para modular
  • 4:32 - 4:36
    el texto estándar de conversión
    de texto a voz para que suene como yo.
  • 4:36 - 4:39
    De nuevo, el resultado no es perfecto.
  • 4:39 - 4:42
    De hecho, hay unos cuantos errores.
  • 4:42 - 4:44
    結果並不完美
    (los resultados no son perfectos)
  • 4:44 - 4:48
    (Aplausos)
  • 4:49 - 4:52
    Hay mucho que hacer en esta área.
  • 4:53 - 4:56
    在這方面有很多工作要做 (hay mucho
    trabajo que hacer en esta área)
  • 4:56 - 5:00
    (Aplausos)
  • 5:02 - 5:05
    Jeremy Howard: Esto era una conferencia
    de aprendizaje automático en China.
  • 5:05 - 5:08
    No es usual, en conferencias académicas
  • 5:08 - 5:10
    oír aplausos espontáneos,
  • 5:10 - 5:13
    aunque en las conferencias
    de TEDx siéntanse libres.
  • 5:13 - 5:15
    Todo lo que han visto es gracias
    al aprendizaje profundo.
  • 5:15 - 5:17
    (Aplausos) Gracias.
  • 5:17 - 5:20
    La transcripción en inglés
    es aprendizaje profundo.
  • 5:20 - 5:23
    La traducción al chino y el texto arriba
    a la derecha, es aprendizaje profundo,
  • 5:23 - 5:26
    y la construcción de la voz también
    es aprendizaje profundo.
  • 5:27 - 5:30
    Eso es lo extraordinario
    del aprendizaje profundo.
  • 5:30 - 5:33
    Es un solo algoritmo que parece
    hacer casi cualquier cosa,
  • 5:33 - 5:36
    y descubrí que un año antes,
    aprendió a ver.
  • 5:36 - 5:38
    En esta extraña competición en Alemania
  • 5:38 - 5:40
    llamada Banco de Prueba de
    Reconocimiento de Señales de Tránsito
  • 5:40 - 5:44
    el aprendizaje profundo ha aprendido
    a reconocer señales de tránsito como esta.
  • 5:44 - 5:46
    No solo reconoce señales de tránsito
  • 5:46 - 5:48
    mejor que cualquier otro algoritmo,
  • 5:48 - 5:51
    la clasificación mostró
    que era mejor que las personas,
  • 5:51 - 5:53
    dos veces más bueno que las personas.
  • 5:53 - 5:55
    Para 2011, se da el primer ejemplo
  • 5:55 - 5:58
    de computadores que pueden ver
    mejor que las personas.
  • 5:58 - 6:00
    Desde entonces, han ocurrido muchas cosas.
  • 6:00 - 6:04
    En 2012, Google anunció que había hecho
    que un algoritmo de aprendizaje profundo
  • 6:04 - 6:05
    viera vídeos en YouTube
  • 6:05 - 6:08
    y procesaron la información
    en 16 000 computadores al mes
  • 6:08 - 6:10
    y el computador aprendió
    de manera independiente
  • 6:10 - 6:15
    conceptos como personas y gatos
    solo viendo los vídeos.
  • 6:15 - 6:17
    Esto se parece mucho
    al aprendizaje humano.
  • 6:17 - 6:20
    Los humanos no aprendemos
    porque nos cuenten lo que vemos,
  • 6:20 - 6:23
    sino que aprendemos solos
    qué son esas cosas.
  • 6:23 - 6:27
    También en 2012, Geoffrey Hinton,
    que vimos anteriormente,
  • 6:27 - 6:29
    ganó la famosa competición de ImageNet,
  • 6:29 - 6:33
    tratando de averiguar, mirando
    un millón y medio de imágenes,
  • 6:33 - 6:35
    sobre qué eran estas imágenes.
  • 6:35 - 6:38
    A partir de 2014, tenemos un porcentaje
    de error por debajo del 6 %
  • 6:38 - 6:40
    en reconocimiento de imágenes.
  • 6:40 - 6:42
    De nuevo, mejor que las personas.
  • 6:42 - 6:45
    Las máquinas están haciendo
    un trabajo increíble aquí,
  • 6:45 - 6:48
    y está siendo usadas en la industria.
  • 6:48 - 6:51
    Por ejemplo, Google anunció el año pasado
  • 6:51 - 6:56
    que había cartografiado cada sitio
    de Francia en dos horas,
  • 6:56 - 6:59
    y lo hizo alimentando
    con imágenes de las calles,
  • 6:59 - 7:03
    al algoritmo de aprendizaje profundo
    para reconocer y leer los números.
  • 7:03 - 7:06
    Imaginen lo que se habría tardado antes:
  • 7:06 - 7:09
    docenas de personas, muchos años.
  • 7:09 - 7:11
    Esto también está pasando en China.
  • 7:11 - 7:15
    Baidu es como el Google chino, creo,
  • 7:15 - 7:19
    y lo que ven arriba a la izquierda
    es un ejemplo de una imagen que subí
  • 7:19 - 7:21
    al sistema de aprendizaje profundo
    de Baidu,
  • 7:21 - 7:25
    y debajo se puede ver que el sistema
    ha entendido lo que es esa imagen
  • 7:25 - 7:27
    y encuentra imágenes similares.
  • 7:27 - 7:30
    Las imágenes similares
    tienen fondos similares
  • 7:30 - 7:33
    similares de las caras,
    incluso algunos con la lengua afuera.
  • 7:33 - 7:36
    Esto no es claramente mirar
    el texto de una página web.
  • 7:36 - 7:38
    Todo lo que descargué eran imágenes.
  • 7:38 - 7:42
    Por lo que ahora tenemos computadores
    que entienden lo que ven
  • 7:42 - 7:44
    y por ello pueden buscar bases de datos
  • 7:44 - 7:46
    de cientos de millones
    de imágenes en tiempo real.
  • 7:46 - 7:49
    ¿Qué significado tiene que
    los computadores puedan ver?
  • 7:49 - 7:52
    Bueno, no es solo que
    los computadores puedan ver.
  • 7:52 - 7:54
    De hecho, el aprendizaje profundo
    ha hecho más que eso.
  • 7:54 - 7:56
    Frases complejas y llenas
    de matices como esta
  • 7:56 - 7:59
    son ahora comprensibles con
    algoritmos del aprendizaje profundo.
  • 7:59 - 8:00
    Como pueden ver aquí,
  • 8:00 - 8:04
    este sistema basado en el de Stanford que
    muestra el punto rojo en la parte superior
  • 8:04 - 8:08
    ha comprendido que esta frase
    expresa sentimientos negativos.
  • 8:08 - 8:11
    El aprendizaje profundo está cercano
    a la conducta humana al comprender
  • 8:11 - 8:15
    lo que significan las frases y lo que
    se está diciendo sobre esas cosas.
  • 8:17 - 8:19
    El aprendizaje profundo se ha usado
    también para leer chino,
  • 8:19 - 8:23
    de nuevo, a un nivel
    casi de hablante nativo.
  • 8:23 - 8:25
    Este algoritmo, desarrollado en Suiza
  • 8:25 - 8:28
    por gente que no hablaba
    ni entendía chino.
  • 8:28 - 8:30
    Como dije, usar el aprendizaje profundo
  • 8:30 - 8:32
    es el mejor sistema del mundo para esto,
  • 8:32 - 8:36
    hasta comparándolo
    con el conocimiento humano.
  • 8:37 - 8:40
    Este es un sistema que
    formamos en mi empresa
  • 8:40 - 8:42
    que demuestra todas estas cosas juntas.
  • 8:43 - 8:45
    Estas son imágenes sin texto adjunto,
  • 8:45 - 8:47
    y cuando tecleo aquí frases,
  • 8:47 - 8:50
    entiende, en tiempo real, estas imágenes
  • 8:50 - 8:52
    y comprende de qué se tratan
  • 8:52 - 8:55
    y encuentra imágenes similares
    al texto que estoy escribiendo.
  • 8:55 - 8:57
    Como pueden ver, entiende mis frases
  • 8:57 - 8:59
    y de hecho entiende estas imágenes.
  • 8:59 - 9:03
    Se que han visto algo como esto en Google,
    donde puede escribir algo
  • 9:03 - 9:06
    y te lo muestra en imágenes,
    pero lo que realmente está haciendo
  • 9:06 - 9:09
    es buscar la página web
    a través del texto.
  • 9:09 - 9:12
    Esto es muy diferente
    a comprender las imágenes.
  • 9:12 - 9:14
    Esto es algo que los computadores
    solo han podido hacer
  • 9:14 - 9:16
    por primera vez hace unos pocos meses.
  • 9:17 - 9:20
    Así que ahora podemos ver
    que los computadores no solo ven
  • 9:20 - 9:22
    sino que pueden leer,
  • 9:22 - 9:25
    y, por supuesto, hemos demostrado
    que pueden entender lo que oyen.
  • 9:25 - 9:28
    Quizá no sea sorprendente ahora
    lo que voy a decir, pueden escribir.
  • 9:28 - 9:31
    Aquí hay parte de un texto que generé ayer
  • 9:31 - 9:33
    usando el algoritmo
    de aprendizaje profundo.
  • 9:35 - 9:38
    Y aquí hay parte de un texto que generó
    un algoritmo de Stanford.
  • 9:38 - 9:40
    Cada una de estas frases fue generada
  • 9:40 - 9:44
    por un algoritmo de aprendizaje profundo
    para describir estas imágenes.
  • 9:44 - 9:46
    Este algoritmo nunca había visto
  • 9:46 - 9:48
    a un hombre con camisa negra
    tocando la guitarra.
  • 9:48 - 9:50
    Ha visto a un hombre antes,
    ha visto el negro antes
  • 9:50 - 9:52
    ha visto una guitarra antes,
    pero ha generado
  • 9:52 - 9:56
    de manera independiente esta innovadora
    descripción de esta imagen.
  • 9:56 - 10:00
    Aquí no estamos ante un comportamiento
    humano, pero estamos cerca.
  • 10:00 - 10:04
    En las pruebas, las personas prefieren
    las leyendas generadas por el computador
  • 10:04 - 10:05
    1 de cada 4 veces.
  • 10:05 - 10:08
    Este sistema tiene ahora solo
    dos semanas de edad,
  • 10:08 - 10:09
    por lo que posiblemente
    antes del año que viene,
  • 10:09 - 10:12
    el algoritmo del computador irá
    más allá del comportamiento humano
  • 10:12 - 10:14
    al paso que van las cosas.
  • 10:14 - 10:17
    Así que los computadores pueden escribir.
  • 10:17 - 10:20
    Juntamos todo esto y lleva
    a oportunidades apasionantes.
  • 10:20 - 10:22
    Por ejemplo, en medicina,
  • 10:22 - 10:25
    un equipo de Boston anunció
    que habían descubierto
  • 10:25 - 10:27
    decenas de características
    clínicas relevantes
  • 10:27 - 10:32
    sobre tumores que ayudan a los médicos
    a hacer un diagnóstico de un cáncer.
  • 10:33 - 10:35
    Algo similar, en Stanford,
  • 10:35 - 10:38
    un grupo anunció que,
    mirando un tejido con aumento,
  • 10:38 - 10:41
    habían desarrollado una máquina
    basada en el sistema de aprendizaje
  • 10:41 - 10:44
    que de hecho es mejor
    que los patólogos humanos
  • 10:44 - 10:48
    prediciendo las tasas de supervivencia
    de los enfermos de cáncer.
  • 10:48 - 10:51
    En ambos casos, no solo fueron
    las predicciones más precisas,
  • 10:51 - 10:54
    sino que generaron una
    nueva ciencia reveladora.
  • 10:54 - 10:56
    En el caso de la radiología,
  • 10:56 - 10:59
    hubo nuevos indicadores clínicos
    que las personas pueden entender.
  • 10:59 - 11:00
    En este caso de patología,
  • 11:00 - 11:05
    el sistema informático descubrió
    que las células alrededor del cáncer
  • 11:05 - 11:08
    son tan importantes como
    las células del cáncer mismo
  • 11:08 - 11:10
    al hacer un diagnóstico.
  • 11:10 - 11:14
    Esto es lo contrario de lo que
    los patólogos han pensado por décadas.
  • 11:15 - 11:19
    En cada uno de estos casos,
    fueron sistemas desarrollados
  • 11:19 - 11:22
    por una combinación de expertos médicos
    y expertos del aprendizaje profundo,
  • 11:22 - 11:25
    pero a partir del año pasado,
    dimos un paso más allá.
  • 11:25 - 11:29
    Este es un caso de identificación
    de áreas cancerígenas
  • 11:29 - 11:31
    del tejido humano por microscopio.
  • 11:31 - 11:34
    El sistema que se muestra aquí
    puede identificar esas áreas
  • 11:34 - 11:38
    de formar más precisa o casi tan precisa
    como los patólogos humanos,
  • 11:38 - 11:40
    construido completamente
    con aprendizaje profundo
  • 11:40 - 11:42
    sin usar experiencia médica
  • 11:42 - 11:44
    por gente que no tenía
    experiencia en este campo.
  • 11:45 - 11:48
    De manera similar,
    esta segmentación neuronal.
  • 11:48 - 11:52
    Ahora, podemos segmentar neuronas de forma
    casi tan precisa como las personas,
  • 11:52 - 11:54
    y este sistema fue desarrollado
    por aprendizaje profundo
  • 11:54 - 11:57
    usando a gente sin experiencia
    previa en medicina.
  • 11:57 - 12:01
    Como yo, alguien sin experiencia
    previa en medicina,
  • 12:01 - 12:05
    parezco completamente calificado
    para empezar una empresa médica,
  • 12:05 - 12:06
    y lo hice.
  • 12:07 - 12:09
    Estaba aterrorizado de hacerlo,
  • 12:09 - 12:11
    pero la teoría parecía sugerir
    que podía ser posible
  • 12:11 - 12:16
    hacer medicina muy útil usando solo
    estas técnicas de información analítica.
  • 12:16 - 12:19
    Afortunadamente, la recompensa
    ha sido fantástica,
  • 12:19 - 12:21
    no solo por parte de los medios
    sino de la comunidad médica,
  • 12:21 - 12:23
    que nos ha apoyado mucho.
  • 12:23 - 12:28
    La teoría es que podemos tomar
    media parte del proceso médico
  • 12:28 - 12:30
    y convertirlo todo lo posible
    en análisis de datos,
  • 12:30 - 12:33
    dejando a los médicos
    en lo que son mejores.
  • 12:34 - 12:35
    Quiero dar un ejemplo.
  • 12:35 - 12:41
    Nos lleva unos 15 minutos crear
    una nueva prueba de diagnóstico médico
  • 12:41 - 12:43
    y ahora lo demostraré
    en tiempo real,
  • 12:43 - 12:44
    pero lo he comprimido a 3 minutos
  • 12:44 - 12:46
    cortando algunas partes.
  • 12:46 - 12:49
    En vez de mostrar cómo crear
    una prueba de diagnóstico médico,
  • 12:49 - 12:53
    mostraré una prueba de diagnóstico
    de imágenes de autos,
  • 12:53 - 12:55
    porque es algo que
    todos podemos entender.
  • 12:55 - 12:58
    Así que, empezamos con un millón
    y medio de imágenes de autos,
  • 12:58 - 13:01
    y quiero crear algo que
    pueda dividirlas en el ángulo
  • 13:01 - 13:03
    en el que la foto fue tomada.
  • 13:03 - 13:07
    Estas imágenes están sin etiquetar,
    así que tengo que empezar desde cero.
  • 13:07 - 13:09
    Con nuestro algoritmo
    de aprendizaje profundo,
  • 13:09 - 13:13
    se pueden identificar automáticamente
    áreas de la estructura en estas imágenes.
  • 13:13 - 13:17
    Lo bueno es que la persona y el computador
    pueden trabajar juntos.
  • 13:17 - 13:19
    Así que la persona,
    como pueden ver aquí,
  • 13:19 - 13:21
    le está indicando al computador
    áreas de interés
  • 13:21 - 13:26
    que quiere que el computador pruebe
    y use para mejorar su algoritmo.
  • 13:26 - 13:30
    Estos sistemas de aprendizaje profundo
    están en un espacio de 16 000 dimensiones,
  • 13:30 - 13:34
    así, pueden ver aquí cómo el computador
    rota esto en ese espacio,
  • 13:34 - 13:36
    intentando encontrar
    nuevas áreas de estructura.
  • 13:36 - 13:38
    Y cuando lo hace con éxito,
  • 13:38 - 13:42
    la persona que lo maneja puede, entonces,
    señalar las áreas de interés.
  • 13:42 - 13:44
    Aquí, el computador ha encontrado,
    con éxito, áreas,
  • 13:44 - 13:46
    por ejemplo, ángulos.
  • 13:46 - 13:48
    Conforme avanzamos en este proceso,
  • 13:48 - 13:50
    vamos diciendo, gradualmente,
    al computador más y más
  • 13:50 - 13:52
    sobre los tipos de estructuras
    que estamos buscando.
  • 13:52 - 13:55
    Pueden imaginar en una prueba diagnóstica
    que esto debería ser
  • 13:55 - 13:58
    un patólogo identificando
    áreas patológicas, por ejemplo,
  • 13:58 - 14:03
    o un radiólogo indicando nódulos
    potencialmente problemáticos.
  • 14:03 - 14:05
    A veces puede ser difícil
    para el algoritmo.
  • 14:05 - 14:07
    En este caso, queda algo confuso.
  • 14:07 - 14:10
    Las partes delanteras y traseras
    de los autos están todas mezcladas.
  • 14:10 - 14:12
    Así que tenemos que ser
    un poco más cuidadosos,
  • 14:12 - 14:14
    seleccionando manualmente
    las partes delanteras
  • 14:14 - 14:18
    en contraposición a las traseras,
  • 14:18 - 14:21
    para luego decir al computador
    que este es una especie de grupo
  • 14:21 - 14:22
    es en el que estamos interesados.
  • 14:22 - 14:24
    Hacemos esto por un tiempo,
    nos saltamos un poco,
  • 14:24 - 14:26
    y luego probamos el algoritmo
    de aprendizaje automático
  • 14:26 - 14:29
    basado en un par de cientos de cosas,
  • 14:29 - 14:31
    y esperamos que haya mejorado mucho.
  • 14:31 - 14:34
    Se puede ver, que han empezado
    a desvanecerse algunas de estas imágenes,
  • 14:34 - 14:36
    mostrándonos que ya está reconociendo
  • 14:36 - 14:38
    cómo entender por sí mismo
    algunas de ellas.
  • 14:38 - 14:41
    Entonces podemos usar este concepto
    en imágenes similares,
  • 14:41 - 14:44
    y usando imágenes similares,
    como pueden ver, en este punto,
  • 14:44 - 14:48
    el computador puede encontrar
    solo la parte delantera de los autos.
  • 14:48 - 14:51
    En este punto, la persona
    puede decir al computador,
  • 14:51 - 14:53
    de acuerdo, sí, has hecho
    un buen trabajo.
  • 14:54 - 14:57
    En ocasiones, por supuesto,
    incluso en este punto
  • 14:57 - 15:00
    sigue siendo difícil
    separar los grupos.
  • 15:00 - 15:02
    En este caso, incluso
    después de que dejamos
  • 15:02 - 15:05
    al computador que intente girar
    esto por un momento,
  • 15:05 - 15:06
    seguimos encontrando
    que la parte izquierda
  • 15:06 - 15:09
    y derecha de las imágenes
    están mezcladas.
  • 15:09 - 15:11
    Así que podemos dar, de nuevo,
    al computador algunas pistas,
  • 15:11 - 15:14
    y decimos, bien, intenta encontrar
    una proyección que separe
  • 15:14 - 15:17
    los lados izquierdos de los derechos
    de la manera más precisa
  • 15:17 - 15:19
    usando este algoritmo
    de aprendizaje profundo.
  • 15:19 - 15:22
    Y dándole esta pista...
    ah, bien, ha tenido éxito.
  • 15:22 - 15:25
    Consiguió encontrar la manera
    de pensar estos objetos
  • 15:25 - 15:27
    que está separando
    estos que están juntos.
  • 15:27 - 15:29
    Así se entiende la idea aquí.
  • 15:29 - 15:36
    Este es un caso en el que la persona
    no es reemplazada por un computador,
  • 15:38 - 15:40
    sino que trabajan juntos.
  • 15:40 - 15:44
    Estamos reemplazando algo que
    solía necesitar de un equipo
  • 15:44 - 15:46
    de 5 o 6 personas durante 7 años
  • 15:46 - 15:48
    por algo que lleva 15 minutos
  • 15:48 - 15:51
    a una sola persona.
  • 15:51 - 15:55
    Este proceso lleva
    unas 4 o 5 iteraciones.
  • 15:55 - 15:57
    Ahora pueden ver que tenemos un 62 %
  • 15:57 - 16:00
    de nuestro millón y medio de imágenes
    clasificadas correctamente.
  • 16:00 - 16:02
    En este punto, podemos empezar,
    con bastante rapidez,
  • 16:02 - 16:03
    a tomar grandes secciones completas,
  • 16:03 - 16:06
    comprobándolas para asegurarse
    que no hay errores.
  • 16:06 - 16:10
    Cuando hay errores,
    podemos hacérselo saber al computador.
  • 16:10 - 16:13
    Usando este tipo de proceso
    para cada uno de los diferentes grupos,
  • 16:13 - 16:16
    nos colocamos en un índice
    del 80 % de éxito
  • 16:16 - 16:18
    en la clasificación de un millón
    y medio de imágenes.
  • 16:18 - 16:20
    En este punto, es solo cuestión
  • 16:20 - 16:24
    de encontrar el pequeño número
    que no está clasificado correctamente,
  • 16:24 - 16:27
    e intentar comprender el porqué.
  • 16:27 - 16:29
    Usando este enfoque,
  • 16:29 - 16:33
    en 15 minutos alcanza un índice
    de clasificación del 97 %.
  • 16:33 - 16:37
    Este tipo de técnica nos permite
    arreglar un problema mayor,
  • 16:37 - 16:40
    que es que hay una falta de
    conocimientos médicos en el mundo.
  • 16:40 - 16:44
    El Foro Económico Mundial
    dice que hay entre 10 y 20 veces
  • 16:44 - 16:46
    de escasez de físicos
    en el mundo desarrollado,
  • 16:46 - 16:49
    y llevará unos 300 años
  • 16:49 - 16:51
    entrenar a gente suficiente
    para arreglar el problema.
  • 16:51 - 16:54
    Imaginen que pudiésemos ayudar
    a aumentar su eficiencia
  • 16:54 - 16:57
    usando estos métodos
    de aprendizaje profundo.
  • 16:57 - 16:59
    Estoy muy entusiasmado
    con las oportunidades.
  • 16:59 - 17:02
    También estoy preocupado
    por los problemas.
  • 17:02 - 17:05
    El problema aquí es que
    cada área azul de este mapa
  • 17:05 - 17:09
    es algún sitio donde el empleo,
    de servicios es mayor del 80 %.
  • 17:09 - 17:11
    ¿Qué son los servicios?
  • 17:11 - 17:12
    Los servicios son estos.
  • 17:12 - 17:15
    Estas son también las mismas cosas
  • 17:15 - 17:17
    que los computadores acaban
    de aprender a hacer.
  • 17:17 - 17:20
    Así que el 80 % del empleo mundial
    en el mundo desarrollado
  • 17:20 - 17:23
    son cosas que los computadores
    acaban de aprender a hacer.
  • 17:23 - 17:24
    ¿Qué significa esto?
  • 17:24 - 17:27
    Bueno, no habrá problema,
    lo reemplazarán por otros trabajos.
  • 17:27 - 17:29
    Por ejemplo, habrá más trabajos
    para los científicos de datos.
  • 17:29 - 17:30
    Bueno, realmente no.
  • 17:30 - 17:33
    A los científicos de datos no les lleva
    mucho tiempo construir estas cosas.
  • 17:33 - 17:37
    Por ejemplo, estos 4 algoritmos
    fueron creados por el mismo chico.
  • 17:37 - 17:39
    Así que si piensan,
    todo ha pasado ya antes,
  • 17:39 - 17:43
    hemos visto los resultados en el pasado
    de cuando surgen cosas nuevas
  • 17:43 - 17:45
    y son reemplazadas por nuevos trabajos.
  • 17:45 - 17:47
    ¿Qué trabajos van a ser?
  • 17:47 - 17:49
    Es muy difícil para nosotros
    hacer una estimación
  • 17:49 - 17:52
    ya que el comportamiento humano
    crece a un ritmo gradual,
  • 17:52 - 17:54
    pero ahora tenemos un sistema,
    aprendizaje profundo,
  • 17:54 - 17:58
    que sabemos que crece en capacidad,
    exponencialmente.
  • 17:58 - 17:59
    Y aquí estamos.
  • 17:59 - 18:01
    Actualmente, vemos las cosas
    a nuestro alrededor
  • 18:01 - 18:04
    y decimos: "Los computadores siguen
    siendo un poco estúpidos". ¿Verdad?
  • 18:04 - 18:07
    Pero en 5 años, los computadores
    estarán fuera de esta gráfica.
  • 18:07 - 18:11
    Así que necesitamos empezar a pensar
    sobre esta capacidad ahora mismo.
  • 18:11 - 18:13
    Lo hemos visto anteriormente,
    por supuesto.
  • 18:13 - 18:15
    En la Revolución Industrial,
  • 18:15 - 18:17
    vimos un cambio en la capacidad
    gracias a los motores.
  • 18:18 - 18:21
    El asunto es, sin embargo, que tras
    un tiempo, las cosas se nivelan.
  • 18:21 - 18:23
    Hubo una alteración social,
    pero una vez que
  • 18:23 - 18:25
    los motores se usaron
  • 18:25 - 18:27
    para generar energía
    en todas las situaciones,
  • 18:27 - 18:28
    las cosas realmente se establecieron.
  • 18:29 - 18:30
    La Revolución del Aprendizaje Automático
  • 18:30 - 18:33
    va a ser diferente
    a la Revolución Industrial porque
  • 18:33 - 18:36
    la Revolución del Aprendizaje Automático,
    nunca se asienta.
  • 18:36 - 18:39
    Cuanto mejores son los computadores
    en actividades intelectuales,
  • 18:39 - 18:44
    mejores computadores se crearán para
    que mejoren su capacidad intelectual,
  • 18:44 - 18:46
    así que esto va a ser
    una especie de cambio
  • 18:46 - 18:48
    que nunca antes había
    experimentado el mundo,
  • 18:48 - 18:51
    por lo que el entendimiento previo
    de lo posible, es diferente.
  • 18:52 - 18:54
    Esto nos impacta.
  • 18:54 - 18:57
    En los últimos 25 años, la productividad
    del capital se ha incrementado,
  • 18:57 - 19:01
    la productividad laboral se ha mantenido,
    incluso ha descendido.
  • 19:02 - 19:05
    Por lo que quiero que empecemos
    a discutir esto ahora.
  • 19:05 - 19:07
    Sé que cuando hablo
    sobre esta situación
  • 19:07 - 19:09
    la gente puede ser despectiva.
  • 19:09 - 19:11
    Bueno, los computadores
    no pueden realmente pensar,
  • 19:11 - 19:14
    no tienen sentimientos,
    no entienden poesía,
  • 19:14 - 19:16
    no entendemos realmente cómo funcionan.
  • 19:16 - 19:17
    Y, ¿qué?
  • 19:17 - 19:20
    Actualmente los computadores
    pueden hacer cosas
  • 19:20 - 19:23
    en las que las personas gastan su tiempo
    y les pagan por ello
  • 19:23 - 19:24
    así pues ahora tenemos
    que empezar a pensar
  • 19:24 - 19:29
    sobre cómo vamos a ajustar
    nuestras estructuras sociales y económicas
  • 19:29 - 19:31
    para ser conscientes de
    esta nueva realidad.
  • 19:31 - 19:32
    Gracias.
  • 19:32 - 19:33
    (Aplausos)
Title:
Las maravillosas y pavorosas consecuencias de los computadores que pueden aprender
Speaker:
Jeremy Howard
Description:

¿Qué ocurre cuando le enseñamos a aprender a un computador? El experto Jeremy Howard comparte algunas novedades técnicas sorprendentes del imparable campo del aprendizaje profundo. Muestra una técnica que puede dar a los computadores la capacidad de aprender chino, o de reconocer objetos en fotos, o de ayudar a reconocer diagnósticos médicos.(Una herramienta autodidacta de aprendizaje profundo, que después de ver horas de vídeos en YouTube, aprendió por sí sola el concepto de "gatos".) Sumérgete en el campo que va a cambiar el comportamiento de los computadores que nos rodean... antes de lo que piensas.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Spanish subtitles

Revisions