< Return to Video

El despertar de la inteligencia artificial a través del aprendizaje profundo | Yoshua Bengio | TEDxMontreal

  • 0:18 - 0:21
    Nuestro mundo está cambiando
    de muchas maneras
  • 0:21 - 0:26
    y una de las cosas que tendrá
    un gran impacto en nuestro futuro
  • 0:26 - 0:29
    es la inteligencia artificial, IA,
  • 0:29 - 0:32
    la cual producirá
    otra revolución industrial.
  • 0:34 - 0:39
    Las revoluciones industriales anteriores
    desarrollaron la potencia mecánica humana.
  • 0:40 - 0:46
    Esta nueva revolución,
    esta segunda era de las máquinas,
  • 0:46 - 0:50
    va a desarrollar
    nuestras habilidades cognitivas,
  • 0:50 - 0:52
    nuestro poder mental.
  • 0:53 - 0:57
    Las computadoras no solo
    van a reemplazar el trabajo manual,
  • 0:58 - 1:00
    sino también el trabajo mental.
  • 1:00 - 1:03
    Entonces, ¿dónde nos encontramos hoy?
  • 1:04 - 1:08
    Es posible que hayan oído hablar
    de lo que sucedió el pasado marzo
  • 1:08 - 1:12
    cuando un sistema
    de aprendizaje llamado AlphaGo
  • 1:12 - 1:18
    usó el aprendizaje profundo para vencer
    al campeón mundial en el juego de Go.
  • 1:18 - 1:21
    Go es un antiguo juego chino,
  • 1:21 - 1:24
    el cual ha sido más difícil
    de dominar para las computadoras
  • 1:24 - 1:26
    que el ajedrez.
  • 1:27 - 1:32
    ¿Cómo tuvimos éxito ahora,
    después de décadas de investigación de IA?
  • 1:33 - 1:37
    AlphaGo fue entrenado para jugar Go.
  • 1:38 - 1:41
    Primero, viendo una y otra vez
  • 1:42 - 1:47
    decenas de millones de movimientos hechos
    por jugadores humanos muy competentes.
  • 1:48 - 1:52
    Luego, jugando contra sí mismo
    millones de partidas.
  • 1:54 - 1:56
    El aprendizaje automático
  • 1:56 - 2:00
    permite que las computadoras
    aprendan de los ejemplos.
  • 2:00 - 2:03
    Que aprendan de los datos.
  • 2:04 - 2:07
    El aprendizaje automático
    ha resultado ser fundamental
  • 2:07 - 2:12
    para atiborrar de conocimiento
    a las computadoras.
  • 2:12 - 2:14
    Y esto es importante,
  • 2:14 - 2:19
    porque el conocimiento
    es lo que facilita la inteligencia.
  • 2:20 - 2:23
    Implantar conocimiento en computadoras
  • 2:23 - 2:27
    ha sido un reto para los antiguos
    enfoques a la IA.
  • 2:28 - 2:29
    ¿Por qué?
  • 2:29 - 2:34
    Hay muchas cosas
    que sabemos intuitivamente.
  • 2:35 - 2:38
    Asi que no podemos
    comunicarlas verbalmente.
  • 2:39 - 2:42
    No tenemos acceso consciente
    a ese conocimiento intuitivo.
  • 2:43 - 2:47
    ¿Cómo podemos programar
    computadoras sin conocimiento?
  • 2:48 - 2:49
    ¿Cual es la solución?
  • 2:49 - 2:55
    La solución es que las máquinas aprendan
    ese conocimiento por sí mismas,
  • 2:55 - 2:56
    al igual que nosotros.
  • 2:56 - 2:58
    Y esto es importante
  • 2:58 - 3:02
    porque el conocimiento
    es lo que facilita la inteligencia.
  • 3:03 - 3:08
    Mi misión ha sido
    contribuir a descubrir y entender
  • 3:08 - 3:13
    los principios de la inteligencia
    a través del aprendizaje.
  • 3:13 - 3:18
    Ya sea aprendizaje animal,
    humano o automático.
  • 3:19 - 3:25
    Tanto yo como otros creemos
    que existen algunos principios clave,
  • 3:25 - 3:27
    como las leyes de la física.
  • 3:28 - 3:33
    Principios simples que podrían explicar
    nuestra inteligencia
  • 3:33 - 3:37
    y ayudarnos a construir
    máquinas inteligentes.
  • 3:38 - 3:42
    Por ejemplo, piensen
    en las leyes de la aerodinámica,
  • 3:42 - 3:43
    que son lo suficientemente generales
  • 3:43 - 3:48
    para explicar tanto el vuelo de las aves
    como el de los aviones.
  • 3:49 - 3:55
    ¿No sería asombroso descubrir
    principios tan simples como poderosos
  • 3:55 - 3:59
    que pudieran explicar
    la inteligencia misma?
  • 4:00 - 4:03
    Bueno, hemos hecho algunos progresos.
  • 4:04 - 4:11
    Mis colaboradores y yo hemos contribuido
    en años recientes a una revolución de IA
  • 4:12 - 4:16
    con nuestra investigación sobre redes
    neuronales y aprendizaje profundo,
  • 4:16 - 4:21
    un enfoque del aprendizaje automático
    el cual está inspirado por el cerebro.
  • 4:22 - 4:25
    Comenzó con el reconocimiento de voz
  • 4:25 - 4:30
    en sus teléfonos
    con redes neuronales desde 2012.
  • 4:31 - 4:36
    Poco después se produjo
    un gran avance en la visión artificial.
  • 4:37 - 4:43
    Las computadoras hacen un gran trabajo
    al reconocer el contenido de imágenes.
  • 4:44 - 4:47
    De hecho, se han aproximado
    al rendimiento humano
  • 4:47 - 4:50
    en algunas pruebas de desempeño
    en los últimos cinco años.
  • 4:51 - 4:55
    Una computadora ahora puede obtener
    una comprensión intuitiva
  • 4:55 - 4:58
    de la apariencia visual
    de un tablero de Go,
  • 4:58 - 5:01
    comparable a la de los mejores
    jugadores humanos.
  • 5:02 - 5:05
    Últimamente, como continuación
    a algunos descubrimientos
  • 5:05 - 5:07
    realizados en mi laboratorio,
  • 5:07 - 5:11
    el aprendizaje profundo se ha utilizado
    para traducir de un idioma a otro
  • 5:11 - 5:14
    y vamos a empezar a verlo
    en Google Translate.
  • 5:15 - 5:18
    Esto está aumentando
    la capacidad de la computadora
  • 5:18 - 5:23
    para comprender
    y generar lenguaje natural.
  • 5:24 - 5:26
    Pero no se dejen engañar.
  • 5:26 - 5:28
    Aún estamos muy, muy lejos
  • 5:28 - 5:35
    de una máquina que sea
    tan capaz como los humanos
  • 5:35 - 5:38
    de aprender a dominar
    muchos aspectos de nuestro mundo.
  • 5:39 - 5:41
    Así que, veamos un ejemplo.
  • 5:42 - 5:47
    Incluso una niña de dos años
    puede aprender cosas
  • 5:47 - 5:50
    de cierta manera que las computadoras
    no pueden hoy en día.
  • 5:52 - 5:56
    Una niña de dos años,
    en realidad domina la física intuitiva.
  • 5:57 - 6:02
    Ella sabe que cuando
    suelta una pelota, se va a caer.
  • 6:02 - 6:06
    Cuando derrama un líquido,
    supone que habrá un desastre.
  • 6:07 - 6:11
    Sus padres no necesitan enseñarle
    las leyes de Newton
  • 6:11 - 6:13
    o las ecuaciones diferenciales.
  • 6:14 - 6:20
    Descubre todas estas cosas
    por sí misma de manera no supervisada.
  • 6:21 - 6:28
    El aprendizaje no supervisado sigue siendo
    uno de los principales retos para la IA.
  • 6:28 - 6:33
    Y podría tomar varias décadas más
    de investigación fundamental
  • 6:33 - 6:35
    para deshacer ese nudo.
  • 6:35 - 6:41
    El aprendizaje no supervisado intenta
    descubrir representaciones de los datos.
  • 6:42 - 6:44
    Déjenme mostrarles un ejemplo.
  • 6:44 - 6:49
    Consideren una página en la pantalla
    que están viendo con sus ojos
  • 6:49 - 6:54
    o que la computadora está viendo
    como una imagen, un montón de píxeles.
  • 6:55 - 7:00
    Para responder a una pregunta
    sobre el contenido de la imagen,
  • 7:01 - 7:05
    necesitan comprender
    su significado de alto nivel.
  • 7:06 - 7:11
    Este significado de alto nivel coincide
    con el nivel más alto de representación
  • 7:11 - 7:12
    en su cerebro.
  • 7:13 - 7:18
    Más abajo, tienen el significado
    individual de las palabras
  • 7:19 - 7:23
    y aún más abajo tienen caracteres
    que forman las palabras.
  • 7:25 - 7:28
    Esos caracteres se pueden representar
    de diferentes maneras
  • 7:28 - 7:31
    con diferentes trazos
    que forman los caracteres.
  • 7:32 - 7:35
    Y esos trazos están formados por bordes
  • 7:35 - 7:37
    y esos bordes están hechos de píxeles.
  • 7:37 - 7:40
    Así que estos son diferentes
    niveles de representación.
  • 7:41 - 7:44
    Pero los píxeles no son
    suficientes por sí mismos
  • 7:44 - 7:46
    para dar sentido a la imagen,
  • 7:46 - 7:49
    para responder
    a una pregunta de alto nivel
  • 7:49 - 7:52
    sobre el contenido de la página.
  • 7:53 - 7:57
    Su cerebro en realidad tiene estos
    diferentes niveles de representación,
  • 7:57 - 8:02
    comenzando por las neuronas en la primera
    área visual de la corteza, V1,
  • 8:02 - 8:04
    las cuales reconocen los bordes.
  • 8:05 - 8:09
    Y luego, las neuronas en la segunda
    área visual de la corteza, V2,
  • 8:09 - 8:12
    que reconocen trazos y pequeñas formas.
  • 8:13 - 8:17
    Más arriba, tienen neuronas
    que detectan partes de objetos
  • 8:17 - 8:19
    y luego los objetos e imágenes completas.
  • 8:21 - 8:25
    Las redes neuronales,
    cuando están entrenadas con imágenes,
  • 8:25 - 8:29
    pueden descubrir estos tipos
    de niveles de representación
  • 8:29 - 8:33
    que coinciden bastante
    con lo que observamos en el cerebro.
  • 8:34 - 8:37
    Tanto las redes neuronales biológicas,
  • 8:37 - 8:39
    que son las que tienes en su cerebro,
  • 8:39 - 8:42
    como las redes neuronales profundas
    que entrenamos en nuestras máquinas,
  • 8:43 - 8:46
    pueden aprender a transformarse
  • 8:46 - 8:48
    de un nivel de
    representación al siguiente,
  • 8:48 - 8:53
    en donde los altos niveles corresponden
    a las nociones más abstractas.
  • 8:53 - 8:58
    Por ejemplo, la noción abstracta
    del carácter "A"
  • 8:58 - 9:01
    puede ser representada de maneras
    diferentes en los niveles más bajos,
  • 9:01 - 9:04
    como muchas configuraciones
    diferentes de píxeles,
  • 9:04 - 9:09
    dependiendo de su posición,
    rotación, fuente y demás.
  • 9:10 - 9:15
    Entonces, ¿cómo aprendemos
    estos altos niveles de representaciones?
  • 9:17 - 9:21
    Algo que ha sido muy exitoso hasta ahora
  • 9:21 - 9:23
    en las aplicaciones
    del aprendizaje profundo
  • 9:23 - 9:25
    es lo que llamamos
    aprendizaje supervisado.
  • 9:26 - 9:32
    Con el aprendizaje supervisado,
    se toma de la mano a la computadora
  • 9:32 - 9:36
    y los humanos deben decirle
    la respuesta a muchas preguntas.
  • 9:36 - 9:39
    Por ejemplo, en millones
    y millones de imágenes
  • 9:39 - 9:42
    los humanos deben decirle a la máquina:
  • 9:42 - 9:44
    Bueno... esta imagen es un gato,
  • 9:45 - 9:47
    esta imagen es un perro,
  • 9:47 - 9:50
    esta imagen es un portátil,
  • 9:50 - 9:52
    esta imagen es un teclado.
  • 9:52 - 9:55
    Y así, sucesivamente, millones de veces.
  • 9:56 - 10:01
    Esto es muy tedioso y usamos
    el crowdsourcing para poder hacerlo.
  • 10:01 - 10:03
    Aunque esto es muy poderoso
  • 10:03 - 10:06
    y somos capaces de resolver
    muchos problemas interesantes,
  • 10:06 - 10:08
    los humanos somos mucho más fuertes
  • 10:08 - 10:12
    y podemos aprender sobre muchos
    otros aspectos diferentes del mundo
  • 10:12 - 10:14
    de una manera mucho más autónoma,
  • 10:14 - 10:18
    tal como vimos con la niña de dos años
    que aprende sobre física intuitiva.
  • 10:18 - 10:22
    El aprendizaje no supervisado
    también puede ayudarnos a lidiar
  • 10:22 - 10:24
    con los vehículos autónomos.
  • 10:24 - 10:26
    Déjenme que les explique.
  • 10:26 - 10:28
    El aprendizaje no supervisado permite
  • 10:28 - 10:32
    que las computadoras
    se proyecten al futuro
  • 10:32 - 10:37
    para generar futuros probables
    condicionados a la situación actual.
  • 10:38 - 10:43
    Y eso permite a las computadoras
    razonar y planear por adelantado.
  • 10:43 - 10:48
    Incluso para circunstancias
    a las que no han sido entrenadas.
  • 10:49 - 10:50
    Esto es importante,
  • 10:50 - 10:54
    porque con el aprendizaje supervisado
    habría que decirle a las computadoras
  • 10:54 - 10:57
    acerca de todas las circunstancias
    en las cuales podría estar el auto
  • 10:57 - 11:01
    y cómo los humanos
    reaccionarían en esa situación.
  • 11:02 - 11:06
    ¿Cómo aprendí a evitar
    comportamientos peligrosos al volante?
  • 11:07 - 11:11
    ¿Tuve que morir mil veces en un accidente?
  • 11:11 - 11:12
    (Risas)
  • 11:12 - 11:15
    Bueno, así es como entrenamos
    a las máquinas ahora.
  • 11:15 - 11:18
    Por lo tanto, no va a volar
    o al menos no al conducir.
  • 11:18 - 11:20
    (Risas)
  • 11:21 - 11:25
    Entonces, lo que necesitamos
    es entrenar a nuestros modelos
  • 11:25 - 11:30
    para poder generar imágenes
    o futuros probables,
  • 11:30 - 11:31
    que sean creativos.
  • 11:31 - 11:34
    Y estamos progresando en eso.
  • 11:34 - 11:37
    Así que estamos entrenando
    a estas redes neuronales profundas
  • 11:37 - 11:40
    para que pasen del significado
    de alto nivel a píxeles
  • 11:40 - 11:43
    en vez de ir desde los píxeles
    al significado de alto nivel,
  • 11:43 - 11:47
    es decir, a ir en la otra dirección
    a través de los niveles de representación.
  • 11:47 - 11:50
    Y de esta manera, la computadora
    puede generar imágenes
  • 11:51 - 11:55
    que son imágenes nuevas, diferentes
    a lo que la computadora ha visto
  • 11:55 - 11:56
    mientras fue entrenada,
  • 11:57 - 12:00
    pero son probables
    y parecen imágenes naturales.
  • 12:02 - 12:04
    También podemos usar estos modelos
  • 12:04 - 12:07
    para inventar imágenes extrañas,
  • 12:07 - 12:09
    a veces siniestras,
  • 12:09 - 12:12
    como nuestros sueños y pesadillas.
  • 12:13 - 12:17
    Aquí hay algunas imágenes que fueron
    sintetizadas por la computadora
  • 12:17 - 12:19
    usando estos modelos
    de gráficos profundos.
  • 12:20 - 12:22
    Se ven como imágenes naturales,
  • 12:22 - 12:25
    pero si miran de cerca
    verán que son diferentes
  • 12:25 - 12:29
    y que todavía les faltan algunos
    de los detalles importantes
  • 12:29 - 12:31
    que reconoceríamos como naturales.
  • 12:32 - 12:34
    Hace unos 10 años,
  • 12:34 - 12:39
    el aprendizaje no supervisado
    fue una clave para el hallazgo
  • 12:39 - 12:42
    que supuso descubrir
    el aprendizaje profundo.
  • 12:44 - 12:48
    Esto sucedía en unos pocos
    laboratorios, incluido el mío,
  • 12:48 - 12:52
    cuando las redes neuronales
    no eran populares.
  • 12:52 - 12:55
    Fueron prácticamente abandonadas
    por la comunidad científica.
  • 12:56 - 12:59
    Hoy las cosas han cambiado mucho.
  • 12:59 - 13:01
    Se ha convertido en un campo muy fuerte.
  • 13:02 - 13:07
    Ahora hay cientos de estudiantes cada año
    que solicitan estudios de posgrado
  • 13:07 - 13:09
    en mi laboratorio con mis colaboradores.
  • 13:11 - 13:17
    Montreal se ha convertido
    en la mayor concentración académica
  • 13:17 - 13:19
    de investigadores
    de aprendizaje profundo del mundo.
  • 13:20 - 13:25
    Acabamos de recibir una gran beca
    de investigación de USD 94 millones
  • 13:26 - 13:30
    para empujar los límites de la IA
    y de la ciencia de datos
  • 13:30 - 13:33
    y también para transferir tecnología
    de aprendizaje profundo
  • 13:33 - 13:36
    y ciencia de datos a la industria.
  • 13:37 - 13:43
    Empresarios alentados por todo esto
    crean nuevas empresas,
  • 13:43 - 13:44
    laboratorios industriales,
  • 13:44 - 13:47
    muchos de los cuales
    están cerca de las universidades.
  • 13:49 - 13:50
    Por ejemplo,
  • 13:50 - 13:55
    hace apenas unas semanas, anunciamos
    el lanzamiento de una nueva empresa
  • 13:55 - 13:57
    llamada "Element AI"
  • 13:57 - 14:00
    que va a enfocarse en las aplicaciones
    de aprendizaje profundo.
  • 14:02 - 14:06
    Simplemente no hay suficientes
    expertos en aprendizaje profundo.
  • 14:06 - 14:11
    Así que, se les pagan sueldos muy altos
  • 14:11 - 14:17
    y muchos de mis antiguos colegas
    académicos han aceptado generosas ofertas
  • 14:17 - 14:20
    de empresas para trabajar
    en laboratorios industriales.
  • 14:21 - 14:25
    Yo, por mi parte, he optado
    por quedarme en la universidad,
  • 14:25 - 14:27
    para trabajar por el bien público,
  • 14:27 - 14:29
    para trabajar con alumnos,
  • 14:29 - 14:31
    para seguir siendo independiente,
  • 14:31 - 14:35
    para guiar a la próxima generación
    de expertos en el aprendizaje profundo.
  • 14:35 - 14:41
    Una cosa que estamos haciendo
    más allá del valor comercial
  • 14:41 - 14:45
    es pensar en las consecuencias
    sociales de la IA.
  • 14:46 - 14:50
    Muchos de nosotros estamos
    empezando a prestarle atención
  • 14:50 - 14:56
    a los programas que tienen
    valor agregado social, como la salud.
  • 14:56 - 14:59
    Pensamos que podemos usar
    el aprendizaje profundo
  • 14:59 - 15:03
    para mejorar el tratamiento
    con medicina personalizada.
  • 15:04 - 15:07
    Creo que en el futuro,
    mientras recopilamos más datos
  • 15:07 - 15:10
    de millones y millones de personas
    en todo el mundo,
  • 15:10 - 15:14
    podremos proporcionar
    asesoramiento médico
  • 15:14 - 15:17
    a miles de millones de personas
    que no tienen acceso en este momento.
  • 15:18 - 15:23
    Y podemos imaginar otras aplicaciones
    con valor social de la IA.
  • 15:23 - 15:26
    Por ejemplo, algo que surgirá
    de nuestra investigación
  • 15:26 - 15:29
    sobre la comprensión del lenguaje natural
  • 15:29 - 15:31
    es proporcionar todo tipo de servicios,
  • 15:31 - 15:34
    como servicios legales,
    a aquellos que no pueden pagarlos.
  • 15:35 - 15:37
    Ahora también estamos
    prestándole atención
  • 15:37 - 15:41
    a las consecuencias sociales
    de la IA en mi comunidad.
  • 15:42 - 15:45
    Pero no solo los expertos
    deben pensar en esto.
  • 15:46 - 15:50
    Creo que más allá
    de las matemáticas y la jerga,
  • 15:51 - 15:53
    la gente común puede tener una idea
  • 15:53 - 15:56
    de lo que sucede
    debajo de la superficie.
  • 15:57 - 16:01
    Lo suficiente como para participar
    en las decisiones importantes
  • 16:01 - 16:07
    que se tomarán en los próximos
    años y décadas sobre la IA.
  • 16:08 - 16:09
    Así que, por favor,
  • 16:10 - 16:12
    dediquen un presupuesto
  • 16:12 - 16:16
    y dense un espacio
    para aprender sobre ella.
  • 16:18 - 16:23
    Mis colaboradores y yo hemos escrito
    varios artículos introductorios
  • 16:23 - 16:25
    y un libro titulado "Aprendizaje profundo"
  • 16:25 - 16:30
    para ayudar a estudiantes e ingenieros
    a adentrarse en este emocionante campo.
  • 16:31 - 16:36
    También hay muchos recursos en línea:
    softwares, tutoriales, videos...
  • 16:36 - 16:41
    y muchos estudiantes no graduados
    están aprendiendo mucho
  • 16:41 - 16:45
    sobre la investigación
    en el aprendizaje profundo por sí mismos,
  • 16:45 - 16:48
    para luego ser parte
    de laboratorios como el mío.
  • 16:49 - 16:55
    La IA va a tener un profundo
    impacto en nuestra sociedad.
  • 16:57 - 17:02
    Así que es importante preguntar:
    ¿Cómo la vamos a utilizar?
  • 17:04 - 17:06
    Pueden darse muchísimos
    resultados positivos
  • 17:06 - 17:08
    y también negativos,
  • 17:08 - 17:10
    como el uso militar,
  • 17:11 - 17:15
    o cambios rápidos y disruptivos
    en el mercado laboral.
  • 17:16 - 17:22
    Para asegurarnos de que las decisiones
    colectivas que se tomarán sobre la IA
  • 17:22 - 17:23
    en los próximos años
  • 17:23 - 17:25
    serán en beneficio de todos,
  • 17:25 - 17:29
    todos los ciudadanos
    deben participar activamente
  • 17:29 - 17:33
    en definir cómo la IA
    determinará nuestro futuro.
  • 17:34 - 17:35
    Gracias.
  • 17:35 - 17:39
    (Aplausos)
Title:
El despertar de la inteligencia artificial a través del aprendizaje profundo | Yoshua Bengio | TEDxMontreal
Description:

Se está produciendo una revolución en la inteligencia artificial (IA) gracias al avance en el aprendizaje profundo. ¿Qué tan lejos estamos del objetivo de alcanzar una IA a nivel humano? ¿Cuáles son algunos de los principales desafíos que tenemos por delante?

Yoshua Bengio cree que comprender los conceptos básicos de la IA está al alcance de todos los ciudadanos. La democratización de estos problemas es importante para que las sociedades puedan tomar las mejores decisiones colectivas con respecto a los grandes cambios que nos traerá la IA, de forma que estos estos cambios sean beneficiosos y favorables para todos.

___________________________

Yoshua Bengio es uno de los pioneros del aprendizaje profundo. Es director del Instituto de Algoritmos de Aprendizaje de Montreal (MILA), profesor de la Universidad de Montreal, miembro de la junta de NIPS y cofundador de Element AI. Doctorado por la Universidad de McGill (1991, Ciencias de la Computación) y posdoctorado en MIT y AT&T Bell Labs, dirige la Cátedra de Investigación de Canadá en Algoritmos de Aprendizaje Estadístico, es miembro principal del Instituto Canadiense de Investigación Avanzada y codirige su programa centrado en el aprendizaje profundo. Es más conocido por sus aportes al aprendizaje profundo, redes recurrentes, modelos de lenguaje neuronal, traducción automática neuronal y aprendizaje automático inspirado en biología.

https://mila.umontreal.ca/en/
https://www.elementai.com/

___________________________

Para más información visite http://www.tedxmontreal.com

Esta charla es de un evento TEDx, organizado de manera independiente a las conferencias TED por una comunidad local. Más información en: http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
17:54

Spanish subtitles

Revisions