Return to Video

Seres humanos digitales que lucen igual a nosotros

  • 0:02 - 0:03
    Hola.
  • 0:03 - 0:05
    No soy una persona real.
  • 0:05 - 0:08
    De hecho, soy la copia
    de una persona real.
  • 0:08 - 0:10
    Aunque... me siento como una persona real.
  • 0:10 - 0:12
    Es difícil de explicar.
  • 0:12 - 0:16
    Aguarden, creo que vi a una persona real.
  • 0:16 - 0:18
    Ahí está, que suba al escenario.
  • 0:21 - 0:22
    Hola.
  • 0:23 - 0:27
    (Aplausos)
  • 0:28 - 0:31
    Lo que ven allí arriba
    es un ser humano digital.
  • 0:32 - 0:35
    Tengo puesto un traje de
    captura de movimientos inercial
  • 0:35 - 0:37
    que descifra los movimientos de mi cuerpo.
  • 0:38 - 0:41
    Y tengo una cámara aquí,
    apuntando a mi rostro,
  • 0:41 - 0:44
    que envía información
    sobre mis expresiones
  • 0:44 - 0:46
    a un software de aprendizaje automático.
  • 0:46 - 0:50
    Toma expresiones como "Hm, hm, hm"
  • 0:50 - 0:52
    y las transfiere a ese sujeto.
  • 0:53 - 0:57
    Lo llamamos "DigiDoug".
  • 0:57 - 1:02
    Es un personaje 3D
    que estoy controlando en tiempo real.
  • 1:04 - 1:07
    Trabajo en efectos visuales.
  • 1:07 - 1:08
    En este campo,
  • 1:08 - 1:14
    una de las tareas más difíciles
    es crear humanos digitales creíbles
  • 1:14 - 1:16
    que la audiencia acepte como reales.
  • 1:16 - 1:21
    Las personas son muy buenas
    en reconocer a otras.
  • 1:21 - 1:22
    ¿Quién lo diría?
  • 1:24 - 1:27
    Está bien, aceptamos el reto.
  • 1:27 - 1:29
    Durante los últimos 15 años,
  • 1:29 - 1:34
    hemos introducido en las películas
    seres humanos y criaturas
  • 1:34 - 1:36
    que ustedes aceptan como reales.
  • 1:37 - 1:39
    Si ellos están felices, ustedes también.
  • 1:40 - 1:45
    Si sienten dolor,
    Uds. deberían sentir empatía.
  • 1:46 - 1:49
    Además, estamos mejorando cada vez más.
  • 1:49 - 1:51
    Pero es extremadamente difícil.
  • 1:52 - 1:55
    Efectos así llevan miles de horas
  • 1:55 - 1:58
    y requieren el trabajo
    de cientos de artistas talentosos.
  • 1:59 - 2:00
    Pero las cosas han cambiado.
  • 2:01 - 2:03
    Durante los últimos cinco años,
  • 2:03 - 2:07
    las computadoras y las tarjetas gráficas
    se han vuelto superrápidas,
  • 2:09 - 2:13
    y han surgido el aprendizaje automático
    y el aprendizaje profundo.
  • 2:13 - 2:15
    Así que nos preguntamos:
  • 2:15 - 2:19
    ¿sería posible crear
    un ser humano fotorrealista
  • 2:19 - 2:21
    como los que creamos para el cine
  • 2:22 - 2:27
    pero en los que puedan verse
    las emociones reales y los detalles
  • 2:28 - 2:31
    de la persona que lo controla
  • 2:32 - 2:33
    en tiempo real?
  • 2:34 - 2:35
    Y esa es nuestra meta.
  • 2:35 - 2:38
    Si estuviesen charlando con DigiDoug
  • 2:39 - 2:40
    de forma directa,
  • 2:41 - 2:47
    ¿es lo suficientemente real para que
    puedan notar si yo les estoy mintiendo?
  • 2:48 - 2:49
    Esa fue nuestra meta.
  • 2:51 - 2:55
    Hace aproximadamente un año y medio,
    nos dispusimos a alcanzar ese objetivo.
  • 2:55 - 2:58
    Lo que haré ahora será invitarlos
    a una pequeña aventura
  • 2:58 - 3:02
    para que vean lo que tuvimos que hacer
    para llegar adonde estamos.
  • 3:04 - 3:08
    Debimos recolectar
    una enorme cantidad de datos.
  • 3:08 - 3:11
    De hecho, al terminar este proyecto,
  • 3:11 - 3:14
    probablemente contábamos con
    una de las bases de datos más completas
  • 3:14 - 3:16
    de expresiones faciales,
  • 3:16 - 3:18
    de mi rostro.
  • 3:18 - 3:20
    (Risas)
  • 3:20 - 3:21
    ¿Por qué yo?
  • 3:21 - 3:24
    Pues haría lo que fuera
    en nombre de la ciencia.
  • 3:24 - 3:26
    Es decir, mírenme.
  • 3:27 - 3:28
    Mírenme.
  • 3:31 - 3:37
    Primero, teníamos que determinar
    cómo luce mi rostro realmente.
  • 3:37 - 3:40
    No sólo una fotografía o un escaneo 3D,
  • 3:40 - 3:44
    sino como luce
    en todo tipo de fotografías,
  • 3:44 - 3:47
    cómo la luz interactúa con la piel.
  • 3:48 - 3:53
    Por suerte, a tres cuadras de distancia
    de nuestro estudio en Los Ángeles
  • 3:53 - 3:55
    se encuentra este lugar llamado ICT.
  • 3:56 - 3:58
    Se trata de un laboratorio
    de investigación
  • 3:58 - 4:00
    asociado a la Universidad
    del Sur de California.
  • 4:01 - 4:04
    Allí tienen un dispositivo
    llamado "escenario de las luces".
  • 4:04 - 4:08
    Tiene montones de luces
    controladas de forma individual
  • 4:08 - 4:10
    y una cantidad de cámaras.
  • 4:10 - 4:16
    Podemos reconstruir mi rostro de
    acuerdo a diversas condiciones lumínicas.
  • 4:18 - 4:19
    Incluso capturamos la circulación
  • 4:19 - 4:22
    y cómo mi rostro cambia
    al hacer distintas expresiones.
  • 4:23 - 4:29
    Esto nos permitió construir un modelo de
    mi rostro que, honestamente, es asombroso.
  • 4:29 - 4:34
    Desafortunadamente,
    tiene un gran nivel de detalles.
  • 4:34 - 4:35
    (Risas)
  • 4:35 - 4:39
    Pueden notar cada poro, cada arruga.
  • 4:39 - 4:41
    Pero necesitábamos eso.
  • 4:41 - 4:43
    La realidad consiste en esos detalles.
  • 4:43 - 4:45
    Sin ellos, no es creíble.
  • 4:47 - 4:48
    Y esto es solo el comienzo.
  • 4:49 - 4:53
    Pudimos construir un modelo
    de mi rostro que luce como yo.
  • 4:53 - 4:56
    Pero no se movía como yo.
  • 4:57 - 5:00
    Y es aquí donde interviene
    el aprendizaje automático.
  • 5:00 - 5:03
    El aprendizaje automático
    requiere muchísimos datos.
  • 5:03 - 5:08
    Me senté delante de un dispositivo de
    captura de movimiento de alta resolución.
  • 5:08 - 5:13
    También hicimos esta captura
    tradicional con marcadores.
  • 5:14 - 5:17
    Creamos montones de imágenes de mi rostro
  • 5:17 - 5:21
    y nubes de puntos que representan
    las formas de mi rostro.
  • 5:22 - 5:25
    Hice montones de expresiones,
  • 5:25 - 5:28
    pronuncié muchas frases
    en distintos estados de ánimo.
  • 5:28 - 5:31
    El trabajo para capturar
    todo esto fue arduo.
  • 5:32 - 5:35
    Una vez recolectada
    esta enorme cantidad de data,
  • 5:35 - 5:38
    construimos y entrenamos
    redes neurales profundas.
  • 5:39 - 5:41
    Y cuando completamos eso,
  • 5:41 - 5:43
    en 16 milisegundos
  • 5:43 - 5:46
    la red neural es capaz de tomar mi imagen
  • 5:46 - 5:49
    y descifrar todo acerca de mi rostro.
  • 5:50 - 5:56
    Puede computar mi expresión,
    mis arrugas, mi circulación,
  • 5:56 - 5:58
    incluso el movimiento de mis pestañas.
  • 5:59 - 6:02
    Esto se representa y muestra allí
  • 6:02 - 6:05
    con todos los detalles
    que se capturaron previamente.
  • 6:06 - 6:08
    Esto es apenas el comienzo.
  • 6:08 - 6:10
    Se trata de un trabajo en desarrollo.
  • 6:10 - 6:14
    Y es de hecho la primera vez
    que mostramos esta tecnología al público.
  • 6:14 - 6:18
    Y, como verán, no luce
    tan convincente como quisiéramos:
  • 6:18 - 6:22
    tengo cables conectados por detrás,
    y hay una demora de un sexto de segundo
  • 6:22 - 6:27
    entre lo que lo que grabamos en video
    y lo que se muestra allá arriba.
  • 6:27 - 6:29
    Un sexto de segundo, ¡es increíble!
  • 6:30 - 6:33
    Pero esa es la razón
    por la que escuchan un breve eco.
  • 6:34 - 6:38
    Además, esto del aprendizaje automático
    es supernuevo para nosotros,
  • 6:38 - 6:42
    a veces es difícil convencerlo
    para que haga lo que le indicamos.
  • 6:42 - 6:44
    Se sale un poco de control.
  • 6:44 - 6:46
    (Risas)
  • 6:48 - 6:51
    Pero ¿por qué desarrollamos esto?
  • 6:51 - 6:53
    Pues hay dos razones.
  • 6:53 - 6:56
    En primer lugar, es algo increíble.
  • 6:56 - 6:57
    (Risas)
  • 6:57 - 6:59
    ¿Qué tan increíble es?
  • 6:59 - 7:01
    Pues con solo apretar un botón,
  • 7:01 - 7:05
    puedo dar esta charla
    como un personaje totalmente diferente.
  • 7:06 - 7:08
    Él es Elbor.
  • 7:10 - 7:14
    Lo diseñamos para probar cómo funcionaría
    esto con una apariencia diferente.
  • 7:15 - 7:20
    Y lo sorprendente de esta tecnología
    es que, si bien cambié mi apariencia,
  • 7:20 - 7:24
    la gesticulación es todavía mía.
  • 7:24 - 7:28
    Tiendo a hablar con el lado derecho
    de la boca, así que así lo hace Elbor.
  • 7:28 - 7:29
    (Risas)
  • 7:30 - 7:35
    La segunda razón, como podrán imaginar,
    es por sus aplicaciones en el cine.
  • 7:35 - 7:38
    Se trata de una herramienta
    muy nueva y emocionante
  • 7:38 - 7:42
    para los artistas,
    directores y narradores.
  • 7:43 - 7:45
    Es un uso evidente, ¿no?
  • 7:45 - 7:47
    Es decir, será muy útil contar con esto.
  • 7:47 - 7:49
    Pero además, ahora
    que lo hemos construido,
  • 7:49 - 7:52
    es obvio que se aplicará
    en otros ámbitos además del cine.
  • 7:54 - 7:55
    Pero... un momento.
  • 7:56 - 8:00
    ¿No acabo de cambiar de identidad
    con solo apretar un botón?
  • 8:00 - 8:03
    ¿No es algo parecido al ultrafalso
    y cambios de rostro
  • 8:03 - 8:04
    de los que habrán oído hablar?
  • 8:05 - 8:06
    Pues, sí.
  • 8:07 - 8:12
    De hecho, usamos algunas de las mismas
    tecnologías que usa el ultrafalso.
  • 8:12 - 8:16
    Pero el ultrafalso es 2D y se basa
    en imágenes; el nuestro es 3D
  • 8:17 - 8:19
    y mucho más potente.
  • 8:19 - 8:21
    Pero están muy relacionados.
  • 8:22 - 8:23
    Puedo escuchar cómo piensan:
  • 8:24 - 8:25
    "¡Diablos!
  • 8:25 - 8:29
    Pensé que podía al menos
    confiar en los videos.
  • 8:29 - 8:32
    Si es un video en vivo,
    ¿no es evidente que es verdadero?"
  • 8:33 - 8:36
    Pues sabemos que
    no necesariamente, ¿cierto?
  • 8:37 - 8:41
    Incluso sin esto, existen trucos sencillos
    que pueden aplicarse a los videos,
  • 8:41 - 8:43
    como el ángulo de una toma
  • 8:43 - 8:48
    que puede en verdad distorsionar
    lo que realmente está sucediendo.
  • 8:48 - 8:53
    He trabajado en efectos visuales por
    mucho tiempo y sé desde hace bastante
  • 8:54 - 8:59
    que con un poco de esfuerzo se puede
    engañar a quien sea respecto a lo que sea.
  • 9:00 - 9:02
    Lo que esto y el ultrafalso hacen
  • 9:02 - 9:06
    es que sea más sencillo
    y accesible manipular videos,
  • 9:07 - 9:12
    así como lo hizo Photoshop
    con las imágenes hace tiempo.
  • 9:13 - 9:15
    Pero yo prefiero pensar
  • 9:15 - 9:20
    cómo esta tecnología podría conducir
    a la humanidad a otras tecnologías
  • 9:20 - 9:22
    y acercarnos más a todos.
  • 9:22 - 9:24
    Después de ver esto,
  • 9:25 - 9:26
    imaginen las posibilidades.
  • 9:28 - 9:32
    Obviamente estará presente en eventos
    y conciertos en vivo, como este.
  • 9:34 - 9:38
    Las celebridades digitales, especialmente
    con la nueva tecnología de proyección,
  • 9:38 - 9:42
    van a verse igual que en las películas,
    pero en tiempo real.
  • 9:44 - 9:46
    Y nuevas formas
    de comunicación se avecinan.
  • 9:47 - 9:51
    Ya pueden interactuar con
    DigiDoug a través de la realidad virtual.
  • 9:52 - 9:54
    Y es una gran experiencia.
  • 9:54 - 9:57
    Es como si ustedes y yo
    estuviéramos en la misma habitación,
  • 9:58 - 10:00
    aunque pudiéramos
    estar realmente muy lejos.
  • 10:00 - 10:03
    La próxima vez que hagan una videollamada,
  • 10:03 - 10:07
    podrían ser capaces de seleccionar
    la mejor versión de ustedes mismos
  • 10:07 - 10:09
    que prefieren que la gente vea.
  • 10:09 - 10:12
    Es como un maquillaje
    extremadamente bueno.
  • 10:13 - 10:16
    Escaneé mi rostro hace un año y medio.
  • 10:17 - 10:19
    He envejecido.
  • 10:19 - 10:20
    DigiDoug, no.
  • 10:21 - 10:24
    En las videollamadas, puedo no envejecer.
  • 10:26 - 10:28
    Y, como imaginarán,
  • 10:28 - 10:33
    esto servirá para dar a los asistentes
    virtuales un cuerpo y un rostro,
  • 10:33 - 10:34
    para darles humanidad.
  • 10:34 - 10:37
    Me encanta que cuando interactúo
    con asistentes virtuales
  • 10:37 - 10:40
    me contesten con una voz tranquila,
    que suena humana.
  • 10:40 - 10:42
    Ahora tendrán un rostro.
  • 10:42 - 10:47
    Y podremos ver todos los indicios verbales
    que tanto facilitan la comunicación.
  • 10:48 - 10:50
    Será realmente bueno.
  • 10:50 - 10:53
    Podrán darse cuenta cuando
    el asistente esté ocupado, confundido
  • 10:53 - 10:56
    o preocupado por algo.
  • 10:58 - 11:03
    No quería irme del escenario
    sin mostrarles mi verdadero rostro,
  • 11:03 - 11:05
    para que puedan hacer comparaciones.
  • 11:07 - 11:08
    Así que permítanme quitarme este casco.
  • 11:09 - 11:13
    Sí, no se preocupen,
    no se siente tan mal como parece.
  • 11:13 - 11:16
    (Risas)
  • 11:17 - 11:19
    Hasta aquí hemos llegado.
  • 11:19 - 11:21
    Dejen que me lo vuelva a poner.
  • 11:21 - 11:22
    (Risas)
  • 11:25 - 11:27
    Hasta aquí hemos llegado.
  • 11:28 - 11:32
    Estamos a las puertas de poder interactuar
    con seres humanos digitales
  • 11:32 - 11:34
    que sean sorprendentemente reales,
  • 11:34 - 11:37
    ya sea que estén controlados
    por una persona o una máquina.
  • 11:37 - 11:42
    Y, como todas las tecnologías
    nuevas en la actualidad,
  • 11:42 - 11:47
    tendrá algunas implicancias serias
  • 11:47 - 11:49
    que tendremos que abordar.
  • 11:50 - 11:52
    Pero en verdad estoy muy emocionado
  • 11:52 - 11:57
    por la capacidad de traer algo
    que solo he visto en la ciencia ficción
  • 11:57 - 11:59
    durante toda mi vida
  • 12:00 - 12:01
    a la realidad.
  • 12:02 - 12:06
    Podremos comunicarnos con computadoras
    como si habláramos con un amigo.
  • 12:06 - 12:09
    Y charlar con mis amigos que viven lejos
  • 12:09 - 12:12
    será como si estuviéramos
    en la misma habitación.
  • 12:13 - 12:14
    Muchas gracias.
  • 12:14 - 12:19
    (Aplausos)
Title:
Seres humanos digitales que lucen igual a nosotros
Speaker:
Doug Roble
Description:

En esta extraordinaria charla y demostración tecnológica, el ingeniero de software Doug Roble presenta por primera vez a "DigiDoug": una representación digital 3D en tiempo real de sí mismo que muestra hasta los detalles de sus poros y arrugas. Gracias a un traje de captura de movimientos inercial, redes neurales profundas y enormes cantidades de información, DigiDoug representa las emociones reales de Doug, incluso detalles como su circulación y el movimiento de sus pestañas, con asombrosa precisión. Aprende más sobre cómo se construyó esta emocionante tecnología, cómo podría aplicarse en las películas y más.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:34

Spanish subtitles

Revisions