Seres humanos digitales que lucen igual a nosotros
-
0:02 - 0:03Hola.
-
0:03 - 0:05No soy una persona real.
-
0:05 - 0:08De hecho, soy la copia
de una persona real. -
0:08 - 0:10Aunque... me siento como una persona real.
-
0:10 - 0:12Es difícil de explicar.
-
0:12 - 0:16Aguarden, creo que vi a una persona real.
-
0:16 - 0:18Ahí está, que suba al escenario.
-
0:21 - 0:22Hola.
-
0:23 - 0:27(Aplausos)
-
0:28 - 0:31Lo que ven allí arriba
es un ser humano digital. -
0:32 - 0:35Tengo puesto un traje de
captura de movimientos inercial -
0:35 - 0:37que descifra los movimientos de mi cuerpo.
-
0:38 - 0:41Y tengo una cámara aquí,
apuntando a mi rostro, -
0:41 - 0:44que envía información
sobre mis expresiones -
0:44 - 0:46a un software de aprendizaje automático.
-
0:46 - 0:50Toma expresiones como "Hm, hm, hm"
-
0:50 - 0:52y las transfiere a ese sujeto.
-
0:53 - 0:57Lo llamamos "DigiDoug".
-
0:57 - 1:02Es un personaje 3D
que estoy controlando en tiempo real. -
1:04 - 1:07Trabajo en efectos visuales.
-
1:07 - 1:08En este campo,
-
1:08 - 1:14una de las tareas más difíciles
es crear humanos digitales creíbles -
1:14 - 1:16que la audiencia acepte como reales.
-
1:16 - 1:21Las personas son muy buenas
en reconocer a otras. -
1:21 - 1:22¿Quién lo diría?
-
1:24 - 1:27Está bien, aceptamos el reto.
-
1:27 - 1:29Durante los últimos 15 años,
-
1:29 - 1:34hemos introducido en las películas
seres humanos y criaturas -
1:34 - 1:36que ustedes aceptan como reales.
-
1:37 - 1:39Si ellos están felices, ustedes también.
-
1:40 - 1:45Si sienten dolor,
Uds. deberían sentir empatía. -
1:46 - 1:49Además, estamos mejorando cada vez más.
-
1:49 - 1:51Pero es extremadamente difícil.
-
1:52 - 1:55Efectos así llevan miles de horas
-
1:55 - 1:58y requieren el trabajo
de cientos de artistas talentosos. -
1:59 - 2:00Pero las cosas han cambiado.
-
2:01 - 2:03Durante los últimos cinco años,
-
2:03 - 2:07las computadoras y las tarjetas gráficas
se han vuelto superrápidas, -
2:09 - 2:13y han surgido el aprendizaje automático
y el aprendizaje profundo. -
2:13 - 2:15Así que nos preguntamos:
-
2:15 - 2:19¿sería posible crear
un ser humano fotorrealista -
2:19 - 2:21como los que creamos para el cine
-
2:22 - 2:27pero en los que puedan verse
las emociones reales y los detalles -
2:28 - 2:31de la persona que lo controla
-
2:32 - 2:33en tiempo real?
-
2:34 - 2:35Y esa es nuestra meta.
-
2:35 - 2:38Si estuviesen charlando con DigiDoug
-
2:39 - 2:40de forma directa,
-
2:41 - 2:47¿es lo suficientemente real para que
puedan notar si yo les estoy mintiendo? -
2:48 - 2:49Esa fue nuestra meta.
-
2:51 - 2:55Hace aproximadamente un año y medio,
nos dispusimos a alcanzar ese objetivo. -
2:55 - 2:58Lo que haré ahora será invitarlos
a una pequeña aventura -
2:58 - 3:02para que vean lo que tuvimos que hacer
para llegar adonde estamos. -
3:04 - 3:08Debimos recolectar
una enorme cantidad de datos. -
3:08 - 3:11De hecho, al terminar este proyecto,
-
3:11 - 3:14probablemente contábamos con
una de las bases de datos más completas -
3:14 - 3:16de expresiones faciales,
-
3:16 - 3:18de mi rostro.
-
3:18 - 3:20(Risas)
-
3:20 - 3:21¿Por qué yo?
-
3:21 - 3:24Pues haría lo que fuera
en nombre de la ciencia. -
3:24 - 3:26Es decir, mírenme.
-
3:27 - 3:28Mírenme.
-
3:31 - 3:37Primero, teníamos que determinar
cómo luce mi rostro realmente. -
3:37 - 3:40No sólo una fotografía o un escaneo 3D,
-
3:40 - 3:44sino como luce
en todo tipo de fotografías, -
3:44 - 3:47cómo la luz interactúa con la piel.
-
3:48 - 3:53Por suerte, a tres cuadras de distancia
de nuestro estudio en Los Ángeles -
3:53 - 3:55se encuentra este lugar llamado ICT.
-
3:56 - 3:58Se trata de un laboratorio
de investigación -
3:58 - 4:00asociado a la Universidad
del Sur de California. -
4:01 - 4:04Allí tienen un dispositivo
llamado "escenario de las luces". -
4:04 - 4:08Tiene montones de luces
controladas de forma individual -
4:08 - 4:10y una cantidad de cámaras.
-
4:10 - 4:16Podemos reconstruir mi rostro de
acuerdo a diversas condiciones lumínicas. -
4:18 - 4:19Incluso capturamos la circulación
-
4:19 - 4:22y cómo mi rostro cambia
al hacer distintas expresiones. -
4:23 - 4:29Esto nos permitió construir un modelo de
mi rostro que, honestamente, es asombroso. -
4:29 - 4:34Desafortunadamente,
tiene un gran nivel de detalles. -
4:34 - 4:35(Risas)
-
4:35 - 4:39Pueden notar cada poro, cada arruga.
-
4:39 - 4:41Pero necesitábamos eso.
-
4:41 - 4:43La realidad consiste en esos detalles.
-
4:43 - 4:45Sin ellos, no es creíble.
-
4:47 - 4:48Y esto es solo el comienzo.
-
4:49 - 4:53Pudimos construir un modelo
de mi rostro que luce como yo. -
4:53 - 4:56Pero no se movía como yo.
-
4:57 - 5:00Y es aquí donde interviene
el aprendizaje automático. -
5:00 - 5:03El aprendizaje automático
requiere muchísimos datos. -
5:03 - 5:08Me senté delante de un dispositivo de
captura de movimiento de alta resolución. -
5:08 - 5:13También hicimos esta captura
tradicional con marcadores. -
5:14 - 5:17Creamos montones de imágenes de mi rostro
-
5:17 - 5:21y nubes de puntos que representan
las formas de mi rostro. -
5:22 - 5:25Hice montones de expresiones,
-
5:25 - 5:28pronuncié muchas frases
en distintos estados de ánimo. -
5:28 - 5:31El trabajo para capturar
todo esto fue arduo. -
5:32 - 5:35Una vez recolectada
esta enorme cantidad de data, -
5:35 - 5:38construimos y entrenamos
redes neurales profundas. -
5:39 - 5:41Y cuando completamos eso,
-
5:41 - 5:43en 16 milisegundos
-
5:43 - 5:46la red neural es capaz de tomar mi imagen
-
5:46 - 5:49y descifrar todo acerca de mi rostro.
-
5:50 - 5:56Puede computar mi expresión,
mis arrugas, mi circulación, -
5:56 - 5:58incluso el movimiento de mis pestañas.
-
5:59 - 6:02Esto se representa y muestra allí
-
6:02 - 6:05con todos los detalles
que se capturaron previamente. -
6:06 - 6:08Esto es apenas el comienzo.
-
6:08 - 6:10Se trata de un trabajo en desarrollo.
-
6:10 - 6:14Y es de hecho la primera vez
que mostramos esta tecnología al público. -
6:14 - 6:18Y, como verán, no luce
tan convincente como quisiéramos: -
6:18 - 6:22tengo cables conectados por detrás,
y hay una demora de un sexto de segundo -
6:22 - 6:27entre lo que lo que grabamos en video
y lo que se muestra allá arriba. -
6:27 - 6:29Un sexto de segundo, ¡es increíble!
-
6:30 - 6:33Pero esa es la razón
por la que escuchan un breve eco. -
6:34 - 6:38Además, esto del aprendizaje automático
es supernuevo para nosotros, -
6:38 - 6:42a veces es difícil convencerlo
para que haga lo que le indicamos. -
6:42 - 6:44Se sale un poco de control.
-
6:44 - 6:46(Risas)
-
6:48 - 6:51Pero ¿por qué desarrollamos esto?
-
6:51 - 6:53Pues hay dos razones.
-
6:53 - 6:56En primer lugar, es algo increíble.
-
6:56 - 6:57(Risas)
-
6:57 - 6:59¿Qué tan increíble es?
-
6:59 - 7:01Pues con solo apretar un botón,
-
7:01 - 7:05puedo dar esta charla
como un personaje totalmente diferente. -
7:06 - 7:08Él es Elbor.
-
7:10 - 7:14Lo diseñamos para probar cómo funcionaría
esto con una apariencia diferente. -
7:15 - 7:20Y lo sorprendente de esta tecnología
es que, si bien cambié mi apariencia, -
7:20 - 7:24la gesticulación es todavía mía.
-
7:24 - 7:28Tiendo a hablar con el lado derecho
de la boca, así que así lo hace Elbor. -
7:28 - 7:29(Risas)
-
7:30 - 7:35La segunda razón, como podrán imaginar,
es por sus aplicaciones en el cine. -
7:35 - 7:38Se trata de una herramienta
muy nueva y emocionante -
7:38 - 7:42para los artistas,
directores y narradores. -
7:43 - 7:45Es un uso evidente, ¿no?
-
7:45 - 7:47Es decir, será muy útil contar con esto.
-
7:47 - 7:49Pero además, ahora
que lo hemos construido, -
7:49 - 7:52es obvio que se aplicará
en otros ámbitos además del cine. -
7:54 - 7:55Pero... un momento.
-
7:56 - 8:00¿No acabo de cambiar de identidad
con solo apretar un botón? -
8:00 - 8:03¿No es algo parecido al ultrafalso
y cambios de rostro -
8:03 - 8:04de los que habrán oído hablar?
-
8:05 - 8:06Pues, sí.
-
8:07 - 8:12De hecho, usamos algunas de las mismas
tecnologías que usa el ultrafalso. -
8:12 - 8:16Pero el ultrafalso es 2D y se basa
en imágenes; el nuestro es 3D -
8:17 - 8:19y mucho más potente.
-
8:19 - 8:21Pero están muy relacionados.
-
8:22 - 8:23Puedo escuchar cómo piensan:
-
8:24 - 8:25"¡Diablos!
-
8:25 - 8:29Pensé que podía al menos
confiar en los videos. -
8:29 - 8:32Si es un video en vivo,
¿no es evidente que es verdadero?" -
8:33 - 8:36Pues sabemos que
no necesariamente, ¿cierto? -
8:37 - 8:41Incluso sin esto, existen trucos sencillos
que pueden aplicarse a los videos, -
8:41 - 8:43como el ángulo de una toma
-
8:43 - 8:48que puede en verdad distorsionar
lo que realmente está sucediendo. -
8:48 - 8:53He trabajado en efectos visuales por
mucho tiempo y sé desde hace bastante -
8:54 - 8:59que con un poco de esfuerzo se puede
engañar a quien sea respecto a lo que sea. -
9:00 - 9:02Lo que esto y el ultrafalso hacen
-
9:02 - 9:06es que sea más sencillo
y accesible manipular videos, -
9:07 - 9:12así como lo hizo Photoshop
con las imágenes hace tiempo. -
9:13 - 9:15Pero yo prefiero pensar
-
9:15 - 9:20cómo esta tecnología podría conducir
a la humanidad a otras tecnologías -
9:20 - 9:22y acercarnos más a todos.
-
9:22 - 9:24Después de ver esto,
-
9:25 - 9:26imaginen las posibilidades.
-
9:28 - 9:32Obviamente estará presente en eventos
y conciertos en vivo, como este. -
9:34 - 9:38Las celebridades digitales, especialmente
con la nueva tecnología de proyección, -
9:38 - 9:42van a verse igual que en las películas,
pero en tiempo real. -
9:44 - 9:46Y nuevas formas
de comunicación se avecinan. -
9:47 - 9:51Ya pueden interactuar con
DigiDoug a través de la realidad virtual. -
9:52 - 9:54Y es una gran experiencia.
-
9:54 - 9:57Es como si ustedes y yo
estuviéramos en la misma habitación, -
9:58 - 10:00aunque pudiéramos
estar realmente muy lejos. -
10:00 - 10:03La próxima vez que hagan una videollamada,
-
10:03 - 10:07podrían ser capaces de seleccionar
la mejor versión de ustedes mismos -
10:07 - 10:09que prefieren que la gente vea.
-
10:09 - 10:12Es como un maquillaje
extremadamente bueno. -
10:13 - 10:16Escaneé mi rostro hace un año y medio.
-
10:17 - 10:19He envejecido.
-
10:19 - 10:20DigiDoug, no.
-
10:21 - 10:24En las videollamadas, puedo no envejecer.
-
10:26 - 10:28Y, como imaginarán,
-
10:28 - 10:33esto servirá para dar a los asistentes
virtuales un cuerpo y un rostro, -
10:33 - 10:34para darles humanidad.
-
10:34 - 10:37Me encanta que cuando interactúo
con asistentes virtuales -
10:37 - 10:40me contesten con una voz tranquila,
que suena humana. -
10:40 - 10:42Ahora tendrán un rostro.
-
10:42 - 10:47Y podremos ver todos los indicios verbales
que tanto facilitan la comunicación. -
10:48 - 10:50Será realmente bueno.
-
10:50 - 10:53Podrán darse cuenta cuando
el asistente esté ocupado, confundido -
10:53 - 10:56o preocupado por algo.
-
10:58 - 11:03No quería irme del escenario
sin mostrarles mi verdadero rostro, -
11:03 - 11:05para que puedan hacer comparaciones.
-
11:07 - 11:08Así que permítanme quitarme este casco.
-
11:09 - 11:13Sí, no se preocupen,
no se siente tan mal como parece. -
11:13 - 11:16(Risas)
-
11:17 - 11:19Hasta aquí hemos llegado.
-
11:19 - 11:21Dejen que me lo vuelva a poner.
-
11:21 - 11:22(Risas)
-
11:25 - 11:27Hasta aquí hemos llegado.
-
11:28 - 11:32Estamos a las puertas de poder interactuar
con seres humanos digitales -
11:32 - 11:34que sean sorprendentemente reales,
-
11:34 - 11:37ya sea que estén controlados
por una persona o una máquina. -
11:37 - 11:42Y, como todas las tecnologías
nuevas en la actualidad, -
11:42 - 11:47tendrá algunas implicancias serias
-
11:47 - 11:49que tendremos que abordar.
-
11:50 - 11:52Pero en verdad estoy muy emocionado
-
11:52 - 11:57por la capacidad de traer algo
que solo he visto en la ciencia ficción -
11:57 - 11:59durante toda mi vida
-
12:00 - 12:01a la realidad.
-
12:02 - 12:06Podremos comunicarnos con computadoras
como si habláramos con un amigo. -
12:06 - 12:09Y charlar con mis amigos que viven lejos
-
12:09 - 12:12será como si estuviéramos
en la misma habitación. -
12:13 - 12:14Muchas gracias.
-
12:14 - 12:19(Aplausos)
- Title:
- Seres humanos digitales que lucen igual a nosotros
- Speaker:
- Doug Roble
- Description:
-
En esta extraordinaria charla y demostración tecnológica, el ingeniero de software Doug Roble presenta por primera vez a "DigiDoug": una representación digital 3D en tiempo real de sí mismo que muestra hasta los detalles de sus poros y arrugas. Gracias a un traje de captura de movimientos inercial, redes neurales profundas y enormes cantidades de información, DigiDoug representa las emociones reales de Doug, incluso detalles como su circulación y el movimiento de sus pestañas, con asombrosa precisión. Aprende más sobre cómo se construyó esta emocionante tecnología, cómo podría aplicarse en las películas y más.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:34
Jenny Lam approved Spanish subtitles for Digital humans that look just like us | ||
Jenny Lam edited Spanish subtitles for Digital humans that look just like us | ||
Jenny Lam edited Spanish subtitles for Digital humans that look just like us | ||
Silvina Katz accepted Spanish subtitles for Digital humans that look just like us | ||
Silvina Katz edited Spanish subtitles for Digital humans that look just like us | ||
Silvina Katz edited Spanish subtitles for Digital humans that look just like us | ||
Silvina Katz edited Spanish subtitles for Digital humans that look just like us | ||
Silvina Katz edited Spanish subtitles for Digital humans that look just like us |