Return to Video

La tecnología morfo-dinámica cambiará al trabajo como lo conocemos

  • 0:01 - 0:04
    Hemos evolucionado con las
    herramientas y estas con nosotros.
  • 0:04 - 0:09
    Nuestros ancestros crearon estas
    hachas de mano hace 1,5 millones de años,
  • 0:09 - 0:12
    moldeándolas no solo para ajustar
    una tarea a las manos,
  • 0:12 - 0:14
    sino también a "sus" manos.
  • 0:15 - 0:16
    Sin embargo, con los años,
  • 0:16 - 0:19
    estas se han especializado
    cada vez más.
  • 0:19 - 0:23
    Estas herramientas de esculpir
    han evolucionado con el uso,
  • 0:23 - 0:27
    y cada una tiene una forma diferente
    que corresponde a su función.
  • 0:27 - 0:29
    Y aprovechan la destreza
    de nuestras manos
  • 0:29 - 0:33
    para manipular cosas
    con mucha más precisión.
  • 0:33 - 0:36
    Pero como las herramientas se han
    vuelto cada vez más complejas,
  • 0:36 - 0:40
    necesitamos controles más complejos
    para manejarlas.
  • 0:41 - 0:45
    Los diseñadores se han vuelto
    hábiles para crear interfaces
  • 0:45 - 0:49
    que nos permitan manipular parámetros
    mientras atendemos otras cosas,
  • 0:49 - 0:52
    como tomar una fotografía
    y cambiar el enfoque,
  • 0:52 - 0:53
    o la apertura.
  • 0:54 - 0:58
    Pero la PC ha cambiado fundamentalmente
    la forma en que vemos las herramientas
  • 0:58 - 1:00
    porque la computación es dinámica.
  • 1:01 - 1:03
    Así que uno puede hacer
    un millón de cosas diferentes
  • 1:03 - 1:05
    y ejecutar un millón de
    aplicaciones diferentes.
  • 1:05 - 1:09
    Sin embargo, la PC tiene
    la misma forma física estática
  • 1:09 - 1:11
    para todas esas diferentes aplicaciones
  • 1:11 - 1:14
    y los mismos elementos de
    una interfaz también estática.
  • 1:14 - 1:16
    Y creo que esto es
    fundamentalmente un problema,
  • 1:16 - 1:19
    porque realmente no nos permite
    interactuar con las manos
  • 1:19 - 1:23
    y capturar toda la destreza
    que tenemos en el cuerpo.
  • 1:24 - 1:29
    Mi idea es que, por ende, necesitamos
    un nuevo tipo de interfaces
  • 1:29 - 1:32
    que pueda capturar estas
    ricas capacidades que tenemos
  • 1:32 - 1:35
    y que puedan adaptarse
    físicamente a nosotros
  • 1:35 - 1:37
    y permitirnos interactuar
    en nuevas formas.
  • 1:37 - 1:40
    Y eso es lo que he estado
    haciendo en el Media Lab del MIT
  • 1:40 - 1:41
    y ahora en Stanford.
  • 1:42 - 1:46
    Así que, con mis colegas
    Daniel Leithinger y Hiroshi Ishii,
  • 1:46 - 1:47
    creamos inFORM,
  • 1:47 - 1:49
    donde la interfaz puede
    de hecho salir de la pantalla
  • 1:49 - 1:52
    y se puede manipular físicamente.
  • 1:52 - 1:55
    O se puede visualizar físicamente
    información en 3D
  • 1:55 - 1:58
    y tocarla y sentirla para
    entenderla de nuevas formas.
  • 2:04 - 2:08
    O se puede interactuar a través
    de gestos y deformaciones directas
  • 2:08 - 2:11
    para esculpir en plastilina digital.
  • 2:14 - 2:18
    O pueden surgir de la superficie
    elementos de la interfaz
  • 2:18 - 2:19
    y cambiar según la demanda.
  • 2:19 - 2:21
    Y la idea es que para
    cada aplicación individual,
  • 2:22 - 2:25
    la forma física se puede
    ajustar a la aplicación.
  • 2:25 - 2:27
    Y creo que esto representa
    una nueva forma
  • 2:27 - 2:29
    de interactuar con la información,
  • 2:29 - 2:31
    haciéndola física.
  • 2:31 - 2:33
    Así que la pregunta es,
    ¿cómo usaremos esto?
  • 2:34 - 2:38
    Tradicionalmente, los urbanistas
    y arquitectos construyen modelos físicos
  • 2:38 - 2:40
    de ciudades y edificios
    para entenderlos mejor.
  • 2:40 - 2:45
    Con Tony Tang en el Media Lab, creamos
    una interfaz construida en inFORM
  • 2:45 - 2:50
    para permitir a los urbanistas
    diseñar y ver ciudades enteras.
  • 2:50 - 2:54
    Y ahora se la puede recorrer,
    pero es dinámica, es física,
  • 2:54 - 2:56
    hasta pueden interactuar en directo.
  • 2:56 - 2:57
    O pueden ver diferentes vistas,
  • 2:57 - 3:00
    como información de población
    o de tránsito,
  • 3:00 - 3:02
    pero de manera física.
  • 3:03 - 3:07
    Creemos también que esta forma dinámica
    muestra que se pueden cambiar
  • 3:07 - 3:10
    las formas de colaborar
    remotamente con la gente.
  • 3:10 - 3:12
    Así, cuando trabajamos
    juntos presencialmente,
  • 3:12 - 3:14
    no solo los miro frente a frente
  • 3:14 - 3:17
    sino que también estoy gestualizando
    y manipulando objetos.
  • 3:17 - 3:21
    Y eso es realmente difícil de hacer
    con herramientas como Skype.
  • 3:22 - 3:25
    Con inFORM, pueden acceder
    desde la pantalla
  • 3:25 - 3:27
    y manipular cosas a cierta distancia.
  • 3:27 - 3:30
    Y se usan pines de visualización
    para representar las manos,
  • 3:30 - 3:36
    permitiendo de hecho tocar
    y manipular objetos a distancia.
  • 3:39 - 3:43
    Además, se puede manipular y también
    colaborar en conjuntos de datos 3D.
  • 3:43 - 3:46
    Así que también les pueden
    hacer gestos y manipularlos.
  • 3:47 - 3:51
    Y eso permite a la gente colaborar
    en estos nuevos tipos de información 3D
  • 3:51 - 3:55
    de forma más rica de lo que podría
    ser con los recursos tradicionales.
  • 3:56 - 3:59
    Y luego también pueden
    traer objetos existentes
  • 3:59 - 4:02
    y capturarlos por un lado
    y transmitirlos por otro.
  • 4:02 - 4:05
    O pueden tener un objeto
    vinculado en dos lugares.
  • 4:05 - 4:07
    Así, cuando muevo un balón en un lado,
  • 4:07 - 4:09
    el balón también se mueve en el otro.
  • 4:10 - 4:13
    Y hacemos esto capturando
    al usuario remoto
  • 4:13 - 4:16
    con una cámara espacio-sensorial
    como la Kinect, de Microsoft.
  • 4:17 - 4:20
    Ahora, se podrían estar preguntando
    cómo funciona todo esto,
  • 4:20 - 4:23
    y esencialmente, son
    900 accionadores en línea
  • 4:23 - 4:26
    conectados a estas conexiones mecánicas
  • 4:26 - 4:30
    que permiten que la acción de aquí abajo
    se propague a estos pines de arriba.
  • 4:30 - 4:33
    No es complejo comparado
    a lo que sucede en el CERN,
  • 4:33 - 4:35
    pero construirlo nos llevó mucho tiempo.
  • 4:35 - 4:38
    Empezamos con un solo motor,
  • 4:38 - 4:39
    un solo accionador lineal,
  • 4:40 - 4:43
    y luego tuvimos que diseñar una placa
    de circuito a medida para controlarlos.
  • 4:43 - 4:45
    Más tarde tuvimos que hacer muchos más.
  • 4:45 - 4:49
    Y el problema de hacer 900 de estos,
  • 4:49 - 4:52
    es que hay que hacer cada paso 900 veces.
  • 4:52 - 4:54
    Por eso había mucho por hacer.
  • 4:54 - 4:58
    Y, por así decirlo, pusimos una
    mini planta explotadora en Media Lab,
  • 4:58 - 5:02
    trajimos universitarios y los
    convencimos de hacer "investigación".
  • 5:02 - 5:03
    (Risas)
  • 5:03 - 5:06
    Tuvimos madrugadas de películas y pizza,
  • 5:06 - 5:08
    atornillando miles de tuercas.
  • 5:08 - 5:09
    Ya saben, investigación.
  • 5:09 - 5:10
    (Risas)
  • 5:10 - 5:14
    Como sea, pienso que
    nos entusiasmaron mucho las cosas
  • 5:14 - 5:15
    que nos permitió hacer inFORM.
  • 5:16 - 5:20
    Estamos usando, cada vez más, equipos
    móviles, e interactuando donde sea.
  • 5:20 - 5:22
    Pero estos dispositivos,
    tanto como las PC's,
  • 5:22 - 5:25
    son usados para muchas
    aplicaciones diferentes.
  • 5:25 - 5:27
    Se usan para hablar por teléfono,
  • 5:27 - 5:30
    para navegar en la web,
    jugar videojuegos, tomar fotos,
  • 5:30 - 5:32
    e incluso para miles de otras cosas.
  • 5:32 - 5:35
    Pero, una vez más, tienen
    la misma forma física estática
  • 5:35 - 5:37
    para cada una de estas aplicaciones.
  • 5:37 - 5:40
    Por ello, queríamos llegar a tomar
    algunas de las mismas interacciones
  • 5:40 - 5:42
    que desarrollamos para inFORM
  • 5:42 - 5:44
    y llevarlas a dispositivos móviles.
  • 5:44 - 5:48
    Así que, en Stanford, creamos
    esta pantalla de borde háptico;
  • 5:48 - 5:51
    es un equipo móvil con una
    matriz de actuadores lineales
  • 5:51 - 5:53
    que pueden cambiar de forma,
  • 5:53 - 5:57
    pueden sentir en las manos dónde
    se está mientras se lee un libro.
  • 5:57 - 6:01
    O se pueden sentir en el bolsillo
    nuevos tipos de sensaciones táctiles,
  • 6:01 - 6:03
    más variadas que la vibración.
  • 6:03 - 6:06
    O botones que pueden emerger de
    un lado, permitiendo interactuar
  • 6:06 - 6:08
    donde uno quiera que estén.
  • 6:09 - 6:13
    O pueden jugar videojuegos
    y tener botones reales.
  • 6:14 - 6:15
    Y pudimos hacer esto
  • 6:15 - 6:20
    insertando 40 pequeños actuadores
    lineales dentro del dispositivo.
  • 6:20 - 6:22
    Eso permite no solo tocarlos
  • 6:22 - 6:24
    sino regresarlos también a su lugar.
  • 6:25 - 6:29
    También hemos observado otras formas
    de crear cambios de forma más complejas.
  • 6:29 - 6:33
    Así que hemos usado un actuador neumático
    para crear un equipo mutante
  • 6:33 - 6:36
    donde se puede ir de un modo
    muy similar a un teléfono,
  • 6:36 - 6:39
    a una pulsera en el proceso.
  • 6:40 - 6:43
    Así que junto con Ken Nakagaki
    en el Media Lab,
  • 6:43 - 6:45
    creamos esta nueva versión
    de alta resolución
  • 6:45 - 6:51
    que usa un rayo de servomotores para
    pasar de una pulsera interactiva
  • 6:51 - 6:54
    a un dispositivo de acceso táctil,
  • 6:54 - 6:56
    a un teléfono.
  • 6:56 - 6:58
    (Risas)
  • 6:58 - 7:00
    También estamos interesados
    en buscar formas
  • 7:00 - 7:03
    en las que los usuarios
    puedan deformar la interfaz
  • 7:03 - 7:06
    para darle formas en dispositivos
    que ellos quieran usar.
  • 7:06 - 7:08
    Así, pueden hacer algo como
    un controlador de juego,
  • 7:08 - 7:11
    y luego el sistema entenderá
    en qué forma está
  • 7:11 - 7:13
    y cambiar a ese modo.
  • 7:14 - 7:16
    Así que, ¿a dónde apunta esto?
  • 7:16 - 7:18
    ¿Cómo avanzamos a partir de aquí?
  • 7:18 - 7:20
    Creo, realmente, que hoy estamos
  • 7:20 - 7:23
    en esta nueva era de
    la Internet de las Cosas,
  • 7:23 - 7:25
    donde hay PC's por doquier,
  • 7:25 - 7:27
    en nuestros bolsillos, en las paredes,
  • 7:27 - 7:30
    están en casi todos los dispositivos que
    comprarán en los siguientes cinco años.
  • 7:31 - 7:33
    Pero ¿qué pasaría si dejáramos
    de pensar en dispositivos
  • 7:33 - 7:36
    y en vez de eso pensáramos en ambientes?
  • 7:36 - 7:39
    Y en cómo podemos tener
    muebles inteligentes
  • 7:39 - 7:42
    o habitaciones inteligentes,
    o ambientes inteligentes,
  • 7:42 - 7:45
    o ciudades que puedan adaptarse
    a nosotros físicamente,
  • 7:45 - 7:49
    y nos permitan tener nuevas formas
    de colaboración con la gente
  • 7:49 - 7:51
    y hacer nuevos tipos de tareas.
  • 7:51 - 7:55
    Así, para la Semana del Diseño
    de Milán, hemos creado TRANSFORM,
  • 7:55 - 7:59
    una mesa interactiva a escala
    de estos visualizadores de forma
  • 7:59 - 8:02
    que puede mover objetos reales
    en la superficie y, por ejemplo,
  • 8:02 - 8:04
    recordarles llevar sus llaves.
  • 8:04 - 8:09
    Pero pueden transformarse también para
    ajustarse a distintas interacciones.
  • 8:09 - 8:10
    Así, si uno quiere trabajar,
  • 8:10 - 8:13
    pueden cambiar y adaptarse
    al sistema de trabajo.
  • 8:13 - 8:15
    Y mientras uno lleve
    el dispositivo consigo,
  • 8:15 - 8:18
    este creará todas las
    prestaciones necesarias
  • 8:18 - 8:23
    y otros objetos para ayudar
    a cumplir esos objetivos.
  • 8:25 - 8:27
    Así que, en conclusión,
  • 8:27 - 8:31
    realmente pienso que tenemos que
    pensar una forma nueva, muy diferente,
  • 8:31 - 8:33
    de interactuar con las PC's.
  • 8:34 - 8:37
    Necesitamos PC's que puedan
    adaptarse físicamente a nosotros
  • 8:37 - 8:39
    y adaptarse a las formas
    en las que necesitamos usarlas
  • 8:39 - 8:44
    y realmente aprovechar
    la destreza de las manos,
  • 8:44 - 8:48
    y la facultad de pensar espacialmente
    la información, haciéndola física.
  • 8:49 - 8:53
    Pero anticipándonos, creo que necesitamos
    ir más allá de los dispositivos,
  • 8:53 - 8:56
    para pensar realmente
    nuevas formas de unir a la gente,
  • 8:56 - 8:59
    de brindar nuestra información al mundo,
  • 8:59 - 9:03
    y pensar ambientes inteligentes que
    se adapten físicamente a nosotros.
  • 9:03 - 9:05
    Y con eso, me despido.
  • 9:05 - 9:06
    Muchas gracias.
  • 9:06 - 9:08
    (Aplausos)
Title:
La tecnología morfo-dinámica cambiará al trabajo como lo conocemos
Speaker:
Sean Follmer
Description:

¿Cómo se vería el mundo al trasladarnos más allá del teclado y el cursor? El diseñador de interacción Sean Follmer está construyendo el futuro con las máquinas que le dan vida a la información bajo tus dedos cuando trabajas justo con ella. En esta charla, revisa prototipos para una mesa que cambia de forma en 3D, un teléfono que se transforma en una pulsera, un comando de videojuegos deformable y otras cosas que podrían cambiar la manera en que vivimos y trabajamos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:22

Spanish subtitles

Revisions