Return to Video

A tecnologia de modelagem alomórfica mudará o trabalho como o conhecemos| Sean Follmer | TEDxCERN

  • 0:20 - 0:23
    Nós evoluímos com as ferramentas
    e as ferramentas evoluem conosco.
  • 0:23 - 0:28
    Nossos ancestrais criaram
    machados de mão há 1,5 milhões de anos
  • 0:28 - 0:31
    modelando-os não apenas
    para adequá-los às tarefas,
  • 0:31 - 0:34
    mas também às mãos deles.
  • 0:34 - 0:35
    No entanto, ao longo dos anos,
  • 0:35 - 0:38
    as ferramentas se tornaram
    cada vez mais especializadas.
  • 0:38 - 0:42
    Essas ferramentas esculpidas
    evoluíram através de sua utilização
  • 0:42 - 0:46
    e cada uma tem uma forma diferente
    que combina com a sua função,
  • 0:46 - 0:48
    influenciando a habilidade de nossas mãos,
  • 0:48 - 0:51
    a fim de manipular coisas
    com maior precisão.
  • 0:52 - 0:55
    Mas como as ferramentas se tornaram
    cada vez mais complexas,
  • 0:55 - 0:59
    precisamos de controles
    mais complexos para controlá-las.
  • 1:00 - 1:05
    E então os designers têm se tornado
    muito hábeis em criar interfaces
  • 1:05 - 1:08
    que permitem manipular parâmetros
    enquanto você lida com outras coisas,
  • 1:08 - 1:13
    como tirar uma fotografia
    e mudar o foco ao disparar.
  • 1:13 - 1:18
    Mas o computador mudou fundamentalmente
    nosso modo de pensar sobre as ferramentas,
  • 1:18 - 1:20
    porque a computação é dinâmica.
  • 1:20 - 1:22
    Então, ele faz milhares
    de coisas diferentes
  • 1:22 - 1:24
    e executa milhares
    de aplicações diferentes.
  • 1:24 - 1:28
    No entanto, os computadores têm
    a mesma forma física estática
  • 1:28 - 1:30
    para todas essas aplicações diferentes
  • 1:30 - 1:33
    e também a mesma interface
    de elementos estáticos.
  • 1:33 - 1:36
    E acredito que isso seja
    sobretudo um problema,
  • 1:36 - 1:39
    porque ele, de fato, não nos permite
    interagir com as nossas mãos
  • 1:39 - 1:42
    e usufruir da habilidade valiosa
    que temos em nossos corpos.
  • 1:43 - 1:48
    A minha convicção é que, desse jeito,
    precisaremos de novos tipos de interfaces
  • 1:48 - 1:52
    que possam capturar todas
    as capacidades valiosas que temos
  • 1:52 - 1:54
    e que possam se adaptar fisicamente a nós
  • 1:54 - 1:56
    e nos permitam interagir
    de novas maneiras.
  • 1:56 - 1:59
    E é isso que venho fazendo
    no Laboratório de Mídia do MIT,
  • 1:59 - 2:01
    e agora em Stanford.
  • 2:01 - 2:05
    Assim, com os meus colegas,
    Daniel Leithinger e Hiroshi Ishii,
  • 2:05 - 2:06
    criamos o inFORM,
  • 2:06 - 2:11
    no qual a interface pode sair da tela
    e você pode manipulá-la fisicamente.
  • 2:11 - 2:14
    Ou podemos visualizar
    a informação em 3D fisicamente
  • 2:14 - 2:18
    tocando-a, sentindo-a
    e compreendendo-a de novas formas.
  • 2:18 - 2:23
    Ou podemos interagir através
    de gestos e modelar diretamente,
  • 2:23 - 2:26
    esculpindo em argila digital.
  • 2:26 - 2:29
    Os elementos da interface
    podem sair da superfície
  • 2:29 - 2:31
    e serem alterados por demanda.
  • 2:31 - 2:33
    E a ideia é que,
    para cada aplicação individual,
  • 2:33 - 2:36
    a forma física poderá
    se combinar com a aplicação.
  • 2:36 - 2:39
    E acredito que isso represente
    uma nova forma
  • 2:39 - 2:43
    pela qual podemos interagir
    com a informação, tornando-a física.
  • 2:43 - 2:45
    Então, a pergunta é:
    como podemos usar isso?
  • 2:45 - 2:49
    Tradicionalmente, os planejadores urbanos
    e arquitetos constroem modelos físicos
  • 2:49 - 2:52
    de cidades e edifícios
    para melhor entendê-los.
  • 2:52 - 2:56
    Assim, com Tony Tang, no Lab. de Mídia,
    criamos uma interface construída no inFORM
  • 2:56 - 3:01
    que permite aos planejadores urbanos
    projetar e visualizar cidades inteiras.
  • 3:01 - 3:05
    Agora podemos andar ao seu redor,
    mas isso é dinâmico, físico,
  • 3:05 - 3:07
    e podemos também interagir diretamente,
  • 3:07 - 3:09
    ou visualizar em diferentes perspectivas,
  • 3:09 - 3:15
    como a população ou informação
    de tráfico, mas tudo feito fisicamente.
  • 3:15 - 3:18
    Acreditamos também que essa forma
    de modelagem dinâmica possa, de fato,
  • 3:18 - 3:21
    mudar o jeito que nós nos relacionamos
    remotamente com as pessoas.
  • 3:21 - 3:24
    Então, quando trabalhamos
    juntos, em pessoa,
  • 3:24 - 3:25
    eu não olho apenas para seu rosto,
  • 3:25 - 3:29
    mas também gesticulo e manipulo objetos,
  • 3:29 - 3:32
    e isso é realmente difícil de fazer
    quando usamos ferramentas como o Skype.
  • 3:34 - 3:38
    Dessa maneira, usando o inFORM,
    podemos, literalmente, pegar a sua tela
  • 3:38 - 3:40
    e manipular as coisas à distância.
  • 3:40 - 3:43
    Nós usamos os pinos da tela
    para representar as mãos das pessoas,
  • 3:43 - 3:48
    permitindo a elas, na prática,
    tocar e manipular objetos à distância.
  • 3:49 - 3:55
    E podemos também manipular
    e nos relacionar com dados 3D,
  • 3:55 - 3:58
    gesticular em torno deles,
    assim como manipulá-los.
  • 3:58 - 4:03
    E isso permite que as pessoas interajam
    com novos tipos de informação 3D
  • 4:03 - 4:06
    de uma forma mais rica do que a permitida
    com as ferramentas tradicionais.
  • 4:06 - 4:09
    E assim, podemos trazer
    objetos existentes,
  • 4:09 - 4:12
    e esses serão capturados de um lado
    e transmitidos do outro lado.
  • 4:12 - 4:15
    Ou temos um objeto que está
    vinculado em dois lugares,
  • 4:15 - 4:18
    de modo que movemos uma bola de um lado,
  • 4:18 - 4:20
    e ela se move do outro lado também.
  • 4:20 - 4:23
    E assim, fazemos isso através
    da captura do usuário remoto,
  • 4:23 - 4:26
    usando uma câmera com sensor
    de profundidade como a Microsoft Kinect.
  • 4:26 - 4:29
    Agora, vocês devem se perguntar
    como isso tudo funciona,
  • 4:29 - 4:33
    e, essencialmente,
    são 900 atuadores lineares
  • 4:33 - 4:35
    que estão conectados
    a estes sistemas mecânicos
  • 4:35 - 4:39
    que permitem que o movimento embaixo
    seja propagado nos pinos acima.
  • 4:39 - 4:43
    Então, isso não é complexo se comparado
    com o que está acontecendo no CERN,
  • 4:43 - 4:46
    mas levou um bom tempo
    para que o construíssemos.
  • 4:46 - 4:49
    Na verdade, tivemos que construí-lo
  • 4:49 - 4:52
    e então começamos com um único motor,
    um único atuador linear,
  • 4:53 - 4:56
    e projetamos um circuito personalizado
    de fronteira para controlá-los.
  • 4:56 - 4:58
    E então tivemos que fazer um monte deles.
  • 4:58 - 5:01
    O problema de ter 900 de algo
  • 5:01 - 5:05
    é que você tem que fazer
    900 vezes cada passo.
  • 5:05 - 5:07
    Então tivemos muito trabalho a fazer.
  • 5:07 - 5:11
    Criamos meio que uma confecção
    clandestina no Lab. de Mídia,
  • 5:11 - 5:15
    trouxemos estudantes de graduação
    e os convencemos a "pesquisar",
  • 5:15 - 5:16
    (Risos)
  • 5:16 - 5:19
    passamos noites assistindo
    filmes e comendo pizzas,
  • 5:19 - 5:21
    e apertando milhares de parafusos.
  • 5:21 - 5:22
    Sabem como é, pesquisa.
  • 5:22 - 5:23
    (Risos)
  • 5:23 - 5:27
    Mas de qualquer forma, acho que estávamos
    realmente animados com as coisas
  • 5:27 - 5:29
    que o inFORM nos permitiu fazer.
  • 5:29 - 5:31
    De qualquer forma, cada vez mais,
  • 5:31 - 5:35
    usávamos dispositivos
    móveis e interagíamos em movimento,
  • 5:35 - 5:37
    mas dispositivos móveis,
    assim como computadores,
  • 5:37 - 5:40
    são usados para diferentes aplicações.
  • 5:40 - 5:42
    Nós os usamos para falar ao celular,
  • 5:42 - 5:45
    navegar na internet,
    jogar videogames, tirar fotos
  • 5:45 - 5:47
    e milhares de coisas diferentes.
  • 5:47 - 5:50
    Mas, novamente, temos
    a mesma forma física estática
  • 5:50 - 5:52
    para cada uma dessas aplicações.
  • 5:52 - 5:55
    E queríamos saber como podíamos
    pegar algumas dessas interações
  • 5:55 - 5:57
    que desenvolvemos para o inFORM
  • 5:57 - 5:59
    e trazê-las para os dispositivos móveis.
  • 5:59 - 6:03
    Então em Stanford, criamos
    um dispositivo de interface háptica,
  • 6:03 - 6:06
    que é um dispositivo móvel
    com uma série de atuadores lineares
  • 6:06 - 6:08
    que alteram a forma,
  • 6:08 - 6:12
    assim você o sente em suas mãos,
    onde estiver, como se lesse um livro.
  • 6:12 - 6:16
    Ou pode sentir em seu bolso
    novos tipos de sensações táteis
  • 6:16 - 6:18
    que são mais ricas que as vibrações.
  • 6:18 - 6:21
    Ou botões que podem surgir
    do lado que você queira interagir
  • 6:21 - 6:23
    onde você quiser que eles estejam.
  • 6:23 - 6:27
    Ou você pode jogar com botões reais.
  • 6:28 - 6:30
    E fomos capazes de fazer isso,
  • 6:30 - 6:34
    embutindo 40 atuadores lineares
    minúsculos dentro do dispositivo,
  • 6:34 - 6:38
    e isso permitiu não apenas tocá-los,
    mas recuá-los também.
  • 6:39 - 6:44
    Mas procurávamos outras formas de criar
    uma alteração de modelagem mais complexa.
  • 6:44 - 6:48
    Então usamos um atuador pneumático
    para criar um dispositivo amorfo,
  • 6:48 - 6:51
    que pode passar de algo
    parecido com um telefone
  • 6:51 - 6:54
    a uma pulseira móvel.
  • 6:54 - 6:57
    Juntamente com Ken Nakagaki,
    no Lab. de Mídia,
  • 6:57 - 6:59
    criamos uma nova versão de alta resolução
  • 6:59 - 7:05
    que usa uma descarga de servo motores
    alterando a interatividade da pulseira,
  • 7:05 - 7:08
    com dispositivo de toque,
  • 7:08 - 7:09
    e se torna um telefone.
  • 7:09 - 7:11
    (Risos)
  • 7:11 - 7:14
    Também estamos interessados
    em procurar novas formas
  • 7:14 - 7:16
    nas quais os usuários possam
    moldar suas interfaces,
  • 7:16 - 7:19
    no formato dos dispositivos
    que eles queiram usar.
  • 7:19 - 7:22
    Podemos fazer algo,
    como um controle de videogame,
  • 7:22 - 7:26
    e então o sistema entenderá
    essa modelagem podendo alterá-la.
  • 7:26 - 7:30
    Então, qual é o caminho?
    Como avançaremos a partir daqui?
  • 7:30 - 7:32
    Eu acho, realmente, que estamos hoje
  • 7:32 - 7:35
    na nova era da "internet das coisas",
  • 7:35 - 7:39
    na qual temos computadores em todo lugar:
    eles estão em nossos bolsos e nas paredes,
  • 7:39 - 7:42
    eles estarão em todos os dispositivos
    que compraremos nos próximos cinco anos.
  • 7:42 - 7:45
    Mas, e se pararmos
    de pensar em dispositivos,
  • 7:45 - 7:48
    e, em vez disso, pensarmos em ambientes?
  • 7:48 - 7:50
    Como podemos ter móveis inteligentes,
  • 7:50 - 7:54
    ou salas ou ambientes inteligentes,
  • 7:54 - 7:57
    ou cidades que possam
    se adaptar a nós fisicamente,
  • 7:57 - 8:01
    e nos permitam novas formas
    de interagir com as pessoas
  • 8:01 - 8:03
    fazendo novos tipos de tarefas?
  • 8:03 - 8:06
    Então, para a Semana de Design
    de Milão criamos o TRANSFORM,
  • 8:06 - 8:10
    que permite uma versão interativa
    em escala com dispositivos de modelagem,
  • 8:10 - 8:13
    na qual movemos objetos
    fisicamente na superfície,
  • 8:13 - 8:16
    por exemplo, lembrando que você
    tem que pegar suas chaves.
  • 8:16 - 8:21
    Mas, também podemos transformá-la
    em novos modos diferentes de interação.
  • 8:21 - 8:22
    Se você quiser trabalhar,
  • 8:22 - 8:25
    então pode alterá-la para montar
    seu sistema de trabalho.
  • 8:25 - 8:27
    E assim, trazer um dispositivo a mais,
  • 8:27 - 8:30
    criando todas as conveniências
    que você precisa
  • 8:30 - 8:34
    e trazendo outros objetos que possam
    ajudá-lo a acompanhar suas metas.
  • 8:34 - 8:36
    Concluindo,
  • 8:36 - 8:40
    eu, realmente, acho que precisamos pensar
    a respeito de novas formas diferentes
  • 8:40 - 8:42
    de interagir com computadores.
  • 8:42 - 8:46
    Precisamos de computadores
    que se adaptem fisicamente a nós,
  • 8:46 - 8:48
    e ao modo que queremos usá-los,
  • 8:48 - 8:53
    e que aproveitem as habilidades valiosas
    que temos em nossas mãos,
  • 8:53 - 8:58
    e nossa capacidade de pensar espacialmente
    sobre informação, tornando-a física.
  • 8:58 - 9:02
    Porém, olhando adiante, precisamos
    ir além disso, ir além de dispositivos,
  • 9:02 - 9:05
    e pensar em novas formas
    com as quais possamos unir as pessoas
  • 9:05 - 9:08
    e trazer nossas informações para o mundo,
  • 9:08 - 9:12
    e pensar sobre ambientes inteligentes
    que possam se adaptar fisicamente a nós.
  • 9:12 - 9:14
    Então, com isso, irei deixá-los.
  • 9:14 - 9:15
    Muito obrigado.
  • 9:15 - 9:17
    (Aplausos)
Title:
A tecnologia de modelagem alomórfica mudará o trabalho como o conhecemos| Sean Follmer | TEDxCERN
Description:

Esta palestra foi dada em um evento TEDx, que usa o formato de conferência TED, mas é organizado de forma independente por uma comunidade local. Para saber mais visite http://ted.com/tedx

Como será o mundo quando nos movermos para além do teclado e do mouse? O designer de interação Sean Follmer está construindo um futuro com máquinas que dão vida a informações sob os nossos dedos enquanto trabalhamos com elas. Nesta palestra, veja os protótipos de uma mesa que se modela em 3D, um telefone que se transforma em uma pulseira, e um controle de vídeo game deformável que podem mudar a forma como vivemos e trabalhamos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
09:26

Portuguese, Brazilian subtitles

Revisions