A tecnologia de modelagem alomórfica mudará o trabalho como o conhecemos| Sean Follmer | TEDxCERN
-
0:20 - 0:23Nós evoluímos com as ferramentas
e as ferramentas evoluem conosco. -
0:23 - 0:28Nossos ancestrais criaram
machados de mão há 1,5 milhões de anos -
0:28 - 0:31modelando-os não apenas
para adequá-los às tarefas, -
0:31 - 0:34mas também às mãos deles.
-
0:34 - 0:35No entanto, ao longo dos anos,
-
0:35 - 0:38as ferramentas se tornaram
cada vez mais especializadas. -
0:38 - 0:42Essas ferramentas esculpidas
evoluíram através de sua utilização -
0:42 - 0:46e cada uma tem uma forma diferente
que combina com a sua função, -
0:46 - 0:48influenciando a habilidade de nossas mãos,
-
0:48 - 0:51a fim de manipular coisas
com maior precisão. -
0:52 - 0:55Mas como as ferramentas se tornaram
cada vez mais complexas, -
0:55 - 0:59precisamos de controles
mais complexos para controlá-las. -
1:00 - 1:05E então os designers têm se tornado
muito hábeis em criar interfaces -
1:05 - 1:08que permitem manipular parâmetros
enquanto você lida com outras coisas, -
1:08 - 1:13como tirar uma fotografia
e mudar o foco ao disparar. -
1:13 - 1:18Mas o computador mudou fundamentalmente
nosso modo de pensar sobre as ferramentas, -
1:18 - 1:20porque a computação é dinâmica.
-
1:20 - 1:22Então, ele faz milhares
de coisas diferentes -
1:22 - 1:24e executa milhares
de aplicações diferentes. -
1:24 - 1:28No entanto, os computadores têm
a mesma forma física estática -
1:28 - 1:30para todas essas aplicações diferentes
-
1:30 - 1:33e também a mesma interface
de elementos estáticos. -
1:33 - 1:36E acredito que isso seja
sobretudo um problema, -
1:36 - 1:39porque ele, de fato, não nos permite
interagir com as nossas mãos -
1:39 - 1:42e usufruir da habilidade valiosa
que temos em nossos corpos. -
1:43 - 1:48A minha convicção é que, desse jeito,
precisaremos de novos tipos de interfaces -
1:48 - 1:52que possam capturar todas
as capacidades valiosas que temos -
1:52 - 1:54e que possam se adaptar fisicamente a nós
-
1:54 - 1:56e nos permitam interagir
de novas maneiras. -
1:56 - 1:59E é isso que venho fazendo
no Laboratório de Mídia do MIT, -
1:59 - 2:01e agora em Stanford.
-
2:01 - 2:05Assim, com os meus colegas,
Daniel Leithinger e Hiroshi Ishii, -
2:05 - 2:06criamos o inFORM,
-
2:06 - 2:11no qual a interface pode sair da tela
e você pode manipulá-la fisicamente. -
2:11 - 2:14Ou podemos visualizar
a informação em 3D fisicamente -
2:14 - 2:18tocando-a, sentindo-a
e compreendendo-a de novas formas. -
2:18 - 2:23Ou podemos interagir através
de gestos e modelar diretamente, -
2:23 - 2:26esculpindo em argila digital.
-
2:26 - 2:29Os elementos da interface
podem sair da superfície -
2:29 - 2:31e serem alterados por demanda.
-
2:31 - 2:33E a ideia é que,
para cada aplicação individual, -
2:33 - 2:36a forma física poderá
se combinar com a aplicação. -
2:36 - 2:39E acredito que isso represente
uma nova forma -
2:39 - 2:43pela qual podemos interagir
com a informação, tornando-a física. -
2:43 - 2:45Então, a pergunta é:
como podemos usar isso? -
2:45 - 2:49Tradicionalmente, os planejadores urbanos
e arquitetos constroem modelos físicos -
2:49 - 2:52de cidades e edifícios
para melhor entendê-los. -
2:52 - 2:56Assim, com Tony Tang, no Lab. de Mídia,
criamos uma interface construída no inFORM -
2:56 - 3:01que permite aos planejadores urbanos
projetar e visualizar cidades inteiras. -
3:01 - 3:05Agora podemos andar ao seu redor,
mas isso é dinâmico, físico, -
3:05 - 3:07e podemos também interagir diretamente,
-
3:07 - 3:09ou visualizar em diferentes perspectivas,
-
3:09 - 3:15como a população ou informação
de tráfico, mas tudo feito fisicamente. -
3:15 - 3:18Acreditamos também que essa forma
de modelagem dinâmica possa, de fato, -
3:18 - 3:21mudar o jeito que nós nos relacionamos
remotamente com as pessoas. -
3:21 - 3:24Então, quando trabalhamos
juntos, em pessoa, -
3:24 - 3:25eu não olho apenas para seu rosto,
-
3:25 - 3:29mas também gesticulo e manipulo objetos,
-
3:29 - 3:32e isso é realmente difícil de fazer
quando usamos ferramentas como o Skype. -
3:34 - 3:38Dessa maneira, usando o inFORM,
podemos, literalmente, pegar a sua tela -
3:38 - 3:40e manipular as coisas à distância.
-
3:40 - 3:43Nós usamos os pinos da tela
para representar as mãos das pessoas, -
3:43 - 3:48permitindo a elas, na prática,
tocar e manipular objetos à distância. -
3:49 - 3:55E podemos também manipular
e nos relacionar com dados 3D, -
3:55 - 3:58gesticular em torno deles,
assim como manipulá-los. -
3:58 - 4:03E isso permite que as pessoas interajam
com novos tipos de informação 3D -
4:03 - 4:06de uma forma mais rica do que a permitida
com as ferramentas tradicionais. -
4:06 - 4:09E assim, podemos trazer
objetos existentes, -
4:09 - 4:12e esses serão capturados de um lado
e transmitidos do outro lado. -
4:12 - 4:15Ou temos um objeto que está
vinculado em dois lugares, -
4:15 - 4:18de modo que movemos uma bola de um lado,
-
4:18 - 4:20e ela se move do outro lado também.
-
4:20 - 4:23E assim, fazemos isso através
da captura do usuário remoto, -
4:23 - 4:26usando uma câmera com sensor
de profundidade como a Microsoft Kinect. -
4:26 - 4:29Agora, vocês devem se perguntar
como isso tudo funciona, -
4:29 - 4:33e, essencialmente,
são 900 atuadores lineares -
4:33 - 4:35que estão conectados
a estes sistemas mecânicos -
4:35 - 4:39que permitem que o movimento embaixo
seja propagado nos pinos acima. -
4:39 - 4:43Então, isso não é complexo se comparado
com o que está acontecendo no CERN, -
4:43 - 4:46mas levou um bom tempo
para que o construíssemos. -
4:46 - 4:49Na verdade, tivemos que construí-lo
-
4:49 - 4:52e então começamos com um único motor,
um único atuador linear, -
4:53 - 4:56e projetamos um circuito personalizado
de fronteira para controlá-los. -
4:56 - 4:58E então tivemos que fazer um monte deles.
-
4:58 - 5:01O problema de ter 900 de algo
-
5:01 - 5:05é que você tem que fazer
900 vezes cada passo. -
5:05 - 5:07Então tivemos muito trabalho a fazer.
-
5:07 - 5:11Criamos meio que uma confecção
clandestina no Lab. de Mídia, -
5:11 - 5:15trouxemos estudantes de graduação
e os convencemos a "pesquisar", -
5:15 - 5:16(Risos)
-
5:16 - 5:19passamos noites assistindo
filmes e comendo pizzas, -
5:19 - 5:21e apertando milhares de parafusos.
-
5:21 - 5:22Sabem como é, pesquisa.
-
5:22 - 5:23(Risos)
-
5:23 - 5:27Mas de qualquer forma, acho que estávamos
realmente animados com as coisas -
5:27 - 5:29que o inFORM nos permitiu fazer.
-
5:29 - 5:31De qualquer forma, cada vez mais,
-
5:31 - 5:35usávamos dispositivos
móveis e interagíamos em movimento, -
5:35 - 5:37mas dispositivos móveis,
assim como computadores, -
5:37 - 5:40são usados para diferentes aplicações.
-
5:40 - 5:42Nós os usamos para falar ao celular,
-
5:42 - 5:45navegar na internet,
jogar videogames, tirar fotos -
5:45 - 5:47e milhares de coisas diferentes.
-
5:47 - 5:50Mas, novamente, temos
a mesma forma física estática -
5:50 - 5:52para cada uma dessas aplicações.
-
5:52 - 5:55E queríamos saber como podíamos
pegar algumas dessas interações -
5:55 - 5:57que desenvolvemos para o inFORM
-
5:57 - 5:59e trazê-las para os dispositivos móveis.
-
5:59 - 6:03Então em Stanford, criamos
um dispositivo de interface háptica, -
6:03 - 6:06que é um dispositivo móvel
com uma série de atuadores lineares -
6:06 - 6:08que alteram a forma,
-
6:08 - 6:12assim você o sente em suas mãos,
onde estiver, como se lesse um livro. -
6:12 - 6:16Ou pode sentir em seu bolso
novos tipos de sensações táteis -
6:16 - 6:18que são mais ricas que as vibrações.
-
6:18 - 6:21Ou botões que podem surgir
do lado que você queira interagir -
6:21 - 6:23onde você quiser que eles estejam.
-
6:23 - 6:27Ou você pode jogar com botões reais.
-
6:28 - 6:30E fomos capazes de fazer isso,
-
6:30 - 6:34embutindo 40 atuadores lineares
minúsculos dentro do dispositivo, -
6:34 - 6:38e isso permitiu não apenas tocá-los,
mas recuá-los também. -
6:39 - 6:44Mas procurávamos outras formas de criar
uma alteração de modelagem mais complexa. -
6:44 - 6:48Então usamos um atuador pneumático
para criar um dispositivo amorfo, -
6:48 - 6:51que pode passar de algo
parecido com um telefone -
6:51 - 6:54a uma pulseira móvel.
-
6:54 - 6:57Juntamente com Ken Nakagaki,
no Lab. de Mídia, -
6:57 - 6:59criamos uma nova versão de alta resolução
-
6:59 - 7:05que usa uma descarga de servo motores
alterando a interatividade da pulseira, -
7:05 - 7:08com dispositivo de toque,
-
7:08 - 7:09e se torna um telefone.
-
7:09 - 7:11(Risos)
-
7:11 - 7:14Também estamos interessados
em procurar novas formas -
7:14 - 7:16nas quais os usuários possam
moldar suas interfaces, -
7:16 - 7:19no formato dos dispositivos
que eles queiram usar. -
7:19 - 7:22Podemos fazer algo,
como um controle de videogame, -
7:22 - 7:26e então o sistema entenderá
essa modelagem podendo alterá-la. -
7:26 - 7:30Então, qual é o caminho?
Como avançaremos a partir daqui? -
7:30 - 7:32Eu acho, realmente, que estamos hoje
-
7:32 - 7:35na nova era da "internet das coisas",
-
7:35 - 7:39na qual temos computadores em todo lugar:
eles estão em nossos bolsos e nas paredes, -
7:39 - 7:42eles estarão em todos os dispositivos
que compraremos nos próximos cinco anos. -
7:42 - 7:45Mas, e se pararmos
de pensar em dispositivos, -
7:45 - 7:48e, em vez disso, pensarmos em ambientes?
-
7:48 - 7:50Como podemos ter móveis inteligentes,
-
7:50 - 7:54ou salas ou ambientes inteligentes,
-
7:54 - 7:57ou cidades que possam
se adaptar a nós fisicamente, -
7:57 - 8:01e nos permitam novas formas
de interagir com as pessoas -
8:01 - 8:03fazendo novos tipos de tarefas?
-
8:03 - 8:06Então, para a Semana de Design
de Milão criamos o TRANSFORM, -
8:06 - 8:10que permite uma versão interativa
em escala com dispositivos de modelagem, -
8:10 - 8:13na qual movemos objetos
fisicamente na superfície, -
8:13 - 8:16por exemplo, lembrando que você
tem que pegar suas chaves. -
8:16 - 8:21Mas, também podemos transformá-la
em novos modos diferentes de interação. -
8:21 - 8:22Se você quiser trabalhar,
-
8:22 - 8:25então pode alterá-la para montar
seu sistema de trabalho. -
8:25 - 8:27E assim, trazer um dispositivo a mais,
-
8:27 - 8:30criando todas as conveniências
que você precisa -
8:30 - 8:34e trazendo outros objetos que possam
ajudá-lo a acompanhar suas metas. -
8:34 - 8:36Concluindo,
-
8:36 - 8:40eu, realmente, acho que precisamos pensar
a respeito de novas formas diferentes -
8:40 - 8:42de interagir com computadores.
-
8:42 - 8:46Precisamos de computadores
que se adaptem fisicamente a nós, -
8:46 - 8:48e ao modo que queremos usá-los,
-
8:48 - 8:53e que aproveitem as habilidades valiosas
que temos em nossas mãos, -
8:53 - 8:58e nossa capacidade de pensar espacialmente
sobre informação, tornando-a física. -
8:58 - 9:02Porém, olhando adiante, precisamos
ir além disso, ir além de dispositivos, -
9:02 - 9:05e pensar em novas formas
com as quais possamos unir as pessoas -
9:05 - 9:08e trazer nossas informações para o mundo,
-
9:08 - 9:12e pensar sobre ambientes inteligentes
que possam se adaptar fisicamente a nós. -
9:12 - 9:14Então, com isso, irei deixá-los.
-
9:14 - 9:15Muito obrigado.
-
9:15 - 9:17(Aplausos)
- Title:
- A tecnologia de modelagem alomórfica mudará o trabalho como o conhecemos| Sean Follmer | TEDxCERN
- Description:
-
Esta palestra foi dada em um evento TEDx, que usa o formato de conferência TED, mas é organizado de forma independente por uma comunidade local. Para saber mais visite http://ted.com/tedx
Como será o mundo quando nos movermos para além do teclado e do mouse? O designer de interação Sean Follmer está construindo um futuro com máquinas que dão vida a informações sob os nossos dedos enquanto trabalhamos com elas. Nesta palestra, veja os protótipos de uma mesa que se modela em 3D, um telefone que se transforma em uma pulseira, e um controle de vídeo game deformável que podem mudar a forma como vivemos e trabalhamos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 09:26