Return to Video

Les technologies de métamorphose vont transformer le travail

  • 0:01 - 0:04
    Nous avons évolué avec les outils,
    et ceux-ci ont évolué avec nous.
  • 0:04 - 0:09
    Nos ancêtres ont fabriqué ces haches
    il y a 1,5 millions d'années.
  • 0:09 - 0:12
    Ils les ont façonnées
    pour accomplir un travail précis,
  • 0:12 - 0:14
    et pour s'adapter à leur main.
  • 0:15 - 0:16
    Au fil du temps,
  • 0:16 - 0:19
    les outils se sont spécialisés
    progressivement.
  • 0:19 - 0:23
    Ces outils à sculpter
    ont évolué à travers leur usage.
  • 0:23 - 0:27
    Chacun a une forme qui lui est propre,
    adaptée à sa fonction.
  • 0:27 - 0:29
    Ils augmentent notre dextérité manuelle
  • 0:29 - 0:32
    afin de manipuler les objets
    avec plus de précision.
  • 0:33 - 0:36
    Leur complexité a augmenté aussi.
  • 0:36 - 0:41
    Leur gestion nécessite davantage
    de commandes sophistiquées.
  • 0:41 - 0:45
    Les concepteurs sont donc devenu experts
    pour développer des interfaces
  • 0:45 - 0:49
    qui permettent de manipuler des paramètres
    tout en accomplissant d'autres tâches,
  • 0:49 - 0:52
    comme par exemple prendre une photo
    et changer la mise au point,
  • 0:52 - 0:55
    ou le temps d'ouverture.
  • 0:55 - 0:58
    L'ordinateur a fondamentalement
    transformé notre vision des outils,
  • 0:58 - 1:01
    parce que la programmation est dynamique.
  • 1:01 - 1:03
    Une machine peut réaliser
    des millions de tâches,
  • 1:03 - 1:05
    et exploiter des millions
    d'applications différentes.
  • 1:05 - 1:09
    Cependant, l'aspect physique
    des ordinateurs est statique,
  • 1:09 - 1:11
    quelle que soit l'application.
  • 1:11 - 1:14
    Il en va de même pour les éléments
    des interfaces.
  • 1:14 - 1:16
    Je crois que là réside
    le problème fondamental.
  • 1:16 - 1:19
    Ça ne nous permet en effet pas
    d'interagir avec nos mains,
  • 1:19 - 1:23
    ou de faire appel à la dextérité
    que nos corps possèdent.
  • 1:24 - 1:29
    Je crois que nous devons développer
    des nouvelles interfaces,
  • 1:29 - 1:32
    qui peuvent saisir nos aptitudes
    dans toute leur complexité,
  • 1:32 - 1:35
    et qui peuvent s'adapter
    physiquement à nous,
  • 1:35 - 1:37
    pour nous permettre d'interagir
    sous des formes nouvelles.
  • 1:37 - 1:40
    C'est ce que j'ai fait
    au Media Lab du MIT,
  • 1:40 - 1:42
    et que je continue à Stanford.
  • 1:42 - 1:46
    Avec mes collègues
    Daniel Leithinger et Hiroshi Ishii,
  • 1:46 - 1:47
    nous avons créé inFORM,
  • 1:47 - 1:49
    une interface qui sort
    littéralement de l'écran,
  • 1:49 - 1:52
    et il est possible de la manipuler.
  • 1:52 - 1:55
    On peut aussi visualiser physiquement
    une information 3D,
  • 1:55 - 1:58
    la toucher, la tâter,
    pour l'appréhender sous un jour nouveau.
  • 2:04 - 2:07
    On peut aussi sculpter
    de l'argile digitale
  • 2:07 - 2:11
    en interagissant avec des gestes
    et des déformations directes.
  • 2:14 - 2:18
    Des éléments de l'interface peuvent
    s'ériger au-dessus de la surface,
  • 2:18 - 2:19
    et s'altérer à la demande.
  • 2:19 - 2:21
    Le principe est le suivant :
    pour chaque application,
  • 2:21 - 2:25
    la forme physique peut concorder
    avec l'application.
  • 2:25 - 2:27
    Je pense que ça représente
    une nouvelle manière
  • 2:27 - 2:31
    d'interagir avec les informations,
    en leur donnant une forme physique.
  • 2:31 - 2:34
    La question est donc de déterminer
    comment utiliser ça.
  • 2:34 - 2:38
    Les urbanistes et les architectes
    sont habitués à construire des maquettes
  • 2:38 - 2:40
    de leur villes et constructions
    pour mieux les comprendre.
  • 2:40 - 2:42
    Avec Tony Tang, au Media Lab,
  • 2:42 - 2:45
    nous avons construit
    une interface sur inFORM
  • 2:45 - 2:47
    qui donne la possibilité aux urbanistes
  • 2:47 - 2:50
    de concevoir et visualiser
    des villes entières.
  • 2:50 - 2:54
    On peut les parcourir.
    C'est dynamique et physique.
  • 2:54 - 2:56
    On peut aussi interagir directement.
  • 2:56 - 2:58
    On peut l'observer sous des angles divers,
  • 2:58 - 3:00
    selon des informations
    démographiques ou de trafic.
  • 3:00 - 3:02
    C'est un rendu physique.
  • 3:03 - 3:07
    Nous pensons que ces écrans
    de métamorphose dynamique peuvent changer
  • 3:07 - 3:10
    les façons de collaborer à distance.
  • 3:10 - 3:12
    Quand on travaille avec quelqu'un,
  • 3:12 - 3:14
    on la regarde, mais pas seulement.
  • 3:14 - 3:17
    On fait des gestes
    et on manipule des objets.
  • 3:17 - 3:21
    C'est très compliqué quand on utilise
    des outils tels Skype.
  • 3:22 - 3:25
    En utilisant inFORM,
    on peut rejoindre l'autre via l'écran,
  • 3:25 - 3:27
    et manipuler les objets à distance.
  • 3:27 - 3:30
    Les tiges de l'écran
    représentent des mains.
  • 3:30 - 3:35
    Ça permet à la personne de toucher
    et manipuler un objet à distance.
  • 3:39 - 3:43
    On peut aussi manipuler et collaborer
    sur des données 3D.
  • 3:43 - 3:46
    Ainsi, on peut faire des gestes
    autour de ces objets et les manipuler.
  • 3:47 - 3:51
    Ça permet aux gens de collaborer
    sur ces nouveaux types de données 3D,
  • 3:51 - 3:55
    de manière plus enrichissante
    qu'avec des outils traditionnels.
  • 3:56 - 3:59
    On peut utiliser des objets réels,
  • 3:59 - 4:02
    qui seront captés par la caméra d'un côté,
    et transmis de l'autre côté.
  • 4:02 - 4:05
    On pourrait aussi avoir un objet lié
    aux deux environnements :
  • 4:05 - 4:07
    quand je bouge le ballon d'un côté,
  • 4:07 - 4:09
    il bouge aussi de l'autre côté.
  • 4:10 - 4:13
    On parvient à ce résultat en captant
    l'utilisateur à distance,
  • 4:13 - 4:16
    avec une caméra de profondeur,
    comme Microsoft Kinect.
  • 4:17 - 4:20
    Vous vous demandez sans doute
    comment on fait.
  • 4:20 - 4:23
    En bref, il y a 900 actuateurs linéaires,
  • 4:23 - 4:26
    connectés à des articulations
    mécaniques,
  • 4:26 - 4:30
    qui rendent possible la propagation
    du mouvement aux tiges.
  • 4:30 - 4:33
    Rien de bien compliqué
    au regard de ce qui se passe au CERN.
  • 4:33 - 4:35
    On y a quand même passé pas mal de temps.
  • 4:35 - 4:39
    On a commencé avec un seul moteur,
    un seul actuateur linéaire.
  • 4:40 - 4:43
    On a ensuite conçu une carte
    dédiée à leur contrôle.
  • 4:43 - 4:45
    Ensuite, on les a multipliées.
  • 4:45 - 4:49
    Le problème quand on a 900 fois
    quelque chose,
  • 4:49 - 4:52
    c'est qu'on doit ré-itérer
    chaque étape 900 fois.
  • 4:52 - 4:54
    C'était un boulot incroyable.
  • 4:54 - 4:58
    On a établi un mini-atelier clandestin
    au Média Lab,
  • 4:58 - 5:02
    et convaincu les étudiants
    de contribuer à la science,
  • 5:02 - 5:03
    (Rires)
  • 5:03 - 5:06
    de passer des soirées
    à regarder des films et manger des pizzas,
  • 5:06 - 5:08
    tout en vissant des milliers de vis.
  • 5:08 - 5:09
    Tu sais... la recherche.
  • 5:09 - 5:10
    (Rires)
  • 5:10 - 5:14
    Nous étions tous enthousiasmés
    par toutes ces choses
  • 5:14 - 5:16
    qu'inFORM rendaient possibles.
  • 5:16 - 5:18
    De plus en plus, nous utilisons
    des mobiles,
  • 5:18 - 5:20
    et nous interagissons de manière nomade.
  • 5:20 - 5:22
    Mais les engins mobiles,
    comme les ordinateurs,
  • 5:22 - 5:25
    sont utilisés pour tant
    d'applications différentes.
  • 5:25 - 5:27
    On les utilise pour parler au téléphone,
  • 5:27 - 5:30
    pour naviguer sur le web, pour jouer,
    pour prendre des photos,
  • 5:30 - 5:32
    et un tas d'autres choses.
  • 5:32 - 5:35
    Hélas, ces instruments aussi
    ont une forme statique,
  • 5:35 - 5:37
    pour toutes les applications.
  • 5:37 - 5:40
    On a donc voulu savoir comment adapter
    certaines des interactions
  • 5:40 - 5:42
    développées pour inFORM,
  • 5:42 - 5:44
    et les intégrer
    dans les plateformes mobiles.
  • 5:44 - 5:48
    A Stanford, on a créé cet écran tactile
  • 5:48 - 5:51
    sur le côté d'un appareil mobile,
    muni d'une rangée d'actuateurs linéaires.
  • 5:51 - 5:53
    Il peut changer de forme.
  • 5:53 - 5:57
    On peut donc sentir avec la main
    où on en est quand on lit un livre.
  • 5:57 - 6:01
    En poche, on peut aussi sentir
    des sensations tactiles nouvelles,
  • 6:01 - 6:03
    plus riches que les vibreurs.
  • 6:03 - 6:06
    Des boutons peuvent apparaître
    pour interagir,
  • 6:06 - 6:08
    là où on souhaite
    qu'ils soient positionnés.
  • 6:09 - 6:13
    On peut jouer et avec des vrais manettes.
  • 6:15 - 6:20
    Tout ça, c'est possible en intégrant
    40 petits actuateurs linéaires,
  • 6:20 - 6:22
    qui vous permettent de les toucher,
  • 6:22 - 6:24
    et de les repousser.
  • 6:25 - 6:29
    On a aussi fait de recherches pour créer
    des mutations physiques plus complexes.
  • 6:29 - 6:33
    On utilise un actuateur pneumatique
    pour créer un engin qui se métamorphose
  • 6:33 - 6:38
    en un objet qui peut ressembler
    à un téléphone ou à un bracelet.
  • 6:40 - 6:42
    Avec Ken Nakagaki,
    au Media Lab,
  • 6:42 - 6:45
    nous avons conçu cette nouvelle
    version en haute définition
  • 6:45 - 6:51
    qui utilise une matrice de servomoteurs
    qui transforme un bracelet interactif
  • 6:51 - 6:56
    en instrument à touche,
    et en téléphone.
  • 6:56 - 6:57
    (Rires)
  • 6:58 - 7:00
    Nous nous intéressons aussi
  • 7:00 - 7:03
    à la manière dont les utilisateurs
    s'approprient les interfaces,
  • 7:03 - 7:06
    et les modèlent dans les engins
    qu'ils souhaitent utiliser.
  • 7:06 - 7:08
    On peut modeler une console de jeu,
    par exemple.
  • 7:08 - 7:11
    Le système comprend
    quelle est sa nouvelle enveloppe
  • 7:11 - 7:14
    et passe automatiquement
    dans ce mode.
  • 7:14 - 7:16
    Quel est le futur de tout ça ?
  • 7:16 - 7:18
    Quelles sont nos prochaines étapes ?
  • 7:18 - 7:20
    Je suis convaincu qu'aujourd'hui,
  • 7:20 - 7:23
    nous sommes à l'ère
    de l'Internet des Objets,
  • 7:23 - 7:25
    où les ordinateurs sont omniprésents,
  • 7:25 - 7:27
    dans nos poches, sur nos murs,
  • 7:27 - 7:28
    dans presque tous les objets
  • 7:28 - 7:31
    que nous achèterons
    les 5 prochaines années.
  • 7:31 - 7:33
    Ne devrions-nous pas arrêter
    de voir des machines,
  • 7:33 - 7:36
    et réfléchir en termes d'environnements ?
  • 7:36 - 7:38
    Comment construire
    des meubles intelligents,
  • 7:38 - 7:42
    des salles intelligentes,
    des environnements intelligents,
  • 7:42 - 7:45
    ou des villes capables de s'adapter
    physiquement à nous,
  • 7:45 - 7:49
    un futur qui nous permettrait
    de collaborer autrement avec autrui,
  • 7:49 - 7:51
    et de réaliser des tâches
    d'un nouveau type.
  • 7:51 - 7:55
    Nous avons donc conçu TRANSFORM
    pour la Milan Design Week.
  • 7:55 - 7:59
    Il s'agit d'une table interactive,
    similaire à ces écrans morphables,
  • 7:59 - 8:02
    qui peut déplacer les objets
    sur sa surface,
  • 8:02 - 8:04
    pour vous rappeler d'emporter
    vos clés, par exemple.
  • 8:04 - 8:09
    Elle peut aussi se transformer
    et interagir de diverses manières.
  • 8:09 - 8:10
    Quand on travaille,
  • 8:10 - 8:13
    elle va se métamorphoser
    en environnement de travail.
  • 8:13 - 8:15
    Quand on y dépose un instrument,
  • 8:15 - 8:18
    la table génère tous le matériel
    nécessaire,
  • 8:18 - 8:23
    et rassemble les objets utiles
    pour réaliser votre tâche.
  • 8:25 - 8:27
    Pour conclure,
  • 8:27 - 8:31
    je suis persuadé que nous devons réfléchir
    à de nouvelles manières
  • 8:31 - 8:34
    d'interagir avec les ordinateurs.
  • 8:34 - 8:37
    Nous avons besoin de machines
    qui s'adaptent physiquement à nous,
  • 8:37 - 8:39
    en fonction de la manière
    dont nous les utilisons,
  • 8:39 - 8:43
    pour exploiter notre dextérité,
  • 8:43 - 8:46
    et notre capacité à concevoir
    l'information de manière spatiale,
  • 8:46 - 8:49
    en lui donnant un aspect physique.
  • 8:49 - 8:53
    Je pense aussi que nous devons aller
    au-delà des instruments,
  • 8:53 - 8:56
    pour réfléchir comment réunir les gens
    de manière neuve,
  • 8:56 - 8:59
    pour transmettre nos informations,
  • 8:59 - 9:01
    et réfléchir à des environnement
    intelligents
  • 9:01 - 9:03
    capables de s'adapter physiquement à nous.
  • 9:03 - 9:05
    Je vous quitterai sur ces quelques mots.
  • 9:05 - 9:07
    Merci beaucoup.
  • 9:07 - 9:08
    (Applaudissements)
Title:
Les technologies de métamorphose vont transformer le travail
Speaker:
Sean Follmer
Description:

A quoi va ressembler notre monde quand il n'y aura plus ni clavier, ni souris ?

Sean Follmer est concepteur d'interface. Il est l'architecte d'un avenir au sein duquel les machines donnent vie aux informations sous vos doigts, au fur et à mesure que vous les nourrissez. Il nous dévoile un prototype d'une table 3D qui peut muter, ceux d'un téléphone qui se transforme en bracelet et d'une console de jeu déformable. Il a en poche de nombreuses technologies qui vont changer notre environnement de vie et professionnel.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:22

French subtitles

Revisions