Return to Video

Blaise Aguera y Arcas présente Photosynth

  • 0:00 - 0:02
    Ce que je vais vous montrer en premier, aussi vite que possible,
  • 0:02 - 0:06
    c'est un travail fondateur, une nouvelle technologie
  • 0:06 - 0:09
    que nous avons apportée à Microsoft comme part d'une acquisition
  • 0:09 - 0:12
    il y a presque exactement un an. Voici Seadragon.
  • 0:12 - 0:15
    Et c'est un environnement dans lequel vous pouvez, localement ou à distance,
  • 0:15 - 0:18
    interagir avec de grandes quantités de données visuelles.
  • 0:18 - 0:21
    On a ici devant les yeux beaucoup, beaucoup de gigabytes de photos numériques
  • 0:21 - 0:24
    et on fait des zooms avant de manière continue et en quelque sorte fluide,
  • 0:25 - 0:27
    on navigue dans le truc, on le réarrange de la manière qu'on veut.
  • 0:27 - 0:31
    Et ce quelle que soit la quantité d'informations que l'on visionne,
  • 0:31 - 0:34
    la taille de ces collections ou la taille des images.
  • 0:34 - 0:36
    La plupart sont des photos d'appareils numériques ordinaires,
  • 0:36 - 0:39
    mais celle-ci, par exemple, est scannée à partir de la Bibliothèque du Congrès,
  • 0:40 - 0:42
    et elle fait dans les 300 mégapixels.
  • 0:43 - 0:44
    Cela ne fait aucune différence
  • 0:44 - 0:47
    parce que la seule chose qui devrait limiter les performances
  • 0:47 - 0:50
    d'un système comme celui-ci, c'est le nombre de pixels sur votre écran
  • 0:50 - 0:53
    à un instant "t". C'est aussi une architecture très flexible.
  • 0:53 - 0:56
    Voici un livre entier, un exemple de donnée qui n'est pas une image.
  • 0:57 - 1:02
    C'est Bleak House de Dickens. Chaque colonne est un chapitre.
  • 1:02 - 1:06
    Pour vous prouver que c'est vraiment du texte, et pas une image,
  • 1:06 - 1:08
    on peut faire quelque chose comme ça, pour bien montrer
  • 1:08 - 1:11
    que c'est une véritable représentation du texte; ce n'est pas une photo.
  • 1:12 - 1:14
    C'est peut-être une manière un peu artificielle de lire un e-book.
  • 1:14 - 1:15
    Je ne vous le recommande pas.
  • 1:15 - 1:18
    Voilà un exemple plus réaliste. C'est un numéro du Guardian.
  • 1:18 - 1:20
    Chaque grande image est le début d'une section.
  • 1:20 - 1:23
    Et cela vous donne véritablement la joie et l'expérience agréable
  • 1:23 - 1:28
    de la lecture de la vraie version papier d'un magazine ou d'un journal,
  • 1:29 - 1:30
    qui est un type de media multi-échelles par définition.
  • 1:31 - 1:32
    Nous avons également mis au point quelque chose
  • 1:32 - 1:35
    avec le coin de ce numéro du Guardian en particulier.
  • 1:35 - 1:38
    Nous avons créé une fausse publicité en très haute résolution...
  • 1:38 - 1:40
    bien plus haute que ce que vous pourriez obtenir dans une publicité classique...
  • 1:40 - 1:42
    et nous avons inséré du contenu supplémentaire.
  • 1:42 - 1:44
    Si vous voulez voir les caractéristiques de cette voiture, on peut les voir ici.
  • 1:45 - 1:49
    Ou d'autres modèles, ou même des spécifications techniques.
  • 1:50 - 1:52
    Et on en arrive vraiment à certaines de ces idées
  • 1:53 - 1:57
    pour vraiment se débarrasser de ces limites d'espace de l'écran.
  • 1:57 - 1:59
    On espère que cela signifie la fin des pop-ups
  • 1:59 - 2:01
    et d'autres types de pollution du même genre... ne devraient plus être nécessaires.
  • 2:02 - 2:04
    Bien entendu, la cartographie est l'une des applications évidentes
  • 2:04 - 2:06
    pour une technologie comme celle-ci.
  • 2:06 - 2:08
    Et sur celle-ci je vais passer très rapidement,
  • 2:08 - 2:10
    si ce n'est pour dire qu'on a des choses pour contribuer à ce domaine également.
  • 2:12 - 2:14
    Ce sont toutes les routes des Etats-Unis
  • 2:14 - 2:18
    superposées à une image géospatiale de la NASA.
  • 2:19 - 2:21
    Bon, maintenant, allons chercher autre chose.
  • 2:21 - 2:24
    Tout ça est en ce moment en ligne sur le Web, vous pouvez aller vérifier.
  • 2:24 - 2:25
    C'est un projet appelé Photosynth,
  • 2:26 - 2:27
    qui en réalité marie deux technologies différentes.
  • 2:27 - 2:28
    L'une d'entre elles est Seadragon
  • 2:29 - 2:31
    et l'autre est issue d'une recherche magnifique sur la vision informatisée
  • 2:32 - 2:34
    menée par Noah Snavely, un étudiant de 3ème cycle à l'Université de Washington,
  • 2:35 - 2:37
    co-dirigée par Steve Seitz à l'UW
  • 2:37 - 2:41
    et Rick Szeliski de la recherche Microsoft. Une très belle collaboration.
  • 2:42 - 2:44
    Et donc c'est en ligne sur le Web. Cela fonctionne avec la technologie Seadragon.
  • 2:44 - 2:46
    On peut le voir quand on utilise ce genre de visualisations,
  • 2:47 - 2:48
    où on peut plonger dans les images
  • 2:49 - 2:50
    et avoir cette sorte d'expérience multi-résolutions.
  • 2:51 - 2:55
    Mais l'arrangement dans l'espace des images dans ce cas-là a en fait un sens.
  • 2:55 - 2:58
    Les algorithmes de vision informatisée ont enregistré ces images ensemble,
  • 2:58 - 3:02
    afin qu'elles correspondent à l'espace réel dans lequel ces photos
  • 3:02 - 3:04
    (toutes prises près des lacs Grassi dans les Rocheuses canadiennes)
  • 3:06 - 3:08
    ont été prises. Donc vous voyez des éléments ici
  • 3:08 - 3:12
    de diaporama stabilisé ou d'imagerie panoramique,
  • 3:15 - 3:17
    et toutes ces choses ont été reliées entre elles dans l'espace.
  • 3:17 - 3:20
    Je ne suis pas sûr d'avoir le temps de vous montrer d'autres environnements.
  • 3:20 - 3:21
    Certains sont beaucoup plus spatiaux.
  • 3:22 - 3:25
    J'aimerais sauter directement à l'un des premiers ensemble de données de Noah
  • 3:25 - 3:27
    (et cela vient d'un premier prototype de Photosynth
  • 3:27 - 3:29
    que nous avons fait fonctionner pour la première fois cet été)
  • 3:29 - 3:30
    pour vous montrer ce qui d'après moi
  • 3:30 - 3:33
    est vraiment le point fort de cette technologie,
  • 3:34 - 3:36
    la technologie Photosynth. Et ce n'est pas nécessairement si évident
  • 3:36 - 3:39
    quand on regarde les environnements que nous avons mis en ligne sur le site web.
  • 3:39 - 3:41
    On a du se préoccuper des avocats et des trucs dans le genre.
  • 3:42 - 3:43
    Voici une reconstruction de la cathédrale Notre-Dame
  • 3:44 - 3:46
    qui a été faite entièrement par calcul informatique
  • 3:46 - 3:49
    à partir d'images récupérées sur Flickr. On tape juste Notre Dame dans Flickr,
  • 3:49 - 3:52
    et on trouve des photos de types en t-shirts, du campus (de l'université de ND, NdT)
  • 3:52 - 3:56
    et ainsi de suite. Et chacun des ces cônes oranges représente une image
  • 3:57 - 3:59
    qui a été identifiée comme appartenant à ce modèle.
  • 4:01 - 4:03
    Et donc ce sont toutes des images Flickr,
  • 4:03 - 4:06
    et elles ont toutes été reliées entre elles dans l'espace de cette manière.
  • 4:06 - 4:08
    Et on peut naviguer dedans très simplement de cette manière.
  • 4:10 - 4:19
    (Applaudissements)
  • 4:19 - 4:21
    Vous savez, je n'aurais jamais cru que je finirais par travailler chez Microsoft.
  • 4:21 - 4:25
    C'est très gratifiant d'être reçu ici de cette manière.
  • 4:25 - 4:28
    (Rires)
  • 4:28 - 4:31
    Je pense que vous pouvez voir
  • 4:31 - 4:33
    qu'il s'agit de beaucoup de types d'appareils photos différents:
  • 4:33 - 4:36
    il y a de tout, des appareils photo de téléphone portable aux reflex mono-objectifs de professionnels,
  • 4:37 - 4:38
    un assez grand nombre de photos, cousues
  • 4:38 - 4:39
    ensemble dans cet environnement.
  • 4:39 - 4:41
    Et si j'y arrive, je vais en trouver quelques-unes un peu étranges.
  • 4:43 - 4:46
    Beaucoup d'entre elles sont occultées par des visages, et ainsi de suite.
  • 4:48 - 4:49
    Quelque part par là il y a même
  • 4:50 - 4:51
    une série de photographies... nous y voilà.
  • 4:52 - 4:55
    Il s'agit en fait d'un poster de Notre Dame qui a été enregistré comme correct.
  • 4:56 - 4:58
    On peut plonger depuis le poster
  • 4:59 - 5:02
    dans une vue physique de l'environnement.
  • 5:06 - 5:09
    Le vrai but de tout ça, c'est qu'on peut faire des choses
  • 5:09 - 5:14
    avec l'environnement social. On prend maintenant les données de tout le monde...
  • 5:14 - 5:15
    de l'ensemble de la mémoire collective
  • 5:15 - 5:17
    de ce à quoi ressemble la Terre, visuellement...
  • 5:18 - 5:19
    et on relie tout ça ensemble.
  • 5:19 - 5:21
    Toutes ces photos deviennent liées entre elles,
  • 5:21 - 5:22
    et elles font émerger quelque chose
  • 5:22 - 5:24
    de plus grand que la somme des parties.
  • 5:24 - 5:26
    Il y a un modèle de la Terre entière qui émerge.
  • 5:26 - 5:31
    Voyez ça comme la longue traîne du travail de Stephen Lawler sur la Terre Virtuelle.
  • 5:31 - 5:33
    Et c'est quelque chose qui devient de plus en plus complexe
  • 5:33 - 5:36
    à mesure que les gens l'utilisent, et dont les bénéfices s'accroissent
  • 5:36 - 5:38
    pour les utilisateurs à mesure qu'ils l'utilisent.
  • 5:38 - 5:40
    Leurs propres photos sont marquées avec des méta-données
  • 5:40 - 5:41
    que quelqu'un d'autre a entrées.
  • 5:42 - 5:45
    Si quelqu'un s'embêtait à marquer tous ces saints
  • 5:45 - 5:48
    et à donner tous leurs noms, ma photo de la cathédrale Notre Dame
  • 5:48 - 5:50
    serait enrichie d'un coup de toutes ces données,
  • 5:50 - 5:53
    et je pourrais l'utiliser comme point d'entrée pour plonger dans cet espace,
  • 5:53 - 5:55
    dans ce méta-verse, en utilisant les photos de tout le monde,
  • 5:56 - 5:58
    pour faire une sorte d'expérience sociale trans-modale
  • 6:00 - 6:03
    et trans-utilisateurs de cette manière.
  • 6:03 - 6:04
    Et bien sûr, un sous-produit de tout ça,
  • 6:05 - 6:07
    ce sont des modèles virtuels immensément riches
  • 6:07 - 6:09
    de tous les coins intéressants la Terre, récoltés
  • 6:10 - 6:13
    pas simplement par des vols en altitude et par des images satellite
  • 6:13 - 6:15
    et autres, mais par la mémoire collective.
  • 6:15 - 6:17
    Merci beaucoup.
  • 6:17 - 6:28
    (Applaudissements)
  • 6:28 - 6:32
    Chris Anderson: Est-ce que je comprends bien ? Que ce que votre logiciel va permettre,
  • 6:33 - 6:35
    c'est qu'à un certain moment, vraiment dans les quelques années à venir,
  • 6:36 - 6:40
    toutes les photos qui sont partagées par quiconque dans le monde
  • 6:40 - 6:42
    seront en gros liées entre elles ?
  • 6:42 - 6:44
    BAA: Oui. Ce que le logiciel fait, c'est découvrir.
  • 6:44 - 6:47
    Il crée des hyperliens, si vous voulez, entre les images.
  • 6:47 - 6:48
    Et il le fait
  • 6:48 - 6:49
    en se fondant sur le contenu des images.
  • 6:49 - 6:52
    Et ça devient vraiment passionnant quand vous songez à la richesse
  • 6:52 - 6:54
    de l'information sémantique que bon nombre de ces images possèdent.
  • 6:54 - 6:56
    Par exemple quand on fait une recherche web sur des images,
  • 6:57 - 6:59
    on tape des phrases, et le texte de la page web
  • 6:59 - 7:02
    contient beaucoup d'informations à propos du sujet de cette photo.
  • 7:02 - 7:04
    Maintenant, que se passe-t-il si cette photo est liée à toutes vos photos ?
  • 7:04 - 7:06
    Dans ce cas la quantité d'interconnexions sémantiques
  • 7:06 - 7:07
    et la quantité de richesse qui en ressort
  • 7:07 - 7:10
    est vraiment immense.C'est un effet de réseau classique.
  • 7:10 - 7:12
    CA: Blaise, c'est vraiment incroyable. Félicitations.
  • 7:12 - 7:13
    BAA: Merci beaucoup.
Title:
Blaise Aguera y Arcas présente Photosynth
Speaker:
Blaise Agüera y Arcas
Description:

Blaise Aguera y Arcas mène une démonstration éblouissante de Photosynth, un logiciel qui pourrait transformer notre façon de visionner les images numériques. En utilisant des photographies tirées du Web, Photosynth construit des visions de rêve à couper le souffle et nous permet de les parcourir.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
07:13
Retired user added a translation

French subtitles

Revisions