Return to Video

Blaise Aguera y Arcas demonstriert Photosynth

  • 0:00 - 0:02
    Was ich Ihnen zuerst, so schnell wie möglich, zeigen werde,
  • 0:02 - 0:06
    ist die grundlegende Arbeit, eine neue Technologie,
  • 0:06 - 0:09
    die wir Microsoft als Teil einer Übernahme
  • 0:09 - 0:12
    vor genau einem Jahr, übergeben haben. Das ist Seadragon.
  • 0:12 - 0:15
    Und es ist eine Umgebung, in der Sie entweder lokal oder entfernt
  • 0:15 - 0:18
    mit riesigen Mengen von visuellen Daten umgehen können.
  • 0:18 - 0:21
    Wir sehen viele, viele Gigabytes an digitalen Fotos hier,
  • 0:21 - 0:24
    die man nahtlos und fortwährend heranholen,
  • 0:25 - 0:27
    schwenken, auf jegliche Weise neu arrangieren kann.
  • 0:27 - 0:31
    Und es ist egal, wie viele Informationen wir betrachten,
  • 0:31 - 0:34
    wie groß diese Sammlungen sind oder wie groß die Bilder sind.
  • 0:34 - 0:36
    Die meisten von ihnen sind digitale Photos einer Kamera,
  • 0:36 - 0:39
    aber dieses hier ist zum Beispiel ein Scan von der Kongressbibliothek
  • 0:40 - 0:42
    und es ist in einem Bereich von 300 Megapixeln.
  • 0:43 - 0:44
    Es macht keinen Unterschied,
  • 0:44 - 0:47
    denn das einzige, was die Leistung eines
  • 0:47 - 0:50
    Systems wie diesem einschränken kann, ist die Anzahl an Pixeln auf Ihrem Bildschirm in
  • 0:50 - 0:53
    jedem Moment. Es hat auch eine sehr flexible Architektur.
  • 0:53 - 0:56
    Dies ist ein ganzes Buch, ein Beispiel für Nichtbild-Daten.
  • 0:57 - 1:02
    Das ist Bleak House von Dickens. Jede Spalte ist ein Kapitel.
  • 1:02 - 1:06
    Um zu beweisen, dass es sich wirklich um einen Text und nicht um ein Bild handelt,
  • 1:06 - 1:08
    können wir etwas wie das tun, um wirklich zu zeigen,
  • 1:08 - 1:11
    dass diese eine echte Repräsentation des Texts und kein Bild ist.
  • 1:12 - 1:14
    Vielleicht ist dies eine künstliche Art, ein E-Buch zu lesen.
  • 1:14 - 1:15
    Ich würde es nicht empfehlen.
  • 1:15 - 1:18
    Dies ist ein realistischerer Fall. Dies ist eine Ausgabe von The Guardian.
  • 1:18 - 1:20
    Jedes große Bild ist der Beginn eines Abschnitts.
  • 1:20 - 1:23
    Und das gibt Ihnen wirklich das Vergnügen und die gute Erfahrung
  • 1:23 - 1:28
    eine echte Papierausgabe einer Zeitschrift oder einer Zeitung zu lesen,
  • 1:29 - 1:30
    was an sich eine Art Medium mit mehreren Größenordnungen ist.
  • 1:31 - 1:32
    Wir haben auch etwas an der
  • 1:32 - 1:35
    Ecke dieser speziellen Ausgabe des The Guardian gemacht.
  • 1:35 - 1:38
    Wir haben eine falsche Anzeige mit sehr hoher Resolution entworfen,
  • 1:38 - 1:40
    die viel höher als bei einer normalen Anzeige ist
  • 1:40 - 1:42
    und wir haben zusätzlichen Inhalt hinzugefügt.
  • 1:42 - 1:44
    Wenn Sie die Funktionen dieses Autos sehen möchten, können Sie sie hier sehen.
  • 1:45 - 1:49
    Oder andere Modelle, oder sogar technische Spezifikationen.
  • 1:50 - 1:52
    Und dies greift wirklich diese Ideen
  • 1:53 - 1:57
    auf, diese Beschränkungen für den verfügbaren Platz auf dem Bildschirm abzuschaffen.
  • 1:57 - 1:59
    Wir hoffen, dass das keine Pop-Ups und
  • 1:59 - 2:01
    anderen Unsinn mehr bedeutet - das sollte nicht notwendig sein.
  • 2:02 - 2:04
    Natürlich ist das Mapping eine der wirklich offensichtlichen Anwendungen
  • 2:04 - 2:06
    für eine Technologie wie diese.
  • 2:06 - 2:08
    Und ich möchte hier wirklich nicht viel Zeit verbringen,
  • 2:08 - 2:10
    außer zu sagen, dass wir auch zu diesem Bereich beitragen werden.
  • 2:12 - 2:14
    Aber dies sind alle Straßen in den U.S.A.
  • 2:14 - 2:18
    übereinandergelagert oben auf dem erdräumlichen Bild der NASA.
  • 2:19 - 2:21
    Lassen Sie uns jetzt etwas anderes herausholen.
  • 2:21 - 2:24
    Das ist jetzt sogar live im Internet. Sie können es nachprüfen.
  • 2:24 - 2:25
    Dies ist ein Projekt mit dem Namen Photosynth,
  • 2:26 - 2:27
    das wirklich zwei verschiedene Technologien miteinander verbindet.
  • 2:27 - 2:28
    Die eine ist Seadragon
  • 2:29 - 2:31
    und die andere ist eine sehr gute Forschung über Computervision,
  • 2:32 - 2:34
    die von Noah Snavely, einem Universitätsstudenten der Universität Washington, unter der
  • 2:35 - 2:37
    Beratung von Steve Seitz an der UW
  • 2:37 - 2:41
    und Rick Szeliski von Microsoft Forschung durchgeführt wurde. Eine sehr gute Zusammenarbeit.
  • 2:42 - 2:44
    Also dies ist live im Internet. Es wird von Seadragon angetrieben.
  • 2:44 - 2:46
    Sie können das sehen, wenn wir diese Art von Ansichten kreieren,
  • 2:47 - 2:48
    bei denen wir durch Bilder durchdringen können
  • 2:49 - 2:50
    und diese Erfahrung der mehrfachen Resolution machen.
  • 2:51 - 2:55
    Aber die räumliche Anordnung der Bilder ist hier in der Tat von Bedeutung.
  • 2:55 - 2:58
    Die Computervision-Algorithmen haben diese Bilder zusammen festgehalten
  • 2:58 - 3:02
    damit sie dem echten Raum, in dem diese Aufnahmen,
  • 3:02 - 3:04
    die alle in der Nähe der Grassi Lakes in den kanadischen Rockies
  • 3:06 - 3:08
    gemacht wurden, entsprechen. Sie sehen hier Elemente
  • 3:08 - 3:12
    von stabilisierten Dias oder panoramischer Bildverarbeitung
  • 3:15 - 3:17
    und diese Dinge wurden alle räumlich in Beziehung zueinander gesetzt.
  • 3:17 - 3:20
    Ich weiß nicht genau, ob ich noch Zeit habe Ihnen andere Umgebungen zu zeigen.
  • 3:20 - 3:21
    Es gibt welche, die viel räumlicher sind.
  • 3:22 - 3:25
    Ich würde gerne geradewegs einen der originalen Datensätze von Noah zeigen
  • 3:25 - 3:27
    und das ist von einem frühen Prototyp von Photosynth
  • 3:27 - 3:29
    an dem wir erstmals im Sommer gearbeitet haben,
  • 3:29 - 3:30
    um Ihnen das zu zeigen, wovon ich glaube, dass
  • 3:30 - 3:33
    es wirklich die Pointe hinter dieser Technologie,
  • 3:34 - 3:36
    der Photosynth-Technologie ist. Und dies ist nicht unbedingt so offensichtlich,
  • 3:36 - 3:39
    wenn man die Umgebungen betrachtet, die wir auf der Website haben.
  • 3:39 - 3:41
    Wir mussten uns wegen der Anwälte usw. Sorgen machen.
  • 3:42 - 3:43
    Dies ist eine Rekonstruktion der Kathedrale Notre Dame,
  • 3:44 - 3:46
    die ausschließlich im Computer
  • 3:46 - 3:49
    mit Bildern von Flickr erfolgte. Geben Sie einfach Notre Dame in Flickr ein
  • 3:49 - 3:52
    und Sie werden Bilder von Männern in T-Shirts und auf dem Universitätsgelände usw.
  • 3:52 - 3:56
    erhalten. Jede dieser orangefarbenen Kegel repräsentiert ein Bild,
  • 3:57 - 3:59
    das als zu diesem Modell gehörend entdeckt wurde.
  • 4:01 - 4:03
    Somit sind dies alles Flickr-Bilder,
  • 4:03 - 4:06
    und sie alle stehen räumlich auf diese Weise in Beziehung zueinander.
  • 4:06 - 4:08
    Und wir können auf diese sehr einfache Weise navigieren.
  • 4:10 - 4:19
    (Applaus).
  • 4:19 - 4:21
    Wissen Sie, ich habe nie geglaubt, dass ich letztendlich bei Microsoft arbeiten werde.
  • 4:21 - 4:25
    Ich bin sehr dankbar für den Empfang hier.
  • 4:25 - 4:28
    (Gelächter).
  • 4:28 - 4:31
    Ich vermute, Sie können sehen,
  • 4:31 - 4:33
    dass dies viele verschiedene Arten von Kameras sind:
  • 4:33 - 4:36
    alles ist dabei, von der Handy-Kamera zu professionellen SLRs,
  • 4:37 - 4:38
    eine ziemlich große Anzahl von ihnen, die alle in dieser
  • 4:38 - 4:39
    Umgebung zusammengeflickt wurden.
  • 4:39 - 4:41
    Und wenn möglich, werde ich einige der Seltsamen finden.
  • 4:43 - 4:46
    Viele von ihnen sind von Gesichtern verdeckt usw.
  • 4:48 - 4:49
    Irgendwo hier sind
  • 4:50 - 4:51
    eine Reihe von Fotografien - hier sind sie.
  • 4:52 - 4:55
    Dies ist tatsächlich ein Poster von Notre Dame, das richtig aufgezeichnet wurde.
  • 4:56 - 4:58
    Wir können von dem Poster zu
  • 4:59 - 5:02
    einer physischen Ansicht dieser Umgebung wechseln.
  • 5:06 - 5:09
    Der Punkt ist hier, dass wir Dinge mit der
  • 5:09 - 5:14
    sozialen Umgebung anstellen können. Es werden jetzt Daten von allen gesammelt --
  • 5:14 - 5:15
    von dem gesamten kollektiven Speicher davon,
  • 5:15 - 5:17
    wie, visuell die Erde aussieht --
  • 5:18 - 5:19
    und alles wird miteinander verbunden.
  • 5:19 - 5:21
    All diese Fotos werden miteinander verbunden
  • 5:21 - 5:22
    und es entsteht etwas,
  • 5:22 - 5:24
    das größer ist als die Summe der Teile.
  • 5:24 - 5:26
    Sie erhalten ein Modell, das aus der ganzen Erde entsteht.
  • 5:26 - 5:31
    Betrachten Sie dies als die Fortsetzung der Arbeit von Stephen Lawlers an Virtual Earth.
  • 5:31 - 5:33
    Und das ist etwas, das durch die Komplexität,
  • 5:33 - 5:36
    mit der die Menschen es verwenden, wächst und dessen Nutzen für
  • 5:36 - 5:38
    den Benutzer mit der Anwendung immer größer wird.
  • 5:38 - 5:40
    Ihre eigenen Fotos werden mit Metadaten beschildert,
  • 5:40 - 5:41
    die eine andere Person eingegeben hat.
  • 5:42 - 5:45
    Wenn sich jemand die Mühe gemacht hat und all diese Heiligen beschriftet hat
  • 5:45 - 5:48
    und mitteilt, wer sie alle sind, dann wird mein Foto von der
  • 5:48 - 5:50
    Notre Dame-Kathedrale plötzlich mit all diesen Daten angereichert
  • 5:50 - 5:53
    und ich kann sie als Ausgangspunkt benutzen, um in diesen Raum zu tauchen,
  • 5:53 - 5:55
    in diese Metaverse, die Fotos von anderen Personen benutzen
  • 5:56 - 5:58
    und somit eine Art von übergreifender modaler
  • 6:00 - 6:03
    sozialer Erfahrung mit der Nutzung von anderen Anbietern machen.
  • 6:03 - 6:04
    Und natürlich, Nebenprodukt
  • 6:05 - 6:07
    all dessen sind die immens reichen virtuellen Modelle
  • 6:07 - 6:09
    von jedem interessanten Teil der Erde,
  • 6:10 - 6:13
    die nicht nur durch Überflüge oder Satellitenbilder
  • 6:13 - 6:15
    und so weiter erhalten wurden, sondern durch kollektive Speicher.
  • 6:15 - 6:17
    Vielen Dank.
  • 6:17 - 6:28
    (Applaus).
  • 6:28 - 6:32
    Chris Anderson: Verstehe ich Sie richtig? Ihre Software ermöglicht,
  • 6:33 - 6:35
    dass zu einem bestimmten Zeitpunkt, innerhalb der nächsten Jahre,
  • 6:36 - 6:40
    alle Bilder, die von jemandem in der Welt gemeinsam benutzt werden
  • 6:40 - 6:42
    im Prinzip miteinander verknüpft werden?
  • 6:42 - 6:44
    BAA: Ja. Sie macht nichts anderes als Entdecken.
  • 6:44 - 6:47
    Wenn Sie wollen erstellt sie Hyperlinks zwischen den Bildern.
  • 6:47 - 6:48
    Und sie tut dies aufgrund des
  • 6:48 - 6:49
    Inhalts in den Bildern.
  • 6:49 - 6:52
    Und das ist wirklich aufregend, wenn Sie an die Fülle der
  • 6:52 - 6:54
    semantischen Informationen denken, die viele dieser Bilder besitzen.
  • 6:54 - 6:56
    Wie wenn Sie eine Websuche für Bilder vornehmen,
  • 6:57 - 6:59
    wo Sie Sätze eingeben und der Text der Website enthält
  • 6:59 - 7:02
    viele Informationen darüber, welches Bild das ist.
  • 7:02 - 7:04
    Aber wie wäre es, wenn das Bild Sie mit all Ihren Bildern verknüpft?
  • 7:04 - 7:06
    Dann ist der Umfang der semantischen Querverbindung
  • 7:06 - 7:07
    und die Fülle, die sich daraus ergibt, wirklich
  • 7:07 - 7:10
    enorm. Es ist ein klassischer Netzwerkeffekt.
  • 7:10 - 7:12
    CA: Blaise, das ist wirklich unglaublich. Herzlichen Glückwunsch.
  • 7:12 - 7:13
    BAA: Haben Sie vielen Dank.
Title:
Blaise Aguera y Arcas demonstriert Photosynth
Speaker:
Blaise Agüera y Arcas
Description:

Blaise Aguera y Arcas gibt eine umwerfende Demonstration von Photosynth, einer Software, die unsere Sicht auf digitale Bilder transformieren könnte. Photos benutzend, die aus dem Web ausgewählt wurden, baut Photosynth atemberaubende Traumgebilde und lässt uns diese navigieren.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
07:13

German subtitles

Revisions