< Return to Video

Wie können selbstfahrende Autos "sehen"? - Sajan Saini

  • 0:08 - 0:10
    Es ist spät und stockfinster.
  • 0:10 - 0:15
    Ein selbstfahrendes Auto fährt
    auf einer engen, kurvenreichen Landstraße.
  • 0:15 - 0:18
    Plötzlich tauchen gleichzeitig
    drei Hindernisse auf.
  • 0:19 - 0:20
    Was passiert als Nächstes?
  • 0:21 - 0:24
    Bevor es die Hindernisse umfahren kann,
  • 0:24 - 0:26
    muss das Auto sie entdecken
  • 0:26 - 0:30
    und genug Informationen
    über Größe, Form und Position sammeln,
  • 0:30 - 0:34
    damit seine Kontrollalgorithmen
    den sichersten Kurs planen können.
  • 0:34 - 0:38
    Ohne menschlichen Fahrer
    braucht das Auto intelligente Augen --
  • 0:38 - 0:41
    Sensoren, die diese Details
    registrieren müssen --
  • 0:41 - 0:44
    trotz Umgebung,
    Wetter- und Lichtverhältnissen
  • 0:44 - 0:46
    und all das sekundenschnell.
  • 0:46 - 0:47
    Eine große Aufgabe,
  • 0:47 - 0:50
    doch es gibt eine Lösung,
    die zwei Dinge kombiniert:
  • 0:50 - 0:54
    ein spezielles laserbasiertes
    Messsystem namens LIDAR
  • 0:54 - 0:58
    und Kommunikationstechnik im Kleinformat,
    die das Internet am Laufen hält,
  • 0:58 - 1:01
    die integrierte Photonik.
  • 1:01 - 1:06
    Um LIDAR zu verstehen, hilft der Vergleich
    mit der verwandten Radartechnik.
  • 1:06 - 1:12
    In der Luftfahrt senden Radarantennen
    Funk- oder Mikrowellen an Flugzeuge.
  • 1:12 - 1:14
    Sie orten deren Position,
    indem sie messen,
  • 1:14 - 1:17
    wann die Wellen das Flugzeug treffen.
  • 1:17 - 1:19
    Doch dieses Sichtsystem ist ungenau.
  • 1:19 - 1:23
    Denn die großen Strahlen
    erkennen keine Details.
  • 1:23 - 1:26
    Im Gegensatz dazu verwenden
    selbstfahrende Autos LIDAR,
  • 1:26 - 1:29
    d. h. lichtgestützte Ortung
    und Abstandsmessung.
  • 1:29 - 1:32
    LIDAR nutzt einen feinen,
    unsichtbaren Infrarot-Laser.
  • 1:32 - 1:34
    Er erkennt kleinste Objekte
  • 1:34 - 1:38
    wie den Hemdknopf eines Fußgängers
    auf der anderen Straßenseite.
  • 1:38 - 1:42
    Wie lassen sich aber Form oder Tiefe
    dieser Objekte bestimmen?
  • 1:42 - 1:48
    LIDAR feuert zur Tiefenauflösung
    eine Reihe ultrakurzer Laserimpulse ab.
  • 1:48 - 1:51
    Nehmen wir einen Elch auf der Landstraße.
  • 1:51 - 1:53
    Während der Wagen vorbeifährt,
  • 1:53 - 1:56
    trifft ein LIDAR-Impuls
    auf den Ansatz des Geweihs
  • 1:56 - 2:01
    und der nächste prallt
    von der Spitze einer Geweihschaufel ab.
  • 2:01 - 2:04
    Die Messung des Zeitunterschieds
    der Rückstreuung beider Impulse
  • 2:04 - 2:07
    gibt Aufschluss über die Form des Geweihs.
  • 2:07 - 2:13
    So erstellt ein LIDAR-System mit vielen
    Kurzimpulsen ein schnelles Detailprofil.
  • 2:13 - 2:16
    Die einfachste Art
    der Lichtimpulserzeugung
  • 2:16 - 2:19
    ist das Ein- und Ausschalten eines Lasers.
  • 2:19 - 2:20
    Das macht ihn aber instabil
  • 2:20 - 2:23
    und beeinträchtigt
    das exakte Takten der Impulse.
  • 2:23 - 2:25
    So wird die Tiefenauflösung ungenau.
  • 2:26 - 2:29
    Der Laser bleibt also besser an
    und man nutzt etwas anderes,
  • 2:29 - 2:32
    um das Licht schnell und zuverlässig
    periodisch abzudecken.
  • 2:33 - 2:36
    Hier kommt integrierte Photonik ins Spiel
  • 2:36 - 2:41
    Digitale Internetdaten werden von präzise
    getakteten Lichtimpulsen übertragen --
  • 2:41 - 2:44
    bis zu hundert Pikosekunden schnell.
  • 2:44 - 2:49
    Eine Art der Impulserzeugung
    bietet der Mach-Zehnder-Modulator.
  • 2:49 - 2:54
    Er nutzt den Vorteil einer bestimmten
    Welleneigenschaft, der Interferenz.
  • 2:55 - 2:58
    Wenn man Steine in einen Teich wirft,
  • 2:58 - 3:01
    breiten sich Wellen aus,
    überlappen sich und bilden ein Muster.
  • 3:02 - 3:05
    Hier und da laufen Wellen ineinander
    und bilden noch größere;
  • 3:05 - 3:08
    manchmal heben sie einander auf.
  • 3:08 - 3:12
    Der Mach-Zehnder-Modulator
    funktioniert ähnlich.
  • 3:12 - 3:15
    Er teilt Lichtwellen
    in zwei parallele Arme
  • 3:15 - 3:17
    und verbindet sie dann wieder.
  • 3:17 - 3:21
    Wird das Licht in einem Arm
    verlangsamt und verzögert,
  • 3:21 - 3:25
    verbinden sich die Wellen nicht synchron,
    heben sich auf und blockieren das Licht.
  • 3:26 - 3:28
    Manipuliert man
    die Verzögerung in einem Arm,
  • 3:28 - 3:31
    wirkt der Modulator
    wie ein Ein-/Ausschalter
  • 3:31 - 3:33
    und sendet Lichtimpulse aus.
  • 3:34 - 3:40
    Ein Lichtimpuls von 100 Pikosekunden
    schafft zentimeterfeine Tiefenauflösungen.
  • 3:40 - 3:43
    Doch die Autos von morgen
    müssen noch besser sehen.
  • 3:43 - 3:48
    Durch Kopplung des Modulators mit einem
    hochempfindlichen, schnellen Lichtsensor
  • 3:48 - 3:51
    erhält man millimetergenaue Auflösungen.
  • 3:51 - 3:53
    Das ist über 100 Mal besser,
  • 3:53 - 3:57
    als was wir mit normaler Sehkraft
    auf der anderen Straßenseite erkennen.
  • 3:57 - 4:03
    Die 1. Generation des automobilen LIDAR
    nutzt komplexe Drehvorrichtungen.
  • 4:03 - 4:06
    Sie scannen von Dächern oder Motorhauben.
  • 4:06 - 4:09
    Integrierte Photonik schrumpft
    Modulatoren und Sensoren
  • 4:09 - 4:12
    auf weniger als Zehntelmillimeter.
  • 4:13 - 4:17
    Sie sitzen in Mikrochips, die eines Tages
    in Autoscheinwerfer passen werden.
  • 4:18 - 4:22
    In den Chips wird auch die smarte Version
    des Modulators zu finden sein.
  • 4:22 - 4:27
    So möchte man bewegliche Teile entfernen
    und bei hohem Tempo scannen können.
  • 4:27 - 4:31
    Durch nur geringe Verlangsamung
    des Lichts in einem Modulatorarm
  • 4:31 - 4:36
    ist diese Zusatzvorrichtung
    eher Dimmer als Ein-/Ausschalter.
  • 4:36 - 4:39
    Durch Parallelschaltung vieler Arme --
  • 4:39 - 4:42
    jeder davon mit kleiner
    kontrollierter Verzögerung --
  • 4:42 - 4:47
    kann man etwas Neues entwickeln:
    einen steuerbaren Laserstrahl.
  • 4:47 - 4:52
    An ihrem neuen Platz sondieren
    und sehen smarte Augen schärfer,
  • 4:52 - 4:55
    als es sich die Natur
    je vorgestellt hätte,
  • 4:55 - 4:58
    und helfen so, mögliche
    Hindernisse zu umfahren.
  • 4:58 - 5:00
    Dabei muss niemand nervös werden --
  • 5:00 - 5:04
    außer vielleicht ein desorientierter Elch.
Title:
Wie können selbstfahrende Autos "sehen"? - Sajan Saini
Speaker:
Sajan Saini
Description:

Die ganze Lektion unter: https://ed.ted.com/lessons/how-do-self-driving-cars-see-sajan-saini

Es ist spät, stockdunkel und ein selbstfahrendes Auto fährt eine schmale, kurvenreiche Landstraße hinunter. Plötzlich tauchen gleichzeitig drei Hindernisse auf. Das fahrerlose Auto nutzt intelligente Augen, Sensoren, die diese Details im Sekundenbruchteil registrieren. Wie ist das möglich? Sajan Saini erklärt, wie LIDAR und integrierte photonische Technologie selbstfahrende Autos realisierbar machen.

Lektion von Sajan Saini, unter Regie von Artrake Studio.

more » « less
Video Language:
English
Team:
closed TED
Project:
TED-Ed
Duration:
05:04
Andrea Hielscher approved German subtitles for How do self-driving cars "see"?
Andrea Hielscher edited German subtitles for How do self-driving cars "see"?
Andrea Hielscher accepted German subtitles for How do self-driving cars "see"?
Andrea Hielscher edited German subtitles for How do self-driving cars "see"?
Andrea Hielscher edited German subtitles for How do self-driving cars "see"?
Andrea Hielscher edited German subtitles for How do self-driving cars "see"?
Andrea Hielscher edited German subtitles for How do self-driving cars "see"?
Ilona Stangl edited German subtitles for How do self-driving cars "see"?
Show all

German subtitles

Revisions