< Return to Video

¿Cómo "ven" los autos autónomos? - Sajan Saini

  • 0:08 - 0:15
    Es tarde, está oscuro y un auto
    autónomo serpentea por la carretera.
  • 0:15 - 0:19
    De repente, tres amenazas
    aparecen al mismo tiempo.
  • 0:19 - 0:21
    ¿Qué ocurre después?
  • 0:21 - 0:24
    Antes de recorrer
    esta serie de obstáculos,
  • 0:24 - 0:26
    el coche debe detectarlos...
  • 0:26 - 0:30
    recopilando suficiente información
    sobre su tamaño, forma y posición,
  • 0:30 - 0:34
    para que sus algoritmos de control
    puedan trazar el rumbo más seguro.
  • 0:34 - 0:36
    Sin un humano al volante,
  • 0:36 - 0:41
    el auto necesita ojos inteligentes,
    sensores que resolverán esos detalles,
  • 0:41 - 0:44
    sin importar el entorno,
    clima, o lo oscuro que esté,
  • 0:44 - 0:46
    todo en una fracción de segundo.
  • 0:46 - 0:50
    Es una tarea difícil, pero hay
    una solución que asocia dos cosas:
  • 0:50 - 0:54
    un tipo de láser de sonda
    llamado LiDAR,
  • 0:54 - 0:57
    y una versión en miniatura
    de tecnología de comunicación
  • 0:57 - 1:01
    que mantiene internet funcionando
    llamado sistemas fotónicos integrados.
  • 1:01 - 1:06
    Para entender el LiDAR, es útil empezar
    por una tecnología relacionada: el radar.
  • 1:06 - 1:07
    En la aviación,
  • 1:07 - 1:12
    las antenas de radar envían pulsaciones
    de radio o microondas a los aviones
  • 1:12 - 1:17
    para conocer sus ubicaciones,
    cronometrando el tiempo de recuperación.
  • 1:17 - 1:19
    Sin embargo, es una forma limitada de ver,
  • 1:19 - 1:23
    porque el gran tamaño del haz
    no puede visualizar detalles.
  • 1:23 - 1:26
    En contraste, el sistema LiDAR
    del auto autónomo,
  • 1:26 - 1:29
    que significa "Detención de Luz y Rango",
  • 1:29 - 1:32
    usa un delgado láser infrarrojo invisible.
  • 1:32 - 1:37
    Puede captar imágenes tan pequeñas
    como el botón de la camisa de un peatón
  • 1:37 - 1:38
    al otro lado de la calle.
  • 1:38 - 1:42
    ¿Pero cómo determinamos la forma
    o profundidad de estas características?
  • 1:42 - 1:48
    LiDAR dispara una serie de pulsos
    láser para dar una resolución profunda.
  • 1:48 - 1:51
    Piense en el alce en la carretera rural.
  • 1:51 - 1:56
    Mientras el auto pasa, un pulso LiDAR
    se propaga a la base de las astas,
  • 1:56 - 2:01
    mientras el siguiente puede viajar
    hasta la punta del asta antes de rebotar.
  • 2:01 - 2:04
    Midiendo cuánto tiempo más
    tarda el segundo pulso en volver
  • 2:04 - 2:07
    proporciona información sobre
    la forma del asta.
  • 2:07 - 2:13
    Con gran cantidad de pulsos cortos, el
    LiDAR renderiza rápido un perfil detallado
  • 2:13 - 2:19
    La forma más obvia de crear un pulso
    de luz es encender y apagar un láser.
  • 2:19 - 2:23
    Pero esto hace al láser inestable y afecta
    a la sincronización precisa de sus pulsos,
  • 2:23 - 2:26
    lo que limita la resolución
    de profundidad.
  • 2:26 - 2:27
    Mejor dejarlo encendido,
  • 2:27 - 2:33
    y usar otra cosa para bloquear
    la luz de forma confiable y rápida.
  • 2:33 - 2:36
    Ahí está la fotónica integrada.
  • 2:36 - 2:38
    La información digital de internet
  • 2:38 - 2:41
    son transportados por pulsos
    de luz de tiempo de precisión,
  • 2:41 - 2:44
    algunos tan cortos como 100 picosegundos.
  • 2:44 - 2:49
    Una forma de crear estos pulsos
    es con un modulador March-Zehnder.
  • 2:49 - 2:53
    Este dispositivo aprovecha
    una propiedad de onda particular,
  • 2:53 - 2:55
    llamada inferencia.
  • 2:55 - 2:58
    Imagina que caen piedras en un estanque:
  • 2:58 - 3:02
    a medida que las ondas se extienden
    y superponen, se forma un patrón.
  • 3:02 - 3:05
    En algunos lugares, los picos de onda
    se vuelven más grandes;
  • 3:05 - 3:08
    en otros lugares,
    se cancelan completamente.
  • 3:08 - 3:12
    El modulador March-Zehnder
    hace algo similar.
  • 3:12 - 3:17
    Divide las ondas de luz en dos brazos
    paralelos y eventualmente los junta.
  • 3:17 - 3:21
    Si la luz disminuye
    y se retrasa en uno de los brazos,
  • 3:21 - 3:26
    las ondas se recombinan fuera de sincronía
    y se cancelan, bloqueando la luz
  • 3:26 - 3:28
    Alternando este retraso en un brazo,
  • 3:28 - 3:34
    el modulador actúa como un interruptor de
    encendido/apagado emitiendo pulsos de luz.
  • 3:34 - 3:36
    Un pulso de luz que dure 100 picosegundos
  • 3:36 - 3:40
    conduce a una resolución de profundidad
    de un par de centímetros,
  • 3:40 - 3:43
    pero los autos del mañana
    necesitarán ver mejor que eso.
  • 3:43 - 3:48
    Al vincular el modulador con un detector
    de luz supersensible de acción rápida,
  • 3:48 - 3:51
    la resolución se puede pulir al milímetro.
  • 3:51 - 3:53
    Eso es más de cien veces mejor
  • 3:53 - 3:57
    de lo que podemos ver con una visión
    20/20, desde el otro lado de la calle
  • 3:57 - 4:03
    La primera generación de autos LiDAR
    se ha basado en ensamblajes giratorios
  • 4:03 - 4:06
    que escanean desde tejados a capuchas.
  • 4:06 - 4:07
    Con fotónica integrada,
  • 4:07 - 4:13
    los moduladores y detectores se reducen
    a menos de una décima de milímetro
  • 4:13 - 4:18
    y se empaquetan en pequeños chips
    que un día cabrán en las luces del auto.
  • 4:18 - 4:22
    Estos chips también incluirán una
    variación inteligente en el modulador
  • 4:22 - 4:27
    para ayudar a eliminar las partes móviles
    y escanear a altas velocidades.
  • 4:27 - 4:31
    Al reducir la luz del brazo
    modulador solo un poco,
  • 4:31 - 4:36
    este dispositivo adicional actuará más
    como atenuador del interruptor on/off.
  • 4:36 - 4:41
    Si una serie de brazos, cada uno
    con un pequeño retraso controlado,
  • 4:41 - 4:45
    se apila en paralelo,
    se puede diseñar algo novedoso:
  • 4:45 - 4:47
    un rayo láser orientable.
  • 4:47 - 4:49
    Desde su nueva posición,
  • 4:49 - 4:52
    estos ojos inteligentes sondearán
    y verán más a fondo
  • 4:52 - 4:55
    de lo que la naturaleza
    podría haber imaginado,
  • 4:55 - 4:58
    y ayudan a sortear cualquier
    cantidad de obstáculos.
  • 4:58 - 5:00
    Todo sin que nadie empiece a sudar,
  • 5:00 - 5:04
    excepto, tal vez, un alce desorientado.
Title:
¿Cómo "ven" los autos autónomos? - Sajan Saini
Speaker:
Sajan Saini
Description:

Mirar la lección completa en https://ed.ted.com/lessons/how-do-self-driving-cars-see-sajan-saini

Es tarde, está oscuro y un auto autónomo serpentea por una estrecha carretera rural. De repente, tres amenazas aparecen al mismo momento. Sin un humano al volante, el coche usa ojos inteligentes, sensores que resolverán estos detalles en una fracción de segundo. ¿Cómo es esto posible? Sajan Saini explica cómo el lídar y la tecnología fotónica integrada convierten los autos autónomos en una realidad.

Lección de Sajan Saini, dirigida por Artrake Studio.

more » « less
Video Language:
English
Team:
closed TED
Project:
TED-Ed
Duration:
05:04
Sebastian Betti approved Spanish subtitles for How do self-driving cars "see"?
Sebastian Betti edited Spanish subtitles for How do self-driving cars "see"?
Sebastian Betti edited Spanish subtitles for How do self-driving cars "see"?
Sebastian Betti accepted Spanish subtitles for How do self-driving cars "see"?
Sebastian Betti edited Spanish subtitles for How do self-driving cars "see"?
Sebastian Betti edited Spanish subtitles for How do self-driving cars "see"?
Sonia Escudero Sánchez edited Spanish subtitles for How do self-driving cars "see"?
Sonia Escudero Sánchez edited Spanish subtitles for How do self-driving cars "see"?
Show all

Spanish subtitles

Revisions