< Return to Video

Dennis Hong: Fazer um carro para condutores cegos

  • 0:00 - 0:03
    Muitos acreditam que conduzir é uma actividade
  • 0:03 - 0:05
    reservada apenas para aqueles que conseguem ver.
  • 0:05 - 0:08
    Um cego a conduzir um veículo de forma segura e independente
  • 0:08 - 0:11
    era suposta ser uma tarefa impossível, até agora.
  • 0:11 - 0:13
    Olá, eu chamo-me Dennis Hong,
  • 0:13 - 0:15
    e estamos a trazer liberdade e independência aos cegos
  • 0:15 - 0:18
    construindo um veículo para os deficientes visuais.
  • 0:18 - 0:21
    Portanto antes de eu falar sobre este carro para os cegos,
  • 0:21 - 0:23
    deixem-me falar-vos de outro projecto em que trabalhei
  • 0:23 - 0:25
    chamado DARPA Urban Challenge.
  • 0:25 - 0:27
    Este era sobre construir um carro robótico
  • 0:27 - 0:29
    que se conduzisse a si mesmo.
  • 0:29 - 0:31
    Carregam em começar, ninguém toca em nada,
  • 0:31 - 0:34
    e ele chega ao destino de forma completamente autónoma.
  • 0:34 - 0:37
    Portanto em 2007, a nossa equipa ganhou meio milhão de dólares
  • 0:37 - 0:39
    por ficar no terceiro lugar desta competição.
  • 0:39 - 0:41
    Por essa altura,
  • 0:41 - 0:43
    a National Federation of the Blind, ou NFB,
  • 0:43 - 0:45
    desafiou o comité de pesquisa
  • 0:45 - 0:47
    para descobrir quem conseguiria desenvolver um carro
  • 0:47 - 0:49
    que deixasse um cego conduzir de forma segura e independente.
  • 0:49 - 0:51
    Decidimos experimentar,
  • 0:51 - 0:53
    porque pensámos, ei, não pode ser muito difícil.
  • 0:53 - 0:55
    Já temos um veículo autónomo.
  • 0:55 - 0:57
    É só pôr alguém cego lá dentro e está feito, certo?
  • 0:57 - 0:59
    (Risos)
  • 0:59 - 1:01
    Não podíamos estar mais errados.
  • 1:01 - 1:03
    O que a NFB queria
  • 1:03 - 1:06
    não era um veículo que conduzisse um cego,
  • 1:06 - 1:09
    mas um veículo onde uma pessoa cega pudesse fazer decisões activas e guiar.
  • 1:09 - 1:11
    Portanto, tivemos de atirar tudo pela janela
  • 1:11 - 1:13
    e começar do nada.
  • 1:13 - 1:15
    Então, para testar esta ideia louca,
  • 1:15 - 1:17
    desenvolvemos um pequeno veículo protótipo, um buggy,
  • 1:17 - 1:19
    para testar a viabilidade.
  • 1:19 - 1:21
    E, no Verão de 2009,
  • 1:21 - 1:24
    convidámos dúzias de jovens cegos de todo o país
  • 1:24 - 1:26
    e demos-lhes a oportunidade de o conduzir.
  • 1:26 - 1:28
    Foi uma experiência absolutamente espetacular.
  • 1:28 - 1:30
    Mas o problema com este carro era que
  • 1:30 - 1:33
    estava feito apenas para ser conduzido num ambiente muito controlado,
  • 1:33 - 1:35
    num parque de estacionamento plano e fechado --
  • 1:35 - 1:37
    até as faixas estavam definidas por cones de trânsito vermelhos.
  • 1:37 - 1:39
    Portanto, com este sucesso,
  • 1:39 - 1:41
    decidimos dar o próximo grande passo,
  • 1:41 - 1:44
    desenvolver um carro verdadeiro que pudesse ser conduzido em estradas verdadeiras.
  • 1:44 - 1:46
    Então como funciona?
  • 1:46 - 1:48
    Bem, é um sistema bastante complexo,
  • 1:48 - 1:51
    mas vou tentar explicá-lo, talvez simplificá-lo.
  • 1:51 - 1:53
    Temos três passos.
  • 1:53 - 1:55
    Temos percepção, computação
  • 1:55 - 1:57
    e interfaces não-visuais.
  • 1:57 - 1:59
    Obviamente o condutor não consegue ver,
  • 1:59 - 2:01
    portanto o sistema tem de perceber o ambiente circundante
  • 2:01 - 2:03
    e armazenar informação para o condutor.
  • 2:03 - 2:06
    Para isso, utilizamos uma unidade de medida inercial.
  • 2:06 - 2:08
    Portanto ela mede aceleração, aceleração angular --
  • 2:08 - 2:10
    tal como um ouvido humano, o ouvido interno.
  • 2:10 - 2:12
    Fundimos essa informação com uma unidade de GPS
  • 2:12 - 2:15
    para obter uma estimativa da localização do carro.
  • 2:15 - 2:18
    Também usamos duas câmaras para detectar as faixas da estrada.
  • 2:18 - 2:20
    E usamos três telémetros laser.
  • 2:20 - 2:23
    Os lasers varrem o ambiente para detectar obstáculos --
  • 2:23 - 2:25
    um carro a aproximar-se pela frente, por trás,
  • 2:25 - 2:28
    e também quaisquer obstáculos que entrem nas estradas,
  • 2:28 - 2:30
    quaisquer obstáculos à volta do veículo.
  • 2:30 - 2:33
    E esta vasta quantidade de informação é então inserida no computador,
  • 2:33 - 2:35
    e o computador pode fazer duas coisas.
  • 2:35 - 2:38
    Uma é, antes de mais, processar esta informação
  • 2:38 - 2:40
    para obter uma compreensão do ambiente --
  • 2:40 - 2:43
    estas são as faixas da estrada, estão ali os obstáculos --
  • 2:43 - 2:45
    e transmitir esta informação ao condutor.
  • 2:45 - 2:47
    O sistema também é inteligente o suficiente
  • 2:47 - 2:49
    para descobrir a maneira mais segura de conduzir o carro.
  • 2:49 - 2:51
    Portanto também podemos gerar instruções
  • 2:51 - 2:53
    sobre como operar os controlos do veículo.
  • 2:53 - 2:55
    Mas o problema é este: Como transmitimos
  • 2:55 - 2:57
    esta informação e instruções
  • 2:57 - 2:59
    a alguém que não consegue ver
  • 2:59 - 3:02
    de forma rápida e precisa o suficiente para que ele consiga conduzir?
  • 3:02 - 3:04
    Então, para isto, desenvolvemos vários tipos diferentes
  • 3:04 - 3:07
    de tecnologia de interface não-visual para utilizadores.
  • 3:07 - 3:09
    Portanto, começámos por um sistema tridimensional de som,
  • 3:09 - 3:11
    um colete de vibração,
  • 3:11 - 3:14
    um volante com comandos de voz, uma tira para a perna,
  • 3:14 - 3:16
    até um sapato que aplica pressão no pé.
  • 3:16 - 3:18
    Mas hoje vamos falar sobre
  • 3:18 - 3:20
    três destas interfaces não-visuais.
  • 3:20 - 3:23
    A primeira interface chama-se DriveGrip.
  • 3:23 - 3:25
    Estas são um par de luvas,
  • 3:25 - 3:27
    e têm elementos vibratórios na parte dos nós dos dedos,
  • 3:27 - 3:30
    para que seja possível transmitir instruções sobre como virar --
  • 3:30 - 3:32
    a direcção e intensidade.
  • 3:32 - 3:34
    Outro dispositivo é a SpeedStrip.
  • 3:34 - 3:37
    Esta é uma cadeira -- na verdade, é uma cadeira de massagens.
  • 3:37 - 3:41
    Nós abrimo-la, e rearranjamos os elementos vibratórios em diferentes padrões.
  • 3:41 - 3:44
    E fazemos com que estes transmitam informação sobre a velocidade,
  • 3:44 - 3:47
    e também instruções em como usar os pedais de aceleração e travagem.
  • 3:47 - 3:49
    Portanto aqui, podem ver
  • 3:49 - 3:51
    como o computador se apercebe do ambiente.
  • 3:51 - 3:53
    E, como não podem ver a vibração,
  • 3:53 - 3:56
    pusemos LEDs vermelhos no condutor, para que possamos ver o que está a acontecer.
  • 3:56 - 3:58
    Estes são os dados sensoriais,
  • 3:58 - 4:01
    e esses dados são transmitidos para os dispositivos pelo computador.
  • 4:01 - 4:03
    Estes dois dispositivos, DriveGrip e SpeedStrip,
  • 4:03 - 4:05
    são bastante efectivos.
  • 4:05 - 4:07
    Mas o problema é
  • 4:07 - 4:09
    que estes são dispositivos de instrução.
  • 4:09 - 4:11
    Logo, isto não é liberdade, certo?
  • 4:11 - 4:13
    O computador indica como conduzir --
  • 4:13 - 4:15
    virar à esquerda, virar à direita, acelerar, parar.
  • 4:15 - 4:17
    Chamamos a isto o problema do pendura.
  • 4:17 - 4:20
    Portanto estamos a afastar-nos deste tipo de dispositivos,
  • 4:20 - 4:22
    e agora estamos a focar-nos mais
  • 4:22 - 4:24
    em dispositivos informacionais.
  • 4:24 - 4:26
    Um bom exemplo para interfaces de informação não-visual
  • 4:26 - 4:28
    chama-se AirPix.
  • 4:28 - 4:30
    Pensem nele como um monitor para cegos.
  • 4:30 - 4:32
    É uma pequena tábua, tem muitos buracos,
  • 4:32 - 4:34
    e sai ar comprimido desses buracos,
  • 4:34 - 4:36
    portanto consegue mesmo desenhar imagens.
  • 4:36 - 4:38
    E mesmo que sejam cegos, podem pôr a mão sobre ela,
  • 4:38 - 4:40
    e ver as faixas da estrada e obstáculos.
  • 4:40 - 4:43
    Na verdade, também é possível mudar a frequência do ar a sair
  • 4:43 - 4:45
    e possivelmente a temperatura.
  • 4:45 - 4:48
    Portanto, é na verdade uma interface multi-dimensional.
  • 4:48 - 4:51
    Aqui vê-se a câmara esquerda e direita do veículo
  • 4:51 - 4:54
    e como o computador as interpreta e envia a informação para o AirPix.
  • 4:54 - 4:56
    Para isto, estamos a mostrar um simulador,
  • 4:56 - 4:59
    uma pessoa cega a conduzir usando o AirPix.
  • 4:59 - 5:02
    Este simulador também foi muito útil para treinar os condutores cegos
  • 5:02 - 5:04
    e testar rapidamente tipos diferentes de ideias
  • 5:04 - 5:06
    para tipos diferentes de interfaces não-visuais.
  • 5:06 - 5:08
    Portanto basicamente é assim que funciona.
  • 5:08 - 5:10
    E apenas há um mês,
  • 5:10 - 5:12
    a 29 de Janeiro,
  • 5:12 - 5:14
    demonstrámos este veículo pela primeira vez em público
  • 5:14 - 5:17
    na mundialmente famosa Daytona International Speedway
  • 5:17 - 5:19
    durante o evento de corridas Rolex 24.
  • 5:19 - 5:22
    Também tivemos algumas surpresas. Vamos dar uma olhadela.
  • 5:22 - 5:32
    (Música)
  • 5:32 - 5:36
    (Vídeo) Narrador: Este é um dia histórico [não está claro].
  • 5:36 - 5:40
    Ele está a chegar à bancada, caros Federistas.
  • 5:40 - 5:46
    (Aplausos)
  • 5:46 - 5:49
    (Buzinas)
  • 5:49 - 5:51
    Lá está a bancada.
  • 5:51 - 5:55
    E ele está a seguir a carrinha que está em frente dele.
  • 5:55 - 5:57
    Bem, lá vem a primeira caixa.
  • 5:57 - 6:00
    Vamos ver agora se o Mark a evita.
  • 6:00 - 6:03
    E evitou. Ele passa-a pela direita.
  • 6:05 - 6:08
    A terceira já foi. A quarta já foi.
  • 6:08 - 6:11
    E ele está a passar perfeitamente entre as duas.
  • 6:11 - 6:13
    Ele está a aproximar-se da carrinha
  • 6:13 - 6:16
    para fazer a ultrapassagem.
  • 6:17 - 6:19
    Bem é isto que se quer,
  • 6:19 - 6:23
    este tipo de demonstração dinâmica de audácia e engenhosa.
  • 6:24 - 6:27
    Ele está a chegar ao fim da linha,
  • 6:27 - 6:32
    passa entre os barris preparados.
  • 6:32 - 6:35
    (Buzinas)
  • 6:35 - 6:38
    (Aplausos)
  • 6:41 - 6:43
    Dennis Hong: Estou muito feliz por si.
  • 6:43 - 6:45
    O Mark vai-me dar uma boleia de volta ao hotel.
  • 6:45 - 6:47
    Mark Riccobono: Sim.
  • 6:50 - 6:59
    (Aplausos)
  • 6:59 - 7:01
    DH: Desde que começámos este projecto,
  • 7:01 - 7:04
    recebemos centenas de cartas, e-mails, chamadas telefónicas
  • 7:04 - 7:06
    de pessoas de todo o mundo.
  • 7:06 - 7:09
    Cartas a agradecerem-nos, mas por vezes também recebemos cartas engraçadas como esta:
  • 7:09 - 7:13
    "Agora já percebi porque é que há Braille num ATM de drive-up."
  • 7:13 - 7:15
    (Risos)
  • 7:15 - 7:17
    Mas por vezes --
  • 7:17 - 7:19
    (Risos)
  • 7:19 - 7:21
    Mas por vezes também recebo --
  • 7:21 - 7:23
    não lhe chamaria cartas de ódio --
  • 7:23 - 7:25
    mas cartas de preocupação bastante forte:
  • 7:25 - 7:27
    "Dr. Hong, é louco,
  • 7:27 - 7:29
    a tentar meter cegos na estrada?
  • 7:29 - 7:31
    Não deve bater bem."
  • 7:31 - 7:33
    "Mas este veículo é um protótipo,
  • 7:33 - 7:35
    e não vai estar na estrada
  • 7:35 - 7:37
    até que se prove que é tão, ou mais seguro que os veículos de hoje.
  • 7:37 - 7:40
    E acredito verdadeiramente que isto pode acontecer.
  • 7:40 - 7:42
    Mas ainda assim, será que a sociedade
  • 7:42 - 7:44
    iria aceitar uma ideia tão radical?
  • 7:44 - 7:46
    Como vamos tratar dos seguros?
  • 7:46 - 7:48
    Como vamos atribuir licenças de condução?
  • 7:48 - 7:51
    Há muitos destes obstáculos para além de desafios tecnológicos
  • 7:51 - 7:54
    que precisamos de resolver antes de tornar isto uma realidade.
  • 7:54 - 7:56
    É claro, o objectivo principal deste projecto
  • 7:56 - 7:58
    é desenvolver um carro para os cegos.
  • 7:58 - 8:00
    Mas potencialmente mais importante que isto
  • 8:00 - 8:03
    é o valor tremendo da tecnologia derivada
  • 8:03 - 8:05
    que pode surgir deste projecto.
  • 8:05 - 8:07
    Os sensores usados conseguem ver pelo escuro,
  • 8:07 - 8:09
    nevoeiro e chuva.
  • 8:09 - 8:11
    E juntamente com este novo tipo de interfaces,
  • 8:11 - 8:13
    podemos usar essas tecnologias
  • 8:13 - 8:15
    e aplicá-las para obter carros mais seguros para pessoas com visão.
  • 8:15 - 8:18
    Ou para os cegos, utensílios caseiros --
  • 8:18 - 8:20
    na educação, nos escritórios.
  • 8:20 - 8:23
    Imaginem, numa aula um professor escreve no quadro
  • 8:23 - 8:26
    e um estudante cego pode ver o que está escrito e ler
  • 8:26 - 8:28
    usando estas interfaces não-visuais.
  • 8:28 - 8:31
    Isto não tem preço.
  • 8:31 - 8:34
    Portanto hoje, as coisas que eu vos mostrei hoje, são apenas o começo.
  • 8:34 - 8:36
    Muito obrigado.
  • 8:36 - 8:47
    (Aplausos)
Title:
Dennis Hong: Fazer um carro para condutores cegos
Speaker:
Dennis Hong
Description:

Usando robótica, telémetros laser, GPS e ferramentas de feedback inteligente, Dennis Hong está a construir um carro para condutores cegos. Não é um carro que "se conduza a si mesmo", especifica ele cuidadosamente, mas um carro em que um condutor sem visão consiga determinar velocidade, proximidade e o caminho a tomar -- e conduza independentemente.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:48
Pedro Moura added a translation

Portuguese subtitles

Revisions