< Return to Video

Dennis Hong: Fazendo um carro para motoristas cegos

  • 0:00 - 0:03
    Muitos acreditam que dirigir é uma atividade
  • 0:03 - 0:05
    reservada exclusivamente para aqueles que podem enxergar.
  • 0:05 - 0:08
    Uma pessoa cega dirigindo um veículo de modo seguro e independente
  • 0:08 - 0:11
    era tido como uma tarefa impossível, até agora.
  • 0:11 - 0:13
    Olá, meu nome é Dennis Hong,
  • 0:13 - 0:15
    e nós estamos trazendo liberdade e independência para os cegos
  • 0:15 - 0:18
    através da criação de um veículo para os deficientes visuais.
  • 0:18 - 0:21
    Mas antes de falar sobre este carro para cegos,
  • 0:21 - 0:23
    deixem-me rapidamente contar-lhes sobre outro projeto no qual trabalhei
  • 0:23 - 0:25
    chamado 'O Desafio Urbano DARPA'.
  • 0:25 - 0:27
    Pois bem, isto foi sobre a criação de um carro robótico
  • 0:27 - 0:29
    que pode dirigir a si mesmo.
  • 0:29 - 0:31
    Você aperta a ignição, ninguém encosta em nada,
  • 0:31 - 0:34
    e ele pode chegar ao seu destino de modo totalmente autônomo.
  • 0:34 - 0:37
    Então, em 2007, nosso grupo ganhou meio milhão de dólares
  • 0:37 - 0:39
    ao ficar em terceiro lugar nesta competição.
  • 0:39 - 0:41
    Então, naquela época,
  • 0:41 - 0:43
    a Federação Nacional dos Cegos, ou NFB (sigla em inglês),
  • 0:43 - 0:45
    desafiou o comitê de pesquisa
  • 0:45 - 0:47
    sobre quem poderia desenvolver um carro
  • 0:47 - 0:49
    que permitisse uma pessoa cega a dirigir segura e independentemente.
  • 0:49 - 0:51
    Nós decidimos fazer uma tentativa,
  • 0:51 - 0:53
    pois pensamos, ei, isso não deve ser tão difícil.
  • 0:53 - 0:55
    Nós já temos um veículo autônomo.
  • 0:55 - 0:57
    Nós apenas colocaremos um cego dentro dele e está pronto, correto?
  • 0:57 - 0:59
    (Risos)
  • 0:59 - 1:01
    Não poderíamos estar mais enganados.
  • 1:01 - 1:03
    O que a NFB queria
  • 1:03 - 1:06
    não era um veículo que poderia levar um cego por aí,
  • 1:06 - 1:09
    mas um veículo no qual um cego pudesse tomar decisões ativas e dirigir.
  • 1:09 - 1:11
    Então, tivemos que jogar tudo pela janela
  • 1:11 - 1:13
    e começar do zero.
  • 1:13 - 1:15
    Então, para testar esta ideia maluca,
  • 1:15 - 1:17
    desenvolvemos um pequeno buggy como protótipo
  • 1:17 - 1:19
    para testar a viabilidade.
  • 1:19 - 1:21
    E no verão de 2009,
  • 1:21 - 1:24
    convidamos dúzias de jovens cegos de todo o país
  • 1:24 - 1:26
    e lhes demos a chance de entrar nele e dar uma volta.
  • 1:26 - 1:28
    Foi uma experiência absolutamente fantástica.
  • 1:28 - 1:30
    Mas o problema com este carro era
  • 1:30 - 1:33
    que ele foi projetado para ser guiado apenas em um ambiente muito específico,
  • 1:33 - 1:35
    em um estacionamento plano e interditado --
  • 1:35 - 1:37
    e até mesmo com as guias definidas por cones vermelhos.
  • 1:37 - 1:39
    Então, com este sucesso,
  • 1:39 - 1:41
    decidimos assumir o próximo grande passo,
  • 1:41 - 1:44
    desenvolver um carro de verdade, que pudesse ser guiado em estradas de verdade.
  • 1:44 - 1:46
    Então, como que ele funciona?
  • 1:46 - 1:48
    Bem, é um sistema algo complexo,
  • 1:48 - 1:51
    mas deixem-me tentar explicá-lo, talvez simplificá-lo.
  • 1:51 - 1:53
    Então, nós temos três passos.
  • 1:53 - 1:55
    Nós temos a percepção, a computação
  • 1:55 - 1:57
    e as interfaces não-visuais.
  • 1:57 - 1:59
    Agora, obviamente que o motorista não pode enxergar,
  • 1:59 - 2:01
    então, o sistema precisa perceber o ambiente
  • 2:01 - 2:03
    e reunir a informação para o motorista.
  • 2:03 - 2:06
    Para isso, usamos uma primeira unidade de medida.
  • 2:06 - 2:08
    Ou seja, ele mede a aceleração, a aceleração angular --
  • 2:08 - 2:10
    como o ouvido humano, o ouvido interno.
  • 2:10 - 2:12
    Nós fundimos essa informação com uma unidade de GPS
  • 2:12 - 2:15
    para ter uma estimativa da localização do carro.
  • 2:15 - 2:18
    Nós também usamos duas câmeras para detectar as faixas das estradas.
  • 2:18 - 2:20
    E também usamos três telêmetros à laser.
  • 2:20 - 2:23
    Estes lasers escaneiam o ambiente para detectarem obstáculos --
  • 2:23 - 2:25
    um carro se aproximando pela frente, por trás
  • 2:25 - 2:28
    e ainda quaisquer obstáculos que apareçam na estrada,
  • 2:28 - 2:30
    quaisquer obstáculos ao redor do veículo.
  • 2:30 - 2:33
    Então, toda esta grande quantidade de informação é introduzida em um computador,
  • 2:33 - 2:35
    e o computador pode fazer duas coisas.
  • 2:35 - 2:38
    Uma é, a primeira delas, processar esta informação
  • 2:38 - 2:40
    para ter um entendimento do ambiente --
  • 2:40 - 2:43
    essas são as faixas da estrada, existem os obstáculos --
  • 2:43 - 2:45
    e levar esta informação para o motorista.
  • 2:45 - 2:47
    O sistema ainda é inteligente o bastante
  • 2:47 - 2:49
    para calcular o modo mais seguro de conduzir o carro.
  • 2:49 - 2:51
    Então, nós podemos também gerar instruções
  • 2:51 - 2:53
    sobre como operar os controles do veículo.
  • 2:53 - 2:55
    Mas o problema é este: Como é que nós levaremos
  • 2:55 - 2:57
    estas informações e instruções
  • 2:57 - 2:59
    para uma pessoa que não pode enxergar
  • 2:59 - 3:02
    rápida e acuradamente o bastante para que ele possa dirigir?
  • 3:02 - 3:04
    Então, para isto, nós desenvolvemos vários e diferentes tipos
  • 3:04 - 3:07
    de tecnologias não-visuais de interface com o usuário.
  • 3:07 - 3:09
    Então, começando por um sistema de alarme sonoro tridimensional,
  • 3:09 - 3:11
    uma roupa que vibra,
  • 3:11 - 3:14
    um botão de comando acionado por voz, uma alça para a perna,
  • 3:14 - 3:16
    até mesmo um calçado que faz pressão sobre os pés.
  • 3:16 - 3:18
    Mas hoje falaremos sobre
  • 3:18 - 3:20
    três destas interfaces não-visuais para o usuário.
  • 3:20 - 3:23
    Agora, a primeira interface é chamada de DriveGrip.
  • 3:23 - 3:25
    Então, tem-se um par de luvas,
  • 3:25 - 3:27
    e elas possuem elementos vibratórios junto às articulações,
  • 3:27 - 3:30
    assim, você pode transmitir instruções sobre como conduzir --
  • 3:30 - 3:32
    a direção e a intensidade.
  • 3:32 - 3:34
    Um outro aparelho é chamado de SpeedStrip.
  • 3:34 - 3:37
    Então, este é um assento -- para falar a verdade, é uma cadeira de massagem.
  • 3:37 - 3:41
    Nós a desmontamos e reposicionamos os elementos vibratórios em diferentes padrões.
  • 3:41 - 3:44
    E os reprogramamos para transmitir informação sobre velocidade,
  • 3:44 - 3:47
    e também informações sobre como usar o acelerador e o freio.
  • 3:47 - 3:49
    Então, aqui, vocês podem ver
  • 3:49 - 3:51
    como o computador entende o ambiente.
  • 3:51 - 3:53
    E como vocês não podem ver a vibração,
  • 3:53 - 3:56
    instalamos, neste caso, LED's nas luvas, assim pode-se ver exatamente o que está acontecendo.
  • 3:56 - 3:58
    Estes são os dados sensoriais,
  • 3:58 - 4:01
    e esses dados são transferidos para os aparelhos através do computador.
  • 4:01 - 4:03
    Então, estes dois aparelhos, o DriveGrip e o SpeedStrip,
  • 4:03 - 4:05
    são bem eficientes.
  • 4:05 - 4:07
    Mas o problema é
  • 4:07 - 4:09
    estes são aparelhos de sinais instrutivos.
  • 4:09 - 4:11
    Assim, isto não é realmente liberdade, correto?
  • 4:11 - 4:13
    O computador diz a você como dirigir --
  • 4:13 - 4:15
    vire à esquerda, vire à direita, acelere, pare.
  • 4:15 - 4:17
    Nós chamamos isto de ' o problema do motorista do banco traseiro'.
  • 4:17 - 4:20
    Então, estamos nos afastando dos aparelhos de dicas instrucionais
  • 4:20 - 4:22
    e estamos nos concentrando mais
  • 4:22 - 4:24
    em aparelhos que fornecem informações.
  • 4:24 - 4:26
    Um bom exemplo deste tipo de interface informativa não-visual
  • 4:26 - 4:28
    é chamado de AirPix.
  • 4:28 - 4:30
    Pense nele como uma tela para cegos.
  • 4:30 - 4:32
    Ou seja, ele é uma pequena prancha que tem vários furos
  • 4:32 - 4:34
    pelos quais sai ar comprimido,
  • 4:34 - 4:36
    assim, ele pode, na verdade, delinear imagens.
  • 4:36 - 4:38
    Então, mesmo que você seja cego, você pode colocar sua mão sobre ele,
  • 4:38 - 4:40
    você pode ver as faixas da estrada e os obstáculos.
  • 4:40 - 4:43
    Na verdade, você pode mudar também a frequência do ar que sai
  • 4:43 - 4:45
    e possivelmente a temperatura.
  • 4:45 - 4:48
    Então, ele é, na verdade, uma interface de usuário multi-dimensional.
  • 4:48 - 4:51
    Pois bem, aqui vocês podem ver a câmera esquerda e direita do veículo
  • 4:51 - 4:54
    e como o computador interpreta isso e envia essa informação para o AirPix.
  • 4:54 - 4:56
    Para isto, estamos mostrando um simulador,
  • 4:56 - 4:59
    uma pessoa cega dirigindo usando o AirPix.
  • 4:59 - 5:02
    Este simulador foi também muito útil para o treinamento dos motoristas cegos
  • 5:02 - 5:04
    e para também testar rapidamente diferentes tipos de ideias
  • 5:04 - 5:06
    para diferentes tipos de interfaces não-visuais com o usuário.
  • 5:06 - 5:08
    Então, basicamente é assim que ele funciona.
  • 5:08 - 5:10
    Cerca de um mês atrás,
  • 5:10 - 5:12
    em 29 de janeiro,
  • 5:12 - 5:14
    nós divulgamos este veículo pela primeira vez junto ao público,
  • 5:14 - 5:17
    na mundialmente famosa corrida Internacional de Daytona,
  • 5:17 - 5:19
    durante o evento da corrida 'Rolex 24'.
  • 5:19 - 5:22
    Nós também tivemos algumas surpresas. Vamos dar uma olhada.
  • 5:22 - 5:32
    (Música)
  • 5:32 - 5:36
    (Vídeo) Locutor: Este é um dia histórico [inaudível].
  • 5:36 - 5:40
    Ele se aproxima da tribuna, companheiros Federistas.
  • 5:40 - 5:46
    (Aclamação)
  • 5:46 - 5:49
    (Buzinando)
  • 5:49 - 5:51
    Eis a tribuna agora.
  • 5:51 - 5:55
    E ele está [inaudível] seguindo aquela van logo à sua frente.
  • 5:55 - 5:57
    Bem, lá vai a primeira caixa.
  • 5:57 - 6:00
    Agora, vejamos se Mark desviará dela.
  • 6:00 - 6:03
    Ele desvia. Ele a ultrapassa pela direita.
  • 6:05 - 6:08
    A terceira caixa foi lançada. A quarta caixa foi lançada.
  • 6:08 - 6:11
    E ele está percorrendo perfeitamente seu caminho entre as duas.
  • 6:11 - 6:13
    Ele está se aproximando da van
  • 6:13 - 6:16
    para fazer a ultrapassagem.
  • 6:17 - 6:19
    Bem, é sobre isto que é tudo,
  • 6:19 - 6:23
    este tipo de exibição de audácia e engenhosidade.
  • 6:24 - 6:27
    Ele está se aproximando do final da volta,
  • 6:27 - 6:32
    traça seu caminho entre os barris que foram colocados lá.
  • 6:32 - 6:35
    (Buzinando)
  • 6:35 - 6:38
    (Aplausos)
  • 6:41 - 6:43
    Dennis Hong: Eu estou muito feliz por você.
  • 6:43 - 6:45
    O Mark me dará uma carona de volta para o hotel.
  • 6:45 - 6:47
    Mark Riccobono: Vou sim.
  • 6:50 - 6:59
    (Aplausos)
  • 6:59 - 7:01
    DH: Então, desde que iniciamos este projeto,
  • 7:01 - 7:04
    temos recebido centenas de cartas, emails, telefonemas
  • 7:04 - 7:06
    de pessoas do mundo todo.
  • 7:06 - 7:09
    Cartas nos agradecendo, mas algumas vêzes você também recebe cartas engraçadas como esta:
  • 7:09 - 7:13
    "Agora eu entendo porque tem Braille nas guias dos caixas eletrônicos."
  • 7:13 - 7:15
    (Risos)
  • 7:15 - 7:17
    Mas de vez em quando --
  • 7:17 - 7:19
    (Risos)
  • 7:19 - 7:21
    Mas de vez em quando eu também recebo --
  • 7:21 - 7:23
    Eu não a chamaria de odiosa correspondência --
  • 7:23 - 7:25
    mas cartas com uma preocupação realmente forte:
  • 7:25 - 7:27
    "Dr. Hong, você é louco,
  • 7:27 - 7:29
    tentando colocar pessoas cegas na estrada?
  • 7:29 - 7:31
    Você deve estar fora do seu juízo."
  • 7:31 - 7:33
    Mas este veículo é um veículo-protótipo,
  • 7:33 - 7:35
    e ele não estará nas ruas
  • 7:35 - 7:37
    até que se prove tão seguro, ou mais seguro do que os veículos atuais.
  • 7:37 - 7:40
    E eu realmente acredito que isto pode acontecer.
  • 7:40 - 7:42
    Mas ainda assim, a sociedade irá,
  • 7:42 - 7:44
    (a sociedade) aceitaria uma ideia tão radical?
  • 7:44 - 7:46
    Como que manejaríamos o seguro?
  • 7:46 - 7:48
    Como emitiríamos as carteiras de motoristas?
  • 7:48 - 7:51
    Exsitem muitos destes diferentes tipos de obstáculos, além dos desafios tecnológicos
  • 7:51 - 7:54
    que precisamos avaliar antes disto tornar-se uma realidade.
  • 7:54 - 7:56
    É claro, o principal objetivo deste projeto
  • 7:56 - 7:58
    é desenvolver um carro para os cegos.
  • 7:58 - 8:00
    Mas potencialmente mais importante do que isto
  • 8:00 - 8:03
    é o tremendo valor da tecnologia derivada
  • 8:03 - 8:05
    que pode vir deste projeto.
  • 8:05 - 8:07
    Os sensores que são usados podem "enxergar" na escuridão,
  • 8:07 - 8:09
    sob neblina e na chuva.
  • 8:09 - 8:11
    E junto com este novo tipo de interface,
  • 8:11 - 8:13
    nós podemos usar estas tecnologias
  • 8:13 - 8:15
    e aplicá-las em carros mais seguros para pessoas que enxergam.
  • 8:15 - 8:18
    Ou para os cegos, nas atividades domésticas cotidianas --
  • 8:18 - 8:20
    no cenário educacional, no ambiente do escritório.
  • 8:20 - 8:23
    Imagine apenas, numa sala de aula um professor escreve no quadro-negro
  • 8:23 - 8:26
    e um estudante cego pode ver o que está escrito e ler
  • 8:26 - 8:28
    usando estas interfaces não-visuais.
  • 8:28 - 8:31
    Isto não tem preço.
  • 8:31 - 8:34
    Então hoje, as coisas que mostrei-lhes hoje, são apenas o começo.
  • 8:34 - 8:36
    Muito obrigado.
  • 8:36 - 8:47
    (Aplausos)
Title:
Dennis Hong: Fazendo um carro para motoristas cegos
Speaker:
Dennis Hong
Description:

Usando robótica, telêmetros à laser, GPS e ferramentas de retroalimentação inteligentes, Dennis Hong está construindo um carro para motoristas que são cegos. Não se trata de um carro auto-guiado, ele faz questão de frisar, mas um carro no qual um motorista sem visão pode determinar a velocidade, aproximação e trajetória - e dirigir independentemente.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:48
Paulo Melillo added a translation

Portuguese, Brazilian subtitles

Revisions