Return to Video

O dilema ético dos carros autodirigíveis - Patrick Lin

  • 0:07 - 0:09
    Este é um experimento mental.
  • 0:09 - 0:12
    Digamos que, em algum ponto
    de um futuro não tão distante,
  • 0:12 - 0:15
    você esteja à vontade na estrada,
    em seu carro autodirigível,
  • 0:15 - 0:19
    e se veja encurralado
    por carros em todos os lados.
  • 0:19 - 0:24
    De repente, um objeto grande e pesado
    cai do caminhão que está à sua frente.
  • 0:24 - 0:27
    Seu carro não consegue
    parar a tempo de evitar a colisão,
  • 0:27 - 0:29
    e ele precisa decidir:
  • 0:29 - 0:31
    seguir em frente e colidir com o objeto,
  • 0:31 - 0:34
    desviar para a esquerda e bater num SUV,
  • 0:34 - 0:37
    ou desviar para a direita
    e bater numa moto.
  • 0:37 - 0:40
    Será que ele deve priorizar
    a sua segurança, atingindo a moto;
  • 0:40 - 0:43
    minimizar o risco aos outros,
    não desviando para o lado,
  • 0:43 - 0:47
    mesmo que isso signifique colidir
    com o grande objeto e sacrificar sua vida;
  • 0:47 - 0:50
    ou ficar no meio termo e bater no SUV,
  • 0:50 - 0:53
    que tem um alto índice
    de segurança para passageiros?
  • 0:53 - 0:56
    O que o autodirigível deve fazer, então?
  • 0:56 - 1:00
    Se estivéssemos dirigindo
    manualmente esse carro encurralado,
  • 1:00 - 1:04
    qualquer que fosse nossa reação,
    seria apenas isso, uma reação,
  • 1:04 - 1:06
    não uma decisão intencional.
  • 1:06 - 1:11
    Seria um movimento instintivo e abrupto,
    sem premeditação ou maldade.
  • 1:11 - 1:15
    Mas se um programador instruísse
    o carro a fazer a mesma manobra,
  • 1:15 - 1:17
    dando-lhe condições
    de prever situações semelhantes,
  • 1:17 - 1:21
    bem, isso parece mais
    homicídio premeditado.
  • 1:21 - 1:22
    Bem, para ser justo,
  • 1:22 - 1:26
    espera-se que carros autodirigíveis
    reduzam drasticamente
  • 1:26 - 1:31
    os acidentes de trânsito e fatalidades,
    retirando a falha humana da equação.
  • 1:31 - 1:34
    E talvez haja vários outros benefícios:
  • 1:34 - 1:37
    menos congestionamento,
    menos emissão de gases nocivos
  • 1:37 - 1:41
    e menos tempo improdutivo
    e estressante na direção.
  • 1:41 - 1:43
    Mas os acidentes podem
    e vão continuar ocorrendo
  • 1:43 - 1:47
    e, quando ocorrerem, os resultados
    poderão ser determinados
  • 1:47 - 1:49
    com meses ou anos de antecedência
  • 1:49 - 1:51
    por programadores ou gestores públicos.
  • 1:51 - 1:54
    E eles terão decisões difíceis a tomar.
  • 1:54 - 1:57
    É tentador elaborar princípios gerais
    de tomada de decisão,
  • 1:57 - 1:59
    como "minimizar danos",
  • 1:59 - 2:02
    mas até isso imediatamente nos leva
    a decisões moralmente obscuras.
  • 2:02 - 2:05
    Por exemplo, na situação
    apresentada no início,
  • 2:05 - 2:09
    digamos que uma motociclista
    esteja à esquerda, com capacete,
  • 2:09 - 2:11
    e que outro motociclista,
    sem capacete, esteja à direita.
  • 2:11 - 2:14
    Com qual deles seu carro-robô
    deveria colidir?
  • 2:14 - 2:18
    Se você disser que é com a com capacete
    porque tem mais chances de sobreviver,
  • 2:18 - 2:21
    você não estaria penalizando
    uma motorista responsável?
  • 2:21 - 2:26
    Se você salvar o que está sem capacete,
    por ele estar sendo irresponsável,
  • 2:26 - 2:31
    você terá ido muito além
    do princípio inicial de minimizar danos,
  • 2:31 - 2:35
    e o carro-robô agora estará
    atuando como juiz nas ruas.
  • 2:35 - 2:38
    As considerações éticas
    ficam mais complicadas aqui.
  • 2:38 - 2:40
    Em ambos os cenários,
  • 2:40 - 2:44
    a programação oculta estará funcionando
    como um algoritmo de escolha de alvos.
  • 2:44 - 2:48
    Em outras palavras, estará favorecendo
    ou discriminando, de forma sistemática,
  • 2:48 - 2:52
    determinado tipo de objeto
    com o qual pode colidir ou não.
  • 2:52 - 2:57
    E os proprietários dos veículos-alvo
    sofrerão as consequências desse algoritmo
  • 2:57 - 2:59
    sem ter qualquer culpa.
  • 2:59 - 3:03
    Nossas novas tecnologias estão trazendo
    muitos outros novos dilemas éticos.
  • 3:03 - 3:05
    Por exemplo, se você tivesse que escolher
  • 3:05 - 3:10
    entre um carro que sempre poupasse
    o máximo de vidas possível num acidente,
  • 3:10 - 3:12
    ou um que poupasse você a qualquer custo,
  • 3:12 - 3:14
    qual você compraria?
  • 3:14 - 3:17
    E se os carros começarem
    a analisar e a julgar
  • 3:17 - 3:21
    os passageiros dos carros
    e as particularidades de suas vidas?
  • 3:21 - 3:23
    Será que uma decisão aleatória
  • 3:23 - 3:28
    seria melhor do que uma premeditada
    que vise a minimizar os danos?
  • 3:28 - 3:31
    De qualquer forma, quem deveria
    tomar todas essas decisões?
  • 3:31 - 3:34
    Programadores? Empresas? Governos?
  • 3:34 - 3:38
    A realidade pode não ser exatamente
    como nossos experimentos mentais,
  • 3:38 - 3:39
    mas essa não é a questão.
  • 3:39 - 3:43
    Eles são feitos para isolar e pôr à prova
    nossas intuições sobre a ética,
  • 3:43 - 3:47
    tal como experimentos científicos
    fazem com o mundo físico.
  • 3:47 - 3:50
    Vislumbrar agora
    essas curvas morais sinuosas
  • 3:50 - 3:54
    vai nos ajudar a manobrar na estrada
    desconhecida da ética tecnológica
  • 3:54 - 3:57
    e nos permitir viajar
    de forma confiante e cuidadosa
  • 3:57 - 4:00
    rumo ao nosso novo e corajoso futuro.
Title:
O dilema ético dos carros autodirigíveis - Patrick Lin
Speaker:
Patrick Lin
Description:

Veja a lição completa: http://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin

Carros autodirigíveis já estão andando nas ruas hoje em dia. Embora esses carros sejam mais seguros do que os normais, eles não podem evitar acidentes de modo absoluto. Como os carros deveriam ser programados para um acidente inevitável? Patrick LIn explora os obscuros caminhos éticos dos carros autodirigíveis.

Lição de Patrick Lin, animação de Yukai Du.

more » « less
Video Language:
English
Team:
closed TED
Project:
TED-Ed
Duration:
04:16

Portuguese, Brazilian subtitles

Revisions Compare revisions