< Return to Video

¿Qué decisiones morales deberían tomar los vehículos autónomos?

  • 0:01 - 0:05
    Hoy voy a hablar de tecnología
    y de la sociedad.
  • 0:07 - 0:11
    El Departamento de Transporte
    estimó que, el año pasado,
  • 0:11 - 0:15
    hubo 35 000 muertos
    en accidentes de auto, tan solo en EE.UU.
  • 0:16 - 0:21
    A nivel mundial, mueren 1,2 millones
    de personas por año en accidentes de auto.
  • 0:22 - 0:26
    Si hubiera una manera de eliminar
    el 90 % de esos accidentes,
  • 0:26 - 0:27
    ¿apoyarían la causa?
  • 0:28 - 0:29
    Por supuesto que lo harían.
  • 0:29 - 0:33
    Esto es lo que promete
    la tecnología de vehículos autónomos,
  • 0:33 - 0:36
    al eliminar la principal causa
    de accidentes:
  • 0:36 - 0:37
    el error humano.
  • 0:38 - 0:43
    Imagínense en el año 2030,
    viajando en un vehículo autónomo,
  • 0:43 - 0:47
    sentados, mirando este video vintage
    de un evento TEDxCambridge.
  • 0:47 - 0:49
    (Risas)
  • 0:50 - 0:51
    De pronto,
  • 0:51 - 0:54
    el auto tiene una falla mecánica
    y no puede detenerse.
  • 0:55 - 0:57
    Si el auto continúa,
  • 0:58 - 1:02
    va a atropellar a un grupo
    de peatones que cruza la calle.
  • 1:03 - 1:05
    Pero el auto puede cambiar de dirección,
  • 1:05 - 1:07
    atropellar a un solo transeúnte,
  • 1:07 - 1:09
    matarlo, y así salvar a los peatones.
  • 1:10 - 1:13
    ¿Qué debería hacer el auto,
    y quién debería decidir?
  • 1:14 - 1:17
    ¿Y si en cambio el auto
    pudiera irse contra una pared,
  • 1:17 - 1:20
    chocar y matarte a ti, el pasajero,
  • 1:20 - 1:23
    para salvar a los peatones?
  • 1:23 - 1:26
    Este caso hipotético está inspirado
    en el dilema del tranvía,
  • 1:27 - 1:31
    que fue inventado por unos filósofos
    hace unas décadas
  • 1:31 - 1:32
    para reflexionar sobre la ética.
  • 1:34 - 1:37
    Es importante saber
    cómo pensamos en este problema.
  • 1:37 - 1:39
    Podríamos, por ejemplo,
    no pensar en esto en absoluto.
  • 1:39 - 1:43
    Podríamos decir que la situación
    es poco realista,
  • 1:43 - 1:45
    remotamente probable,
    o simplemente absurda.
  • 1:46 - 1:48
    Pero para mí esta crítica
    pierde de vista el problema,
  • 1:49 - 1:51
    porque se toma la situación
    muy al pie de la letra.
  • 1:52 - 1:55
    Por supuesto que ningún accidente
    es exactamente así;
  • 1:55 - 1:58
    ningún accidente tiene dos o tres opciones
  • 1:58 - 2:00
    donde de una forma u otra muere alguien.
  • 2:01 - 2:04
    Lo que va a ocurrir,
    es que el auto va a calcular algo,
  • 2:04 - 2:09
    como la probabilidad de atropellar
    a un determinado grupo de personas
  • 2:09 - 2:12
    si toma una dirección u otra.
  • 2:12 - 2:16
    Se podría aumentar levemente el riesgo
    de los pasajeros y conductores,
  • 2:16 - 2:17
    en favor de los peatones.
  • 2:17 - 2:20
    Va a ser un cálculo más complejo,
  • 2:20 - 2:23
    pero aun así va a implicar
    hacer concesiones,
  • 2:24 - 2:27
    y las concesiones normalmente
    requieren una ética.
  • 2:28 - 2:31
    Podríamos decir: "Bueno,
    no nos preocupemos por esto.
  • 2:31 - 2:35
    Esperemos a que la tecnología esté
    totalmente preparada y sea 100 % segura".
  • 2:37 - 2:40
    Supongamos que efectivamente podemos
    eliminar el 90 % de esos accidentes,
  • 2:41 - 2:44
    o incluso el 99 % en los próximos 10 años.
  • 2:45 - 2:48
    ¿Qué pasaría si eliminar el 1 %
    de los accidentes restante
  • 2:48 - 2:51
    llevara 50 años más de investigación?
  • 2:52 - 2:54
    ¿No deberíamos adoptar la tecnología?
  • 2:55 - 2:59
    Estaríamos hablando de 60 millones
    de muertos en accidentes de auto
  • 3:00 - 3:01
    si seguimos al ritmo al que vamos.
  • 3:03 - 3:04
    Quiere decir que,
  • 3:04 - 3:08
    esperar a tener seguridad total
    también es una elección
  • 3:08 - 3:10
    y también implica hacer concesiones.
  • 3:12 - 3:16
    En línea, en las redes sociales, la gente
    ha estado proponiendo todo tipo de ideas
  • 3:16 - 3:18
    para no pensar en este problema.
  • 3:18 - 3:21
    Una persona sugirió que el auto
    debería zigzaguear de alguna forma
  • 3:21 - 3:23
    entre los peatones...
  • 3:23 - 3:24
    (Risas)
  • 3:24 - 3:26
    y el transeúnte.
  • 3:26 - 3:29
    Por supuesto que, si el auto fuera capaz
    de hacer eso, debería hacerlo.
  • 3:30 - 3:33
    Pero nos interesan las situaciones
    donde esto no es posible.
  • 3:33 - 3:39
    Mi favorita fue la idea de un bloguero
  • 3:39 - 3:42
    que propuso un botón de "eyectarse"
    que se presiona justo antes...
  • 3:42 - 3:43
    (Risas)
  • 3:43 - 3:45
    de que el auto se autodestruya.
  • 3:45 - 3:46
    (Risas)
  • 3:48 - 3:53
    Entonces, si aceptamos que los autos
    van a tener que hacer concesiones,
  • 3:54 - 3:56
    ¿cómo pensamos en esas concesiones,
  • 3:57 - 3:59
    y cómo decidimos cuáles son?
  • 3:59 - 4:02
    Tal vez deberíamos hacer una encuesta
    y ver qué quiere la sociedad,
  • 4:02 - 4:04
    porque en última instancia,
  • 4:04 - 4:08
    las regulaciones y las leyes
    son el reflejo de los valores sociales.
  • 4:08 - 4:09
    Y fue lo que hicimos.
  • 4:10 - 4:11
    Con mis colaboradores,
  • 4:12 - 4:14
    Jean-François Bonnefon y Azim Shariff,
  • 4:14 - 4:15
    hicimos una encuesta
  • 4:16 - 4:18
    en la que le propusimos a la gente
    este tipo de situaciones.
  • 4:18 - 4:22
    Les dimos dos opciones
    inspiradas en dos filósofos:
  • 4:22 - 4:25
    Jeremy Bentham e Immanuel Kant.
  • 4:26 - 4:29
    Bentham dice que el auto
    debería seguir la ética del utilitarismo:
  • 4:29 - 4:32
    debería tomar la acción
    que minimice el daño total,
  • 4:32 - 4:35
    aun si esto implica matar a un transeúnte,
  • 4:35 - 4:37
    y aun si esto implica matar al pasajero.
  • 4:38 - 4:43
    Immanuel Kant dice que el auto
    debería seguir la ética del deber,
  • 4:43 - 4:45
    tal como "No matarás".
  • 4:45 - 4:50
    O sea que no deberías tomar ninguna acción
    que implique hacerle daño a un ser humano,
  • 4:50 - 4:52
    y deberías dejar que el auto siga su curso
  • 4:52 - 4:54
    aun si eso resulta en más heridos.
  • 4:56 - 4:57
    ¿Uds. qué piensan?
  • 4:57 - 4:59
    ¿Bentham o Kant?
  • 5:00 - 5:01
    El resultado fue este:
  • 5:01 - 5:03
    la mayoría optó por Bentham.
  • 5:04 - 5:08
    Así que parece que la gente quiere
    que los autos sean utilitarios,
  • 5:08 - 5:09
    minimizar el daño total,
  • 5:09 - 5:11
    y eso es lo que deberíamos hacer.
  • 5:11 - 5:12
    Problema solucionado.
  • 5:13 - 5:15
    Pero hay una pequeña trampa.
  • 5:16 - 5:20
    Cuando le preguntamos a la gente
    si comprarían estos autos,
  • 5:20 - 5:21
    la respuesta fue un "No" rotundo.
  • 5:21 - 5:24
    (Risas)
  • 5:24 - 5:28
    Les gustaría comprar un auto
    que los proteja a ellos a toda costa,
  • 5:28 - 5:31
    pero quieren que los demás compren autos
    que minimicen el daño.
  • 5:31 - 5:34
    (Risas)
  • 5:35 - 5:37
    Ya conocemos este tipo de problema.
  • 5:37 - 5:38
    Es un dilema social.
  • 5:39 - 5:41
    Y para entender el dilema social,
  • 5:41 - 5:43
    hay que retroceder
    un poco en la historia.
  • 5:44 - 5:47
    En el 1800,
  • 5:47 - 5:50
    el economista inglés William Forster Lloyd
    publicó un folleto
  • 5:50 - 5:53
    que describe la siguiente situación.
  • 5:53 - 5:54
    Hay un grupo de pastores,
  • 5:54 - 5:56
    pastores ingleses,
  • 5:56 - 5:58
    que comparten un prado común
    donde pastan sus ovejas.
  • 6:00 - 6:02
    Si cada pastor
    trae una cierta cantidad de ovejas,
  • 6:02 - 6:04
    digamos tres ovejas,
  • 6:04 - 6:06
    el suelo se recupera bien,
  • 6:06 - 6:07
    los pastores contentos,
  • 6:07 - 6:09
    las ovejas contentas,
  • 6:09 - 6:10
    todo va bien.
  • 6:10 - 6:13
    Ahora, si uno de los pastores
    trae una oveja extra,
  • 6:14 - 6:19
    ese pastor va a estar un poquito mejor,
    y nadie más va a salir perjudicado.
  • 6:19 - 6:23
    Pero si cada pastor tomara esa decisión
    individualmente racional,
  • 6:24 - 6:27
    el prado se vería sobreexplotado
    y el pasto se agotaría,
  • 6:27 - 6:30
    en detrimento de todos los pastores,
  • 6:30 - 6:32
    y por supuesto,
    en detrimento de las ovejas.
  • 6:33 - 6:36
    Es un problema que se ve mucho:
  • 6:37 - 6:40
    en la dificultad de
    controlar la sobrepesca,
  • 6:40 - 6:45
    o al reducir las emisiones de carbono
    para contrarrestar el cambio climático.
  • 6:47 - 6:50
    Volviendo al tema de la regulación
    de vehículos autónomos,
  • 6:51 - 6:55
    el prado común vendría a ser
    básicamente la seguridad pública;
  • 6:55 - 6:57
    ese es el bien común.
  • 6:57 - 6:59
    Y los pastores serían los pasajeros
  • 6:59 - 7:03
    o los dueños de los autos que
    eligen viajar en esos vehículos.
  • 7:05 - 7:08
    Y al tomar la decisión
    individualmente racional
  • 7:08 - 7:10
    de priorizar su propia seguridad,
  • 7:10 - 7:14
    podrían estar disminuyendo
    colectivamente el bien común,
  • 7:14 - 7:16
    que es minimizar el daño total.
  • 7:18 - 7:20
    Esto se llama "tragedia de los comunes",
  • 7:20 - 7:22
    tradicionalmente,
  • 7:22 - 7:25
    pero creo que en el caso
    de los vehículos autónomos,
  • 7:25 - 7:28
    el problema es tal vez
    un poquito más traicionero
  • 7:28 - 7:31
    porque no es necesariamente
    un ser humano
  • 7:31 - 7:33
    el que toma las decisiones.
  • 7:33 - 7:36
    Entonces, los fabricantes podrían
    simplemente programar los autos
  • 7:36 - 7:39
    para maximizar la seguridad
    de sus clientes.
  • 7:40 - 7:43
    Y esos autos podrían aprender,
    automáticamente y por su cuenta,
  • 7:43 - 7:47
    que hacer eso requiere aumentar
    levemente el riesgo de los peatones.
  • 7:48 - 7:49
    O sea que, volviendo a las ovejas:
  • 7:49 - 7:53
    es como si ahora tuviéramos
    ovejas eléctricas que piensan solas.
  • 7:53 - 7:54
    (Risas)
  • 7:54 - 7:57
    Y pueden irse a pastar solas
    aunque el pastor no lo sepa.
  • 7:59 - 8:03
    O sea que a esto podríamos llamarlo
    "la tragedia de los comunes algorítmicos",
  • 8:03 - 8:05
    y nos presenta nuevos desafíos.
  • 8:11 - 8:12
    Típicamente, tradicionalmente,
  • 8:12 - 8:16
    este tipo de dilemas sociales
    se resuelven implementando regulación.
  • 8:16 - 8:19
    Ya sea el gobierno
    o la comunidad, se juntan
  • 8:19 - 8:22
    y deciden colectivamente
    qué resultado quieren obtener,
  • 8:22 - 8:25
    y qué tipo de restricciones
    a la conducta individual
  • 8:25 - 8:26
    necesitan implementar.
  • 8:28 - 8:30
    Y luego, a través del control
    y la imposición de normas,
  • 8:30 - 8:33
    pueden garantizar
    la preservación del bien común.
  • 8:33 - 8:35
    Entonces ¿por qué no exigimos,
  • 8:35 - 8:37
    en nuestro rol de reguladores,
  • 8:37 - 8:39
    que todos los autos
    tienen que minimizar el daño?
  • 8:39 - 8:42
    A fin de cuentas, eso es
    lo que la gente dice que quiere.
  • 8:43 - 8:45
    Y más importante aún,
  • 8:45 - 8:48
    puedo estar seguro de que, como individuo,
  • 8:48 - 8:52
    si compro un auto que en un caso
    muy extremo podría llegar a sacrificarme,
  • 8:52 - 8:53
    no soy el único papanatas haciéndolo
  • 8:53 - 8:56
    mientras todos los demás
    gozan de protección ilimitada.
  • 8:57 - 9:00
    En nuestra encuesta indagamos
    acerca de la idea de la regulación,
  • 9:00 - 9:02
    y el resultado fue este:
  • 9:02 - 9:06
    Primero, la gente dijo
    "no" a la regulación;
  • 9:07 - 9:09
    y segundo:
  • 9:09 - 9:12
    "Bueno, si van a regular los autos
    para actuar así y minimizar el daño total,
  • 9:13 - 9:14
    yo no los voy a comprar".
  • 9:15 - 9:17
    Entonces, irónicamente,
  • 9:17 - 9:20
    al regular los autos
    para minimizar el daño,
  • 9:20 - 9:22
    podríamos acabar con más daño
  • 9:23 - 9:27
    porque la gente no adoptaría
    esta nueva tecnología
  • 9:27 - 9:29
    aun cuando es mucho más segura
    que los conductores humanos.
  • 9:30 - 9:34
    No tengo la respuesta final
    a este acertijo,
  • 9:34 - 9:35
    pero creo que, para empezar,
  • 9:35 - 9:39
    necesitamos que la sociedad
    se ponga de acuerdo
  • 9:39 - 9:42
    sobre las concesiones
    que está dispuesta a aceptar,
  • 9:42 - 9:46
    y las posibles maneras
    de imponer esas concesiones.
  • 9:47 - 9:49
    Como punto de partida,
    mis brillantes alumnos,
  • 9:49 - 9:52
    Edmond Awad y Sohan Dsouza,
  • 9:52 - 9:54
    construyeron el sitio web Moral Machine,
  • 9:54 - 9:57
    que genera y presenta
    situaciones hipotéticas al azar;
  • 9:58 - 10:01
    es básicamente una secuencia
    aleatoria de dilemas
  • 10:01 - 10:04
    donde tienes que elegir
    qué debería hacer el auto en cada caso.
  • 10:05 - 10:10
    Y variamos las edades y hasta las especies
    de las distintas víctimas.
  • 10:11 - 10:15
    Hasta ahora hemos recolectado
    más de 5 millones de decisiones,
  • 10:15 - 10:17
    de más de un millón de personas
    en todo el mundo
  • 10:18 - 10:20
    a través del sitio web.
  • 10:20 - 10:23
    Esto nos está ayudando
    a pintar un panorama inicial
  • 10:23 - 10:25
    de las concesiones
    que la gente está dispuesta a hacer
  • 10:25 - 10:27
    y de qué es lo que les importa,
  • 10:27 - 10:29
    incluso en distintas culturas.
  • 10:30 - 10:32
    Pero, lo que es más importante,
  • 10:32 - 10:35
    este ejercicio está ayudando
    a la gente a comprender
  • 10:35 - 10:38
    lo difícil que es tomar esas decisiones,
  • 10:38 - 10:42
    y que los organismos reguladores
    se enfrentan con decisiones imposibles.
  • 10:43 - 10:47
    Y tal vez esto nos ayude, como sociedad,
    a entender el tipo de concesiones
  • 10:47 - 10:50
    que se van a implementar,
    en última instancia, como normativa.
  • 10:50 - 10:52
    Me alegré mucho cuando me enteré
  • 10:52 - 10:54
    de que el primer conjunto de regulaciones
  • 10:54 - 10:56
    que publicó el Departamento de Transporte
  • 10:56 - 10:57
    la semana pasada
  • 10:57 - 11:04
    incluye una lista de 15 ítems
    que deben presentar los fabricantes,
  • 11:04 - 11:07
    y el número 14
    es "consideraciones éticas";
  • 11:07 - 11:09
    cómo van a manejar ese tema.
  • 11:12 - 11:15
    En el sitio, la gente también
    puede reflexionar sobre sus decisiones
  • 11:15 - 11:18
    al recibir un resumen
    de las opciones que eligieron.
  • 11:18 - 11:20
    Les voy a dar un ejemplo.
  • 11:20 - 11:24
    Les advierto que no es un ejemplo típico;
  • 11:24 - 11:25
    no es un usuario típico.
  • 11:25 - 11:29
    Estos son los individuos que esta persona
    más salvó y más sacrificó.
  • 11:29 - 11:34
    (Risas)
  • 11:35 - 11:37
    Algunos de Uds. estarán de acuerdo con él,
  • 11:37 - 11:38
    o ella, no sabemos.
  • 11:40 - 11:47
    Esta persona también parece inclinarse
    más a favor del pasajero que del peatón,
  • 11:47 - 11:49
    según las opciones que escogió,
  • 11:49 - 11:52
    y no tiene problema
    en castigar al peatón imprudente.
  • 11:52 - 11:55
    (Risas)
  • 11:57 - 11:59
    Entonces, redondeando.
  • 11:59 - 12:02
    Empezamos con la pregunta,
    llamémosle dilema ético,
  • 12:02 - 12:05
    de qué debería hacer el auto
    en una situación específica:
  • 12:05 - 12:07
    ¿cambiar de dirección o seguir?
  • 12:07 - 12:10
    Pero luego nos dimos cuenta
    de que el problema es otro.
  • 12:10 - 12:13
    El problema es que la sociedad
    se ponga de acuerdo
  • 12:13 - 12:16
    sobre qué concesiones le son aceptables
    y cómo imponerlas.
  • 12:17 - 12:18
    Es un dilema social.
  • 12:18 - 12:23
    En 1940, Isaac Asimov escribió
    sus famosas leyes de la robótica;
  • 12:23 - 12:24
    las tres leyes de la robótica.
  • 12:25 - 12:28
    Un robot no hará daño al ser humano,
  • 12:28 - 12:30
    un robot debe obedecer al ser humano,
  • 12:30 - 12:34
    y un robot debe preservarse a sí mismo.
  • 12:34 - 12:36
    En ese orden de importancia.
  • 12:36 - 12:38
    Pero después de 40 años más o menos,
  • 12:39 - 12:42
    y después de tantas historias
    que llevaron estas leyes al límite,
  • 12:42 - 12:46
    Asimov introdujo la ley cero,
  • 12:46 - 12:48
    que precede a las demás,
  • 12:48 - 12:52
    y es que un robot
    no hará daño a la Humanidad.
  • 12:52 - 12:57
    No sé qué quiere decir esto
    en el contexto de los vehículos autónomos,
  • 12:57 - 13:00
    o en cualquier situación específica,
  • 13:00 - 13:02
    y no sé cómo lo podemos implementar,
  • 13:02 - 13:03
    pero creo que reconociendo
  • 13:03 - 13:10
    que la regulación de vehículos autónomos
    no es solo un problema tecnológico
  • 13:10 - 13:13
    sino también un problema
    de cooperación social,
  • 13:14 - 13:17
    espero que podamos al menos empezar
    a hacer las preguntas adecuadas.
  • 13:17 - 13:18
    Gracias.
  • 13:18 - 13:21
    (Aplausos)
Title:
¿Qué decisiones morales deberían tomar los vehículos autónomos?
Speaker:
Iyad Rahwan
Description:

Si para salvarle a vida a cinco peatones tu vehículo autónomo tuviera que matarte a ti ¿debería hacerlo? En esta introducción a los dilemas sociales de los vehículos autónomos, Iyad Rahwan analiza cómo esta tecnología va a desafiar nuestra moralidad. Asimismo, Rahwan explica su trabajo de recolección de datos a través de encuestas con el público, acerca de los compromisos éticos que estamos dispuestos a hacer, o no.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:35

Spanish subtitles

Revisions