¿Qué decisiones morales deberían tomar los vehículos autónomos?
-
0:01 - 0:05Hoy voy a hablar de tecnología
y de la sociedad. -
0:07 - 0:11El Departamento de Transporte
estimó que, el año pasado, -
0:11 - 0:15hubo 35 000 muertos
en accidentes de auto, tan solo en EE.UU. -
0:16 - 0:21A nivel mundial, mueren 1,2 millones
de personas por año en accidentes de auto. -
0:22 - 0:26Si hubiera una manera de eliminar
el 90 % de esos accidentes, -
0:26 - 0:27¿apoyarían la causa?
-
0:28 - 0:29Por supuesto que lo harían.
-
0:29 - 0:33Esto es lo que promete
la tecnología de vehículos autónomos, -
0:33 - 0:36al eliminar la principal causa
de accidentes: -
0:36 - 0:37el error humano.
-
0:38 - 0:43Imagínense en el año 2030,
viajando en un vehículo autónomo, -
0:43 - 0:47sentados, mirando este video vintage
de un evento TEDxCambridge. -
0:47 - 0:49(Risas)
-
0:50 - 0:51De pronto,
-
0:51 - 0:54el auto tiene una falla mecánica
y no puede detenerse. -
0:55 - 0:57Si el auto continúa,
-
0:58 - 1:02va a atropellar a un grupo
de peatones que cruza la calle. -
1:03 - 1:05Pero el auto puede cambiar de dirección,
-
1:05 - 1:07atropellar a un solo transeúnte,
-
1:07 - 1:09matarlo, y así salvar a los peatones.
-
1:10 - 1:13¿Qué debería hacer el auto,
y quién debería decidir? -
1:14 - 1:17¿Y si en cambio el auto
pudiera irse contra una pared, -
1:17 - 1:20chocar y matarte a ti, el pasajero,
-
1:20 - 1:23para salvar a los peatones?
-
1:23 - 1:26Este caso hipotético está inspirado
en el dilema del tranvía, -
1:27 - 1:31que fue inventado por unos filósofos
hace unas décadas -
1:31 - 1:32para reflexionar sobre la ética.
-
1:34 - 1:37Es importante saber
cómo pensamos en este problema. -
1:37 - 1:39Podríamos, por ejemplo,
no pensar en esto en absoluto. -
1:39 - 1:43Podríamos decir que la situación
es poco realista, -
1:43 - 1:45remotamente probable,
o simplemente absurda. -
1:46 - 1:48Pero para mí esta crítica
pierde de vista el problema, -
1:49 - 1:51porque se toma la situación
muy al pie de la letra. -
1:52 - 1:55Por supuesto que ningún accidente
es exactamente así; -
1:55 - 1:58ningún accidente tiene dos o tres opciones
-
1:58 - 2:00donde de una forma u otra muere alguien.
-
2:01 - 2:04Lo que va a ocurrir,
es que el auto va a calcular algo, -
2:04 - 2:09como la probabilidad de atropellar
a un determinado grupo de personas -
2:09 - 2:12si toma una dirección u otra.
-
2:12 - 2:16Se podría aumentar levemente el riesgo
de los pasajeros y conductores, -
2:16 - 2:17en favor de los peatones.
-
2:17 - 2:20Va a ser un cálculo más complejo,
-
2:20 - 2:23pero aun así va a implicar
hacer concesiones, -
2:24 - 2:27y las concesiones normalmente
requieren una ética. -
2:28 - 2:31Podríamos decir: "Bueno,
no nos preocupemos por esto. -
2:31 - 2:35Esperemos a que la tecnología esté
totalmente preparada y sea 100 % segura". -
2:37 - 2:40Supongamos que efectivamente podemos
eliminar el 90 % de esos accidentes, -
2:41 - 2:44o incluso el 99 % en los próximos 10 años.
-
2:45 - 2:48¿Qué pasaría si eliminar el 1 %
de los accidentes restante -
2:48 - 2:51llevara 50 años más de investigación?
-
2:52 - 2:54¿No deberíamos adoptar la tecnología?
-
2:55 - 2:59Estaríamos hablando de 60 millones
de muertos en accidentes de auto -
3:00 - 3:01si seguimos al ritmo al que vamos.
-
3:03 - 3:04Quiere decir que,
-
3:04 - 3:08esperar a tener seguridad total
también es una elección -
3:08 - 3:10y también implica hacer concesiones.
-
3:12 - 3:16En línea, en las redes sociales, la gente
ha estado proponiendo todo tipo de ideas -
3:16 - 3:18para no pensar en este problema.
-
3:18 - 3:21Una persona sugirió que el auto
debería zigzaguear de alguna forma -
3:21 - 3:23entre los peatones...
-
3:23 - 3:24(Risas)
-
3:24 - 3:26y el transeúnte.
-
3:26 - 3:29Por supuesto que, si el auto fuera capaz
de hacer eso, debería hacerlo. -
3:30 - 3:33Pero nos interesan las situaciones
donde esto no es posible. -
3:33 - 3:39Mi favorita fue la idea de un bloguero
-
3:39 - 3:42que propuso un botón de "eyectarse"
que se presiona justo antes... -
3:42 - 3:43(Risas)
-
3:43 - 3:45de que el auto se autodestruya.
-
3:45 - 3:46(Risas)
-
3:48 - 3:53Entonces, si aceptamos que los autos
van a tener que hacer concesiones, -
3:54 - 3:56¿cómo pensamos en esas concesiones,
-
3:57 - 3:59y cómo decidimos cuáles son?
-
3:59 - 4:02Tal vez deberíamos hacer una encuesta
y ver qué quiere la sociedad, -
4:02 - 4:04porque en última instancia,
-
4:04 - 4:08las regulaciones y las leyes
son el reflejo de los valores sociales. -
4:08 - 4:09Y fue lo que hicimos.
-
4:10 - 4:11Con mis colaboradores,
-
4:12 - 4:14Jean-François Bonnefon y Azim Shariff,
-
4:14 - 4:15hicimos una encuesta
-
4:16 - 4:18en la que le propusimos a la gente
este tipo de situaciones. -
4:18 - 4:22Les dimos dos opciones
inspiradas en dos filósofos: -
4:22 - 4:25Jeremy Bentham e Immanuel Kant.
-
4:26 - 4:29Bentham dice que el auto
debería seguir la ética del utilitarismo: -
4:29 - 4:32debería tomar la acción
que minimice el daño total, -
4:32 - 4:35aun si esto implica matar a un transeúnte,
-
4:35 - 4:37y aun si esto implica matar al pasajero.
-
4:38 - 4:43Immanuel Kant dice que el auto
debería seguir la ética del deber, -
4:43 - 4:45tal como "No matarás".
-
4:45 - 4:50O sea que no deberías tomar ninguna acción
que implique hacerle daño a un ser humano, -
4:50 - 4:52y deberías dejar que el auto siga su curso
-
4:52 - 4:54aun si eso resulta en más heridos.
-
4:56 - 4:57¿Uds. qué piensan?
-
4:57 - 4:59¿Bentham o Kant?
-
5:00 - 5:01El resultado fue este:
-
5:01 - 5:03la mayoría optó por Bentham.
-
5:04 - 5:08Así que parece que la gente quiere
que los autos sean utilitarios, -
5:08 - 5:09minimizar el daño total,
-
5:09 - 5:11y eso es lo que deberíamos hacer.
-
5:11 - 5:12Problema solucionado.
-
5:13 - 5:15Pero hay una pequeña trampa.
-
5:16 - 5:20Cuando le preguntamos a la gente
si comprarían estos autos, -
5:20 - 5:21la respuesta fue un "No" rotundo.
-
5:21 - 5:24(Risas)
-
5:24 - 5:28Les gustaría comprar un auto
que los proteja a ellos a toda costa, -
5:28 - 5:31pero quieren que los demás compren autos
que minimicen el daño. -
5:31 - 5:34(Risas)
-
5:35 - 5:37Ya conocemos este tipo de problema.
-
5:37 - 5:38Es un dilema social.
-
5:39 - 5:41Y para entender el dilema social,
-
5:41 - 5:43hay que retroceder
un poco en la historia. -
5:44 - 5:47En el 1800,
-
5:47 - 5:50el economista inglés William Forster Lloyd
publicó un folleto -
5:50 - 5:53que describe la siguiente situación.
-
5:53 - 5:54Hay un grupo de pastores,
-
5:54 - 5:56pastores ingleses,
-
5:56 - 5:58que comparten un prado común
donde pastan sus ovejas. -
6:00 - 6:02Si cada pastor
trae una cierta cantidad de ovejas, -
6:02 - 6:04digamos tres ovejas,
-
6:04 - 6:06el suelo se recupera bien,
-
6:06 - 6:07los pastores contentos,
-
6:07 - 6:09las ovejas contentas,
-
6:09 - 6:10todo va bien.
-
6:10 - 6:13Ahora, si uno de los pastores
trae una oveja extra, -
6:14 - 6:19ese pastor va a estar un poquito mejor,
y nadie más va a salir perjudicado. -
6:19 - 6:23Pero si cada pastor tomara esa decisión
individualmente racional, -
6:24 - 6:27el prado se vería sobreexplotado
y el pasto se agotaría, -
6:27 - 6:30en detrimento de todos los pastores,
-
6:30 - 6:32y por supuesto,
en detrimento de las ovejas. -
6:33 - 6:36Es un problema que se ve mucho:
-
6:37 - 6:40en la dificultad de
controlar la sobrepesca, -
6:40 - 6:45o al reducir las emisiones de carbono
para contrarrestar el cambio climático. -
6:47 - 6:50Volviendo al tema de la regulación
de vehículos autónomos, -
6:51 - 6:55el prado común vendría a ser
básicamente la seguridad pública; -
6:55 - 6:57ese es el bien común.
-
6:57 - 6:59Y los pastores serían los pasajeros
-
6:59 - 7:03o los dueños de los autos que
eligen viajar en esos vehículos. -
7:05 - 7:08Y al tomar la decisión
individualmente racional -
7:08 - 7:10de priorizar su propia seguridad,
-
7:10 - 7:14podrían estar disminuyendo
colectivamente el bien común, -
7:14 - 7:16que es minimizar el daño total.
-
7:18 - 7:20Esto se llama "tragedia de los comunes",
-
7:20 - 7:22tradicionalmente,
-
7:22 - 7:25pero creo que en el caso
de los vehículos autónomos, -
7:25 - 7:28el problema es tal vez
un poquito más traicionero -
7:28 - 7:31porque no es necesariamente
un ser humano -
7:31 - 7:33el que toma las decisiones.
-
7:33 - 7:36Entonces, los fabricantes podrían
simplemente programar los autos -
7:36 - 7:39para maximizar la seguridad
de sus clientes. -
7:40 - 7:43Y esos autos podrían aprender,
automáticamente y por su cuenta, -
7:43 - 7:47que hacer eso requiere aumentar
levemente el riesgo de los peatones. -
7:48 - 7:49O sea que, volviendo a las ovejas:
-
7:49 - 7:53es como si ahora tuviéramos
ovejas eléctricas que piensan solas. -
7:53 - 7:54(Risas)
-
7:54 - 7:57Y pueden irse a pastar solas
aunque el pastor no lo sepa. -
7:59 - 8:03O sea que a esto podríamos llamarlo
"la tragedia de los comunes algorítmicos", -
8:03 - 8:05y nos presenta nuevos desafíos.
-
8:11 - 8:12Típicamente, tradicionalmente,
-
8:12 - 8:16este tipo de dilemas sociales
se resuelven implementando regulación. -
8:16 - 8:19Ya sea el gobierno
o la comunidad, se juntan -
8:19 - 8:22y deciden colectivamente
qué resultado quieren obtener, -
8:22 - 8:25y qué tipo de restricciones
a la conducta individual -
8:25 - 8:26necesitan implementar.
-
8:28 - 8:30Y luego, a través del control
y la imposición de normas, -
8:30 - 8:33pueden garantizar
la preservación del bien común. -
8:33 - 8:35Entonces ¿por qué no exigimos,
-
8:35 - 8:37en nuestro rol de reguladores,
-
8:37 - 8:39que todos los autos
tienen que minimizar el daño? -
8:39 - 8:42A fin de cuentas, eso es
lo que la gente dice que quiere. -
8:43 - 8:45Y más importante aún,
-
8:45 - 8:48puedo estar seguro de que, como individuo,
-
8:48 - 8:52si compro un auto que en un caso
muy extremo podría llegar a sacrificarme, -
8:52 - 8:53no soy el único papanatas haciéndolo
-
8:53 - 8:56mientras todos los demás
gozan de protección ilimitada. -
8:57 - 9:00En nuestra encuesta indagamos
acerca de la idea de la regulación, -
9:00 - 9:02y el resultado fue este:
-
9:02 - 9:06Primero, la gente dijo
"no" a la regulación; -
9:07 - 9:09y segundo:
-
9:09 - 9:12"Bueno, si van a regular los autos
para actuar así y minimizar el daño total, -
9:13 - 9:14yo no los voy a comprar".
-
9:15 - 9:17Entonces, irónicamente,
-
9:17 - 9:20al regular los autos
para minimizar el daño, -
9:20 - 9:22podríamos acabar con más daño
-
9:23 - 9:27porque la gente no adoptaría
esta nueva tecnología -
9:27 - 9:29aun cuando es mucho más segura
que los conductores humanos. -
9:30 - 9:34No tengo la respuesta final
a este acertijo, -
9:34 - 9:35pero creo que, para empezar,
-
9:35 - 9:39necesitamos que la sociedad
se ponga de acuerdo -
9:39 - 9:42sobre las concesiones
que está dispuesta a aceptar, -
9:42 - 9:46y las posibles maneras
de imponer esas concesiones. -
9:47 - 9:49Como punto de partida,
mis brillantes alumnos, -
9:49 - 9:52Edmond Awad y Sohan Dsouza,
-
9:52 - 9:54construyeron el sitio web Moral Machine,
-
9:54 - 9:57que genera y presenta
situaciones hipotéticas al azar; -
9:58 - 10:01es básicamente una secuencia
aleatoria de dilemas -
10:01 - 10:04donde tienes que elegir
qué debería hacer el auto en cada caso. -
10:05 - 10:10Y variamos las edades y hasta las especies
de las distintas víctimas. -
10:11 - 10:15Hasta ahora hemos recolectado
más de 5 millones de decisiones, -
10:15 - 10:17de más de un millón de personas
en todo el mundo -
10:18 - 10:20a través del sitio web.
-
10:20 - 10:23Esto nos está ayudando
a pintar un panorama inicial -
10:23 - 10:25de las concesiones
que la gente está dispuesta a hacer -
10:25 - 10:27y de qué es lo que les importa,
-
10:27 - 10:29incluso en distintas culturas.
-
10:30 - 10:32Pero, lo que es más importante,
-
10:32 - 10:35este ejercicio está ayudando
a la gente a comprender -
10:35 - 10:38lo difícil que es tomar esas decisiones,
-
10:38 - 10:42y que los organismos reguladores
se enfrentan con decisiones imposibles. -
10:43 - 10:47Y tal vez esto nos ayude, como sociedad,
a entender el tipo de concesiones -
10:47 - 10:50que se van a implementar,
en última instancia, como normativa. -
10:50 - 10:52Me alegré mucho cuando me enteré
-
10:52 - 10:54de que el primer conjunto de regulaciones
-
10:54 - 10:56que publicó el Departamento de Transporte
-
10:56 - 10:57la semana pasada
-
10:57 - 11:04incluye una lista de 15 ítems
que deben presentar los fabricantes, -
11:04 - 11:07y el número 14
es "consideraciones éticas"; -
11:07 - 11:09cómo van a manejar ese tema.
-
11:12 - 11:15En el sitio, la gente también
puede reflexionar sobre sus decisiones -
11:15 - 11:18al recibir un resumen
de las opciones que eligieron. -
11:18 - 11:20Les voy a dar un ejemplo.
-
11:20 - 11:24Les advierto que no es un ejemplo típico;
-
11:24 - 11:25no es un usuario típico.
-
11:25 - 11:29Estos son los individuos que esta persona
más salvó y más sacrificó. -
11:29 - 11:34(Risas)
-
11:35 - 11:37Algunos de Uds. estarán de acuerdo con él,
-
11:37 - 11:38o ella, no sabemos.
-
11:40 - 11:47Esta persona también parece inclinarse
más a favor del pasajero que del peatón, -
11:47 - 11:49según las opciones que escogió,
-
11:49 - 11:52y no tiene problema
en castigar al peatón imprudente. -
11:52 - 11:55(Risas)
-
11:57 - 11:59Entonces, redondeando.
-
11:59 - 12:02Empezamos con la pregunta,
llamémosle dilema ético, -
12:02 - 12:05de qué debería hacer el auto
en una situación específica: -
12:05 - 12:07¿cambiar de dirección o seguir?
-
12:07 - 12:10Pero luego nos dimos cuenta
de que el problema es otro. -
12:10 - 12:13El problema es que la sociedad
se ponga de acuerdo -
12:13 - 12:16sobre qué concesiones le son aceptables
y cómo imponerlas. -
12:17 - 12:18Es un dilema social.
-
12:18 - 12:23En 1940, Isaac Asimov escribió
sus famosas leyes de la robótica; -
12:23 - 12:24las tres leyes de la robótica.
-
12:25 - 12:28Un robot no hará daño al ser humano,
-
12:28 - 12:30un robot debe obedecer al ser humano,
-
12:30 - 12:34y un robot debe preservarse a sí mismo.
-
12:34 - 12:36En ese orden de importancia.
-
12:36 - 12:38Pero después de 40 años más o menos,
-
12:39 - 12:42y después de tantas historias
que llevaron estas leyes al límite, -
12:42 - 12:46Asimov introdujo la ley cero,
-
12:46 - 12:48que precede a las demás,
-
12:48 - 12:52y es que un robot
no hará daño a la Humanidad. -
12:52 - 12:57No sé qué quiere decir esto
en el contexto de los vehículos autónomos, -
12:57 - 13:00o en cualquier situación específica,
-
13:00 - 13:02y no sé cómo lo podemos implementar,
-
13:02 - 13:03pero creo que reconociendo
-
13:03 - 13:10que la regulación de vehículos autónomos
no es solo un problema tecnológico -
13:10 - 13:13sino también un problema
de cooperación social, -
13:14 - 13:17espero que podamos al menos empezar
a hacer las preguntas adecuadas. -
13:17 - 13:18Gracias.
-
13:18 - 13:21(Aplausos)
- Title:
- ¿Qué decisiones morales deberían tomar los vehículos autónomos?
- Speaker:
- Iyad Rahwan
- Description:
-
more » « less
Si para salvarle a vida a cinco peatones tu vehículo autónomo tuviera que matarte a ti ¿debería hacerlo? En esta introducción a los dilemas sociales de los vehículos autónomos, Iyad Rahwan analiza cómo esta tecnología va a desafiar nuestra moralidad. Asimismo, Rahwan explica su trabajo de recolección de datos a través de encuestas con el público, acerca de los compromisos éticos que estamos dispuestos a hacer, o no.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:35
|
Sebastian Betti approved Spanish subtitles for What moral decisions should driverless cars make? | |
|
Sebastian Betti edited Spanish subtitles for What moral decisions should driverless cars make? | |
|
Sebastian Betti edited Spanish subtitles for What moral decisions should driverless cars make? | |
|
Sebastian Betti edited Spanish subtitles for What moral decisions should driverless cars make? | |
|
Sebastian Betti edited Spanish subtitles for What moral decisions should driverless cars make? | |
|
Sebastian Betti edited Spanish subtitles for What moral decisions should driverless cars make? | |
|
Sebastian Betti edited Spanish subtitles for What moral decisions should driverless cars make? | |
|
Sebastian Betti accepted Spanish subtitles for What moral decisions should driverless cars make? |
