< Return to Video

Justice: What's The Right Thing To Do? Episode 02: "PUTTING A PRICE TAG ON LIFE"

  • 0:04 - 0:07
    Subtitulos en español
  • 0:07 - 0:12
    Centro de Capacitación Judicial de La Pampa
  • 0:33 - 0:35
    La ultima clase discutimos sobre
  • 0:35 - 0:39
    el caso de la Corona vs. Dudley y Stephens
  • 0:39 - 0:46
    el caso del bote salvavidas, del canibalismo en alta mar
  • 0:46 - 0:48
    y teniendo en cuenta la discusión sobre
  • 0:48 - 0:49
    esa balsa,
  • 0:49 - 0:54
    recordando los argumentos a favor y en contra de lo que hicieron Dudley y Stevens
  • 0:54 - 0:57
    volvemos a la
  • 0:57 - 0:58
    filosofía
  • 0:58 - 1:02
    a la filosofía utilitarista de Jeremy Bentham
  • 1:02 - 1:06
    Bentham nació en Inglaterra en 1748. A los doce años
  • 1:06 - 1:10
    fue a Oxford, a los quince fue a la Facultad de Derecho.
  • 1:10 - 1:15
    Obtuvo la matrícula a los 19, pero nunca ejerció la abogacía
  • 1:15 - 1:17
    y en lugar de ello dedicó su vida
  • 1:18 - 1:20
    a la jurisprudencia y a la
  • 1:20 - 1:22
    filosofía moral
  • 1:22 - 1:28
    La ultima clase comenzamos a ver la visión de Bentham sobre el utilitarismo
  • 1:28 - 1:29
    la idea principal
  • 1:29 - 1:33
    se enuncia fácilmente y es esta
  • 1:33 - 1:36
    el principio más alto de la moralidad
  • 1:36 - 1:39
    sea la moralidad personal o la política
  • 1:39 - 1:40
    es
  • 1:40 - 1:43
    el de maximizar
  • 1:43 - 1:44
    el bienestar general
  • 1:44 - 1:47
    o la felicidad colectiva
  • 1:47 - 1:50
    o el balance conjunto de placeres y dolores
  • 1:50 - 1:52
    en una frase
  • 1:52 - 1:53
    maximizar
  • 1:53 - 1:56
    la utilidad
  • 1:56 - 2:01
    Bentham llega a este principio a través de la siguiente línea de razonamiento
  • 2:01 - 2:03
    Todos somos gobernados por el dolor y el placer
  • 2:03 - 2:09
    que son nuestros amos y soberanos, y por tanto todo sistema moral debe tenerlos en cuenta
  • 2:09 - 2:11
    ¿Cuál es la mejor forma de tenerlos en cuenta?
  • 2:11 - 2:14
    A través de su maximización
  • 2:14 - 2:16
    lo que nos lleva al principio
  • 2:16 - 2:19
    del mayor bien para el mayor número
  • 2:19 - 2:23
    ¿Qué es lo que exactamente debemos maximizar?
  • 2:23 - 2:25
    Bentham nos dice que
  • 2:25 - 2:26
    es la felicidad
  • 2:26 - 2:28
    o más precisamente,
  • 2:28 - 2:29
    la utilidad.
  • 2:29 - 2:34
    Maximizar la utilidad es el principio no sólo para individuos sino también para comunidades y
  • 2:34 - 2:37
    para los legisladores
  • 2:37 - 2:39
    ¿Qué es, después de todo, una comunidad,
  • 2:39 - 2:41
    se pregunta Bentham,
  • 2:41 - 2:45
    sino la suma de los individuos que la componen?
  • 2:45 - 2:47
    y eso es así porque
  • 2:47 - 2:53
    al decidir cuál es la mejor política, como debería ser la ley, qué es lo que sería justo
  • 2:53 - 2:59
    ciudadanos y legisladores deben plantearse cual es la suma
  • 2:59 - 3:04
    de todos los beneficios de esa política
  • 3:04 - 3:05
    y le restamos
  • 3:05 - 3:09
    todos los costos
  • 3:09 - 3:11
    la cosa correcta que debemos hacer
  • 3:11 - 3:12
    es aquella que
  • 3:12 - 3:13
    maximiza
  • 3:13 - 3:15
    el balance
  • 3:15 - 3:16
    de felicidades
  • 3:16 - 3:21
    contra sufrimientos.
  • 3:21 - 3:24
    Eso es lo que significa maximizar la utilidad.
  • 3:24 - 3:25
    Ahora, hoy
  • 3:25 - 3:28
    quiero ver
  • 3:28 - 3:31
    si ustedes están de acuerdo o no con esto.
  • 3:31 - 3:37
    que suele aparecer, esta lógica utilitaria, bajo el nombre de "análisis de costo-beneficio"
  • 3:37 - 3:40
    que es utilizado por muchas empresas
  • 3:40 - 3:41
    y por
  • 3:41 - 3:42
    gobiernos
  • 3:42 - 3:44
    todo el tiempo
  • 3:44 - 3:45
    y que implica
  • 3:45 - 3:51
    asignar usualmente un valor monetario para medir la utilidad
  • 3:51 - 3:53
    de los costos y beneficios
  • 3:53 - 3:57
    de distintas propuestas.
  • 3:57 - 3:59
    Hace poco en la República Checa
  • 3:59 - 4:03
    hubo una propuesta para aumentar el impuesto a las ventas de los cigarrillos.
  • 4:03 - 4:05
    Phillip Morris
  • 4:05 - 4:08
    la companía de tabaco
  • 4:08 - 4:10
    hace grandes negocios.
  • 4:10 - 4:13
    en la República Checa. Y prepararon
  • 4:13 - 4:15
    un estudio de análisis de costo-beneficio
  • 4:15 - 4:17
    sobre fumadores
  • 4:17 - 4:19
    en la República Checa
  • 4:19 - 4:21
    y el saldo de costos y beneficios
  • 4:21 - 4:24
    ese análisis encontró que había
  • 4:24 - 4:26
    beneficios para el gobierno
  • 4:26 - 4:27
    al
  • 4:27 - 4:31
    permitir que los ciudadanos checos puedan fumar.
  • 4:31 - 4:32
    Ahora, ¿Cómo es que había ganancias?
  • 4:32 - 4:36
    Es verdad que había efectos negativos
  • 4:36 - 4:40
    para las finanzas del gobierno checo
  • 4:40 - 4:45
    porque había mayores costos para el sistema de salud por gente que al fumar desarrollaba
  • 4:45 - 4:47
    enfermedades.
  • 4:47 - 4:50
    Por otro lado, había efectos positivos
  • 4:50 - 4:52
    que eran considerados y
  • 4:52 - 4:53
    computados en
  • 4:53 - 4:55
    la otra columna del balance.
  • 4:55 - 5:02
    Los efectos positivos incluían, en su mayor parte, los ingresos del gobierno por impuestos
  • 5:02 - 5:06
    producto de la venta de cigarros, pero también incluían los ahorros del sistema de salud derivados
  • 5:06 - 5:10
    de la población que fallece a una edad más temprana
  • 5:10 - 5:13
    ahorros del sistema previsional, que tiene que pagar pensiones por menos tiempo
  • 5:13 - 5:15
    y también ahorros
  • 5:15 - 5:20
    en costos de vivienda para adultos mayores
  • 5:20 - 5:25
    y cuando todos estos costos y beneficios se sumaban
  • 5:25 - 5:26
    el estudio de Philip Morris
  • 5:26 - 5:28
    encuentra que
  • 5:28 - 5:33
    existe una ganancia fiscal neta en la República Checa
  • 5:33 - 5:36
    de $ 147 millones de dólares
  • 5:36 - 5:38
    y teniendo en cuenta los ahorros
  • 5:38 - 5:41
    en vivienda y salud y en prestaciones previsionales
  • 5:41 - 5:47
    el gasto público se reduce en más de 1.200 dólares
  • 5:47 - 5:53
    por cada persona que muere prematuramente por el hábito de fumar.
  • 5:53 - 5:57
    Análisis de costo-beneficio.
  • 5:57 - 6:02
    Ahora, quienes defienden el utilitarismo pueden pensar que se trata de un
  • 6:02 - 6:03
    test injusto
  • 6:03 - 6:09
    Philip Morris fue ridiculizada en la prensa y emitió una disculpa por haber hecho este
  • 6:09 - 6:11
    insensible cálculo.
  • 6:11 - 6:12
    Pueden decir aún
  • 6:12 - 6:17
    que aquí falta algo que un utilitarista podría fácilmente incluir en el análisis
  • 6:17 - 6:19
    esto es
  • 6:19 - 6:23
    el valor que asignamos a la persona y a las familias de aquellos que mueren
  • 6:23 - 6:26
    de cáncer de pulmón.
  • 6:26 - 6:29
    ¿Qué hay del valor de la vida?
  • 6:29 - 6:33
    Algunos análisis de costo-beneficio incorporan
  • 6:33 - 6:35
    una medida
  • 6:35 - 6:37
    del valor de la vida humana
  • 6:37 - 6:41
    Uno de los más famosos de estos análisis fue el del caso del Ford Pinto
  • 6:41 - 6:45
    ¿Alguien se acuerda de esto? Allá por la década del setenta, pueden recordar que
  • 6:45 - 6:48
    el Ford Pinto era un tipo de auto?
  • 6:48 - 6:51
    ¿Alguien se acuerda?
  • 6:51 - 6:56
    Era un auto pequeño, un subcompacto, muy popular.
  • 6:56 - 6:58
    pero tenía un problema
  • 6:58 - 7:02
    que era que el tanque de combustible estaba en la parte trasera del auto
  • 7:02 - 7:08
    y en choques desde atrás el tanque explotaba
  • 7:08 - 7:10
    y algunas personas murieron
  • 7:10 - 7:14
    y otras resultaron gravemente heridas.
  • 7:14 - 7:19
    Las víctimas de estas heridas demandaron a la Ford
  • 7:19 - 7:22
    y en el juicio se reveló que
  • 7:22 - 7:24
    la Ford conocía desde
  • 7:24 - 7:25
    hace tiempo
  • 7:25 - 7:28
    la vulnerabilidad del tanque de combustible
  • 7:28 - 7:34
    y que había hecho un análisis de costo-beneficio para determinar si le convenía
  • 7:34 - 7:36
    poner un blindaje especial
  • 7:36 - 7:40
    que evitaría que el tanque llegara a explotar
  • 7:40 - 7:43
    Hicieron un análisis de costo-beneficio
  • 7:43 - 7:46
    y el costo por unidad
  • 7:46 - 7:48
    de incrementar la seguridad
  • 7:48 - 7:50
    del Pinto
  • 7:50 - 7:56
    era de 11 dólares por unidad
  • 7:56 - 7:57
    y aquí está el análisis de costo-beneficio
  • 7:57 - 7:59
    que surgió en el juicio
  • 7:59 - 8:01
    (REPARANDO EL FORD PINTO)
  • 8:01 - 8:03
    (COSTOS) (BENEFICIOS)
  • 8:03 - 8:06
    11 dólares por unidad
  • 8:06 - 8:10
    multiplicado por 12,5 millones de autos
  • 8:10 - 8:14
    equivalía a un costo total de
  • 8:13 - 8:17
    137 millones de dólares para mejorar la seguridad
  • 8:17 - 8:19
    pero también calcularon
  • 8:19 - 8:20
    los beneficios
  • 8:20 - 8:23
    de gastar todo ese dinero en un auto más seguro
  • 8:23 - 8:27
    y estimaron 180 muertes
  • 8:27 - 8:29
    y le asignaron un valor monetario
  • 8:29 - 8:30
    de 200 mill dólares
  • 8:30 - 8:32
    cada una
  • 8:32 - 8:35
    180 lesiones graves
  • 8:35 - 8:37
    a 67.000 dólares cada una
  • 8:37 - 8:39
    y el costo de reparación
  • 8:39 - 8:43
    de reemplazar los 200.000 vehículos que se destruirían
  • 8:43 - 8:45
    por no tener el blindaje.
  • 8:45 - 8:48
    a 700 dólares por vehículo
  • 8:48 - 8:50
    De donde los beneficios
  • 8:50 - 8:54
    resultaban ser de sólo 49,5 millones de dólares.
  • 8:54 - 8:55
    y por eso
  • 8:55 - 8:56
    no instalaron
  • 8:56 - 8:58
    el blindaje.
  • 8:58 - 9:00
    Naturalmente
  • 9:00 - 9:02
    cuando este memo
  • 9:01 - 9:09
    de la compañía Ford y su análisis de costo-beneficio se reveló en el juicio
  • 9:09 - 9:11
    impactó a los jurados
  • 9:11 - 9:16
    que concedieron una enorme indemnización.
  • 9:16 - 9:22
    ¿Es este un contraejemplo del cálculo utilitarista
  • 9:22 - 9:23
    ya que Ford incluyó
  • 9:23 - 9:27
    una medida de la vida humana?
  • 9:27 - 9:31
    A ver, quién quiere defender
  • 9:31 - 9:33
    este análisis de costo beneficio
  • 9:33 - 9:35
    este aparente contraejemplo.
  • 9:35 - 9:39
    ¿Quien hace una defensa?
  • 9:39 - 9:42
    ¿O piensa que esto destruye por completo
  • 9:42 - 9:47
    todo el cálculo utilitarista?
  • 9:47 - 9:49
    Yo pienso que
  • 9:49 - 9:53
    incurrimos en el mismo error que en el caso anterior cuando asignamos un valor monetario
  • 9:53 - 9:57
    a la vida humana y que de nuevo omitimos tener en cuenta cosas como
  • 9:57 - 10:01
    el sufrimiento y la pérdida emocional de las familias, quiero decir, las familias perdieron ingresos
  • 10:01 - 10:04
    pero también perdieron seres queridos y eso
  • 10:04 - 10:07
    es más valioso que 200.000 dólares.
  • 10:07 - 10:09
    Bien, bien. Espera, ¿cuál es tu nombre?
  • 10:09 - 10:10
    Julie Rottel
  • 10:10 - 10:14
    Así que si 200.000 es, Julie, es muy poco
  • 10:14 - 10:19
    es una cifra muy baja porque no incluye la pérdida de un ser querido,
  • 10:19 - 10:22
    y la pérdida de esos años de vida.
  • 10:22 - 10:24
    ¿Cual pensarías vos que sería
  • 10:24 - 10:27
    un número más acertado?
  • 10:27 - 10:32
    No creo que pueda dar una cifra. Pienso que este tipo de análisis no puede aplicarse a
  • 10:32 - 10:34
    cuestiones de la vida humana.
  • 10:34 - 10:36
    que no puede ser cuantificado monetariamente.
  • 10:36 - 10:39
    Entonces, no fue que ellos pusieran una cifra muy baja,
  • 10:39 - 10:45
    dice Julie, sino que hicieron mal por el solo hecho haber puesto una cifra, cualquiera que fuera.
  • 10:45 - 10:50
    Perfecto, oigamos a alguien que
  • 10:50 - 10:52
    (tendrías que ajustar por inflación)
  • 10:58 - 10:59
    de acuerdo
  • 10:59 - 11:00
    hagamoslo.
  • 11:00 - 11:03
    ¿Cuál sería el número hoy?
  • 11:03 - 11:08
    Eso fue hace treinta y cinco años.
  • 11:08 - 11:10
    dos millones de dólares
  • 11:10 - 11:12
    tendrías que poner dos millones
  • 11:12 - 11:14
    ¿cuál es tu nombre?
  • 11:14 - 11:15
    Boyle
  • 11:15 - 11:17
    Boyle dice que tenemos que ajustar por inflación
  • 11:17 - 11:20
    que deberíamos ser más generosos
  • 11:20 - 11:25
    entonces estarías de acuerdo con que esa es la forma correcta de pensar el asunto?
  • 11:25 - 11:27
    Creo que desafortunadamente
  • 11:27 - 11:30
    tiene que
  • 11:30 - 11:33
    es necesario poner un número allí
  • 11:33 - 11:37
    no estoy seguro cuál es ese número pero concuerdo en que posiblemente
  • 11:37 - 11:39
    haya que poner un número
  • 11:39 - 11:41
    a la vida humana.
  • 11:41 - 11:42
    Perfecto, entonces
  • 11:42 - 11:44
    Boyle dice
  • 11:44 - 11:46
    y en esto disiente con
  • 11:46 - 11:47
    Julie
  • 11:47 - 11:50
    Julie dice que no podemos poner un valor a la vida humana
  • 11:50 - 11:54
    para un análisis de costo-beneficio. Boyle dice que tenemos que hacerlo
  • 11:54 - 12:00
    porque de algún modo tenemos que tomar decisiones.
  • 12:00 - 12:05
    ¿Qué piensan los demás de esto? ¿Hay alguien dispuesto a defender el
  • 12:05 - 12:06
    análisis costo-beneficio
  • 12:06 - 12:10
    como preciso, como deseable?
  • 12:10 - 12:16
    Pienso que si Ford y otras automotrices no usaran el análisis de costo-beneficio terminarían
  • 12:16 - 12:19
    quebrando porque necesitan hacerlo para obtener ganancias
  • 12:19 - 12:23
    y millones de personas no podrían usar sus autos para ir al trabajo, para ganarse el pan,
  • 12:23 - 12:28
    para alimentar a sus hijos, por eso pienso que si no usamos el análisis de costo-beneficio
  • 12:28 - 12:30
    el bien mayor
  • 12:30 - 12:32
    es sacrificado
  • 12:32 - 12:35
    en el caso. - Bien, ¿cual es tu nombre?
  • 12:35 - 12:38
    - Raul. - Raul.
  • 12:38 - 12:42
    Hace poco hubo un estudio sobre el uso de teléfonos celulares por conductores que van
  • 12:42 - 12:43
    manejando un auto
  • 12:43 - 12:47
    y un debate sobre si debía ser prohibido
  • 12:47 - 12:49
    y
  • 12:49 - 12:51
    las cifras daban que algo como
  • 12:51 - 12:55
    dos mil personas mueren
  • 12:55 - 12:57
    por accidentes
  • 12:57 - 12:59
    cada año
  • 12:59 - 13:02
    por usar celulares
  • 13:02 - 13:08
    y aún así el análisis de costo-beneficio que hizo el Centro de Análisis de Riesgos en Harvard
  • 13:08 - 13:11
    encontró que si observás los beneficios
  • 13:11 - 13:14
    del uso de teléfonos celulares
  • 13:14 - 13:15
    y asignás algún tipo
  • 13:15 - 13:19
    de valor a la vida, surge que
  • 13:19 - 13:23
    debido a los enormes beneficios económicos de permitir que la gente haga mejor uso
  • 13:23 - 13:27
    de su tiempo, no pierda tiempo, se ponga de acuerdo y hable con amigos, y todo eso
  • 13:27 - 13:30
    mientras conducen
  • 13:30 - 13:32
    ¿No nos sugiere eso
  • 13:32 - 13:36
    que es un error el intentar asignar valores monetarios
  • 13:36 - 13:38
    en temas de vida humana?
  • 13:38 - 13:39
    - Bueno, pienso que si
  • 13:39 - 13:42
    la gran mayoría de la gente
  • 13:42 - 13:48
    intenta derivar la mayor utilidad de un servicio como el de la telefónia móvil y la comodidad que
  • 13:48 - 13:48
    los celulares nos dan
  • 13:48 - 13:50
    algún sacrificio es necesario
  • 13:50 - 13:52
    para
  • 13:52 - 13:53
    llegar a un resultado satisfactorio.
  • 13:53 - 13:59
    - Sos un utilitarista total - Sí, es así.
  • 13:59 - 14:03
    Correcto, entonces, una pregunta más Raúl
  • 14:03 - 14:06
    y también se la hago a Boyle
  • 14:06 - 14:08
    ¿Qué valor le darían en dinero
  • 14:08 - 14:13
    a la vida humana al decidir si van a prohibir el uso de celulares?
  • 14:13 - 14:15
    Bueno, no quiero ser
  • 14:15 - 14:16
    arbitrario
  • 14:16 - 14:18
    al calcular una cifra ahora mismo
  • 14:18 - 14:19
    Pienso que
  • 14:21 - 14:24
    querrías asesorarte con alguien
  • 14:24 - 14:25
    Si, lo estudiaría bien.
  • 14:25 - 14:29
    Pero en una estimación rápida, ¿cuánto dirías que es? Si tenés 23.000 muertes
  • 14:29 - 14:32
    si tenés que asignarle un valor en dinero para saber si vas a prevenir esas muertes por
  • 14:32 - 14:37
    prohibir el uso de celulares en los autos
  • 14:37 - 14:39
    y cuál sería el valor que intuitivamente le darías?
  • 14:39 - 14:40
    ¿Cuánto?
  • 14:40 - 14:41
    ¿Un millón?
  • 14:41 - 14:42
    ¿Dos millones?
  • 14:42 - 14:44
    Dos millones dijo Boyle.
  • 14:44 - 14:46
    - ¿Algo como eso está bien? - Puede ser un millón
  • 14:46 - 14:50
    ¿Un millón?
  • 14:50 - 14:55
    Perfecto, está bien, gracias.
  • 14:55 - 15:00
    Entonces, estas son algunas controversias que surgen actualmente de los análisis de costo-beneficio
  • 15:00 - 15:02
    especialmente aquellas que implican
  • 15:02 - 15:07
    asignar un valor monetario a sumar para cualquier cosa
  • 15:07 - 15:09
    Ahora quiero volver sobre
  • 15:09 - 15:15
    sus objeciones, no aquellas que apuntan al análisis de costo-beneficio específicamente
  • 15:15 - 15:18
    porque esa sólo una de las versiones
  • 15:18 - 15:22
    de la lógica utilitaria que se usa actualmente
  • 15:22 - 15:27
    sino a la teoría en sí, a la idea
  • 15:27 - 15:30
    de que la cosa correcta que debe hacerse
  • 15:30 - 15:34
    la base justa para la política y el derecho
  • 15:34 - 15:36
    es la maximización
  • 15:36 - 15:40
    de la utilidad.
  • 15:40 - 15:42
    ¿Cuántos están en desacuerdo
  • 15:42 - 15:43
    con el enfoque utilitario
  • 15:43 - 15:44
  • 15:44 - 15:46
    del derecho
  • 15:46 - 15:48
    y del bien común?
  • 15:48 - 15:52
    ¿Cuántos están de acuerdo?
  • 15:52 - 15:55
    Veo que son más los que están de acuerdo.
  • 15:55 - 16:00
    Oigamos entonces a los críticos
  • 16:00 - 16:02
    El tema principal que yo siento es que
  • 16:02 - 16:06
    no se puede decir que sólo porque alguien está en una minoría
  • 16:06 - 16:12
    lo que quieren y necesitan es menos valioso que alguien que está en una mayoría
  • 16:12 - 16:14
    por eso pienso que esa idea
  • 16:14 - 16:16
    del mayor bien para el mayor número
  • 16:16 - 16:18
    está bien porque
  • 16:18 - 16:21
    va a haber quienes estén en
  • 16:21 - 16:25
    la minoría, y no es justo que no se tenga en cuenta
  • 16:25 - 16:26
    su parecer.
  • 16:26 - 16:29
    Bien, esa es una objeción interesante, vos estás preocupada por
  • 16:29 - 16:32
    el efecto sobre las minorías. Si
  • 16:32 - 16:35
    -¿Cual es tu nombre? - Ana
  • 16:35 - 16:40
    Bien. ¿Quién puede responderle a Ana que está preocupada por el efecto sobre las minorías?
  • 16:40 - 16:42
    ¿Que le dirías a Ana?
  • 16:42 - 16:43
    Ella dice que
  • 16:43 - 16:47
    las minorías son menos valoradas. No creo que sea el caso porque individualmente las minorías
  • 16:47 - 16:51
    valen lo mismo que el individuo de una mayoría, y lo que pasa es que
  • 16:51 - 16:55
    los números de la mayoría superan
  • 16:55 - 16:56
    a la minoría.
  • 16:56 - 16:59
    Digo, en algún punto tenés que tomar una decisión.
  • 16:59 - 17:02
    Lo siento por la minoría, pero,
  • 17:02 - 17:03
    algunas veces,
  • 17:03 - 17:04
    me inclino por lo general,
  • 17:04 - 17:09
    por el bien mayor, - Anna, ¿Que le dirías a ... cuál es tu nombre? - Yung-Da.
  • 17:09 - 17:11
    ¿Que le decimos a Yound-Da?
  • 17:11 - 17:14
    Young-Da dice que sólo hay que sumar las preferencias
  • 17:14 - 17:18
    y que una vez que pesamos las preferencias de la minoría
  • 17:18 - 17:22
    ¿Podes darme un ejemplo de lo que te preocupa cuando pensás
  • 17:22 - 17:25
    que el utilitarismo viola
  • 17:25 - 17:28
    la preocupación y el respeto por una minoría?
  • 17:28 - 17:30
    ¿Me podés dar un ejemplo?
  • 17:30 - 17:35
    Bueno, cualquiera de los casos que hemos visto como el del naufragio
  • 17:35 - 17:36
    Pienso que
  • 17:36 - 17:40
    el chico que fue comido
  • 17:40 - 17:40
    todavía tenía
  • 17:40 - 17:44
    tanto derecho a vivir como las otras personas y
  • 17:44 - 17:45
    solo porque
  • 17:45 - 17:46
    el era el de
  • 17:48 - 17:51
    la minoría en ese caso, el que
  • 17:51 - 17:53
    tal vez tenía menos chances de seguir vivo
  • 17:53 - 17:55
    eso no significa que
  • 17:55 - 17:58
    los otros automáticamente tengan derecho a comerselo
  • 17:58 - 18:00
    sólo porque
  • 18:00 - 18:02
    le daría a mayor cantidad de gente
  • 18:02 - 18:03
    la chance de vivir.
  • 18:03 - 18:06
    Así que debe haber algunos derechos
  • 18:06 - 18:08
    que miembros de una minoría,
  • 18:08 - 18:13
    y que un individuo tiene, que no pueden ser canjeados
  • 18:13 - 18:14
    con el pretexto de
  • 18:14 - 18:17
    la utilidad?
  • 18:17 - 18:18
    - ¿Si, Anna?
  • 18:18 - 18:22
    Ahora, esto puede ser una prueba para vos.
  • 18:22 - 18:25
    En la antigua Roma,
  • 18:25 - 18:30
    arrojaban cristianos a los leones por deporte
  • 18:30 - 18:34
    si pensás cómo resultaría ese cálculo utilitario
  • 18:34 - 18:39
    si, el cristiano arrojado a los leones sufría un enorme, tremendo dolor,
  • 18:39 - 18:46
    pero fijate el éxtasis colectivo de los romanos!
  • 18:48 - 18:51
    - Young Da - Bueno,
  • 18:51 - 18:52
    si en ese momento
  • 18:52 - 18:53
    pienso que si
  • 18:55 - 19:02
    actualmente fuéramos a darle un valor, un número a la felicidad de la gente que mira
  • 19:02 - 19:03
    no creo que
  • 19:03 - 19:05
    ningun
  • 19:05 - 19:07
    decisor de políticas pudiera decir
  • 19:07 - 19:11
    que el dolor, el sufrimiento de una persona
  • 19:11 - 19:15
    se compara con la felicidad que tengan otros
  • 19:15 - 19:20
    No, pero tenés que admitir que había bastantes romanos llenos de felicidad con eso.
  • 19:20 - 19:25
    Y que podría superar incluso el más tremendo dolor de
  • 19:25 - 19:29
    unos cristianos arrojados a los leones.
  • 19:29 - 19:34
    Asó que tenemos dos objeciones distintas al utilitarismo
  • 19:34 - 19:35
    Una tiene que ver con que
  • 19:35 - 19:38
    si el utilitarismo
  • 19:38 - 19:40
    respeta adecuadamente
  • 19:40 - 19:41
    los derechos individuales,
  • 19:41 - 19:42
    o de las minorías.
  • 19:42 - 19:45
    Y la otra tiene que ver
  • 19:45 - 19:47
    con la idea misma
  • 19:47 - 19:49
    de sumar
  • 19:49 - 19:50
    la utilidad
  • 19:50 - 19:52
    de preferencias
  • 19:52 - 19:53
    o valores-
  • 19:53 - 19:56
    ¿Es posible sumar esos valores,
  • 19:56 - 19:58
    y traducirlos
  • 19:58 - 20:00
    en términos monetarios?
  • 20:00 - 20:02
    Hubo en
  • 20:02 - 20:07
    la decada de 1930
  • 20:07 - 20:09
    un psicólogo
  • 20:09 - 20:11
    que intentó
  • 20:11 - 20:12
    abordar
  • 20:12 - 20:16
    la segunda cuestión. Intentó probar
  • 20:16 - 20:19
    lo que el utilitarismo asume
  • 20:19 - 20:22
    que es posible
  • 20:22 - 20:23
    traducir
  • 20:23 - 20:27
    todos los bienes, los valores, los intereses humanos
  • 20:27 - 20:29
    en una única unidad de medida
  • 20:29 - 20:30
    y para eso
  • 20:30 - 20:33
    hizo un estudio
  • 20:33 - 20:38
    sobre jóvenes que estaban entonces recibiendo ayudas del Estado
  • 20:38 - 20:42
    y les preguntó sobre una lista de experiencias desagradables
  • 20:42 - 20:45
    y le preguntó cuando tendrían que pagarles para soportar
  • 20:45 - 20:50
    las siguientes experiencias y fue registrando
  • 20:50 - 20:51
    por ejemplo
  • 20:51 - 20:57
    cuánto te tendrían que pagar por dejarte sacar uno de los dientes frontales
  • 20:57 - 21:04
    o cuanto te tendrían que pagar por sacarte el dedo meñique
  • 21:05 - 21:12
    o por comerte un gusano vivo de 25 centímetros
  • 21:12 - 21:19
    o por vivir el resto de tu vida en una granja en Kansas.
  • 21:19 - 21:24
    O por estrangular a un gato callejero con tus propias manos.
  • 21:24 - 21:26
    Ahora, ¿qué es lo que suponen
  • 21:26 - 21:33
    qué suponen que fue el ítem más caro de esa lista?
  • 21:33 - 21:40
    ¿Kansas?
  • 21:40 - 21:45
    Si, era Kansas.
  • 21:45 - 21:46
    por vivir en Kansas
  • 21:46 - 21:48
    la gente dijo que tendrían que pagarle
  • 21:48 - 21:52
    300.000 dólares.
  • 21:57 - 22:00
    ¿Cuál piensan
  • 22:00 - 22:03
    que fue el segundo más caro?
  • 22:03 - 22:06
    No fue el gato,
  • 22:06 - 22:08
    No fue el diente,
  • 22:08 - 22:11
    No fue el dedo,
  • 22:11 - 22:17
    ¡El gusano!
  • 22:17 - 22:21
    La gente dijo que tendrían que pagarle 100.000 dólares.
  • 22:21 - 22:23
    Para comerse el gusano.
  • 22:23 - 22:28
    ¿Cual piensan que fue el ítem menos costoso?
  • 22:28 - 22:30
    No fue el gato
  • 22:30 - 22:31
    Fue el diente.
  • 22:31 - 22:35
    Durante la depresión del 30 la gente estaba dispuesta a dejarse sacar un diente
  • 22:35 - 22:40
    por 4.500 dólares.
  • 22:40 - 22:41
    Ahora
  • 22:42 - 22:45
    esto es lo que Thorndike
  • 22:45 - 22:48
    deduce de su estudio
  • 22:48 - 22:52
    Cualquier tipo de satisfacción que existe, se da
  • 22:52 - 22:55
    en una cantidad, y es por tanto mensurable
  • 22:55 - 22:56
    la vida de un perro
  • 22:56 - 22:57
    o de un gato
  • 22:57 - 22:59
    o de un pollo consiste
  • 22:59 - 23:01
    en apetitos
  • 23:01 - 23:02
    impulsos
  • 23:02 - 23:04
    deseos y gratificaciones
  • 23:04 - 23:06
    así como la vida
  • 23:06 - 23:07
    de los seres humanos
  • 23:07 - 23:09
    a través de sus apetitos y deseos
  • 23:09 - 23:12
    es más complicada
  • 23:12 - 23:14
    Pero en cuanto
  • 23:14 - 23:16
    al estudio de Thorndike
  • 23:16 - 23:18
    ¿Respalda eso
  • 23:18 - 23:20
    la idea de BEntham
  • 23:20 - 23:22
    de que todos
  • 23:22 - 23:28
    los bienes y valores pueden ser captados en una única medida de valor
  • 23:28 - 23:34
    o es que el carácter absurdo de los diferentes ítems de la lista
  • 23:34 - 23:37
    sugiere la conclusión opuesta,
  • 23:37 - 23:40
    de que sea que hablemos de la vida
  • 23:40 - 23:42
    o de Kansas,
  • 23:42 - 23:44
    o del gusano
  • 23:44 - 23:45
    acaso
  • 23:45 - 23:48
    las cosas que valoramos
  • 23:48 - 23:49
    y rechazamos
  • 23:49 - 23:51
    no pueden ser captadas
  • 23:51 - 23:54
    según una única medida de valor,
  • 23:54 - 23:56
    y si no pueden
  • 23:56 - 23:58
    cuáles son las consecuencias
  • 23:58 - 24:01
    para la teoría utilitarista
  • 24:01 - 24:02
    de la moral
  • 24:02 - 24:09
    Esta es una pregunta con la que seguiremos la próxima.
  • 24:13 - 24:16
  • 24:16 - 24:18
  • 24:18 - 24:19
  • 24:19 - 24:21
  • 24:21 - 24:23
    COMO MEDIR EL PLACER
  • 24:23 - 24:26
  • 24:26 - 24:32
  • 24:32 - 24:38
  • 24:38 - 24:40
  • 24:40 - 24:46
  • 24:46 - 24:49
    La última clase
  • 24:49 - 24:54
    empezamos a vera algunas objeciones
  • 24:54 - 24:57
    a la versión de Jeremy Bentham
  • 24:57 - 25:02
    del utilitarismo.
  • 25:02 - 25:05
    Ustedes planteaban dos objeciones en la discusión
  • 25:05 - 25:08
    que tuvimos
  • 25:08 - 25:11
    La primera
  • 25:11 - 25:13
    era la objeción, el planteo
  • 25:13 - 25:15
    de que el utilitarismo
  • 25:15 - 25:17
    al centrarse únicamente
  • 25:17 - 25:20
    en la mayor felicidad para el mayor número
  • 25:20 - 25:23
    no es adecuadamente respetuoso
  • 25:23 - 25:25
    de los derechos individuales
  • 25:25 - 25:29
    Hoy tenemos debates
  • 25:29 - 25:30
    sobre la tortura
  • 25:30 - 25:34
    y terrorismo.
  • 25:34 - 25:35
    Supongamos
  • 25:35 - 25:41
    que un sospechoso de terrorista fue arrestado el diez de septiembre
  • 25:41 - 25:44
    y que tenían alguna razón para creer
  • 25:44 - 25:46
    que el sospechoso
  • 25:46 - 25:51
    tenía información crucial sobre un inminente ataque terrorista que iba a matar a más de 3.000
  • 25:51 - 25:52
    personas
  • 25:52 - 25:56
    y que no podrías obtener la información.
  • 25:56 - 25:58
    ¿Sería justo
  • 25:58 - 25:59
    torturar
  • 25:59 - 26:01
    al sospechoso
  • 26:01 - 26:03
    para obtener la información?
  • 26:03 - 26:06
    o
  • 26:06 - 26:08
    dirían que no,
  • 26:08 - 26:15
    que hay un deber categórico de respeto a los derechos individuales.
  • 26:15 - 26:18
    De algún modo volvemos a las cuestiones con las que empezamos
  • 26:18 - 26:24
    cuando hablábamos de trenes y de transplantes, y este es el primer asunto.
  • 26:24 - 26:29
    Y recuerdan que consideramos algunos ejemplos de análisis de costo-beneficio.
  • 26:29 - 26:34
    Pero mucha gente estaba disconforme con el análisis de costo-beneficio
  • 26:34 - 26:40
    porque implica dar un valor monetario a la vida humana
  • 26:40 - 26:42
    y eso nos llevaba a una
  • 26:42 - 26:44
    segunda objeción
  • 26:44 - 26:49
    que es cuestionar si es posible traducir todos los bienes
  • 26:49 - 26:53
    en una única medída de valor.
  • 26:53 - 26:58
    Nos preguntamos, en otras palabras, si todos los valores son conmensurables.
  • 26:58 - 27:00
  • 27:00 - 27:01
  • 27:01 - 27:07
  • 27:07 - 27:13
  • 27:13 - 27:14
  • 27:14 - 27:20
  • 27:20 - 27:22
  • 27:22 - 27:28
  • 27:28 - 27:30
  • 27:30 - 27:31
  • 27:31 - 27:34
  • 27:34 - 27:37
  • 27:37 - 27:40
  • 27:40 - 27:44
  • 27:44 - 27:51
  • 27:52 - 27:57
  • 27:57 - 28:01
  • 28:01 - 28:04
  • 28:04 - 28:07
  • 28:07 - 28:11
  • 28:11 - 28:13
  • 28:13 - 28:14
  • 28:14 - 28:17
  • 28:17 - 28:20
  • 28:20 - 28:23
  • 28:23 - 28:26
  • 28:26 - 28:27
  • 28:27 - 28:32
  • 28:32 - 28:33
  • 28:33 - 28:39
  • 28:39 - 28:41
  • 28:41 - 28:47
  • 28:47 - 28:48
  • 28:48 - 28:52
  • 28:52 - 28:53
  • 28:53 - 29:00
  • 29:01 - 29:06
  • 29:06 - 29:07
  • 29:07 - 29:09
  • 29:09 - 29:10
  • 29:10 - 29:15
  • 29:15 - 29:17
  • 29:17 - 29:23
  • 29:30 - 29:31
  • 29:31 - 29:32
  • 29:32 - 29:35
  • 29:35 - 29:36
  • 29:36 - 29:39
  • 29:39 - 29:44
  • 29:44 - 29:47
  • 29:47 - 29:49
  • 29:49 - 29:53
  • 29:53 - 29:55
  • 29:55 - 29:57
  • 29:57 - 29:59
  • 29:59 - 30:01
  • 30:01 - 30:02
  • 30:02 - 30:08
  • 30:08 - 30:10
  • 30:10 - 30:10
  • 30:10 - 30:12
  • 30:12 - 30:15
  • 30:15 - 30:20
  • 30:20 - 30:22
  • 30:22 - 30:23
  • 30:23 - 30:25
  • 30:25 - 30:27
  • 30:27 - 30:33
  • 30:33 - 30:35
  • 30:35 - 30:36
  • 30:36 - 30:38
  • 30:38 - 30:38
  • 30:38 - 30:42
  • 30:42 - 30:44
  • 30:44 - 30:49
  • 30:49 - 30:51
  • 30:51 - 30:55
  • 30:55 - 30:58
  • 30:58 - 31:01
  • 31:01 - 31:05
  • 31:05 - 31:09
  • 31:09 - 31:10
  • 31:10 - 31:11
  • 31:11 - 31:13
  • 31:13 - 31:16
  • 31:16 - 31:18
  • 31:18 - 31:24
  • 31:24 - 31:25
  • 31:25 - 31:26
  • 31:26 - 31:29
  • 31:29 - 31:33
  • 31:33 - 31:36
  • 31:36 - 31:37
  • 31:37 - 31:40
  • 31:40 - 31:42
  • 31:42 - 31:47
  • 31:47 - 31:49
  • 31:49 - 31:51
  • 31:51 - 31:52
  • 31:52 - 31:53
  • 31:53 - 31:54
  • 31:54 - 31:56
  • 31:56 - 31:58
  • 31:58 - 31:59
  • 31:59 - 32:01
  • 32:01 - 32:04
  • 32:04 - 32:07
  • 32:07 - 32:10
  • 32:10 - 32:12
  • 32:12 - 32:13
  • 32:13 - 32:15
  • 32:15 - 32:16
  • 32:16 - 32:17
  • 32:17 - 32:19
  • 32:19 - 32:23
  • 32:23 - 32:24
  • 32:24 - 32:25
  • 32:25 - 32:26
  • 32:26 - 32:28
  • 32:28 - 32:32
  • 32:32 - 32:36
  • 32:36 - 32:40
  • 32:40 - 32:42
  • 32:42 - 32:45
  • 32:45 - 32:49
  • 32:49 - 32:51
  • 32:51 - 32:54
  • 32:54 - 32:59
  • 32:59 - 32:59
  • 32:59 - 33:01
  • 33:01 - 33:04
  • 33:04 - 33:07
  • 33:07 - 33:11
  • 33:11 - 33:13
  • 33:13 - 33:16
  • 33:16 - 33:16
  • 33:16 - 33:19
  • 33:19 - 33:23
  • 33:23 - 33:27
  • 33:27 - 33:34
  • 33:34 - 33:39
  • 33:39 - 33:43
  • 33:43 - 33:46
  • 33:46 - 33:48
  • 33:48 - 33:50
  • 33:50 - 33:53
  • 33:53 - 33:55
  • 33:55 - 33:59
  • 33:59 - 34:05
  • 34:05 - 34:07
  • 34:07 - 34:09
  • 34:09 - 34:11
  • 34:11 - 34:14
  • 34:14 - 34:17
  • 34:17 - 34:20
  • 34:20 - 34:22
  • 34:22 - 34:24
  • 34:24 - 34:28
  • 34:28 - 34:29
  • 34:29 - 34:34
  • 34:34 - 34:36
  • 34:36 - 34:39
  • 34:39 - 34:44
  • 34:44 - 34:47
  • 34:47 - 34:50
  • 34:50 - 34:53
  • 34:53 - 34:55
  • 34:55 - 34:57
  • 34:57 - 35:00
  • 35:00 - 35:02
  • 35:02 - 35:05
  • 35:05 - 35:08
  • 35:08 - 35:09
  • 35:09 - 35:11
  • 35:11 - 35:14
  • 35:14 - 35:17
  • 35:17 - 35:20
  • 35:20 - 35:25
  • 35:25 - 35:26
  • 35:26 - 35:30
  • 35:30 - 35:35
  • 35:35 - 35:36
  • 35:36 - 35:38
  • 35:38 - 35:40
  • 35:40 - 35:43
  • 35:43 - 35:45
  • 35:45 - 35:47
  • 35:47 - 35:50
  • 35:50 - 35:51
  • 35:51 - 35:53
  • 35:53 - 35:54
  • 35:54 - 35:55
  • 35:55 - 35:59
  • 35:59 - 36:05
  • 36:05 - 36:06
  • 36:06 - 36:12
  • 36:12 - 36:13
  • 36:13 - 36:16
  • 36:16 - 36:18
  • 36:18 - 36:19
  • 36:19 - 36:25
  • 36:25 - 36:26
  • 36:26 - 36:29
  • 36:29 - 36:31
  • 36:31 - 36:32
  • 36:32 - 36:33
  • 36:33 - 36:37
  • 36:37 - 36:40
  • 36:40 - 36:43
  • 36:43 - 36:44
  • 36:44 - 36:49
  • 36:49 - 36:51
  • 36:51 - 36:55
  • 36:55 - 37:00
  • 37:00 - 37:02
  • 37:02 - 37:05
  • 37:05 - 37:08
  • 37:08 - 37:10
  • 37:10 - 37:12
  • 37:12 - 37:14
  • 37:14 - 37:17
  • 37:17 - 37:18
  • 37:18 - 37:20
  • 37:20 - 37:26
  • 37:26 - 37:28
  • 37:28 - 37:29
  • 37:29 - 37:31
  • 37:31 - 37:33
  • 37:33 - 37:37
  • 37:37 - 37:43
  • 37:43 - 37:46
  • 37:46 - 37:52
  • 37:52 - 37:53
  • 37:53 - 37:58
  • 37:58 - 38:00
  • 38:00 - 38:02
  • 38:02 - 38:03
  • 38:03 - 38:06
  • 38:06 - 38:11
  • 38:11 - 38:12
  • 38:12 - 38:18
  • 38:18 - 38:21
  • 38:21 - 38:22
  • 38:22 - 38:24
  • 38:24 - 38:26
  • 38:26 - 38:29
  • 38:29 - 38:32
  • 38:32 - 38:35
  • 38:35 - 38:40
  • 38:40 - 38:42
  • 38:42 - 38:45
  • 38:45 - 38:48
  • 38:48 - 38:53
  • 38:53 - 38:55
  • 38:55 - 38:58
  • 38:58 - 39:02
  • 39:02 - 39:06
  • 39:06 - 39:08
  • 39:08 - 39:11
  • 39:11 - 39:15
  • 39:15 - 39:16
  • 39:16 - 39:18
  • 39:18 - 39:21
  • 39:21 - 39:25
  • 39:25 - 39:32
  • 39:43 - 39:48
  • 39:48 - 39:53
  • 39:53 - 40:00
  • 40:00 - 40:02
  • 40:02 - 40:09
  • 40:16 - 40:23
  • 40:23 - 40:25
  • 40:25 - 40:29
  • 40:29 - 40:35
  • 40:35 - 40:41
  • 40:41 - 40:43
  • 40:56 - 41:01
  • 41:01 - 41:05
  • 41:05 - 41:10
  • 41:10 - 41:13
  • 41:13 - 41:16
  • 41:16 - 41:22
  • 41:22 - 41:24
  • 41:24 - 41:26
  • 41:26 - 41:29
  • 41:29 - 41:32
  • 41:32 - 41:34
  • 41:34 - 41:36
  • 41:36 - 41:38
  • 41:38 - 41:39
  • 41:39 - 41:42
  • 41:42 - 41:48
  • 41:48 - 41:50
  • 41:50 - 41:54
  • 41:54 - 41:59
  • 41:59 - 42:01
  • 42:01 - 42:03
  • 42:03 - 42:03
  • 42:03 - 42:05
  • 42:05 - 42:09
  • 42:09 - 42:11
  • 42:11 - 42:16
  • 42:16 - 42:17
  • 42:17 - 42:22
  • 42:22 - 42:25
  • 42:25 - 42:26
  • 42:26 - 42:29
  • 42:29 - 42:34
  • 42:34 - 42:35
  • 42:35 - 42:37
  • 42:37 - 42:38
  • 42:38 - 42:41
  • 42:41 - 42:46
  • 42:46 - 42:47
  • 42:47 - 42:49
  • 42:49 - 42:53
  • 42:53 - 42:54
  • 42:54 - 42:56
  • 42:56 - 42:59
  • 42:59 - 43:02
  • 43:02 - 43:03
  • 43:03 - 43:04
  • 43:04 - 43:09
  • 43:09 - 43:14
  • 43:14 - 43:18
  • 43:18 - 43:21
  • 43:21 - 43:23
  • 43:23 - 43:26
  • 43:26 - 43:28
  • 43:28 - 43:31
  • 43:31 - 43:37
  • 43:37 - 43:42
  • 43:42 - 43:44
  • 43:44 - 43:48
  • 43:48 - 43:50
  • 43:50 - 43:54
  • 43:54 - 43:58
  • 43:58 - 44:02
  • 44:02 - 44:05
  • 44:05 - 44:12
  • 44:15 - 44:20
  • 44:20 - 44:23
  • 44:23 - 44:25
  • 44:25 - 44:27
  • 44:27 - 44:29
  • 44:29 - 44:32
  • 44:32 - 44:34
  • 44:34 - 44:37
  • 44:37 - 44:38
  • 44:38 - 44:39
  • 44:39 - 44:40
  • 44:40 - 44:45
  • 44:45 - 44:49
  • 44:49 - 44:50
  • 44:50 - 44:53
  • 44:53 - 44:55
  • 44:55 - 44:57
  • 44:57 - 45:02
  • 45:02 - 45:04
  • 45:04 - 45:07
  • 45:07 - 45:10
  • 45:10 - 45:12
  • 45:12 - 45:15
  • 45:15 - 45:16
  • 45:16 - 45:18
  • 45:18 - 45:22
  • 45:22 - 45:24
  • 45:24 - 45:25
  • 45:25 - 45:29
  • 45:29 - 45:31
  • 45:31 - 45:36
  • 45:36 - 45:38
  • 45:38 - 45:42
  • 45:42 - 45:46
  • 45:46 - 45:47
  • 45:47 - 45:53
  • 45:53 - 45:56
  • 45:56 - 46:02
  • 46:02 - 46:03
  • 46:03 - 46:04
  • 46:04 - 46:07
  • 46:07 - 46:12
  • 46:12 - 46:13
  • 46:13 - 46:15
  • 46:15 - 46:16
  • 46:16 - 46:19
  • 46:19 - 46:21
  • 46:21 - 46:25
  • 46:25 - 46:29
  • 46:29 - 46:31
  • 46:31 - 46:33
  • 46:33 - 46:35
  • 46:35 - 46:39
  • 46:39 - 46:41
  • 46:41 - 46:43
  • 46:43 - 46:47
  • 46:47 - 46:49
  • 46:49 - 46:50
  • 46:50 - 46:51
  • 46:51 - 46:53
  • 46:53 - 46:58
  • 46:58 - 47:03
  • 47:06 - 47:10
  • 47:10 - 47:12
  • 47:12 - 47:15
  • 47:15 - 47:16
  • 47:16 - 47:21
  • 47:21 - 47:26
  • 47:26 - 47:27
  • 47:27 - 47:30
  • 47:30 - 47:33
  • 47:33 - 47:35
  • 47:35 - 47:38
  • 47:38 - 47:39
  • 47:39 - 47:42
  • 47:42 - 47:44
  • 47:44 - 47:46
  • 47:46 - 47:48
  • 47:48 - 47:49
  • 47:49 - 47:52
  • 47:52 - 47:53
  • 47:53 - 47:54
  • 47:54 - 47:56
  • 47:56 - 48:00
  • 48:00 - 48:01
  • 48:01 - 48:04
  • 48:04 - 48:06
  • 48:06 - 48:11
  • 48:11 - 48:12
  • 48:12 - 48:13
  • 48:13 - 48:16
  • 48:16 - 48:18
  • 48:18 - 48:21
  • 48:21 - 48:22
  • 48:22 - 48:23
  • 48:23 - 48:25
  • 48:25 - 48:27
  • 48:27 - 48:29
  • 48:29 - 48:33
  • 48:33 - 48:35
  • 48:35 - 48:38
  • 48:38 - 48:41
  • 48:41 - 48:42
  • 48:42 - 48:46
  • 48:46 - 48:48
  • 48:48 - 48:50
  • 48:50 - 48:51
  • 48:51 - 48:52
  • 48:52 - 48:54
  • 48:54 - 48:56
  • 48:56 - 48:57
  • 48:57 - 49:00
  • 49:00 - 49:03
  • 49:03 - 49:06
  • 49:06 - 49:07
  • 49:07 - 49:11
  • 49:11 - 49:14
  • 49:14 - 49:19
  • 49:19 - 49:22
  • 49:22 - 49:25
  • 49:25 - 49:28
  • 49:28 - 49:33
  • 49:33 - 49:35
  • 49:35 - 49:40
  • 49:40 - 49:41
  • 49:41 - 49:43
  • 49:43 - 49:45
  • 49:45 - 49:49
  • 49:49 - 49:53
  • 49:53 - 49:55
  • 49:55 - 49:57
  • 49:57 - 50:00
  • 50:00 - 50:02
  • 50:02 - 50:05
  • 50:05 - 50:07
  • 50:07 - 50:09
  • 50:09 - 50:11
  • 50:11 - 50:15
  • 50:15 - 50:17
  • 50:17 - 50:19
  • 50:19 - 50:21
  • 50:21 - 50:23
  • 50:23 - 50:29
  • 50:29 - 50:31
  • 50:31 - 50:32
  • 50:32 - 50:34
  • 50:34 - 50:36
  • 50:36 - 50:38
  • 50:38 - 50:39
  • 50:39 - 50:41
  • 50:41 - 50:44
  • 50:44 - 50:45
  • 50:45 - 50:46
  • 50:46 - 50:48
  • 50:48 - 50:51
  • 50:51 - 50:53
  • 50:53 - 50:56
  • 50:56 - 50:58
  • 50:58 - 50:59
  • 50:59 - 51:05
  • 51:05 - 51:06
  • 51:06 - 51:08
  • 51:08 - 51:11
  • 51:11 - 51:13
  • 51:13 - 51:14
  • 51:14 - 51:17
  • 51:17 - 51:18
  • 51:18 - 51:22
  • 51:22 - 51:24
  • 51:24 - 51:26
  • 51:26 - 51:29
  • 51:29 - 51:30
  • 51:30 - 51:33
  • 51:33 - 51:35
  • 51:35 - 51:36
  • 51:36 - 51:38
  • 51:38 - 51:40
  • 51:40 - 51:43
  • 51:43 - 51:45
  • 51:45 - 51:46
  • 51:46 - 51:47
  • 51:47 - 51:50
  • 51:50 - 51:54
  • 51:54 - 51:58
  • 51:58 - 51:59
  • 51:59 - 52:01
  • 52:01 - 52:03
  • 52:03 - 52:05
  • 52:05 - 52:08
  • 52:08 - 52:11
  • 52:11 - 52:13
  • 52:13 - 52:15
  • 52:15 - 52:17
  • 52:17 - 52:22
  • 52:22 - 52:23
  • 52:23 - 52:27
  • 52:27 - 52:30
  • 52:30 - 52:34
  • 52:34 - 52:37
  • 52:37 - 52:38
  • 52:38 - 52:45
  • 52:45 - 52:48
  • 52:48 - 52:50
  • 52:50 - 52:54
  • 52:54 - 52:55
  • 52:55 - 52:57
  • 52:57 - 52:59
  • 52:59 - 53:06
  • 53:07 - 53:10
  • 53:10 - 53:13
  • 53:13 - 53:15
  • 53:17 - 53:18
  • 53:18 - 53:23
  • 53:23 - 53:26
  • 53:26 - 53:29
  • 53:29 - 53:34
  • 53:34 - 53:41
  • 53:41 - 53:43
  • 53:43 - 53:45
  • 53:45 - 53:47
  • 53:47 - 53:48
  • 53:48 - 53:55
  • 53:57 - 54:01
  • 54:01 - 54:03
  • 54:03 - 54:08
  • 54:08 - 54:15
  • 54:50 - 54:54
  • 54:54 - 54:55
  • Not Synced
Title:
Justice: What's The Right Thing To Do? Episode 02: "PUTTING A PRICE TAG ON LIFE"
Description:

more » « less
Video Language:
English
Team:
PACE
Duration:
55:10

Spanish, Argentinian subtitles

Incomplete

Revisions Compare revisions