0:00:04.200,0:00:08.240 Chương trình được tài trợ bởi: 0:00:08.240,0:00:15.240 Tài trợ phụ bởi: 0:00:33.509,0:00:37.750 Đây là môn học về Công lý và chúng ta hãy bắt đầu với một câu chuyện … 0:00:37.750,0:00:40.179 giả sử bạn là người lái xe điện 0:00:40.179,0:00:44.640 và toa xe điện của bạn đang phóng nhanh trên đường ray với vận tốc 60 dặm một giờ 0:00:44.640,0:00:49.390 và ở cuối đường ray, bạn nhận thấy có năm công nhân đang làm việc trên đường ray 0:00:49.390,0:00:51.799 bạn đã cố gắng dừng lại nhưng không được 0:00:51.799,0:00:53.829 thắng không hoạt động 0:00:53.829,0:00:56.780 bạn cảm thấy tuyệt vọng vì bạn biết 0:00:56.780,0:00:59.590 rằng nếu bạn đâm vào năm công nhân này 0:00:59.590,0:01:01.490 tất cả họ sẽ chết 0:01:01.490,0:01:05.079 hãy cho là bạn biết chắc chắn điều đó 0:01:05.079,0:01:07.420 và vì vậy bạn cảm thấy mình vô dụng 0:01:07.420,0:01:09.450 cho đến khi bạn nhận thấy rằng có 0:01:09.450,0:01:11.290 một ngã rẽ bên phải 0:01:11.290,0:01:12.230 một đường ray phụ 0:01:13.170,0:01:15.579 và ở cuối đường ray đó 0:01:15.579,0:01:17.390 chỉ có một công nhân 0:01:17.390,0:01:19.079 đang làm việc trên đường ray 0:01:19.079,0:01:21.368 Bạn đang cầm lái, 0:01:21.368,0:01:23.030 vì thế bạn có thể 0:01:23.030,0:01:26.010 rẽ xe điện nếu bạn muốn 0:01:26.010,0:01:28.840 vào đường ray phụ đó 0:01:28.840,0:01:30.399 giết chết một người 0:01:30.399,0:01:33.269 nhưng có thể g cứu được năm người kia 0:01:33.269,0:01:36.109 Đây là câu hỏi đầu tiên của chúng ta 0:01:36.109,0:01:38.819 Điều gì là đúng nên làm? 0:01:38.819,0:01:40.478 Bạn sẽ làm gì? 0:01:40.478,0:01:42.560 Hãy làm một khảo sát nhỏ, 0:01:42.560,0:01:45.180 có bao nhiêu người 0:01:45.180,0:01:52.020 sẽ rẽ chiếc xe điện vào đường ray phụ? 0:01:52.019,0:01:53.530 Bao nhiêu bạn chọn sẽ không? 0:01:53.530,0:01:58.180 Có bao nhiêu người sẽ đi thẳng về phía trước 0:01:58.180,0:02:04.050 giơ tay lên, những người sẽ đi thẳng về phía trước. 0:02:04.049,0:02:08.378 Một số ít người sẽ, đa số sẽ rẽ hướng 0:02:08.378,0:02:09.878 chúng ta hãy nghe số đông này trước 0:02:09.878,0:02:14.149 bây giờ chúng ta cần bắt đầu điều tra tại sao bạn nghĩ 0:02:14.149,0:02:19.799 đó là điều đúng nên làm. Hãy bắt đầu với những người trong nhóm đa số, những người sẽ rẽ hướng 0:02:19.799,0:02:22.058 để đi vào đường ray phụ? 0:02:22.058,0:02:23.669 Tại sao bạn làm điều đó, 0:02:23.669,0:02:25.808 lý do của bạn là gì? 0:02:25.808,0:02:30.188 Ai sẵn sàng xung phong phát biểu một lý do? 0:02:30.188,0:02:32.218 Nào, đứng lên. 0:02:32.218,0:02:39.218 Bởi vì chúng ta không thể giết chết năm người khi thay vào đó có thể chỉ cần giết chết một người. 0:02:39.579,0:02:42.239 sẽ không đúng khi giết năm người 0:02:42.239,0:02:47.069 nếu thay vào đó bạn có thể giết một người 0:02:47.068,0:02:48.528 đó là một lý do hợp lý 0:02:48.528,0:02:52.959 đó là một lý do hợp lý 0:02:52.959,0:02:53.778 Xin mời ý kiến khác? 0:02:53.778,0:02:56.658 mọi người có đồng ý với 0:02:56.658,0:03:01.218 lý do đó không? Mời bạn 0:03:01.218,0:03:03.620 Chà, tôi nghĩ đó cũng là lý do tại sao 0:03:03.620,0:03:05.459 vào ngày 11/9, chúng ta coi những người [giành lại quyền] lái máy bay, 0:03:05.459,0:03:08.009 những người đã rẽ lái máy bay vào 0:03:08.008,0:03:09.528 cánh đồng Pennsylvania như những người hùng 0:03:09.528,0:03:11.718 vì họ chọn giết những người trên máy bay 0:03:11.718,0:03:14.418 chứ không giết nhiều người hơn 0:03:14.419,0:03:16.109 trong các tòa nhà lớn. 0:03:16.109,0:03:19.260 Vì vậy, nguyên tắc là giống như vào ngày 11/9, 0:03:19.259,0:03:21.638 đó là một tình huống bi thảm, 0:03:21.639,0:03:25.359 nhưng thà là giết một người để năm người có thể sống, 0:03:25.359,0:03:30.748 đó là lý do của hầu hết các bạn, những người sẽ rẽ hướng phải không? 0:03:30.748,0:03:32.628 Giờ hãy nghe 0:03:32.628,0:03:33.628 từ 0:03:33.628,0:03:35.508 những người thuộc nhóm thiểu số 0:03:35.508,0:03:40.558 những người sẽ không rẽ hướng. 0:03:40.558,0:03:45.709 Vâng, tôi nghĩ rằng tâm lý trên đây cùng loại với các biện minh cho tội ác diệt chủng và chủ nghĩa toàn trị. 0:03:45.468,0:03:50.358 Để cứu một chủng tộc bạn sẽ xóa sổ các chủng tộc khác. 0:03:50.359,0:03:53.278 vậy bạn sẽ làm gì trong trường hợp này? Bạn sẽ 0:03:53.278,0:03:55.378 tránh 0:03:55.378,0:03:57.798 nỗi kinh hoàng của nạn diệt chủng? 0:03:57.799,0:04:03.989 bạn sẽ lao vào năm người và giết họ? 0:04:03.989,0:04:07.628 Có lẽ vậy 0:04:07.628,0:04:09.929 Được rồi, còn ai khác không? 0:04:09.930,0:04:14.498 Đó là một câu trả lời dũng cảm, cảm ơn bạn. 0:04:14.498,0:04:16.079 Hãy xem xét một trường hợp khác 0:04:16.978,0:04:20.238 trường hợp xe điện 0:04:20.238,0:04:21.688 và xem xem 0:04:21.689,0:04:24.189 liệu rằng 0:04:24.189,0:04:27.429 đa số các bạn 0:04:27.428,0:04:30.989 muốn tuân theo nguyên tắc, 0:04:30.990,0:04:33.500 thà một người nên chết để năm người được sống hay không? 0:04:33.500,0:04:38.528 Lần này bạn không phải là người điều khiển xe điện, bạn là người chứng kiến 0:04:38.528,0:04:42.678 đứng trên cầu nhìn xuống đường ray xe điện 0:04:42.678,0:04:45.658 và dưới đường ray đó một chiếc xe điện đang đến 0:04:45.658,0:04:49.620 ở cuối đường ray có năm công nhân, 0:04:49.620,0:04:51.739 Thắng xe không hoạt động 0:04:51.738,0:04:55.948 chiếc xe điện sắp lao vào năm người và giết họ. 0:04:55.949,0:04:57.218 Và bây giờ 0:04:57.218,0:04:58.788 bạn không phải là người lái xe, 0:04:58.788,0:05:01.308 bạn thực sự cảm thấy không làm gì được 0:05:01.309,0:05:03.259 được cho đến khi bạn nhận ra 0:05:03.259,0:05:06.879 đứng bên cạnh bạn, 0:05:06.879,0:05:08.639 dựa vào 0:05:08.639,0:05:09.889 cây cầu 0:05:09.889,0:05:16.889 là một người đàn ông rất béo. 0:05:17.218,0:05:20.178 Và bạn có thể 0:05:20.178,0:05:22.668 đẩy anh ta xuống 0:05:22.668,0:05:24.728 anh ta sẽ rơi khỏi cầu 0:05:24.728,0:05:27.949 xuống đường ray 0:05:27.949,0:05:29.538 ngay trên đường ray 0:05:29.538,0:05:32.199 xe điện 0:05:32.199,0:05:33.419 anh ta sẽ chết 0:05:33.418,0:05:38.930 nhưng anh ấy sẽ cứu được năm người kia. 0:05:38.930,0:05:41.108 Bây giờ, có bao nhiêu người sẽ đẩy 0:05:41.108,0:05:48.089 người đàn ông béo qua cầu? Hãy giơ tay lên. 0:05:48.089,0:05:51.198 Bao nhiêu bạn không? 0:05:51.199,0:05:54.069 Đa số sẽ không. 0:05:54.069,0:05:55.789 Một câu hỏi rất rỏ ràng, 0:05:55.788,0:05:56.878 điều gì đã trở thành 0:05:56.879,0:06:00.169 nguyên tắc ở đây? 0:06:00.168,0:06:05.109 cứu năm mạng sống là tốt hơn dù rằng nó đồng nghĩa với việc phải hy sinh một mạng sống? điều gì đã trở thành nguyên tắc 0:06:05.110,0:06:07.490 mà hầu hết mọi người đều tán thành? 0:06:07.490,0:06:09.240 Trong trường hợp thứ nhất, 0:06:09.240,0:06:12.809 tôi muốn nghe từ một người thuộc nhóm đa số trong cả hai tình huống 0:06:12.809,0:06:13.580 Vấn đề là 0:06:13.579,0:06:17.758 làm thế nào để bạn giải thích sự khác biệt trong hai tình huống? 0:06:17.759,0:06:21.860 Vấn đề thứ hai, tôi nghĩ có liên quan đến lựa chọn tích cực của việc 0:06:21.860,0:06:22.509 đẩy một người 0:06:22.509,0:06:24.279 và người đó ngã xuống 0:06:24.279,0:06:25.198 tôi nghĩ rằng 0:06:25.199,0:06:29.830 bản thân người đó sẽ không liên quan gì đến tình huống này cả 0:06:29.829,0:06:31.269 và vì vậy 0:06:31.269,0:06:33.769 để chọn thay mặt anh ấy, tôi nghĩ là 0:06:33.769,0:06:36.769 việc 0:06:36.769,0:06:39.990 lôi anh ta vào việc gì đó mà nếu không bị lôi vào thì anh ta có khả năng thoát khỏi nó 0:06:39.990,0:06:41.788 tôi nghĩ là tốt hơn 0:06:41.788,0:06:43.620 những gì có được trong tình huống đầu tiên 0:06:43.620,0:06:45.968 cả ba bên, tài xế và 0:06:45.968,0:06:47.668 hai nhóm công nhân đã có trong tình huống đầu tiên 0:06:47.668,0:06:50.598 Tôi nghĩ trong tình huống này, 0:06:50.598,0:06:55.108 nhưng người đang làm việc, người trên đường ray phía còn lại 0:06:55.108,0:07:02.068 anh ấy không lựa chọn hy sinh mạng sống của mình hơn là lựa chọn của anh chàng béo, phải không? 0:07:02.069,0:07:05.420 Đó là sự thật, nhưng anh ấy đã ở trên đường ray 0:07:05.399,0:07:10.438 Còn anh chàng này ở trên cầu 0:07:10.439,0:07:13.550 Tiếp nào, bạn có thể ý kiến thêm nếu bạn muốn. 0:07:13.550,0:07:15.329 Được rồi, đó là một câu hỏi khó 0:07:15.329,0:07:18.658 nhưng bạn đã làm tốt, bạn đã làm rất tốt, đó là một câu hỏi khó. 0:07:19.629,0:07:21.180 ai khác 0:07:21.180,0:07:22.598 có thể 0:07:22.598,0:07:26.028 tìm cách thuyết phục 0:07:26.028,0:07:30.158 phản ứng của đa số trong hai trường hợp này? Vâng? 0:07:30.158,0:07:31.550 Tôi nghĩ vậy 0:07:31.550,0:07:32.540 trong trường hợp đầu tiên khi mà 0:07:32.540,0:07:35.179 bạn có một công nhân và năm công nhân 0:07:35.178,0:07:37.429 đó là sự lựa chọn giữa hai nhóm công nhân đó và bạn phải 0:07:37.430,0:07:41.218 đưa ra một lựa chọn nhất định, và mọi người sắp chết vì chiếc xe điện 0:07:41.218,0:07:45.029 mà không cần đến hành động trực tiếp của bạn. Xe diện đang lao đến, 0:07:45.029,0:07:48.209 và bạn cần đưa ra lựa chọn trong tích tắc, 0:07:48.209,0:07:52.658 trong khi đẩy người đàn ông béo xuống là một hành động giết người thực sự từ phía bạn 0:07:52.658,0:07:54.490 bạn có quyền kiểm soát điều đó 0:07:54.490,0:07:57.278 trong khi bạn không thể kiểm soát được xe điện. 0:07:57.278,0:08:00.089 Vì vậy, tôi nghĩ rằng đó là một tình huống hơi khác. 0:08:00.089,0:08:04.359 Được rồi, ai đáp lại nào? Có ai, ai đáp lại ý kiến đó không? thật tuyệt, ai có cách nào 0:08:04.360,0:08:06.319 ai muốn phản hồi lại không? 0:08:06.319,0:08:09.490 Đó có phải là cách thoát ra khỏi tình huống này không? 0:08:09.490,0:08:12.439 Tôi không nghĩ rằng đó là một lý do rất tốt bởi vì dù bạn chọn 0:08:12.439,0:08:16.889 người nào chết đi chăng nữa, vì dù bạn chọn rẽ hướng và giết một người, 0:08:16.889,0:08:18.500 đó cũng là một hành động có ý thức 0:08:18.500,0:08:19.718 nghĩ đến việc rẽ hướng, 0:08:19.718,0:08:21.319 hoặc bạn chọn đẩy ông béo xuống, 0:08:21.319,0:08:23.609 đó cũng là một hành động 0:08:23.608,0:08:27.688 hành động có ý thức, nên dù bằng cách nào bạn cũng đang đưa ra lựa chọn. 0:08:27.689,0:08:29.729 Bạn có muốn đáp lại không? 0:08:29.728,0:08:34.189 Vâng, tôi không thực sự chắc chắn đó là cùng một vấn đề, nó vẫn có vẻ hơi khác, hành động thực sự 0:08:34.190,0:08:38.230 đẩy ai đó xuống đường ray và giết họ, 0:08:38.230,0:08:42.600 bạn thực sự đang tự mình giết anh ta, bạn đang đẩy anh ta bằng chính đôi tay của bạn, bạn đang đẩy và 0:08:42.600,0:08:43.710 điều đó khác 0:08:43.710,0:08:47.090 hơn là điều khiển thứ gì đó sẽ gây ra cái chết 0:08:47.090,0:08:48.670 cho người khác..., bạn biết đấy 0:08:48.669,0:08:52.829 nói điều đó bây giờ nghe có vẻ không đúng khi tôi ở đây. 0:08:52.830,0:08:54.740 Không đâu, tốt mà, bạn tên gì? 0:08:54.740,0:08:55.570 Andrew. 0:08:55.740,0:08:59.570 để tôi hỏi bạn câu hỏi này Andrew 0:08:59.570,0:09:02.240 giả sử 0:09:02.240,0:09:03.680 đứng trên cầu 0:09:03.679,0:09:04.809 bên cạnh người đàn ông béo 0:09:04.809,0:09:07.849 Tôi không cần phải đẩy anh ta, giả sử anh ta đang đứng 0:09:07.850,0:09:14.850 trên một cánh cửa lật mà tôi có thể mở bằng cách xoay như xoay vô lăng vậy 0:09:17.450,0:09:18.690 bạn sẽ xoay nó? 0:09:18.690,0:09:20.960 Vì lý do nào đó, điều đó sai 0:09:20.960,0:09:24.129 càng sai. 0:09:24.129,0:09:30.350 Ý tôi là có thể nếu bạn chỉ vô tình tựa vào vô lăng đó hoặc làm một điều tương tự vậy 0:09:30.350,0:09:31.060 hoặc 0:09:31.059,0:09:33.118 hoặc nói rằng chiếc xe 0:09:33.119,0:09:37.850 đang lao về phía công tắc sẽ làm rơi bẫy 0:09:37.850,0:09:39.230 thì tôi có thể đồng ý với điều đó. 0:09:39.850,0:09:42.230 Thật công bằng, bạn nói nó vẫn có vẻ 0:09:42.230,0:09:45.500 sai theo cách mà nó có vẻ không sai trong trường hợp đầu tiên khi rẽ hướng, 0:09:45.500,0:09:50.419 Nói cách khác, ý tôi là trong tình huống đầu tiên bạn tham gia trực tiếp vào tình huống, 0:09:50.419,0:09:52.449 trong tình huống thứ hai, bạn cũng là người vô cảm. 0:09:52.450,0:09:56.920 Vì vậy, bạn có quyền lựa chọn tham gia hay không tham gia bằng cách đẩy người đàn ông béo. 0:09:56.919,0:09:59.549 Tạm thời hãy tạm quên vụ việc này đi, 0:09:59.549,0:10:01.269 tốt hơn chứ? 0:10:01.269,0:10:06.460 nhưng hãy tưởng tượng một trường hợp khác. Lần này bác sĩ của bạn trong phòng cấp cứu 0:10:06.460,0:10:11.629 và sáu bệnh nhân đến với bạn 0:10:11.629,0:10:18.500 họ đã ở trong một vụ tai nạn xe điện khủng khiếp 0:10:18.500,0:10:23.889 năm người trong số họ bị thương nhẹ, một người bị thương nặng. Bạn có thể mất cả ngày 0:10:23.889,0:10:27.720 chăm sóc cho một nạn nhân bị thương nặng, 0:10:27.720,0:10:32.330 nhưng trong thời gian đó cả năm người còn lại sẽ chết, hoặc bạn có thể chăm sóc năm người đó, phục hồi sức khỏe cho họ, nhưng 0:10:32.330,0:10:35.490 trong thời gian đó người bị thương nặng 0:10:35.490,0:10:36.470 sẽ chết. 0:10:36.470,0:10:37.660 Có bao nhiêu bạn sẽ cứu 0:10:37.659,0:10:39.539 Năm người 0:10:39.539,0:10:40.849 ngay lập tức, nếu là bác sĩ? 0:10:40.850,0:10:44.480 Có bao nhiêu người sẽ cứu một người? 0:10:44.480,0:10:46.300 Rất ít người, 0:10:46.299,0:10:49.269 chỉ một số ít người. 0:10:49.269,0:10:51.439 Cùng một lý do, tôi giả sử, 0:10:51.440,0:10:55.570 một mạng sống so với năm. 0:10:55.570,0:10:57.230 Bây giờ xem xem 0:10:57.230,0:10:59.070 trường hợp một bác sĩ khác, 0:10:59.070,0:11:02.080 lần này bạn là bác sĩ phẫu thuật cấy ghép 0:11:02.080,0:11:06.160 và bạn có năm bệnh nhân, mỗi bệnh nhân đang rất cần 0:11:06.159,0:11:09.639 một ca cấy ghép nội tạng để tồn tại. 0:11:09.639,0:11:12.220 Cần một trái tim, một lá phổi 0:11:12.220,0:11:13.550 một quả thận, 0:11:13.549,0:11:15.089 một quả gan 0:11:15.090,0:11:16.680 và thứ năm 0:11:16.679,0:11:20.209 là tuyến tụy. 0:11:20.210,0:11:22.780 Và bạn không có người hiến tạng, 0:11:22.779,0:11:24.909 bạn sắp phải 0:11:24.909,0:11:27.649 chứng kiến họ chết 0:11:27.649,0:11:28.860 và rồi 0:11:28.860,0:11:30.649 bạn chợt nhận ra 0:11:30.649,0:11:32.470 rằng ở phòng kế bên 0:11:32.470,0:11:35.720 có một anh chàng khỏe mạnh đến để kiểm tra sức khỏe. 0:11:39.450,0:11:43.740 và anh ấy… 0:11:43.740,0:11:47.159 bạn thích tình huống này?... 0:11:47.159,0:11:50.740 và anh ấy đang ngủ trưa 0:11:53.269,0:11:56.769 Bạn có thể khẽ đi vào 0:11:56.769,0:12:00.600 và moi ngũ tạng của anh ra, người đó sẽ chết 0:12:00.600,0:12:03.170 nhưng bạn có thể cứu được năm người. 0:12:03.169,0:12:10.169 Bao nhiêu người sẽ làm điều đó? Có ai không? 0:12:10.389,0:12:17.389 Bao nhiêu? Giơ tay lên nếu bạn muốn làm điều đó. 0:12:18.100,0:12:21.840 Có ai ở ban công không? 0:12:21.840,0:12:24.280 Bạn muốn? Cẩn thận đừng nghiêng người quá nhiều 0:12:26.269,0:12:29.340 Có bao nhiêu sẽ không? 0:12:29.340,0:12:30.360 Được rồi. 0:12:30.360,0:12:33.600 Bạn nói gì, nói lớn lên một chút… ở khu vực ban công, bạn … người sẽ 0:12:33.600,0:12:35.840 moi nội tạng ra, vì sao? 0:12:35.840,0:12:38.629 Tôi thực sự muốn thử thay thế một chút 0:12:38.629,0:12:40.188 có thể chỉ lấy nội tạng của một người chết trước 0:12:40.188,0:12:44.419 trong năm người cần nội tạng 0:12:44.419,0:12:50.229 rồi dùng bốn nội tạng khỏe mạnh của người đó để cứu bốn người kia 0:12:50.230,0:12:54.639 Đó là một ý tưởng khá tốt. 0:12:54.639,0:12:57.830 Đó là một ý tưởng tuyệt vời 0:12:57.830,0:13:00.160 ngoại trừ thực tế 0:13:00.159,0:13:06.159 là bạn vừa làm hỏng quan điểm triết học. 0:13:06.159,0:13:07.360 Hãy quay trở lại 0:13:07.360,0:13:10.240 những câu chuyện và những lập luận đó 0:13:10.240,0:13:12.750 để chú ý một vài điều 0:13:12.750,0:13:17.809 về cách các cuộc tranh luận đã bắt đầu mở ra. 0:13:17.809,0:13:18.649 Một số 0:13:18.649,0:13:20.360 nguyên tắc đạo đức 0:13:20.360,0:13:23.340 đã bắt đầu xuất hiện 0:13:23.340,0:13:25.879 từ các cuộc thảo luận nãy giờ 0:13:25.879,0:13:27.570 và hãy xem xét 0:13:27.570,0:13:29.740 những nguyên tắc đạo đức đó 0:13:29.740,0:13:31.250 có vẻ 0:13:31.250,0:13:35.710 nguyên tắc đạo đức xuất hiện đầu tiên từ cuộc thảo luận cho rằng 0:13:35.710,0:13:39.110 rằng điều đúng nên làm, điều đạo đức nên làm 0:13:39.110,0:13:43.139 phụ thuộc vào hậu quả sẽ đến 0:13:43.139,0:13:45.480 từ hành động của bạn, 0:13:45.480,0:13:47.080 rốt cuộc thì 0:13:47.080,0:13:49.250 để năm người sống sẽ tốt hơn 0:13:49.250,0:13:52.320 dù rằng một người phải chết. 0:13:52.320,0:13:53.700 Đó là một ví dụ 0:13:53.700,0:13:56.280 về hệ quả luận 0:13:56.279,0:13:59.459 lý luận đạo đức. 0:13:59.460,0:14:04.310 lý luận đạo đức theo hệ quả luận phân định đạo đức theo hậu quả của một hành động. Hay 0:14:04.309,0:14:06.549 nói cách khác sẽ là kết quả 0:14:06.549,0:14:09.049 của việc bạn làm. 0:14:09.049,0:14:12.789 Nhưng sau đó chúng ta đã đi xa hơn một chút, chúng ta đã xem xét những trường hợp khác 0:14:12.789,0:14:15.319 và mọi người không chắc lắm 0:14:15.320,0:14:17.300 về 0:14:17.299,0:14:20.529 lập luận đạo đức theo hệ quả luận 0:14:20.529,0:14:22.419 khi người ta lưỡng lự 0:14:22.419,0:14:24.269 trong việc đẩy anh béo 0:14:24.269,0:14:25.789 xuống cầu 0:14:25.789,0:14:28.639 hoặc để moi nội tạng của những 0:14:28.639,0:14:29.750 bệnh nhân vô tội … 0:14:29.750,0:14:32.259 mọi người có biểu hiện hướng tới 0:14:32.259,0:14:34.259 Những lý do 0:14:34.259,0:14:35.379 phải làm 0:14:35.379,0:14:37.250 với chính giá trị thực chất 0:14:37.250,0:14:39.230 của chính 0:14:39.230,0:14:40.690 hành động đó 0:14:40.690,0:14:42.770 Kết quả là điều họ có thể hướng đến. 0:14:42.769,0:14:45.179 Mọi người đã miễn cưỡng 0:14:45.179,0:14:47.819 mọi người đã nghĩ điều đó sai… 0:14:47.820,0:14:49.480 hoàn toàn sai trái 0:14:49.480,0:14:50.500 khi giết 0:14:50.500,0:14:51.408 một người … 0:14:51.408,0:14:53.509 một người vô tội, 0:14:53.509,0:14:54.689 kể cả vì mục đích 0:14:54.690,0:14:55.819 để cứu 0:14:55.818,0:14:58.500 năm người khác, chí ít những người này đã nghĩ như vậy… 0:14:58.500,0:15:00.610 trong cách lựa chọn thứ hai 0:15:00.610,0:15:05.120 của mỗi câu chuyện mà chúng ta đã xem xét 0:15:05.120,0:15:06.519 vì vậy, quan điểm này đưa đến 0:15:06.519,0:15:09.539 cách tư duy 0:15:09.539,0:15:10.689 thứ hai 0:15:10.690,0:15:12.660 về 0:15:12.659,0:15:14.679 đạo đức 0:15:14.679,0:15:16.429 tuyệt đối 0:15:16.429,0:15:22.429 lý luận đạo đức tuyệt đối phân định giá trị đạo đức theo các yêu cầu đạo đức tuyệt đối nhất định nào đó về 0:15:22.429,0:15:24.439 Các nghĩa vụ và quyền hạn tuyệt đối 0:15:24.440,0:15:27.440 bất kể hệ quả là gì. 0:15:27.440,0:15:29.230 Chúng ta sẽ khám phá 0:15:29.230,0:15:33.070 trong những ngày và tuần tới về sự tương phản giữa 0:15:33.070,0:15:36.540 Các quan điểm đạo đức tuyệt đối và hệ quả luận. 0:15:36.539,0:15:38.370 Ví dụ 0:15:38.370,0:15:40.419 có ảnh hưởng nhất 0:15:40.419,0:15:45.919 Về lý luận đạo đức theo hệ quả luận là thuyết vị lợi, một học thuyết được đề xướng bởi 0:15:45.919,0:15:51.099 Jeremy Bentham, triết gia chính trị người Anh thế kỷ 18. 0:15:51.100,0:15:54.139 Triết gia quan trọng nhất 0:15:54.139,0:15:56.850 trong lý luận đạo đức tuyệt đối 0:15:56.850,0:15:58.170 là triết gia 0:15:58.169,0:16:02.589 người Đức thế kỷ thứ mười tám Emmanuel Kant. 0:16:02.590,0:16:03.860 Vì vậy, chúng ta sẽ xem xét 0:16:03.860,0:16:07.259 hai lý luận đạo đức khác nhau này. 0:16:07.259,0:16:08.299 Đánh giá chúng. 0:16:08.299,0:16:10.669 Và cũng xem xét những quan điểm khác. 0:16:10.669,0:16:16.099 Nếu bạn nhìn vào giáo trình, bạn sẽ thấy rằng chúng tá phải đọc nhiều quyển sách hay và nổi tiếng. 0:16:16.100,0:16:18.310 Sách của Aristotle, 0:16:18.309,0:16:19.889 của John Locke, 0:16:19.889,0:16:22.080 của Emanuel Kant, John Stuart Mill, 0:16:22.080,0:16:24.030 và nhiều tác giả khác. 0:16:24.029,0:16:28.169 Bạn cũng sẽ nhận thấy từ giáo trình rằng chúng ta không chỉ đọc những cuốn sách này, 0:16:28.169,0:16:30.069 Chúng ta còn 0:16:30.070,0:16:32.010 phải xem xét 0:16:32.009,0:16:37.000 cả các cuộc tranh luận chính trị và pháp lý đương đại mà đã khiến nảy sinh ra những câu hỏi triết học. 0:16:37.000,0:16:40.190 Chúng ta sẽ tranh luận về bình đẳng và bất bình đẳng, 0:16:40.190,0:16:41.490 Quy định chống phân biệt đối xử, 0:16:41.490,0:16:43.698 tự do ngôn luận so với ngôn từ kích động thù địch, 0:16:43.698,0:16:47.039 hôn nhân đồng giới, nghĩa vụ quân sự, 0:16:47.039,0:16:50.980 một loạt các câu hỏi thực tế, tại sao? 0:16:50.980,0:16:55.350 không chỉ làm sinh động những cuốn sách trừu tượng và xa vời này 0:16:55.350,0:17:01.040 mà còn làm sáng tỏ những bấp bênh về Triết học 0:17:01.039,0:17:03.519 trong cuộc sống hàng ngày, kể cả đời sống chính trị 0:17:03.519,0:17:05.639 của chúng ta. 0:17:05.640,0:17:07.720 Vì thế, chúng ta đọc những cuốn sách đó 0:17:07.720,0:17:09.818 và chúng ta sẽ tranh luận về 0:17:09.818,0:17:15.480 những vấn đề này, và chúng ta sẽ xem các vấn đề bổ nghĩa và soi sáng cho nhau như thế nào. 0:17:15.480,0:17:17.599 Điều này nghe có vẻ đủ hấp dẫn. 0:17:17.599,0:17:19.109 Nhưng ở đây 0:17:19.109,0:17:22.549 tôi phải đưa ra một cảnh báo 0:17:22.549,0:17:25.210 và cảnh báo đó là 0:17:25.210,0:17:28.500 khi đọc những cuốn sách này 0:17:28.500,0:17:31.549 theo cách thức như vậy, 0:17:31.549,0:17:34.119 như một bài tập để hiểu mình, 0:17:34.119,0:17:38.849 đọc chúng theo cách này có vài rủi ro nhất định. 0:17:38.849,0:17:42.119 Rủi ro mang tính cá nhân và chính trị, 0:17:42.119,0:17:47.799 những rủi ro mà mọi sinh viên ngành triết học chính trị đều biết. 0:17:47.799,0:17:50.690 Những rủi ro này xuất phát từ thực tế 0:17:50.690,0:17:52.580 rằng triết học 0:17:52.579,0:17:54.220 dạy chúng ta 0:17:54.220,0:17:56.400 và phá rối chúng ta 0:17:56.400,0:18:01.390 bằng cách buộc chúng ta đối diện với những gì chúng ta đã biết. 0:18:01.390,0:18:03.390 Thật trớ trêu 0:18:03.390,0:18:09.790 là độ khó của khóa học này nằm ở chỗ nó dạy bạn những gì bạn đã biết. 0:18:09.789,0:18:12.159 Nó hoạt động bằng cách lấy 0:18:12.160,0:18:16.470 những gì chúng ta biết trong những ngữ cảnh quen thuộc và không có nghi ngờ gì, 0:18:16.470,0:18:20.370 và làm cho nó trở nên xa lạ. 0:18:20.369,0:18:22.389 Đó chính xác là cách các ví dụ 0:18:22.390,0:18:23.120 đã hoạt động 0:18:23.119,0:18:29.029 Các giả thuyết mà chúng ta bắt đầu pha trộn giữa sự vui tươi và đúng mực của chúng. 0:18:29.029,0:18:33.940 đó cũng là cách những cuốn sách triết học hoạt động. Triết học 0:18:33.940,0:18:35.640 làm chúng ta xa rời 0:18:35.640,0:18:37.520 khỏi những thứ quen thuộc 0:18:37.519,0:18:40.389 không phải bằng cách thêm vào các thông tin mới 0:18:40.390,0:18:41.780 mà bằng cách lôi cuốn 0:18:41.779,0:18:43.599 và khơi gợi 0:18:43.599,0:18:47.419 một cách nhìn mới 0:18:47.420,0:18:49.970 nhưng, ở đây cũng có chút rủi ro, 0:18:49.970,0:18:50.720 một khi 0:18:50.720,0:18:54.299 điều quen thuộc trở nên xa lạ, 0:18:54.299,0:18:58.259 nó sẽ không bao giờ hoàn toàn như trước được nữa. 0:18:58.259,0:19:00.210 Tự hiểu mình 0:19:00.210,0:19:03.200 giống như đánh mất đi sự ngây thơ, 0:19:03.200,0:19:04.720 tuy có xáo trộn, 0:19:04.720,0:19:06.029 bạn sẽ thấy rằng 0:19:06.029,0:19:07.289 nó không bao giờ 0:19:07.289,0:19:09.720 trở nên không suy nghĩ 0:19:09.720,0:19:13.390 hoặc không biết 0:19:13.390,0:19:17.259 điều khiến cho sự nghiệp này trở nên khó khăn 0:19:17.259,0:19:19.970 nhưng cũng hấp dẫn, 0:19:19.970,0:19:20.880 Là ở chỗ 0:19:20.880,0:19:25.400 triết học đạo đức và triết lý chính trị là một câu chuyện 0:19:25.400,0:19:29.340 và bạn không biết nó sẽ dẫn đến đâu nhưng điều bạn biết chắc 0:19:29.339,0:19:31.319 rằng câu chuyện đó 0:19:31.319,0:19:34.480 là về bạn. 0:19:34.480,0:19:37.079 Đó là những rủi ro cá nhân, 0:19:37.079,0:19:40.220 Bây giờ những rủi ro chính trị. 0:19:40.220,0:19:43.038 Như một lời giới thiệu, môn học kiểu này 0:19:43.038,0:19:44.730 Là để khuyến khích bạn rằng, 0:19:44.730,0:19:46.460 bằng cách đọc những cuốn sách đó 0:19:46.460,0:19:48.069 và tranh luận về những vấn đề này 0:19:48.069,0:19:51.769 bạn sẽ trở thành một công dân tốt, có trách nhiệm hơn. 0:19:51.769,0:19:56.450 Bạn sẽ kiểm tra các tiền giả định của chính sách công, bạn sẽ mài dũa các 0:19:56.450,0:19:57.289 phán xét chính trị của mình 0:19:57.289,0:20:02.819 bạn sẽ trở thành một người tham gia hiệu quả hơn vào các vấn đề công cộng 0:20:02.819,0:20:06.869 nhưng đó sẽ là một triển vọng phiến diện và dễ gây nhầm lẫn. 0:20:06.869,0:20:11.489 Triết học chính trị đã phần không hoạt động theo cách đó. 0:20:11.490,0:20:14.660 Bạn phải chấp nhận khả năng 0:20:14.660,0:20:19.100 rằng triết lý chính trị có thể khiến bạn trở thành một công dân tồi 0:20:19.099,0:20:21.969 hơn là một công dân tốt 0:20:21.970,0:20:23.809 hoặc ít nhất là một công dân tồi hơn so với 0:20:23.809,0:20:25.629 trước khi nó giúp bạn 0:20:25.630,0:20:27.950 Trở thành một công dân tốt hơn. 0:20:27.950,0:20:30.400 Và bởi vì triết học 0:20:30.400,0:20:32.620 là một điều gì đó xa xôi 0:20:32.619,0:20:34.709 thậm chí là 0:20:34.710,0:20:36.600 một hoạt động gây suy nhược. 0:20:36.599,0:20:37.759 Và bạn nhận thấy điều này 0:20:37.759,0:20:39.890 quay trở lại thời Socrates, 0:20:39.890,0:20:42.290 có một cuộc đối thoại, những người nhóm Gorgias 0:20:42.289,0:20:44.680 trong đó có một người là bạn của Socrates 0:20:44.680,0:20:45.620 Calicles 0:20:45.619,0:20:47.239 Cố gắng thuyết phục ông ngừng 0:20:47.240,0:20:49.970 suy nghĩ triết học. 0:20:49.970,0:20:54.400 calicles nói với Socrates triết học là một món đồ chơi đẹp đẽ 0:20:54.400,0:20:57.980 nếu người ta thưởng thức nó một cách điều độ vào đúng thời điểm của cuộc đời 0:20:57.980,0:21:03.779 nhưng nếu ai theo đuổi nó lâu hơn mức cần thiết thì người đó sẽ bị hủy hoại tuyệt đối. 0:21:03.779,0:21:06.819 Calicles nói hãy nghe lời tôi khuyên 0:21:06.819,0:21:08.369 đừng suy biện nữa, 0:21:08.369,0:21:11.669 hãy tìm hiểu sự viên mãn của cuộc sống tích cực, 0:21:11.670,0:21:16.880 hãy lựa chọn khuôn mẫu, đừng chọn những người dành thời gian cả đời lý sự cho những điều vụn vặt này, 0:21:16.880,0:21:20.080 Mà hãy chọn những người có sinh kế tốt, có thanh danh 0:21:20.079,0:21:22.319 và nhiều may mắn khác. 0:21:22.319,0:21:26.808 Vì thế Calicles thực sự đang nói với Socrates 0:21:26.808,0:21:28.690 hãy ngừng suy nghĩ triết học đi, 0:21:28.690,0:21:30.549 Hãy thực tế, 0:21:30.549,0:21:35.169 đến trường học kinh doanh 0:21:35.170,0:21:38.300 và Calicles đã có một quan điểm, 0:21:38.299,0:21:39.690 anh ấy có một điểm rằng 0:21:39.690,0:21:42.210 bởi vì triết học tách rời chúng ta 0:21:42.210,0:21:45.009 Khỏi những quy ước thông tường, 0:21:45.009,0:21:46.750 khỏi những giả định quen thuộc và khỏi những niềm tin định sẵn. 0:21:46.750,0:21:48.650 Đó là những rủi ro, 0:21:48.650,0:21:49.970 Mang tính cá nhân và chính trị. 0:21:49.970,0:21:54.089 Và khi đối mặt với những rủi ro này, có một sự thoái thác mang tính đặc trưng, 0:21:54.089,0:21:57.470 tên của sự thoái thác này là chủ nghĩa hoài nghi. 0:21:57.470,0:21:58.990 Nó diễn ra như thế này, 0:21:58.990,0:22:03.660 chúng ta đã không giải quyết, một lần và mãi mãi, 0:22:03.660,0:22:09.759 hoặc các tình huống hoặc các nguyên tắc mà chúng ta đã tranh luận khi bắt đầu 0:22:09.759,0:22:11.390 và nếu cả Aristotle 0:22:11.390,0:22:17.220 và Locke và Kant và Mill vẫn chưa giải quyết được những câu hỏi như vậy sau ngần ấy năm 0:22:17.220,0:22:19.589 chúng ta là ai mà nghĩ 0:22:19.589,0:22:23.730 rằng chúng ta ở đây trong Giảng đường Sanders này, trong khóa học một học kỳ 0:22:23.730,0:22:26.430 Lại có thể giải quyết được. 0:22:26.430,0:22:29.460 Và do vậy có thể chỉ là vấn đề 0:22:29.460,0:22:33.519 mỗi người có những nguyên tắc riêng của mình và chẳng có gì để nói về 0:22:33.519,0:22:34.170 điều đó nữa, 0:22:34.170,0:22:36.590 không có cách nào lý luận 0:22:36.589,0:22:37.649 đó là 0:22:37.650,0:22:39.440 sự thoái thác. Việc thoái thác mang tên chủ nghĩa hoài nghi. 0:22:39.440,0:22:41.279 Đối với lý luận này tôi có thể phản hồi 0:22:41.279,0:22:42.660 như sau: 0:22:42.660,0:22:43.720 đúng là 0:22:43.720,0:22:47.559 những câu hỏi này đã được tranh luận trong một thời gian cực kỳ dài, 0:22:47.559,0:22:49.059 nhưng rõ ràng 0:22:49.059,0:22:52.700 Chũng đã tái diễn và tồn tại dai dẳng. 0:22:52.700,0:22:54.650 Có thể gợi ý 0:22:54.650,0:22:57.169 rằng mặc dù chúng không thể theo một ý nghĩa nào đó nhưng 0:22:57.169,0:22:59.800 chúng không thể tránh khỏi theo một nghĩa khác 0:22:59.799,0:23:02.299 và lý do chúng không thể tránh khỏi, 0:23:02.299,0:23:06.500 lý do chúng không thể tránh được là chúng ta phải trả lời một số 0:23:06.500,0:23:10.069 câu hỏi này trong cuộc sống hàng ngày. 0:23:10.069,0:23:16.129 Cho nên, chủ nghĩa hoài nghi, chỉ biết bó tay chịu thua suy ngẫm về đạo đức, 0:23:16.130,0:23:18.280 không phải là giải pháp. 0:23:18.279,0:23:19.990 Emanuel Kant 0:23:19.990,0:23:23.710 Emanuel Kant đã mô tả rất hay vấn đề của chủ nghĩa hoài nghi khi ông viết 0:23:23.710,0:23:26.308 chủ nghĩa hoài nghi là nơi nghỉ ngơi cho lý trí con người, 0:23:26.308,0:23:29.099 nơi có thể mang đến các suy ngẫm mơ hồ, có tính giáo điều. 0:23:29.099,0:23:33.069 nhưng nó không phải là nơi ở để định cư lâu dài. 0:23:33.069,0:23:35.939 Kant viết "đơn giản bằng lòng với chủ nghĩa hoài nghi, 0:23:35.940,0:23:42.660 không bao giờ có thể đủ khả năng để vượt qua tính hiếu động của lý trí." 0:23:42.660,0:23:47.040 Tôi đã cố gắng gợi ý qua những câu chuyện và lập luận này 0:23:47.039,0:23:49.898 một số ý nghĩa về những rủi ro và cám dỗ 0:23:49.898,0:23:55.589 về những khía cạnh nguy hiểm và những khả năng mà tôi chỉ kết luận bằng một cách nói đơn giản 0:23:55.589,0:23:58.099 rằng mục đích của khóa học này l 0:23:58.099,0:23:59.629 à đánh thức 0:23:59.630,0:24:02.240 sự hiếu động của lý trí 0:24:02.240,0:24:04.380 và để xem nó có thể dẫn đến đâu. 0:24:04.380,0:24:11.380 cảm ơn các bạn rất nhiều. 0:24:15.440,0:24:16.980 Giống như, trong một tình huống tuyệt vọng, 0:24:16.980,0:24:21.259 bạn phải làm điều phải làm để sống sót. Bạn có làm việc bạn phải làm không? Bạn có làm không? 0:24:21.259,0:24:22.779 Bạn sẽ làm gì? 0:24:22.779,0:24:23.619 khá nhiều. 0:24:23.619,0:24:25.699 Nếu bạn phải trải qua 19 ngày mà không có thức ăn, 0:24:25.700,0:24:32.700 ai đó phải hy sinh, ai đó phải bị ăn thịt và những người khác có thể sống sót. Được, vậy tốt đấy, bạn tên gì? Marcus. 0:24:33.569,0:24:40.349 Marcus, bạn nói gì với Marcus? 0:24:40.349,0:24:44.569 Lần trước, 0:24:44.569,0:24:46.960 chúng ta bắt đầu lần trước 0:24:46.960,0:24:48.980 Bằng một vài câu chuyện 0:24:48.980,0:24:51.019 với một số tình huống lưỡng nan về đạo đức, 0:24:51.019,0:24:53.049 về xe điện 0:24:53.049,0:24:54.509 và về các bác sĩ 0:24:54.509,0:24:56.269 với bệnh nhân khỏe mạnh 0:24:56.269,0:24:57.559 dễ tổn thương, 0:24:57.559,0:25:00.909 có thể trở thành nạn nhân của việc cấy ghép nội tạng 0:25:00.910,0:25:04.090 Chúng ta biết hai điều. 0:25:04.089,0:25:06.889 Về các lập luận mà chúng ta có 0:25:06.890,0:25:10.830 Ai đó có thể làm theo cách chúng ta tranh luận, 0:25:10.829,0:25:13.569 nó bắt đầu bằng những phán xét của chúng ta trong những trường hợp cụ thể 0:25:13.569,0:25:18.470 chúng ta đã cố gắng kết nối những lý luận hoặc nguyên tắc 0:25:18.470,0:25:22.549 nằm sau những phán xét của chúng ta 0:25:22.549,0:25:25.399 và sau đó đối mặt với một tình huống mới, 0:25:25.400,0:25:30.759 chúng ta tự thấy mình phải xét lại những nguyên tắc đó 0:25:30.759,0:25:34.019 sửa lại nó trên tinh thần của những nguyên tắc khác. 0:25:34.019,0:25:38.920 Và chúng ta thấy áp lực nội tại để cố gắng căn chỉnh sự liên kết 0:25:38.920,0:25:41.680 Các phán xét của chúng ta trong các tình huống cụ thể 0:25:41.680,0:25:43.940 và các nguyên tắc mà chúng ta tán thành 0:25:43.940,0:25:46.360 Trong việc phản ánh, 0:25:46.359,0:25:50.589 chúng ta cũng ghi nhận điều gì là cốt lõi của những lập luận 0:25:50.589,0:25:55.250 Xuất hiện từ cuộc thảo luận này. 0:25:55.250,0:26:00.859 Chúng ta nhận thấy rằng đôi khi chúng ta bị cám dỗ để xác định giá trị đạo đức của một hành động 0:26:00.859,0:26:06.519 dựa trên hệ quả. Hay nói cách khác là dựa trên kết quả mà hành động đó mang lại. 0:26:06.519,0:26:09.019 Chúng ta gọi là lý luận đạo đức 0:26:09.019,0:26:11.690 theo hệ quả luận. 0:26:11.690,0:26:13.240 Nhưng chúng ta cũng nhận thấy rằng 0:26:13.240,0:26:16.440 trong một số trường hợp, 0:26:16.440,0:26:18.610 chúng ta không chỉ bị ảnh hưởng 0:26:18.609,0:26:22.089 bởi kết quả. 0:26:22.089,0:26:23.399 Đôi khi, 0:26:23.400,0:26:25.350 nhiều người trong chúng ta cảm thấy, 0:26:25.349,0:26:31.669 rằng không chỉ hệ quả mà phẩm chất hoặc đặc tính đặc thù của hành động 0:26:31.670,0:26:35.370 Có ý nghĩa về mặt đạo đức 0:26:35.369,0:26:40.979 Một vài người lập luận rằng có một số điều hoàn toàn sai 0:26:40.980,0:26:42.579 ngay cả khi họ mang lại 0:26:42.579,0:26:44.460 một kết quả tốt. 0:26:44.460,0:26:45.490 Ngay cả khi 0:26:45.490,0:26:47.200 họ cứu được năm người 0:26:47.200,0:26:49.788 đổi bằng một mạng người. 0:26:49.788,0:26:52.730 Vì vậy, chúng ta đã đối chiếu lý luận đạo đức 0:26:52.730,0:26:54.569 theo hệ quả luận 0:26:54.569,0:26:58.139 với lý luận đạo đức tuyệt đối. 0:26:58.140,0:26:59.790 Hôm nay 0:26:59.789,0:27:00.819 và trong vài ngày tới 0:27:00.819,0:27:06.569 chúng ta sẽ bắt đầu xem xét một trong những phiên bản có ảnh hưởng nhất 0:27:06.569,0:27:08.839 Trong các phiên bản của 0:27:08.839,0:27:10.970 lý thuyết đạo đức theo hệ quả luận 0:27:10.970,0:27:16.329 và đó là Triết học Thuyết vị lợi. 0:27:16.329,0:27:17.429 Jeremy Bentham, 0:27:17.430,0:27:19.080 triết gia chính trị người Anh 0:27:19.079,0:27:21.689 thế kỷ 18 0:27:21.690,0:27:22.910 Là người đầu tiên 0:27:22.910,0:27:26.630 diễn đạt rõ ràng một cách có hệ thống 0:27:26.630,0:27:28.670 các lý luận đạo đức 0:27:28.670,0:27:32.210 của Thuyết vị lợi 0:27:32.210,0:27:36.400 Và ý tưởng của Bentham, 0:27:36.400,0:27:38.440 ý tưởng cơ bản của ông ấy 0:27:38.440,0:27:42.930 là một ý tưởng cực kỳ đơn giản 0:27:42.930,0:27:44.808 với rất nhiều 0:27:44.808,0:27:46.329 sự hấp dẫn trực quan 0:27:46.329,0:27:48.429 về mặt đạo đức. 0:27:48.430,0:27:50.450 Ý tưởng của Bentham 0:27:50.450,0:27:51.590 là 0:27:51.589,0:27:54.439 Điều đúng nên làm, 0:27:54.440,0:27:57.799 điều duy nhất cần phải làm 0:27:57.799,0:27:58.819 là 0:27:58.819,0:28:01.369 tối đa hóa 0:28:01.369,0:28:02.339 tính có ích. 0:28:02.339,0:28:06.329 Với ông, tính có ích nghĩa là gì? 0:28:06.329,0:28:11.490 Ông hàm ý tính có ích là sự cân bằng 0:28:11.490,0:28:14.000 của niềm vui so với nỗi đau, 0:28:14.000,0:28:16.778 hạnh phúc so với đau khổ. 0:28:16.778,0:28:18.210 Đây là cách chúng ta 0:28:18.210,0:28:19.259 đạt được nguyên tắc 0:28:19.259,0:28:22.308 tối đa hóa tính có ích. 0:28:22.308,0:28:24.450 Ông ấy bắt đầu bằng việc quan sát 0:28:24.450,0:28:26.399 rằng 0:28:26.398,0:28:27.750 tất cả nhân loại 0:28:27.750,0:28:31.490 Đều bị cai trị bởi hai chủ tể tối cao, 0:28:31.490,0:28:34.620 là đau đớn và khoái lạc. 0:28:34.619,0:28:37.479 Con người chúng ta 0:28:37.480,0:28:42.308 thích khoái lạc và ghét đau khổ 0:28:42.308,0:28:45.839 và do vậy chúng ta nên đặt giá trị đạo đức, 0:28:45.839,0:28:49.169 dù rằng chúng ta đang nghĩ về những việc mình cần làm trong cuộc đời 0:28:49.170,0:28:50.490 hay 0:28:50.490,0:28:52.579 với tư cách là nhà lập pháp hay công dân, 0:28:52.579,0:28:57.029 chúng ta đang suy nghĩ pháp luật nên như thế nào, 0:28:57.029,0:29:02.069 điều đúng mà cá nhân hoặc tập thể nên làm 0:29:02.069,0:29:05.838 là tối đa hóa, hành động theo cách làm tối đa hóa 0:29:05.838,0:29:07.659 ở mức độ tổng thể 0:29:07.660,0:29:11.519 của hạnh phúc. 0:29:11.519,0:29:15.430 Thuyết vị lợi của Bentham đôi khi có thể được tóm tắt bằng khẩu hiệu 0:29:15.430,0:29:18.870 “Lợi ích lớn nhất cho nhiều người nhất”. 0:29:18.869,0:29:20.398 Với 0:29:20.398,0:29:22.989 nguyên tắc cơ bản của tính có lợi trong tay, 0:29:22.990,0:29:26.410 hãy bắt đầu kiểm tra và kiểm định nó 0:29:26.410,0:29:28.409 bằng cách chuyển sang một tình huống khác 0:29:28.409,0:29:30.620 một câu chuyện khác nhưng lần này 0:29:30.619,0:29:32.639 không phải là một câu chuyện giả định, 0:29:32.640,0:29:34.120 một câu chuyện có thật 0:29:34.119,0:29:35.059 Vụ 0:29:35.059,0:29:38.329 Nữ hoàng kiện Dudley và Stephens. 0:29:38.329,0:29:41.889 Đây là một vụ kiện nổi tiếng 0:29:41.890,0:29:44.009 ở Anh vào thế kỷ XIX 0:29:44.009,0:29:47.538 Và được tranh luận nhiều trong các trường luật. 0:29:47.538,0:29:50.059 Đây là những gì đã xảy ra trong vụ kiện… 0:29:50.059,0:29:51.869 tôi sẽ tóm tắt câu chuyện 0:29:51.869,0:29:54.909 và sau đó tôi muốn nghe 0:29:54.910,0:29:57.640 bạn sẽ phán quyết ra sao 0:29:57.640,0:30:04.350 khi tưởng tượng rằng bạn là bồi thẩm đoàn. 0:30:04.349,0:30:06.178 Một tờ báo thời đó 0:30:06.179,0:30:09.290 đã mô tả bối cảnh: 0:30:09.289,0:30:11.460 Một câu chuyện buồn nhất về thảm họa trên biển 0:30:11.460,0:30:12.789 Chuyện về 0:30:12.789,0:30:15.288 những người sống sót trên tàu 0:30:15.288,0:30:16.240 Mignonette. 0:30:16.240,0:30:19.109 Con tàu bị chìm ở phía Nam Đại Tây Dương 0:30:19.109,0:30:21.789 Cách mũi đất 130 dặm, 0:30:21.789,0:30:24.000 có bốn người trong thủy thủ đoàn, 0:30:24.000,0:30:26.500 Dudley là thuyền trưởng 0:30:26.500,0:30:28.400 Stephens là thuyền phó thứ nhất, 0:30:28.400,0:30:30.220 Brooks là một thủy thủ, 0:30:30.220,0:30:31.279 tất cả đều là 0:30:31.279,0:30:32.490 những người đàn ông xuất sắc, 0:30:32.490,0:30:34.249 hoặc chí ít các tờ báo 0:30:34.249,0:30:35.819 nói thế. 0:30:35.819,0:30:38.639 Thành viên phi hành đoàn thứ tư là cậu bé làm trong cabin, 0:30:38.640,0:30:40.300 Richard Parker 0:30:40.299,0:30:42.849 mười bảy tuổi. 0:30:42.849,0:30:44.629 Cậu là một đứa trẻ mồ côi 0:30:44.630,0:30:46.930 không có gia đình 0:30:46.930,0:30:51.410 và đây là hành trình dài đầu tiên của cậu. 0:30:51.410,0:30:53.700 Tờ báo nói rằng cậu ấy đã đi 0:30:53.700,0:30:56.730 mặc kệ lời khuyên không nên từ bạn bè của cậu. 0:30:56.730,0:31:00.210 Cậu đi trong niềm hy vọng hoài bão của tuổi trẻ, 0:31:00.210,0:31:03.390 nghĩ rằng cuộc hành trình sẽ biến mình trở thành con người đích thực. 0:31:03.390,0:31:05.140 Đáng tiếc là không phải như vậy, 0:31:05.140,0:31:07.780 tình tiết vụ án không cần bàn cãi, 0:31:07.779,0:31:08.970 một con sóng đánh vào con tàu 0:31:08.970,0:31:12.000 và Mignonette bị chìm. 0:31:12.000,0:31:14.859 Bốn thành viên phi hành đoàn đã thoát ra một xuồng cứu sinh 0:31:14.859,0:31:16.199 thức ăn duy nhất 0:31:16.200,0:31:18.380 họ có là 0:31:18.380,0:31:19.659 hai hộp 0:31:19.659,0:31:20.990 củ cải ướp 0:31:20.990,0:31:21.779 bảo quản 0:31:21.779,0:31:23.980 không có nước sạch, 0:31:23.980,0:31:26.610 trong ba ngày đầu tiên họ không ăn gì cả 0:31:26.609,0:31:30.459 vào ngày thứ tư, họ khui một hộp củ cải 0:31:30.460,0:31:31.590 và ăn nó. 0:31:31.589,0:31:34.449 Ngày hôm sau họ bắt được một con rùa 0:31:34.450,0:31:36.960 cùng với hộp củ cải khác, 0:31:36.960,0:31:38.549 con rùa 0:31:38.549,0:31:40.058 đã giúp họ tồn tại 0:31:40.058,0:31:43.069 for the next few days and then for eight days 0:31:43.069,0:31:44.038 they had nothing 0:31:44.038,0:31:47.069 no food no water. 0:31:47.069,0:31:50.069 Imagine yourself in a situation like that 0:31:50.069,0:31:52.849 what would you do? 0:31:52.849,0:31:55.119 Here's what they did 0:31:55.119,0:32:00.969 by now the cabin boy Parker is lying at the bottom of the lifeboat in a corner 0:32:00.970,0:32:03.230 because he had drunk sea water 0:32:03.230,0:32:05.490 against the advice of the others 0:32:05.490,0:32:07.230 and he had become ill 0:32:07.230,0:32:10.669 and he appeared to be dying 0:32:10.669,0:32:14.619 so on the nineteenth day Dudley, the captain, suggested 0:32:14.618,0:32:17.349 that they should all 0:32:17.349,0:32:18.759 have a lottery. That they should 0:32:18.759,0:32:19.619 all draw lots to see 0:32:19.619,0:32:20.859 who would die 0:32:20.859,0:32:24.079 to save the rest. 0:32:24.079,0:32:25.210 Brooks 0:32:25.210,0:32:26.539 refused 0:32:26.539,0:32:29.139 he didn't like the lottery idea 0:32:29.140,0:32:30.619 we don't know whether this 0:32:30.618,0:32:35.999 was because he didn't want to take that chance or because he believed in categorical moral 0:32:35.999,0:32:36.870 principles 0:32:36.869,0:32:38.619 but in any case 0:32:38.619,0:32:42.129 no lots were drawn. 0:32:42.130,0:32:43.230 The next day 0:32:43.230,0:32:45.028 there was still no ship in sight 0:32:45.028,0:32:48.470 so a Dudley told Brooks to avert his gaze 0:32:48.470,0:32:50.720 and he motioned to Stephens 0:32:50.720,0:32:53.929 that the boy Parker had better be killed. 0:32:53.929,0:32:55.850 Dudley offered a prayer 0:32:55.849,0:32:58.480 he told a the boy his time had come 0:32:58.480,0:33:00.679 and he killed him with a pen knife 0:33:00.679,0:33:03.900 stabbing him in the jugular vein. 0:33:03.900,0:33:09.750 Brooks emerged from his conscientious objection to share in the gruesome bounty. 0:33:09.750,0:33:11.029 For four days 0:33:11.029,0:33:15.230 the three of them fed on the body and blood of the cabin boy. 0:33:15.230,0:33:17.220 True story. 0:33:17.220,0:33:19.390 And then they were rescued. 0:33:19.390,0:33:22.840 Dudley describes their rescue 0:33:22.839,0:33:24.678 in his diary 0:33:24.679,0:33:27.570 with staggering euphemism, quote: 0:33:27.569,0:33:29.648 "on the twenty fourth day 0:33:29.648,0:33:34.750 as we were having our breakfast 0:33:34.750,0:33:38.599 a ship appeared at last." 0:33:38.599,0:33:44.309 The three survivors were picked up by a German ship. They were taken back to Falmouth in England 0:33:44.309,0:33:47.079 where they were arrested and tried 0:33:47.079,0:33:47.829 Brooks 0:33:47.829,0:33:49.949 turned state's witness 0:33:49.950,0:33:54.450 Dudley and Stephens went to trial. They didn't dispute the facts 0:33:54.450,0:33:55.390 they claimed 0:33:55.390,0:33:58.140 they had acted out of necessity 0:33:58.140,0:33:59.430 that was their defense 0:33:59.430,0:34:01.220 they argued in effect 0:34:01.220,0:34:03.250 better that one should die 0:34:03.250,0:34:06.420 so that three could survive 0:34:06.420,0:34:08.619 the prosecutor 0:34:08.619,0:34:10.849 wasn't swayed by that argument 0:34:10.849,0:34:12.509 he said murder is murder 0:34:12.509,0:34:16.429 and so the case went to trial. Now imagine you are the jury 0:34:16.429,0:34:19.489 and just to simplify the discussion 0:34:19.489,0:34:21.989 put aside the question of law, 0:34:21.989,0:34:23.010 and let's assume that 0:34:23.010,0:34:25.879 you as the jury 0:34:25.878,0:34:28.278 are charged with deciding 0:34:28.278,0:34:31.009 whether what they did was morally 0:34:31.009,0:34:34.378 permissible or not. 0:34:34.378,0:34:36.608 How many 0:34:36.608,0:34:39.808 would vote 0:34:39.809,0:34:46.809 not guilty, that what they did was morally permissible? 0:34:49.528,0:34:51.639 And how many would vote guilty 0:34:51.639,0:34:54.858 what they did was morally wrong? 0:34:54.858,0:34:57.998 A pretty sizable majority. 0:34:57.998,0:35:03.808 Now let's see what people's reasons are, and let me begin with those who are in the minority. 0:35:03.809,0:35:07.739 Let's hear first from the defense 0:35:07.739,0:35:10.099 of Dudley and Stephens. 0:35:10.099,0:35:14.160 Why would you morally exonerate them? 0:35:14.159,0:35:17.989 What are your reasons? 0:35:17.989,0:35:20.798 I think it's I think it is morally reprehensible 0:35:20.798,0:35:24.349 but I think that there's a distinction between what's morally reprehensible 0:35:24.349,0:35:26.609 what makes someone legally accountable 0:35:26.608,0:35:30.690 in other words the night as the judge said what's always moral isn't necessarily 0:35:30.690,0:35:34.789 against the law and while I don't think that necessity 0:35:34.789,0:35:36.169 justifies 0:35:36.168,0:35:38.578 theft or murder any illegal act, 0:35:38.579,0:35:43.509 at some point your degree of necessity does in fact 0:35:43.509,0:35:45.849 exonerate you form any guilt. ok. 0:35:45.849,0:35:50.588 other defenders, other voices for the defense? 0:35:50.588,0:35:53.038 Moral justifications for 0:35:53.039,0:35:56.989 what they did? 0:35:56.989,0:35:57.619 yes, thank you 0:35:57.619,0:35:58.798 0:35:58.798,0:35:59.570 I just feel like 0:35:59.570,0:36:03.139 in a situation that desperate you have to do what you have to do to survive. 0:36:03.139,0:36:04.679 You have to do what you have to do 0:36:04.679,0:36:06.789 ya, you gotta do what you gotta do, pretty much. 0:36:06.789,0:36:07.849 If you've been 0:36:07.849,0:36:09.899 going nineteen days without any food 0:36:09.898,0:36:14.710 you know someone just has to take the sacrifice has to make sacrifices and people can survive 0:36:14.710,0:36:16.139 and furthermore from that 0:36:16.139,0:36:21.299 let's say they survived and then they become productive members of society who go home and then start like 0:36:21.300,0:36:26.230 a million charity organizations and this and that and this and that, I mean they benefit everybody in the end so 0:36:26.230,0:36:28.519 I mean I don't know what they did afterwards, I mean they might have 0:36:28.519,0:36:30.478 gone on and killed more people 0:36:30.478,0:36:32.889 but whatever. 0:36:32.889,0:36:35.708 what? what if they were going home and turned out to be assassins? 0:36:35.708,0:36:38.908 What if they were going home and turned out to be assassins? 0:36:38.909,0:36:42.878 You would want to know who they assassinated. 0:36:42.878,0:36:45.848 That's true too, that's fair 0:36:45.849,0:36:49.609 I would wanna know who they assassinated. 0:36:49.608,0:36:50.708 alright that's good, what's your name? Marcus. 0:36:50.708,0:36:52.489 We've heard a defense 0:36:52.489,0:36:54.050 a couple voices for the defense 0:36:54.050,0:36:55.660 now we need to hear 0:36:55.659,0:36:57.298 from the prosecution 0:36:57.298,0:36:59.338 most people think 0:36:59.338,0:37:05.068 what they did was wrong, why? 0:37:05.068,0:37:09.898 One of the first things that I was thinking was, oh well if they haven't been eating for a really long time, 0:37:09.898,0:37:11.409 maybe 0:37:11.409,0:37:12.469 then 0:37:12.469,0:37:15.139 they're mentally affected 0:37:15.139,0:37:16.408 that could be used for the defense, 0:37:16.409,0:37:20.619 a possible argument that oh, 0:37:20.619,0:37:24.179 that they weren't in a proper state of mind, they were making 0:37:24.179,0:37:28.519 decisions that they otherwise wouldn't be making, and if that's an appealing argument 0:37:28.518,0:37:33.608 that you have to be in an altered mindset to do something like that it suggests that 0:37:33.608,0:37:36.108 people who find that argument convincing 0:37:36.108,0:37:40.088 do you think that they're acting immorally. But I want to know what you think you're defending 0:37:40.088,0:37:41.248 you k 0:37:41.249,0:37:45.549 you voted to convict right? yeah I don't think that they acted in morally 0:37:45.548,0:37:49.449 appropriate way. And why not? What do you say, Here's Marcus 0:37:49.449,0:37:51.088 he just defended them, 0:37:51.088,0:37:52.909 he said, 0:37:52.909,0:37:53.880 you heard what he said, 0:37:53.880,0:37:55.249 yes I did 0:37:55.248,0:37:56.558 yes 0:37:56.559,0:38:00.119 that you've got to do what you've got to do in a case like that. 0:38:00.119,0:38:04.789 What do you say to Marcus? 0:38:04.789,0:38:06.439 They didn't, 0:38:06.438,0:38:13.438 that there is no situation that would allow human beings to take 0:38:13.579,0:38:17.959 the idea of fate or the other people's lives into their own hands that we don't have 0:38:17.958,0:38:19.328 that kind of power. 0:38:19.329,0:38:21.399 Good, okay 0:38:21.398,0:38:24.130 thanks you, and what's your name? 0:38:24.130,0:38:24.548 Britt? okay. 0:38:24.548,0:38:26.028 who else? 0:38:26.028,0:38:28.159 What do you say? Stand up 0:38:28.159,0:38:35.159 I'm wondering if Dudley and Stephens had asked for Richard Parker's consent in, you know, dying, 0:38:35.429,0:38:37.568 if that would 0:38:37.568,0:38:41.228 would that exonerate them 0:38:41.228,0:38:45.448 from an act of murder, and if so is that still morally justifiable? 0:38:45.449,0:38:51.720 That's interesting, alright consent, now hang on, what's your name? Kathleen. 0:38:51.719,0:38:56.088 Kathleen says suppose so what would that scenario look like? 0:38:56.088,0:38:56.619 so in the story 0:38:56.619,0:39:00.410 Dudley is there, pen knife in hand, 0:39:00.409,0:39:02.608 but instead of the prayer 0:39:02.608,0:39:04.588 or before the prayer, 0:39:04.588,0:39:07.599 he says, Parker, 0:39:07.599,0:39:11.519 would you mind 0:39:11.518,0:39:14.348 we're desperately hungry, 0:39:14.349,0:39:17.679 as Marcus empathizes with 0:39:17.679,0:39:19.769 we're desperately hungry 0:39:19.768,0:39:22.168 you're not going to last long anyhow, 0:39:22.168,0:39:23.498 you can be a martyr, 0:39:23.498,0:39:25.748 would you be a martyr 0:39:25.748,0:39:29.468 how about it Parker? 0:39:29.469,0:39:33.220 Then, then 0:39:33.219,0:39:37.639 then what do you think, would be morally justified then? Suppose 0:39:37.639,0:39:38.219 Parker 0:39:38.219,0:39:40.168 in his semi-stupor 0:39:40.168,0:39:42.498 says okay 0:39:42.498,0:39:47.889 I don't think it'll be morally justifiable but I'm wondering. Even then, even then it wouldn't be? No 0:39:47.889,0:39:50.650 You don't think that even with consent 0:39:50.650,0:39:52.490 it would be morally justified. 0:39:52.489,0:39:54.568 Are there people who think 0:39:54.568,0:39:56.369 who want to take up Kathleen's 0:39:56.369,0:39:57.200 consent idea 0:39:57.199,0:40:01.688 and who think that that would make it morally justified? Raise your hand if it would 0:40:01.688,0:40:05.868 if you think it would. 0:40:05.869,0:40:07.588 That's very interesting 0:40:07.588,0:40:09.168 Why would consent 0:40:09.168,0:40:15.888 make a moral difference? Why would it? 0:40:15.889,0:40:18.509 Well I just think that if he was making his own original idea 0:40:18.509,0:40:20.969 and it was his idea to start with 0:40:20.969,0:40:23.778 then that would be the only situation in which I would 0:40:23.778,0:40:25.940 see it being appropriate in anyway 0:40:25.940,0:40:28.359 because that way you couldn't make the argument that 0:40:28.358,0:40:30.579 he was pressured you know it’s three 0:40:30.579,0:40:32.759 to one or whatever the ratio was, 0:40:32.759,0:40:34.070 and I think that 0:40:34.070,0:40:38.009 if he was making a decision to give his life then he took on the agency 0:40:38.009,0:40:42.668 to sacrifice himself which some people might see as admirable and other people 0:40:42.668,0:40:45.449 might disagree with that decision. 0:40:45.449,0:40:49.099 So if he came up with the idea 0:40:49.099,0:40:52.820 that's the only kind of consent we could have confidence in 0:40:52.820,0:40:55.359 morally, then it would be okay 0:40:55.358,0:40:57.268 otherwise 0:40:57.268,0:40:59.788 it would be kind of coerced consent 0:40:59.789,0:41:01.469 under the circumstances 0:41:01.469,0:41:05.278 you think. 0:41:05.278,0:41:07.349 Is there anyone who thinks 0:41:07.349,0:41:10.979 that the even the consent of Parker 0:41:10.978,0:41:13.419 would not justify 0:41:13.420,0:41:15.479 their killing him? 0:41:15.478,0:41:18.088 Who thinks that? 0:41:18.088,0:41:19.538 Yes, tell us why, stand up 0:41:19.539,0:41:21.260 I think that Parker 0:41:21.260,0:41:22.319 would be killed 0:41:22.318,0:41:26.558 with the hope that the other crew members would be rescued so 0:41:26.559,0:41:29.250 there's no definite reason that he should be killed 0:41:29.250,0:41:31.199 because you don't know 0:41:31.199,0:41:35.809 when they're going to get rescued so if you kill him you're killing him in vain 0:41:35.809,0:41:38.039 do you keep killing a crew member until you're rescued and then you're left with no one? 0:41:38.039,0:41:40.309 because someone's going to die eventually? 0:41:40.309,0:41:44.199 Well the moral logic of the situation seems to be that. 0:41:44.199,0:41:45.829 That they would 0:41:45.829,0:41:50.318 keep on picking off the weakest maybe, one by one, 0:41:50.318,0:41:51.818 until they were 0:41:51.818,0:41:57.679 rescued and in this case luckily when three at least were still alive. 0:41:57.679,0:41:58.880 Now if 0:41:58.880,0:42:01.298 if Parker did give his consent 0:42:01.298,0:42:04.068 would it be all right do you think or not? 0:42:04.068,0:42:06.329 No, it still wouldn't be right. 0:42:06.329,0:42:08.030 Tell us why wouldn't be all right. 0:42:08.030,0:42:10.028 First of all, cannibalism, I believe 0:42:10.028,0:42:13.228 is morally incorrect 0:42:13.228,0:42:14.509 so you shouldn’t be eating a human anyway. 0:42:14.510,0:42:17.449 So 0:42:17.449,0:42:19.380 cannibalism is morally objectionable outside 0:42:19.380,0:42:22.400 so then even in the scenario 0:42:22.400,0:42:24.568 of waiting until someone died 0:42:24.568,0:42:27.018 still it would be objectionable. 0:42:27.018,0:42:27.929 Yes, to me personally 0:42:27.929,0:42:29.739 I feel like of 0:42:29.739,0:42:31.199 it all depends on 0:42:31.199,0:42:35.288 one's personal morals, like we can't just, like this is just my opinion 0:42:35.289,0:42:39.339 of course other people are going to disagree. 0:42:39.338,0:42:41.498 Well let's see, let's hear what their disagreements are 0:42:41.498,0:42:42.639 and then we'll see 0:42:42.639,0:42:44.259 if they have reasons 0:42:44.259,0:42:46.228 that can persuade you or not. 0:42:46.228,0:42:48.358 Let's try that 0:42:48.358,0:42:50.098 Let's 0:42:50.099,0:42:53.249 now is there someone 0:42:53.248,0:42:57.908 who can explain, those of you who are tempted by consent 0:42:57.909,0:42:59.778 can you explain 0:42:59.778,0:43:02.028 why consent makes 0:43:02.028,0:43:03.358 such a moral difference, 0:43:03.358,0:43:05.650 what about the lottery idea 0:43:05.650,0:43:08.930 does that count as consent. Remember at the beginning 0:43:08.929,0:43:11.308 Dudley proposed a lottery 0:43:11.309,0:43:13.839 suppose that they had agreed 0:43:13.838,0:43:16.338 to a lottery 0:43:16.338,0:43:17.369 then 0:43:17.369,0:43:20.798 how many would then say 0:43:20.798,0:43:23.929 it was all right. Say there was a lottery, 0:43:23.929,0:43:25.380 cabin boy lost, 0:43:25.380,0:43:32.380 and the rest of the story unfolded. How many people would say it's morally permissible? 0:43:33.199,0:43:37.030 So the numbers are rising if we add a lottery, let's hear from one of you 0:43:37.030,0:43:41.609 for whom the lottery would make a moral difference 0:43:41.608,0:43:43.458 why would it? 0:43:43.458,0:43:44.739 I think the essential 0:43:44.739,0:43:45.718 element, 0:43:45.719,0:43:47.858 in my mind that makes it a crime is 0:43:47.858,0:43:53.848 the idea that they decided at some point that their lives were more important than his, and that 0:43:53.849,0:43:56.609 I mean that's kind of the basis for really any crime 0:43:56.608,0:43:57.688 right? It's like 0:43:57.688,0:44:01.949 my needs, my desire is a more important than yours and mine take precedent 0:44:01.949,0:44:04.798 and if they had done a lottery were everyone consented 0:44:04.798,0:44:06.478 that someone should die 0:44:06.478,0:44:09.239 and it's sort of like they're all sacrificing themselves, 0:44:09.239,0:44:11.008 to save the rest, 0:44:11.009,0:44:12.949 Then it would be all right? 0:44:12.949,0:44:15.880 A little grotesque but, 0:44:15.880,0:44:18.959 But morally permissible? Yes. 0:44:18.958,0:44:22.688 what's your name? Matt. 0:44:22.688,0:44:25.578 so, Matt for you 0:44:25.579,0:44:27.329 what bothers you is not 0:44:27.329,0:44:31.389 the cannibalism, but the lack of due process. 0:44:31.389,0:44:34.689 I guess you could say that 0:44:34.688,0:44:38.170 And can someone who agrees with Matt 0:44:38.170,0:44:40.499 say a little bit more 0:44:40.498,0:44:41.378 about why 0:44:41.378,0:44:43.690 a lottery 0:44:43.690,0:44:47.099 would make it, in your view, 0:44:47.099,0:44:50.979 morally permissible. 0:44:50.978,0:44:55.568 The way I understood it originally was that that was the whole issue is that the cabin boy was never 0:44:55.568,0:44:56.398 consulted 0:44:56.398,0:45:00.478 about whether or not it something was going to happen to him even though with the original 0:45:00.478,0:45:01.088 lottery 0:45:01.088,0:45:04.420 whether or not he would be a part of that it was just decided 0:45:04.420,0:45:08.170 that he was the one that was going to die. Yes that's what happened in the actual case 0:45:08.170,0:45:11.900 but if there were a lottery and they all agreed to the procedure 0:45:11.900,0:45:13.539 you think that would be okay? 0:45:13.539,0:45:16.418 Right, because everyone knows that there's gonna be a death 0:45:16.418,0:45:17.079 whereas 0:45:17.079,0:45:18.878 you know the cabin boy didn't know that 0:45:18.878,0:45:21.038 this discussion was even happening 0:45:21.039,0:45:21.919 there was no 0:45:21.918,0:45:23.578 you know forewarning 0:45:23.579,0:45:28.829 for him to know that hey, I may be the one that's dying. Okay, now suppose the everyone agrees 0:45:28.829,0:45:35.089 to the lottery they have the lottery the cabin boy loses any changes his mind. 0:45:35.088,0:45:40.989 You've already decided, it's like a verbal contract, you can't go back on that. You've decided the decision was made 0:45:40.989,0:45:45.139 you know if you know you're dying for the reason for at others to live, 0:45:45.139,0:45:45.999 you would, you know 0:45:45.998,0:45:47.688 if the someone else had died 0:45:47.688,0:45:51.969 you know that you would consume them, so 0:45:51.969,0:45:57.429 But then he could say I know, but I lost. 0:45:57.429,0:46:01.939 I just think that that's the whole moral issue is that there was no consulting of the cabin boy and that that's 0:46:01.938,0:46:04.298 what makes it the most horrible 0:46:04.298,0:46:08.909 is that he had no idea what was even going on, that if he had known what was going on 0:46:08.909,0:46:10.599 it would 0:46:10.599,0:46:13.109 be a bit more understandable. 0:46:13.108,0:46:14.509 Alright, good, now I want to hear 0:46:14.510,0:46:17.049 so there's some who think 0:46:17.048,0:46:18.708 it's morally permissible 0:46:18.708,0:46:24.048 but only about twenty percent, 0:46:24.048,0:46:26.559 led by Marcus, 0:46:26.559,0:46:28.439 then there are some who say 0:46:28.438,0:46:30.208 the real problem here 0:46:30.208,0:46:32.838 is the lack of consent 0:46:32.838,0:46:37.139 whether the lack of consent to a lottery to a fair procedure 0:46:37.139,0:46:38.588 or 0:46:38.588,0:46:39.690 Kathleen's idea, 0:46:39.690,0:46:40.749 lack of consent 0:46:40.748,0:46:42.928 at the moment 0:46:42.929,0:46:45.139 of death 0:46:45.139,0:46:48.318 and if we add consent 0:46:48.318,0:46:49.019 then 0:46:49.019,0:46:51.889 more people are willing to consider 0:46:51.889,0:46:54.528 the sacrifice morally justified. 0:46:54.528,0:46:56.639 I want to hear now finally 0:46:56.639,0:46:58.548 from those of you who think 0:46:58.548,0:47:00.199 even with consent 0:47:00.199,0:47:01.898 even with a lottery 0:47:01.898,0:47:02.519 even with 0:47:02.519,0:47:04.579 a final 0:47:04.579,0:47:06.950 murmur of consent from Parker 0:47:06.949,0:47:08.018 at the 0:47:08.018,0:47:09.179 very last moment 0:47:09.179,0:47:10.838 it would still 0:47:10.838,0:47:12.639 be wrong 0:47:12.639,0:47:14.248 and why would it be wrong 0:47:14.248,0:47:16.998 that's what I want to hear. 0:47:16.998,0:47:18.818 well the whole time 0:47:18.818,0:47:22.639 I've been leaning towards the categorical moral reasoning 0:47:22.639,0:47:25.568 and I think that 0:47:25.568,0:47:29.608 there's a possibility I'd be okay with the idea of the lottery and then loser 0:47:29.608,0:47:31.440 taking into their own hands to 0:47:31.440,0:47:32.749 kill themselves 0:47:32.748,0:47:33.679 0:47:33.679,0:47:37.358 so there wouldn't be an act of murder but I still think that 0:47:37.358,0:47:42.278 even that way it's coerced and also I don't think that there's any remorse like in 0:47:42.278,0:47:43.338 Dudley's diary 0:47:43.338,0:47:44.909 we're getting our breakfast 0:47:44.909,0:47:47.659 it seems as though he's just sort of like, oh, 0:47:47.659,0:47:51.440 you know that whole idea of not valuing someone else's life 0:47:51.440,0:47:53.639 so that makes me 0:47:53.639,0:47:57.969 feel like I have to take the categorical stance. You want to throw the book at him. 0:47:57.969,0:48:02.298 when he lacks remorse or a sense of having done anything wrong. Right. 0:48:02.298,0:48:06.969 Alright, good so are there any other 0:48:06.969,0:48:08.769 defenders who 0:48:08.768,0:48:13.268 who say it's just categorically wrong, with or without consent, yes stand up. Why? 0:48:13.268,0:48:17.288 I think undoubtedly the way our society is shaped, murder is murder 0:48:17.289,0:48:21.829 murder is murder and every way our society looks down at it in the same light 0:48:21.829,0:48:24.780 and I don't think it's any different in any case. Good now let me ask you a question, 0:48:24.780,0:48:27.119 there were three lives at stake 0:48:27.119,0:48:30.489 versus one, 0:48:30.489,0:48:33.028 the one, that the cabin boy, he had no family 0:48:33.028,0:48:34.509 he had no dependents, 0:48:34.509,0:48:38.739 these other three had families back home in England they had dependents 0:48:38.739,0:48:41.418 they had wives and children 0:48:41.418,0:48:43.328 think back to Bentham, 0:48:43.329,0:48:44.989 Bentham says we have to consider 0:48:44.989,0:48:48.048 the welfare, the utility, the happiness 0:48:48.048,0:48:51.288 of everybody. We have to add it all up 0:48:51.289,0:48:54.640 so it's not just numbers three against one 0:48:54.639,0:48:58.759 it's also all of those people at home 0:48:58.759,0:49:00.909 in fact the London newspaper at the time 0:49:00.909,0:49:04.248 and popular opinion sympathized with them 0:49:04.248,0:49:05.478 Dudley in Stephens 0:49:05.478,0:49:07.919 and the paper said if they weren't 0:49:07.920,0:49:08.280 motivated 0:49:08.280,0:49:09.640 by affection 0:49:09.639,0:49:13.489 and concern for their loved ones at home and dependents, surely they wouldn't have 0:49:13.489,0:49:15.969 done this. Yeah, and how is that any different from people 0:49:15.969,0:49:17.369 on the corner 0:49:17.369,0:49:21.108 trying to having the same desire to feed their family, I don't think it's any different. I think in any case 0:49:21.108,0:49:25.279 if I'm murdering you to advance my status, that's murder and I think that we should look at all 0:49:25.280,0:49:28.430 of that in the same light. Instead of criminalizing certain 0:49:28.429,0:49:30.278 activities 0:49:30.278,0:49:33.760 and making certain things seem more violent and savage 0:49:33.760,0:49:36.760 when in that same case it's all the same act and mentality 0:49:36.760,0:49:40.150 that goes into the murder, a necessity to feed their families. 0:49:40.150,0:49:43.028 Suppose there weren't three, supposed there were thirty, 0:49:43.028,0:49:44.608 three hundred, 0:49:44.608,0:49:47.358 one life to save three hundred 0:49:47.358,0:49:48.349 or in more time, 0:49:48.349,0:49:49.589 three thousand 0:49:49.590,0:49:51.039 or suppose the stakes were even bigger. 0:49:51.039,0:49:52.778 Suppose the stakes were even bigger 0:49:52.778,0:49:54.608 I think it's still the same deal. 0:49:54.608,0:49:58.108 Do you think Bentham was wrong to say the right thing to do 0:49:58.108,0:49:58.929 is to add 0:49:58.929,0:50:02.479 up the collected happiness, you think he's wrong about that? 0:50:02.478,0:50:06.728 I don't think he is wrong, but I think murder is murder in any case. Well then Bentham has to be wrong 0:50:06.728,0:50:09.568 if you're right he's wrong. okay then he's wrong. 0:50:09.568,0:50:12.818 Alright thank you, well done. 0:50:12.818,0:50:14.358 Alright, let's step back 0:50:14.358,0:50:16.389 from this discussion 0:50:16.389,0:50:19.728 and notice 0:50:19.728,0:50:23.259 how many objections have we heard to what they did. 0:50:23.259,0:50:26.048 we heard some defenses of what they did 0:50:26.048,0:50:28.509 the defense has had to do with 0:50:28.509,0:50:28.918 necessity 0:50:28.918,0:50:32.588 the dire circumstance and, 0:50:32.588,0:50:33.409 implicitly at least, 0:50:33.409,0:50:36.018 the idea that numbers matter 0:50:36.018,0:50:37.858 and not only numbers matter 0:50:37.858,0:50:40.380 but the wider effects matter 0:50:40.380,0:50:43.459 their families back home, their dependents 0:50:43.458,0:50:44.768 Parker was an orphan, 0:50:44.768,0:50:47.978 no one would miss him. 0:50:47.978,0:50:49.578 so if you 0:50:49.579,0:50:50.829 add up 0:50:50.829,0:50:52.649 if you tried to calculate 0:50:52.648,0:50:53.998 the balance 0:50:53.998,0:50:56.598 of happiness and suffering 0:50:56.599,0:50:58.838 you might have a case for 0:50:58.838,0:51:02.768 saying what they did was the right thing 0:51:02.768,0:51:09.468 then we heard at least three different types of objections, 0:51:09.469,0:51:11.690 we heard an objection that's said 0:51:11.690,0:51:14.108 what they did was categorically wrong, 0:51:14.108,0:51:15.750 right here at the end 0:51:15.750,0:51:17.389 categorically wrong. 0:51:17.389,0:51:19.820 Murder is murder it's always wrong 0:51:19.820,0:51:20.969 even if 0:51:20.969,0:51:23.349 it increases the overall happiness 0:51:23.349,0:51:25.639 of society 0:51:25.639,0:51:28.499 the categorical objection. 0:51:28.498,0:51:30.738 But we still need to investigate 0:51:30.739,0:51:32.749 why murder 0:51:32.748,0:51:35.448 is categorically wrong. 0:51:35.449,0:51:38.579 Is it because 0:51:38.579,0:51:42.339 even cabin boys have certain fundamental rights? 0:51:42.338,0:51:44.400 And if that's the reason 0:51:44.400,0:51:47.880 where do those rights come from if not from some idea 0:51:47.880,0:51:53.209 of the larger welfare or utility or happiness? Question number one. 0:51:53.208,0:51:56.308 Others said 0:51:56.309,0:51:58.449 a lottery would make a difference 0:51:58.449,0:52:00.039 a fair procedure, 0:52:00.039,0:52:05.949 Matt said. 0:52:05.949,0:52:08.769 And some people were swayed by that. 0:52:08.768,0:52:12.188 That's not a categorical objection exactly 0:52:12.188,0:52:13.828 it's saying 0:52:13.829,0:52:16.798 everybody has to be counted as an equal 0:52:16.798,0:52:18.469 even though, at the end of the day 0:52:18.469,0:52:20.769 one can be sacrificed 0:52:20.768,0:52:23.288 for the general welfare. 0:52:23.289,0:52:26.059 That leaves us with another question to investigate, 0:52:26.059,0:52:29.670 Why does agreement to certain procedure, 0:52:29.670,0:52:31.969 even a fair procedure, 0:52:31.969,0:52:34.739 justify whatever result flows 0:52:34.739,0:52:38.088 from the operation of that procedure? 0:52:38.088,0:52:39.898 Question number two. 0:52:39.898,0:52:42.398 and question number three 0:52:42.398,0:52:45.338 the basic idea of consent. 0:52:45.338,0:52:48.528 Kathleen got us on to this. 0:52:48.528,0:52:52.719 If the cabin boy had agreed himself 0:52:52.719,0:52:54.499 and not under duress 0:52:54.498,0:52:57.068 as was added 0:52:57.068,0:53:01.918 then it would be all right to take his life to save the rest. 0:53:01.918,0:53:04.900 Even more people signed on to that idea 0:53:04.900,0:53:06.630 but that raises 0:53:06.630,0:53:08.528 a third philosophical question 0:53:08.528,0:53:11.009 what is the moral work 0:53:11.009,0:53:12.838 that consent 0:53:12.838,0:53:14.438 does? 0:53:14.438,0:53:16.978 Why does an act of consent 0:53:16.978,0:53:19.188 make such a moral difference 0:53:19.188,0:53:23.818 that an act that would be wrong, taking a life, without consent 0:53:23.818,0:53:25.369 is morally 0:53:25.369,0:53:26.358 permissible 0:53:26.358,0:53:29.619 with consent? 0:53:29.619,0:53:31.699 To investigate those three questions 0:53:31.699,0:53:34.108 we're going to have to read some philosophers 0:53:34.108,0:53:35.728 and starting next time 0:53:35.728,0:53:36.939 we're going to read 0:53:36.940,0:53:37.720 Bentham, 0:53:37.719,0:53:43.798 and John Stuart Mill, utilitarian philosophers. 0:53:43.798,0:53:47.298 Don't miss the chance to interact online with other viewers of Justice 0:53:43.798,0:53:47.298 join the conversation, 0:53:49.869,0:53:56.869 take a pop quiz, watch lectures you've missed, and a lot more. Visit www.justiceharvard.org. It's the right thing to do. 0:54:36.219,0:54:40.269 Funding for the program is provided by 0:54:40.268,0:54:41.678 Additional funding provided by