WEBVTT 00:00:04.200 --> 00:00:08.240 Chương trình được tài trợ bởi: 00:00:08.240 --> 00:00:15.240 Tài trợ phụ bởi: 00:00:33.509 --> 00:00:37.750 Đây là môn học về Công lý và chúng ta hãy bắt đầu với một câu chuyện … 00:00:37.750 --> 00:00:40.179 giả sử bạn là người lái xe điện 00:00:40.179 --> 00:00:44.640 và toa xe điện của bạn đang phóng nhanh trên đường ray với vận tốc 60 dặm một giờ 00:00:44.640 --> 00:00:49.390 và ở cuối đường ray, bạn nhận thấy có năm công nhân đang làm việc trên đường ray 00:00:49.390 --> 00:00:51.799 bạn đã cố gắng dừng lại nhưng không được 00:00:51.799 --> 00:00:53.829 thắng không hoạt động 00:00:53.829 --> 00:00:56.780 bạn cảm thấy tuyệt vọng vì bạn biết 00:00:56.780 --> 00:00:59.590 rằng nếu bạn đâm vào năm công nhân này 00:00:59.590 --> 00:01:01.490 tất cả họ sẽ chết 00:01:01.490 --> 00:01:05.079 hãy cho là bạn biết chắc chắn điều đó 00:01:05.079 --> 00:01:07.420 và vì vậy bạn cảm thấy mình vô dụng 00:01:07.420 --> 00:01:09.450 cho đến khi bạn nhận thấy rằng có 00:01:09.450 --> 00:01:11.290 một ngã rẽ bên phải 00:01:11.290 --> 00:01:12.230 một đường ray phụ 00:01:13.170 --> 00:01:15.579 và ở cuối đường ray đó 00:01:15.579 --> 00:01:17.390 chỉ có một công nhân 00:01:17.390 --> 00:01:19.079 đang làm việc trên đường ray 00:01:19.079 --> 00:01:21.368 Bạn đang cầm lái, 00:01:21.368 --> 00:01:23.030 vì thế bạn có thể 00:01:23.030 --> 00:01:26.010 rẽ xe điện nếu bạn muốn 00:01:26.010 --> 00:01:28.840 vào đường ray phụ đó 00:01:28.840 --> 00:01:30.399 giết chết một người 00:01:30.399 --> 00:01:33.269 nhưng có thể g cứu được năm người kia 00:01:33.269 --> 00:01:36.109 Đây là câu hỏi đầu tiên của chúng ta 00:01:36.109 --> 00:01:38.819 Điều gì là đúng nên làm? 00:01:38.819 --> 00:01:40.478 Bạn sẽ làm gì? 00:01:40.478 --> 00:01:42.560 Hãy làm một khảo sát nhỏ, 00:01:42.560 --> 00:01:45.180 có bao nhiêu người 00:01:45.180 --> 00:01:52.020 sẽ rẽ chiếc xe điện vào đường ray phụ? 00:01:52.019 --> 00:01:53.530 Bao nhiêu bạn chọn sẽ không? 00:01:53.530 --> 00:01:58.180 Có bao nhiêu người sẽ đi thẳng về phía trước 00:01:58.180 --> 00:02:04.050 giơ tay lên, những người sẽ đi thẳng về phía trước. 00:02:04.049 --> 00:02:08.378 Một số ít người sẽ, đa số sẽ rẽ hướng 00:02:08.378 --> 00:02:09.878 chúng ta hãy nghe số đông này trước 00:02:09.878 --> 00:02:14.149 bây giờ chúng ta cần bắt đầu điều tra tại sao bạn nghĩ 00:02:14.149 --> 00:02:19.799 đó là điều đúng nên làm. Hãy bắt đầu với những người trong nhóm đa số, những người sẽ rẽ hướng 00:02:19.799 --> 00:02:22.058 để đi vào đường ray phụ? 00:02:22.058 --> 00:02:23.669 Tại sao bạn làm điều đó, 00:02:23.669 --> 00:02:25.808 lý do của bạn là gì? 00:02:25.808 --> 00:02:30.188 Ai sẵn sàng xung phong phát biểu một lý do? 00:02:30.188 --> 00:02:32.218 Nào, đứng lên. 00:02:32.218 --> 00:02:39.218 Bởi vì chúng ta không thể giết chết năm người khi thay vào đó có thể chỉ cần giết chết một người. 00:02:39.579 --> 00:02:42.239 sẽ không đúng khi giết năm người 00:02:42.239 --> 00:02:47.069 nếu thay vào đó bạn có thể giết một người 00:02:47.068 --> 00:02:48.528 đó là một lý do hợp lý 00:02:48.528 --> 00:02:52.959 đó là một lý do hợp lý 00:02:52.959 --> 00:02:53.778 Xin mời ý kiến khác? 00:02:53.778 --> 00:02:56.658 mọi người có đồng ý với 00:02:56.658 --> 00:03:01.218 lý do đó không? Mời bạn 00:03:01.218 --> 00:03:03.620 Chà, tôi nghĩ đó cũng là lý do tại sao 00:03:03.620 --> 00:03:05.459 vào ngày 11/9, chúng ta coi những người [giành lại quyền] lái máy bay, 00:03:05.459 --> 00:03:08.009 những người đã rẽ lái máy bay vào 00:03:08.008 --> 00:03:09.528 cánh đồng Pennsylvania như những người hùng 00:03:09.528 --> 00:03:11.718 vì họ chọn giết những người trên máy bay 00:03:11.718 --> 00:03:14.418 chứ không giết nhiều người hơn 00:03:14.419 --> 00:03:16.109 trong các tòa nhà lớn. 00:03:16.109 --> 00:03:19.260 Vì vậy, nguyên tắc là giống như vào ngày 11/9, 00:03:19.259 --> 00:03:21.638 đó là một tình huống bi thảm, 00:03:21.639 --> 00:03:25.359 nhưng thà là giết một người để năm người có thể sống, 00:03:25.359 --> 00:03:30.748 đó là lý do của hầu hết các bạn, những người sẽ rẽ hướng phải không? 00:03:30.748 --> 00:03:32.628 Giờ hãy nghe 00:03:32.628 --> 00:03:33.628 từ 00:03:33.628 --> 00:03:35.508 những người thuộc nhóm thiểu số 00:03:35.508 --> 00:03:40.558 những người sẽ không rẽ hướng. 00:03:40.558 --> 00:03:45.709 Vâng, tôi nghĩ rằng tâm lý trên đây cùng loại với các biện minh cho tội ác diệt chủng và chủ nghĩa toàn trị. 00:03:45.468 --> 00:03:50.358 Để cứu một chủng tộc bạn sẽ xóa sổ các chủng tộc khác. 00:03:50.359 --> 00:03:53.278 vậy bạn sẽ làm gì trong trường hợp này? Bạn sẽ 00:03:53.278 --> 00:03:55.378 tránh 00:03:55.378 --> 00:03:57.798 nỗi kinh hoàng của nạn diệt chủng? 00:03:57.799 --> 00:04:03.989 bạn sẽ lao vào năm người và giết họ? 00:04:03.989 --> 00:04:07.628 Có lẽ vậy 00:04:07.628 --> 00:04:09.929 Được rồi, còn ai khác không? 00:04:09.930 --> 00:04:14.498 Đó là một câu trả lời dũng cảm, cảm ơn bạn. 00:04:14.498 --> 00:04:16.079 Hãy xem xét một trường hợp khác 00:04:16.978 --> 00:04:20.238 trường hợp xe điện 00:04:20.238 --> 00:04:21.688 và xem xem 00:04:21.689 --> 00:04:24.189 liệu rằng 00:04:24.189 --> 00:04:27.429 đa số các bạn 00:04:27.428 --> 00:04:30.989 muốn tuân theo nguyên tắc, 00:04:30.990 --> 00:04:33.500 thà một người nên chết để năm người được sống hay không? 00:04:33.500 --> 00:04:38.528 Lần này bạn không phải là người điều khiển xe điện, bạn là người chứng kiến 00:04:38.528 --> 00:04:42.678 đứng trên cầu nhìn xuống đường ray xe điện 00:04:42.678 --> 00:04:45.658 và dưới đường ray đó một chiếc xe điện đang đến 00:04:45.658 --> 00:04:49.620 ở cuối đường ray có năm công nhân, 00:04:49.620 --> 00:04:51.739 Thắng xe không hoạt động 00:04:51.738 --> 00:04:55.948 chiếc xe điện sắp lao vào năm người và giết họ. 00:04:55.949 --> 00:04:57.218 Và bây giờ 00:04:57.218 --> 00:04:58.788 bạn không phải là người lái xe, 00:04:58.788 --> 00:05:01.308 bạn thực sự cảm thấy không làm gì được 00:05:01.309 --> 00:05:03.259 được cho đến khi bạn nhận ra 00:05:03.259 --> 00:05:06.879 đứng bên cạnh bạn, 00:05:06.879 --> 00:05:08.639 dựa vào 00:05:08.639 --> 00:05:09.889 cây cầu 00:05:09.889 --> 00:05:16.889 là một người đàn ông rất béo. 00:05:17.218 --> 00:05:20.178 Và bạn có thể 00:05:20.178 --> 00:05:22.668 đẩy anh ta xuống 00:05:22.668 --> 00:05:24.728 anh ta sẽ rơi khỏi cầu 00:05:24.728 --> 00:05:27.949 xuống đường ray 00:05:27.949 --> 00:05:29.538 ngay trên đường ray 00:05:29.538 --> 00:05:32.199 xe điện 00:05:32.199 --> 00:05:33.419 anh ta sẽ chết 00:05:33.418 --> 00:05:38.930 nhưng anh ấy sẽ cứu được năm người kia. 00:05:38.930 --> 00:05:41.108 Bây giờ, có bao nhiêu người sẽ đẩy 00:05:41.108 --> 00:05:48.089 người đàn ông béo qua cầu? Hãy giơ tay lên. 00:05:48.089 --> 00:05:51.198 Bao nhiêu bạn không? 00:05:51.199 --> 00:05:54.069 Đa số sẽ không. 00:05:54.069 --> 00:05:55.789 Một câu hỏi rất rỏ ràng, 00:05:55.788 --> 00:05:56.878 điều gì đã trở thành 00:05:56.879 --> 00:06:00.169 nguyên tắc ở đây? 00:06:00.168 --> 00:06:05.109 cứu năm mạng sống là tốt hơn dù rằng nó đồng nghĩa với việc phải hy sinh một mạng sống? điều gì đã trở thành nguyên tắc 00:06:05.110 --> 00:06:07.490 mà hầu hết mọi người đều tán thành? 00:06:07.490 --> 00:06:09.240 Trong trường hợp thứ nhất, 00:06:09.240 --> 00:06:12.809 tôi muốn nghe từ một người thuộc nhóm đa số trong cả hai tình huống 00:06:12.809 --> 00:06:13.580 Vấn đề là 00:06:13.579 --> 00:06:17.758 làm thế nào để bạn giải thích sự khác biệt trong hai tình huống? 00:06:17.759 --> 00:06:21.860 Vấn đề thứ hai, tôi nghĩ có liên quan đến lựa chọn tích cực của việc 00:06:21.860 --> 00:06:22.509 đẩy một người 00:06:22.509 --> 00:06:24.279 và người đó ngã xuống 00:06:24.279 --> 00:06:25.198 tôi nghĩ rằng 00:06:25.199 --> 00:06:29.830 bản thân người đó sẽ không liên quan gì đến tình huống này cả 00:06:29.829 --> 00:06:31.269 và vì vậy 00:06:31.269 --> 00:06:33.769 để chọn thay mặt anh ấy, tôi nghĩ là 00:06:33.769 --> 00:06:36.769 việc 00:06:36.769 --> 00:06:39.990 lôi anh ta vào việc gì đó mà nếu không bị lôi vào thì anh ta có khả năng thoát khỏi nó 00:06:39.990 --> 00:06:41.788 tôi nghĩ là tốt hơn 00:06:41.788 --> 00:06:43.620 những gì có được trong tình huống đầu tiên 00:06:43.620 --> 00:06:45.968 cả ba bên, tài xế và 00:06:45.968 --> 00:06:47.668 hai nhóm công nhân đã có trong tình huống đầu tiên 00:06:47.668 --> 00:06:50.598 Tôi nghĩ trong tình huống này, 00:06:50.598 --> 00:06:55.108 nhưng người đang làm việc, người trên đường ray phía còn lại 00:06:55.108 --> 00:07:02.068 anh ấy không lựa chọn hy sinh mạng sống của mình hơn là lựa chọn của anh chàng béo, phải không? 00:07:02.069 --> 00:07:05.420 Đó là sự thật, nhưng anh ấy đã ở trên đường ray 00:07:05.399 --> 00:07:10.438 Còn anh chàng này ở trên cầu 00:07:10.439 --> 00:07:13.550 Tiếp nào, bạn có thể ý kiến thêm nếu bạn muốn. 00:07:13.550 --> 00:07:15.329 Được rồi, đó là một câu hỏi khó 00:07:15.329 --> 00:07:18.658 nhưng bạn đã làm tốt, bạn đã làm rất tốt, đó là một câu hỏi khó. 00:07:19.629 --> 00:07:21.180 ai khác 00:07:21.180 --> 00:07:22.598 có thể 00:07:22.598 --> 00:07:26.028 tìm cách thuyết phục 00:07:26.028 --> 00:07:30.158 phản ứng của đa số trong hai trường hợp này? Vâng? 00:07:30.158 --> 00:07:31.550 Tôi nghĩ vậy 00:07:31.550 --> 00:07:32.540 trong trường hợp đầu tiên khi mà 00:07:32.540 --> 00:07:35.179 bạn có một công nhân và năm công nhân 00:07:35.178 --> 00:07:37.429 đó là sự lựa chọn giữa hai nhóm công nhân đó và bạn phải 00:07:37.430 --> 00:07:41.218 đưa ra một lựa chọn nhất định, và mọi người sắp chết vì chiếc xe điện 00:07:41.218 --> 00:07:45.029 mà không cần đến hành động trực tiếp của bạn. Xe diện đang lao đến, 00:07:45.029 --> 00:07:48.209 và bạn cần đưa ra lựa chọn trong tích tắc, 00:07:48.209 --> 00:07:52.658 trong khi đẩy người đàn ông béo xuống là một hành động giết người thực sự từ phía bạn 00:07:52.658 --> 00:07:54.490 bạn có quyền kiểm soát điều đó 00:07:54.490 --> 00:07:57.278 trong khi bạn không thể kiểm soát được xe điện. 00:07:57.278 --> 00:08:00.089 Vì vậy, tôi nghĩ rằng đó là một tình huống hơi khác. 00:08:00.089 --> 00:08:04.359 Được rồi, ai đáp lại nào? Có ai, ai đáp lại ý kiến đó không? thật tuyệt, ai có cách nào 00:08:04.360 --> 00:08:06.319 ai muốn phản hồi lại không? 00:08:06.319 --> 00:08:09.490 Đó có phải là cách thoát ra khỏi tình huống này không? 00:08:09.490 --> 00:08:12.439 Tôi không nghĩ rằng đó là một lý do rất tốt bởi vì dù bạn chọn 00:08:12.439 --> 00:08:16.889 người nào chết đi chăng nữa, vì dù bạn chọn rẽ hướng và giết một người, 00:08:16.889 --> 00:08:18.500 đó cũng là một hành động có ý thức 00:08:18.500 --> 00:08:19.718 nghĩ đến việc rẽ hướng, 00:08:19.718 --> 00:08:21.319 hoặc bạn chọn đẩy ông béo xuống, 00:08:21.319 --> 00:08:23.609 đó cũng là một hành động 00:08:23.608 --> 00:08:27.688 hành động có ý thức, nên dù bằng cách nào bạn cũng đang đưa ra lựa chọn. 00:08:27.689 --> 00:08:29.729 Bạn có muốn đáp lại không? 00:08:29.728 --> 00:08:34.189 Vâng, tôi không thực sự chắc chắn đó là cùng một vấn đề, nó vẫn có vẻ hơi khác, hành động thực sự 00:08:34.190 --> 00:08:38.230 đẩy ai đó xuống đường ray và giết họ, 00:08:38.230 --> 00:08:42.600 bạn thực sự đang tự mình giết anh ta, bạn đang đẩy anh ta bằng chính đôi tay của bạn, bạn đang đẩy và 00:08:42.600 --> 00:08:43.710 điều đó khác 00:08:43.710 --> 00:08:47.090 hơn là điều khiển thứ gì đó sẽ gây ra cái chết 00:08:47.090 --> 00:08:48.670 cho người khác..., bạn biết đấy 00:08:48.669 --> 00:08:52.829 nói điều đó bây giờ nghe có vẻ không đúng khi tôi ở đây. 00:08:52.830 --> 00:08:54.740 Không đâu, tốt mà, bạn tên gì? 00:08:54.740 --> 00:08:55.570 Andrew. 00:08:55.740 --> 00:08:59.570 để tôi hỏi bạn câu hỏi này Andrew 00:08:59.570 --> 00:09:02.240 giả sử 00:09:02.240 --> 00:09:03.680 đứng trên cầu 00:09:03.679 --> 00:09:04.809 bên cạnh người đàn ông béo 00:09:04.809 --> 00:09:07.849 Tôi không cần phải đẩy anh ta, giả sử anh ta đang đứng 00:09:07.850 --> 00:09:14.850 trên một cánh cửa lật mà tôi có thể mở bằng cách xoay như xoay vô lăng vậy 00:09:17.450 --> 00:09:18.690 bạn sẽ xoay nó? 00:09:18.690 --> 00:09:20.960 Vì lý do nào đó, điều đó sai 00:09:20.960 --> 00:09:24.129 càng sai. 00:09:24.129 --> 00:09:30.350 Ý tôi là có thể nếu bạn chỉ vô tình tựa vào vô lăng đó hoặc làm một điều tương tự vậy 00:09:30.350 --> 00:09:31.060 hoặc 00:09:31.059 --> 00:09:33.118 hoặc nói rằng chiếc xe 00:09:33.119 --> 00:09:37.850 đang lao về phía công tắc sẽ làm rơi bẫy 00:09:37.850 --> 00:09:39.230 thì tôi có thể đồng ý với điều đó. 00:09:39.850 --> 00:09:42.230 Thật công bằng, bạn nói nó vẫn có vẻ 00:09:42.230 --> 00:09:45.500 sai theo cách mà nó có vẻ không sai trong trường hợp đầu tiên khi rẽ hướng, 00:09:45.500 --> 00:09:50.419 Nói cách khác, ý tôi là trong tình huống đầu tiên bạn tham gia trực tiếp vào tình huống, 00:09:50.419 --> 00:09:52.449 trong tình huống thứ hai, bạn cũng là người vô cảm. 00:09:52.450 --> 00:09:56.920 Vì vậy, bạn có quyền lựa chọn tham gia hay không tham gia bằng cách đẩy người đàn ông béo. 00:09:56.919 --> 00:09:59.549 Tạm thời hãy tạm quên vụ việc này đi, 00:09:59.549 --> 00:10:01.269 tốt hơn chứ? 00:10:01.269 --> 00:10:06.460 nhưng hãy tưởng tượng một trường hợp khác. Lần này bác sĩ của bạn trong phòng cấp cứu 00:10:06.460 --> 00:10:11.629 và sáu bệnh nhân đến với bạn 00:10:11.629 --> 00:10:18.500 họ đã ở trong một vụ tai nạn xe điện khủng khiếp 00:10:18.500 --> 00:10:23.889 năm người trong số họ bị thương nhẹ, một người bị thương nặng. Bạn có thể mất cả ngày 00:10:23.889 --> 00:10:27.720 chăm sóc cho một nạn nhân bị thương nặng, 00:10:27.720 --> 00:10:32.330 nhưng trong thời gian đó cả năm người còn lại sẽ chết, hoặc bạn có thể chăm sóc năm người đó, phục hồi sức khỏe cho họ, nhưng 00:10:32.330 --> 00:10:35.490 trong thời gian đó người bị thương nặng 00:10:35.490 --> 00:10:36.470 sẽ chết. 00:10:36.470 --> 00:10:37.660 Có bao nhiêu bạn sẽ cứu 00:10:37.659 --> 00:10:39.539 Năm người 00:10:39.539 --> 00:10:40.849 ngay lập tức, nếu là bác sĩ? 00:10:40.850 --> 00:10:44.480 Có bao nhiêu người sẽ cứu một người? 00:10:44.480 --> 00:10:46.300 Rất ít người, 00:10:46.299 --> 00:10:49.269 chỉ một số ít người. 00:10:49.269 --> 00:10:51.439 Cùng một lý do, tôi giả sử, 00:10:51.440 --> 00:10:55.570 một mạng sống so với năm. 00:10:55.570 --> 00:10:57.230 Bây giờ xem xem 00:10:57.230 --> 00:10:59.070 trường hợp một bác sĩ khác, 00:10:59.070 --> 00:11:02.080 lần này bạn là bác sĩ phẫu thuật cấy ghép 00:11:02.080 --> 00:11:06.160 và bạn có năm bệnh nhân, mỗi bệnh nhân đang rất cần 00:11:06.159 --> 00:11:09.639 một ca cấy ghép nội tạng để tồn tại. 00:11:09.639 --> 00:11:12.220 Cần một trái tim, một lá phổi 00:11:12.220 --> 00:11:13.550 một quả thận, 00:11:13.549 --> 00:11:15.089 một quả gan 00:11:15.090 --> 00:11:16.680 và thứ năm 00:11:16.679 --> 00:11:20.209 là tuyến tụy. 00:11:20.210 --> 00:11:22.780 Và bạn không có người hiến tạng, 00:11:22.779 --> 00:11:24.909 bạn sắp phải 00:11:24.909 --> 00:11:27.649 chứng kiến họ chết 00:11:27.649 --> 00:11:28.860 và rồi 00:11:28.860 --> 00:11:30.649 bạn chợt nhận ra 00:11:30.649 --> 00:11:32.470 rằng ở phòng kế bên 00:11:32.470 --> 00:11:35.720 có một anh chàng khỏe mạnh đến để kiểm tra sức khỏe. 00:11:39.450 --> 00:11:43.740 và anh ấy… 00:11:43.740 --> 00:11:47.159 bạn thích tình huống này?... 00:11:47.159 --> 00:11:50.740 và anh ấy đang ngủ trưa 00:11:53.269 --> 00:11:56.769 Bạn có thể khẽ đi vào 00:11:56.769 --> 00:12:00.600 và moi ngũ tạng của anh ra, người đó sẽ chết 00:12:00.600 --> 00:12:03.170 nhưng bạn có thể cứu được năm người. 00:12:03.169 --> 00:12:10.169 Bao nhiêu người sẽ làm điều đó? Có ai không? 00:12:10.389 --> 00:12:17.389 Bao nhiêu? Giơ tay lên nếu bạn muốn làm điều đó. 00:12:18.100 --> 00:12:21.840 Có ai ở ban công không? 00:12:21.840 --> 00:12:24.280 Bạn muốn? Cẩn thận đừng nghiêng người quá nhiều 00:12:26.269 --> 00:12:29.340 Có bao nhiêu sẽ không? 00:12:29.340 --> 00:12:30.360 Được rồi. 00:12:30.360 --> 00:12:33.600 Bạn nói gì, nói lớn lên một chút… ở khu vực ban công, bạn … người sẽ 00:12:33.600 --> 00:12:35.840 moi nội tạng ra, vì sao? 00:12:35.840 --> 00:12:38.629 Tôi thực sự muốn thử thay thế một chút 00:12:38.629 --> 00:12:40.188 có thể chỉ lấy nội tạng của một người chết trước 00:12:40.188 --> 00:12:44.419 trong năm người cần nội tạng 00:12:44.419 --> 00:12:50.229 rồi dùng bốn nội tạng khỏe mạnh của người đó để cứu bốn người kia 00:12:50.230 --> 00:12:54.639 Đó là một ý tưởng khá tốt. 00:12:54.639 --> 00:12:57.830 Đó là một ý tưởng tuyệt vời 00:12:57.830 --> 00:13:00.160 ngoại trừ thực tế 00:13:00.159 --> 00:13:06.159 là bạn vừa làm hỏng quan điểm triết học. 00:13:06.159 --> 00:13:07.360 Hãy quay trở lại 00:13:07.360 --> 00:13:10.240 những câu chuyện và những lập luận đó 00:13:10.240 --> 00:13:12.750 để chú ý một vài điều 00:13:12.750 --> 00:13:17.809 về cách các cuộc tranh luận đã bắt đầu mở ra. 00:13:17.809 --> 00:13:18.649 Một số 00:13:18.649 --> 00:13:20.360 nguyên tắc đạo đức 00:13:20.360 --> 00:13:23.340 đã bắt đầu xuất hiện 00:13:23.340 --> 00:13:25.879 từ các cuộc thảo luận nãy giờ 00:13:25.879 --> 00:13:27.570 và hãy xem xét 00:13:27.570 --> 00:13:29.740 những nguyên tắc đạo đức đó 00:13:29.740 --> 00:13:31.250 có vẻ 00:13:31.250 --> 00:13:35.710 nguyên tắc đạo đức xuất hiện đầu tiên từ cuộc thảo luận cho rằng 00:13:35.710 --> 00:13:39.110 rằng điều đúng nên làm, điều đạo đức nên làm 00:13:39.110 --> 00:13:43.139 phụ thuộc vào hậu quả sẽ đến 00:13:43.139 --> 00:13:45.480 từ hành động của bạn, 00:13:45.480 --> 00:13:47.080 rốt cuộc thì 00:13:47.080 --> 00:13:49.250 để năm người sống sẽ tốt hơn 00:13:49.250 --> 00:13:52.320 dù rằng một người phải chết. 00:13:52.320 --> 00:13:53.700 Đó là một ví dụ 00:13:53.700 --> 00:13:56.280 về hệ quả luận 00:13:56.279 --> 00:13:59.459 lý luận đạo đức. 00:13:59.460 --> 00:14:04.310 lý luận đạo đức theo hệ quả luận phân định đạo đức theo hậu quả của một hành động. Hay 00:14:04.309 --> 00:14:06.549 nói cách khác sẽ là kết quả 00:14:06.549 --> 00:14:09.049 của việc bạn làm. 00:14:09.049 --> 00:14:12.789 Nhưng sau đó chúng ta đã đi xa hơn một chút, chúng ta đã xem xét những trường hợp khác 00:14:12.789 --> 00:14:15.319 và mọi người không chắc lắm 00:14:15.320 --> 00:14:17.300 về 00:14:17.299 --> 00:14:20.529 lập luận đạo đức theo hệ quả luận 00:14:20.529 --> 00:14:22.419 khi người ta lưỡng lự 00:14:22.419 --> 00:14:24.269 trong việc đẩy anh béo 00:14:24.269 --> 00:14:25.789 xuống cầu 00:14:25.789 --> 00:14:28.639 hoặc để moi nội tạng của những 00:14:28.639 --> 00:14:29.750 bệnh nhân vô tội … 00:14:29.750 --> 00:14:32.259 mọi người có biểu hiện hướng tới 00:14:32.259 --> 00:14:34.259 Những lý do 00:14:34.259 --> 00:14:35.379 phải làm 00:14:35.379 --> 00:14:37.250 với chính giá trị thực chất 00:14:37.250 --> 00:14:39.230 của chính 00:14:39.230 --> 00:14:40.690 hành động đó 00:14:40.690 --> 00:14:42.770 Kết quả là điều họ có thể hướng đến. 00:14:42.769 --> 00:14:45.179 Mọi người đã miễn cưỡng 00:14:45.179 --> 00:14:47.819 mọi người đã nghĩ điều đó sai… 00:14:47.820 --> 00:14:49.480 hoàn toàn sai trái 00:14:49.480 --> 00:14:50.500 khi giết 00:14:50.500 --> 00:14:51.408 một người … 00:14:51.408 --> 00:14:53.509 một người vô tội, 00:14:53.509 --> 00:14:54.689 kể cả vì mục đích 00:14:54.690 --> 00:14:55.819 để cứu 00:14:55.818 --> 00:14:58.500 năm người khác, chí ít những người này đã nghĩ như vậy… 00:14:58.500 --> 00:15:00.610 trong cách lựa chọn thứ hai 00:15:00.610 --> 00:15:05.120 của mỗi câu chuyện mà chúng ta đã xem xét 00:15:05.120 --> 00:15:06.519 vì vậy, quan điểm này đưa đến 00:15:06.519 --> 00:15:09.539 cách tư duy 00:15:09.539 --> 00:15:10.689 thứ hai 00:15:10.690 --> 00:15:12.660 về 00:15:12.659 --> 00:15:14.679 đạo đức 00:15:14.679 --> 00:15:16.429 tuyệt đối 00:15:16.429 --> 00:15:22.429 lý luận đạo đức tuyệt đối phân định giá trị đạo đức theo các yêu cầu đạo đức tuyệt đối nhất định nào đó về 00:15:22.429 --> 00:15:24.439 Các nghĩa vụ và quyền hạn tuyệt đối 00:15:24.440 --> 00:15:27.440 bất kể hệ quả là gì. 00:15:27.440 --> 00:15:29.230 Chúng ta sẽ khám phá 00:15:29.230 --> 00:15:33.070 trong những ngày và tuần tới về sự tương phản giữa 00:15:33.070 --> 00:15:36.540 Các quan điểm đạo đức tuyệt đối và hệ quả luận. 00:15:36.539 --> 00:15:38.370 Ví dụ 00:15:38.370 --> 00:15:40.419 có ảnh hưởng nhất 00:15:40.419 --> 00:15:45.919 Về lý luận đạo đức theo hệ quả luận là thuyết vị lợi, một học thuyết được đề xướng bởi 00:15:45.919 --> 00:15:51.099 Jeremy Bentham, triết gia chính trị người Anh thế kỷ 18. 00:15:51.100 --> 00:15:54.139 Triết gia quan trọng nhất 00:15:54.139 --> 00:15:56.850 trong lý luận đạo đức tuyệt đối 00:15:56.850 --> 00:15:58.170 là triết gia 00:15:58.169 --> 00:16:02.589 người Đức thế kỷ thứ mười tám Emmanuel Kant. 00:16:02.590 --> 00:16:03.860 Vì vậy, chúng ta sẽ xem xét 00:16:03.860 --> 00:16:07.259 hai lý luận đạo đức khác nhau này. 00:16:07.259 --> 00:16:08.299 Đánh giá chúng. 00:16:08.299 --> 00:16:10.669 Và cũng xem xét những quan điểm khác. 00:16:10.669 --> 00:16:16.099 Nếu bạn nhìn vào giáo trình, bạn sẽ thấy rằng chúng tá phải đọc nhiều quyển sách hay và nổi tiếng. 00:16:16.100 --> 00:16:18.310 Sách của Aristotle, 00:16:18.309 --> 00:16:19.889 của John Locke, 00:16:19.889 --> 00:16:22.080 của Emanuel Kant, John Stuart Mill, 00:16:22.080 --> 00:16:24.030 và nhiều tác giả khác. 00:16:24.029 --> 00:16:28.169 Bạn cũng sẽ nhận thấy từ giáo trình rằng chúng ta không chỉ đọc những cuốn sách này, 00:16:28.169 --> 00:16:30.069 Chúng ta còn 00:16:30.070 --> 00:16:32.010 phải xem xét 00:16:32.009 --> 00:16:37.000 cả các cuộc tranh luận chính trị và pháp lý đương đại mà đã khiến nảy sinh ra những câu hỏi triết học. 00:16:37.000 --> 00:16:40.190 Chúng ta sẽ tranh luận về bình đẳng và bất bình đẳng, 00:16:40.190 --> 00:16:41.490 Quy định chống phân biệt đối xử, 00:16:41.490 --> 00:16:43.698 tự do ngôn luận so với ngôn từ kích động thù địch, 00:16:43.698 --> 00:16:47.039 hôn nhân đồng giới, nghĩa vụ quân sự, 00:16:47.039 --> 00:16:50.980 một loạt các câu hỏi thực tế, tại sao? 00:16:50.980 --> 00:16:55.350 không chỉ làm sinh động những cuốn sách trừu tượng và xa vời này 00:16:55.350 --> 00:17:01.040 mà còn làm sáng tỏ những bấp bênh về Triết học 00:17:01.039 --> 00:17:03.519 trong cuộc sống hàng ngày, kể cả đời sống chính trị 00:17:03.519 --> 00:17:05.639 của chúng ta. 00:17:05.640 --> 00:17:07.720 Vì thế, chúng ta đọc những cuốn sách đó 00:17:07.720 --> 00:17:09.818 và chúng ta sẽ tranh luận về 00:17:09.818 --> 00:17:15.480 những vấn đề này, và chúng ta sẽ xem các vấn đề bổ nghĩa và soi sáng cho nhau như thế nào. 00:17:15.480 --> 00:17:17.599 Điều này nghe có vẻ đủ hấp dẫn. 00:17:17.599 --> 00:17:19.109 Nhưng ở đây 00:17:19.109 --> 00:17:22.549 tôi phải đưa ra một cảnh báo 00:17:22.549 --> 00:17:25.210 và cảnh báo đó là 00:17:25.210 --> 00:17:28.500 khi đọc những cuốn sách này 00:17:28.500 --> 00:17:31.549 theo cách thức như vậy, 00:17:31.549 --> 00:17:34.119 như một bài tập để hiểu mình, 00:17:34.119 --> 00:17:38.849 đọc chúng theo cách này có vài rủi ro nhất định. 00:17:38.849 --> 00:17:42.119 Rủi ro mang tính cá nhân và chính trị, 00:17:42.119 --> 00:17:47.799 những rủi ro mà mọi sinh viên ngành triết học chính trị đều biết. 00:17:47.799 --> 00:17:50.690 Những rủi ro này xuất phát từ thực tế 00:17:50.690 --> 00:17:52.580 rằng triết học 00:17:52.579 --> 00:17:54.220 dạy chúng ta 00:17:54.220 --> 00:17:56.400 và phá rối chúng ta 00:17:56.400 --> 00:18:01.390 bằng cách buộc chúng ta đối diện với những gì chúng ta đã biết. 00:18:01.390 --> 00:18:03.390 Thật trớ trêu 00:18:03.390 --> 00:18:09.790 là độ khó của khóa học này nằm ở chỗ nó dạy bạn những gì bạn đã biết. 00:18:09.789 --> 00:18:12.159 Nó hoạt động bằng cách lấy 00:18:12.160 --> 00:18:16.470 những gì chúng ta biết trong những ngữ cảnh quen thuộc và không có nghi ngờ gì, 00:18:16.470 --> 00:18:20.370 và làm cho nó trở nên xa lạ. 00:18:20.369 --> 00:18:22.389 Đó chính xác là cách các ví dụ 00:18:22.390 --> 00:18:23.120 đã hoạt động 00:18:23.119 --> 00:18:29.029 Các giả thuyết mà chúng ta bắt đầu pha trộn giữa sự vui tươi và đúng mực của chúng. 00:18:29.029 --> 00:18:33.940 đó cũng là cách những cuốn sách triết học hoạt động. Triết học 00:18:33.940 --> 00:18:35.640 làm chúng ta xa rời 00:18:35.640 --> 00:18:37.520 khỏi những thứ quen thuộc 00:18:37.519 --> 00:18:40.389 không phải bằng cách thêm vào các thông tin mới 00:18:40.390 --> 00:18:41.780 mà bằng cách lôi cuốn 00:18:41.779 --> 00:18:43.599 và khơi gợi 00:18:43.599 --> 00:18:47.419 một cách nhìn mới 00:18:47.420 --> 00:18:49.970 nhưng, ở đây cũng có chút rủi ro, 00:18:49.970 --> 00:18:50.720 một khi 00:18:50.720 --> 00:18:54.299 điều quen thuộc trở nên xa lạ, 00:18:54.299 --> 00:18:58.259 nó sẽ không bao giờ hoàn toàn như trước được nữa. 00:18:58.259 --> 00:19:00.210 Tự hiểu mình 00:19:00.210 --> 00:19:03.200 giống như đánh mất đi sự ngây thơ, 00:19:03.200 --> 00:19:04.720 tuy có xáo trộn, 00:19:04.720 --> 00:19:06.029 bạn sẽ thấy rằng 00:19:06.029 --> 00:19:07.289 nó không bao giờ 00:19:07.289 --> 00:19:09.720 trở nên không suy nghĩ 00:19:09.720 --> 00:19:13.390 hoặc không biết 00:19:13.390 --> 00:19:17.259 điều khiến cho sự nghiệp này trở nên khó khăn 00:19:17.259 --> 00:19:19.970 nhưng cũng hấp dẫn, 00:19:19.970 --> 00:19:20.880 Là ở chỗ 00:19:20.880 --> 00:19:25.400 triết học đạo đức và triết lý chính trị là một câu chuyện 00:19:25.400 --> 00:19:29.340 và bạn không biết nó sẽ dẫn đến đâu nhưng điều bạn biết chắc 00:19:29.339 --> 00:19:31.319 rằng câu chuyện đó 00:19:31.319 --> 00:19:34.480 là về bạn. 00:19:34.480 --> 00:19:37.079 Đó là những rủi ro cá nhân, 00:19:37.079 --> 00:19:40.220 Bây giờ những rủi ro chính trị. 00:19:40.220 --> 00:19:43.038 Như một lời giới thiệu, môn học kiểu này 00:19:43.038 --> 00:19:44.730 Là để khuyến khích bạn rằng, 00:19:44.730 --> 00:19:46.460 bằng cách đọc những cuốn sách đó 00:19:46.460 --> 00:19:48.069 và tranh luận về những vấn đề này 00:19:48.069 --> 00:19:51.769 bạn sẽ trở thành một công dân tốt, có trách nhiệm hơn. 00:19:51.769 --> 00:19:56.450 Bạn sẽ kiểm tra các tiền giả định của chính sách công, bạn sẽ mài dũa các 00:19:56.450 --> 00:19:57.289 phán xét chính trị của mình 00:19:57.289 --> 00:20:02.819 bạn sẽ trở thành một người tham gia hiệu quả hơn vào các vấn đề công cộng 00:20:02.819 --> 00:20:06.869 nhưng đó sẽ là một triển vọng phiến diện và dễ gây nhầm lẫn. 00:20:06.869 --> 00:20:11.489 Triết học chính trị đã phần không hoạt động theo cách đó. 00:20:11.490 --> 00:20:14.660 Bạn phải chấp nhận khả năng 00:20:14.660 --> 00:20:19.100 rằng triết lý chính trị có thể khiến bạn trở thành một công dân tồi 00:20:19.099 --> 00:20:21.969 hơn là một công dân tốt 00:20:21.970 --> 00:20:23.809 hoặc ít nhất là một công dân tồi hơn so với 00:20:23.809 --> 00:20:25.629 trước khi nó giúp bạn 00:20:25.630 --> 00:20:27.950 Trở thành một công dân tốt hơn. 00:20:27.950 --> 00:20:30.400 Và bởi vì triết học 00:20:30.400 --> 00:20:32.620 là một điều gì đó xa xôi 00:20:32.619 --> 00:20:34.709 thậm chí là 00:20:34.710 --> 00:20:36.600 một hoạt động gây suy nhược. 00:20:36.599 --> 00:20:37.759 Và bạn nhận thấy điều này 00:20:37.759 --> 00:20:39.890 quay trở lại thời Socrates, 00:20:39.890 --> 00:20:42.290 có một cuộc đối thoại, những người nhóm Gorgias 00:20:42.289 --> 00:20:44.680 trong đó có một người là bạn của Socrates 00:20:44.680 --> 00:20:45.620 Calicles 00:20:45.619 --> 00:20:47.239 Cố gắng thuyết phục ông ngừng 00:20:47.240 --> 00:20:49.970 suy nghĩ triết học. 00:20:49.970 --> 00:20:54.400 calicles nói với Socrates triết học là một món đồ chơi đẹp đẽ 00:20:54.400 --> 00:20:57.980 nếu người ta thưởng thức nó một cách điều độ vào đúng thời điểm của cuộc đời 00:20:57.980 --> 00:21:03.779 nhưng nếu ai theo đuổi nó lâu hơn mức cần thiết thì người đó sẽ bị hủy hoại tuyệt đối. 00:21:03.779 --> 00:21:06.819 Calicles nói hãy nghe lời tôi khuyên 00:21:06.819 --> 00:21:08.369 đừng suy biện nữa, 00:21:08.369 --> 00:21:11.669 hãy tìm hiểu sự viên mãn của cuộc sống tích cực, 00:21:11.670 --> 00:21:16.880 hãy lựa chọn khuôn mẫu, đừng chọn những người dành thời gian cả đời lý sự cho những điều vụn vặt này, 00:21:16.880 --> 00:21:20.080 Mà hãy chọn những người có sinh kế tốt, có thanh danh 00:21:20.079 --> 00:21:22.319 và nhiều may mắn khác. 00:21:22.319 --> 00:21:26.808 Vì thế Calicles thực sự đang nói với Socrates 00:21:26.808 --> 00:21:28.690 hãy ngừng suy nghĩ triết học đi, 00:21:28.690 --> 00:21:30.549 Hãy thực tế, 00:21:30.549 --> 00:21:35.169 đến trường học kinh doanh 00:21:35.170 --> 00:21:38.300 và Calicles đã có một quan điểm, 00:21:38.299 --> 00:21:39.690 anh ấy có một điểm rằng 00:21:39.690 --> 00:21:42.210 bởi vì triết học tách rời chúng ta 00:21:42.210 --> 00:21:45.009 Khỏi những quy ước thông tường, 00:21:45.009 --> 00:21:46.750 khỏi những giả định quen thuộc và khỏi những niềm tin định sẵn. 00:21:46.750 --> 00:21:48.650 Đó là những rủi ro, 00:21:48.650 --> 00:21:49.970 Mang tính cá nhân và chính trị. 00:21:49.970 --> 00:21:54.089 Và khi đối mặt với những rủi ro này, có một sự thoái thác mang tính đặc trưng, 00:21:54.089 --> 00:21:57.470 tên của sự thoái thác này là chủ nghĩa hoài nghi. 00:21:57.470 --> 00:21:58.990 Nó diễn ra như thế này, 00:21:58.990 --> 00:22:03.660 chúng ta đã không giải quyết, một lần và mãi mãi, 00:22:03.660 --> 00:22:09.759 hoặc các tình huống hoặc các nguyên tắc mà chúng ta đã tranh luận khi bắt đầu 00:22:09.759 --> 00:22:11.390 và nếu cả Aristotle 00:22:11.390 --> 00:22:17.220 và Locke và Kant và Mill vẫn chưa giải quyết được những câu hỏi như vậy sau ngần ấy năm 00:22:17.220 --> 00:22:19.589 chúng ta là ai mà nghĩ 00:22:19.589 --> 00:22:23.730 rằng chúng ta ở đây trong Giảng đường Sanders này, trong khóa học một học kỳ 00:22:23.730 --> 00:22:26.430 Lại có thể giải quyết được. 00:22:26.430 --> 00:22:29.460 Và do vậy có thể chỉ là vấn đề 00:22:29.460 --> 00:22:33.519 mỗi người có những nguyên tắc riêng của mình và chẳng có gì để nói về 00:22:33.519 --> 00:22:34.170 điều đó nữa, 00:22:34.170 --> 00:22:36.590 không có cách nào lý luận 00:22:36.589 --> 00:22:37.649 đó là 00:22:37.650 --> 00:22:39.440 sự thoái thác. Việc thoái thác mang tên chủ nghĩa hoài nghi. 00:22:39.440 --> 00:22:41.279 Đối với lý luận này tôi có thể phản hồi 00:22:41.279 --> 00:22:42.660 như sau: 00:22:42.660 --> 00:22:43.720 đúng là 00:22:43.720 --> 00:22:47.559 những câu hỏi này đã được tranh luận trong một thời gian cực kỳ dài, 00:22:47.559 --> 00:22:49.059 nhưng rõ ràng 00:22:49.059 --> 00:22:52.700 Chũng đã tái diễn và tồn tại dai dẳng. 00:22:52.700 --> 00:22:54.650 Có thể gợi ý 00:22:54.650 --> 00:22:57.169 rằng mặc dù chúng không thể theo một ý nghĩa nào đó nhưng 00:22:57.169 --> 00:22:59.800 chúng không thể tránh khỏi theo một nghĩa khác 00:22:59.799 --> 00:23:02.299 và lý do chúng không thể tránh khỏi, 00:23:02.299 --> 00:23:06.500 lý do chúng không thể tránh được là chúng ta phải trả lời một số 00:23:06.500 --> 00:23:10.069 câu hỏi này trong cuộc sống hàng ngày. 00:23:10.069 --> 00:23:16.129 Cho nên, chủ nghĩa hoài nghi, chỉ biết bó tay chịu thua suy ngẫm về đạo đức, 00:23:16.130 --> 00:23:18.280 không phải là giải pháp. 00:23:18.279 --> 00:23:19.990 Emanuel Kant 00:23:19.990 --> 00:23:23.710 Emanuel Kant đã mô tả rất hay vấn đề của chủ nghĩa hoài nghi khi ông viết 00:23:23.710 --> 00:23:26.308 chủ nghĩa hoài nghi là nơi nghỉ ngơi cho lý trí con người, 00:23:26.308 --> 00:23:29.099 nơi có thể mang đến các suy ngẫm mơ hồ, có tính giáo điều. 00:23:29.099 --> 00:23:33.069 nhưng nó không phải là nơi ở để định cư lâu dài. 00:23:33.069 --> 00:23:35.939 Kant viết "đơn giản bằng lòng với chủ nghĩa hoài nghi, 00:23:35.940 --> 00:23:42.660 không bao giờ có thể đủ khả năng để vượt qua tính hiếu động của lý trí." 00:23:42.660 --> 00:23:47.040 Tôi đã cố gắng gợi ý qua những câu chuyện và lập luận này 00:23:47.039 --> 00:23:49.898 một số ý nghĩa về những rủi ro và cám dỗ 00:23:49.898 --> 00:23:55.589 về những khía cạnh nguy hiểm và những khả năng mà tôi chỉ kết luận bằng một cách nói đơn giản 00:23:55.589 --> 00:23:58.099 rằng mục đích của khóa học này l 00:23:58.099 --> 00:23:59.629 à đánh thức 00:23:59.630 --> 00:24:02.240 sự hiếu động của lý trí 00:24:02.240 --> 00:24:04.380 và để xem nó có thể dẫn đến đâu. 00:24:04.380 --> 00:24:11.380 cảm ơn các bạn rất nhiều. 00:24:15.440 --> 00:24:16.980 Giống như, trong một tình huống tuyệt vọng, 00:24:16.980 --> 00:24:21.259 bạn phải làm điều phải làm để sống sót. Bạn có làm việc bạn phải làm không? Bạn có làm không? 00:24:21.259 --> 00:24:22.779 Bạn sẽ làm gì? 00:24:22.779 --> 00:24:23.619 khá nhiều. 00:24:23.619 --> 00:24:25.699 Nếu bạn phải trải qua 19 ngày mà không có thức ăn, 00:24:25.700 --> 00:24:32.700 ai đó phải hy sinh, ai đó phải bị ăn thịt và những người khác có thể sống sót. Được, vậy tốt đấy, bạn tên gì? Marcus. 00:24:33.569 --> 00:24:40.349 Marcus, bạn nói gì với Marcus? 00:24:40.349 --> 00:24:44.569 Lần trước, 00:24:44.569 --> 00:24:46.960 chúng ta bắt đầu lần trước 00:24:46.960 --> 00:24:48.980 Bằng một vài câu chuyện 00:24:48.980 --> 00:24:51.019 với một số tình huống lưỡng nan về đạo đức, 00:24:51.019 --> 00:24:53.049 về xe điện 00:24:53.049 --> 00:24:54.509 và về các bác sĩ 00:24:54.509 --> 00:24:56.269 với bệnh nhân khỏe mạnh 00:24:56.269 --> 00:24:57.559 dễ tổn thương, 00:24:57.559 --> 00:25:00.909 có thể trở thành nạn nhân của việc cấy ghép nội tạng 00:25:00.910 --> 00:25:04.090 Chúng ta biết hai điều. 00:25:04.089 --> 00:25:06.889 Về các lập luận mà chúng ta có 00:25:06.890 --> 00:25:10.830 Ai đó có thể làm theo cách chúng ta tranh luận, 00:25:10.829 --> 00:25:13.569 nó bắt đầu bằng những phán xét của chúng ta trong những trường hợp cụ thể 00:25:13.569 --> 00:25:18.470 chúng ta đã cố gắng kết nối những lý luận hoặc nguyên tắc 00:25:18.470 --> 00:25:22.549 nằm sau những phán xét của chúng ta 00:25:22.549 --> 00:25:25.399 và sau đó đối mặt với một tình huống mới, 00:25:25.400 --> 00:25:30.759 chúng ta tự thấy mình phải xét lại những nguyên tắc đó 00:25:30.759 --> 00:25:34.019 sửa lại nó trên tinh thần của những nguyên tắc khác. 00:25:34.019 --> 00:25:38.920 Và chúng ta thấy áp lực nội tại để cố gắng căn chỉnh sự liên kết 00:25:38.920 --> 00:25:41.680 Các phán xét của chúng ta trong các tình huống cụ thể 00:25:41.680 --> 00:25:43.940 và các nguyên tắc mà chúng ta tán thành 00:25:43.940 --> 00:25:46.360 Trong việc phản ánh, 00:25:46.359 --> 00:25:50.589 chúng ta cũng ghi nhận điều gì là cốt lõi của những lập luận 00:25:50.589 --> 00:25:55.250 Xuất hiện từ cuộc thảo luận này. 00:25:55.250 --> 00:26:00.859 Chúng ta nhận thấy rằng đôi khi chúng ta bị cám dỗ để xác định giá trị đạo đức của một hành động 00:26:00.859 --> 00:26:06.519 dựa trên hệ quả. Hay nói cách khác là dựa trên kết quả mà hành động đó mang lại. 00:26:06.519 --> 00:26:09.019 Chúng ta gọi là lý luận đạo đức 00:26:09.019 --> 00:26:11.690 theo hệ quả luận. 00:26:11.690 --> 00:26:13.240 Nhưng chúng ta cũng nhận thấy rằng 00:26:13.240 --> 00:26:16.440 trong một số trường hợp, 00:26:16.440 --> 00:26:18.610 chúng ta không chỉ bị ảnh hưởng 00:26:18.609 --> 00:26:22.089 bởi kết quả. 00:26:22.089 --> 00:26:23.399 Đôi khi, 00:26:23.400 --> 00:26:25.350 nhiều người trong chúng ta cảm thấy, 00:26:25.349 --> 00:26:31.669 rằng không chỉ hệ quả mà phẩm chất hoặc đặc tính đặc thù của hành động 00:26:31.670 --> 00:26:35.370 Có ý nghĩa về mặt đạo đức 00:26:35.369 --> 00:26:40.979 Một vài người lập luận rằng có một số điều hoàn toàn sai 00:26:40.980 --> 00:26:42.579 ngay cả khi họ mang lại 00:26:42.579 --> 00:26:44.460 một kết quả tốt. 00:26:44.460 --> 00:26:45.490 Ngay cả khi 00:26:45.490 --> 00:26:47.200 họ cứu được năm người 00:26:47.200 --> 00:26:49.788 đổi bằng một mạng người. 00:26:49.788 --> 00:26:52.730 Vì vậy, chúng ta đã đối chiếu lý luận đạo đức 00:26:52.730 --> 00:26:54.569 theo hệ quả luận 00:26:54.569 --> 00:26:58.139 với lý luận đạo đức tuyệt đối. 00:26:58.140 --> 00:26:59.790 Hôm nay 00:26:59.789 --> 00:27:00.819 và trong vài ngày tới 00:27:00.819 --> 00:27:06.569 chúng ta sẽ bắt đầu xem xét một trong những phiên bản có ảnh hưởng nhất 00:27:06.569 --> 00:27:08.839 Trong các phiên bản của 00:27:08.839 --> 00:27:10.970 lý thuyết đạo đức theo hệ quả luận 00:27:10.970 --> 00:27:16.329 và đó là Triết học Thuyết vị lợi. 00:27:16.329 --> 00:27:17.429 Jeremy Bentham, 00:27:17.430 --> 00:27:19.080 triết gia chính trị người Anh 00:27:19.079 --> 00:27:21.689 thế kỷ 18 00:27:21.690 --> 00:27:22.910 Là người đầu tiên 00:27:22.910 --> 00:27:26.630 diễn đạt rõ ràng một cách có hệ thống 00:27:26.630 --> 00:27:28.670 các lý luận đạo đức 00:27:28.670 --> 00:27:32.210 của Thuyết vị lợi 00:27:32.210 --> 00:27:36.400 Và ý tưởng của Bentham, 00:27:36.400 --> 00:27:38.440 ý tưởng cơ bản của ông ấy 00:27:38.440 --> 00:27:42.930 là một ý tưởng cực kỳ đơn giản 00:27:42.930 --> 00:27:44.808 với rất nhiều 00:27:44.808 --> 00:27:46.329 sự hấp dẫn trực quan 00:27:46.329 --> 00:27:48.429 về mặt đạo đức. 00:27:48.430 --> 00:27:50.450 Ý tưởng của Bentham 00:27:50.450 --> 00:27:51.590 là 00:27:51.589 --> 00:27:54.439 Điều đúng nên làm, 00:27:54.440 --> 00:27:57.799 điều duy nhất cần phải làm 00:27:57.799 --> 00:27:58.819 là 00:27:58.819 --> 00:28:01.369 tối đa hóa 00:28:01.369 --> 00:28:02.339 tính có ích. 00:28:02.339 --> 00:28:06.329 Với ông, tính có ích nghĩa là gì? 00:28:06.329 --> 00:28:11.490 Ông hàm ý tính có ích là sự cân bằng 00:28:11.490 --> 00:28:14.000 của niềm vui so với nỗi đau, 00:28:14.000 --> 00:28:16.778 hạnh phúc so với đau khổ. 00:28:16.778 --> 00:28:18.210 Đây là cách chúng ta 00:28:18.210 --> 00:28:19.259 đạt được nguyên tắc 00:28:19.259 --> 00:28:22.308 tối đa hóa tính có ích. 00:28:22.308 --> 00:28:24.450 Ông ấy bắt đầu bằng việc quan sát 00:28:24.450 --> 00:28:26.399 rằng 00:28:26.398 --> 00:28:27.750 tất cả nhân loại 00:28:27.750 --> 00:28:31.490 Đều bị cai trị bởi hai chủ tể tối cao, 00:28:31.490 --> 00:28:34.620 là đau đớn và khoái lạc. 00:28:34.619 --> 00:28:37.479 Con người chúng ta 00:28:37.480 --> 00:28:42.308 thích khoái lạc và ghét đau khổ 00:28:42.308 --> 00:28:45.839 và do vậy chúng ta nên đặt giá trị đạo đức, 00:28:45.839 --> 00:28:49.169 dù rằng chúng ta đang nghĩ về những việc mình cần làm trong cuộc đời 00:28:49.170 --> 00:28:50.490 hay 00:28:50.490 --> 00:28:52.579 với tư cách là nhà lập pháp hay công dân, 00:28:52.579 --> 00:28:57.029 chúng ta đang suy nghĩ pháp luật nên như thế nào, 00:28:57.029 --> 00:29:02.069 điều đúng mà cá nhân hoặc tập thể nên làm 00:29:02.069 --> 00:29:05.838 là tối đa hóa, hành động theo cách làm tối đa hóa 00:29:05.838 --> 00:29:07.659 ở mức độ tổng thể 00:29:07.660 --> 00:29:11.519 của hạnh phúc. 00:29:11.519 --> 00:29:15.430 Thuyết vị lợi của Bentham đôi khi có thể được tóm tắt bằng khẩu hiệu 00:29:15.430 --> 00:29:18.870 “Lợi ích lớn nhất cho nhiều người nhất”. 00:29:18.869 --> 00:29:20.398 Với 00:29:20.398 --> 00:29:22.989 nguyên tắc cơ bản của tính có lợi trong tay, 00:29:22.990 --> 00:29:26.410 hãy bắt đầu kiểm tra và kiểm định nó 00:29:26.410 --> 00:29:28.409 bằng cách chuyển sang một tình huống khác 00:29:28.409 --> 00:29:30.620 một câu chuyện khác nhưng lần này 00:29:30.619 --> 00:29:32.639 không phải là một câu chuyện giả định, 00:29:32.640 --> 00:29:34.120 một câu chuyện có thật 00:29:34.119 --> 00:29:35.059 Vụ 00:29:35.059 --> 00:29:38.329 Nữ hoàng kiện Dudley và Stephens. 00:29:38.329 --> 00:29:41.889 Đây là một vụ kiện nổi tiếng 00:29:41.890 --> 00:29:44.009 ở Anh vào thế kỷ XIX 00:29:44.009 --> 00:29:47.538 Và được tranh luận nhiều trong các trường luật. 00:29:47.538 --> 00:29:50.059 Đây là những gì đã xảy ra trong vụ kiện… 00:29:50.059 --> 00:29:51.869 tôi sẽ tóm tắt câu chuyện 00:29:51.869 --> 00:29:54.909 và sau đó tôi muốn nghe 00:29:54.910 --> 00:29:57.640 bạn sẽ phán quyết ra sao 00:29:57.640 --> 00:30:04.350 khi tưởng tượng rằng bạn là bồi thẩm đoàn. 00:30:04.349 --> 00:30:06.178 Một tờ báo thời đó 00:30:06.179 --> 00:30:09.290 đã mô tả bối cảnh: 00:30:09.289 --> 00:30:11.460 Một câu chuyện buồn nhất về thảm họa trên biển 00:30:11.460 --> 00:30:12.789 Chuyện về 00:30:12.789 --> 00:30:15.288 những người sống sót trên tàu 00:30:15.288 --> 00:30:16.240 Mignonette. 00:30:16.240 --> 00:30:19.109 Con tàu bị chìm ở phía Nam Đại Tây Dương 00:30:19.109 --> 00:30:21.789 Cách mũi đất 130 dặm, 00:30:21.789 --> 00:30:24.000 có bốn người trong thủy thủ đoàn, 00:30:24.000 --> 00:30:26.500 Dudley là thuyền trưởng 00:30:26.500 --> 00:30:28.400 Stephens là thuyền phó thứ nhất, 00:30:28.400 --> 00:30:30.220 Brooks là một thủy thủ, 00:30:30.220 --> 00:30:31.279 tất cả đều là 00:30:31.279 --> 00:30:32.490 những người đàn ông xuất sắc, 00:30:32.490 --> 00:30:34.249 hoặc chí ít các tờ báo 00:30:34.249 --> 00:30:35.819 nói thế. 00:30:35.819 --> 00:30:38.639 Thành viên phi hành đoàn thứ tư là cậu bé làm trong cabin, 00:30:38.640 --> 00:30:40.300 Richard Parker 00:30:40.299 --> 00:30:42.849 mười bảy tuổi. 00:30:42.849 --> 00:30:44.629 Cậu là một đứa trẻ mồ côi 00:30:44.630 --> 00:30:46.930 không có gia đình 00:30:46.930 --> 00:30:51.410 và đây là hành trình dài đầu tiên của cậu. 00:30:51.410 --> 00:30:53.700 Tờ báo nói rằng cậu ấy đã đi 00:30:53.700 --> 00:30:56.730 mặc kệ lời khuyên không nên từ bạn bè của cậu. 00:30:56.730 --> 00:31:00.210 Cậu đi trong niềm hy vọng hoài bão của tuổi trẻ, 00:31:00.210 --> 00:31:03.390 nghĩ rằng cuộc hành trình sẽ biến mình trở thành con người đích thực. 00:31:03.390 --> 00:31:05.140 Đáng tiếc là không phải như vậy, 00:31:05.140 --> 00:31:07.780 tình tiết vụ án không cần bàn cãi, 00:31:07.779 --> 00:31:08.970 một con sóng đánh vào con tàu 00:31:08.970 --> 00:31:12.000 và Mignonette bị chìm. 00:31:12.000 --> 00:31:14.859 Bốn thành viên phi hành đoàn đã thoát ra một xuồng cứu sinh 00:31:14.859 --> 00:31:16.199 thức ăn duy nhất 00:31:16.200 --> 00:31:18.380 họ có là 00:31:18.380 --> 00:31:19.659 hai hộp 00:31:19.659 --> 00:31:20.990 củ cải ướp 00:31:20.990 --> 00:31:21.779 bảo quản 00:31:21.779 --> 00:31:23.980 không có nước sạch, 00:31:23.980 --> 00:31:26.610 trong ba ngày đầu tiên họ không ăn gì cả 00:31:26.609 --> 00:31:30.459 vào ngày thứ tư, họ khui một hộp củ cải 00:31:30.460 --> 00:31:31.590 và ăn nó. 00:31:31.589 --> 00:31:34.449 Ngày hôm sau họ bắt được một con rùa 00:31:34.450 --> 00:31:36.960 cùng với hộp củ cải khác, 00:31:36.960 --> 00:31:38.549 con rùa 00:31:38.549 --> 00:31:40.058 đã giúp họ tồn tại 00:31:40.058 --> 00:31:43.069 trong vài ngày tiếp theo và sau đó và tám ngày sau nữa 00:31:43.069 --> 00:31:44.038 họ không có gì cả, 00:31:44.038 --> 00:31:47.069 không thức ăn, không nước uống. 00:31:47.069 --> 00:31:50.069 Hãy đặt mình vào tình huống như vậy, 00:31:50.069 --> 00:31:52.849 bạn sẽ làm gì? 00:31:52.849 --> 00:31:55.119 Đây là những gì họ đã làm 00:31:55.119 --> 00:32:00.969 lúc đó, cậu nhóc cabin Parker đang nằm trong góc dưới của xuồng cứu sinh 00:32:00.970 --> 00:32:03.230 vì cậu bé đã uống nước biển 00:32:03.230 --> 00:32:05.490 mà không nghe theo lời khuyên của những người khác 00:32:05.490 --> 00:32:07.230 nên cậu đã bị ốm 00:32:07.230 --> 00:32:10.669 và cậu dường như suy kiệt, 00:32:10.669 --> 00:32:14.619 nên vào ngày thứ mười chín Dudley, thuyền trưởng, đề nghị 00:32:14.618 --> 00:32:17.349 rằng tất cả họ nên 00:32:17.349 --> 00:32:18.759 rút thăm. Rằng tất cả họ nên 00:32:18.759 --> 00:32:19.619 rút thăm để xem 00:32:19.619 --> 00:32:20.859 người nào sẽ chết 00:32:20.859 --> 00:32:24.079 để cứu những người còn lại. 00:32:24.079 --> 00:32:25.210 Brooks 00:32:25.210 --> 00:32:26.539 đã từ chối, 00:32:26.539 --> 00:32:29.139 ông không thích ý tưởng rút thăm 00:32:29.140 --> 00:32:30.619 chúng ta không biết liệu điều này 00:32:30.618 --> 00:32:35.999 là vì ông ta không muốn nắm lấy cơ hội đó hay vì ông tin vào 00:32:35.999 --> 00:32:36.870 nguyên tắc đạo đức tuyệt đối 00:32:36.869 --> 00:32:38.619 nhưng dù sao thì 00:32:38.619 --> 00:32:42.129 việc rút thăm đã không diễn ra. 00:32:42.130 --> 00:32:43.230 Ngày tiếp theo, 00:32:43.230 --> 00:32:45.028 vẫn không có con tàu nào xuất hiện cả, 00:32:45.028 --> 00:32:48.470 nên Dudley bảo Brooks quay đi chỗ khác. 00:32:48.470 --> 00:32:50.720 và ra hiệu cho Stephens 00:32:50.720 --> 00:32:53.929 rằng tốt hơn cậu bé Parker nên bị giết. 00:32:53.929 --> 00:32:55.850 Dudley cầu nguyện, 00:32:55.849 --> 00:32:58.480 và nói với cậu bé rằng đã đến lúc 00:32:58.480 --> 00:33:00.679 và đã giết cậu bé bằng một con dao bút 00:33:00.679 --> 00:33:03.900 đâm vào động mạch cổ cậu bé. 00:33:03.900 --> 00:33:09.750 Brooks đổi quan điểm phản đối đầy đạo đức của mình để được chia một phần kinh khủng. 00:33:09.750 --> 00:33:11.029 Trong bốn ngày, 00:33:11.029 --> 00:33:15.230 ba người họ ăn thịt và uống máu của cậu bé cabin. 00:33:15.230 --> 00:33:17.220 Một câu chuyện có thật. 00:33:17.220 --> 00:33:19.390 Và rồi họ được giải cứu. 00:33:19.390 --> 00:33:22.840 Dudley mô tả cuộc giải cứu của họ 00:33:22.839 --> 00:33:24.678 trong nhật ký của mình 00:33:24.679 --> 00:33:27.570 với uyển ngữ đáng kinh ngạc, xin trích dẫn: 00:33:27.569 --> 00:33:29.648 "vào ngày thứ 24, 00:33:29.648 --> 00:33:34.750 khi chúng tôi đang dùng bữa sáng 00:33:34.750 --> 00:33:38.599 một con tàu cuối cùng đã xuất hiện." 00:33:38.599 --> 00:33:44.309 Ba người sống sót đã được một con tàu của Đức vớt. Họ được đưa trở lại Falmouth ở Anh 00:33:44.309 --> 00:33:47.079 Tại đây họ bị bắt và xét xử. 00:33:47.079 --> 00:33:47.829 Brooks 00:33:47.829 --> 00:33:49.949 trở thành nhân chứng phía nhà nước 00:33:49.950 --> 00:33:54.450 Dudley và Stephens hầu tòa. Họ không tranh cãi về những sự thật mà 00:33:54.450 --> 00:33:55.390 họ tuyên bố rằng 00:33:55.390 --> 00:33:58.140 họ đã hành động trong tình thế bắt buộc, 00:33:58.140 --> 00:33:59.430 đó là lời biện hộ của họ, 00:33:59.430 --> 00:34:01.220 họ lập luận rằng 00:34:01.220 --> 00:34:03.250 Sẽ tốt hơn nếu một người chết 00:34:03.250 --> 00:34:06.420 để cứu sống ba người 00:34:06.420 --> 00:34:08.619 công tố viên 00:34:08.619 --> 00:34:10.849 không chấp nhận lập luận đó. 00:34:10.849 --> 00:34:12.509 Ông cho rằng giết người là giết người 00:34:12.509 --> 00:34:16.429 và thế là vụ án được đưa ra xét xử. Bây giờ hãy tưởng tượng bạn là thẩm phán 00:34:16.429 --> 00:34:19.489 và để đơn giản hóa nội dung thảo luận 00:34:19.489 --> 00:34:21.989 Hãy bỏ qua các câu hỏi pháp lý sang một bên, 00:34:21.989 --> 00:34:23.010 và giả định rằng bạn, 00:34:23.010 --> 00:34:25.879 với tư cách là bồi thẩm đoàn 00:34:25.878 --> 00:34:28.278 chịu trách nhiệm quyết định 00:34:28.278 --> 00:34:31.009 xem những gì họ đã làm, về mặt đạo đức 00:34:31.009 --> 00:34:34.378 được phép hay không. 00:34:34.378 --> 00:34:36.608 Bao nhiêu bạn 00:34:36.608 --> 00:34:39.808 sẽ bỏ phiếu 00:34:39.809 --> 00:34:46.809 vô tội, rằng hành động của họ có thể chấp nhận về mặt đạo đức? 00:34:49.528 --> 00:34:51.639 Và bao nhiêu bạn sẽ bỏ phiếu có tội, 00:34:51.639 --> 00:34:54.858 rằng hành động của họ là sai trái về mặt đạo đức? 00:34:54.858 --> 00:34:57.998 Một đa số vượt trội. 00:34:57.998 --> 00:35:03.808 Bây giờ hãy xem lý do của mọi người là gì, và hãy để tôi bắt đầu với nhóm thiểu số. 00:35:03.809 --> 00:35:07.739 Trước tiên chúng ta hãy nghe từ phía bào chữa 00:35:07.739 --> 00:35:10.099 của Dudley và Stephens. 00:35:10.099 --> 00:35:14.160 Tại sao bạn lại miễn tội cho họ về mặt đạo đức? 00:35:14.159 --> 00:35:17.989 Lý do của bạn là gì? 00:35:17.989 --> 00:35:20.798 Tôi nghĩ đó là điều đáng trách về mặt đạo đức 00:35:20.798 --> 00:35:24.349 nhưng tôi nghĩ rằng nên có sự phân biệt giữa những gì đáng trách về mặt đạo đức 00:35:24.349 --> 00:35:26.609 Và việc buộc ai đó phải chịu trách nhiệm pháp lý 00:35:26.608 --> 00:35:30.690 hay nói cách khác, sẽ rất tối tăm nếu thẩm phán cho rằng điều luôn có giá trị đạo đức không nhất thiết 00:35:30.690 --> 00:35:34.789 trái pháp luật. Và trong khi tôi không nghĩ rằng điều đó là cần thiết 00:35:34.789 --> 00:35:36.169 có thể biện hộ 00:35:36.168 --> 00:35:38.578 trộm cắp, giết người hay bất kỳ hành động phạm pháp nào khác, 00:35:38.579 --> 00:35:43.509 ở một thời điểm nào đó, mức độ đồng ý của bạn về tính cấp thiết 00:35:43.509 --> 00:35:45.849 Có thể miễn tội cho bạn. 00:35:45.849 --> 00:35:50.588 Được rồi, tốt. Có ý kiến bào chữa khác không? Những lời bào chữa khác? 00:35:50.588 --> 00:35:53.038 Bào chữa về mặt đạo đức cho 00:35:53.039 --> 00:35:56.989 những gì họ đã làm? 00:35:56.989 --> 00:35:57.619 vâng, cảm ơn bạn, 00:35:57.619 --> 00:35:58.798 00:35:58.798 --> 00:35:59.570 tôi chỉ cảm thấy, 00:35:59.570 --> 00:36:03.139 trong một tình huống tuyệt vọng như thế thì bạn phải làm những gì bạn phải làm để tồn tại. 00:36:03.139 --> 00:36:04.679 Bạn phải làm những gì bạn phải làm, 00:36:04.679 --> 00:36:06.789 vâng, mình phải làm những gì mình phải làm, quá nhiều. 00:36:06.789 --> 00:36:07.849 Nếu bạn 00:36:07.849 --> 00:36:09.899 đã trải qua mười chín ngày không có thức ăn 00:36:09.898 --> 00:36:14.710 bạn biết ai đó cần hy sinh phải hy sinh và mọi người có thể sống sót 00:36:14.710 --> 00:36:16.139 và hơn thế nữa, từ đó 00:36:16.139 --> 00:36:21.299 giả sử họ sống sót và sau đó họ trở thành những thành viên hữu ích của xã hội, họ trở về nhà và sau đó và rất có thể tạo ra 00:36:21.300 --> 00:36:26.230 hàng triệu tổ chức thiện nguyện, và nhiều thứ đại khai thế. Ý tôi là, cuối cùng họ mang lại lợi ích cho mọi người. T 00:36:26.230 --> 00:36:28.519 ôi không rõ sau này họ sẽ làm gì sau đó, ý tôi là họ có thể có 00:36:28.519 --> 00:36:30.478 tiếp tục và giết nhiều người hơn 00:36:30.478 --> 00:36:32.889 nhưng sao cũng được. 00:36:32.889 --> 00:36:35.708 gì cơ? 00:36:35.708 --> 00:36:38.908 Điều gì sẽ xảy ra nếu họ về nhà trở thành sát thủ? 00:36:38.909 --> 00:36:42.878 Bạn hẵn muốn biết họ sẽ ám sát ai. 00:36:42.878 --> 00:36:45.848 Rất đúng, thật là công bằng. 00:36:45.849 --> 00:36:49.609 Tôi muốn biết họ đã ám sát ai. 00:36:49.608 --> 00:36:50.708 Được rồi, tốt, bạn tên gì? Marcus. 00:36:50.708 --> 00:36:52.489 Chúng ta đã nghe thấy lời biện hộ, 00:36:52.489 --> 00:36:54.050 hai ý kiến để biện hộ, 00:36:54.050 --> 00:36:55.660 bây giờ chúng ta cần nghe 00:36:55.659 --> 00:36:57.298 từ phía công tố. 00:36:57.298 --> 00:36:59.338 Đa số mọi người nghĩ 00:36:59.338 --> 00:37:05.068 hành động của họ là sai, tại sao? 00:37:05.068 --> 00:37:09.898 Một trong những điều đầu tiên tôi nghĩ là, họ không có gì để ăn trong một thời gian dài, 00:37:09.898 --> 00:37:11.409 có lẽ 00:37:11.409 --> 00:37:12.469 sau đó 00:37:12.469 --> 00:37:15.139 họ bị ảnh hưởng về mặt tinh thần 00:37:15.139 --> 00:37:16.408 có thể ý này dùng được để bào chữa, 00:37:16.409 --> 00:37:20.619 một lý luận khả dĩ, 00:37:20.619 --> 00:37:24.179 rằng họ không ở trong trạng thái tỉnh táo, họ đã đưa ra quyết định 00:37:24.179 --> 00:37:28.519 mà nếu lúc khác họ sẽ không làm thế, và nếu đó là một lập luận hấp dẫn 00:37:28.518 --> 00:37:33.608 rằng bạn ở trong một trạng thái tâm lý không ổn định để làm những việc như vậy thì có nghĩa rằng 00:37:33.608 --> 00:37:36.108 Mọi người thấy lập luận này thuyết phục. 00:37:36.108 --> 00:37:40.088 Bạn có nghĩ rằng họ hành động vô đạo đức. Nhưng tôi muốn biết điều bạn nghĩ bạn bào chữa 00:37:40.088 --> 00:37:41.248 bạn lựa chọn có tội mà? vâng nhưng tôi không nghĩ họ đã hành động một cách có đạo đức, 00:37:45.548 --> 00:37:49.449 cách đáng trân trọng. Và tại sao không? Bạn nói gì, Kia là Marcus, 00:37:49.449 --> 00:37:51.088 anh ấy vừa bào chữa cho họ, 00:37:51.088 --> 00:37:52.909 anh ấy nói, 00:37:52.909 --> 00:37:53.880 bạn đã nghe những gì anh ấy nói rồi chứ? 00:37:53.880 --> 00:37:55.249 Vâng tôi có nghe 00:37:55.248 --> 00:37:56.558 vâng 00:37:56.559 --> 00:38:00.119 rằng bạn phải làm điều buộc phải làm trong tình huống như vậy. 00:38:00.119 --> 00:38:04.789 Bạn sẽ nói gì với Marcus? 00:38:04.789 --> 00:38:06.439 Họ đã không, 00:38:06.438 --> 00:38:13.438 rằng trong bất kỳ tình huống nào cũng không thể cho phép loài người sử dụng 00:38:13.579 --> 00:38:17.959 ý tưởng tước đoạt số phận hoặc sinh mệnh của người khác vào tay của mình. Chúng ta không có 00:38:17.958 --> 00:38:19.328 quyền làm điều đó. 00:38:19.329 --> 00:38:21.399 Tốt, được rồi, c 00:38:21.398 --> 00:38:24.130 ảm ơn bạn, và bạn tên gì? 00:38:24.130 --> 00:38:24.548 Britt? Được rồi. 00:38:24.548 --> 00:38:26.028 Bạn khác? 00:38:26.028 --> 00:38:28.159 Bạn sẽ nói gì? Đứng lên nào… 00:38:28.159 --> 00:38:35.159 tôi tự hỏi liệu Dudley và Stephens có hỏi ý kiến Richard Parker xem cậu ta có đồng ý chết không? Bạn biết đấy, 00:38:35.429 --> 00:38:37.568 nếu thật vậy, 00:38:37.568 --> 00:38:41.228 có thể bào chữa cho họ 00:38:41.228 --> 00:38:45.448 Khỏi hành vi giết người, và nếu thế thì vẫn bào chữa được về mặt đạo đức? 00:38:45.449 --> 00:38:51.720 Nghe hay đấy, đợi một chút. Đồng ý? Đợi một chút, bạn tên gì? Kathleen. 00:38:51.719 --> 00:38:56.088 Nếu giả sử tình huống như Kathleen nói thì sẽ như thế nào? 00:38:56.088 --> 00:38:56.619 khi trong câu chuyện 00:38:56.619 --> 00:39:00.410 Dudley ở đó, tay cầm con dao bút 00:39:00.409 --> 00:39:02.608 nhưng thay vì cầu nguyện 00:39:02.608 --> 00:39:04.588 hoặc trước khi cầu nguyện, 00:39:04.588 --> 00:39:07.599 anh ấy nói, “Parker, 00:39:07.599 --> 00:39:11.519 bạn có phiền không, 00:39:11.518 --> 00:39:14.348 chúng tôi sắp chết đói rồi 00:39:14.349 --> 00:39:17.679 vì Marcus đồng cảm với việc 00:39:17.679 --> 00:39:19.769 chúng ta sắp chết đói 00:39:19.768 --> 00:39:22.168 dù sao thì cậu cũng sẽ không sống được lâu nữa, 00:39:22.168 --> 00:39:23.498 cậu có thể làm một nghĩa sĩ, 00:39:23.498 --> 00:39:25.748 bạn sẽ làm một nghĩa sĩ chứ?" 00:39:25.748 --> 00:39:29.468 Được không Parker? " 00:39:29.469 --> 00:39:33.220 Rồi sau đó, sau đó 00:39:33.219 --> 00:39:37.639 sau đó bạn nghĩ sao, điều đó có chấp nhận được về mặt đạo đức không? Giả sử 00:39:37.639 --> 00:39:38.219 Parker 00:39:38.219 --> 00:39:40.168 trong trạng thái nửa mê nửa tỉnh 00:39:40.168 --> 00:39:42.498 nói đồng ý? 00:39:42.498 --> 00:39:47.889 Tôi không nghĩ điều đó có thể bào chữa được về mặt đạo đức, nhưng tôi băn khoăn. Kể cả khi đó, khi đó có được không? Không 00:39:47.889 --> 00:39:50.650 Bạn không nghĩ rằng kể cả khi có sự đồng ý, 00:39:50.650 --> 00:39:52.490 hành động này có thể bào chữa về mặt đạo đức. 00:39:52.489 --> 00:39:54.568 Có ai khác nghĩ thế? 00:39:54.568 --> 00:39:56.369 ai muốn tiếp tục ý tưởng đồng ý của Kathleen 00:39:56.369 --> 00:39:57.200 ý tưởng dống ý 00:39:57.199 --> 00:40:01.688 và ai nghĩ rằng nó sẽ trở nên có thể bào chữa về mặt đạo đức? Hãy giơ tay nếu có 00:40:01.688 --> 00:40:05.868 nếu bạn nghĩ rằng có thể 00:40:05.869 --> 00:40:07.588 Thật thú vị 00:40:07.588 --> 00:40:09.168 Tại sao sự đồng ý 00:40:09.168 --> 00:40:15.888 sẽ tạo ra một sự khác biệt về mặt đạo đức? Tại sao vậy? 00:40:15.889 --> 00:40:18.509 Ahm, tôi chỉ nghĩ rằng nếu cậu ấy tự đưa ra ý tưởng ban đầu của mình 00:40:18.509 --> 00:40:20.969 và đó là ý tưởng do chính cậu ấy ấy khởi xướng 00:40:20.969 --> 00:40:23.778 thì đó sẽ là tình huống duy nhất mà 00:40:23.778 --> 00:40:25.940 tôi thấy nó phù hợp vì theo cách đó bạn không thể đưa ra lập luận rằng 00:40:28.358 --> 00:40:30.579 anh ấy đã bị áp lực bởi tỷ lệ 3 chọi 1 00:40:30.579 --> 00:40:32.759 hoặc bất kỳ tỷ lệ nào đi nữa, 00:40:32.759 --> 00:40:34.070 và tôi nghĩ rằng 00:40:34.070 --> 00:40:38.009 nếu cậu ấy đang đưa ra quyết định hy sinh mạng sống của mình thì cậu ấy đã đảm nhận vai trò 00:40:38.009 --> 00:40:42.668 tự hy sinh bản thân, điều mà một số người nghĩ là đáng ngưỡng mộ và những người khác 00:40:42.668 --> 00:40:45.449 có thể không đồng ý với quyết định này. 00:40:45.449 --> 00:40:49.099 Do đó, nếu cậu ấy nảy ra ý tưởng như thế này 00:40:49.099 --> 00:40:52.820 Rằng kiểu đồng ý duy nhất mà chúng ta tin tưởng 00:40:52.820 --> 00:40:55.359 về mặt đạo đức, thì điều đó là ổn 00:40:55.358 --> 00:40:57.268 nếu không, thì 00:40:57.268 --> 00:40:59.788 đó là một loại đồng ý có tính ép buộc 00:40:59.789 --> 00:41:01.469 theo tình thế 00:41:01.469 --> 00:41:05.278 bạn nghĩ thế. 00:41:05.278 --> 00:41:07.349 Có ai nghĩ 00:41:07.349 --> 00:41:10.979 rằng kể cả khi Parker đồng ý 00:41:10.978 --> 00:41:13.419 cũng sẽ không bào chữa được 00:41:13.420 --> 00:41:15.479 their killing him? 00:41:15.478 --> 00:41:18.088 Who thinks that? 00:41:18.088 --> 00:41:19.538 Yes, tell us why, stand up 00:41:19.539 --> 00:41:21.260 I think that Parker 00:41:21.260 --> 00:41:22.319 would be killed 00:41:22.318 --> 00:41:26.558 with the hope that the other crew members would be rescued so 00:41:26.559 --> 00:41:29.250 there's no definite reason that he should be killed 00:41:29.250 --> 00:41:31.199 because you don't know 00:41:31.199 --> 00:41:35.809 when they're going to get rescued so if you kill him you're killing him in vain 00:41:35.809 --> 00:41:38.039 do you keep killing a crew member until you're rescued and then you're left with no one? 00:41:38.039 --> 00:41:40.309 because someone's going to die eventually? 00:41:40.309 --> 00:41:44.199 Well the moral logic of the situation seems to be that. 00:41:44.199 --> 00:41:45.829 That they would 00:41:45.829 --> 00:41:50.318 keep on picking off the weakest maybe, one by one, 00:41:50.318 --> 00:41:51.818 until they were 00:41:51.818 --> 00:41:57.679 rescued and in this case luckily when three at least were still alive. 00:41:57.679 --> 00:41:58.880 Now if 00:41:58.880 --> 00:42:01.298 if Parker did give his consent 00:42:01.298 --> 00:42:04.068 would it be all right do you think or not? 00:42:04.068 --> 00:42:06.329 No, it still wouldn't be right. 00:42:06.329 --> 00:42:08.030 Tell us why wouldn't be all right. 00:42:08.030 --> 00:42:10.028 First of all, cannibalism, I believe 00:42:10.028 --> 00:42:13.228 is morally incorrect 00:42:13.228 --> 00:42:14.509 so you shouldn’t be eating a human anyway. 00:42:14.510 --> 00:42:17.449 So 00:42:17.449 --> 00:42:19.380 cannibalism is morally objectionable outside 00:42:19.380 --> 00:42:22.400 so then even in the scenario 00:42:22.400 --> 00:42:24.568 of waiting until someone died 00:42:24.568 --> 00:42:27.018 still it would be objectionable. 00:42:27.018 --> 00:42:27.929 Yes, to me personally 00:42:27.929 --> 00:42:29.739 I feel like of 00:42:29.739 --> 00:42:31.199 it all depends on 00:42:31.199 --> 00:42:35.288 one's personal morals, like we can't just, like this is just my opinion 00:42:35.289 --> 00:42:39.339 of course other people are going to disagree. 00:42:39.338 --> 00:42:41.498 Well let's see, let's hear what their disagreements are 00:42:41.498 --> 00:42:42.639 and then we'll see 00:42:42.639 --> 00:42:44.259 if they have reasons 00:42:44.259 --> 00:42:46.228 that can persuade you or not. 00:42:46.228 --> 00:42:48.358 Let's try that 00:42:48.358 --> 00:42:50.098 Let's 00:42:50.099 --> 00:42:53.249 now is there someone 00:42:53.248 --> 00:42:57.908 who can explain, those of you who are tempted by consent 00:42:57.909 --> 00:42:59.778 can you explain 00:42:59.778 --> 00:43:02.028 why consent makes 00:43:02.028 --> 00:43:03.358 such a moral difference, 00:43:03.358 --> 00:43:05.650 what about the lottery idea 00:43:05.650 --> 00:43:08.930 does that count as consent. Remember at the beginning 00:43:08.929 --> 00:43:11.308 Dudley proposed a lottery 00:43:11.309 --> 00:43:13.839 suppose that they had agreed 00:43:13.838 --> 00:43:16.338 to a lottery 00:43:16.338 --> 00:43:17.369 then 00:43:17.369 --> 00:43:20.798 how many would then say 00:43:20.798 --> 00:43:23.929 it was all right. Say there was a lottery, 00:43:23.929 --> 00:43:25.380 cabin boy lost, 00:43:25.380 --> 00:43:32.380 and the rest of the story unfolded. How many people would say it's morally permissible? 00:43:33.199 --> 00:43:37.030 So the numbers are rising if we add a lottery, let's hear from one of you 00:43:37.030 --> 00:43:41.609 for whom the lottery would make a moral difference 00:43:41.608 --> 00:43:43.458 why would it? 00:43:43.458 --> 00:43:44.739 I think the essential 00:43:44.739 --> 00:43:45.718 element, 00:43:45.719 --> 00:43:47.858 in my mind that makes it a crime is 00:43:47.858 --> 00:43:53.848 the idea that they decided at some point that their lives were more important than his, and that 00:43:53.849 --> 00:43:56.609 I mean that's kind of the basis for really any crime 00:43:56.608 --> 00:43:57.688 right? It's like 00:43:57.688 --> 00:44:01.949 my needs, my desire is a more important than yours and mine take precedent 00:44:01.949 --> 00:44:04.798 and if they had done a lottery were everyone consented 00:44:04.798 --> 00:44:06.478 that someone should die 00:44:06.478 --> 00:44:09.239 and it's sort of like they're all sacrificing themselves, 00:44:09.239 --> 00:44:11.008 to save the rest, 00:44:11.009 --> 00:44:12.949 Then it would be all right? 00:44:12.949 --> 00:44:15.880 A little grotesque but, 00:44:15.880 --> 00:44:18.959 But morally permissible? Yes. 00:44:18.958 --> 00:44:22.688 what's your name? Matt. 00:44:22.688 --> 00:44:25.578 so, Matt for you 00:44:25.579 --> 00:44:27.329 what bothers you is not 00:44:27.329 --> 00:44:31.389 the cannibalism, but the lack of due process. 00:44:31.389 --> 00:44:34.689 I guess you could say that 00:44:34.688 --> 00:44:38.170 And can someone who agrees with Matt 00:44:38.170 --> 00:44:40.499 say a little bit more 00:44:40.498 --> 00:44:41.378 about why 00:44:41.378 --> 00:44:43.690 a lottery 00:44:43.690 --> 00:44:47.099 would make it, in your view, 00:44:47.099 --> 00:44:50.979 morally permissible. 00:44:50.978 --> 00:44:55.568 The way I understood it originally was that that was the whole issue is that the cabin boy was never 00:44:55.568 --> 00:44:56.398 consulted 00:44:56.398 --> 00:45:00.478 about whether or not it something was going to happen to him even though with the original 00:45:00.478 --> 00:45:01.088 lottery 00:45:01.088 --> 00:45:04.420 whether or not he would be a part of that it was just decided 00:45:04.420 --> 00:45:08.170 that he was the one that was going to die. Yes that's what happened in the actual case 00:45:08.170 --> 00:45:11.900 but if there were a lottery and they all agreed to the procedure 00:45:11.900 --> 00:45:13.539 you think that would be okay? 00:45:13.539 --> 00:45:16.418 Right, because everyone knows that there's gonna be a death 00:45:16.418 --> 00:45:17.079 whereas 00:45:17.079 --> 00:45:18.878 you know the cabin boy didn't know that 00:45:18.878 --> 00:45:21.038 this discussion was even happening 00:45:21.039 --> 00:45:21.919 there was no 00:45:21.918 --> 00:45:23.578 you know forewarning 00:45:23.579 --> 00:45:28.829 for him to know that hey, I may be the one that's dying. Okay, now suppose the everyone agrees 00:45:28.829 --> 00:45:35.089 to the lottery they have the lottery the cabin boy loses any changes his mind. 00:45:35.088 --> 00:45:40.989 You've already decided, it's like a verbal contract, you can't go back on that. You've decided the decision was made 00:45:40.989 --> 00:45:45.139 you know if you know you're dying for the reason for at others to live, 00:45:45.139 --> 00:45:45.999 you would, you know 00:45:45.998 --> 00:45:47.688 if the someone else had died 00:45:47.688 --> 00:45:51.969 you know that you would consume them, so 00:45:51.969 --> 00:45:57.429 But then he could say I know, but I lost. 00:45:57.429 --> 00:46:01.939 I just think that that's the whole moral issue is that there was no consulting of the cabin boy and that that's 00:46:01.938 --> 00:46:04.298 what makes it the most horrible 00:46:04.298 --> 00:46:08.909 is that he had no idea what was even going on, that if he had known what was going on 00:46:08.909 --> 00:46:10.599 it would 00:46:10.599 --> 00:46:13.109 be a bit more understandable. 00:46:13.108 --> 00:46:14.509 Alright, good, now I want to hear 00:46:14.510 --> 00:46:17.049 so there's some who think 00:46:17.048 --> 00:46:18.708 it's morally permissible 00:46:18.708 --> 00:46:24.048 but only about twenty percent, 00:46:24.048 --> 00:46:26.559 led by Marcus, 00:46:26.559 --> 00:46:28.439 then there are some who say 00:46:28.438 --> 00:46:30.208 the real problem here 00:46:30.208 --> 00:46:32.838 is the lack of consent 00:46:32.838 --> 00:46:37.139 whether the lack of consent to a lottery to a fair procedure 00:46:37.139 --> 00:46:38.588 or 00:46:38.588 --> 00:46:39.690 Kathleen's idea, 00:46:39.690 --> 00:46:40.749 lack of consent 00:46:40.748 --> 00:46:42.928 at the moment 00:46:42.929 --> 00:46:45.139 of death 00:46:45.139 --> 00:46:48.318 and if we add consent 00:46:48.318 --> 00:46:49.019 then 00:46:49.019 --> 00:46:51.889 more people are willing to consider 00:46:51.889 --> 00:46:54.528 the sacrifice morally justified. 00:46:54.528 --> 00:46:56.639 I want to hear now finally 00:46:56.639 --> 00:46:58.548 from those of you who think 00:46:58.548 --> 00:47:00.199 even with consent 00:47:00.199 --> 00:47:01.898 even with a lottery 00:47:01.898 --> 00:47:02.519 even with 00:47:02.519 --> 00:47:04.579 a final 00:47:04.579 --> 00:47:06.950 murmur of consent from Parker 00:47:06.949 --> 00:47:08.018 at the 00:47:08.018 --> 00:47:09.179 very last moment 00:47:09.179 --> 00:47:10.838 it would still 00:47:10.838 --> 00:47:12.639 be wrong 00:47:12.639 --> 00:47:14.248 and why would it be wrong 00:47:14.248 --> 00:47:16.998 that's what I want to hear. 00:47:16.998 --> 00:47:18.818 well the whole time 00:47:18.818 --> 00:47:22.639 I've been leaning towards the categorical moral reasoning 00:47:22.639 --> 00:47:25.568 and I think that 00:47:25.568 --> 00:47:29.608 there's a possibility I'd be okay with the idea of the lottery and then loser 00:47:29.608 --> 00:47:31.440 taking into their own hands to 00:47:31.440 --> 00:47:32.749 kill themselves 00:47:32.748 --> 00:47:33.679 00:47:33.679 --> 00:47:37.358 so there wouldn't be an act of murder but I still think that 00:47:37.358 --> 00:47:42.278 even that way it's coerced and also I don't think that there's any remorse like in 00:47:42.278 --> 00:47:43.338 Dudley's diary 00:47:43.338 --> 00:47:44.909 we're getting our breakfast 00:47:44.909 --> 00:47:47.659 it seems as though he's just sort of like, oh, 00:47:47.659 --> 00:47:51.440 you know that whole idea of not valuing someone else's life 00:47:51.440 --> 00:47:53.639 so that makes me 00:47:53.639 --> 00:47:57.969 feel like I have to take the categorical stance. You want to throw the book at him. 00:47:57.969 --> 00:48:02.298 when he lacks remorse or a sense of having done anything wrong. Right. 00:48:02.298 --> 00:48:06.969 Alright, good so are there any other 00:48:06.969 --> 00:48:08.769 defenders who 00:48:08.768 --> 00:48:13.268 who say it's just categorically wrong, with or without consent, yes stand up. Why? 00:48:13.268 --> 00:48:17.288 I think undoubtedly the way our society is shaped, murder is murder 00:48:17.289 --> 00:48:21.829 murder is murder and every way our society looks down at it in the same light 00:48:21.829 --> 00:48:24.780 and I don't think it's any different in any case. Good now let me ask you a question, 00:48:24.780 --> 00:48:27.119 there were three lives at stake 00:48:27.119 --> 00:48:30.489 versus one, 00:48:30.489 --> 00:48:33.028 the one, that the cabin boy, he had no family 00:48:33.028 --> 00:48:34.509 he had no dependents, 00:48:34.509 --> 00:48:38.739 these other three had families back home in England they had dependents 00:48:38.739 --> 00:48:41.418 they had wives and children 00:48:41.418 --> 00:48:43.328 think back to Bentham, 00:48:43.329 --> 00:48:44.989 Bentham says we have to consider 00:48:44.989 --> 00:48:48.048 the welfare, the utility, the happiness 00:48:48.048 --> 00:48:51.288 of everybody. We have to add it all up 00:48:51.289 --> 00:48:54.640 so it's not just numbers three against one 00:48:54.639 --> 00:48:58.759 it's also all of those people at home 00:48:58.759 --> 00:49:00.909 in fact the London newspaper at the time 00:49:00.909 --> 00:49:04.248 and popular opinion sympathized with them 00:49:04.248 --> 00:49:05.478 Dudley in Stephens 00:49:05.478 --> 00:49:07.919 and the paper said if they weren't 00:49:07.920 --> 00:49:08.280 motivated 00:49:08.280 --> 00:49:09.640 by affection 00:49:09.639 --> 00:49:13.489 and concern for their loved ones at home and dependents, surely they wouldn't have 00:49:13.489 --> 00:49:15.969 done this. Yeah, and how is that any different from people 00:49:15.969 --> 00:49:17.369 on the corner 00:49:17.369 --> 00:49:21.108 trying to having the same desire to feed their family, I don't think it's any different. I think in any case 00:49:21.108 --> 00:49:25.279 if I'm murdering you to advance my status, that's murder and I think that we should look at all 00:49:25.280 --> 00:49:28.430 of that in the same light. Instead of criminalizing certain 00:49:28.429 --> 00:49:30.278 activities 00:49:30.278 --> 00:49:33.760 and making certain things seem more violent and savage 00:49:33.760 --> 00:49:36.760 when in that same case it's all the same act and mentality 00:49:36.760 --> 00:49:40.150 that goes into the murder, a necessity to feed their families. 00:49:40.150 --> 00:49:43.028 Suppose there weren't three, supposed there were thirty, 00:49:43.028 --> 00:49:44.608 three hundred, 00:49:44.608 --> 00:49:47.358 one life to save three hundred 00:49:47.358 --> 00:49:48.349 or in more time, 00:49:48.349 --> 00:49:49.589 three thousand 00:49:49.590 --> 00:49:51.039 or suppose the stakes were even bigger. 00:49:51.039 --> 00:49:52.778 Suppose the stakes were even bigger 00:49:52.778 --> 00:49:54.608 I think it's still the same deal. 00:49:54.608 --> 00:49:58.108 Do you think Bentham was wrong to say the right thing to do 00:49:58.108 --> 00:49:58.929 is to add 00:49:58.929 --> 00:50:02.479 up the collected happiness, you think he's wrong about that? 00:50:02.478 --> 00:50:06.728 I don't think he is wrong, but I think murder is murder in any case. Well then Bentham has to be wrong 00:50:06.728 --> 00:50:09.568 if you're right he's wrong. okay then he's wrong. 00:50:09.568 --> 00:50:12.818 Alright thank you, well done. 00:50:12.818 --> 00:50:14.358 Alright, let's step back 00:50:14.358 --> 00:50:16.389 from this discussion 00:50:16.389 --> 00:50:19.728 and notice 00:50:19.728 --> 00:50:23.259 how many objections have we heard to what they did. 00:50:23.259 --> 00:50:26.048 we heard some defenses of what they did 00:50:26.048 --> 00:50:28.509 the defense has had to do with 00:50:28.509 --> 00:50:28.918 necessity 00:50:28.918 --> 00:50:32.588 the dire circumstance and, 00:50:32.588 --> 00:50:33.409 implicitly at least, 00:50:33.409 --> 00:50:36.018 the idea that numbers matter 00:50:36.018 --> 00:50:37.858 and not only numbers matter 00:50:37.858 --> 00:50:40.380 but the wider effects matter 00:50:40.380 --> 00:50:43.459 their families back home, their dependents 00:50:43.458 --> 00:50:44.768 Parker was an orphan, 00:50:44.768 --> 00:50:47.978 no one would miss him. 00:50:47.978 --> 00:50:49.578 so if you 00:50:49.579 --> 00:50:50.829 add up 00:50:50.829 --> 00:50:52.649 if you tried to calculate 00:50:52.648 --> 00:50:53.998 the balance 00:50:53.998 --> 00:50:56.598 of happiness and suffering 00:50:56.599 --> 00:50:58.838 you might have a case for 00:50:58.838 --> 00:51:02.768 saying what they did was the right thing 00:51:02.768 --> 00:51:09.468 then we heard at least three different types of objections, 00:51:09.469 --> 00:51:11.690 we heard an objection that's said 00:51:11.690 --> 00:51:14.108 what they did was categorically wrong, 00:51:14.108 --> 00:51:15.750 right here at the end 00:51:15.750 --> 00:51:17.389 categorically wrong. 00:51:17.389 --> 00:51:19.820 Murder is murder it's always wrong 00:51:19.820 --> 00:51:20.969 even if 00:51:20.969 --> 00:51:23.349 it increases the overall happiness 00:51:23.349 --> 00:51:25.639 of society 00:51:25.639 --> 00:51:28.499 the categorical objection. 00:51:28.498 --> 00:51:30.738 But we still need to investigate 00:51:30.739 --> 00:51:32.749 why murder 00:51:32.748 --> 00:51:35.448 is categorically wrong. 00:51:35.449 --> 00:51:38.579 Is it because 00:51:38.579 --> 00:51:42.339 even cabin boys have certain fundamental rights? 00:51:42.338 --> 00:51:44.400 And if that's the reason 00:51:44.400 --> 00:51:47.880 where do those rights come from if not from some idea 00:51:47.880 --> 00:51:53.209 of the larger welfare or utility or happiness? Question number one. 00:51:53.208 --> 00:51:56.308 Others said 00:51:56.309 --> 00:51:58.449 a lottery would make a difference 00:51:58.449 --> 00:52:00.039 a fair procedure, 00:52:00.039 --> 00:52:05.949 Matt said. 00:52:05.949 --> 00:52:08.769 And some people were swayed by that. 00:52:08.768 --> 00:52:12.188 That's not a categorical objection exactly 00:52:12.188 --> 00:52:13.828 it's saying 00:52:13.829 --> 00:52:16.798 everybody has to be counted as an equal 00:52:16.798 --> 00:52:18.469 even though, at the end of the day 00:52:18.469 --> 00:52:20.769 one can be sacrificed 00:52:20.768 --> 00:52:23.288 for the general welfare. 00:52:23.289 --> 00:52:26.059 That leaves us with another question to investigate, 00:52:26.059 --> 00:52:29.670 Why does agreement to certain procedure, 00:52:29.670 --> 00:52:31.969 even a fair procedure, 00:52:31.969 --> 00:52:34.739 justify whatever result flows 00:52:34.739 --> 00:52:38.088 from the operation of that procedure? 00:52:38.088 --> 00:52:39.898 Question number two. 00:52:39.898 --> 00:52:42.398 and question number three 00:52:42.398 --> 00:52:45.338 the basic idea of consent. 00:52:45.338 --> 00:52:48.528 Kathleen got us on to this. 00:52:48.528 --> 00:52:52.719 If the cabin boy had agreed himself 00:52:52.719 --> 00:52:54.499 and not under duress 00:52:54.498 --> 00:52:57.068 as was added 00:52:57.068 --> 00:53:01.918 then it would be all right to take his life to save the rest. 00:53:01.918 --> 00:53:04.900 Even more people signed on to that idea 00:53:04.900 --> 00:53:06.630 but that raises 00:53:06.630 --> 00:53:08.528 a third philosophical question 00:53:08.528 --> 00:53:11.009 what is the moral work 00:53:11.009 --> 00:53:12.838 that consent 00:53:12.838 --> 00:53:14.438 does? 00:53:14.438 --> 00:53:16.978 Why does an act of consent 00:53:16.978 --> 00:53:19.188 make such a moral difference 00:53:19.188 --> 00:53:23.818 that an act that would be wrong, taking a life, without consent 00:53:23.818 --> 00:53:25.369 is morally 00:53:25.369 --> 00:53:26.358 permissible 00:53:26.358 --> 00:53:29.619 with consent? 00:53:29.619 --> 00:53:31.699 To investigate those three questions 00:53:31.699 --> 00:53:34.108 we're going to have to read some philosophers 00:53:34.108 --> 00:53:35.728 and starting next time 00:53:35.728 --> 00:53:36.939 we're going to read 00:53:36.940 --> 00:53:37.720 Bentham, 00:53:37.719 --> 00:53:43.798 and John Stuart Mill, utilitarian philosophers. 00:53:43.798 --> 00:53:47.298 Don't miss the chance to interact online with other viewers of Justice 00:53:43.798 --> 00:53:47.298 join the conversation, 00:53:49.869 --> 00:53:56.869 take a pop quiz, watch lectures you've missed, and a lot more. Visit www.justiceharvard.org. It's the right thing to do. 00:54:36.219 --> 00:54:40.269 Funding for the program is provided by 00:54:40.268 --> 00:54:41.678 Additional funding provided by