0:00:04.200,0:00:08.240 Chương trình được tài trợ bởi: 0:00:08.240,0:00:15.240 Tài trợ phụ bởi: 0:00:33.509,0:00:37.750 Đây là môn học về Công lý và chúng ta hãy bắt đầu với một câu chuyện … 0:00:37.750,0:00:40.179 giả sử bạn là người lái xe điện 0:00:40.179,0:00:44.640 và toa xe điện của bạn đang phóng nhanh trên đường ray với vận tốc 60 dặm một giờ 0:00:44.640,0:00:49.390 và ở cuối đường ray, bạn nhận thấy có năm công nhân đang làm việc trên đường ray 0:00:49.390,0:00:51.799 bạn đã cố gắng dừng lại nhưng không được 0:00:51.799,0:00:53.829 thắng không hoạt động 0:00:53.829,0:00:56.780 bạn cảm thấy tuyệt vọng vì bạn biết 0:00:56.780,0:00:59.590 rằng nếu bạn đâm vào năm công nhân này 0:00:59.590,0:01:01.490 tất cả họ sẽ chết 0:01:01.490,0:01:05.079 hãy cho là bạn biết chắc chắn điều đó 0:01:05.079,0:01:07.420 và vì vậy bạn cảm thấy mình vô dụng 0:01:07.420,0:01:09.450 cho đến khi bạn nhận thấy rằng có 0:01:09.450,0:01:11.290 một ngã rẽ bên phải 0:01:11.290,0:01:12.230 một đường ray phụ 0:01:13.170,0:01:15.579 và ở cuối đường ray đó 0:01:15.579,0:01:17.390 chỉ có một công nhân 0:01:17.390,0:01:19.079 đang làm việc trên đường ray 0:01:19.079,0:01:21.368 Bạn đang cầm lái, 0:01:21.368,0:01:23.030 vì thế bạn có thể 0:01:23.030,0:01:26.010 rẽ xe điện nếu bạn muốn 0:01:26.010,0:01:28.840 vào đường ray phụ đó 0:01:28.840,0:01:30.399 giết chết một người 0:01:30.399,0:01:33.269 nhưng có thể g cứu được năm người kia 0:01:33.269,0:01:36.109 Đây là câu hỏi đầu tiên của chúng ta 0:01:36.109,0:01:38.819 Điều gì là đúng nên làm? 0:01:38.819,0:01:40.478 Bạn sẽ làm gì? 0:01:40.478,0:01:42.560 Hãy làm một khảo sát nhỏ, 0:01:42.560,0:01:45.180 có bao nhiêu người 0:01:45.180,0:01:52.020 sẽ rẽ chiếc xe điện vào đường ray phụ? 0:01:52.019,0:01:53.530 Bao nhiêu bạn chọn sẽ không? 0:01:53.530,0:01:58.180 Có bao nhiêu người sẽ đi thẳng về phía trước 0:01:58.180,0:02:04.050 giơ tay lên, những người sẽ đi thẳng về phía trước. 0:02:04.049,0:02:08.378 Một số ít người sẽ, đa số sẽ rẽ hướng 0:02:08.378,0:02:09.878 chúng ta hãy nghe số đông này trước 0:02:09.878,0:02:14.149 bây giờ chúng ta cần bắt đầu điều tra tại sao bạn nghĩ 0:02:14.149,0:02:19.799 đó là điều đúng nên làm. Hãy bắt đầu với những người trong nhóm đa số, những người sẽ rẽ hướng 0:02:19.799,0:02:22.058 để đi vào đường ray phụ? 0:02:22.058,0:02:23.669 Tại sao bạn làm điều đó, 0:02:23.669,0:02:25.808 lý do của bạn là gì? 0:02:25.808,0:02:30.188 Ai sẵn sàng xung phong phát biểu một lý do? 0:02:30.188,0:02:32.218 Nào, đứng lên. 0:02:32.218,0:02:39.218 Bởi vì chúng ta không thể giết chết năm người khi thay vào đó có thể chỉ cần giết chết một người. 0:02:39.579,0:02:42.239 sẽ không đúng khi giết năm người 0:02:42.239,0:02:47.069 nếu thay vào đó bạn có thể giết một người 0:02:47.068,0:02:48.528 đó là một lý do hợp lý 0:02:48.528,0:02:52.959 đó là một lý do hợp lý 0:02:52.959,0:02:53.778 Xin mời ý kiến khác? 0:02:53.778,0:02:56.658 mọi người có đồng ý với 0:02:56.658,0:03:01.218 lý do đó không? Mời bạn 0:03:01.218,0:03:03.620 Chà, tôi nghĩ đó cũng là lý do tại sao 0:03:03.620,0:03:05.459 vào ngày 11/9, chúng ta coi những người [giành lại quyền] lái máy bay, 0:03:05.459,0:03:08.009 những người đã rẽ lái máy bay vào 0:03:08.008,0:03:09.528 cánh đồng Pennsylvania như những người hùng 0:03:09.528,0:03:11.718 vì họ chọn giết những người trên máy bay 0:03:11.718,0:03:14.418 chứ không giết nhiều người hơn 0:03:14.419,0:03:16.109 trong các tòa nhà lớn. 0:03:16.109,0:03:19.260 Vì vậy, nguyên tắc là giống như vào ngày 11/9, 0:03:19.259,0:03:21.638 đó là một tình huống bi thảm, 0:03:21.639,0:03:25.359 nhưng thà là giết một người để năm người có thể sống, 0:03:25.359,0:03:30.748 đó là lý do của hầu hết các bạn, những người sẽ rẽ hướng phải không? 0:03:30.748,0:03:32.628 Giờ hãy nghe 0:03:32.628,0:03:33.628 từ 0:03:33.628,0:03:35.508 những người thuộc nhóm thiểu số 0:03:35.508,0:03:40.558 những người sẽ không rẽ hướng. 0:03:40.558,0:03:45.709 Vâng, tôi nghĩ rằng tâm lý trên đây cùng loại với các biện minh cho tội ác diệt chủng và chủ nghĩa toàn trị. 0:03:45.468,0:03:50.358 Để cứu một chủng tộc bạn sẽ xóa sổ các chủng tộc khác. 0:03:50.359,0:03:53.278 vậy bạn sẽ làm gì trong trường hợp này? Bạn sẽ 0:03:53.278,0:03:55.378 tránh 0:03:55.378,0:03:57.798 nỗi kinh hoàng của nạn diệt chủng? 0:03:57.799,0:04:03.989 bạn sẽ lao vào năm người và giết họ? 0:04:03.989,0:04:07.628 Có lẽ vậy 0:04:07.628,0:04:09.929 Được rồi, còn ai khác không? 0:04:09.930,0:04:14.498 Đó là một câu trả lời dũng cảm, cảm ơn bạn. 0:04:14.498,0:04:16.079 Hãy xem xét một trường hợp khác 0:04:16.978,0:04:20.238 trường hợp xe điện 0:04:20.238,0:04:21.688 và xem xem 0:04:21.689,0:04:24.189 liệu rằng 0:04:24.189,0:04:27.429 đa số các bạn 0:04:27.428,0:04:30.989 muốn tuân theo nguyên tắc, 0:04:30.990,0:04:33.500 thà một người nên chết để năm người được sống hay không? 0:04:33.500,0:04:38.528 Lần này bạn không phải là người điều khiển xe điện, bạn là người chứng kiến 0:04:38.528,0:04:42.678 đứng trên cầu nhìn xuống đường ray xe điện 0:04:42.678,0:04:45.658 và dưới đường ray đó một chiếc xe điện đang đến 0:04:45.658,0:04:49.620 ở cuối đường ray có năm công nhân, 0:04:49.620,0:04:51.739 Thắng xe không hoạt động 0:04:51.738,0:04:55.948 chiếc xe điện sắp lao vào năm người và giết họ. 0:04:55.949,0:04:57.218 Và bây giờ 0:04:57.218,0:04:58.788 bạn không phải là người lái xe, 0:04:58.788,0:05:01.308 bạn thực sự cảm thấy không làm gì được 0:05:01.309,0:05:03.259 được cho đến khi bạn nhận ra 0:05:03.259,0:05:06.879 đứng bên cạnh bạn, 0:05:06.879,0:05:08.639 dựa vào 0:05:08.639,0:05:09.889 cây cầu 0:05:09.889,0:05:16.889 là một người đàn ông rất béo. 0:05:17.218,0:05:20.178 Và bạn có thể 0:05:20.178,0:05:22.668 đẩy anh ta xuống 0:05:22.668,0:05:24.728 anh ta sẽ rơi khỏi cầu 0:05:24.728,0:05:27.949 xuống đường ray 0:05:27.949,0:05:29.538 ngay trên đường ray 0:05:29.538,0:05:32.199 xe điện 0:05:32.199,0:05:33.419 anh ta sẽ chết 0:05:33.418,0:05:38.930 nhưng anh ấy sẽ cứu được năm người kia. 0:05:38.930,0:05:41.108 Bây giờ, có bao nhiêu người sẽ đẩy 0:05:41.108,0:05:48.089 người đàn ông béo qua cầu? Hãy giơ tay lên. 0:05:48.089,0:05:51.198 Bao nhiêu bạn không? 0:05:51.199,0:05:54.069 Đa số sẽ không. 0:05:54.069,0:05:55.789 Một câu hỏi rất rỏ ràng, 0:05:55.788,0:05:56.878 điều gì đã trở thành 0:05:56.879,0:06:00.169 nguyên tắc ở đây? 0:06:00.168,0:06:05.109 cứu năm mạng sống là tốt hơn dù rằng nó đồng nghĩa với việc phải hy sinh một mạng sống? điều gì đã trở thành nguyên tắc 0:06:05.110,0:06:07.490 mà hầu hết mọi người đều tán thành? 0:06:07.490,0:06:09.240 Trong trường hợp thứ nhất, 0:06:09.240,0:06:12.809 tôi muốn nghe từ một người thuộc nhóm đa số trong cả hai tình huống 0:06:12.809,0:06:13.580 Vấn đề là 0:06:13.579,0:06:17.758 làm thế nào để bạn giải thích sự khác biệt trong hai tình huống? 0:06:17.759,0:06:21.860 Vấn đề thứ hai, tôi nghĩ có liên quan đến lựa chọn tích cực của việc 0:06:21.860,0:06:22.509 đẩy một người 0:06:22.509,0:06:24.279 và người đó ngã xuống 0:06:24.279,0:06:25.198 tôi nghĩ rằng 0:06:25.199,0:06:29.830 bản thân người đó sẽ không liên quan gì đến tình huống này cả 0:06:29.829,0:06:31.269 và vì vậy 0:06:31.269,0:06:33.769 để chọn thay mặt anh ấy, tôi nghĩ là 0:06:33.769,0:06:36.769 việc 0:06:36.769,0:06:39.990 lôi anh ta vào việc gì đó mà nếu không bị lôi vào thì anh ta có khả năng thoát khỏi nó 0:06:39.990,0:06:41.788 tôi nghĩ là tốt hơn 0:06:41.788,0:06:43.620 những gì có được trong tình huống đầu tiên 0:06:43.620,0:06:45.968 cả ba bên, tài xế và 0:06:45.968,0:06:47.668 hai nhóm công nhân đã có trong tình huống đầu tiên 0:06:47.668,0:06:50.598 Tôi nghĩ trong tình huống này, 0:06:50.598,0:06:55.108 nhưng người đang làm việc, người trên đường ray phía còn lại 0:06:55.108,0:07:02.068 anh ấy không lựa chọn hy sinh mạng sống của mình hơn là lựa chọn của anh chàng béo, phải không? 0:07:02.069,0:07:05.420 Đó là sự thật, nhưng anh ấy đã ở trên đường ray 0:07:05.399,0:07:10.438 Còn anh chàng này ở trên cầu 0:07:10.439,0:07:13.550 Tiếp nào, bạn có thể ý kiến thêm nếu bạn muốn. 0:07:13.550,0:07:15.329 Được rồi, đó là một câu hỏi khó 0:07:15.329,0:07:18.658 nhưng bạn đã làm tốt, bạn đã làm rất tốt, đó là một câu hỏi khó. 0:07:19.629,0:07:21.180 ai khác 0:07:21.180,0:07:22.598 có thể 0:07:22.598,0:07:26.028 tìm cách thuyết phục 0:07:26.028,0:07:30.158 phản ứng của đa số trong hai trường hợp này? Vâng? 0:07:30.158,0:07:31.550 Tôi nghĩ vậy 0:07:31.550,0:07:32.540 trong trường hợp đầu tiên khi mà 0:07:32.540,0:07:35.179 bạn có một công nhân và năm công nhân 0:07:35.178,0:07:37.429 đó là sự lựa chọn giữa hai nhóm công nhân đó và bạn phải 0:07:37.430,0:07:41.218 đưa ra một lựa chọn nhất định, và mọi người sắp chết vì chiếc xe điện 0:07:41.218,0:07:45.029 mà không cần đến hành động trực tiếp của bạn. Xe diện đang lao đến, 0:07:45.029,0:07:48.209 và bạn cần đưa ra lựa chọn trong tích tắc, 0:07:48.209,0:07:52.658 trong khi đẩy người đàn ông béo xuống là một hành động giết người thực sự từ phía bạn 0:07:52.658,0:07:54.490 bạn có quyền kiểm soát điều đó 0:07:54.490,0:07:57.278 trong khi bạn không thể kiểm soát được xe điện. 0:07:57.278,0:08:00.089 Vì vậy, tôi nghĩ rằng đó là một tình huống hơi khác. 0:08:00.089,0:08:04.359 Được rồi, ai đáp lại nào? Có ai, ai đáp lại ý kiến đó không? thật tuyệt, ai có cách nào 0:08:04.360,0:08:06.319 ai muốn phản hồi lại không? 0:08:06.319,0:08:09.490 Đó có phải là cách thoát ra khỏi tình huống này không? 0:08:09.490,0:08:12.439 Tôi không nghĩ rằng đó là một lý do rất tốt bởi vì dù bạn chọn 0:08:12.439,0:08:16.889 người nào chết đi chăng nữa, vì dù bạn chọn rẽ hướng và giết một người, 0:08:16.889,0:08:18.500 đó cũng là một hành động có ý thức 0:08:18.500,0:08:19.718 nghĩ đến việc rẽ hướng, 0:08:19.718,0:08:21.319 hoặc bạn chọn đẩy ông béo xuống, 0:08:21.319,0:08:23.609 đó cũng là một hành động 0:08:23.608,0:08:27.688 hành động có ý thức, nên dù bằng cách nào bạn cũng đang đưa ra lựa chọn. 0:08:27.689,0:08:29.729 Bạn có muốn đáp lại không? 0:08:29.728,0:08:34.189 Vâng, tôi không thực sự chắc chắn đó là cùng một vấn đề, nó vẫn có vẻ hơi khác, hành động thực sự 0:08:34.190,0:08:38.230 đẩy ai đó xuống đường ray và giết họ, 0:08:38.230,0:08:42.600 bạn thực sự đang tự mình giết anh ta, bạn đang đẩy anh ta bằng chính đôi tay của bạn, bạn đang đẩy và 0:08:42.600,0:08:43.710 điều đó khác 0:08:43.710,0:08:47.090 hơn là điều khiển thứ gì đó sẽ gây ra cái chết 0:08:47.090,0:08:48.670 cho người khác..., bạn biết đấy 0:08:48.669,0:08:52.829 nói điều đó bây giờ nghe có vẻ không đúng khi tôi ở đây. 0:08:52.830,0:08:54.740 Không đâu, tốt mà, bạn tên gì? 0:08:54.740,0:08:55.570 Andrew. 0:08:55.740,0:08:59.570 để tôi hỏi bạn câu hỏi này Andrew 0:08:59.570,0:09:02.240 giả sử 0:09:02.240,0:09:03.680 đứng trên cầu 0:09:03.679,0:09:04.809 bên cạnh người đàn ông béo 0:09:04.809,0:09:07.849 Tôi không cần phải đẩy anh ta, giả sử anh ta đang đứng 0:09:07.850,0:09:14.850 trên một cánh cửa lật mà tôi có thể mở bằng cách xoay như xoay vô lăng vậy 0:09:17.450,0:09:18.690 bạn sẽ xoay nó? 0:09:18.690,0:09:20.960 Vì lý do nào đó, điều đó sai 0:09:20.960,0:09:24.129 càng sai. 0:09:24.129,0:09:30.350 Ý tôi là có thể nếu bạn chỉ vô tình tựa vào vô lăng đó hoặc làm một điều tương tự vậy 0:09:30.350,0:09:31.060 hoặc 0:09:31.059,0:09:33.118 hoặc nói rằng chiếc xe 0:09:33.119,0:09:37.850 đang lao về phía công tắc sẽ làm rơi bẫy 0:09:37.850,0:09:39.230 thì tôi có thể đồng ý với điều đó. 0:09:39.850,0:09:42.230 Thật công bằng, bạn nói nó vẫn có vẻ 0:09:42.230,0:09:45.500 sai theo cách mà nó có vẻ không sai trong trường hợp đầu tiên khi rẽ hướng, 0:09:45.500,0:09:50.419 Nói cách khác, ý tôi là trong tình huống đầu tiên bạn tham gia trực tiếp vào tình huống, 0:09:50.419,0:09:52.449 trong tình huống thứ hai, bạn cũng là người vô cảm. 0:09:52.450,0:09:56.920 Vì vậy, bạn có quyền lựa chọn tham gia hay không tham gia bằng cách đẩy người đàn ông béo. 0:09:56.919,0:09:59.549 Tạm thời hãy tạm quên vụ việc này đi, 0:09:59.549,0:10:01.269 tốt hơn chứ? 0:10:01.269,0:10:06.460 nhưng hãy tưởng tượng một trường hợp khác. Lần này bác sĩ của bạn trong phòng cấp cứu 0:10:06.460,0:10:11.629 và sáu bệnh nhân đến với bạn 0:10:11.629,0:10:18.500 họ đã ở trong một vụ tai nạn xe điện khủng khiếp 0:10:18.500,0:10:23.889 năm người trong số họ bị thương nhẹ, một người bị thương nặng. Bạn có thể mất cả ngày 0:10:23.889,0:10:27.720 chăm sóc cho một nạn nhân bị thương nặng, 0:10:27.720,0:10:32.330 nhưng trong thời gian đó cả năm người còn lại sẽ chết, hoặc bạn có thể chăm sóc năm người đó, phục hồi sức khỏe cho họ, nhưng 0:10:32.330,0:10:35.490 trong thời gian đó người bị thương nặng 0:10:35.490,0:10:36.470 sẽ chết. 0:10:36.470,0:10:37.660 Có bao nhiêu bạn sẽ cứu 0:10:37.659,0:10:39.539 Năm người 0:10:39.539,0:10:40.849 ngay lập tức, nếu là bác sĩ? 0:10:40.850,0:10:44.480 Có bao nhiêu người sẽ cứu một người? 0:10:44.480,0:10:46.300 Rất ít người, 0:10:46.299,0:10:49.269 chỉ một số ít người. 0:10:49.269,0:10:51.439 Cùng một lý do, tôi giả sử, 0:10:51.440,0:10:55.570 một mạng sống so với năm. 0:10:55.570,0:10:57.230 Bây giờ xem xem 0:10:57.230,0:10:59.070 trường hợp một bác sĩ khác, 0:10:59.070,0:11:02.080 lần này bạn là bác sĩ phẫu thuật cấy ghép 0:11:02.080,0:11:06.160 và bạn có năm bệnh nhân, mỗi bệnh nhân đang rất cần 0:11:06.159,0:11:09.639 một ca cấy ghép nội tạng để tồn tại. 0:11:09.639,0:11:12.220 Cần một trái tim, một lá phổi 0:11:12.220,0:11:13.550 một quả thận, 0:11:13.549,0:11:15.089 một quả gan 0:11:15.090,0:11:16.680 và thứ năm 0:11:16.679,0:11:20.209 là tuyến tụy. 0:11:20.210,0:11:22.780 Và bạn không có người hiến tạng, 0:11:22.779,0:11:24.909 bạn sắp phải 0:11:24.909,0:11:27.649 chứng kiến họ chết 0:11:27.649,0:11:28.860 và rồi 0:11:28.860,0:11:30.649 bạn chợt nhận ra 0:11:30.649,0:11:32.470 rằng ở phòng kế bên 0:11:32.470,0:11:35.720 có một anh chàng khỏe mạnh đến để kiểm tra sức khỏe. 0:11:39.450,0:11:43.740 và anh ấy… 0:11:43.740,0:11:47.159 bạn thích tình huống này?... 0:11:47.159,0:11:50.740 và anh ấy đang ngủ trưa 0:11:53.269,0:11:56.769 Bạn có thể khẽ đi vào 0:11:56.769,0:12:00.600 và moi ngũ tạng của anh ra, người đó sẽ chết 0:12:00.600,0:12:03.170 nhưng bạn có thể cứu được năm người. 0:12:03.169,0:12:10.169 Bao nhiêu người sẽ làm điều đó? Có ai không? 0:12:10.389,0:12:17.389 Bao nhiêu? Giơ tay lên nếu bạn muốn làm điều đó. 0:12:18.100,0:12:21.840 Có ai ở ban công không? 0:12:21.840,0:12:24.280 Bạn muốn? Cẩn thận đừng nghiêng người quá nhiều 0:12:26.269,0:12:29.340 Có bao nhiêu sẽ không? 0:12:29.340,0:12:30.360 Được rồi. 0:12:30.360,0:12:33.600 Bạn nói gì, nói lớn lên một chút… ở khu vực ban công, bạn … người sẽ 0:12:33.600,0:12:35.840 moi nội tạng ra, vì sao? 0:12:35.840,0:12:38.629 Tôi thực sự muốn thử thay thế một chút 0:12:38.629,0:12:40.188 có thể chỉ lấy nội tạng của một người chết trước 0:12:40.188,0:12:44.419 trong năm người cần nội tạng 0:12:44.419,0:12:50.229 rồi dùng bốn nội tạng khỏe mạnh của người đó để cứu bốn người kia 0:12:50.230,0:12:54.639 Đó là một ý tưởng khá tốt. 0:12:54.639,0:12:57.830 Đó là một ý tưởng tuyệt vời 0:12:57.830,0:13:00.160 ngoại trừ thực tế 0:13:00.159,0:13:06.159 là bạn vừa làm hỏng quan điểm triết học. 0:13:06.159,0:13:07.360 Hãy quay trở lại 0:13:07.360,0:13:10.240 những câu chuyện và những lập luận đó 0:13:10.240,0:13:12.750 để chú ý một vài điều 0:13:12.750,0:13:17.809 về cách các cuộc tranh luận đã bắt đầu mở ra. 0:13:17.809,0:13:18.649 Một số 0:13:18.649,0:13:20.360 nguyên tắc đạo đức 0:13:20.360,0:13:23.340 đã bắt đầu xuất hiện 0:13:23.340,0:13:25.879 từ các cuộc thảo luận nãy giờ 0:13:25.879,0:13:27.570 và hãy xem xét 0:13:27.570,0:13:29.740 những nguyên tắc đạo đức đó 0:13:29.740,0:13:31.250 có vẻ 0:13:31.250,0:13:35.710 nguyên tắc đạo đức xuất hiện đầu tiên từ cuộc thảo luận cho rằng 0:13:35.710,0:13:39.110 rằng điều đúng nên làm, điều đạo đức nên làm 0:13:39.110,0:13:43.139 phụ thuộc vào hậu quả sẽ đến 0:13:43.139,0:13:45.480 từ hành động của bạn, 0:13:45.480,0:13:47.080 rốt cuộc thì 0:13:47.080,0:13:49.250 để năm người sống sẽ tốt hơn 0:13:49.250,0:13:52.320 dù rằng một người phải chết. 0:13:52.320,0:13:53.700 Đó là một ví dụ 0:13:53.700,0:13:56.280 về hệ quả luận 0:13:56.279,0:13:59.459 lý luận đạo đức. 0:13:59.460,0:14:04.310 lý luận đạo đức theo hệ quả luận phân định đạo đức theo hậu quả của một hành động. Hay 0:14:04.309,0:14:06.549 nói cách khác sẽ là kết quả 0:14:06.549,0:14:09.049 của việc bạn làm. 0:14:09.049,0:14:12.789 Nhưng sau đó chúng ta đã đi xa hơn một chút, chúng ta đã xem xét những trường hợp khác 0:14:12.789,0:14:15.319 và mọi người không chắc lắm 0:14:15.320,0:14:17.300 về 0:14:17.299,0:14:20.529 lập luận đạo đức theo hệ quả luận 0:14:20.529,0:14:22.419 khi người ta lưỡng lự 0:14:22.419,0:14:24.269 trong việc đẩy anh béo 0:14:24.269,0:14:25.789 xuống cầu 0:14:25.789,0:14:28.639 hoặc để moi nội tạng của những 0:14:28.639,0:14:29.750 bệnh nhân vô tội … 0:14:29.750,0:14:32.259 mọi người có biểu hiện hướng tới 0:14:32.259,0:14:34.259 Những lý do 0:14:34.259,0:14:35.379 phải làm 0:14:35.379,0:14:37.250 với chính giá trị thực chất 0:14:37.250,0:14:39.230 của chính 0:14:39.230,0:14:40.690 hành động đó 0:14:40.690,0:14:42.770 Kết quả là điều họ có thể hướng đến. 0:14:42.769,0:14:45.179 Mọi người đã miễn cưỡng 0:14:45.179,0:14:47.819 mọi người đã nghĩ điều đó sai… 0:14:47.820,0:14:49.480 hoàn toàn sai trái 0:14:49.480,0:14:50.500 khi giết 0:14:50.500,0:14:51.408 một người … 0:14:51.408,0:14:53.509 một người vô tội, 0:14:53.509,0:14:54.689 kể cả vì mục đích 0:14:54.690,0:14:55.819 để cứu 0:14:55.818,0:14:58.500 năm người khác, chí ít những người này đã nghĩ như vậy… 0:14:58.500,0:15:00.610 trong cách lựa chọn thứ hai 0:15:00.610,0:15:05.120 của mỗi câu chuyện mà chúng ta đã xem xét 0:15:05.120,0:15:06.519 vì vậy, quan điểm này đưa đến 0:15:06.519,0:15:09.539 cách tư duy 0:15:09.539,0:15:10.689 thứ hai 0:15:10.690,0:15:12.660 về 0:15:12.659,0:15:14.679 đạo đức 0:15:14.679,0:15:16.429 tuyệt đối 0:15:16.429,0:15:22.429 lý luận đạo đức tuyệt đối phân định giá trị đạo đức theo các yêu cầu đạo đức tuyệt đối nhất định nào đó về 0:15:22.429,0:15:24.439 Các nghĩa vụ và quyền hạn tuyệt đối 0:15:24.440,0:15:27.440 bất kể hệ quả là gì. 0:15:27.440,0:15:29.230 Chúng ta sẽ khám phá 0:15:29.230,0:15:33.070 trong những ngày và tuần tới về sự tương phản giữa 0:15:33.070,0:15:36.540 Các quan điểm đạo đức tuyệt đối và hệ quả luận. 0:15:36.539,0:15:38.370 Ví dụ 0:15:38.370,0:15:40.419 có ảnh hưởng nhất 0:15:40.419,0:15:45.919 Về lý luận đạo đức theo hệ quả luận là thuyết vị lợi, một học thuyết được đề xướng bởi 0:15:45.919,0:15:51.099 Jeremy Bentham, triết gia chính trị người Anh thế kỷ 18. 0:15:51.100,0:15:54.139 Triết gia quan trọng nhất 0:15:54.139,0:15:56.850 trong lý luận đạo đức tuyệt đối 0:15:56.850,0:15:58.170 là triết gia 0:15:58.169,0:16:02.589 người Đức thế kỷ thứ mười tám Emmanuel Kant. 0:16:02.590,0:16:03.860 Vì vậy, chúng ta sẽ xem xét 0:16:03.860,0:16:07.259 hai lý luận đạo đức khác nhau này. 0:16:07.259,0:16:08.299 Đánh giá chúng. 0:16:08.299,0:16:10.669 Và cũng xem xét những quan điểm khác. 0:16:10.669,0:16:16.099 Nếu bạn nhìn vào giáo trình, bạn sẽ thấy rằng chúng tá phải đọc nhiều quyển sách hay và nổi tiếng. 0:16:16.100,0:16:18.310 Sách của Aristotle, 0:16:18.309,0:16:19.889 của John Locke, 0:16:19.889,0:16:22.080 của Emanuel Kant, John Stuart Mill, 0:16:22.080,0:16:24.030 và nhiều tác giả khác. 0:16:24.029,0:16:28.169 Bạn cũng sẽ nhận thấy từ giáo trình rằng chúng ta không chỉ đọc những cuốn sách này, 0:16:28.169,0:16:30.069 Chúng ta còn 0:16:30.070,0:16:32.010 phải xem xét 0:16:32.009,0:16:37.000 cả các cuộc tranh luận chính trị và pháp lý đương đại mà đã khiến nảy sinh ra những câu hỏi triết học. 0:16:37.000,0:16:40.190 Chúng ta sẽ tranh luận về bình đẳng và bất bình đẳng, 0:16:40.190,0:16:41.490 Quy định chống phân biệt đối xử, 0:16:41.490,0:16:43.698 tự do ngôn luận so với ngôn từ kích động thù địch, 0:16:43.698,0:16:47.039 hôn nhân đồng giới, nghĩa vụ quân sự, 0:16:47.039,0:16:50.980 một loạt các câu hỏi thực tế, tại sao? 0:16:50.980,0:16:55.350 không chỉ làm sinh động những cuốn sách trừu tượng và xa vời này 0:16:55.350,0:17:01.040 mà còn làm sáng tỏ những bấp bênh về Triết học 0:17:01.039,0:17:03.519 trong cuộc sống hàng ngày, kể cả đời sống chính trị 0:17:03.519,0:17:05.639 của chúng ta. 0:17:05.640,0:17:07.720 Vì thế, chúng ta đọc những cuốn sách đó 0:17:07.720,0:17:09.818 và chúng ta sẽ tranh luận về 0:17:09.818,0:17:15.480 những vấn đề này, và chúng ta sẽ xem các vấn đề bổ nghĩa và soi sáng cho nhau như thế nào. 0:17:15.480,0:17:17.599 Điều này nghe có vẻ đủ hấp dẫn. 0:17:17.599,0:17:19.109 Nhưng ở đây 0:17:19.109,0:17:22.549 tôi phải đưa ra một cảnh báo 0:17:22.549,0:17:25.210 và cảnh báo đó là 0:17:25.210,0:17:28.500 khi đọc những cuốn sách này 0:17:28.500,0:17:31.549 theo cách thức như vậy, 0:17:31.549,0:17:34.119 như một bài tập để hiểu mình, 0:17:34.119,0:17:38.849 đọc chúng theo cách này có vài rủi ro nhất định. 0:17:38.849,0:17:42.119 Rủi ro mang tính cá nhân và chính trị, 0:17:42.119,0:17:47.799 những rủi ro mà mọi sinh viên ngành triết học chính trị đều biết. 0:17:47.799,0:17:50.690 Những rủi ro này xuất phát từ thực tế 0:17:50.690,0:17:52.580 rằng triết học 0:17:52.579,0:17:54.220 dạy chúng ta 0:17:54.220,0:17:56.400 và phá rối chúng ta 0:17:56.400,0:18:01.390 bằng cách buộc chúng ta đối diện với những gì chúng ta đã biết. 0:18:01.390,0:18:03.390 Thật trớ trêu 0:18:03.390,0:18:09.790 là độ khó của khóa học này nằm ở chỗ nó dạy bạn những gì bạn đã biết. 0:18:09.789,0:18:12.159 Nó hoạt động bằng cách lấy 0:18:12.160,0:18:16.470 những gì chúng ta biết trong những ngữ cảnh quen thuộc và không có nghi ngờ gì, 0:18:16.470,0:18:20.370 và làm cho nó trở nên xa lạ. 0:18:20.369,0:18:22.389 Đó chính xác là cách các ví dụ 0:18:22.390,0:18:23.120 đã hoạt động 0:18:23.119,0:18:29.029 Các giả thuyết mà chúng ta bắt đầu pha trộn giữa sự vui tươi và đúng mực của chúng. 0:18:29.029,0:18:33.940 đó cũng là cách những cuốn sách triết học hoạt động. Triết học 0:18:33.940,0:18:35.640 làm chúng ta xa rời 0:18:35.640,0:18:37.520 khỏi những thứ quen thuộc 0:18:37.519,0:18:40.389 không phải bằng cách thêm vào các thông tin mới 0:18:40.390,0:18:41.780 mà bằng cách lôi cuốn 0:18:41.779,0:18:43.599 và khơi gợi 0:18:43.599,0:18:47.419 một cách nhìn mới 0:18:47.420,0:18:49.970 nhưng, ở đây cũng có chút rủi ro, 0:18:49.970,0:18:50.720 một khi 0:18:50.720,0:18:54.299 điều quen thuộc trở nên xa lạ, 0:18:54.299,0:18:58.259 nó sẽ không bao giờ hoàn toàn như trước được nữa. 0:18:58.259,0:19:00.210 Tự hiểu mình 0:19:00.210,0:19:03.200 giống như đánh mất đi sự ngây thơ, 0:19:03.200,0:19:04.720 tuy có xáo trộn, 0:19:04.720,0:19:06.029 bạn sẽ thấy rằng 0:19:06.029,0:19:07.289 nó không bao giờ 0:19:07.289,0:19:09.720 trở nên không suy nghĩ 0:19:09.720,0:19:13.390 hoặc không biết 0:19:13.390,0:19:17.259 điều khiến cho sự nghiệp này trở nên khó khăn 0:19:17.259,0:19:19.970 nhưng cũng hấp dẫn, 0:19:19.970,0:19:20.880 Là ở chỗ 0:19:20.880,0:19:25.400 triết học đạo đức và triết lý chính trị là một câu chuyện 0:19:25.400,0:19:29.340 và bạn không biết nó sẽ dẫn đến đâu nhưng điều bạn biết chắc 0:19:29.339,0:19:31.319 rằng câu chuyện đó 0:19:31.319,0:19:34.480 là về bạn. 0:19:34.480,0:19:37.079 Đó là những rủi ro cá nhân, 0:19:37.079,0:19:40.220 Bây giờ những rủi ro chính trị. 0:19:40.220,0:19:43.038 Như một lời giới thiệu, môn học kiểu này 0:19:43.038,0:19:44.730 Là để khuyến khích bạn rằng, 0:19:44.730,0:19:46.460 bằng cách đọc những cuốn sách đó 0:19:46.460,0:19:48.069 và tranh luận về những vấn đề này 0:19:48.069,0:19:51.769 bạn sẽ trở thành một công dân tốt, có trách nhiệm hơn. 0:19:51.769,0:19:56.450 Bạn sẽ kiểm tra các tiền giả định của chính sách công, bạn sẽ mài dũa các 0:19:56.450,0:19:57.289 phán xét chính trị của mình 0:19:57.289,0:20:02.819 bạn sẽ trở thành một người tham gia hiệu quả hơn vào các vấn đề công cộng 0:20:02.819,0:20:06.869 nhưng đó sẽ là một triển vọng phiến diện và dễ gây nhầm lẫn. 0:20:06.869,0:20:11.489 Triết học chính trị đã phần không hoạt động theo cách đó. 0:20:11.490,0:20:14.660 Bạn phải chấp nhận khả năng 0:20:14.660,0:20:19.100 rằng triết lý chính trị có thể khiến bạn trở thành một công dân tồi 0:20:19.099,0:20:21.969 hơn là một công dân tốt 0:20:21.970,0:20:23.809 hoặc ít nhất là một công dân tồi hơn so với 0:20:23.809,0:20:25.629 trước khi nó giúp bạn 0:20:25.630,0:20:27.950 Trở thành một công dân tốt hơn. 0:20:27.950,0:20:30.400 Và bởi vì triết học 0:20:30.400,0:20:32.620 là một điều gì đó xa xôi 0:20:32.619,0:20:34.709 thậm chí là 0:20:34.710,0:20:36.600 một hoạt động gây suy nhược. 0:20:36.599,0:20:37.759 Và bạn nhận thấy điều này 0:20:37.759,0:20:39.890 quay trở lại thời Socrates, 0:20:39.890,0:20:42.290 có một cuộc đối thoại, những người nhóm Gorgias 0:20:42.289,0:20:44.680 trong đó có một người là bạn của Socrates 0:20:44.680,0:20:45.620 Calicles 0:20:45.619,0:20:47.239 Cố gắng thuyết phục ông ngừng 0:20:47.240,0:20:49.970 suy nghĩ triết học. 0:20:49.970,0:20:54.400 calicles nói với Socrates triết học là một món đồ chơi đẹp đẽ 0:20:54.400,0:20:57.980 nếu người ta thưởng thức nó một cách điều độ vào đúng thời điểm của cuộc đời 0:20:57.980,0:21:03.779 nhưng nếu ai theo đuổi nó lâu hơn mức cần thiết thì người đó sẽ bị hủy hoại tuyệt đối. 0:21:03.779,0:21:06.819 Calicles nói hãy nghe lời tôi khuyên 0:21:06.819,0:21:08.369 đừng suy biện nữa, 0:21:08.369,0:21:11.669 hãy tìm hiểu sự viên mãn của cuộc sống tích cực, 0:21:11.670,0:21:16.880 hãy lựa chọn khuôn mẫu, đừng chọn những người dành thời gian cả đời lý sự cho những điều vụn vặt này, 0:21:16.880,0:21:20.080 Mà hãy chọn những người có sinh kế tốt, có thanh danh 0:21:20.079,0:21:22.319 và nhiều may mắn khác. 0:21:22.319,0:21:26.808 Vì thế Calicles thực sự đang nói với Socrates 0:21:26.808,0:21:28.690 hãy ngừng suy nghĩ triết học đi, 0:21:28.690,0:21:30.549 Hãy thực tế, 0:21:30.549,0:21:35.169 đến trường học kinh doanh 0:21:35.170,0:21:38.300 và Calicles đã có một quan điểm, 0:21:38.299,0:21:39.690 anh ấy có một điểm rằng 0:21:39.690,0:21:42.210 bởi vì triết học tách rời chúng ta 0:21:42.210,0:21:45.009 Khỏi những quy ước thông tường, 0:21:45.009,0:21:46.750 khỏi những giả định quen thuộc và khỏi những niềm tin định sẵn. 0:21:46.750,0:21:48.650 Đó là những rủi ro, 0:21:48.650,0:21:49.970 Mang tính cá nhân và chính trị. 0:21:49.970,0:21:54.089 Và khi đối mặt với những rủi ro này, có một sự thoái thác mang tính đặc trưng, 0:21:54.089,0:21:57.470 tên của sự thoái thác này là chủ nghĩa hoài nghi. 0:21:57.470,0:21:58.990 Nó diễn ra như thế này, 0:21:58.990,0:22:03.660 chúng ta đã không giải quyết, một lần và mãi mãi, 0:22:03.660,0:22:09.759 hoặc các tình huống hoặc các nguyên tắc mà chúng ta đã tranh luận khi bắt đầu 0:22:09.759,0:22:11.390 và nếu cả Aristotle 0:22:11.390,0:22:17.220 và Locke và Kant và Mill vẫn chưa giải quyết được những câu hỏi như vậy sau ngần ấy năm 0:22:17.220,0:22:19.589 chúng ta là ai mà nghĩ 0:22:19.589,0:22:23.730 rằng chúng ta ở đây trong Giảng đường Sanders này, trong khóa học một học kỳ 0:22:23.730,0:22:26.430 Lại có thể giải quyết được. 0:22:26.430,0:22:29.460 Và do vậy có thể chỉ là vấn đề 0:22:29.460,0:22:33.519 mỗi người có những nguyên tắc riêng của mình và chẳng có gì để nói về 0:22:33.519,0:22:34.170 điều đó nữa, 0:22:34.170,0:22:36.590 không có cách nào lý luận 0:22:36.589,0:22:37.649 đó là 0:22:37.650,0:22:39.440 sự thoái thác. Việc thoái thác mang tên chủ nghĩa hoài nghi. 0:22:39.440,0:22:41.279 Đối với lý luận này tôi có thể phản hồi 0:22:41.279,0:22:42.660 như sau: 0:22:42.660,0:22:43.720 đúng là 0:22:43.720,0:22:47.559 những câu hỏi này đã được tranh luận trong một thời gian cực kỳ dài, 0:22:47.559,0:22:49.059 nhưng rõ ràng 0:22:49.059,0:22:52.700 Chũng đã tái diễn và tồn tại dai dẳng. 0:22:52.700,0:22:54.650 Có thể gợi ý 0:22:54.650,0:22:57.169 rằng mặc dù chúng không thể theo một ý nghĩa nào đó nhưng 0:22:57.169,0:22:59.800 chúng không thể tránh khỏi theo một nghĩa khác 0:22:59.799,0:23:02.299 và lý do chúng không thể tránh khỏi, 0:23:02.299,0:23:06.500 lý do chúng không thể tránh được là chúng ta phải trả lời một số 0:23:06.500,0:23:10.069 câu hỏi này trong cuộc sống hàng ngày. 0:23:10.069,0:23:16.129 Cho nên, chủ nghĩa hoài nghi, chỉ biết bó tay chịu thua suy ngẫm về đạo đức, 0:23:16.130,0:23:18.280 không phải là giải pháp. 0:23:18.279,0:23:19.990 Emanuel Kant 0:23:19.990,0:23:23.710 Emanuel Kant đã mô tả rất hay vấn đề của chủ nghĩa hoài nghi khi ông viết 0:23:23.710,0:23:26.308 chủ nghĩa hoài nghi là nơi nghỉ ngơi cho lý trí con người, 0:23:26.308,0:23:29.099 nơi có thể mang đến các suy ngẫm mơ hồ, có tính giáo điều. 0:23:29.099,0:23:33.069 nhưng nó không phải là nơi ở để định cư lâu dài. 0:23:33.069,0:23:35.939 Kant viết "đơn giản bằng lòng với chủ nghĩa hoài nghi, 0:23:35.940,0:23:42.660 không bao giờ có thể đủ khả năng để vượt qua tính hiếu động của lý trí." 0:23:42.660,0:23:47.040 Tôi đã cố gắng gợi ý qua những câu chuyện và lập luận này 0:23:47.039,0:23:49.898 một số ý nghĩa về những rủi ro và cám dỗ 0:23:49.898,0:23:55.589 về những khía cạnh nguy hiểm và những khả năng mà tôi chỉ kết luận bằng một cách nói đơn giản 0:23:55.589,0:23:58.099 rằng mục đích của khóa học này l 0:23:58.099,0:23:59.629 à đánh thức 0:23:59.630,0:24:02.240 sự hiếu động của lý trí 0:24:02.240,0:24:04.380 và để xem nó có thể dẫn đến đâu. 0:24:04.380,0:24:11.380 cảm ơn các bạn rất nhiều. 0:24:15.440,0:24:16.980 Giống như, trong một tình huống tuyệt vọng, 0:24:16.980,0:24:21.259 bạn phải làm điều phải làm để sống sót. Bạn có làm việc bạn phải làm không? Bạn có làm không? 0:24:21.259,0:24:22.779 Bạn sẽ làm gì? 0:24:22.779,0:24:23.619 khá nhiều. 0:24:23.619,0:24:25.699 Nếu bạn phải trải qua 19 ngày mà không có thức ăn, 0:24:25.700,0:24:32.700 ai đó phải hy sinh, ai đó phải bị ăn thịt và những người khác có thể sống sót. Được, vậy tốt đấy, bạn tên gì? Marcus. 0:24:33.569,0:24:40.349 Marcus, bạn nói gì với Marcus? 0:24:40.349,0:24:44.569 Lần trước, 0:24:44.569,0:24:46.960 chúng ta bắt đầu lần trước 0:24:46.960,0:24:48.980 Bằng một vài câu chuyện 0:24:48.980,0:24:51.019 với một số tình huống lưỡng nan về đạo đức, 0:24:51.019,0:24:53.049 về xe điện 0:24:53.049,0:24:54.509 và về các bác sĩ 0:24:54.509,0:24:56.269 với bệnh nhân khỏe mạnh 0:24:56.269,0:24:57.559 dễ tổn thương, 0:24:57.559,0:25:00.909 có thể trở thành nạn nhân của việc cấy ghép nội tạng 0:25:00.910,0:25:04.090 Chúng ta biết hai điều. 0:25:04.089,0:25:06.889 Về các lập luận mà chúng ta có 0:25:06.890,0:25:10.830 Ai đó có thể làm theo cách chúng ta tranh luận, 0:25:10.829,0:25:13.569 nó bắt đầu bằng những phán xét của chúng ta trong những trường hợp cụ thể 0:25:13.569,0:25:18.470 chúng ta đã cố gắng kết nối những lý luận hoặc nguyên tắc 0:25:18.470,0:25:22.549 nằm sau những phán xét của chúng ta 0:25:22.549,0:25:25.399 và sau đó đối mặt với một tình huống mới, 0:25:25.400,0:25:30.759 chúng ta tự thấy mình phải xét lại những nguyên tắc đó 0:25:30.759,0:25:34.019 sửa lại nó trên tinh thần của những nguyên tắc khác. 0:25:34.019,0:25:38.920 Và chúng ta thấy áp lực nội tại để cố gắng căn chỉnh sự liên kết 0:25:38.920,0:25:41.680 Các phán xét của chúng ta trong các tình huống cụ thể 0:25:41.680,0:25:43.940 và các nguyên tắc mà chúng ta tán thành 0:25:43.940,0:25:46.360 Trong việc phản ánh, 0:25:46.359,0:25:50.589 chúng ta cũng ghi nhận điều gì là cốt lõi của những lập luận 0:25:50.589,0:25:55.250 Xuất hiện từ cuộc thảo luận này. 0:25:55.250,0:26:00.859 Chúng ta nhận thấy rằng đôi khi chúng ta bị cám dỗ để xác định giá trị đạo đức của một hành động 0:26:00.859,0:26:06.519 dựa trên hệ quả. Hay nói cách khác là dựa trên kết quả mà hành động đó mang lại. 0:26:06.519,0:26:09.019 Chúng ta gọi là lý luận đạo đức 0:26:09.019,0:26:11.690 theo hệ quả luận. 0:26:11.690,0:26:13.240 Nhưng chúng ta cũng nhận thấy rằng 0:26:13.240,0:26:16.440 trong một số trường hợp, 0:26:16.440,0:26:18.610 chúng ta không chỉ bị ảnh hưởng 0:26:18.609,0:26:22.089 bởi kết quả. 0:26:22.089,0:26:23.399 Đôi khi, 0:26:23.400,0:26:25.350 nhiều người trong chúng ta cảm thấy, 0:26:25.349,0:26:31.669 rằng không chỉ hệ quả mà phẩm chất hoặc đặc tính đặc thù của hành động 0:26:31.670,0:26:35.370 Có ý nghĩa về mặt đạo đức 0:26:35.369,0:26:40.979 Một vài người lập luận rằng có một số điều hoàn toàn sai 0:26:40.980,0:26:42.579 ngay cả khi họ mang lại 0:26:42.579,0:26:44.460 một kết quả tốt. 0:26:44.460,0:26:45.490 Ngay cả khi 0:26:45.490,0:26:47.200 họ cứu được năm người 0:26:47.200,0:26:49.788 đổi bằng một mạng người. 0:26:49.788,0:26:52.730 Vì vậy, chúng ta đã đối chiếu lý luận đạo đức 0:26:52.730,0:26:54.569 theo hệ quả luận 0:26:54.569,0:26:58.139 với lý luận đạo đức tuyệt đối. 0:26:58.140,0:26:59.790 Hôm nay 0:26:59.789,0:27:00.819 và trong vài ngày tới 0:27:00.819,0:27:06.569 chúng ta sẽ bắt đầu xem xét một trong những phiên bản có ảnh hưởng nhất 0:27:06.569,0:27:08.839 Trong các phiên bản của 0:27:08.839,0:27:10.970 lý thuyết đạo đức theo hệ quả luận 0:27:10.970,0:27:16.329 và đó là Triết học Thuyết vị lợi. 0:27:16.329,0:27:17.429 Jeremy Bentham, 0:27:17.430,0:27:19.080 triết gia chính trị người Anh 0:27:19.079,0:27:21.689 thế kỷ 18 0:27:21.690,0:27:22.910 Là người đầu tiên 0:27:22.910,0:27:26.630 diễn đạt rõ ràng một cách có hệ thống 0:27:26.630,0:27:28.670 các lý luận đạo đức 0:27:28.670,0:27:32.210 của Thuyết vị lợi 0:27:32.210,0:27:36.400 Và ý tưởng của Bentham, 0:27:36.400,0:27:38.440 ý tưởng cơ bản của ông ấy 0:27:38.440,0:27:42.930 là một ý tưởng cực kỳ đơn giản 0:27:42.930,0:27:44.808 với rất nhiều 0:27:44.808,0:27:46.329 sự hấp dẫn trực quan 0:27:46.329,0:27:48.429 về mặt đạo đức. 0:27:48.430,0:27:50.450 Ý tưởng của Bentham 0:27:50.450,0:27:51.590 là 0:27:51.589,0:27:54.439 Điều đúng nên làm, 0:27:54.440,0:27:57.799 điều duy nhất cần phải làm 0:27:57.799,0:27:58.819 là 0:27:58.819,0:28:01.369 tối đa hóa 0:28:01.369,0:28:02.339 tính có ích. 0:28:02.339,0:28:06.329 Với ông, tính có ích nghĩa là gì? 0:28:06.329,0:28:11.490 Ông hàm ý tính có ích là sự cân bằng 0:28:11.490,0:28:14.000 của niềm vui so với nỗi đau, 0:28:14.000,0:28:16.778 hạnh phúc so với đau khổ. 0:28:16.778,0:28:18.210 Đây là cách chúng ta 0:28:18.210,0:28:19.259 đạt được nguyên tắc 0:28:19.259,0:28:22.308 tối đa hóa tính có ích. 0:28:22.308,0:28:24.450 Ông ấy bắt đầu bằng việc quan sát 0:28:24.450,0:28:26.399 rằng 0:28:26.398,0:28:27.750 tất cả nhân loại 0:28:27.750,0:28:31.490 Đều bị cai trị bởi hai chủ tể tối cao, 0:28:31.490,0:28:34.620 là đau đớn và khoái lạc. 0:28:34.619,0:28:37.479 Con người chúng ta 0:28:37.480,0:28:42.308 thích khoái lạc và ghét đau khổ 0:28:42.308,0:28:45.839 và do vậy chúng ta nên đặt giá trị đạo đức, 0:28:45.839,0:28:49.169 dù rằng chúng ta đang nghĩ về những việc mình cần làm trong cuộc đời 0:28:49.170,0:28:50.490 hay 0:28:50.490,0:28:52.579 với tư cách là nhà lập pháp hay công dân, 0:28:52.579,0:28:57.029 chúng ta đang suy nghĩ pháp luật nên như thế nào, 0:28:57.029,0:29:02.069 điều đúng mà cá nhân hoặc tập thể nên làm 0:29:02.069,0:29:05.838 là tối đa hóa, hành động theo cách làm tối đa hóa 0:29:05.838,0:29:07.659 ở mức độ tổng thể 0:29:07.660,0:29:11.519 của hạnh phúc. 0:29:11.519,0:29:15.430 Thuyết vị lợi của Bentham đôi khi có thể được tóm tắt bằng khẩu hiệu 0:29:15.430,0:29:18.870 “Lợi ích lớn nhất cho nhiều người nhất”. 0:29:18.869,0:29:20.398 Với 0:29:20.398,0:29:22.989 nguyên tắc cơ bản của tính có lợi trong tay, 0:29:22.990,0:29:26.410 hãy bắt đầu kiểm tra và kiểm định nó 0:29:26.410,0:29:28.409 bằng cách chuyển sang một tình huống khác 0:29:28.409,0:29:30.620 một câu chuyện khác nhưng lần này 0:29:30.619,0:29:32.639 không phải là một câu chuyện giả định, 0:29:32.640,0:29:34.120 một câu chuyện có thật 0:29:34.119,0:29:35.059 Vụ 0:29:35.059,0:29:38.329 Nữ hoàng kiện Dudley và Stephens. 0:29:38.329,0:29:41.889 Đây là một vụ kiện nổi tiếng 0:29:41.890,0:29:44.009 ở Anh vào thế kỷ XIX 0:29:44.009,0:29:47.538 Và được tranh luận nhiều trong các trường luật. 0:29:47.538,0:29:50.059 Đây là những gì đã xảy ra trong vụ kiện… 0:29:50.059,0:29:51.869 tôi sẽ tóm tắt câu chuyện 0:29:51.869,0:29:54.909 và sau đó tôi muốn nghe 0:29:54.910,0:29:57.640 bạn sẽ phán quyết ra sao 0:29:57.640,0:30:04.350 khi tưởng tượng rằng bạn là bồi thẩm đoàn. 0:30:04.349,0:30:06.178 Một tờ báo thời đó 0:30:06.179,0:30:09.290 đã mô tả bối cảnh: 0:30:09.289,0:30:11.460 Một câu chuyện buồn nhất về thảm họa trên biển 0:30:11.460,0:30:12.789 Chuyện về 0:30:12.789,0:30:15.288 những người sống sót trên tàu 0:30:15.288,0:30:16.240 Mignonette. 0:30:16.240,0:30:19.109 Con tàu bị chìm ở phía Nam Đại Tây Dương 0:30:19.109,0:30:21.789 Cách mũi đất 130 dặm, 0:30:21.789,0:30:24.000 có bốn người trong thủy thủ đoàn, 0:30:24.000,0:30:26.500 Dudley là thuyền trưởng 0:30:26.500,0:30:28.400 Stephens là thuyền phó thứ nhất, 0:30:28.400,0:30:30.220 Brooks là một thủy thủ, 0:30:30.220,0:30:31.279 tất cả đều là 0:30:31.279,0:30:32.490 những người đàn ông xuất sắc, 0:30:32.490,0:30:34.249 hoặc chí ít các tờ báo 0:30:34.249,0:30:35.819 nói thế. 0:30:35.819,0:30:38.639 Thành viên phi hành đoàn thứ tư là cậu bé làm trong cabin, 0:30:38.640,0:30:40.300 Richard Parker 0:30:40.299,0:30:42.849 mười bảy tuổi. 0:30:42.849,0:30:44.629 Cậu là một đứa trẻ mồ côi 0:30:44.630,0:30:46.930 không có gia đình 0:30:46.930,0:30:51.410 và đây là hành trình dài đầu tiên của cậu. 0:30:51.410,0:30:53.700 Tờ báo nói rằng cậu ấy đã đi 0:30:53.700,0:30:56.730 mặc kệ lời khuyên không nên từ bạn bè của cậu. 0:30:56.730,0:31:00.210 Cậu đi trong niềm hy vọng hoài bão của tuổi trẻ, 0:31:00.210,0:31:03.390 nghĩ rằng cuộc hành trình sẽ biến mình trở thành con người đích thực. 0:31:03.390,0:31:05.140 Đáng tiếc là không phải như vậy, 0:31:05.140,0:31:07.780 tình tiết vụ án không cần bàn cãi, 0:31:07.779,0:31:08.970 một con sóng đánh vào con tàu 0:31:08.970,0:31:12.000 và Mignonette bị chìm. 0:31:12.000,0:31:14.859 Bốn thành viên phi hành đoàn đã thoát ra một xuồng cứu sinh 0:31:14.859,0:31:16.199 thức ăn duy nhất 0:31:16.200,0:31:18.380 họ có là 0:31:18.380,0:31:19.659 hai hộp 0:31:19.659,0:31:20.990 củ cải ướp 0:31:20.990,0:31:21.779 bảo quản 0:31:21.779,0:31:23.980 không có nước sạch, 0:31:23.980,0:31:26.610 trong ba ngày đầu tiên họ không ăn gì cả 0:31:26.609,0:31:30.459 vào ngày thứ tư, họ khui một hộp củ cải 0:31:30.460,0:31:31.590 và ăn nó. 0:31:31.589,0:31:34.449 Ngày hôm sau họ bắt được một con rùa 0:31:34.450,0:31:36.960 cùng với hộp củ cải khác, 0:31:36.960,0:31:38.549 con rùa 0:31:38.549,0:31:40.058 đã giúp họ tồn tại 0:31:40.058,0:31:43.069 trong vài ngày tiếp theo và sau đó và tám ngày sau nữa 0:31:43.069,0:31:44.038 họ không có gì cả, 0:31:44.038,0:31:47.069 không thức ăn, không nước uống. 0:31:47.069,0:31:50.069 Hãy đặt mình vào tình huống như vậy, 0:31:50.069,0:31:52.849 bạn sẽ làm gì? 0:31:52.849,0:31:55.119 Đây là những gì họ đã làm 0:31:55.119,0:32:00.969 lúc đó, cậu nhóc cabin Parker đang nằm trong góc dưới của xuồng cứu sinh 0:32:00.970,0:32:03.230 vì cậu bé đã uống nước biển 0:32:03.230,0:32:05.490 mà không nghe theo lời khuyên của những người khác 0:32:05.490,0:32:07.230 nên cậu đã bị ốm 0:32:07.230,0:32:10.669 và cậu dường như suy kiệt, 0:32:10.669,0:32:14.619 nên vào ngày thứ mười chín Dudley, thuyền trưởng, đề nghị 0:32:14.618,0:32:17.349 rằng tất cả họ nên 0:32:17.349,0:32:18.759 rút thăm. Rằng tất cả họ nên 0:32:18.759,0:32:19.619 rút thăm để xem 0:32:19.619,0:32:20.859 người nào sẽ chết 0:32:20.859,0:32:24.079 để cứu những người còn lại. 0:32:24.079,0:32:25.210 Brooks 0:32:25.210,0:32:26.539 đã từ chối, 0:32:26.539,0:32:29.139 ông không thích ý tưởng rút thăm 0:32:29.140,0:32:30.619 chúng ta không biết liệu điều này 0:32:30.618,0:32:35.999 là vì ông ta không muốn nắm lấy cơ hội đó hay vì ông tin vào 0:32:35.999,0:32:36.870 nguyên tắc đạo đức tuyệt đối 0:32:36.869,0:32:38.619 nhưng dù sao thì 0:32:38.619,0:32:42.129 việc rút thăm đã không diễn ra. 0:32:42.130,0:32:43.230 Ngày tiếp theo, 0:32:43.230,0:32:45.028 vẫn không có con tàu nào xuất hiện cả, 0:32:45.028,0:32:48.470 nên Dudley bảo Brooks quay đi chỗ khác. 0:32:48.470,0:32:50.720 và ra hiệu cho Stephens 0:32:50.720,0:32:53.929 rằng tốt hơn cậu bé Parker nên bị giết. 0:32:53.929,0:32:55.850 Dudley cầu nguyện, 0:32:55.849,0:32:58.480 và nói với cậu bé rằng đã đến lúc 0:32:58.480,0:33:00.679 và đã giết cậu bé bằng một con dao bút 0:33:00.679,0:33:03.900 đâm vào động mạch cổ cậu bé. 0:33:03.900,0:33:09.750 Brooks đổi quan điểm phản đối đầy đạo đức của mình để được chia một phần kinh khủng. 0:33:09.750,0:33:11.029 Trong bốn ngày, 0:33:11.029,0:33:15.230 ba người họ ăn thịt và uống máu của cậu bé cabin. 0:33:15.230,0:33:17.220 Một câu chuyện có thật. 0:33:17.220,0:33:19.390 Và rồi họ được giải cứu. 0:33:19.390,0:33:22.840 Dudley mô tả cuộc giải cứu của họ 0:33:22.839,0:33:24.678 trong nhật ký của mình 0:33:24.679,0:33:27.570 với uyển ngữ đáng kinh ngạc, xin trích dẫn: 0:33:27.569,0:33:29.648 "vào ngày thứ 24, 0:33:29.648,0:33:34.750 khi chúng tôi đang dùng bữa sáng 0:33:34.750,0:33:38.599 một con tàu cuối cùng đã xuất hiện." 0:33:38.599,0:33:44.309 Ba người sống sót đã được một con tàu của Đức vớt. Họ được đưa trở lại Falmouth ở Anh 0:33:44.309,0:33:47.079 Tại đây họ bị bắt và xét xử. 0:33:47.079,0:33:47.829 Brooks 0:33:47.829,0:33:49.949 trở thành nhân chứng phía nhà nước 0:33:49.950,0:33:54.450 Dudley và Stephens hầu tòa. Họ không tranh cãi về những sự thật mà 0:33:54.450,0:33:55.390 họ tuyên bố rằng 0:33:55.390,0:33:58.140 họ đã hành động trong tình thế bắt buộc, 0:33:58.140,0:33:59.430 đó là lời biện hộ của họ, 0:33:59.430,0:34:01.220 họ lập luận rằng 0:34:01.220,0:34:03.250 Sẽ tốt hơn nếu một người chết 0:34:03.250,0:34:06.420 để cứu sống ba người 0:34:06.420,0:34:08.619 công tố viên 0:34:08.619,0:34:10.849 không chấp nhận lập luận đó. 0:34:10.849,0:34:12.509 Ông cho rằng giết người là giết người 0:34:12.509,0:34:16.429 và thế là vụ án được đưa ra xét xử. Bây giờ hãy tưởng tượng bạn là thẩm phán 0:34:16.429,0:34:19.489 và để đơn giản hóa nội dung thảo luận 0:34:19.489,0:34:21.989 Hãy bỏ qua các câu hỏi pháp lý sang một bên, 0:34:21.989,0:34:23.010 và giả định rằng bạn, 0:34:23.010,0:34:25.879 với tư cách là bồi thẩm đoàn 0:34:25.878,0:34:28.278 chịu trách nhiệm quyết định 0:34:28.278,0:34:31.009 xem những gì họ đã làm, về mặt đạo đức 0:34:31.009,0:34:34.378 được phép hay không. 0:34:34.378,0:34:36.608 Bao nhiêu bạn 0:34:36.608,0:34:39.808 sẽ bỏ phiếu 0:34:39.809,0:34:46.809 vô tội, rằng hành động của họ có thể chấp nhận về mặt đạo đức? 0:34:49.528,0:34:51.639 Và bao nhiêu bạn sẽ bỏ phiếu có tội, 0:34:51.639,0:34:54.858 rằng hành động của họ là sai trái về mặt đạo đức? 0:34:54.858,0:34:57.998 Một đa số vượt trội. 0:34:57.998,0:35:03.808 Bây giờ hãy xem lý do của mọi người là gì, và hãy để tôi bắt đầu với nhóm thiểu số. 0:35:03.809,0:35:07.739 Trước tiên chúng ta hãy nghe từ phía bào chữa 0:35:07.739,0:35:10.099 của Dudley và Stephens. 0:35:10.099,0:35:14.160 Tại sao bạn lại miễn tội cho họ về mặt đạo đức? 0:35:14.159,0:35:17.989 Lý do của bạn là gì? 0:35:17.989,0:35:20.798 Tôi nghĩ đó là điều đáng trách về mặt đạo đức 0:35:20.798,0:35:24.349 nhưng tôi nghĩ rằng nên có sự phân biệt giữa những gì đáng trách về mặt đạo đức 0:35:24.349,0:35:26.609 Và việc buộc ai đó phải chịu trách nhiệm pháp lý 0:35:26.608,0:35:30.690 hay nói cách khác, sẽ rất tối tăm nếu thẩm phán cho rằng điều luôn có giá trị đạo đức không nhất thiết 0:35:30.690,0:35:34.789 trái pháp luật. Và trong khi tôi không nghĩ rằng điều đó là cần thiết 0:35:34.789,0:35:36.169 có thể biện hộ 0:35:36.168,0:35:38.578 trộm cắp, giết người hay bất kỳ hành động phạm pháp nào khác, 0:35:38.579,0:35:43.509 ở một thời điểm nào đó, mức độ đồng ý của bạn về tính cấp thiết 0:35:43.509,0:35:45.849 Có thể miễn tội cho bạn. 0:35:45.849,0:35:50.588 Được rồi, tốt. Có ý kiến bào chữa khác không? Những lời bào chữa khác? 0:35:50.588,0:35:53.038 Bào chữa về mặt đạo đức cho 0:35:53.039,0:35:56.989 những gì họ đã làm? 0:35:56.989,0:35:57.619 vâng, cảm ơn bạn, 0:35:57.619,0:35:58.798 0:35:58.798,0:35:59.570 tôi chỉ cảm thấy, 0:35:59.570,0:36:03.139 trong một tình huống tuyệt vọng như thế thì bạn phải làm những gì bạn phải làm để tồn tại. 0:36:03.139,0:36:04.679 Bạn phải làm những gì bạn phải làm, 0:36:04.679,0:36:06.789 vâng, mình phải làm những gì mình phải làm, quá nhiều. 0:36:06.789,0:36:07.849 Nếu bạn 0:36:07.849,0:36:09.899 đã trải qua mười chín ngày không có thức ăn 0:36:09.898,0:36:14.710 bạn biết ai đó cần hy sinh phải hy sinh và mọi người có thể sống sót 0:36:14.710,0:36:16.139 và hơn thế nữa, từ đó 0:36:16.139,0:36:21.299 giả sử họ sống sót và sau đó họ trở thành những thành viên hữu ích của xã hội, họ trở về nhà và sau đó và rất có thể tạo ra 0:36:21.300,0:36:26.230 hàng triệu tổ chức thiện nguyện, và nhiều thứ đại khai thế. Ý tôi là, cuối cùng họ mang lại lợi ích cho mọi người. T 0:36:26.230,0:36:28.519 ôi không rõ sau này họ sẽ làm gì sau đó, ý tôi là họ có thể có 0:36:28.519,0:36:30.478 tiếp tục và giết nhiều người hơn 0:36:30.478,0:36:32.889 nhưng sao cũng được. 0:36:32.889,0:36:35.708 gì cơ? 0:36:35.708,0:36:38.908 Điều gì sẽ xảy ra nếu họ về nhà trở thành sát thủ? 0:36:38.909,0:36:42.878 Bạn hẵn muốn biết họ sẽ ám sát ai. 0:36:42.878,0:36:45.848 Rất đúng, thật là công bằng. 0:36:45.849,0:36:49.609 Tôi muốn biết họ đã ám sát ai. 0:36:49.608,0:36:50.708 Được rồi, tốt, bạn tên gì? Marcus. 0:36:50.708,0:36:52.489 Chúng ta đã nghe thấy lời biện hộ, 0:36:52.489,0:36:54.050 hai ý kiến để biện hộ, 0:36:54.050,0:36:55.660 bây giờ chúng ta cần nghe 0:36:55.659,0:36:57.298 từ phía công tố. 0:36:57.298,0:36:59.338 Đa số mọi người nghĩ 0:36:59.338,0:37:05.068 hành động của họ là sai, tại sao? 0:37:05.068,0:37:09.898 Một trong những điều đầu tiên tôi nghĩ là, họ không có gì để ăn trong một thời gian dài, 0:37:09.898,0:37:11.409 có lẽ 0:37:11.409,0:37:12.469 sau đó 0:37:12.469,0:37:15.139 họ bị ảnh hưởng về mặt tinh thần 0:37:15.139,0:37:16.408 có thể ý này dùng được để bào chữa, 0:37:16.409,0:37:20.619 một lý luận khả dĩ, 0:37:20.619,0:37:24.179 rằng họ không ở trong trạng thái tỉnh táo, họ đã đưa ra quyết định 0:37:24.179,0:37:28.519 mà nếu lúc khác họ sẽ không làm thế, và nếu đó là một lập luận hấp dẫn 0:37:28.518,0:37:33.608 rằng bạn ở trong một trạng thái tâm lý không ổn định để làm những việc như vậy thì có nghĩa rằng 0:37:33.608,0:37:36.108 Mọi người thấy lập luận này thuyết phục. 0:37:36.108,0:37:40.088 Bạn có nghĩ rằng họ hành động vô đạo đức. Nhưng tôi muốn biết điều bạn nghĩ bạn bào chữa 0:37:40.088,0:37:41.248 bạn lựa chọn có tội mà? vâng nhưng tôi không nghĩ họ đã hành động một cách có đạo đức, 0:37:45.548,0:37:49.449 cách đáng trân trọng. Và tại sao không? Bạn nói gì, Kia là Marcus, 0:37:49.449,0:37:51.088 anh ấy vừa bào chữa cho họ, 0:37:51.088,0:37:52.909 anh ấy nói, 0:37:52.909,0:37:53.880 bạn đã nghe những gì anh ấy nói rồi chứ? 0:37:53.880,0:37:55.249 Vâng tôi có nghe 0:37:55.248,0:37:56.558 vâng 0:37:56.559,0:38:00.119 rằng bạn phải làm điều buộc phải làm trong tình huống như vậy. 0:38:00.119,0:38:04.789 Bạn sẽ nói gì với Marcus? 0:38:04.789,0:38:06.439 Họ đã không, 0:38:06.438,0:38:13.438 rằng trong bất kỳ tình huống nào cũng không thể cho phép loài người sử dụng 0:38:13.579,0:38:17.959 ý tưởng tước đoạt số phận hoặc sinh mệnh của người khác vào tay của mình. Chúng ta không có 0:38:17.958,0:38:19.328 quyền làm điều đó. 0:38:19.329,0:38:21.399 Tốt, được rồi, c 0:38:21.398,0:38:24.130 ảm ơn bạn, và bạn tên gì? 0:38:24.130,0:38:24.548 Britt? Được rồi. 0:38:24.548,0:38:26.028 Bạn khác? 0:38:26.028,0:38:28.159 Bạn sẽ nói gì? Đứng lên nào… 0:38:28.159,0:38:35.159 tôi tự hỏi liệu Dudley và Stephens có hỏi ý kiến Richard Parker xem cậu ta có đồng ý chết không? Bạn biết đấy, 0:38:35.429,0:38:37.568 nếu thật vậy, 0:38:37.568,0:38:41.228 có thể bào chữa cho họ 0:38:41.228,0:38:45.448 Khỏi hành vi giết người, và nếu thế thì vẫn bào chữa được về mặt đạo đức? 0:38:45.449,0:38:51.720 Nghe hay đấy, đợi một chút. Đồng ý? Đợi một chút, bạn tên gì? Kathleen. 0:38:51.719,0:38:56.088 Nếu giả sử tình huống như Kathleen nói thì sẽ như thế nào? 0:38:56.088,0:38:56.619 khi trong câu chuyện 0:38:56.619,0:39:00.410 Dudley ở đó, tay cầm con dao bút 0:39:00.409,0:39:02.608 nhưng thay vì cầu nguyện 0:39:02.608,0:39:04.588 hoặc trước khi cầu nguyện, 0:39:04.588,0:39:07.599 anh ấy nói, “Parker, 0:39:07.599,0:39:11.519 bạn có phiền không, 0:39:11.518,0:39:14.348 chúng tôi sắp chết đói rồi 0:39:14.349,0:39:17.679 vì Marcus đồng cảm với việc 0:39:17.679,0:39:19.769 chúng ta sắp chết đói 0:39:19.768,0:39:22.168 dù sao thì cậu cũng sẽ không sống được lâu nữa, 0:39:22.168,0:39:23.498 cậu có thể làm một nghĩa sĩ, 0:39:23.498,0:39:25.748 bạn sẽ làm một nghĩa sĩ chứ?" 0:39:25.748,0:39:29.468 Được không Parker? " 0:39:29.469,0:39:33.220 Rồi sau đó, sau đó 0:39:33.219,0:39:37.639 sau đó bạn nghĩ sao, điều đó có chấp nhận được về mặt đạo đức không? Giả sử 0:39:37.639,0:39:38.219 Parker 0:39:38.219,0:39:40.168 trong trạng thái nửa mê nửa tỉnh 0:39:40.168,0:39:42.498 nói đồng ý? 0:39:42.498,0:39:47.889 Tôi không nghĩ điều đó có thể bào chữa được về mặt đạo đức, nhưng tôi băn khoăn. Kể cả khi đó, khi đó có được không? Không 0:39:47.889,0:39:50.650 Bạn không nghĩ rằng kể cả khi có sự đồng ý, 0:39:50.650,0:39:52.490 hành động này có thể bào chữa về mặt đạo đức. 0:39:52.489,0:39:54.568 Có ai khác nghĩ thế? 0:39:54.568,0:39:56.369 ai muốn tiếp tục ý tưởng đồng ý của Kathleen 0:39:56.369,0:39:57.200 ý tưởng dống ý 0:39:57.199,0:40:01.688 và ai nghĩ rằng nó sẽ trở nên có thể bào chữa về mặt đạo đức? Hãy giơ tay nếu có 0:40:01.688,0:40:05.868 nếu bạn nghĩ rằng có thể 0:40:05.869,0:40:07.588 Thật thú vị 0:40:07.588,0:40:09.168 Tại sao sự đồng ý 0:40:09.168,0:40:15.888 sẽ tạo ra một sự khác biệt về mặt đạo đức? Tại sao vậy? 0:40:15.889,0:40:18.509 Ahm, tôi chỉ nghĩ rằng nếu cậu ấy tự đưa ra ý tưởng ban đầu của mình 0:40:18.509,0:40:20.969 và đó là ý tưởng do chính cậu ấy ấy khởi xướng 0:40:20.969,0:40:23.778 thì đó sẽ là tình huống duy nhất mà 0:40:23.778,0:40:25.940 tôi thấy nó phù hợp vì theo cách đó bạn không thể đưa ra lập luận rằng 0:40:28.358,0:40:30.579 anh ấy đã bị áp lực bởi tỷ lệ 3 chọi 1 0:40:30.579,0:40:32.759 hoặc bất kỳ tỷ lệ nào đi nữa, 0:40:32.759,0:40:34.070 và tôi nghĩ rằng 0:40:34.070,0:40:38.009 nếu cậu ấy đang đưa ra quyết định hy sinh mạng sống của mình thì cậu ấy đã đảm nhận vai trò 0:40:38.009,0:40:42.668 tự hy sinh bản thân, điều mà một số người nghĩ là đáng ngưỡng mộ và những người khác 0:40:42.668,0:40:45.449 có thể không đồng ý với quyết định này. 0:40:45.449,0:40:49.099 Do đó, nếu cậu ấy nảy ra ý tưởng như thế này 0:40:49.099,0:40:52.820 Rằng kiểu đồng ý duy nhất mà chúng ta tin tưởng 0:40:52.820,0:40:55.359 về mặt đạo đức, thì điều đó là ổn 0:40:55.358,0:40:57.268 nếu không, thì 0:40:57.268,0:40:59.788 đó là một loại đồng ý có tính ép buộc 0:40:59.789,0:41:01.469 theo tình thế 0:41:01.469,0:41:05.278 bạn nghĩ thế. 0:41:05.278,0:41:07.349 Có ai nghĩ 0:41:07.349,0:41:10.979 rằng kể cả khi Parker đồng ý 0:41:10.978,0:41:13.419 cũng sẽ không bào chữa được 0:41:13.420,0:41:15.479 their killing him? 0:41:15.478,0:41:18.088 Who thinks that? 0:41:18.088,0:41:19.538 Yes, tell us why, stand up 0:41:19.539,0:41:21.260 I think that Parker 0:41:21.260,0:41:22.319 would be killed 0:41:22.318,0:41:26.558 with the hope that the other crew members would be rescued so 0:41:26.559,0:41:29.250 there's no definite reason that he should be killed 0:41:29.250,0:41:31.199 because you don't know 0:41:31.199,0:41:35.809 when they're going to get rescued so if you kill him you're killing him in vain 0:41:35.809,0:41:38.039 do you keep killing a crew member until you're rescued and then you're left with no one? 0:41:38.039,0:41:40.309 because someone's going to die eventually? 0:41:40.309,0:41:44.199 Well the moral logic of the situation seems to be that. 0:41:44.199,0:41:45.829 That they would 0:41:45.829,0:41:50.318 keep on picking off the weakest maybe, one by one, 0:41:50.318,0:41:51.818 until they were 0:41:51.818,0:41:57.679 rescued and in this case luckily when three at least were still alive. 0:41:57.679,0:41:58.880 Now if 0:41:58.880,0:42:01.298 if Parker did give his consent 0:42:01.298,0:42:04.068 would it be all right do you think or not? 0:42:04.068,0:42:06.329 No, it still wouldn't be right. 0:42:06.329,0:42:08.030 Tell us why wouldn't be all right. 0:42:08.030,0:42:10.028 First of all, cannibalism, I believe 0:42:10.028,0:42:13.228 is morally incorrect 0:42:13.228,0:42:14.509 so you shouldn’t be eating a human anyway. 0:42:14.510,0:42:17.449 So 0:42:17.449,0:42:19.380 cannibalism is morally objectionable outside 0:42:19.380,0:42:22.400 so then even in the scenario 0:42:22.400,0:42:24.568 of waiting until someone died 0:42:24.568,0:42:27.018 still it would be objectionable. 0:42:27.018,0:42:27.929 Yes, to me personally 0:42:27.929,0:42:29.739 I feel like of 0:42:29.739,0:42:31.199 it all depends on 0:42:31.199,0:42:35.288 one's personal morals, like we can't just, like this is just my opinion 0:42:35.289,0:42:39.339 of course other people are going to disagree. 0:42:39.338,0:42:41.498 Well let's see, let's hear what their disagreements are 0:42:41.498,0:42:42.639 and then we'll see 0:42:42.639,0:42:44.259 if they have reasons 0:42:44.259,0:42:46.228 that can persuade you or not. 0:42:46.228,0:42:48.358 Let's try that 0:42:48.358,0:42:50.098 Let's 0:42:50.099,0:42:53.249 now is there someone 0:42:53.248,0:42:57.908 who can explain, those of you who are tempted by consent 0:42:57.909,0:42:59.778 can you explain 0:42:59.778,0:43:02.028 why consent makes 0:43:02.028,0:43:03.358 such a moral difference, 0:43:03.358,0:43:05.650 what about the lottery idea 0:43:05.650,0:43:08.930 does that count as consent. Remember at the beginning 0:43:08.929,0:43:11.308 Dudley proposed a lottery 0:43:11.309,0:43:13.839 suppose that they had agreed 0:43:13.838,0:43:16.338 to a lottery 0:43:16.338,0:43:17.369 then 0:43:17.369,0:43:20.798 how many would then say 0:43:20.798,0:43:23.929 it was all right. Say there was a lottery, 0:43:23.929,0:43:25.380 cabin boy lost, 0:43:25.380,0:43:32.380 and the rest of the story unfolded. How many people would say it's morally permissible? 0:43:33.199,0:43:37.030 So the numbers are rising if we add a lottery, let's hear from one of you 0:43:37.030,0:43:41.609 for whom the lottery would make a moral difference 0:43:41.608,0:43:43.458 why would it? 0:43:43.458,0:43:44.739 I think the essential 0:43:44.739,0:43:45.718 element, 0:43:45.719,0:43:47.858 in my mind that makes it a crime is 0:43:47.858,0:43:53.848 the idea that they decided at some point that their lives were more important than his, and that 0:43:53.849,0:43:56.609 I mean that's kind of the basis for really any crime 0:43:56.608,0:43:57.688 right? It's like 0:43:57.688,0:44:01.949 my needs, my desire is a more important than yours and mine take precedent 0:44:01.949,0:44:04.798 and if they had done a lottery were everyone consented 0:44:04.798,0:44:06.478 that someone should die 0:44:06.478,0:44:09.239 and it's sort of like they're all sacrificing themselves, 0:44:09.239,0:44:11.008 to save the rest, 0:44:11.009,0:44:12.949 Then it would be all right? 0:44:12.949,0:44:15.880 A little grotesque but, 0:44:15.880,0:44:18.959 But morally permissible? Yes. 0:44:18.958,0:44:22.688 what's your name? Matt. 0:44:22.688,0:44:25.578 so, Matt for you 0:44:25.579,0:44:27.329 what bothers you is not 0:44:27.329,0:44:31.389 the cannibalism, but the lack of due process. 0:44:31.389,0:44:34.689 I guess you could say that 0:44:34.688,0:44:38.170 And can someone who agrees with Matt 0:44:38.170,0:44:40.499 say a little bit more 0:44:40.498,0:44:41.378 about why 0:44:41.378,0:44:43.690 a lottery 0:44:43.690,0:44:47.099 would make it, in your view, 0:44:47.099,0:44:50.979 morally permissible. 0:44:50.978,0:44:55.568 The way I understood it originally was that that was the whole issue is that the cabin boy was never 0:44:55.568,0:44:56.398 consulted 0:44:56.398,0:45:00.478 about whether or not it something was going to happen to him even though with the original 0:45:00.478,0:45:01.088 lottery 0:45:01.088,0:45:04.420 whether or not he would be a part of that it was just decided 0:45:04.420,0:45:08.170 that he was the one that was going to die. Yes that's what happened in the actual case 0:45:08.170,0:45:11.900 but if there were a lottery and they all agreed to the procedure 0:45:11.900,0:45:13.539 you think that would be okay? 0:45:13.539,0:45:16.418 Right, because everyone knows that there's gonna be a death 0:45:16.418,0:45:17.079 whereas 0:45:17.079,0:45:18.878 you know the cabin boy didn't know that 0:45:18.878,0:45:21.038 this discussion was even happening 0:45:21.039,0:45:21.919 there was no 0:45:21.918,0:45:23.578 you know forewarning 0:45:23.579,0:45:28.829 for him to know that hey, I may be the one that's dying. Okay, now suppose the everyone agrees 0:45:28.829,0:45:35.089 to the lottery they have the lottery the cabin boy loses any changes his mind. 0:45:35.088,0:45:40.989 You've already decided, it's like a verbal contract, you can't go back on that. You've decided the decision was made 0:45:40.989,0:45:45.139 you know if you know you're dying for the reason for at others to live, 0:45:45.139,0:45:45.999 you would, you know 0:45:45.998,0:45:47.688 if the someone else had died 0:45:47.688,0:45:51.969 you know that you would consume them, so 0:45:51.969,0:45:57.429 But then he could say I know, but I lost. 0:45:57.429,0:46:01.939 I just think that that's the whole moral issue is that there was no consulting of the cabin boy and that that's 0:46:01.938,0:46:04.298 what makes it the most horrible 0:46:04.298,0:46:08.909 is that he had no idea what was even going on, that if he had known what was going on 0:46:08.909,0:46:10.599 it would 0:46:10.599,0:46:13.109 be a bit more understandable. 0:46:13.108,0:46:14.509 Alright, good, now I want to hear 0:46:14.510,0:46:17.049 so there's some who think 0:46:17.048,0:46:18.708 it's morally permissible 0:46:18.708,0:46:24.048 but only about twenty percent, 0:46:24.048,0:46:26.559 led by Marcus, 0:46:26.559,0:46:28.439 then there are some who say 0:46:28.438,0:46:30.208 the real problem here 0:46:30.208,0:46:32.838 is the lack of consent 0:46:32.838,0:46:37.139 whether the lack of consent to a lottery to a fair procedure 0:46:37.139,0:46:38.588 or 0:46:38.588,0:46:39.690 Kathleen's idea, 0:46:39.690,0:46:40.749 lack of consent 0:46:40.748,0:46:42.928 at the moment 0:46:42.929,0:46:45.139 of death 0:46:45.139,0:46:48.318 and if we add consent 0:46:48.318,0:46:49.019 then 0:46:49.019,0:46:51.889 more people are willing to consider 0:46:51.889,0:46:54.528 the sacrifice morally justified. 0:46:54.528,0:46:56.639 I want to hear now finally 0:46:56.639,0:46:58.548 from those of you who think 0:46:58.548,0:47:00.199 even with consent 0:47:00.199,0:47:01.898 even with a lottery 0:47:01.898,0:47:02.519 even with 0:47:02.519,0:47:04.579 a final 0:47:04.579,0:47:06.950 murmur of consent from Parker 0:47:06.949,0:47:08.018 at the 0:47:08.018,0:47:09.179 very last moment 0:47:09.179,0:47:10.838 it would still 0:47:10.838,0:47:12.639 be wrong 0:47:12.639,0:47:14.248 and why would it be wrong 0:47:14.248,0:47:16.998 that's what I want to hear. 0:47:16.998,0:47:18.818 well the whole time 0:47:18.818,0:47:22.639 I've been leaning towards the categorical moral reasoning 0:47:22.639,0:47:25.568 and I think that 0:47:25.568,0:47:29.608 there's a possibility I'd be okay with the idea of the lottery and then loser 0:47:29.608,0:47:31.440 taking into their own hands to 0:47:31.440,0:47:32.749 kill themselves 0:47:32.748,0:47:33.679 0:47:33.679,0:47:37.358 so there wouldn't be an act of murder but I still think that 0:47:37.358,0:47:42.278 even that way it's coerced and also I don't think that there's any remorse like in 0:47:42.278,0:47:43.338 Dudley's diary 0:47:43.338,0:47:44.909 we're getting our breakfast 0:47:44.909,0:47:47.659 it seems as though he's just sort of like, oh, 0:47:47.659,0:47:51.440 you know that whole idea of not valuing someone else's life 0:47:51.440,0:47:53.639 so that makes me 0:47:53.639,0:47:57.969 feel like I have to take the categorical stance. You want to throw the book at him. 0:47:57.969,0:48:02.298 when he lacks remorse or a sense of having done anything wrong. Right. 0:48:02.298,0:48:06.969 Alright, good so are there any other 0:48:06.969,0:48:08.769 defenders who 0:48:08.768,0:48:13.268 who say it's just categorically wrong, with or without consent, yes stand up. Why? 0:48:13.268,0:48:17.288 I think undoubtedly the way our society is shaped, murder is murder 0:48:17.289,0:48:21.829 murder is murder and every way our society looks down at it in the same light 0:48:21.829,0:48:24.780 and I don't think it's any different in any case. Good now let me ask you a question, 0:48:24.780,0:48:27.119 there were three lives at stake 0:48:27.119,0:48:30.489 versus one, 0:48:30.489,0:48:33.028 the one, that the cabin boy, he had no family 0:48:33.028,0:48:34.509 he had no dependents, 0:48:34.509,0:48:38.739 these other three had families back home in England they had dependents 0:48:38.739,0:48:41.418 they had wives and children 0:48:41.418,0:48:43.328 think back to Bentham, 0:48:43.329,0:48:44.989 Bentham says we have to consider 0:48:44.989,0:48:48.048 the welfare, the utility, the happiness 0:48:48.048,0:48:51.288 of everybody. We have to add it all up 0:48:51.289,0:48:54.640 so it's not just numbers three against one 0:48:54.639,0:48:58.759 it's also all of those people at home 0:48:58.759,0:49:00.909 in fact the London newspaper at the time 0:49:00.909,0:49:04.248 and popular opinion sympathized with them 0:49:04.248,0:49:05.478 Dudley in Stephens 0:49:05.478,0:49:07.919 and the paper said if they weren't 0:49:07.920,0:49:08.280 motivated 0:49:08.280,0:49:09.640 by affection 0:49:09.639,0:49:13.489 and concern for their loved ones at home and dependents, surely they wouldn't have 0:49:13.489,0:49:15.969 done this. Yeah, and how is that any different from people 0:49:15.969,0:49:17.369 on the corner 0:49:17.369,0:49:21.108 trying to having the same desire to feed their family, I don't think it's any different. I think in any case 0:49:21.108,0:49:25.279 if I'm murdering you to advance my status, that's murder and I think that we should look at all 0:49:25.280,0:49:28.430 of that in the same light. Instead of criminalizing certain 0:49:28.429,0:49:30.278 activities 0:49:30.278,0:49:33.760 and making certain things seem more violent and savage 0:49:33.760,0:49:36.760 when in that same case it's all the same act and mentality 0:49:36.760,0:49:40.150 that goes into the murder, a necessity to feed their families. 0:49:40.150,0:49:43.028 Suppose there weren't three, supposed there were thirty, 0:49:43.028,0:49:44.608 three hundred, 0:49:44.608,0:49:47.358 one life to save three hundred 0:49:47.358,0:49:48.349 or in more time, 0:49:48.349,0:49:49.589 three thousand 0:49:49.590,0:49:51.039 or suppose the stakes were even bigger. 0:49:51.039,0:49:52.778 Suppose the stakes were even bigger 0:49:52.778,0:49:54.608 I think it's still the same deal. 0:49:54.608,0:49:58.108 Do you think Bentham was wrong to say the right thing to do 0:49:58.108,0:49:58.929 is to add 0:49:58.929,0:50:02.479 up the collected happiness, you think he's wrong about that? 0:50:02.478,0:50:06.728 I don't think he is wrong, but I think murder is murder in any case. Well then Bentham has to be wrong 0:50:06.728,0:50:09.568 if you're right he's wrong. okay then he's wrong. 0:50:09.568,0:50:12.818 Alright thank you, well done. 0:50:12.818,0:50:14.358 Alright, let's step back 0:50:14.358,0:50:16.389 from this discussion 0:50:16.389,0:50:19.728 and notice 0:50:19.728,0:50:23.259 how many objections have we heard to what they did. 0:50:23.259,0:50:26.048 we heard some defenses of what they did 0:50:26.048,0:50:28.509 the defense has had to do with 0:50:28.509,0:50:28.918 necessity 0:50:28.918,0:50:32.588 the dire circumstance and, 0:50:32.588,0:50:33.409 implicitly at least, 0:50:33.409,0:50:36.018 the idea that numbers matter 0:50:36.018,0:50:37.858 and not only numbers matter 0:50:37.858,0:50:40.380 but the wider effects matter 0:50:40.380,0:50:43.459 their families back home, their dependents 0:50:43.458,0:50:44.768 Parker was an orphan, 0:50:44.768,0:50:47.978 no one would miss him. 0:50:47.978,0:50:49.578 so if you 0:50:49.579,0:50:50.829 add up 0:50:50.829,0:50:52.649 if you tried to calculate 0:50:52.648,0:50:53.998 the balance 0:50:53.998,0:50:56.598 of happiness and suffering 0:50:56.599,0:50:58.838 you might have a case for 0:50:58.838,0:51:02.768 saying what they did was the right thing 0:51:02.768,0:51:09.468 then we heard at least three different types of objections, 0:51:09.469,0:51:11.690 we heard an objection that's said 0:51:11.690,0:51:14.108 what they did was categorically wrong, 0:51:14.108,0:51:15.750 right here at the end 0:51:15.750,0:51:17.389 categorically wrong. 0:51:17.389,0:51:19.820 Murder is murder it's always wrong 0:51:19.820,0:51:20.969 even if 0:51:20.969,0:51:23.349 it increases the overall happiness 0:51:23.349,0:51:25.639 of society 0:51:25.639,0:51:28.499 the categorical objection. 0:51:28.498,0:51:30.738 But we still need to investigate 0:51:30.739,0:51:32.749 why murder 0:51:32.748,0:51:35.448 is categorically wrong. 0:51:35.449,0:51:38.579 Is it because 0:51:38.579,0:51:42.339 even cabin boys have certain fundamental rights? 0:51:42.338,0:51:44.400 And if that's the reason 0:51:44.400,0:51:47.880 where do those rights come from if not from some idea 0:51:47.880,0:51:53.209 of the larger welfare or utility or happiness? Question number one. 0:51:53.208,0:51:56.308 Others said 0:51:56.309,0:51:58.449 a lottery would make a difference 0:51:58.449,0:52:00.039 a fair procedure, 0:52:00.039,0:52:05.949 Matt said. 0:52:05.949,0:52:08.769 And some people were swayed by that. 0:52:08.768,0:52:12.188 That's not a categorical objection exactly 0:52:12.188,0:52:13.828 it's saying 0:52:13.829,0:52:16.798 everybody has to be counted as an equal 0:52:16.798,0:52:18.469 even though, at the end of the day 0:52:18.469,0:52:20.769 one can be sacrificed 0:52:20.768,0:52:23.288 for the general welfare. 0:52:23.289,0:52:26.059 That leaves us with another question to investigate, 0:52:26.059,0:52:29.670 Why does agreement to certain procedure, 0:52:29.670,0:52:31.969 even a fair procedure, 0:52:31.969,0:52:34.739 justify whatever result flows 0:52:34.739,0:52:38.088 from the operation of that procedure? 0:52:38.088,0:52:39.898 Question number two. 0:52:39.898,0:52:42.398 and question number three 0:52:42.398,0:52:45.338 the basic idea of consent. 0:52:45.338,0:52:48.528 Kathleen got us on to this. 0:52:48.528,0:52:52.719 If the cabin boy had agreed himself 0:52:52.719,0:52:54.499 and not under duress 0:52:54.498,0:52:57.068 as was added 0:52:57.068,0:53:01.918 then it would be all right to take his life to save the rest. 0:53:01.918,0:53:04.900 Even more people signed on to that idea 0:53:04.900,0:53:06.630 but that raises 0:53:06.630,0:53:08.528 a third philosophical question 0:53:08.528,0:53:11.009 what is the moral work 0:53:11.009,0:53:12.838 that consent 0:53:12.838,0:53:14.438 does? 0:53:14.438,0:53:16.978 Why does an act of consent 0:53:16.978,0:53:19.188 make such a moral difference 0:53:19.188,0:53:23.818 that an act that would be wrong, taking a life, without consent 0:53:23.818,0:53:25.369 is morally 0:53:25.369,0:53:26.358 permissible 0:53:26.358,0:53:29.619 with consent? 0:53:29.619,0:53:31.699 To investigate those three questions 0:53:31.699,0:53:34.108 we're going to have to read some philosophers 0:53:34.108,0:53:35.728 and starting next time 0:53:35.728,0:53:36.939 we're going to read 0:53:36.940,0:53:37.720 Bentham, 0:53:37.719,0:53:43.798 and John Stuart Mill, utilitarian philosophers. 0:53:43.798,0:53:47.298 Don't miss the chance to interact online with other viewers of Justice 0:53:43.798,0:53:47.298 join the conversation, 0:53:49.869,0:53:56.869 take a pop quiz, watch lectures you've missed, and a lot more. Visit www.justiceharvard.org. It's the right thing to do. 0:54:36.219,0:54:40.269 Funding for the program is provided by 0:54:40.268,0:54:41.678 Additional funding provided by