1 00:00:04,200 --> 00:00:08,240 Chương trình được tài trợ bởi: 2 00:00:08,240 --> 00:00:15,240 Tài trợ phụ bởi: 3 00:00:33,509 --> 00:00:37,750 Đây là môn học về Công lý và chúng ta hãy bắt đầu với một câu chuyện … 4 00:00:37,750 --> 00:00:40,179 giả sử bạn là người lái xe điện 5 00:00:40,179 --> 00:00:44,640 và toa xe điện của bạn đang phóng nhanh trên đường ray với vận tốc 60 dặm một giờ 6 00:00:44,640 --> 00:00:49,390 và ở cuối đường ray, bạn nhận thấy có năm công nhân đang làm việc trên đường ray 7 00:00:49,390 --> 00:00:51,799 bạn đã cố gắng dừng lại nhưng không được 8 00:00:51,799 --> 00:00:53,829 thắng không hoạt động 9 00:00:53,829 --> 00:00:56,780 bạn cảm thấy tuyệt vọng vì bạn biết 10 00:00:56,780 --> 00:00:59,590 rằng nếu bạn đâm vào năm công nhân này 11 00:00:59,590 --> 00:01:01,490 tất cả họ sẽ chết 12 00:01:01,490 --> 00:01:05,079 hãy cho là bạn biết chắc chắn điều đó 13 00:01:05,079 --> 00:01:07,420 và vì vậy bạn cảm thấy mình vô dụng 14 00:01:07,420 --> 00:01:09,450 cho đến khi bạn nhận thấy rằng có 15 00:01:09,450 --> 00:01:11,290 một ngã rẽ bên phải 16 00:01:11,290 --> 00:01:12,230 một đường ray phụ 17 00:01:13,170 --> 00:01:15,579 và ở cuối đường ray đó 18 00:01:15,579 --> 00:01:17,390 chỉ có một công nhân 19 00:01:17,390 --> 00:01:19,079 đang làm việc trên đường ray 20 00:01:19,079 --> 00:01:21,368 Bạn đang cầm lái, 21 00:01:21,368 --> 00:01:23,030 vì thế bạn có thể 22 00:01:23,030 --> 00:01:26,010 rẽ xe điện nếu bạn muốn 23 00:01:26,010 --> 00:01:28,840 vào đường ray phụ đó 24 00:01:28,840 --> 00:01:30,399 giết chết một người 25 00:01:30,399 --> 00:01:33,269 nhưng có thể g cứu được năm người kia 26 00:01:33,269 --> 00:01:36,109 Đây là câu hỏi đầu tiên của chúng ta 27 00:01:36,109 --> 00:01:38,819 Điều gì là đúng nên làm? 28 00:01:38,819 --> 00:01:40,478 Bạn sẽ làm gì? 29 00:01:40,478 --> 00:01:42,560 Hãy làm một khảo sát nhỏ, 30 00:01:42,560 --> 00:01:45,180 có bao nhiêu người 31 00:01:45,180 --> 00:01:52,020 sẽ rẽ chiếc xe điện vào đường ray phụ? 32 00:01:52,019 --> 00:01:53,530 Bao nhiêu bạn chọn sẽ không? 33 00:01:53,530 --> 00:01:58,180 Có bao nhiêu người sẽ đi thẳng về phía trước 34 00:01:58,180 --> 00:02:04,050 giơ tay lên, những người sẽ đi thẳng về phía trước. 35 00:02:04,049 --> 00:02:08,378 Một số ít người sẽ, đa số sẽ rẽ hướng 36 00:02:08,378 --> 00:02:09,878 chúng ta hãy nghe số đông này trước 37 00:02:09,878 --> 00:02:14,149 bây giờ chúng ta cần bắt đầu điều tra tại sao bạn nghĩ 38 00:02:14,149 --> 00:02:19,799 đó là điều đúng nên làm. Hãy bắt đầu với những người trong nhóm đa số, những người sẽ rẽ hướng 39 00:02:19,799 --> 00:02:22,058 để đi vào đường ray phụ? 40 00:02:22,058 --> 00:02:23,669 Tại sao bạn làm điều đó, 41 00:02:23,669 --> 00:02:25,808 lý do của bạn là gì? 42 00:02:25,808 --> 00:02:30,188 Ai sẵn sàng xung phong phát biểu một lý do? 43 00:02:30,188 --> 00:02:32,218 Nào, đứng lên. 44 00:02:32,218 --> 00:02:39,218 Bởi vì chúng ta không thể giết chết năm người khi thay vào đó có thể chỉ cần giết chết một người. 45 00:02:39,579 --> 00:02:42,239 sẽ không đúng khi giết năm người 46 00:02:42,239 --> 00:02:47,069 nếu thay vào đó bạn có thể giết một người 47 00:02:47,068 --> 00:02:48,528 đó là một lý do hợp lý 48 00:02:48,528 --> 00:02:52,959 đó là một lý do hợp lý 49 00:02:52,959 --> 00:02:53,778 Xin mời ý kiến khác? 50 00:02:53,778 --> 00:02:56,658 mọi người có đồng ý với 51 00:02:56,658 --> 00:03:01,218 lý do đó không? Mời bạn 52 00:03:01,218 --> 00:03:03,620 Chà, tôi nghĩ đó cũng là lý do tại sao 53 00:03:03,620 --> 00:03:05,459 vào ngày 11/9, chúng ta coi những người [giành lại quyền] lái máy bay, 54 00:03:05,459 --> 00:03:08,009 những người đã rẽ lái máy bay vào 55 00:03:08,008 --> 00:03:09,528 cánh đồng Pennsylvania như những người hùng 56 00:03:09,528 --> 00:03:11,718 vì họ chọn giết những người trên máy bay 57 00:03:11,718 --> 00:03:14,418 chứ không giết nhiều người hơn 58 00:03:14,419 --> 00:03:16,109 trong các tòa nhà lớn. 59 00:03:16,109 --> 00:03:19,260 Vì vậy, nguyên tắc là giống như vào ngày 11/9, 60 00:03:19,259 --> 00:03:21,638 đó là một tình huống bi thảm, 61 00:03:21,639 --> 00:03:25,359 nhưng thà là giết một người để năm người có thể sống, 62 00:03:25,359 --> 00:03:30,748 đó là lý do của hầu hết các bạn, những người sẽ rẽ hướng phải không? 63 00:03:30,748 --> 00:03:32,628 Giờ hãy nghe 64 00:03:32,628 --> 00:03:33,628 từ 65 00:03:33,628 --> 00:03:35,508 những người thuộc nhóm thiểu số 66 00:03:35,508 --> 00:03:40,558 những người sẽ không rẽ hướng. 67 00:03:40,558 --> 00:03:45,709 Vâng, tôi nghĩ rằng tâm lý trên đây cùng loại với các biện minh cho tội ác diệt chủng và chủ nghĩa toàn trị. 68 00:03:45,468 --> 00:03:50,358 Để cứu một chủng tộc bạn sẽ xóa sổ các chủng tộc khác. 69 00:03:50,359 --> 00:03:53,278 vậy bạn sẽ làm gì trong trường hợp này? Bạn sẽ 70 00:03:53,278 --> 00:03:55,378 tránh 71 00:03:55,378 --> 00:03:57,798 nỗi kinh hoàng của nạn diệt chủng? 72 00:03:57,799 --> 00:04:03,989 bạn sẽ lao vào năm người và giết họ? 73 00:04:03,989 --> 00:04:07,628 Có lẽ vậy 74 00:04:07,628 --> 00:04:09,929 Được rồi, còn ai khác không? 75 00:04:09,930 --> 00:04:14,498 Đó là một câu trả lời dũng cảm, cảm ơn bạn. 76 00:04:14,498 --> 00:04:16,079 Hãy xem xét một trường hợp khác 77 00:04:16,978 --> 00:04:20,238 trường hợp xe điện 78 00:04:20,238 --> 00:04:21,688 và xem xem 79 00:04:21,689 --> 00:04:24,189 liệu rằng 80 00:04:24,189 --> 00:04:27,429 đa số các bạn 81 00:04:27,428 --> 00:04:30,989 muốn tuân theo nguyên tắc, 82 00:04:30,990 --> 00:04:33,500 thà một người nên chết để năm người được sống hay không? 83 00:04:33,500 --> 00:04:38,528 Lần này bạn không phải là người điều khiển xe điện, bạn là người chứng kiến 84 00:04:38,528 --> 00:04:42,678 đứng trên cầu nhìn xuống đường ray xe điện 85 00:04:42,678 --> 00:04:45,658 và dưới đường ray đó một chiếc xe điện đang đến 86 00:04:45,658 --> 00:04:49,620 ở cuối đường ray có năm công nhân, 87 00:04:49,620 --> 00:04:51,739 Thắng xe không hoạt động 88 00:04:51,738 --> 00:04:55,948 chiếc xe điện sắp lao vào năm người và giết họ. 89 00:04:55,949 --> 00:04:57,218 Và bây giờ 90 00:04:57,218 --> 00:04:58,788 bạn không phải là người lái xe, 91 00:04:58,788 --> 00:05:01,308 bạn thực sự cảm thấy không làm gì được 92 00:05:01,309 --> 00:05:03,259 được cho đến khi bạn nhận ra 93 00:05:03,259 --> 00:05:06,879 đứng bên cạnh bạn, 94 00:05:06,879 --> 00:05:08,639 dựa vào 95 00:05:08,639 --> 00:05:09,889 cây cầu 96 00:05:09,889 --> 00:05:16,889 là một người đàn ông rất béo. 97 00:05:17,218 --> 00:05:20,178 Và bạn có thể 98 00:05:20,178 --> 00:05:22,668 đẩy anh ta xuống 99 00:05:22,668 --> 00:05:24,728 anh ta sẽ rơi khỏi cầu 100 00:05:24,728 --> 00:05:27,949 xuống đường ray 101 00:05:27,949 --> 00:05:29,538 ngay trên đường ray 102 00:05:29,538 --> 00:05:32,199 xe điện 103 00:05:32,199 --> 00:05:33,419 anh ta sẽ chết 104 00:05:33,418 --> 00:05:38,930 nhưng anh ấy sẽ cứu được năm người kia. 105 00:05:38,930 --> 00:05:41,108 Bây giờ, có bao nhiêu người sẽ đẩy 106 00:05:41,108 --> 00:05:48,089 người đàn ông béo qua cầu? Hãy giơ tay lên. 107 00:05:48,089 --> 00:05:51,198 Bao nhiêu bạn không? 108 00:05:51,199 --> 00:05:54,069 Đa số sẽ không. 109 00:05:54,069 --> 00:05:55,789 Một câu hỏi rất rỏ ràng, 110 00:05:55,788 --> 00:05:56,878 điều gì đã trở thành 111 00:05:56,879 --> 00:06:00,169 nguyên tắc ở đây? 112 00:06:00,168 --> 00:06:05,109 cứu năm mạng sống là tốt hơn dù rằng nó đồng nghĩa với việc phải hy sinh một mạng sống? điều gì đã trở thành nguyên tắc 113 00:06:05,110 --> 00:06:07,490 mà hầu hết mọi người đều tán thành? 114 00:06:07,490 --> 00:06:09,240 Trong trường hợp thứ nhất, 115 00:06:09,240 --> 00:06:12,809 tôi muốn nghe từ một người thuộc nhóm đa số trong cả hai tình huống 116 00:06:12,809 --> 00:06:13,580 Vấn đề là 117 00:06:13,579 --> 00:06:17,758 làm thế nào để bạn giải thích sự khác biệt trong hai tình huống? 118 00:06:17,759 --> 00:06:21,860 Vấn đề thứ hai, tôi nghĩ có liên quan đến lựa chọn tích cực của việc 119 00:06:21,860 --> 00:06:22,509 đẩy một người 120 00:06:22,509 --> 00:06:24,279 và người đó ngã xuống 121 00:06:24,279 --> 00:06:25,198 tôi nghĩ rằng 122 00:06:25,199 --> 00:06:29,830 bản thân người đó sẽ không liên quan gì đến tình huống này cả 123 00:06:29,829 --> 00:06:31,269 và vì vậy 124 00:06:31,269 --> 00:06:33,769 để chọn thay mặt anh ấy, tôi nghĩ là 125 00:06:33,769 --> 00:06:36,769 việc 126 00:06:36,769 --> 00:06:39,990 lôi anh ta vào việc gì đó mà nếu không bị lôi vào thì anh ta có khả năng thoát khỏi nó 127 00:06:39,990 --> 00:06:41,788 tôi nghĩ là tốt hơn 128 00:06:41,788 --> 00:06:43,620 những gì có được trong tình huống đầu tiên 129 00:06:43,620 --> 00:06:45,968 cả ba bên, tài xế và 130 00:06:45,968 --> 00:06:47,668 hai nhóm công nhân đã có trong tình huống đầu tiên 131 00:06:47,668 --> 00:06:50,598 Tôi nghĩ trong tình huống này, 132 00:06:50,598 --> 00:06:55,108 nhưng người đang làm việc, người trên đường ray phía còn lại 133 00:06:55,108 --> 00:07:02,068 anh ấy không lựa chọn hy sinh mạng sống của mình hơn là lựa chọn của anh chàng béo, phải không? 134 00:07:02,069 --> 00:07:05,420 Đó là sự thật, nhưng anh ấy đã ở trên đường ray 135 00:07:05,399 --> 00:07:10,438 Còn anh chàng này ở trên cầu 136 00:07:10,439 --> 00:07:13,550 Tiếp nào, bạn có thể ý kiến thêm nếu bạn muốn. 137 00:07:13,550 --> 00:07:15,329 Được rồi, đó là một câu hỏi khó 138 00:07:15,329 --> 00:07:18,658 nhưng bạn đã làm tốt, bạn đã làm rất tốt, đó là một câu hỏi khó. 139 00:07:19,629 --> 00:07:21,180 ai khác 140 00:07:21,180 --> 00:07:22,598 có thể 141 00:07:22,598 --> 00:07:26,028 tìm cách thuyết phục 142 00:07:26,028 --> 00:07:30,158 phản ứng của đa số trong hai trường hợp này? Vâng? 143 00:07:30,158 --> 00:07:31,550 Tôi nghĩ vậy 144 00:07:31,550 --> 00:07:32,540 trong trường hợp đầu tiên khi mà 145 00:07:32,540 --> 00:07:35,179 bạn có một công nhân và năm công nhân 146 00:07:35,178 --> 00:07:37,429 đó là sự lựa chọn giữa hai nhóm công nhân đó và bạn phải 147 00:07:37,430 --> 00:07:41,218 đưa ra một lựa chọn nhất định, và mọi người sắp chết vì chiếc xe điện 148 00:07:41,218 --> 00:07:45,029 mà không cần đến hành động trực tiếp của bạn. Xe diện đang lao đến, 149 00:07:45,029 --> 00:07:48,209 và bạn cần đưa ra lựa chọn trong tích tắc, 150 00:07:48,209 --> 00:07:52,658 trong khi đẩy người đàn ông béo xuống là một hành động giết người thực sự từ phía bạn 151 00:07:52,658 --> 00:07:54,490 bạn có quyền kiểm soát điều đó 152 00:07:54,490 --> 00:07:57,278 trong khi bạn không thể kiểm soát được xe điện. 153 00:07:57,278 --> 00:08:00,089 Vì vậy, tôi nghĩ rằng đó là một tình huống hơi khác. 154 00:08:00,089 --> 00:08:04,359 Được rồi, ai đáp lại nào? Có ai, ai đáp lại ý kiến đó không? thật tuyệt, ai có cách nào 155 00:08:04,360 --> 00:08:06,319 ai muốn phản hồi lại không? 156 00:08:06,319 --> 00:08:09,490 Đó có phải là cách thoát ra khỏi tình huống này không? 157 00:08:09,490 --> 00:08:12,439 Tôi không nghĩ rằng đó là một lý do rất tốt bởi vì dù bạn chọn 158 00:08:12,439 --> 00:08:16,889 người nào chết đi chăng nữa, vì dù bạn chọn rẽ hướng và giết một người, 159 00:08:16,889 --> 00:08:18,500 đó cũng là một hành động có ý thức 160 00:08:18,500 --> 00:08:19,718 nghĩ đến việc rẽ hướng, 161 00:08:19,718 --> 00:08:21,319 hoặc bạn chọn đẩy ông béo xuống, 162 00:08:21,319 --> 00:08:23,609 đó cũng là một hành động 163 00:08:23,608 --> 00:08:27,688 hành động có ý thức, nên dù bằng cách nào bạn cũng đang đưa ra lựa chọn. 164 00:08:27,689 --> 00:08:29,729 Bạn có muốn đáp lại không? 165 00:08:29,728 --> 00:08:34,189 Vâng, tôi không thực sự chắc chắn đó là cùng một vấn đề, nó vẫn có vẻ hơi khác, hành động thực sự 166 00:08:34,190 --> 00:08:38,230 đẩy ai đó xuống đường ray và giết họ, 167 00:08:38,230 --> 00:08:42,600 bạn thực sự đang tự mình giết anh ta, bạn đang đẩy anh ta bằng chính đôi tay của bạn, bạn đang đẩy và 168 00:08:42,600 --> 00:08:43,710 điều đó khác 169 00:08:43,710 --> 00:08:47,090 hơn là điều khiển thứ gì đó sẽ gây ra cái chết 170 00:08:47,090 --> 00:08:48,670 cho người khác..., bạn biết đấy 171 00:08:48,669 --> 00:08:52,829 nói điều đó bây giờ nghe có vẻ không đúng khi tôi ở đây. 172 00:08:52,830 --> 00:08:54,740 Không đâu, tốt mà, bạn tên gì? 173 00:08:54,740 --> 00:08:55,570 Andrew. 174 00:08:55,740 --> 00:08:59,570 để tôi hỏi bạn câu hỏi này Andrew 175 00:08:59,570 --> 00:09:02,240 giả sử 176 00:09:02,240 --> 00:09:03,680 đứng trên cầu 177 00:09:03,679 --> 00:09:04,809 bên cạnh người đàn ông béo 178 00:09:04,809 --> 00:09:07,849 Tôi không cần phải đẩy anh ta, giả sử anh ta đang đứng 179 00:09:07,850 --> 00:09:14,850 trên một cánh cửa lật mà tôi có thể mở bằng cách xoay như xoay vô lăng vậy 180 00:09:17,450 --> 00:09:18,690 bạn sẽ xoay nó? 181 00:09:18,690 --> 00:09:20,960 Vì lý do nào đó, điều đó sai 182 00:09:20,960 --> 00:09:24,129 càng sai. 183 00:09:24,129 --> 00:09:30,350 Ý tôi là có thể nếu bạn chỉ vô tình tựa vào vô lăng đó hoặc làm một điều tương tự vậy 184 00:09:30,350 --> 00:09:31,060 hoặc 185 00:09:31,059 --> 00:09:33,118 hoặc nói rằng chiếc xe 186 00:09:33,119 --> 00:09:37,850 đang lao về phía công tắc sẽ làm rơi bẫy 187 00:09:37,850 --> 00:09:39,230 thì tôi có thể đồng ý với điều đó. 188 00:09:39,850 --> 00:09:42,230 Thật công bằng, bạn nói nó vẫn có vẻ 189 00:09:42,230 --> 00:09:45,500 sai theo cách mà nó có vẻ không sai trong trường hợp đầu tiên khi rẽ hướng, 190 00:09:45,500 --> 00:09:50,419 Nói cách khác, ý tôi là trong tình huống đầu tiên bạn tham gia trực tiếp vào tình huống, 191 00:09:50,419 --> 00:09:52,449 trong tình huống thứ hai, bạn cũng là người vô cảm. 192 00:09:52,450 --> 00:09:56,920 Vì vậy, bạn có quyền lựa chọn tham gia hay không tham gia bằng cách đẩy người đàn ông béo. 193 00:09:56,919 --> 00:09:59,549 Tạm thời hãy tạm quên vụ việc này đi, 194 00:09:59,549 --> 00:10:01,269 tốt hơn chứ? 195 00:10:01,269 --> 00:10:06,460 nhưng hãy tưởng tượng một trường hợp khác. Lần này bác sĩ của bạn trong phòng cấp cứu 196 00:10:06,460 --> 00:10:11,629 và sáu bệnh nhân đến với bạn 197 00:10:11,629 --> 00:10:18,500 họ đã ở trong một vụ tai nạn xe điện khủng khiếp 198 00:10:18,500 --> 00:10:23,889 năm người trong số họ bị thương nhẹ, một người bị thương nặng. Bạn có thể mất cả ngày 199 00:10:23,889 --> 00:10:27,720 chăm sóc cho một nạn nhân bị thương nặng, 200 00:10:27,720 --> 00:10:32,330 nhưng trong thời gian đó cả năm người còn lại sẽ chết, hoặc bạn có thể chăm sóc năm người đó, phục hồi sức khỏe cho họ, nhưng 201 00:10:32,330 --> 00:10:35,490 trong thời gian đó người bị thương nặng 202 00:10:35,490 --> 00:10:36,470 sẽ chết. 203 00:10:36,470 --> 00:10:37,660 Có bao nhiêu bạn sẽ cứu 204 00:10:37,659 --> 00:10:39,539 Năm người 205 00:10:39,539 --> 00:10:40,849 ngay lập tức, nếu là bác sĩ? 206 00:10:40,850 --> 00:10:44,480 Có bao nhiêu người sẽ cứu một người? 207 00:10:44,480 --> 00:10:46,300 Rất ít người, 208 00:10:46,299 --> 00:10:49,269 chỉ một số ít người. 209 00:10:49,269 --> 00:10:51,439 Cùng một lý do, tôi giả sử, 210 00:10:51,440 --> 00:10:55,570 một mạng sống so với năm. 211 00:10:55,570 --> 00:10:57,230 Bây giờ xem xem 212 00:10:57,230 --> 00:10:59,070 trường hợp một bác sĩ khác, 213 00:10:59,070 --> 00:11:02,080 lần này bạn là bác sĩ phẫu thuật cấy ghép 214 00:11:02,080 --> 00:11:06,160 và bạn có năm bệnh nhân, mỗi bệnh nhân đang rất cần 215 00:11:06,159 --> 00:11:09,639 một ca cấy ghép nội tạng để tồn tại. 216 00:11:09,639 --> 00:11:12,220 Cần một trái tim, một lá phổi 217 00:11:12,220 --> 00:11:13,550 một quả thận, 218 00:11:13,549 --> 00:11:15,089 một quả gan 219 00:11:15,090 --> 00:11:16,680 và thứ năm 220 00:11:16,679 --> 00:11:20,209 là tuyến tụy. 221 00:11:20,210 --> 00:11:22,780 Và bạn không có người hiến tạng, 222 00:11:22,779 --> 00:11:24,909 bạn sắp phải 223 00:11:24,909 --> 00:11:27,649 chứng kiến họ chết 224 00:11:27,649 --> 00:11:28,860 và rồi 225 00:11:28,860 --> 00:11:30,649 bạn chợt nhận ra 226 00:11:30,649 --> 00:11:32,470 rằng ở phòng kế bên 227 00:11:32,470 --> 00:11:35,720 có một anh chàng khỏe mạnh đến để kiểm tra sức khỏe. 228 00:11:39,450 --> 00:11:43,740 và anh ấy… 229 00:11:43,740 --> 00:11:47,159 bạn thích tình huống này?... 230 00:11:47,159 --> 00:11:50,740 và anh ấy đang ngủ trưa 231 00:11:53,269 --> 00:11:56,769 Bạn có thể khẽ đi vào 232 00:11:56,769 --> 00:12:00,600 và moi ngũ tạng của anh ra, người đó sẽ chết 233 00:12:00,600 --> 00:12:03,170 nhưng bạn có thể cứu được năm người. 234 00:12:03,169 --> 00:12:10,169 Bao nhiêu người sẽ làm điều đó? Có ai không? 235 00:12:10,389 --> 00:12:17,389 Bao nhiêu? Giơ tay lên nếu bạn muốn làm điều đó. 236 00:12:18,100 --> 00:12:21,840 Có ai ở ban công không? 237 00:12:21,840 --> 00:12:24,280 Bạn muốn? Cẩn thận đừng nghiêng người quá nhiều 238 00:12:26,269 --> 00:12:29,340 Có bao nhiêu sẽ không? 239 00:12:29,340 --> 00:12:30,360 Được rồi. 240 00:12:30,360 --> 00:12:33,600 Bạn nói gì, nói lớn lên một chút… ở khu vực ban công, bạn … người sẽ 241 00:12:33,600 --> 00:12:35,840 moi nội tạng ra, vì sao? 242 00:12:35,840 --> 00:12:38,629 Tôi thực sự muốn thử thay thế một chút 243 00:12:38,629 --> 00:12:40,188 có thể chỉ lấy nội tạng của một người chết trước 244 00:12:40,188 --> 00:12:44,419 trong năm người cần nội tạng 245 00:12:44,419 --> 00:12:50,229 rồi dùng bốn nội tạng khỏe mạnh của người đó để cứu bốn người kia 246 00:12:50,230 --> 00:12:54,639 Đó là một ý tưởng khá tốt. 247 00:12:54,639 --> 00:12:57,830 Đó là một ý tưởng tuyệt vời 248 00:12:57,830 --> 00:13:00,160 ngoại trừ thực tế 249 00:13:00,159 --> 00:13:06,159 là bạn vừa làm hỏng quan điểm triết học. 250 00:13:06,159 --> 00:13:07,360 Hãy quay trở lại 251 00:13:07,360 --> 00:13:10,240 những câu chuyện và những lập luận đó 252 00:13:10,240 --> 00:13:12,750 để chú ý một vài điều 253 00:13:12,750 --> 00:13:17,809 về cách các cuộc tranh luận đã bắt đầu mở ra. 254 00:13:17,809 --> 00:13:18,649 Một số 255 00:13:18,649 --> 00:13:20,360 nguyên tắc đạo đức 256 00:13:20,360 --> 00:13:23,340 đã bắt đầu xuất hiện 257 00:13:23,340 --> 00:13:25,879 từ các cuộc thảo luận nãy giờ 258 00:13:25,879 --> 00:13:27,570 và hãy xem xét 259 00:13:27,570 --> 00:13:29,740 những nguyên tắc đạo đức đó 260 00:13:29,740 --> 00:13:31,250 có vẻ 261 00:13:31,250 --> 00:13:35,710 nguyên tắc đạo đức xuất hiện đầu tiên từ cuộc thảo luận cho rằng 262 00:13:35,710 --> 00:13:39,110 rằng điều đúng nên làm, điều đạo đức nên làm 263 00:13:39,110 --> 00:13:43,139 phụ thuộc vào hậu quả sẽ đến 264 00:13:43,139 --> 00:13:45,480 từ hành động của bạn, 265 00:13:45,480 --> 00:13:47,080 rốt cuộc thì 266 00:13:47,080 --> 00:13:49,250 để năm người sống sẽ tốt hơn 267 00:13:49,250 --> 00:13:52,320 dù rằng một người phải chết. 268 00:13:52,320 --> 00:13:53,700 Đó là một ví dụ 269 00:13:53,700 --> 00:13:56,280 về hệ quả luận 270 00:13:56,279 --> 00:13:59,459 lý luận đạo đức. 271 00:13:59,460 --> 00:14:04,310 lý luận đạo đức theo hệ quả luận phân định đạo đức theo hậu quả của một hành động. Hay 272 00:14:04,309 --> 00:14:06,549 nói cách khác sẽ là kết quả 273 00:14:06,549 --> 00:14:09,049 của việc bạn làm. 274 00:14:09,049 --> 00:14:12,789 Nhưng sau đó chúng ta đã đi xa hơn một chút, chúng ta đã xem xét những trường hợp khác 275 00:14:12,789 --> 00:14:15,319 và mọi người không chắc lắm 276 00:14:15,320 --> 00:14:17,300 về 277 00:14:17,299 --> 00:14:20,529 lập luận đạo đức theo hệ quả luận 278 00:14:20,529 --> 00:14:22,419 khi người ta lưỡng lự 279 00:14:22,419 --> 00:14:24,269 trong việc đẩy anh béo 280 00:14:24,269 --> 00:14:25,789 xuống cầu 281 00:14:25,789 --> 00:14:28,639 hoặc để moi nội tạng của những 282 00:14:28,639 --> 00:14:29,750 bệnh nhân vô tội … 283 00:14:29,750 --> 00:14:32,259 mọi người có biểu hiện hướng tới 284 00:14:32,259 --> 00:14:34,259 Những lý do 285 00:14:34,259 --> 00:14:35,379 phải làm 286 00:14:35,379 --> 00:14:37,250 với chính giá trị thực chất 287 00:14:37,250 --> 00:14:39,230 của chính 288 00:14:39,230 --> 00:14:40,690 hành động đó 289 00:14:40,690 --> 00:14:42,770 Kết quả là điều họ có thể hướng đến. 290 00:14:42,769 --> 00:14:45,179 Mọi người đã miễn cưỡng 291 00:14:45,179 --> 00:14:47,819 mọi người đã nghĩ điều đó sai… 292 00:14:47,820 --> 00:14:49,480 hoàn toàn sai trái 293 00:14:49,480 --> 00:14:50,500 khi giết 294 00:14:50,500 --> 00:14:51,408 một người … 295 00:14:51,408 --> 00:14:53,509 một người vô tội, 296 00:14:53,509 --> 00:14:54,689 kể cả vì mục đích 297 00:14:54,690 --> 00:14:55,819 để cứu 298 00:14:55,818 --> 00:14:58,500 năm người khác, chí ít những người này đã nghĩ như vậy… 299 00:14:58,500 --> 00:15:00,610 trong cách lựa chọn thứ hai 300 00:15:00,610 --> 00:15:05,120 của mỗi câu chuyện mà chúng ta đã xem xét 301 00:15:05,120 --> 00:15:06,519 vì vậy, quan điểm này đưa đến 302 00:15:06,519 --> 00:15:09,539 cách tư duy 303 00:15:09,539 --> 00:15:10,689 thứ hai 304 00:15:10,690 --> 00:15:12,660 về 305 00:15:12,659 --> 00:15:14,679 đạo đức 306 00:15:14,679 --> 00:15:16,429 tuyệt đối 307 00:15:16,429 --> 00:15:22,429 lý luận đạo đức tuyệt đối phân định giá trị đạo đức theo các yêu cầu đạo đức tuyệt đối nhất định nào đó về 308 00:15:22,429 --> 00:15:24,439 Các nghĩa vụ và quyền hạn tuyệt đối 309 00:15:24,440 --> 00:15:27,440 bất kể hệ quả là gì. 310 00:15:27,440 --> 00:15:29,230 Chúng ta sẽ khám phá 311 00:15:29,230 --> 00:15:33,070 trong những ngày và tuần tới về sự tương phản giữa 312 00:15:33,070 --> 00:15:36,540 Các quan điểm đạo đức tuyệt đối và hệ quả luận. 313 00:15:36,539 --> 00:15:38,370 Ví dụ 314 00:15:38,370 --> 00:15:40,419 có ảnh hưởng nhất 315 00:15:40,419 --> 00:15:45,919 Về lý luận đạo đức theo hệ quả luận là thuyết vị lợi, một học thuyết được đề xướng bởi 316 00:15:45,919 --> 00:15:51,099 Jeremy Bentham, triết gia chính trị người Anh thế kỷ 18. 317 00:15:51,100 --> 00:15:54,139 Triết gia quan trọng nhất 318 00:15:54,139 --> 00:15:56,850 trong lý luận đạo đức tuyệt đối 319 00:15:56,850 --> 00:15:58,170 là triết gia 320 00:15:58,169 --> 00:16:02,589 người Đức thế kỷ thứ mười tám Emmanuel Kant. 321 00:16:02,590 --> 00:16:03,860 Vì vậy, chúng ta sẽ xem xét 322 00:16:03,860 --> 00:16:07,259 hai lý luận đạo đức khác nhau này. 323 00:16:07,259 --> 00:16:08,299 Đánh giá chúng. 324 00:16:08,299 --> 00:16:10,669 Và cũng xem xét những quan điểm khác. 325 00:16:10,669 --> 00:16:16,099 Nếu bạn nhìn vào giáo trình, bạn sẽ thấy rằng chúng tá phải đọc nhiều quyển sách hay và nổi tiếng. 326 00:16:16,100 --> 00:16:18,310 Sách của Aristotle, 327 00:16:18,309 --> 00:16:19,889 của John Locke, 328 00:16:19,889 --> 00:16:22,080 của Emanuel Kant, John Stuart Mill, 329 00:16:22,080 --> 00:16:24,030 và nhiều tác giả khác. 330 00:16:24,029 --> 00:16:28,169 Bạn cũng sẽ nhận thấy từ giáo trình rằng chúng ta không chỉ đọc những cuốn sách này, 331 00:16:28,169 --> 00:16:30,069 Chúng ta còn 332 00:16:30,070 --> 00:16:32,010 phải xem xét 333 00:16:32,009 --> 00:16:37,000 cả các cuộc tranh luận chính trị và pháp lý đương đại mà đã khiến nảy sinh ra những câu hỏi triết học. 334 00:16:37,000 --> 00:16:40,190 Chúng ta sẽ tranh luận về bình đẳng và bất bình đẳng, 335 00:16:40,190 --> 00:16:41,490 Quy định chống phân biệt đối xử, 336 00:16:41,490 --> 00:16:43,698 tự do ngôn luận so với ngôn từ kích động thù địch, 337 00:16:43,698 --> 00:16:47,039 hôn nhân đồng giới, nghĩa vụ quân sự, 338 00:16:47,039 --> 00:16:50,980 một loạt các câu hỏi thực tế, tại sao? 339 00:16:50,980 --> 00:16:55,350 không chỉ làm sinh động những cuốn sách trừu tượng và xa vời này 340 00:16:55,350 --> 00:17:01,040 mà còn làm sáng tỏ những bấp bênh về Triết học 341 00:17:01,039 --> 00:17:03,519 trong cuộc sống hàng ngày, kể cả đời sống chính trị 342 00:17:03,519 --> 00:17:05,639 của chúng ta. 343 00:17:05,640 --> 00:17:07,720 Vì thế, chúng ta đọc những cuốn sách đó 344 00:17:07,720 --> 00:17:09,818 và chúng ta sẽ tranh luận về 345 00:17:09,818 --> 00:17:15,480 những vấn đề này, và chúng ta sẽ xem các vấn đề bổ nghĩa và soi sáng cho nhau như thế nào. 346 00:17:15,480 --> 00:17:17,599 Điều này nghe có vẻ đủ hấp dẫn. 347 00:17:17,599 --> 00:17:19,109 Nhưng ở đây 348 00:17:19,109 --> 00:17:22,549 tôi phải đưa ra một cảnh báo 349 00:17:22,549 --> 00:17:25,210 và cảnh báo đó là 350 00:17:25,210 --> 00:17:28,500 khi đọc những cuốn sách này 351 00:17:28,500 --> 00:17:31,549 theo cách thức như vậy, 352 00:17:31,549 --> 00:17:34,119 như một bài tập để hiểu mình, 353 00:17:34,119 --> 00:17:38,849 đọc chúng theo cách này có vài rủi ro nhất định. 354 00:17:38,849 --> 00:17:42,119 Rủi ro mang tính cá nhân và chính trị, 355 00:17:42,119 --> 00:17:47,799 những rủi ro mà mọi sinh viên ngành triết học chính trị đều biết. 356 00:17:47,799 --> 00:17:50,690 Những rủi ro này xuất phát từ thực tế 357 00:17:50,690 --> 00:17:52,580 rằng triết học 358 00:17:52,579 --> 00:17:54,220 dạy chúng ta 359 00:17:54,220 --> 00:17:56,400 và phá rối chúng ta 360 00:17:56,400 --> 00:18:01,390 bằng cách buộc chúng ta đối diện với những gì chúng ta đã biết. 361 00:18:01,390 --> 00:18:03,390 Thật trớ trêu 362 00:18:03,390 --> 00:18:09,790 là độ khó của khóa học này nằm ở chỗ nó dạy bạn những gì bạn đã biết. 363 00:18:09,789 --> 00:18:12,159 Nó hoạt động bằng cách lấy 364 00:18:12,160 --> 00:18:16,470 những gì chúng ta biết trong những ngữ cảnh quen thuộc và không có nghi ngờ gì, 365 00:18:16,470 --> 00:18:20,370 và làm cho nó trở nên xa lạ. 366 00:18:20,369 --> 00:18:22,389 Đó chính xác là cách các ví dụ 367 00:18:22,390 --> 00:18:23,120 đã hoạt động 368 00:18:23,119 --> 00:18:29,029 Các giả thuyết mà chúng ta bắt đầu pha trộn giữa sự vui tươi và đúng mực của chúng. 369 00:18:29,029 --> 00:18:33,940 đó cũng là cách những cuốn sách triết học hoạt động. Triết học 370 00:18:33,940 --> 00:18:35,640 làm chúng ta xa rời 371 00:18:35,640 --> 00:18:37,520 khỏi những thứ quen thuộc 372 00:18:37,519 --> 00:18:40,389 không phải bằng cách thêm vào các thông tin mới 373 00:18:40,390 --> 00:18:41,780 mà bằng cách lôi cuốn 374 00:18:41,779 --> 00:18:43,599 và khơi gợi 375 00:18:43,599 --> 00:18:47,419 một cách nhìn mới 376 00:18:47,420 --> 00:18:49,970 nhưng, ở đây cũng có chút rủi ro, 377 00:18:49,970 --> 00:18:50,720 một khi 378 00:18:50,720 --> 00:18:54,299 điều quen thuộc trở nên xa lạ, 379 00:18:54,299 --> 00:18:58,259 nó sẽ không bao giờ hoàn toàn như trước được nữa. 380 00:18:58,259 --> 00:19:00,210 Tự hiểu mình 381 00:19:00,210 --> 00:19:03,200 giống như đánh mất đi sự ngây thơ, 382 00:19:03,200 --> 00:19:04,720 tuy có xáo trộn, 383 00:19:04,720 --> 00:19:06,029 bạn sẽ thấy rằng 384 00:19:06,029 --> 00:19:07,289 nó không bao giờ 385 00:19:07,289 --> 00:19:09,720 trở nên không suy nghĩ 386 00:19:09,720 --> 00:19:13,390 hoặc không biết 387 00:19:13,390 --> 00:19:17,259 điều khiến cho sự nghiệp này trở nên khó khăn 388 00:19:17,259 --> 00:19:19,970 nhưng cũng hấp dẫn, 389 00:19:19,970 --> 00:19:20,880 Là ở chỗ 390 00:19:20,880 --> 00:19:25,400 triết học đạo đức và triết lý chính trị là một câu chuyện 391 00:19:25,400 --> 00:19:29,340 và bạn không biết nó sẽ dẫn đến đâu nhưng điều bạn biết chắc 392 00:19:29,339 --> 00:19:31,319 rằng câu chuyện đó 393 00:19:31,319 --> 00:19:34,480 là về bạn. 394 00:19:34,480 --> 00:19:37,079 Đó là những rủi ro cá nhân, 395 00:19:37,079 --> 00:19:40,220 Bây giờ những rủi ro chính trị. 396 00:19:40,220 --> 00:19:43,038 Như một lời giới thiệu, môn học kiểu này 397 00:19:43,038 --> 00:19:44,730 Là để khuyến khích bạn rằng, 398 00:19:44,730 --> 00:19:46,460 bằng cách đọc những cuốn sách đó 399 00:19:46,460 --> 00:19:48,069 và tranh luận về những vấn đề này 400 00:19:48,069 --> 00:19:51,769 bạn sẽ trở thành một công dân tốt, có trách nhiệm hơn. 401 00:19:51,769 --> 00:19:56,450 Bạn sẽ kiểm tra các tiền giả định của chính sách công, bạn sẽ mài dũa các 402 00:19:56,450 --> 00:19:57,289 phán xét chính trị của mình 403 00:19:57,289 --> 00:20:02,819 bạn sẽ trở thành một người tham gia hiệu quả hơn vào các vấn đề công cộng 404 00:20:02,819 --> 00:20:06,869 nhưng đó sẽ là một triển vọng phiến diện và dễ gây nhầm lẫn. 405 00:20:06,869 --> 00:20:11,489 Triết học chính trị đã phần không hoạt động theo cách đó. 406 00:20:11,490 --> 00:20:14,660 Bạn phải chấp nhận khả năng 407 00:20:14,660 --> 00:20:19,100 rằng triết lý chính trị có thể khiến bạn trở thành một công dân tồi 408 00:20:19,099 --> 00:20:21,969 hơn là một công dân tốt 409 00:20:21,970 --> 00:20:23,809 hoặc ít nhất là một công dân tồi hơn so với 410 00:20:23,809 --> 00:20:25,629 trước khi nó giúp bạn 411 00:20:25,630 --> 00:20:27,950 Trở thành một công dân tốt hơn. 412 00:20:27,950 --> 00:20:30,400 Và bởi vì triết học 413 00:20:30,400 --> 00:20:32,620 là một điều gì đó xa xôi 414 00:20:32,619 --> 00:20:34,709 thậm chí là 415 00:20:34,710 --> 00:20:36,600 một hoạt động gây suy nhược. 416 00:20:36,599 --> 00:20:37,759 Và bạn nhận thấy điều này 417 00:20:37,759 --> 00:20:39,890 quay trở lại thời Socrates, 418 00:20:39,890 --> 00:20:42,290 có một cuộc đối thoại, những người nhóm Gorgias 419 00:20:42,289 --> 00:20:44,680 trong đó có một người là bạn của Socrates 420 00:20:44,680 --> 00:20:45,620 Calicles 421 00:20:45,619 --> 00:20:47,239 Cố gắng thuyết phục ông ngừng 422 00:20:47,240 --> 00:20:49,970 suy nghĩ triết học. 423 00:20:49,970 --> 00:20:54,400 calicles nói với Socrates triết học là một món đồ chơi đẹp đẽ 424 00:20:54,400 --> 00:20:57,980 nếu người ta thưởng thức nó một cách điều độ vào đúng thời điểm của cuộc đời 425 00:20:57,980 --> 00:21:03,779 nhưng nếu ai theo đuổi nó lâu hơn mức cần thiết thì người đó sẽ bị hủy hoại tuyệt đối. 426 00:21:03,779 --> 00:21:06,819 Calicles nói hãy nghe lời tôi khuyên 427 00:21:06,819 --> 00:21:08,369 đừng suy biện nữa, 428 00:21:08,369 --> 00:21:11,669 hãy tìm hiểu sự viên mãn của cuộc sống tích cực, 429 00:21:11,670 --> 00:21:16,880 hãy lựa chọn khuôn mẫu, đừng chọn những người dành thời gian cả đời lý sự cho những điều vụn vặt này, 430 00:21:16,880 --> 00:21:20,080 Mà hãy chọn những người có sinh kế tốt, có thanh danh 431 00:21:20,079 --> 00:21:22,319 và nhiều may mắn khác. 432 00:21:22,319 --> 00:21:26,808 Vì thế Calicles thực sự đang nói với Socrates 433 00:21:26,808 --> 00:21:28,690 hãy ngừng suy nghĩ triết học đi, 434 00:21:28,690 --> 00:21:30,549 Hãy thực tế, 435 00:21:30,549 --> 00:21:35,169 đến trường học kinh doanh 436 00:21:35,170 --> 00:21:38,300 và Calicles đã có một quan điểm, 437 00:21:38,299 --> 00:21:39,690 anh ấy có một điểm rằng 438 00:21:39,690 --> 00:21:42,210 bởi vì triết học tách rời chúng ta 439 00:21:42,210 --> 00:21:45,009 Khỏi những quy ước thông tường, 440 00:21:45,009 --> 00:21:46,750 khỏi những giả định quen thuộc và khỏi những niềm tin định sẵn. 441 00:21:46,750 --> 00:21:48,650 Đó là những rủi ro, 442 00:21:48,650 --> 00:21:49,970 Mang tính cá nhân và chính trị. 443 00:21:49,970 --> 00:21:54,089 Và khi đối mặt với những rủi ro này, có một sự thoái thác mang tính đặc trưng, 444 00:21:54,089 --> 00:21:57,470 tên của sự thoái thác này là chủ nghĩa hoài nghi. 445 00:21:57,470 --> 00:21:58,990 Nó diễn ra như thế này, 446 00:21:58,990 --> 00:22:03,660 chúng ta đã không giải quyết, một lần và mãi mãi, 447 00:22:03,660 --> 00:22:09,759 hoặc các tình huống hoặc các nguyên tắc mà chúng ta đã tranh luận khi bắt đầu 448 00:22:09,759 --> 00:22:11,390 và nếu cả Aristotle 449 00:22:11,390 --> 00:22:17,220 và Locke và Kant và Mill vẫn chưa giải quyết được những câu hỏi như vậy sau ngần ấy năm 450 00:22:17,220 --> 00:22:19,589 chúng ta là ai mà nghĩ 451 00:22:19,589 --> 00:22:23,730 rằng chúng ta ở đây trong Giảng đường Sanders này, trong khóa học một học kỳ 452 00:22:23,730 --> 00:22:26,430 Lại có thể giải quyết được. 453 00:22:26,430 --> 00:22:29,460 Và do vậy có thể chỉ là vấn đề 454 00:22:29,460 --> 00:22:33,519 mỗi người có những nguyên tắc riêng của mình và chẳng có gì để nói về 455 00:22:33,519 --> 00:22:34,170 điều đó nữa, 456 00:22:34,170 --> 00:22:36,590 không có cách nào lý luận 457 00:22:36,589 --> 00:22:37,649 đó là 458 00:22:37,650 --> 00:22:39,440 sự thoái thác. Việc thoái thác mang tên chủ nghĩa hoài nghi. 459 00:22:39,440 --> 00:22:41,279 Đối với lý luận này tôi có thể phản hồi 460 00:22:41,279 --> 00:22:42,660 như sau: 461 00:22:42,660 --> 00:22:43,720 đúng là 462 00:22:43,720 --> 00:22:47,559 những câu hỏi này đã được tranh luận trong một thời gian cực kỳ dài, 463 00:22:47,559 --> 00:22:49,059 nhưng rõ ràng 464 00:22:49,059 --> 00:22:52,700 Chũng đã tái diễn và tồn tại dai dẳng. 465 00:22:52,700 --> 00:22:54,650 Có thể gợi ý 466 00:22:54,650 --> 00:22:57,169 rằng mặc dù chúng không thể theo một ý nghĩa nào đó nhưng 467 00:22:57,169 --> 00:22:59,800 chúng không thể tránh khỏi theo một nghĩa khác 468 00:22:59,799 --> 00:23:02,299 và lý do chúng không thể tránh khỏi, 469 00:23:02,299 --> 00:23:06,500 lý do chúng không thể tránh được là chúng ta phải trả lời một số 470 00:23:06,500 --> 00:23:10,069 câu hỏi này trong cuộc sống hàng ngày. 471 00:23:10,069 --> 00:23:16,129 Cho nên, chủ nghĩa hoài nghi, chỉ biết bó tay chịu thua suy ngẫm về đạo đức, 472 00:23:16,130 --> 00:23:18,280 không phải là giải pháp. 473 00:23:18,279 --> 00:23:19,990 Emanuel Kant 474 00:23:19,990 --> 00:23:23,710 Emanuel Kant đã mô tả rất hay vấn đề của chủ nghĩa hoài nghi khi ông viết 475 00:23:23,710 --> 00:23:26,308 chủ nghĩa hoài nghi là nơi nghỉ ngơi cho lý trí con người, 476 00:23:26,308 --> 00:23:29,099 nơi có thể mang đến các suy ngẫm mơ hồ, có tính giáo điều. 477 00:23:29,099 --> 00:23:33,069 nhưng nó không phải là nơi ở để định cư lâu dài. 478 00:23:33,069 --> 00:23:35,939 Kant viết "đơn giản bằng lòng với chủ nghĩa hoài nghi, 479 00:23:35,940 --> 00:23:42,660 không bao giờ có thể đủ khả năng để vượt qua tính hiếu động của lý trí." 480 00:23:42,660 --> 00:23:47,040 Tôi đã cố gắng gợi ý qua những câu chuyện và lập luận này 481 00:23:47,039 --> 00:23:49,898 một số ý nghĩa về những rủi ro và cám dỗ 482 00:23:49,898 --> 00:23:55,589 về những khía cạnh nguy hiểm và những khả năng mà tôi chỉ kết luận bằng một cách nói đơn giản 483 00:23:55,589 --> 00:23:58,099 rằng mục đích của khóa học này l 484 00:23:58,099 --> 00:23:59,629 à đánh thức 485 00:23:59,630 --> 00:24:02,240 sự hiếu động của lý trí 486 00:24:02,240 --> 00:24:04,380 và để xem nó có thể dẫn đến đâu. 487 00:24:04,380 --> 00:24:11,380 cảm ơn các bạn rất nhiều. 488 00:24:15,440 --> 00:24:16,980 Giống như, trong một tình huống tuyệt vọng, 489 00:24:16,980 --> 00:24:21,259 bạn phải làm điều phải làm để sống sót. Bạn có làm việc bạn phải làm không? Bạn có làm không? 490 00:24:21,259 --> 00:24:22,779 Bạn sẽ làm gì? 491 00:24:22,779 --> 00:24:23,619 khá nhiều. 492 00:24:23,619 --> 00:24:25,699 Nếu bạn phải trải qua 19 ngày mà không có thức ăn, 493 00:24:25,700 --> 00:24:32,700 ai đó phải hy sinh, ai đó phải bị ăn thịt và những người khác có thể sống sót. Được, vậy tốt đấy, bạn tên gì? Marcus. 494 00:24:33,569 --> 00:24:40,349 Marcus, bạn nói gì với Marcus? 495 00:24:40,349 --> 00:24:44,569 Lần trước, 496 00:24:44,569 --> 00:24:46,960 chúng ta bắt đầu lần trước 497 00:24:46,960 --> 00:24:48,980 Bằng một vài câu chuyện 498 00:24:48,980 --> 00:24:51,019 với một số tình huống lưỡng nan về đạo đức, 499 00:24:51,019 --> 00:24:53,049 về xe điện 500 00:24:53,049 --> 00:24:54,509 và về các bác sĩ 501 00:24:54,509 --> 00:24:56,269 với bệnh nhân khỏe mạnh 502 00:24:56,269 --> 00:24:57,559 dễ tổn thương, 503 00:24:57,559 --> 00:25:00,909 có thể trở thành nạn nhân của việc cấy ghép nội tạng 504 00:25:00,910 --> 00:25:04,090 Chúng ta biết hai điều. 505 00:25:04,089 --> 00:25:06,889 Về các lập luận mà chúng ta có 506 00:25:06,890 --> 00:25:10,830 Ai đó có thể làm theo cách chúng ta tranh luận, 507 00:25:10,829 --> 00:25:13,569 nó bắt đầu bằng những phán xét của chúng ta trong những trường hợp cụ thể 508 00:25:13,569 --> 00:25:18,470 chúng ta đã cố gắng kết nối những lý luận hoặc nguyên tắc 509 00:25:18,470 --> 00:25:22,549 nằm sau những phán xét của chúng ta 510 00:25:22,549 --> 00:25:25,399 và sau đó đối mặt với một tình huống mới, 511 00:25:25,400 --> 00:25:30,759 chúng ta tự thấy mình phải xét lại những nguyên tắc đó 512 00:25:30,759 --> 00:25:34,019 sửa lại nó trên tinh thần của những nguyên tắc khác. 513 00:25:34,019 --> 00:25:38,920 Và chúng ta thấy áp lực nội tại để cố gắng căn chỉnh sự liên kết 514 00:25:38,920 --> 00:25:41,680 Các phán xét của chúng ta trong các tình huống cụ thể 515 00:25:41,680 --> 00:25:43,940 và các nguyên tắc mà chúng ta tán thành 516 00:25:43,940 --> 00:25:46,360 Trong việc phản ánh, 517 00:25:46,359 --> 00:25:50,589 chúng ta cũng ghi nhận điều gì là cốt lõi của những lập luận 518 00:25:50,589 --> 00:25:55,250 Xuất hiện từ cuộc thảo luận này. 519 00:25:55,250 --> 00:26:00,859 Chúng ta nhận thấy rằng đôi khi chúng ta bị cám dỗ để xác định giá trị đạo đức của một hành động 520 00:26:00,859 --> 00:26:06,519 dựa trên hệ quả. Hay nói cách khác là dựa trên kết quả mà hành động đó mang lại. 521 00:26:06,519 --> 00:26:09,019 Chúng ta gọi là lý luận đạo đức 522 00:26:09,019 --> 00:26:11,690 theo hệ quả luận. 523 00:26:11,690 --> 00:26:13,240 Nhưng chúng ta cũng nhận thấy rằng 524 00:26:13,240 --> 00:26:16,440 trong một số trường hợp, 525 00:26:16,440 --> 00:26:18,610 chúng ta không chỉ bị ảnh hưởng 526 00:26:18,609 --> 00:26:22,089 bởi kết quả. 527 00:26:22,089 --> 00:26:23,399 Đôi khi, 528 00:26:23,400 --> 00:26:25,350 nhiều người trong chúng ta cảm thấy, 529 00:26:25,349 --> 00:26:31,669 rằng không chỉ hệ quả mà phẩm chất hoặc đặc tính đặc thù của hành động 530 00:26:31,670 --> 00:26:35,370 Có ý nghĩa về mặt đạo đức 531 00:26:35,369 --> 00:26:40,979 Một vài người lập luận rằng có một số điều hoàn toàn sai 532 00:26:40,980 --> 00:26:42,579 ngay cả khi họ mang lại 533 00:26:42,579 --> 00:26:44,460 một kết quả tốt. 534 00:26:44,460 --> 00:26:45,490 Ngay cả khi 535 00:26:45,490 --> 00:26:47,200 họ cứu được năm người 536 00:26:47,200 --> 00:26:49,788 đổi bằng một mạng người. 537 00:26:49,788 --> 00:26:52,730 Vì vậy, chúng ta đã đối chiếu lý luận đạo đức 538 00:26:52,730 --> 00:26:54,569 theo hệ quả luận 539 00:26:54,569 --> 00:26:58,139 với lý luận đạo đức tuyệt đối. 540 00:26:58,140 --> 00:26:59,790 Hôm nay 541 00:26:59,789 --> 00:27:00,819 và trong vài ngày tới 542 00:27:00,819 --> 00:27:06,569 chúng ta sẽ bắt đầu xem xét một trong những phiên bản có ảnh hưởng nhất 543 00:27:06,569 --> 00:27:08,839 Trong các phiên bản của 544 00:27:08,839 --> 00:27:10,970 lý thuyết đạo đức theo hệ quả luận 545 00:27:10,970 --> 00:27:16,329 và đó là Triết học Thuyết vị lợi. 546 00:27:16,329 --> 00:27:17,429 Jeremy Bentham, 547 00:27:17,430 --> 00:27:19,080 triết gia chính trị người Anh 548 00:27:19,079 --> 00:27:21,689 thế kỷ 18 549 00:27:21,690 --> 00:27:22,910 Là người đầu tiên 550 00:27:22,910 --> 00:27:26,630 diễn đạt rõ ràng một cách có hệ thống 551 00:27:26,630 --> 00:27:28,670 các lý luận đạo đức 552 00:27:28,670 --> 00:27:32,210 của Thuyết vị lợi 553 00:27:32,210 --> 00:27:36,400 Và ý tưởng của Bentham, 554 00:27:36,400 --> 00:27:38,440 ý tưởng cơ bản của ông ấy 555 00:27:38,440 --> 00:27:42,930 là một ý tưởng cực kỳ đơn giản 556 00:27:42,930 --> 00:27:44,808 với rất nhiều 557 00:27:44,808 --> 00:27:46,329 sự hấp dẫn trực quan 558 00:27:46,329 --> 00:27:48,429 về mặt đạo đức. 559 00:27:48,430 --> 00:27:50,450 Ý tưởng của Bentham 560 00:27:50,450 --> 00:27:51,590 là 561 00:27:51,589 --> 00:27:54,439 Điều đúng nên làm, 562 00:27:54,440 --> 00:27:57,799 điều duy nhất cần phải làm 563 00:27:57,799 --> 00:27:58,819 là 564 00:27:58,819 --> 00:28:01,369 tối đa hóa 565 00:28:01,369 --> 00:28:02,339 tính có ích. 566 00:28:02,339 --> 00:28:06,329 Với ông, tính có ích nghĩa là gì? 567 00:28:06,329 --> 00:28:11,490 Ông hàm ý tính có ích là sự cân bằng 568 00:28:11,490 --> 00:28:14,000 của niềm vui so với nỗi đau, 569 00:28:14,000 --> 00:28:16,778 hạnh phúc so với đau khổ. 570 00:28:16,778 --> 00:28:18,210 Đây là cách chúng ta 571 00:28:18,210 --> 00:28:19,259 đạt được nguyên tắc 572 00:28:19,259 --> 00:28:22,308 tối đa hóa tính có ích. 573 00:28:22,308 --> 00:28:24,450 Ông ấy bắt đầu bằng việc quan sát 574 00:28:24,450 --> 00:28:26,399 rằng 575 00:28:26,398 --> 00:28:27,750 tất cả nhân loại 576 00:28:27,750 --> 00:28:31,490 Đều bị cai trị bởi hai chủ tể tối cao, 577 00:28:31,490 --> 00:28:34,620 là đau đớn và khoái lạc. 578 00:28:34,619 --> 00:28:37,479 Con người chúng ta 579 00:28:37,480 --> 00:28:42,308 thích khoái lạc và ghét đau khổ 580 00:28:42,308 --> 00:28:45,839 và do vậy chúng ta nên đặt giá trị đạo đức, 581 00:28:45,839 --> 00:28:49,169 dù rằng chúng ta đang nghĩ về những việc mình cần làm trong cuộc đời 582 00:28:49,170 --> 00:28:50,490 hay 583 00:28:50,490 --> 00:28:52,579 với tư cách là nhà lập pháp hay công dân, 584 00:28:52,579 --> 00:28:57,029 chúng ta đang suy nghĩ pháp luật nên như thế nào, 585 00:28:57,029 --> 00:29:02,069 điều đúng mà cá nhân hoặc tập thể nên làm 586 00:29:02,069 --> 00:29:05,838 là tối đa hóa, hành động theo cách làm tối đa hóa 587 00:29:05,838 --> 00:29:07,659 ở mức độ tổng thể 588 00:29:07,660 --> 00:29:11,519 của hạnh phúc. 589 00:29:11,519 --> 00:29:15,430 Thuyết vị lợi của Bentham đôi khi có thể được tóm tắt bằng khẩu hiệu 590 00:29:15,430 --> 00:29:18,870 “Lợi ích lớn nhất cho nhiều người nhất”. 591 00:29:18,869 --> 00:29:20,398 Với 592 00:29:20,398 --> 00:29:22,989 nguyên tắc cơ bản của tính có lợi trong tay, 593 00:29:22,990 --> 00:29:26,410 hãy bắt đầu kiểm tra và kiểm định nó 594 00:29:26,410 --> 00:29:28,409 bằng cách chuyển sang một tình huống khác 595 00:29:28,409 --> 00:29:30,620 một câu chuyện khác nhưng lần này 596 00:29:30,619 --> 00:29:32,639 không phải là một câu chuyện giả định, 597 00:29:32,640 --> 00:29:34,120 một câu chuyện có thật 598 00:29:34,119 --> 00:29:35,059 Vụ 599 00:29:35,059 --> 00:29:38,329 Nữ hoàng kiện Dudley và Stephens. 600 00:29:38,329 --> 00:29:41,889 Đây là một vụ kiện nổi tiếng 601 00:29:41,890 --> 00:29:44,009 ở Anh vào thế kỷ XIX 602 00:29:44,009 --> 00:29:47,538 Và được tranh luận nhiều trong các trường luật. 603 00:29:47,538 --> 00:29:50,059 Đây là những gì đã xảy ra trong vụ kiện… 604 00:29:50,059 --> 00:29:51,869 tôi sẽ tóm tắt câu chuyện 605 00:29:51,869 --> 00:29:54,909 và sau đó tôi muốn nghe 606 00:29:54,910 --> 00:29:57,640 bạn sẽ phán quyết ra sao 607 00:29:57,640 --> 00:30:04,350 khi tưởng tượng rằng bạn là bồi thẩm đoàn. 608 00:30:04,349 --> 00:30:06,178 Một tờ báo thời đó 609 00:30:06,179 --> 00:30:09,290 đã mô tả bối cảnh: 610 00:30:09,289 --> 00:30:11,460 Một câu chuyện buồn nhất về thảm họa trên biển 611 00:30:11,460 --> 00:30:12,789 Chuyện về 612 00:30:12,789 --> 00:30:15,288 những người sống sót trên tàu 613 00:30:15,288 --> 00:30:16,240 Mignonette. 614 00:30:16,240 --> 00:30:19,109 Con tàu bị chìm ở phía Nam Đại Tây Dương 615 00:30:19,109 --> 00:30:21,789 Cách mũi đất 130 dặm, 616 00:30:21,789 --> 00:30:24,000 có bốn người trong thủy thủ đoàn, 617 00:30:24,000 --> 00:30:26,500 Dudley là thuyền trưởng 618 00:30:26,500 --> 00:30:28,400 Stephens là thuyền phó thứ nhất, 619 00:30:28,400 --> 00:30:30,220 Brooks là một thủy thủ, 620 00:30:30,220 --> 00:30:31,279 tất cả đều là 621 00:30:31,279 --> 00:30:32,490 những người đàn ông xuất sắc, 622 00:30:32,490 --> 00:30:34,249 hoặc chí ít các tờ báo 623 00:30:34,249 --> 00:30:35,819 nói thế. 624 00:30:35,819 --> 00:30:38,639 Thành viên phi hành đoàn thứ tư là cậu bé làm trong cabin, 625 00:30:38,640 --> 00:30:40,300 Richard Parker 626 00:30:40,299 --> 00:30:42,849 mười bảy tuổi. 627 00:30:42,849 --> 00:30:44,629 Cậu là một đứa trẻ mồ côi 628 00:30:44,630 --> 00:30:46,930 không có gia đình 629 00:30:46,930 --> 00:30:51,410 và đây là hành trình dài đầu tiên của cậu. 630 00:30:51,410 --> 00:30:53,700 Tờ báo nói rằng cậu ấy đã đi 631 00:30:53,700 --> 00:30:56,730 mặc kệ lời khuyên không nên từ bạn bè của cậu. 632 00:30:56,730 --> 00:31:00,210 Cậu đi trong niềm hy vọng hoài bão của tuổi trẻ, 633 00:31:00,210 --> 00:31:03,390 nghĩ rằng cuộc hành trình sẽ biến mình trở thành con người đích thực. 634 00:31:03,390 --> 00:31:05,140 Đáng tiếc là không phải như vậy, 635 00:31:05,140 --> 00:31:07,780 tình tiết vụ án không cần bàn cãi, 636 00:31:07,779 --> 00:31:08,970 một con sóng đánh vào con tàu 637 00:31:08,970 --> 00:31:12,000 và Mignonette bị chìm. 638 00:31:12,000 --> 00:31:14,859 Bốn thành viên phi hành đoàn đã thoát ra một xuồng cứu sinh 639 00:31:14,859 --> 00:31:16,199 thức ăn duy nhất 640 00:31:16,200 --> 00:31:18,380 họ có là 641 00:31:18,380 --> 00:31:19,659 hai hộp 642 00:31:19,659 --> 00:31:20,990 củ cải ướp 643 00:31:20,990 --> 00:31:21,779 bảo quản 644 00:31:21,779 --> 00:31:23,980 không có nước sạch, 645 00:31:23,980 --> 00:31:26,610 trong ba ngày đầu tiên họ không ăn gì cả 646 00:31:26,609 --> 00:31:30,459 vào ngày thứ tư, họ khui một hộp củ cải 647 00:31:30,460 --> 00:31:31,590 và ăn nó. 648 00:31:31,589 --> 00:31:34,449 Ngày hôm sau họ bắt được một con rùa 649 00:31:34,450 --> 00:31:36,960 cùng với hộp củ cải khác, 650 00:31:36,960 --> 00:31:38,549 con rùa 651 00:31:38,549 --> 00:31:40,058 đã giúp họ tồn tại 652 00:31:40,058 --> 00:31:43,069 trong vài ngày tiếp theo và sau đó và tám ngày sau nữa 653 00:31:43,069 --> 00:31:44,038 họ không có gì cả, 654 00:31:44,038 --> 00:31:47,069 không thức ăn, không nước uống. 655 00:31:47,069 --> 00:31:50,069 Hãy đặt mình vào tình huống như vậy, 656 00:31:50,069 --> 00:31:52,849 bạn sẽ làm gì? 657 00:31:52,849 --> 00:31:55,119 Đây là những gì họ đã làm 658 00:31:55,119 --> 00:32:00,969 lúc đó, cậu nhóc cabin Parker đang nằm trong góc dưới của xuồng cứu sinh 659 00:32:00,970 --> 00:32:03,230 vì cậu bé đã uống nước biển 660 00:32:03,230 --> 00:32:05,490 mà không nghe theo lời khuyên của những người khác 661 00:32:05,490 --> 00:32:07,230 nên cậu đã bị ốm 662 00:32:07,230 --> 00:32:10,669 và cậu dường như suy kiệt, 663 00:32:10,669 --> 00:32:14,619 nên vào ngày thứ mười chín Dudley, thuyền trưởng, đề nghị 664 00:32:14,618 --> 00:32:17,349 rằng tất cả họ nên 665 00:32:17,349 --> 00:32:18,759 rút thăm. Rằng tất cả họ nên 666 00:32:18,759 --> 00:32:19,619 rút thăm để xem 667 00:32:19,619 --> 00:32:20,859 người nào sẽ chết 668 00:32:20,859 --> 00:32:24,079 để cứu những người còn lại. 669 00:32:24,079 --> 00:32:25,210 Brooks 670 00:32:25,210 --> 00:32:26,539 đã từ chối, 671 00:32:26,539 --> 00:32:29,139 ông không thích ý tưởng rút thăm 672 00:32:29,140 --> 00:32:30,619 chúng ta không biết liệu điều này 673 00:32:30,618 --> 00:32:35,999 là vì ông ta không muốn nắm lấy cơ hội đó hay vì ông tin vào 674 00:32:35,999 --> 00:32:36,870 nguyên tắc đạo đức tuyệt đối 675 00:32:36,869 --> 00:32:38,619 nhưng dù sao thì 676 00:32:38,619 --> 00:32:42,129 việc rút thăm đã không diễn ra. 677 00:32:42,130 --> 00:32:43,230 Ngày tiếp theo, 678 00:32:43,230 --> 00:32:45,028 vẫn không có con tàu nào xuất hiện cả, 679 00:32:45,028 --> 00:32:48,470 nên Dudley bảo Brooks quay đi chỗ khác. 680 00:32:48,470 --> 00:32:50,720 và ra hiệu cho Stephens 681 00:32:50,720 --> 00:32:53,929 rằng tốt hơn cậu bé Parker nên bị giết. 682 00:32:53,929 --> 00:32:55,850 Dudley cầu nguyện, 683 00:32:55,849 --> 00:32:58,480 và nói với cậu bé rằng đã đến lúc 684 00:32:58,480 --> 00:33:00,679 và đã giết cậu bé bằng một con dao bút 685 00:33:00,679 --> 00:33:03,900 đâm vào động mạch cổ cậu bé. 686 00:33:03,900 --> 00:33:09,750 Brooks đổi quan điểm phản đối đầy đạo đức của mình để được chia một phần kinh khủng. 687 00:33:09,750 --> 00:33:11,029 Trong bốn ngày, 688 00:33:11,029 --> 00:33:15,230 ba người họ ăn thịt và uống máu của cậu bé cabin. 689 00:33:15,230 --> 00:33:17,220 Một câu chuyện có thật. 690 00:33:17,220 --> 00:33:19,390 Và rồi họ được giải cứu. 691 00:33:19,390 --> 00:33:22,840 Dudley mô tả cuộc giải cứu của họ 692 00:33:22,839 --> 00:33:24,678 trong nhật ký của mình 693 00:33:24,679 --> 00:33:27,570 với uyển ngữ đáng kinh ngạc, xin trích dẫn: 694 00:33:27,569 --> 00:33:29,648 "vào ngày thứ 24, 695 00:33:29,648 --> 00:33:34,750 khi chúng tôi đang dùng bữa sáng 696 00:33:34,750 --> 00:33:38,599 một con tàu cuối cùng đã xuất hiện." 697 00:33:38,599 --> 00:33:44,309 Ba người sống sót đã được một con tàu của Đức vớt. Họ được đưa trở lại Falmouth ở Anh 698 00:33:44,309 --> 00:33:47,079 Tại đây họ bị bắt và xét xử. 699 00:33:47,079 --> 00:33:47,829 Brooks 700 00:33:47,829 --> 00:33:49,949 trở thành nhân chứng phía nhà nước 701 00:33:49,950 --> 00:33:54,450 Dudley và Stephens hầu tòa. Họ không tranh cãi về những sự thật mà 702 00:33:54,450 --> 00:33:55,390 họ tuyên bố rằng 703 00:33:55,390 --> 00:33:58,140 họ đã hành động trong tình thế bắt buộc, 704 00:33:58,140 --> 00:33:59,430 đó là lời biện hộ của họ, 705 00:33:59,430 --> 00:34:01,220 họ lập luận rằng 706 00:34:01,220 --> 00:34:03,250 Sẽ tốt hơn nếu một người chết 707 00:34:03,250 --> 00:34:06,420 để cứu sống ba người 708 00:34:06,420 --> 00:34:08,619 công tố viên 709 00:34:08,619 --> 00:34:10,849 không chấp nhận lập luận đó. 710 00:34:10,849 --> 00:34:12,509 Ông cho rằng giết người là giết người 711 00:34:12,509 --> 00:34:16,429 và thế là vụ án được đưa ra xét xử. Bây giờ hãy tưởng tượng bạn là thẩm phán 712 00:34:16,429 --> 00:34:19,489 và để đơn giản hóa nội dung thảo luận 713 00:34:19,489 --> 00:34:21,989 Hãy bỏ qua các câu hỏi pháp lý sang một bên, 714 00:34:21,989 --> 00:34:23,010 và giả định rằng bạn, 715 00:34:23,010 --> 00:34:25,879 với tư cách là bồi thẩm đoàn 716 00:34:25,878 --> 00:34:28,278 chịu trách nhiệm quyết định 717 00:34:28,278 --> 00:34:31,009 xem những gì họ đã làm, về mặt đạo đức 718 00:34:31,009 --> 00:34:34,378 được phép hay không. 719 00:34:34,378 --> 00:34:36,608 Bao nhiêu bạn 720 00:34:36,608 --> 00:34:39,808 sẽ bỏ phiếu 721 00:34:39,809 --> 00:34:46,809 vô tội, rằng hành động của họ có thể chấp nhận về mặt đạo đức? 722 00:34:49,528 --> 00:34:51,639 Và bao nhiêu bạn sẽ bỏ phiếu có tội, 723 00:34:51,639 --> 00:34:54,858 rằng hành động của họ là sai trái về mặt đạo đức? 724 00:34:54,858 --> 00:34:57,998 Một đa số vượt trội. 725 00:34:57,998 --> 00:35:03,808 Bây giờ hãy xem lý do của mọi người là gì, và hãy để tôi bắt đầu với nhóm thiểu số. 726 00:35:03,809 --> 00:35:07,739 Trước tiên chúng ta hãy nghe từ phía bào chữa 727 00:35:07,739 --> 00:35:10,099 của Dudley và Stephens. 728 00:35:10,099 --> 00:35:14,160 Tại sao bạn lại miễn tội cho họ về mặt đạo đức? 729 00:35:14,159 --> 00:35:17,989 Lý do của bạn là gì? 730 00:35:17,989 --> 00:35:20,798 Tôi nghĩ đó là điều đáng trách về mặt đạo đức 731 00:35:20,798 --> 00:35:24,349 nhưng tôi nghĩ rằng nên có sự phân biệt giữa những gì đáng trách về mặt đạo đức 732 00:35:24,349 --> 00:35:26,609 Và việc buộc ai đó phải chịu trách nhiệm pháp lý 733 00:35:26,608 --> 00:35:30,690 hay nói cách khác, sẽ rất tối tăm nếu thẩm phán cho rằng điều luôn có giá trị đạo đức không nhất thiết 734 00:35:30,690 --> 00:35:34,789 trái pháp luật. Và trong khi tôi không nghĩ rằng điều đó là cần thiết 735 00:35:34,789 --> 00:35:36,169 có thể biện hộ 736 00:35:36,168 --> 00:35:38,578 trộm cắp, giết người hay bất kỳ hành động phạm pháp nào khác, 737 00:35:38,579 --> 00:35:43,509 ở một thời điểm nào đó, mức độ đồng ý của bạn về tính cấp thiết 738 00:35:43,509 --> 00:35:45,849 Có thể miễn tội cho bạn. 739 00:35:45,849 --> 00:35:50,588 Được rồi, tốt. Có ý kiến bào chữa khác không? Những lời bào chữa khác? 740 00:35:50,588 --> 00:35:53,038 Bào chữa về mặt đạo đức cho 741 00:35:53,039 --> 00:35:56,989 những gì họ đã làm? 742 00:35:56,989 --> 00:35:57,619 vâng, cảm ơn bạn, 743 00:35:57,619 --> 00:35:58,798 [*] 744 00:35:58,798 --> 00:35:59,570 tôi chỉ cảm thấy, 745 00:35:59,570 --> 00:36:03,139 trong một tình huống tuyệt vọng như thế thì bạn phải làm những gì bạn phải làm để tồn tại. 746 00:36:03,139 --> 00:36:04,679 Bạn phải làm những gì bạn phải làm, 747 00:36:04,679 --> 00:36:06,789 vâng, mình phải làm những gì mình phải làm, quá nhiều. 748 00:36:06,789 --> 00:36:07,849 Nếu bạn 749 00:36:07,849 --> 00:36:09,899 đã trải qua mười chín ngày không có thức ăn 750 00:36:09,898 --> 00:36:14,710 bạn biết ai đó cần hy sinh phải hy sinh và mọi người có thể sống sót 751 00:36:14,710 --> 00:36:16,139 và hơn thế nữa, từ đó 752 00:36:16,139 --> 00:36:21,299 giả sử họ sống sót và sau đó họ trở thành những thành viên hữu ích của xã hội, họ trở về nhà và sau đó và rất có thể tạo ra 753 00:36:21,300 --> 00:36:26,230 hàng triệu tổ chức thiện nguyện, và nhiều thứ đại khai thế. Ý tôi là, cuối cùng họ mang lại lợi ích cho mọi người. T 754 00:36:26,230 --> 00:36:28,519 ôi không rõ sau này họ sẽ làm gì sau đó, ý tôi là họ có thể có 755 00:36:28,519 --> 00:36:30,478 tiếp tục và giết nhiều người hơn 756 00:36:30,478 --> 00:36:32,889 nhưng sao cũng được. 757 00:36:32,889 --> 00:36:35,708 gì cơ? 758 00:36:35,708 --> 00:36:38,908 Điều gì sẽ xảy ra nếu họ về nhà trở thành sát thủ? 759 00:36:38,909 --> 00:36:42,878 Bạn hẵn muốn biết họ sẽ ám sát ai. 760 00:36:42,878 --> 00:36:45,848 Rất đúng, thật là công bằng. 761 00:36:45,849 --> 00:36:49,609 Tôi muốn biết họ đã ám sát ai. 762 00:36:49,608 --> 00:36:50,708 Được rồi, tốt, bạn tên gì? Marcus. 763 00:36:50,708 --> 00:36:52,489 Chúng ta đã nghe thấy lời biện hộ, 764 00:36:52,489 --> 00:36:54,050 hai ý kiến để biện hộ, 765 00:36:54,050 --> 00:36:55,660 bây giờ chúng ta cần nghe 766 00:36:55,659 --> 00:36:57,298 từ phía công tố. 767 00:36:57,298 --> 00:36:59,338 Đa số mọi người nghĩ 768 00:36:59,338 --> 00:37:05,068 hành động của họ là sai, tại sao? 769 00:37:05,068 --> 00:37:09,898 Một trong những điều đầu tiên tôi nghĩ là, họ không có gì để ăn trong một thời gian dài, 770 00:37:09,898 --> 00:37:11,409 có lẽ 771 00:37:11,409 --> 00:37:12,469 sau đó 772 00:37:12,469 --> 00:37:15,139 họ bị ảnh hưởng về mặt tinh thần 773 00:37:15,139 --> 00:37:16,408 có thể ý này dùng được để bào chữa, 774 00:37:16,409 --> 00:37:20,619 một lý luận khả dĩ, 775 00:37:20,619 --> 00:37:24,179 rằng họ không ở trong trạng thái tỉnh táo, họ đã đưa ra quyết định 776 00:37:24,179 --> 00:37:28,519 mà nếu lúc khác họ sẽ không làm thế, và nếu đó là một lập luận hấp dẫn 777 00:37:28,518 --> 00:37:33,608 rằng bạn ở trong một trạng thái tâm lý không ổn định để làm những việc như vậy thì có nghĩa rằng 778 00:37:33,608 --> 00:37:36,108 Mọi người thấy lập luận này thuyết phục. 779 00:37:36,108 --> 00:37:40,088 Bạn có nghĩ rằng họ hành động vô đạo đức. Nhưng tôi muốn biết điều bạn nghĩ bạn bào chữa 780 00:37:40,088 --> 00:37:41,248 bạn lựa chọn có tội mà? vâng nhưng tôi không nghĩ họ đã hành động một cách có đạo đức, 781 00:37:45,548 --> 00:37:49,449 cách đáng trân trọng. Và tại sao không? Bạn nói gì, Kia là Marcus, 782 00:37:49,449 --> 00:37:51,088 anh ấy vừa bào chữa cho họ, 783 00:37:51,088 --> 00:37:52,909 anh ấy nói, 784 00:37:52,909 --> 00:37:53,880 bạn đã nghe những gì anh ấy nói rồi chứ? 785 00:37:53,880 --> 00:37:55,249 Vâng tôi có nghe 786 00:37:55,248 --> 00:37:56,558 vâng 787 00:37:56,559 --> 00:38:00,119 rằng bạn phải làm điều buộc phải làm trong tình huống như vậy. 788 00:38:00,119 --> 00:38:04,789 Bạn sẽ nói gì với Marcus? 789 00:38:04,789 --> 00:38:06,439 Họ đã không, 790 00:38:06,438 --> 00:38:13,438 rằng trong bất kỳ tình huống nào cũng không thể cho phép loài người sử dụng 791 00:38:13,579 --> 00:38:17,959 ý tưởng tước đoạt số phận hoặc sinh mệnh của người khác vào tay của mình. Chúng ta không có 792 00:38:17,958 --> 00:38:19,328 quyền làm điều đó. 793 00:38:19,329 --> 00:38:21,399 Tốt, được rồi, c 794 00:38:21,398 --> 00:38:24,130 ảm ơn bạn, và bạn tên gì? 795 00:38:24,130 --> 00:38:24,548 Britt? Được rồi. 796 00:38:24,548 --> 00:38:26,028 Bạn khác? 797 00:38:26,028 --> 00:38:28,159 Bạn sẽ nói gì? Đứng lên nào… 798 00:38:28,159 --> 00:38:35,159 tôi tự hỏi liệu Dudley và Stephens có hỏi ý kiến Richard Parker xem cậu ta có đồng ý chết không? Bạn biết đấy, 799 00:38:35,429 --> 00:38:37,568 nếu thật vậy, 800 00:38:37,568 --> 00:38:41,228 có thể bào chữa cho họ 801 00:38:41,228 --> 00:38:45,448 Khỏi hành vi giết người, và nếu thế thì vẫn bào chữa được về mặt đạo đức? 802 00:38:45,449 --> 00:38:51,720 Nghe hay đấy, đợi một chút. Đồng ý? Đợi một chút, bạn tên gì? Kathleen. 803 00:38:51,719 --> 00:38:56,088 Nếu giả sử tình huống như Kathleen nói thì sẽ như thế nào? 804 00:38:56,088 --> 00:38:56,619 khi trong câu chuyện 805 00:38:56,619 --> 00:39:00,410 Dudley ở đó, tay cầm con dao bút 806 00:39:00,409 --> 00:39:02,608 nhưng thay vì cầu nguyện 807 00:39:02,608 --> 00:39:04,588 hoặc trước khi cầu nguyện, 808 00:39:04,588 --> 00:39:07,599 anh ấy nói, “Parker, 809 00:39:07,599 --> 00:39:11,519 bạn có phiền không, 810 00:39:11,518 --> 00:39:14,348 chúng tôi sắp chết đói rồi 811 00:39:14,349 --> 00:39:17,679 vì Marcus đồng cảm với việc 812 00:39:17,679 --> 00:39:19,769 chúng ta sắp chết đói 813 00:39:19,768 --> 00:39:22,168 dù sao thì cậu cũng sẽ không sống được lâu nữa, 814 00:39:22,168 --> 00:39:23,498 cậu có thể làm một nghĩa sĩ, 815 00:39:23,498 --> 00:39:25,748 bạn sẽ làm một nghĩa sĩ chứ?" 816 00:39:25,748 --> 00:39:29,468 Được không Parker? " 817 00:39:29,469 --> 00:39:33,220 Rồi sau đó, sau đó 818 00:39:33,219 --> 00:39:37,639 sau đó bạn nghĩ sao, điều đó có chấp nhận được về mặt đạo đức không? Giả sử 819 00:39:37,639 --> 00:39:38,219 Parker 820 00:39:38,219 --> 00:39:40,168 trong trạng thái nửa mê nửa tỉnh 821 00:39:40,168 --> 00:39:42,498 nói đồng ý? 822 00:39:42,498 --> 00:39:47,889 Tôi không nghĩ điều đó có thể bào chữa được về mặt đạo đức, nhưng tôi băn khoăn. Kể cả khi đó, khi đó có được không? Không 823 00:39:47,889 --> 00:39:50,650 Bạn không nghĩ rằng kể cả khi có sự đồng ý, 824 00:39:50,650 --> 00:39:52,490 hành động này có thể bào chữa về mặt đạo đức. 825 00:39:52,489 --> 00:39:54,568 Có ai khác nghĩ thế? 826 00:39:54,568 --> 00:39:56,369 ai muốn tiếp tục ý tưởng đồng ý của Kathleen 827 00:39:56,369 --> 00:39:57,200 ý tưởng dống ý 828 00:39:57,199 --> 00:40:01,688 và ai nghĩ rằng nó sẽ trở nên có thể bào chữa về mặt đạo đức? Hãy giơ tay nếu có 829 00:40:01,688 --> 00:40:05,868 nếu bạn nghĩ rằng có thể 830 00:40:05,869 --> 00:40:07,588 Thật thú vị 831 00:40:07,588 --> 00:40:09,168 Tại sao sự đồng ý 832 00:40:09,168 --> 00:40:15,888 sẽ tạo ra một sự khác biệt về mặt đạo đức? Tại sao vậy? 833 00:40:15,889 --> 00:40:18,509 Ahm, tôi chỉ nghĩ rằng nếu cậu ấy tự đưa ra ý tưởng ban đầu của mình 834 00:40:18,509 --> 00:40:20,969 và đó là ý tưởng do chính cậu ấy ấy khởi xướng 835 00:40:20,969 --> 00:40:23,778 thì đó sẽ là tình huống duy nhất mà 836 00:40:23,778 --> 00:40:25,940 tôi thấy nó phù hợp vì theo cách đó bạn không thể đưa ra lập luận rằng 837 00:40:28,358 --> 00:40:30,579 anh ấy đã bị áp lực bởi tỷ lệ 3 chọi 1 838 00:40:30,579 --> 00:40:32,759 hoặc bất kỳ tỷ lệ nào đi nữa, 839 00:40:32,759 --> 00:40:34,070 và tôi nghĩ rằng 840 00:40:34,070 --> 00:40:38,009 nếu cậu ấy đang đưa ra quyết định hy sinh mạng sống của mình thì cậu ấy đã đảm nhận vai trò 841 00:40:38,009 --> 00:40:42,668 tự hy sinh bản thân, điều mà một số người nghĩ là đáng ngưỡng mộ và những người khác 842 00:40:42,668 --> 00:40:45,449 có thể không đồng ý với quyết định này. 843 00:40:45,449 --> 00:40:49,099 Do đó, nếu cậu ấy nảy ra ý tưởng như thế này 844 00:40:49,099 --> 00:40:52,820 Rằng kiểu đồng ý duy nhất mà chúng ta tin tưởng 845 00:40:52,820 --> 00:40:55,359 về mặt đạo đức, thì điều đó là ổn 846 00:40:55,358 --> 00:40:57,268 nếu không, thì 847 00:40:57,268 --> 00:40:59,788 đó là một loại đồng ý có tính ép buộc 848 00:40:59,789 --> 00:41:01,469 theo tình thế 849 00:41:01,469 --> 00:41:05,278 bạn nghĩ thế. 850 00:41:05,278 --> 00:41:07,349 Có ai nghĩ 851 00:41:07,349 --> 00:41:10,979 rằng kể cả khi Parker đồng ý 852 00:41:10,978 --> 00:41:13,419 cũng sẽ không bào chữa được 853 00:41:13,420 --> 00:41:15,479 Cho việc giết cậu ta? 854 00:41:15,478 --> 00:41:18,088 Có ai nghĩ vậy? 855 00:41:18,088 --> 00:41:19,538 Vâng, cho chúng tôi biết tại sao, xin mời đứng lên 856 00:41:19,539 --> 00:41:21,260 Tôi nghĩ rằng Parker 857 00:41:21,260 --> 00:41:22,319 sẽ bị giết 858 00:41:22,318 --> 00:41:26,558 với hy vọng rằng những thành viên thủy thủ đoàn còn lại sẽ được cứu, vậy thì 859 00:41:26,559 --> 00:41:29,250 không có một lý do chắc chắn để giết cậu ấy, 860 00:41:29,250 --> 00:41:31,199 bởi vì bạn không biết 861 00:41:31,199 --> 00:41:35,809 khi nào họ sẽ được cứu, do đó, nếu bạn giết cậu ta thì bạn đang giết người một cách vô ích 862 00:41:35,809 --> 00:41:38,039 bạn có tiếp tục giết một thủy thủ đoàn khác cho đến khi bạn được cứu hoặc cho đến khi bạn không còn ai để giết nữa? 863 00:41:38,039 --> 00:41:40,309 Vì cuối cùng ai đó cũng sẽ chết? 864 00:41:40,309 --> 00:41:44,199 Vâng, logic đạo đức của tình huống này có vẻ là như vậy. 865 00:41:44,199 --> 00:41:45,829 Rằng họ sẽ 866 00:41:45,829 --> 00:41:50,318 tiếp tục chọn ra những người yếu nhất, từng người một, 867 00:41:50,318 --> 00:41:51,818 cho đến khi họ được cứu 868 00:41:51,818 --> 00:41:57,679 và trong trường hợp này, thật may mắn là cả ba người vẫn còn sống. 869 00:41:57,679 --> 00:41:58,880 Giời thì 870 00:41:58,880 --> 00:42:01,298 nếu Parker đồng ý 871 00:42:01,298 --> 00:42:04,068 thì bạn nghĩ điều này có ổn không? 872 00:42:04,068 --> 00:42:06,329 Không, nó vẫn không đúng. 873 00:42:06,329 --> 00:42:08,030 Hãy cho chúng tôi biết tại sao không ổn. 874 00:42:08,030 --> 00:42:10,028 Trước hết, ăn thịt đồng loại, tôi tin rằng 875 00:42:10,028 --> 00:42:13,228 là hoàn toàn vô đạo đức. 876 00:42:13,228 --> 00:42:14,509 Nên dù sao bạn cũng không nên ăn thịt đồng loại. 877 00:42:14,510 --> 00:42:17,449 Vậy nên 878 00:42:17,449 --> 00:42:19,380 ăn thịt đồng loại là hành vi hoàn toàn bị phản đối về mặt đạo đức. 879 00:42:19,380 --> 00:42:22,400 Khi đó, dù trong tình huống 880 00:42:22,400 --> 00:42:24,568 là đợi cho đến khi ai đó chết 881 00:42:24,568 --> 00:42:27,018 nó vẫn sẽ bị phản đối. 882 00:42:27,018 --> 00:42:27,929 Vâng, với cá nhân tôi, 883 00:42:27,929 --> 00:42:29,739 tôi cảm thấy rằng 884 00:42:29,739 --> 00:42:31,199 tất cả phụ thuộc vào 885 00:42:31,199 --> 00:42:35,288 đạo đức cá nhân của mỗi người, giống như chúng ta không thể chỉ - đây chỉ là ý kiến cá nhân của tôi 886 00:42:35,289 --> 00:42:39,339 Dĩ nhiên những người khác có thể không đồng ý. 887 00:42:39,338 --> 00:42:41,498 Nào, hãy cùng xem, hãy nghe những bất đồng là gì 888 00:42:41,498 --> 00:42:42,639 và sau đó chúng ta sẽ xem 889 00:42:42,639 --> 00:42:44,259 liệu họ có lý do nào 890 00:42:44,259 --> 00:42:46,228 có thể thuyết phục bạn hay không. 891 00:42:46,228 --> 00:42:48,358 Hãy thử nào 892 00:42:48,358 --> 00:42:50,098 Nào 893 00:42:50,099 --> 00:42:53,249 Bây giờ, có ai có thể giải thích không? 894 00:42:53,248 --> 00:42:57,908 có ai không? những bạn bị thuyết phục bởi sự đồng ý [của Parker] 895 00:42:57,909 --> 00:42:59,778 Các bạn có thể giải thích 896 00:42:59,778 --> 00:43:02,028 tại sao sự đồng ý đó lại 897 00:43:02,028 --> 00:43:03,358 tạo ra sự khác biệt về mặt đạo đức không? 898 00:43:03,358 --> 00:43:05,650 còn về ý tưởng rút thăm, 899 00:43:05,650 --> 00:43:08,930 có được coi là sự đồng ý không. Hãy nhớ rằng, lúc đầu 900 00:43:08,929 --> 00:43:11,308 Dudley đề xuất rút thăm, 901 00:43:11,309 --> 00:43:13,839 giả sử họ đã đồng ý 902 00:43:13,838 --> 00:43:16,338 với việc rút thăm 903 00:43:16,338 --> 00:43:17,369 thì 904 00:43:17,369 --> 00:43:20,798 có bao nhiêu người sẽ cho rằng 905 00:43:20,798 --> 00:43:23,929 như vậy là ổn? giải sử có việc rút thăm, 906 00:43:23,929 --> 00:43:25,380 cậu bé cabin bị thua, 907 00:43:25,380 --> 00:43:32,380 và phần còn lại của câu chuyện mở ra. Có bao nhiêu người sẽ nói rằng nó được chấp nhận về mặt đạo đức? 908 00:43:33,199 --> 00:43:37,030 Như vậy, số người đang gia tăng lên nếu chúng ta có thêm việc rút thăm, hãy nghe ý kiến từ một trong số những bạn 909 00:43:37,030 --> 00:43:41,609 cho rằng rút thăm sẽ tạo ra sự khác biệt về mặt đạo đức 910 00:43:41,608 --> 00:43:43,458 tại sao vậy? 911 00:43:43,458 --> 00:43:44,739 Tôi nghĩ rằng yếu tố phần 912 00:43:44,739 --> 00:43:45,718 quan trọng nhất, 913 00:43:45,719 --> 00:43:47,858 theo ý kiến của tôi, để coi đó là một tội phạm là 914 00:43:47,858 --> 00:43:53,848 ý tưởng rằng tại một thời điểm nào đó, họ đã quyết định rằng mạng sống của họ là quan trọng hơn mạng sống của cậu bé, và rằng 915 00:43:53,849 --> 00:43:56,609 Tôi nghĩ đó là cơ sở căn bản cho bất kỳ tội phạm nào 916 00:43:56,608 --> 00:43:57,688 đúng không? Nó giống như 917 00:43:57,688 --> 00:44:01,949 nhu cầu của tôi, mong muốn của tôi quan trọng hơn của bạn, và của tôi phải được ưu tiên 918 00:44:01,949 --> 00:44:04,798 và nếu họ đã thực hiện rút thăm thì mọi người đều đồng ý 919 00:44:04,798 --> 00:44:06,478 rằng ai đó phải chết. 920 00:44:06,478 --> 00:44:09,239 Và điều này như tất cả họ đều hy sinh bản thân mình, 921 00:44:09,239 --> 00:44:11,008 để cứu những người còn lại, 922 00:44:11,009 --> 00:44:12,949 Như vậy có đúng không? 923 00:44:12,949 --> 00:44:15,880 Hơi kỳ cục nhưng, 924 00:44:15,880 --> 00:44:18,959 Nhưng có thể chấp nhận được về mặt đạo đức? Được rồi. 925 00:44:18,958 --> 00:44:22,688 bạn tên gì? Matt. 926 00:44:22,688 --> 00:44:25,578 như vậy, Matt, đối với bạn, 927 00:44:25,579 --> 00:44:27,329 điều làm bạn trăn trở không phải là 928 00:44:27,329 --> 00:44:31,389 hành vi ăn thịt đồng loại, mà là sự thiếu một cách thực hiện phù hợp. 929 00:44:31,389 --> 00:44:34,689 Giáo sư có thể nghĩ vậy. 930 00:44:34,688 --> 00:44:38,170 Được rồi, có ai đồng ý với Matt không? 931 00:44:38,170 --> 00:44:40,499 nói thêm một chút 932 00:44:40,498 --> 00:44:41,378 về lý do tại sao 933 00:44:41,378 --> 00:44:43,690 một cuộc rút thăm 934 00:44:43,690 --> 00:44:47,099 theo quan điểm của bạn, sẽ làm cho nó 935 00:44:47,099 --> 00:44:50,979 trở nên chấp nhận được về mặt đạo đức 936 00:44:50,978 --> 00:44:55,568 Theo cách hiểu ban đầu của tôi về tổng thể thì cậu bé cabin chưa bao giờ 937 00:44:55,568 --> 00:44:56,398 được hỏi ý kiến 938 00:44:56,398 --> 00:45:00,478 về việc liệu có điều gì đó sắp xảy ra với cậu ấy hay không, kể cả với ý tưởng về 939 00:45:00,478 --> 00:45:01,088 cuộc rút thăm ban đầu, 940 00:45:01,088 --> 00:45:04,420 liệu cậu ấy có tham gia hay không thì đã có sẵn quyết định 941 00:45:04,420 --> 00:45:08,170 rằng anh ta là người sẽ chết. Vâng, đó là những gì đã xảy ra trong trường hợp thực tế 942 00:45:08,170 --> 00:45:11,900 nhưng nếu có rút thăm và tất cả họ đều đồng ý với phương pháp này 943 00:45:11,900 --> 00:45:13,539 bạn nghĩ có ổn không? 944 00:45:13,539 --> 00:45:16,418 Đúng, bởi vì mọi người đều biết rằng họ có thể chết 945 00:45:16,418 --> 00:45:17,079 trong khi 946 00:45:17,079 --> 00:45:18,878 bạn biết cậu bé cabin không biết điều đó, 947 00:45:18,878 --> 00:45:21,038 cuộc thảo luận đó đã diễn ra. 948 00:45:21,039 --> 00:45:21,919 Chẳng có gì 949 00:45:21,918 --> 00:45:23,578 cảnh báo trước 950 00:45:23,579 --> 00:45:28,829 Cho cậu bé biết rằng, “này, tôi có thể sẽ chết”. Được rồi, bây giờ giả sử mọi người đều đồng ý 951 00:45:28,829 --> 00:45:35,089 đối với việc rút thăm, họ tiến hành rút thăm, cậu bé cabin mất cơ hội thay đổi ý kiến. 952 00:45:35,088 --> 00:45:40,989 Bạn đã quyết định rồi, nó giống như một hợp đồng miệng, bạn không thể rút lại điều đó. Bạn đã quyết định, quyết định đã được thực hiện 953 00:45:40,989 --> 00:45:45,139 Rằng, nếu bạn biết bạn sẽ chết vì lý do để những người khác sống, 954 00:45:45,139 --> 00:45:45,999 bạn sẽ, bạn biết đấy 955 00:45:45,998 --> 00:45:47,688 nếu người khác chết, 956 00:45:47,688 --> 00:45:51,969 bạn biết rằng bạn sẽ ăn thịt họ, vậy thì 957 00:45:51,969 --> 00:45:57,429 Đúng, nhưng sau đó cậu ấy có thể nói tôi biết, nhưng tôi đã thua. 958 00:45:57,429 --> 00:46:01,939 Tôi chỉ nghĩ rằng toàn bộ vấn đề đạo đức là không có việc hỏi ý kiến cậu bé cabin 959 00:46:01,938 --> 00:46:04,298 điều khiến mọi thứ trở nên kinh khủng 960 00:46:04,298 --> 00:46:08,909 là cậu ta thậm chí chẳng biết chuyện gì sẽ xảy ra, rằng nếu cậu ta biết chuyện gì sẽ xảy ra 961 00:46:08,909 --> 00:46:10,599 thì sẽ 962 00:46:10,599 --> 00:46:13,109 dễ hiểu hơn một chút. 963 00:46:13,108 --> 00:46:14,509 Được rồi, tốt, bây giờ tôi muốn nghe 964 00:46:14,510 --> 00:46:17,049 ai đó nghĩ rằng 965 00:46:17,048 --> 00:46:18,708 Sẽ là chấp nhận được về mặt đạo đức. 966 00:46:18,708 --> 00:46:24,048 Nhưng chỉ khoảng 20 phần trăm, 967 00:46:24,048 --> 00:46:26,559 dẫn đầu bởi Marcus, 968 00:46:26,559 --> 00:46:28,439 sau đó một số người nói rằng 969 00:46:28,438 --> 00:46:30,208 vấn đề thực sự ở đây 970 00:46:30,208 --> 00:46:32,838 là sự thiếu đồng ý. 971 00:46:32,838 --> 00:46:37,139 Cho dù thiếu đồng ý đối với việc rút thăm hay một quy trình công bằng 972 00:46:37,139 --> 00:46:38,588 hoặc 973 00:46:38,588 --> 00:46:39,690 ý tưởng của Kathleen, 974 00:46:39,690 --> 00:46:40,749 thiếu sự đồng ý 975 00:46:40,748 --> 00:46:42,928 vào thời điểm 976 00:46:42,929 --> 00:46:45,139 cái chết cận kề. 977 00:46:45,139 --> 00:46:48,318 Và nếu chúng ta đưa thêm vào sự đồng ý 978 00:46:48,318 --> 00:46:49,019 thì 979 00:46:49,019 --> 00:46:51,889 nhiều người sẵn sàng cho rằng 980 00:46:51,889 --> 00:46:54,528 sự hy sinh là có thể bào chữa được về mặt đạo đức. 981 00:46:54,528 --> 00:46:56,639 Cuối cùng, bây giờ tôi muốn nghe 982 00:46:56,639 --> 00:46:58,548 từ những người trong số các bạn, 983 00:46:58,548 --> 00:47:00,199 những người nghĩ rằng ngay cả khi có sự đồng ý 984 00:47:00,199 --> 00:47:01,898 ngay cả với việc rút thăm, 985 00:47:01,898 --> 00:47:02,519 thậm chí 986 00:47:02,519 --> 00:47:04,579 ngay cả 987 00:47:04,579 --> 00:47:06,950 cả với lời chấp thuận thầm thì của Parker 988 00:47:06,949 --> 00:47:08,018 vào 989 00:47:08,018 --> 00:47:09,179 những giây phút cuối cùng, 990 00:47:09,179 --> 00:47:10,838 thì nó vẫn 991 00:47:10,838 --> 00:47:12,639 là sai trái? 992 00:47:12,639 --> 00:47:14,248 và tại sao nó vẫn sai? 993 00:47:14,248 --> 00:47:16,998 đó là điều tôi muốn nghe. 994 00:47:16,998 --> 00:47:18,818 Vâng, toàn bộ thời gian 995 00:47:18,818 --> 00:47:22,639 Tôi đã hướng về lý luận đạo đức tuyệt đối 996 00:47:22,639 --> 00:47:25,568 và tôi nghĩ rằng 997 00:47:25,568 --> 00:47:29,608 có khả năng tôi sẽ cảm thấy ổn với ý tưởng về rút thăm và sau đó người thua 998 00:47:29,608 --> 00:47:31,440 sẽ cầm dao 999 00:47:31,440 --> 00:47:32,749 Để tự sát. 1000 00:47:32,748 --> 00:47:33,679 [*] 1001 00:47:33,679 --> 00:47:37,358 Vậy thì sẽ không có hành vi giết người, nhưng tôi vẫn nghĩ rằng 1002 00:47:37,358 --> 00:47:42,278 Kể cả theo cách đó thì nó vẫn có tính ép buộc và tôi cũng không nghĩ rằng có bất kỳ sự hối hận nào như trong 1003 00:47:42,278 --> 00:47:43,338 nhật ký của Dudley 1004 00:47:43,338 --> 00:47:44,909 chúng ta đang dùng bữa sáng, 1005 00:47:44,909 --> 00:47:47,659 cứ như thể là, ồ, 1006 00:47:47,659 --> 00:47:51,440 bạn biết đấy, toàn bộ ý tưởng coi thường mạng sống của người khác 1007 00:47:51,440 --> 00:47:53,639 điều đó khiến tôi 1008 00:47:53,639 --> 00:47:57,969 cảm thấy giống như mình phải có lập trường đạo đức tuyệt đối. Bạn muốn ném cuốn sách vào anh ta. 1009 00:47:57,969 --> 00:48:02,298 khi anh ta không hối hận hoặc cảm thấy mình đã làm điều gì đó sai trái. Đúng thế. 1010 00:48:02,298 --> 00:48:06,969 Được rồi, tốt, có ý kiến nào khác nữa không? 1011 00:48:06,969 --> 00:48:08,769 những người biện hộ 1012 00:48:08,768 --> 00:48:13,268 người cho rằng điều đó là tuyệt đối sai lầm, cho dù có hoặc không có sự đồng ý? Vâng, Mời đứng dậy. Tại sao vậy? 1013 00:48:13,268 --> 00:48:17,288 Tôi chưa bao giờ hoài nghi về cách mà xã hội của chúng hình thành, giết người là giết người. 1014 00:48:17,289 --> 00:48:21,829 Giết người là giết người và nó đúng trong bất kỳ góc nhìn xã hội nào 1015 00:48:21,829 --> 00:48:24,780 và tôi nghĩ không có gì khác biệt trong bất kể trường hợp nào. Tốt, bây giờ hãy để tôi hỏi bạn một câu, 1016 00:48:24,780 --> 00:48:27,119 có ba mạng người đang lâm nguy 1017 00:48:27,119 --> 00:48:30,489 so với một mạng. 1018 00:48:30,489 --> 00:48:33,028 Cái cậu bé... cậu bé cabin ấy, không có gia đình 1019 00:48:33,028 --> 00:48:34,509 không có người phụ thuộc, 1020 00:48:34,509 --> 00:48:38,739 ba người kia có gia đình ở Anh, họ có người phụ thuộc 1021 00:48:38,739 --> 00:48:41,418 họ đã có vợ con. 1022 00:48:41,418 --> 00:48:43,328 Quay lại với Bentham, 1023 00:48:43,329 --> 00:48:44,989 Bentham nói rằng chúng ta phải xem xét 1024 00:48:44,989 --> 00:48:48,048 phúc lợi, tính có ích và hạnh phúc 1025 00:48:48,048 --> 00:48:51,288 của tất cả mọi người. Chúng ta phải xét toàn thể 1026 00:48:51,289 --> 00:48:54,640 vì vậy nó không chỉ là ba chọi một, 1027 00:48:54,639 --> 00:48:58,759 mà còn phải tính cả những người trên đất liền 1028 00:48:58,759 --> 00:49:00,909 trên thực tế, tờ báo Luân Đôn thời kỳ đó 1029 00:49:00,909 --> 00:49:04,248 và dư luận đã đồng cảm với họ 1030 00:49:04,248 --> 00:49:05,478 Dudley và Stephens 1031 00:49:05,478 --> 00:49:07,919 trên báo đã nói nếu họ không bị 1032 00:49:07,920 --> 00:49:08,280 tác động bởi 1033 00:49:08,280 --> 00:49:09,640 cảm xúc 1034 00:49:09,639 --> 00:49:13,489 và sự quan tâm đến những người thân yêu ở nhà, những người họ phải nuôi dưỡng, chắc chắn họ sẽ 1035 00:49:13,489 --> 00:49:15,969 không làm điều này. Vâng, và điều này đâu có gì khác với những người 1036 00:49:15,969 --> 00:49:17,369 ở một nơi nào đó 1037 00:49:17,369 --> 00:49:21,108 cũng cố gắng với cùng mong muốn để nuôi sống gia đình. Tôi không nghĩ có khác biệt. Tôi nghĩ trong mọi trường hợp 1038 00:49:21,108 --> 00:49:25,279 nếu tôi giết bạn để nâng cao vị thế của mình, thì đó là tội giết người và tôi nghĩ rằng chúng ta nên xem xét tất cả 1039 00:49:25,280 --> 00:49:28,430 những điều đó dưới cùng một phương diện. Thay vì hình sự hóa một vài 1040 00:49:28,429 --> 00:49:30,278 hành động 1041 00:49:30,278 --> 00:49:33,760 và khiến vài điểu trở nên bạo lực và man rợ hơn 1042 00:49:33,760 --> 00:49:36,760 Khi trong cùng tình huống đó, tất cả đều có cùng một hành động và lý trí 1043 00:49:36,760 --> 00:49:40,150 dẫn đến vụ giết người, một điều cần thiết để nuôi sống gia đình họ. 1044 00:49:40,150 --> 00:49:43,028 Giả sử không phải là 3, giả sử là 30, 1045 00:49:43,028 --> 00:49:44,608 300, 1046 00:49:44,608 --> 00:49:47,358 một mạng sống để cứu 300 mạng sống khác 1047 00:49:47,358 --> 00:49:48,349 hoặc gấp nhiều lần hơn nữa, 1048 00:49:48,349 --> 00:49:49,589 3000 1049 00:49:49,590 --> 00:49:51,039 hoặc giả sử số đặt cược thậm chí còn lớn hơn. 1050 00:49:51,039 --> 00:49:52,778 Giả sử số đặt cược thậm chí còn lớn hơn 1051 00:49:52,778 --> 00:49:54,608 Tôi nghĩ rằng nó vẫn thế. 1052 00:49:54,608 --> 00:49:58,108 Bạn có nghĩ Bentham đã sai khi nói rằng điều đúng nên làm 1053 00:49:58,108 --> 00:49:58,929 là nâng cao 1054 00:49:58,929 --> 00:50:02,479 mức độ hạnh phúc tổng thể, bạn nghĩ ông ta sai khi nói như vậy không? 1055 00:50:02,478 --> 00:50:06,728 Tôi không nghĩ ông ấy sai, nhưng tôi nghĩ giết người là giết người trong mọi trường hợp. Nếu thế thì Bentham phải sai 1056 00:50:06,728 --> 00:50:09,568 nếu bạn đúng thì ông ấy sai. Được, vậy ông ấy sai. 1057 00:50:09,568 --> 00:50:12,818 Được rồi, cảm ơn bạn, làm tốt lắm. 1058 00:50:12,818 --> 00:50:14,358 Được rồi, nào hãy quay lại, 1059 00:50:14,358 --> 00:50:16,389 từ cuộc thảo luận vừa rồi 1060 00:50:16,389 --> 00:50:19,728 và chú ý rằng 1061 00:50:19,728 --> 00:50:23,259 Chúng ta đã được nghe bao nhiêu lời phản đối về những gì họ đã làm? 1062 00:50:23,259 --> 00:50:26,048 chúng ta đã nghe một vài lời bào chữa về những gì họ đã làm 1063 00:50:26,048 --> 00:50:28,509 bào chữa về những gì họ đã làm do 1064 00:50:28,509 --> 00:50:28,918 sự cần thiết 1065 00:50:28,918 --> 00:50:32,588 của tình thế nguy kịch, và 1066 00:50:32,588 --> 00:50:33,409 Với ngầm ý, rằng 1067 00:50:33,409 --> 00:50:36,018 số lượng cũng quan trọng. 1068 00:50:36,018 --> 00:50:37,858 và không chỉ số lượng 1069 00:50:37,858 --> 00:50:40,380 Mà ảnh hưởng rộng lớn hơn, quan trọng, 1070 00:50:40,380 --> 00:50:43,459 là gia đình họ ở đất liền, những người phụ thuộc vào họ 1071 00:50:43,458 --> 00:50:44,768 Parker là một đứa trẻ mồ côi, 1072 00:50:44,768 --> 00:50:47,978 sẽ không ai nhớ đến cậu ta. 1073 00:50:47,978 --> 00:50:49,578 Vì vậy, nếu bạn 1074 00:50:49,579 --> 00:50:50,829 cộng hết vào, 1075 00:50:50,829 --> 00:50:52,649 nếu bạn cố gắng tính toán 1076 00:50:52,648 --> 00:50:53,998 mức độ cân bằng 1077 00:50:53,998 --> 00:50:56,598 giữa hạnh phúc và đau khổ 1078 00:50:56,599 --> 00:50:58,838 bạn có thể có một luận điểm 1079 00:50:58,838 --> 00:51:02,768 để nói rằng họ đã làm là điều đúng nên làm 1080 00:51:02,768 --> 00:51:09,468 sau đó chúng ta đã nghe ít nhất ba loại phản đối khác nhau, 1081 00:51:09,469 --> 00:51:11,690 chúng ta đã nghe một lời phản đối nói rằng 1082 00:51:11,690 --> 00:51:14,108 những gì họ đã làm là hoàn toàn sai, 1083 00:51:14,108 --> 00:51:15,750 ở ngay lúc cuối này 1084 00:51:15,750 --> 00:51:17,389 Tuyệt đối sai. 1085 00:51:17,389 --> 00:51:19,820 Giết người là giết người, nó luôn luôn sai 1086 00:51:19,820 --> 00:51:20,969 ngay cả khi 1087 00:51:20,969 --> 00:51:23,349 nó làm tăng mức độ hạnh phúc tổng thể 1088 00:51:23,349 --> 00:51:25,639 của xã hội. 1089 00:51:25,639 --> 00:51:28,499 Lập luận phản đối tuyệt đối. 1090 00:51:28,498 --> 00:51:30,738 Nhưng chúng ta vẫn cần tìm hiểu xem 1091 00:51:30,739 --> 00:51:32,749 tại sao giết người 1092 00:51:32,748 --> 00:51:35,448 là sai tuyệt đối. 1093 00:51:35,449 --> 00:51:38,579 Phải chăng là vì 1094 00:51:38,579 --> 00:51:42,339 ngay cả cậu bé cabin cũng có những quyền cơ bản nhất định? 1095 00:51:42,338 --> 00:51:44,400 Và nếu đó là nguyên nhân. 1096 00:51:44,400 --> 00:51:47,880 Những quyền đó đến từ đâu nếu không phải từ một vài ý tưởng logic về 1097 00:51:47,880 --> 00:51:53,209 phúc lợi, tính có ích hay hạnh phúc lớn hơn? Câu hỏi thứ nhất. 1098 00:51:53,208 --> 00:51:56,308 Một số bạn khác nói rằng 1099 00:51:56,309 --> 00:51:58,449 rút thăm sẽ tạo ra sự khác biệt 1100 00:51:58,449 --> 00:52:00,039 một thủ tục công bằng, 1101 00:52:00,039 --> 00:52:05,949 Matt đã nói như vậy. 1102 00:52:05,949 --> 00:52:08,769 Nhưng, và một số bạn đã bị thuyết phục bởi y kiến này. 1103 00:52:08,768 --> 00:52:12,188 Nó chính xác không phải là lập luận phản đối tuyệt đối. 1104 00:52:12,188 --> 00:52:13,828 nó nói rằng 1105 00:52:13,829 --> 00:52:16,798 mọi người đều được xem là bình đẳng, 1106 00:52:16,798 --> 00:52:18,469 mặc dù, cuối cùng 1107 00:52:18,469 --> 00:52:20,769 một người sẽ phải hy sinh 1108 00:52:20,768 --> 00:52:23,288 vì lợi ích chung. 1109 00:52:23,289 --> 00:52:26,059 Điều này làm nảy sinh một câu hỏi khác cho chúng ta tìm hiểu, 1110 00:52:26,059 --> 00:52:29,670 Tại sao đồng thuận với một thủ tục nhất định, 1111 00:52:29,670 --> 00:52:31,969 kể cả là một thủ tục công bằng 1112 00:52:31,969 --> 00:52:34,739 có thể biện minh cho bất kỳ kết quả nào 1113 00:52:34,739 --> 00:52:38,088 bắt nguồn từ quá trình vận hành của quy trình đó? 1114 00:52:38,088 --> 00:52:39,898 Câu hỏi thứ hai. 1115 00:52:39,898 --> 00:52:42,398 Và câu hỏi thứ ba, 1116 00:52:42,398 --> 00:52:45,338 ý tưởng cơ bản của sự đồng ý. 1117 00:52:45,338 --> 00:52:48,528 Kathleen đã đưa ra vấn đề này. 1118 00:52:48,528 --> 00:52:52,719 Nếu cậu bé cabin đã tự đồng ý 1119 00:52:52,719 --> 00:52:54,499 và thêm vào đó là khi không chịu 1120 00:52:54,498 --> 00:52:57,068 bất kỳ áp lực nào, 1121 00:52:57,068 --> 00:53:01,918 thì hoàn toàn có thể lấy mạng sống của cậu ta để cứu những người còn lại. 1122 00:53:01,918 --> 00:53:04,900 Thậm chí có nhiều người đã đồng ý với ý tưởng này. 1123 00:53:04,900 --> 00:53:06,630 Nhưng nó lại đặt ra 1124 00:53:06,630 --> 00:53:08,528 câu hỏi triết học thứ ba 1125 00:53:08,528 --> 00:53:11,009 Sản phẩm đạo đức mà 1126 00:53:11,009 --> 00:53:12,838 sự đồng ý đã tạo ra 1127 00:53:12,838 --> 00:53:14,438 là gì? 1128 00:53:14,438 --> 00:53:16,978 Tại sao hành động đồng ý 1129 00:53:16,978 --> 00:53:19,188 lại tạo ra sự khác biệt về mặt đạo đức, 1130 00:53:19,188 --> 00:53:23,818 đến mức một hành động lẽ ra là sai - lấy đi một mạng sống khi không có sự đồng ý 1131 00:53:23,818 --> 00:53:25,369 Về mặt đạo đức, 1132 00:53:25,369 --> 00:53:26,358 lại có thể chấp nhận được 1133 00:53:26,358 --> 00:53:29,619 khi có sự đồng ý? 1134 00:53:29,619 --> 00:53:31,699 Để tìm hiểu ba câu hỏi đó, 1135 00:53:31,699 --> 00:53:34,108 chúng ta sẽ phải đọc một số tác phẩm Triết học 1136 00:53:34,108 --> 00:53:35,728 và bắt đầu từ lần tới 1137 00:53:35,728 --> 00:53:36,939 chúng ta sẽ đọc 1138 00:53:36,940 --> 00:53:37,720 Bentham, 1139 00:53:37,719 --> 00:53:43,798 và John Stuart Mill, và những Triết gia vị lợi khác. 1140 00:53:43,798 --> 00:53:47,298 Đừng bỏ lỡ cơ hội giao lưu trực tuyến với những người cùng xem “Công Lý” khác. Tham gia trò chuyện, 1141 00:53:49,869 --> 00:53:56,869 làm một bài kiểm tra phổ thông, xem các bài giảng mà bạn đã bỏ lỡ, v.v. Truy cập www.justiceharvard.org. Đó là điều đúng nên làm. 1142 00:54:36,219 --> 00:54:40,269 Chương trình được tài trợ bởi 1143 00:54:40,268 --> 00:54:41,678 Tài trợ phụ bởi