1 00:00:33,299 --> 00:00:37,230 Это курс по теории справедливости, и мы начнём его с мысленного эксперимента. 2 00:00:37,230 --> 00:00:44,549 Представьте, что вы водитель трамвая, который несётся со скоростью 100 км/ч, 3 00:00:44,549 --> 00:00:49,390 И вдруг вдалеке на рельсах вы замечаете пятерых рабочих. 4 00:00:49,390 --> 00:00:51,569 Вы пытаетесь остановиться, но не можете: 5 00:00:51,569 --> 00:00:53,539 тормоза не работают. 6 00:00:53,539 --> 00:00:56,630 Вы в полном отчаянии, поскольку знаете, 7 00:00:56,630 --> 00:00:59,460 что если врежетесь в этих рабочих, 8 00:00:59,460 --> 00:01:01,320 то все они погибнут. 9 00:01:01,320 --> 00:01:04,879 Предположим, вы знаете это наверняка. 10 00:01:04,879 --> 00:01:07,019 Итак, вы не знаете что делать, 11 00:01:07,019 --> 00:01:09,230 но вдруг замечаете, 12 00:01:09,230 --> 00:01:10,890 что справа 13 00:01:10,890 --> 00:01:12,940 есть боковая ветка. 14 00:01:12,940 --> 00:01:15,420 И на конце этой ветки находится только 15 00:01:15,420 --> 00:01:18,119 только один рабочий. 16 00:01:18,818 --> 00:01:21,148 Руль трамвая исправен, 17 00:01:21,148 --> 00:01:22,748 и, если захотите, 18 00:01:22,748 --> 00:01:24,248 вы можете повернуть 19 00:01:24,248 --> 00:01:28,550 на эту боковую ветку 20 00:01:28,550 --> 00:01:30,340 и, тем самым, убить одного рабочего, 21 00:01:30,340 --> 00:01:33,009 но спасти жизнь пятерым. 22 00:01:33,009 --> 00:01:35,819 И вот наш первый вопрос: 23 00:01:35,819 --> 00:01:38,659 как правильно поступить? 24 00:01:38,659 --> 00:01:40,328 Как бы вы поступили в этой ситуации? 25 00:01:40,328 --> 00:01:42,390 Давайте проголосуем. 26 00:01:42,390 --> 00:01:47,720 Кто бы повернул на боковую ветку? 27 00:01:47,720 --> 00:01:51,790 Поднимите руки. 28 00:01:51,790 --> 00:01:53,415 Кто не стал бы этого делать 29 00:01:53,415 --> 00:01:57,645 и поехал бы дальше? 30 00:01:57,645 --> 00:02:03,979 Не опускайте руки те, кто поехал бы дальше. 31 00:02:03,979 --> 00:02:08,198 Большинство. Подавляющее большинство повернуло бы. 32 00:02:08,198 --> 00:02:09,878 Давайте теперь разберёмся, 33 00:02:09,878 --> 00:02:14,979 почему вы приняли именно такое решение. 34 00:02:14,979 --> 00:02:18,209 И давайте начнём с большинства. 35 00:02:18,209 --> 00:02:19,729 С тех, кто бы повернул 36 00:02:19,729 --> 00:02:21,948 на боковую ветку. 37 00:02:21,948 --> 00:02:23,508 Почему бы вы это сделали? 38 00:02:23,508 --> 00:02:25,638 Что сподвигло бы вас на это? 39 00:02:25,638 --> 00:02:29,868 Кто хочет высказаться? Есть добровольцы? 40 00:02:29,868 --> 00:02:32,018 Начинайте. Встаньте, пожалуйста. 41 00:02:32,018 --> 00:02:39,318 Я думаю, что неправильно убивать пять человек, когда есть возможность убить только одного. 42 00:02:39,318 --> 00:02:42,177 Было бы неправильно убивать пятерых 43 00:02:42,177 --> 00:02:46,917 если вместо этого вы можете убить только одного. 44 00:02:46,917 --> 00:02:48,399 Да, неплохая причина. 45 00:02:48,399 --> 00:02:50,429 Действительно неплохая. 46 00:02:52,719 --> 00:02:53,692 Кто-нибудь ещё? 47 00:02:53,692 --> 00:02:56,312 Все согласны с таким 48 00:02:56,312 --> 00:02:59,552 объяснением? 49 00:02:59,552 --> 00:03:01,252 Да, пожалуйста. 50 00:03:01,252 --> 00:03:03,449 Я думаю этот случай похож на то, 51 00:03:03,449 --> 00:03:05,399 что произошло с самолётом, 52 00:03:05,399 --> 00:03:07,429 который разбился 53 00:03:07,429 --> 00:03:09,309 в Пенсильвании 11 сентября. 54 00:03:09,309 --> 00:03:11,598 Потому что эти люди, как настоящие герои, предпочли погибнуть, 55 00:03:11,598 --> 00:03:14,348 но избежать большего количества жертв среди людей, 56 00:03:14,348 --> 00:03:15,918 которые находились на земле. 57 00:03:15,918 --> 00:03:19,281 То есть ими руководила та же логика: 58 00:03:19,281 --> 00:03:20,901 в такой безнадёжной ситуации 59 00:03:20,901 --> 00:03:25,356 лучше убить одного, но спасти пятерых. 60 00:03:25,359 --> 00:03:30,628 Именно так считают те, кто повернул бы? Верно? 61 00:03:30,628 --> 00:03:33,778 Давайте теперь послушаем мнение тех, 62 00:03:33,778 --> 00:03:35,288 кто оказался в меньшинстве. 63 00:03:35,288 --> 00:03:39,148 Тех, кто не повернул бы. 64 00:03:39,148 --> 00:03:40,522 Да, вы. 65 00:03:40,522 --> 00:03:45,276 Я думаю, что это такая же точка зрения, которая оправдывает геноцид и тоталитаризм. 66 00:03:45,276 --> 00:03:50,229 Для того, чтобы спасти представителей одной расы, вы стираете с лица Земли другую. 67 00:03:50,229 --> 00:03:51,965 И что бы вы сделали в этом случае? 68 00:03:51,965 --> 00:03:53,188 Для того, 69 00:03:53,188 --> 00:03:55,338 чтобы избежать 70 00:03:55,338 --> 00:03:57,618 ужасов геноцида, 71 00:03:57,618 --> 00:04:03,518 вы предпочли бы врезаться в пятерых рабочих и убить их? 72 00:04:03,518 --> 00:04:05,542 Думаю, да. 73 00:04:05,542 --> 00:04:06,322 Правда? 74 00:04:06,322 --> 00:04:07,434 Да. 75 00:04:07,434 --> 00:04:09,804 Хорошо. Кто ещё хочет высказать своё мнение? 76 00:04:09,806 --> 00:04:13,251 Это смелый ответ. Спасибо. 77 00:04:13,251 --> 00:04:15,664 Давайте теперь рассмотрим 78 00:04:15,664 --> 00:04:20,034 другой пример с трамвайным вагоном 79 00:04:20,034 --> 00:04:21,430 и посмотрим, 80 00:04:21,430 --> 00:04:23,800 будет ли 81 00:04:23,800 --> 00:04:27,220 большинство из вас 82 00:04:27,220 --> 00:04:30,820 придерживаться той же самой логики: 83 00:04:30,820 --> 00:04:33,320 лучше убить одного, чтобы пятеро остались живы. 84 00:04:33,320 --> 00:04:38,050 В этот раз вы не водитель трамвая, вы переводите стрелки. 85 00:04:38,050 --> 00:04:42,389 Вы стоите на мосту и наблюдаете за рельсами. 86 00:04:42,389 --> 00:04:45,599 И вот по рельсам летит трамвай. 87 00:04:45,599 --> 00:04:49,488 На другом конце пять рабочих. 88 00:04:49,488 --> 00:04:51,659 Тормоза не работают, 89 00:04:51,659 --> 00:04:55,799 трамвай вот-вот в них врежется и убьёт. 90 00:04:55,799 --> 00:04:56,989 Сейчас 91 00:04:56,989 --> 00:04:58,639 вы не водитель 92 00:04:58,639 --> 00:05:00,999 и совершенно не знаете, что делать. 93 00:05:00,999 --> 00:05:02,769 И тут вы замечаете, 94 00:05:02,769 --> 00:05:06,479 что рядом с вами 95 00:05:06,479 --> 00:05:08,569 стоит, прислонившись к перилам 96 00:05:08,569 --> 00:05:09,744 моста, 97 00:05:09,744 --> 00:05:15,264 очень толстый человек. 98 00:05:15,264 --> 00:05:18,764 И вы могли бы 99 00:05:18,764 --> 00:05:20,124 его немного 100 00:05:20,124 --> 00:05:22,524 подтолкнуть. 101 00:05:22,524 --> 00:05:24,543 Он упал бы с моста 102 00:05:24,543 --> 00:05:27,653 прямо на рельсы, 103 00:05:27,653 --> 00:05:30,233 на пути 104 00:05:30,233 --> 00:05:32,012 трамвая. 105 00:05:32,012 --> 00:05:33,302 Он бы погиб, 106 00:05:33,302 --> 00:05:36,079 но при этом спас бы жизни пятерым. 107 00:05:36,079 --> 00:05:38,819 Итак 108 00:05:38,819 --> 00:05:40,992 Кто столкнул бы 109 00:05:40,992 --> 00:05:42,552 толстяка с моста? 110 00:05:42,552 --> 00:05:48,012 Поднимите руки. 111 00:05:48,012 --> 00:05:50,945 Кто не стал бы этого делать? 112 00:05:50,945 --> 00:05:53,909 Большинство не стало бы. 113 00:05:53,909 --> 00:05:55,583 Возникает закономерный вопрос: 114 00:05:55,583 --> 00:05:56,853 Что стало 115 00:05:56,853 --> 00:05:59,973 с тем принципом: 116 00:05:59,973 --> 00:06:03,512 лучше спасти пятерых, даже если для этого потребуется принести в жертву жизнь одного человека? 117 00:06:03,512 --> 00:06:04,942 Что стало с тем принципом, 118 00:06:04,942 --> 00:06:07,380 который в первом случае 119 00:06:07,380 --> 00:06:09,250 поддерживали почти все? 120 00:06:09,250 --> 00:06:12,463 Для начала я хотел бы услышать мнение тех, кто был в большинстве в обоих этих 121 00:06:12,463 --> 00:06:13,453 примерах. 122 00:06:13,453 --> 00:06:16,423 Как вы объясните разницу между ними? 123 00:06:16,423 --> 00:06:17,903 Да, пожалуйста. 124 00:06:17,903 --> 00:06:21,508 Полагаю, что во втором случае у вас есть выбор: 125 00:06:21,508 --> 00:06:24,288 толкнуть или не толкнуть человека. 126 00:06:24,288 --> 00:06:25,019 Я думаю, 127 00:06:25,019 --> 00:06:29,829 что этот человек не имеет никакого отношения к ситуации, 128 00:06:29,829 --> 00:06:31,273 и вы 129 00:06:31,273 --> 00:06:36,313 как бы за него принимаете решение, 130 00:06:36,313 --> 00:06:39,906 вмешиваться ли в эту ситуацию или нет. 131 00:06:39,906 --> 00:06:41,668 В отличие 132 00:06:41,668 --> 00:06:43,608 от первого случая, когда 133 00:06:43,608 --> 00:06:45,844 все три стороны: водитель 134 00:06:45,844 --> 00:06:47,838 и две группы рабочих, 135 00:06:47,838 --> 00:06:50,484 уже, как мне кажется, принимают активное участие в том, что происходит. 136 00:06:50,484 --> 00:06:54,941 Но ведь тот парень, который один работает на рельсах, на боковой ветке, 137 00:06:54,941 --> 00:07:01,829 он же сам не принимал решения пожертвовать своей жизнью, точно так же, как тот толстяк на мосту, не так ли? 138 00:07:01,829 --> 00:07:05,339 Да, это так. Но он был на рельсах. 139 00:07:05,339 --> 00:07:10,354 А этот парень был на мосту! 140 00:07:10,354 --> 00:07:13,250 Если хотите, можете продолжить. 141 00:07:13,250 --> 00:07:15,267 Ладно, это непростой вопрос, 142 00:07:15,267 --> 00:07:16,987 но вы хорошо справились. Очень хорошо. 143 00:07:16,987 --> 00:07:19,527 Действительно непростой вопрос. 144 00:07:19,527 --> 00:07:21,030 Кто-нибудь ещё 145 00:07:21,030 --> 00:07:22,250 хочет попробовать 146 00:07:22,250 --> 00:07:25,930 объяснить, почему большинство 147 00:07:25,930 --> 00:07:28,970 именно так отреагировало в обоих этих случаях? 148 00:07:28,970 --> 00:07:29,770 Прошу. 149 00:07:29,770 --> 00:07:31,090 Полагаю, 150 00:07:31,090 --> 00:07:32,150 что в первом случае, 151 00:07:32,150 --> 00:07:35,733 в котором присутствует пять рабочих на основной ветке и один на боковой, 152 00:07:35,733 --> 00:07:37,370 вам необходимо сделать выбор между ними 153 00:07:37,370 --> 00:07:40,948 и принять какое-то решение, иначе эти пять человек погибнут под трамваем, 154 00:07:40,948 --> 00:07:45,039 но вы за это не несёте никакой ответственности. Вагон несётся на большой скорости, 155 00:07:45,039 --> 00:07:47,768 вам нужно принять мгновенное решение. 156 00:07:47,768 --> 00:07:52,158 А сталкивая толстяка с моста, вы совершаете убийство. 157 00:07:52,158 --> 00:07:54,208 Вы можете это контролировать, 158 00:07:54,208 --> 00:07:57,278 в отличие от вагона. 159 00:07:57,278 --> 00:07:59,889 Поэтому я считаю, что это немного другой случай. 160 00:07:59,889 --> 00:08:04,428 Хорошо, кто хочет возразить? Это было неплохо. 161 00:08:04,428 --> 00:08:06,244 Кто хочет ответить? 162 00:08:06,244 --> 00:08:09,155 Объясняет ли это ситуацию? 163 00:08:09,155 --> 00:08:10,695 Я не думаю, что это очень хорошее объяснение, 164 00:08:10,695 --> 00:08:12,369 потому что ты в любом случае выбираешь. 165 00:08:12,369 --> 00:08:14,158 Всё равно нужно решить, кто умрёт. 166 00:08:14,158 --> 00:08:16,698 Либо вы решаете повернуть и убить человека на рельсах, 167 00:08:16,698 --> 00:08:19,638 что будет являться вашим сознательным решением. 168 00:08:19,638 --> 00:08:21,827 Либо вы принимаете решение столкнуть толстяка, 169 00:08:21,827 --> 00:08:24,517 что также будет являться вашим сознательным решением. 170 00:08:24,517 --> 00:08:27,597 Так что вы в любом случае делаете какой-то выбор. 171 00:08:27,597 --> 00:08:29,629 Хотите ответить? 172 00:08:29,629 --> 00:08:32,754 Я не уверен, что это так. Мне кажется, всё равно есть определённая разница. 173 00:08:32,754 --> 00:08:37,410 Если вы сталкиваете кого-то с моста и, тем самым, убиваете его, 174 00:08:37,410 --> 00:08:39,600 то в этом случае вы делаете это своими собственными руками. 175 00:08:39,600 --> 00:08:42,260 Толкаете своими собственными руками. 176 00:08:42,260 --> 00:08:43,699 И это отличается от ситуации, 177 00:08:43,699 --> 00:08:48,519 когда вы управляете чем-то, что может стать причиной смерти. 178 00:08:48,519 --> 00:08:49,225 Вы знаете, 179 00:08:49,225 --> 00:08:52,765 теперь мне самому это не очень нравится. 180 00:08:52,765 --> 00:08:54,477 Нет-нет, это было неплохо. Как вас зовут? 181 00:08:54,477 --> 00:08:55,502 Эндрю. 182 00:08:55,502 --> 00:08:59,015 Эндрю, позвольте задать вам вопрос? 183 00:08:59,015 --> 00:09:01,911 Допустим, 184 00:09:01,911 --> 00:09:03,461 что вы стоите на мосту 185 00:09:03,461 --> 00:09:04,701 рядом с толстяком 186 00:09:04,701 --> 00:09:07,669 и вам не нужно его толкать. Допустим, он стоит, 187 00:09:07,669 --> 00:09:17,078 прислонившись к дверце, которую вы можете открыть, повернув рычаг. Вот так. 188 00:09:17,078 --> 00:09:18,391 Вы повернули бы? 189 00:09:18,391 --> 00:09:21,441 Не знаю почему, но это всё равно как-то 190 00:09:21,441 --> 00:09:23,001 неправильно. 191 00:09:23,001 --> 00:09:29,674 Возможно, если бы вы случайно облокотились на этот рычаг или что-то в это роде 192 00:09:29,674 --> 00:09:30,540 или, 193 00:09:30,540 --> 00:09:33,000 например, вагон 194 00:09:33,000 --> 00:09:37,561 катился бы к какому-нибудь переключателю, который откроет эту дверцу. 195 00:09:37,561 --> 00:09:39,051 Тогда ещё куда ни шло. 196 00:09:39,051 --> 00:09:42,552 Ладно, достаточно. Как бы то ни было, это всё равно кажется неправильным. 197 00:09:42,552 --> 00:09:46,054 Точно так же, как в первом случае кажется, что правильным поступком было бы повернуть. 198 00:09:46,054 --> 00:09:50,379 С другой стороны, в первом случае вы имеете непосредственное отношение к этой ситуации, 199 00:09:50,379 --> 00:09:52,629 а во втором - нет. 200 00:09:52,629 --> 00:09:55,586 И у вас есть выбор: участвовать или нет, толкать толстяка или нет. 201 00:09:55,586 --> 00:09:59,340 Давайте на минуту забудем об этом случае. 202 00:09:59,340 --> 00:10:03,439 Это было неплохо. 203 00:10:03,439 --> 00:10:06,453 Давайте представим другой случай. На этот раз вы врач в отделении экстренной помощи. 204 00:10:06,619 --> 00:10:09,878 и у вас шесть пациентов. 205 00:10:10,082 --> 00:10:18,692 Они все — участники ужасной аварии с трамваем. 206 00:10:18,882 --> 00:10:22,341 Пять из них ещё держатся, но у одного серьёзные травмы, 207 00:10:22,478 --> 00:10:27,454 вы можете потратить весь день, чтобы вылечить тяжело больного, 208 00:10:27,689 --> 00:10:29,590 но тогда пятеро умрут. 209 00:10:29,798 --> 00:10:31,988 Или вы можете лечить пятерых, восстановить им здоровье, 210 00:10:32,181 --> 00:10:36,408 но в это время тяжело больной умрёт. 211 00:10:36,556 --> 00:10:41,091 Сколько спасут пятерых, будучи теперь доктором? 212 00:10:41,271 --> 00:10:44,005 Кто спасёт одного? 213 00:10:44,431 --> 00:10:46,528 Лишь немногие из вас. 214 00:10:46,528 --> 00:10:49,426 Практически единицы. 215 00:10:49,611 --> 00:10:55,692 Та же причина, я полагаю: одна жизнь против жизни пятерых. 216 00:10:55,692 --> 00:11:02,080 Другой медицинский случай: вы хирург-трансплантолог, 217 00:11:02,080 --> 00:11:08,350 у вас пять пациентов, каждому жизненно необходим какой-то орган. 218 00:11:09,639 --> 00:11:14,180 Одному — сердце, второму —лёгкое, третьему — почка, четвёртому — печень, 219 00:11:14,449 --> 00:11:18,859 а пятому — поджелудочная железа. 220 00:11:20,210 --> 00:11:22,941 У вас нет донора органов. 221 00:11:23,150 --> 00:11:27,050 Вам остаётся просто смотреть, как они умирают. 222 00:11:27,350 --> 00:11:32,046 Но вдруг оказывается, что в соседней комнате 223 00:11:32,407 --> 00:11:37,570 сидит здоровый человек. который просто пришёл провериться. 224 00:11:39,450 --> 00:11:41,537 И он... 225 00:11:43,740 --> 00:11:47,159 Вам это нравится, да? 226 00:11:47,159 --> 00:11:50,740 И он дремлет. 227 00:11:53,269 --> 00:11:58,069 Вы могли бы очень тихо войти, вытащить пять органов, — 228 00:11:58,069 --> 00:12:02,140 этот человек умрёт, но вы сможете спасти пятерых. 229 00:12:03,169 --> 00:12:06,191 Кто бы так сделал? 230 00:12:07,495 --> 00:12:10,483 Хоть кто-то? 231 00:12:10,852 --> 00:12:14,923 Сколько? Поднимите руки, если сделали бы. 232 00:12:18,056 --> 00:12:20,448 Кто-нибудь с балкона? 233 00:12:20,796 --> 00:12:26,675 Вы? Аккуратно, не слишком перегибайтесь… 234 00:12:26,822 --> 00:12:29,121 Кто бы не стал? 235 00:12:29,465 --> 00:12:30,442 Хорошо. 236 00:12:30,594 --> 00:12:33,216 Что скажете? Выскажитесь с балкона, 237 00:12:33,626 --> 00:12:36,196 почему вы бы изъяли органы? 238 00:12:36,386 --> 00:12:40,188 Я хочу предложить немного другое решение: взять только того из пяти 239 00:12:40,188 --> 00:12:44,419 нуждающихся в органах, кто умрёт первым, 240 00:12:44,419 --> 00:12:49,280 и воспользоваться его здоровыми органами, чтобы спасти оставшихся четверых. 241 00:12:49,862 --> 00:12:53,236 Это довольно хорошая идея. 242 00:12:54,639 --> 00:12:57,830 Великолепная идея, 243 00:12:57,830 --> 00:13:04,811 за исключением того, что вы только что разрушили философский смысл. 244 00:13:06,159 --> 00:13:10,170 Итак, давайте отойдём в сторону от этих историй и наших дискуссий, 245 00:13:10,240 --> 00:13:17,033 чтобы отметить пару обстоятельств того, как стала разворачиваться наша дискуссия. 246 00:13:17,360 --> 00:13:24,630 Уже начали проясняться определённые нравственные принципы в ходе обсуждений. 247 00:13:25,879 --> 00:13:30,780 Давайте рассмотрим, что из себя представляют эти принципы. 248 00:13:31,250 --> 00:13:35,710 Первый нравственный принцип, появившийся в дискуссии, гласил: 249 00:13:35,710 --> 00:13:40,540 правильный поступок, нравственный поступок зависит от последствий, 250 00:13:40,540 --> 00:13:44,904 в которые выльются ваши действия. 251 00:13:47,080 --> 00:13:51,080 В конце концов лучше, чтобы выжили пятеро, даже если один должен умереть. 252 00:13:51,100 --> 00:13:57,820 Это пример консеквенциальной этики. 253 00:13:58,998 --> 00:14:04,310 Консеквенциальная этика помещает мораль в контекст последствий действий. 254 00:14:04,309 --> 00:14:06,549 255 00:14:06,549 --> 00:14:09,049 256 00:14:09,049 --> 00:14:12,789 Потом мы пошли немного дальше, мы рассмотрели другие случаи, 257 00:14:12,789 --> 00:14:18,608 и вы уже не были столь уверены в правильности консеквенционализма. 258 00:14:20,529 --> 00:14:29,338 Когда вы не решались столкнуть толстяка или изъять органы невинного пациента. 259 00:14:29,750 --> 00:14:39,742 Вы указали на доводы, связанные с внутренними особенностями самого действия. 260 00:14:40,092 --> 00:14:42,770 Будь что будет! 261 00:14:42,769 --> 00:14:45,179 Вы сопротивлялись. 262 00:14:45,179 --> 00:14:48,617 Вы думали, что это просто неправильно, категорически неправильно — 263 00:14:48,840 --> 00:14:56,372 убить человека, невинного человека, даже ради спасения пяти жизней. 264 00:14:56,748 --> 00:15:04,035 Люди думали так как минимум во второй версии каждого мысленного эксперимента. 265 00:15:04,386 --> 00:15:15,843 Это указывает на второй, категорический способ размышления о нравственности. 266 00:15:16,182 --> 00:15:19,431 Категорическая нравственность ставит мораль перед определёнными 267 00:15:19,740 --> 00:15:23,860 абсолютно-этическими требованиями, перед обязательствами и правами, 268 00:15:24,048 --> 00:15:27,220 несмотря на последствия. 269 00:15:27,220 --> 00:15:31,755 На протяжении нескольких недель мы будем изучать разницу 270 00:15:31,755 --> 00:15:36,540 между консеквенциализмом и категорическим императивом. 271 00:15:36,539 --> 00:15:43,450 Важнейший пример консеквенциальной этики это утилитаризм — доктрина, 272 00:15:43,450 --> 00:15:49,680 предложенная английским политическим философом 18-го века Джереми Бентамом. 273 00:15:51,100 --> 00:15:56,239 Наиболее видным философом категориальной теории нравственности 274 00:15:56,239 --> 00:16:01,544 является немецкий философ 18-го века Иммануил Кант. 275 00:16:02,390 --> 00:16:06,310 Мы остановимся на этих двух разных видах морального суждения, 276 00:16:06,310 --> 00:16:09,639 дадим им оценку, а также рассмотрим другие виды. 277 00:16:10,429 --> 00:16:15,310 Из учебной программы видно, что мы изучим множество книг: 278 00:16:15,940 --> 00:16:21,909 произведения Аристотеля, Джона Локка, Иммануила Канта, Джона Стюарта Милля, 279 00:16:21,909 --> 00:16:22,629 и других. 280 00:16:23,930 --> 00:16:27,730 Обратите внимание на то, что мы не только рассмотрим эти книги, 281 00:16:27,860 --> 00:16:34,549 но и обсудим современные политические и правовые разногласия, 282 00:16:34,549 --> 00:16:36,563 поднимающие философские вопросы. 283 00:16:36,944 --> 00:16:41,269 Мы будем говорить о равенстве и неравенстве, о позитивной дискриминации, 284 00:16:41,269 --> 00:16:43,627 о свободе слова и пропаганде ненависти, 285 00:16:43,696 --> 00:16:46,951 об однополых браках и воинской повинности,— 286 00:16:46,951 --> 00:16:49,740 эти и другие прикладные вопросы будут подняты, 287 00:16:49,740 --> 00:16:54,450 чтобы не только «оживить» отвлечённые книги, 288 00:16:54,450 --> 00:16:59,780 но и внести ясность, что поставлено на карту 289 00:16:59,780 --> 00:17:03,160 в нашей повседневной жизни, в том числе и в политическом отношении. 290 00:17:05,694 --> 00:17:09,818 После изучения книг и обсуждения прикладных вопросов, 291 00:17:09,818 --> 00:17:15,480 мы увидим, как они дополняют и освещают друг друга. 292 00:17:15,480 --> 00:17:21,447 Возможно, это звучит заманчиво, но я должен предупредить: 293 00:17:23,739 --> 00:17:33,569 такой способ прочтения книг, при котором вы упражняетесь в самопознании, 294 00:17:33,569 --> 00:17:34,669 несет в себе определённые риски — риски как персональные, так и политические; 295 00:17:34,669 --> 00:17:35,250 риски, о которых знает каждый студент курса политической философии. 296 00:17:35,250 --> 00:17:35,970 Эти риски исходят из того, что философия учит нас, 297 00:17:35,970 --> 00:17:37,309 при этом нарушая привычный распорядок, идя вразрез с тем, что мы уже знаем. 298 00:17:37,309 --> 00:17:40,029 Парадоксально, но сложность этого курса в том, что вы учите уже известное вам. 299 00:17:40,029 --> 00:17:40,939 Знания, имеющиеся у нас из неоспоримых истин, превращаются в чуждые. 300 00:17:40,939 --> 00:17:42,119 Именно так работают наши примеры: шутливые гипотетические случаи, 301 00:17:42,869 --> 00:17:44,510 с которых мы начали эту лекцию, они правда отрезвляют. 302 00:17:48,134 --> 00:17:51,540 Эти риски вытекают из того, что философия 303 00:17:51,540 --> 00:17:53,760 учит нас, 304 00:17:53,760 --> 00:17:56,000 побуждает нас сомневаться 305 00:17:56,000 --> 00:17:58,920 и идти вразрез с тем, что мы уже знаем. 306 00:18:00,860 --> 00:18:02,280 Парадоксально, 307 00:18:02,829 --> 00:18:08,049 но сложность этого курса заключается в изучении того, что вам и так уже известно. 308 00:18:09,319 --> 00:18:14,699 Знания, которые мы получили из известных неоспоримых истин, 309 00:18:15,950 --> 00:18:17,680 превращаются в чуждые. 310 00:18:19,789 --> 00:18:21,899 Именно так работают наши примеры, 311 00:18:22,609 --> 00:18:28,329 те шутливые гипотетические случаи, с которых мы начали эту лекцию. 312 00:18:28,729 --> 00:18:31,620 Точно такое же влияние оказывают книги по философии. 313 00:18:31,620 --> 00:18:35,030 Философия отстраняет нас 314 00:18:35,030 --> 00:18:37,000 от хорошо известных истин, 315 00:18:37,000 --> 00:18:39,320 не давая при этом новой информации, 316 00:18:39,970 --> 00:18:41,540 но увлекая нас за собой 317 00:18:41,540 --> 00:18:42,660 и провоцируя 318 00:18:43,109 --> 00:18:46,179 на то, чтобы посмотреть на вещи по-новому. 319 00:18:46,940 --> 00:18:49,240 Но здесь кроется риск. 320 00:18:49,800 --> 00:18:53,960 Когда однажды привычное станет чуждым, 321 00:18:53,960 --> 00:18:56,289 оно уже никогда не будет прежним. 322 00:18:57,289 --> 00:18:59,849 Самопознание 323 00:18:59,849 --> 00:19:02,070 похоже на потерю невинности, 324 00:19:02,680 --> 00:19:04,520 Однако то, что вы обнаружите, 325 00:19:04,520 --> 00:19:05,710 изменив привычное ви́дение, 326 00:19:05,710 --> 00:19:07,229 не будет для вас 327 00:19:07,229 --> 00:19:09,229 неожиданным 328 00:19:09,229 --> 00:19:10,570 или неизвестным. 329 00:19:13,160 --> 00:19:16,910 Это делает наш курс сложным, 330 00:19:16,910 --> 00:19:18,609 но от этого не менее захватывающим. 331 00:19:19,549 --> 00:19:24,880 Моральная и политическая философия - это история, 332 00:19:24,880 --> 00:19:28,900 и ты никогда не знаешь, куда она тебя приведёт, но ты точно знаешь, 333 00:19:28,900 --> 00:19:31,079 что эта история 334 00:19:31,079 --> 00:19:32,249 о тебе самом. 335 00:19:33,909 --> 00:19:36,970 Это индивидуальный риск. 336 00:19:36,970 --> 00:19:39,469 Теперь рассмотрим политические риски. 337 00:19:39,839 --> 00:19:42,740 Одним из способов пробудить у вас интерес к этому курсу 338 00:19:42,740 --> 00:19:44,528 было бы пообещать вам, 339 00:19:44,528 --> 00:19:46,010 что после прочтения этих книг 340 00:19:46,010 --> 00:19:47,830 и обсуждения определённых вопросов 341 00:19:47,830 --> 00:19:51,609 вы станете более ответственным членом общества. 342 00:19:51,609 --> 00:19:56,930 Вы изучите основы общественного устройства, отточите свои политические суждения, 343 00:19:56,930 --> 00:20:02,729 научитесь более эффективно участвовать в общественной жизни. 344 00:20:02,729 --> 00:20:06,029 Но это было бы однобокое и в целом неверное обещание. 345 00:20:06,029 --> 00:20:11,059 Политическая философия в своей основе состоит в другом. 346 00:20:11,059 --> 00:20:14,229 Нам необходимо допустить, 347 00:20:14,229 --> 00:20:18,840 что политическая философия вместо того, чтобы сделать вас лучше, 348 00:20:18,840 --> 00:20:21,530 может сделать вас менее сознательным гражданином. 349 00:20:21,530 --> 00:20:23,700 Или, по крайней мере, сделает вас менее сознательным гражданином 350 00:20:23,700 --> 00:20:25,439 до того, как вы станете 351 00:20:25,439 --> 00:20:27,869 лучше. 352 00:20:27,869 --> 00:20:30,380 Это происходит потому, что философия 353 00:20:30,380 --> 00:20:32,220 является сама по себе занятием, удаляющим нас от реальности 354 00:20:32,220 --> 00:20:36,550 и, порой, развращающим. 355 00:20:36,550 --> 00:20:39,789 Давайте вернёмся во времена Сократа 356 00:20:39,789 --> 00:20:42,029 и обратимся к диалогу "Горгий", 357 00:20:42,029 --> 00:20:44,580 в котором один из друзей Сократа 358 00:20:44,580 --> 00:20:45,620 Калликл, 359 00:20:45,619 --> 00:20:47,239 пытается отговорить его 360 00:20:47,240 --> 00:20:49,970 от философствований. 361 00:20:49,970 --> 00:20:54,400 Калликл говорит ему, что философия, конечно, милая забава, 362 00:20:54,400 --> 00:20:57,980 если предаваться ей в разумных пределах и в определённом возрасте. 363 00:20:57,980 --> 00:21:03,779 Но если философствующий погружается в неё глубже, чем должно, он упирается в тупик. 364 00:21:03,779 --> 00:21:06,669 Калликл говорит: "Прими мой совет, 365 00:21:06,669 --> 00:21:08,199 оставь словопрения 366 00:21:08,199 --> 00:21:11,110 и обратись к жизни деятельной. 367 00:21:11,110 --> 00:21:16,470 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 368 00:21:16,470 --> 00:21:19,899 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 369 00:21:19,899 --> 00:21:22,189 и благословлён другими достоинствами". 370 00:21:22,189 --> 00:21:26,668 Другими словами, Калликл убеждает Сократа 371 00:21:26,668 --> 00:21:28,590 оставить философствования, 372 00:21:28,590 --> 00:21:30,439 обратиться к реальности, 373 00:21:30,439 --> 00:21:34,990 поступить в бизнес-школу. 374 00:21:34,990 --> 00:21:38,300 И Калликл был по-своему прав. 375 00:21:38,299 --> 00:21:39,690 Он был прав в том, 376 00:21:39,690 --> 00:21:42,210 что философия уводит нас в сторону 377 00:21:42,210 --> 00:21:45,009 от традиций, установленных допущений 378 00:21:45,009 --> 00:21:46,750 и устоявшихся убеждений. 379 00:21:46,750 --> 00:21:48,650 Здесь нас и подстерегают опасности, 380 00:21:48,650 --> 00:21:49,970 индивидуальные и политические. 381 00:21:49,970 --> 00:21:54,089 В ответ на их угрозу сознание включает защитный механизм, 382 00:21:54,089 --> 00:21:57,470 который мы называем скептицизмом. 383 00:21:57,470 --> 00:21:58,990 Происходит это примерно следующим образом. 384 00:21:58,990 --> 00:22:03,660 Мы так и не смогли прийти к единому мнению 385 00:22:03,660 --> 00:22:09,759 по вопросам, с обсуждения которых мы начали эту лекцию, 386 00:22:09,759 --> 00:22:11,390 но если ни Аристотель, 387 00:22:11,390 --> 00:22:17,220 ни Локк, ни Кант, ни Милль не дали на них ответа, 388 00:22:17,220 --> 00:22:19,589 то кто мы такие, 389 00:22:19,589 --> 00:22:23,730 те, кто собрался в этом зале на один семестр, 390 00:22:23,730 --> 00:22:26,430 чтобы вдруг разрешить их? 391 00:22:26,430 --> 00:22:29,460 Может быть определённое видение мира - 392 00:22:29,460 --> 00:22:33,519 это личное дело каждого человека? Может быть к этому больше нечего добавить? 393 00:22:33,519 --> 00:22:34,170 Может быть 394 00:22:34,170 --> 00:22:36,590 правильного ответа не существует? 395 00:22:36,589 --> 00:22:37,649 Это попытка бегства. 396 00:22:37,650 --> 00:22:39,440 Бегства в скептицизм. 397 00:22:39,440 --> 00:22:41,279 На это я ответил бы 398 00:22:41,279 --> 00:22:42,660 следующим образом. 399 00:22:42,660 --> 00:22:43,720 Да, над этими вопросами 400 00:22:43,720 --> 00:22:47,559 люди бьются долгое время. 401 00:22:47,559 --> 00:22:49,059 Но сам факт того, 402 00:22:49,059 --> 00:22:52,700 что они возвращаются к нам, нерешённые, снова и снова настойчиво требуя от нас ответа, 403 00:22:52,700 --> 00:22:54,650 может, с одной стороны, говорить о том, 404 00:22:54,650 --> 00:22:57,169 что разрешить их невозможно, 405 00:22:57,169 --> 00:22:59,800 а с другой - о том, что они их возникновение неизбежно. 406 00:22:59,799 --> 00:23:02,299 И причина их неизбежности в том, 407 00:23:02,299 --> 00:23:06,500 что каждый из нас своей собственной жизнью 408 00:23:06,500 --> 00:23:10,069 каждый день по-своему отвечает на эти вопросы. 409 00:23:10,069 --> 00:23:16,129 Таким образом, скептики, в бессилии разводя руками и отказываясь от попыток дать ответы на эти вопросы, 410 00:23:16,130 --> 00:23:18,280 просто уходят от решения моральных дилемм. 411 00:23:18,279 --> 00:23:19,990 Иммануил Кант 412 00:23:19,990 --> 00:23:23,710 очень ёмко описал несостоятельность скептицизма: 413 00:23:23,710 --> 00:23:26,308 "Скептицизм есть привал для человеческого разума, 414 00:23:26,308 --> 00:23:29,099 где он может обдумать своё догматическое странствие, 415 00:23:29,099 --> 00:23:33,069 но это вовсе не место для постоянного пребывания." 416 00:23:33,069 --> 00:23:35,939 Кант писал: "Простое принятие скептицизма 417 00:23:35,940 --> 00:23:42,660 никогда не удовлетворит страждущий разум." 418 00:23:42,660 --> 00:23:47,040 Всеми этими примерами я пытался дать вам некоторое представление о том, 419 00:23:47,039 --> 00:23:49,898 с какими опасностями и искушениями сталкивается ступивший 420 00:23:49,898 --> 00:23:52,589 на путь философского познания и понявший, какие безграничные возможности открываются перед ним. 421 00:23:52,589 --> 00:23:55,589 В заключение я хотел бы сказать, 422 00:23:55,589 --> 00:23:58,099 что задача этого курса 423 00:23:58,099 --> 00:23:59,629 разбудить 424 00:23:59,630 --> 00:24:02,240 страждущий разум 425 00:24:02,240 --> 00:24:04,380 и показать, как далеко он может нас увести. 426 00:24:04,380 --> 00:24:11,380 Спасибо за внимание. 427 00:24:15,440 --> 00:24:16,980 В такой отчаянной ситуации 428 00:24:16,980 --> 00:24:21,259 - ...вы должны сделать всё, что можно, чтобы выжить. - Вы должны сделать всё, что можно? - Да, вы должны сделать всё, 429 00:24:21,259 --> 00:24:22,779 что можно. 430 00:24:22,779 --> 00:24:23,619 Примерно так. 431 00:24:23,619 --> 00:24:25,699 Если вы 19 дней ничего не ели, 432 00:24:25,700 --> 00:24:32,700 - ...кто-то из вас должен пожертвовать собой ради спасения остальных. - Хорошо, как ваше имя? - Маркус. 433 00:24:33,569 --> 00:24:38,359 Что вы ответите Маркусу? 434 00:24:40,309 --> 00:24:48,655 В прошлый раз мы начали с нескольких историй 435 00:24:48,830 --> 00:24:53,986 с нескольких моральных дилемм: о трамваях, о докторах, 436 00:24:54,249 --> 00:24:58,953 а также о здоровых пациентах, рискующих стать жертвами 437 00:24:59,119 --> 00:25:00,299 трансплантации органов. 438 00:25:00,690 --> 00:25:06,545 Мы обратили внимание на две особенности в доводах, которые мы приводили. 439 00:25:06,660 --> 00:25:09,689 Первая особенность связана с тем, как именно мы спорили. 440 00:25:09,689 --> 00:25:13,179 Всё началось с наших суждений об определённых случаях. 441 00:25:13,179 --> 00:25:18,050 Мы попытались сформулировать причины или принципы, 442 00:25:18,050 --> 00:25:22,109 лежащие в основе наших суждений. 443 00:25:22,109 --> 00:25:29,898 И затем, столкнувшись с новым случаем, мы пересматривали эти принципы, 444 00:25:30,209 --> 00:25:33,269 рассматривая один в свете другого. 445 00:25:33,269 --> 00:25:38,920 И мы почувствовали внутреннее сопротивление, пытаясь привести 446 00:25:38,920 --> 00:25:41,680 в соответствие наши суждения об определённых случаях 447 00:25:41,680 --> 00:25:46,025 и принципы, лежащие в основе этих суждений. 448 00:25:46,359 --> 00:25:50,589 Мы также заметили кое-что в содержании доводов, 449 00:25:50,589 --> 00:25:55,190 которые возникли в ходе обсуждения. 450 00:25:55,190 --> 00:26:00,649 Мы заметили, что иногда хотелось оценить моральность последствий действий, 451 00:26:00,649 --> 00:26:06,049 результатов, положения дел, к которому эти действия привели. 452 00:26:06,049 --> 00:26:11,252 Мы назвали это явление консеквенциальной аргументацией. 453 00:26:11,510 --> 00:26:16,093 Но мы также заметили, что в некоторых ситуациях 454 00:26:16,300 --> 00:26:20,933 не только результат имел для нас значение. 455 00:26:21,219 --> 00:26:25,283 Иногда, как многие из нас почувствовали, не только последствия, 456 00:26:25,349 --> 00:26:30,990 не только последствия, но и сущность или характер действия 457 00:26:30,990 --> 00:26:34,959 имеют моральное значение. 458 00:26:34,959 --> 00:26:40,470 Некоторые утверждали, что есть вещи, которые просто категорически неправильны, 459 00:26:40,470 --> 00:26:43,972 даже если за ними последует положительный результат. 460 00:26:44,180 --> 00:26:47,170 Даже если они приведут к спасению жизни пяти людей 461 00:26:47,200 --> 00:26:49,360 ценой одной жизни. 462 00:26:49,588 --> 00:26:57,452 Мы сравнили консеквенциальные моральные принципы и категорические. 463 00:26:57,830 --> 00:27:00,756 Cегодня и в ближайшие несколько дней мы начнём рассматривать 464 00:27:00,819 --> 00:27:05,879 мы начнём рассматривать одну из самых влиятельных 465 00:27:05,879 --> 00:27:10,889 версий консеквенциальной моральной теории: 466 00:27:10,970 --> 00:27:15,669 философию утилитаризма. 467 00:27:15,669 --> 00:27:21,607 Джереми Бентам, английский политический философ 18-ого века, 468 00:27:21,730 --> 00:27:26,085 дал первое чёткое систематическое определение 469 00:27:26,300 --> 00:27:31,615 утилитаристской моральной теории. 470 00:27:31,800 --> 00:27:42,341 Идея Бентама, его основная мысль, очень проста 471 00:27:42,610 --> 00:27:48,354 и несёт интуитивно понятный посыл. 472 00:27:48,430 --> 00:27:54,262 Она заключается в следующем: правильное действие, 473 00:27:54,440 --> 00:28:02,147 справедливое действие должно максимизировать полезность. 474 00:28:02,339 --> 00:28:06,329 Что он имел в виду под «полезностью»? 475 00:28:06,329 --> 00:28:11,490 Под словом «полезность» он имел в виду преобладание 476 00:28:11,490 --> 00:28:16,597 удовольствия над болью, счастья над страданием. 477 00:28:16,778 --> 00:28:22,144 И вот как он достиг принципа максимизации полезности. 478 00:28:22,308 --> 00:28:27,495 Он начал с наблюдения, заметив, что все мы, люди 479 00:28:27,750 --> 00:28:31,430 управляемы двумя полновластными «повелителями»: 480 00:28:31,430 --> 00:28:34,620 болью и удовольствием. 481 00:28:34,619 --> 00:28:42,291 Нам, людям, нравится удовольствие и не нравится боль. 482 00:28:42,308 --> 00:28:45,839 И поэтому мы всегда должны основывать наши моральные суждения, 483 00:28:45,839 --> 00:28:50,400 будь то мысли человека о том, какими должны быть его поступки в частной жизни, 484 00:28:50,400 --> 00:28:52,579 или его мысли как законодателя или гражданина 485 00:28:52,579 --> 00:28:57,029 о том, каким должен быть закон, на следующем: 486 00:28:57,029 --> 00:29:01,919 нужно действовать, индивидуально или же коллективно, 487 00:29:01,919 --> 00:29:10,808 в направлении максимизации общего уровня счастья. 488 00:29:11,259 --> 00:29:15,320 Утилитаризм Бентама иногда выражается слоганом: 489 00:29:15,320 --> 00:29:18,799 «наибольшее благо для наибольшего количества». 490 00:29:18,799 --> 00:29:22,628 Вооружившись этим базовым принципом полезности, 491 00:29:22,780 --> 00:29:27,990 давайте проверим его, применив к другому случаю. 492 00:29:28,099 --> 00:29:33,750 На этот раз история не гипотетическая, а вполне реальная 493 00:29:33,999 --> 00:29:38,139 Дело Дадли и Стивенса. 494 00:29:38,139 --> 00:29:41,690 Это знаменитое британское судебное дело 19-ого века, 495 00:29:41,690 --> 00:29:46,859 которое часто разбирается на юридических факультетах. 496 00:29:47,068 --> 00:29:50,059 Итак, что же произошло в этом деле? 497 00:29:50,059 --> 00:29:54,209 Я вкратце изложу его суть, и затем хотел бы услышать, 498 00:29:54,360 --> 00:30:03,110 как бы вы разрешили его, если бы оказались на месте присяжных. 499 00:30:03,419 --> 00:30:05,799 В газетном отчёте того времени оно было описано так: 500 00:30:08,799 --> 00:30:12,997 «Нет истории печальнее на свете, чем история выживших 501 00:30:12,997 --> 00:30:16,125 с яхты «Mignonette» («Резеда»). 502 00:30:16,240 --> 00:30:21,519 Это судно затонуло в Южной Атлантике в трёхстах милях от Мыса Доброй Надежды. 503 00:30:21,599 --> 00:30:25,740 На борту было четыре человека: капитан Дадли, 504 00:30:25,920 --> 00:30:29,840 его главный помощник Стивенс и матрос Брукс. 505 00:30:30,020 --> 00:30:32,439 Все они были «людьми с безукоризненной репутацией». 506 00:30:32,490 --> 00:30:35,579 По крайней мере, так сообщается в газетном отчёте. 507 00:30:35,719 --> 00:30:40,129 Четвёртым членом команды был семнадцатилетний юнга 508 00:30:40,299 --> 00:30:42,719 Ричард Паркер. 509 00:30:42,719 --> 00:30:51,070 Он был сиротой, у него не было семьи, и это было его первое дальнее плавание. 510 00:30:51,290 --> 00:30:53,700 Как сообщается, он отправился в путешествие, 511 00:30:53,700 --> 00:30:56,730 не послушавшись совета своих друзей. 512 00:30:56,730 --> 00:31:01,170 Полный надежд и юношеских амбиций, он думал, что путешествие 513 00:31:01,170 --> 00:31:03,000 сделает из него мужчину. 514 00:31:03,000 --> 00:31:05,140 К сожалению, этому не суждено было произойти. 515 00:31:05,140 --> 00:31:07,499 Факты дела не были предметом спора. 516 00:31:07,499 --> 00:31:11,950 В судно ударила волна, и «Mignonette» («Резеда») пошла ко дну. 517 00:31:12,010 --> 00:31:14,709 Экипаж сумел сесть в спасательную шлюпку. 518 00:31:14,709 --> 00:31:19,549 Единственной едой, которую они имели, были две банки 519 00:31:19,549 --> 00:31:21,429 консервированной репы. 520 00:31:21,599 --> 00:31:23,900 Никакой питьевой воды. 521 00:31:23,900 --> 00:31:26,610 Первые три дня они ничего не ели, 522 00:31:26,609 --> 00:31:30,280 на четвёртый день они открыли одну из консервных банок 523 00:31:30,280 --> 00:31:31,590 и съели её содержимое. 524 00:31:31,589 --> 00:31:34,449 На следующий день они поймали черепаху. 525 00:31:34,450 --> 00:31:39,830 Оставшаяся банка с репой и черепаха помогли им продержаться 526 00:31:40,058 --> 00:31:43,069 ещё несколько дней, но затем в течение восьми дней 527 00:31:43,069 --> 00:31:46,908 у них уже не было ничего, ни еды ни воды. 528 00:31:47,069 --> 00:31:50,069 Представьте себя в такой ситуации. 529 00:31:50,069 --> 00:31:52,849 Что бы вы сделали? 530 00:31:52,849 --> 00:31:55,119 Вот что сделали они. 531 00:31:55,119 --> 00:32:00,969 К этому моменту юнга Паркер лежал в углу на дне шлюпки, 532 00:32:00,970 --> 00:32:05,300 потому что напился морской воды, не послушав остальных. 533 00:32:05,490 --> 00:32:10,450 Ему стало дурно, и было понятно, что он умирает. 534 00:32:10,669 --> 00:32:14,619 На девятнадцатый день капитан Дадли предложил 535 00:32:14,618 --> 00:32:20,689 всем бросить жребий и определить, кому суждено умереть 536 00:32:20,859 --> 00:32:24,079 чтобы спасти остальных. 537 00:32:24,079 --> 00:32:28,980 Брукс отказался, ему не понравилась идея со жребием. 538 00:32:29,140 --> 00:32:33,059 Мы не знаем, было ли это вызвано тем, что он не хотел рисковать, 539 00:32:33,059 --> 00:32:36,759 или же тем, что он верил в категорические моральные принципы, 540 00:32:36,869 --> 00:32:41,939 но в любом случае жребий так и не был брошен. 541 00:32:42,130 --> 00:32:44,960 На следующий день спасательного корабля по-прежнему не было, 542 00:32:45,028 --> 00:32:50,520 и Дадли попросил Брукса отвернуться, жестом показав Стивенсу, 543 00:32:50,720 --> 00:32:53,929 что мальчишку Паркера нужно убить. 544 00:32:53,929 --> 00:32:58,300 Дадли помолился, сказал мальчику, что его время пришло, 545 00:32:58,480 --> 00:33:03,769 и зарезал его перочинным ножом, поразив яремную вену. 546 00:33:03,900 --> 00:33:09,750 Брукс, отрекшийся от соображений совести, тоже воспользовался жутким «подарком». 547 00:33:09,750 --> 00:33:14,979 Четыре дня они втроём питались телом и кровью юнги. 548 00:33:15,230 --> 00:33:17,220 Реальная история. 549 00:33:17,220 --> 00:33:19,390 А затем их спасли. 550 00:33:19,390 --> 00:33:24,500 Дадли описал это спасение в своём дневнике 551 00:33:24,679 --> 00:33:27,570 поразительным эвфемизмом: 552 00:33:27,569 --> 00:33:34,538 «На двадцать четвёртый день, когда мы завтракали, 553 00:33:34,750 --> 00:33:37,519 наконец-то показался корабль». 554 00:33:37,519 --> 00:33:44,309 Трое выживших были подобраны немецким кораблём и их отправили назад в Англию, 555 00:33:44,309 --> 00:33:47,079 где они были арестованы и подвергнуты суду. 556 00:33:47,079 --> 00:33:51,569 Брукс был свидетелем обвинения, а Дадли и Стивенс были обвиняемыми. 557 00:33:51,569 --> 00:33:56,670 Они не оспаривали факты и утверждали, что действовали в обстоятельствах 558 00:33:56,670 --> 00:33:58,140 крайней необходимости. 559 00:33:58,140 --> 00:33:59,430 Это была их линия защиты. 560 00:33:59,430 --> 00:34:01,220 Они настаивали на том, что смерть одного человека 561 00:34:01,220 --> 00:34:04,510 более предпочтительна, чем смерть троих. 562 00:34:06,420 --> 00:34:10,656 Обвинителя не убедил такой аргумент. 563 00:34:10,849 --> 00:34:12,829 Он сказал: «Убийство есть убийство». 564 00:34:12,829 --> 00:34:16,429 Дело передали в суд. Теперь представьте, что вы присяжные. 565 00:34:16,429 --> 00:34:21,849 Чтобы упростить обсуждение, оставим в стороне вопрос права 566 00:34:21,989 --> 00:34:28,040 и представим, что как присяжные вы должны решить, 567 00:34:28,278 --> 00:34:34,249 было ли то, что они сделали, морально допустимым или нет. 568 00:34:34,489 --> 00:34:39,718 Кто из вас проголосовал бы за то, что они невиновны 569 00:34:39,809 --> 00:34:46,809 и что совершённое ими было морально допустимо? 570 00:34:49,528 --> 00:34:51,639 А кто проголосовал бы за то, что они виновны 571 00:34:51,639 --> 00:34:54,858 и что совершённое ими было морально недопустимо? 572 00:34:54,858 --> 00:34:57,998 Значительное большинство. 573 00:34:57,998 --> 00:35:03,808 Давайте послушаем ваши соображения, и позвольте начать с меньшинства. 574 00:35:03,809 --> 00:35:09,819 Давайте сперва предоставим слово защите Дадли и Стивенса. 575 00:35:10,099 --> 00:35:14,160 Почему вы оправдали бы их с моральной точки зрения? 576 00:35:14,159 --> 00:35:17,989 Чем вы руководствуетесь? 577 00:35:17,989 --> 00:35:20,798 Да, я считаю это предосудительным с моральной точки зрения, 578 00:35:20,798 --> 00:35:24,349 но существует различие между тем, что нравственно предосудительно, 579 00:35:24,349 --> 00:35:26,609 и тем, что влечёт юридическую ответственность. 580 00:35:26,608 --> 00:35:30,690 Или, как мог бы сказать судья, аморальное совсем не обязательно противозаконно. 581 00:35:30,690 --> 00:35:33,789 И хотя я не считаю, что необходимость чего-либо 582 00:35:33,789 --> 00:35:35,768 является достаточным основанием 583 00:35:35,768 --> 00:35:38,578 для кражи, убийства, или другого противозаконного действия, 584 00:35:38,579 --> 00:35:45,729 степень необходимости в той или иной мере может оправдывать его. 585 00:35:45,849 --> 00:35:50,588 Кто ещё поддерживает эту точку зрения и согласен 586 00:35:50,588 --> 00:35:53,038 с моральными обоснованиями их действий? 587 00:35:53,039 --> 00:35:56,059 Пожалуйста. 588 00:35:56,389 --> 00:35:57,359 Спасибо. 589 00:35:58,798 --> 00:36:02,832 Я думаю, в такой отчаянной ситуации вы должны сделать всё возможное чтобы выжить. 590 00:36:02,849 --> 00:36:04,549 Вы должны сделать всё, что можно? 591 00:36:04,679 --> 00:36:06,789 Да, вы должны сделать всё, что можно. 592 00:36:06,789 --> 00:36:11,849 Если вы 19 дней ничего не ели, кто-то из вас должен пожертвовать собой 593 00:36:11,849 --> 00:36:14,710 ради спасения остальных. 594 00:36:14,710 --> 00:36:18,469 Более того, представим, что по возвращении домой, спасшиеся начинают создавать 595 00:36:18,469 --> 00:36:23,759 миллионы благотворительных организаций и другие подобные вещи. 596 00:36:23,759 --> 00:36:25,810 То есть, в итоге всем хорошо. 597 00:36:25,810 --> 00:36:29,629 Не знаю, что они делали после того случая, но они вполне могли бы продолжать 598 00:36:29,629 --> 00:36:31,698 убивать людей независимо от... 599 00:36:32,889 --> 00:36:35,708 Что? А что если они вернулись домой и превратились в убийц? 600 00:36:35,708 --> 00:36:38,908 Что если они вернулись домой и превратились в убийц? 601 00:36:38,909 --> 00:36:42,878 Вы бы хотели знать, кого они убили. 602 00:36:42,878 --> 00:36:47,995 Да, верно. Я хотел бы знать это. 603 00:36:48,287 --> 00:36:50,708 - Хорошо, как ваше имя? - Маркус. 604 00:36:50,708 --> 00:36:53,809 Мы услышали сторону защиты, пару голосов в оправдание. 605 00:36:54,050 --> 00:36:57,260 Теперь послушаем сторону обвинения. 606 00:36:57,298 --> 00:37:04,848 Большинство людей думает, что они не правы. Почему? 607 00:37:05,068 --> 00:37:09,898 Когда я услышала эту историю, то подумала: «Так, если они голодали очень долго, 608 00:37:09,898 --> 00:37:15,073 то, может быть, в этом случае они не были в здравом рассудке». 609 00:37:15,139 --> 00:37:20,398 И это могло послужить оправданием, в качестве возможного аргумента: 610 00:37:20,619 --> 00:37:26,219 они были не в своём уме и приняли решение, которое не приняли бы в другой ситуации. 611 00:37:26,219 --> 00:37:28,519 Думаю, это их оправдывает. 612 00:37:28,518 --> 00:37:32,843 Трезво мыслящий человек так никогда не поступит. 613 00:37:32,897 --> 00:37:37,498 Мне кажется, что есть люди, которые находят данный аргумент приемлемым. 614 00:37:37,498 --> 00:37:40,088 - Вы думаете, что они поступили аморально. - Но я хочу знать, 615 00:37:40,088 --> 00:37:44,564 - ...что думаете вы. Вы голосовали за то, что они виновны, верно? - Да, я не считаю, что они действовали 616 00:37:45,548 --> 00:37:49,079 - ...в рамках морали. - Почему нет? 617 00:37:49,079 --> 00:37:51,088 Вы же слышали, как Маркус защищал их. 618 00:37:51,088 --> 00:37:53,769 Он сказал... Вы слышали, что он сказал. 619 00:37:53,880 --> 00:37:55,829 Да, я слышала. 620 00:37:56,559 --> 00:38:00,119 Что вы должны поступать так, как того требует данная ситуация. 621 00:38:00,119 --> 00:38:04,789 Что вы ответите Маркусу? 622 00:38:04,789 --> 00:38:13,349 Я бы сказала, что нет такой ситуации, в которой можно было бы 623 00:38:13,579 --> 00:38:17,959 лишить человека права управлять своей судьбой или лишить человека жизни. 624 00:38:17,958 --> 00:38:19,328 У нас нет такого права. 625 00:38:19,329 --> 00:38:21,399 Хорошо, спасибо. 626 00:38:21,398 --> 00:38:23,800 - Как вас зовут? - Бритт. 627 00:38:23,800 --> 00:38:24,548 Бритт? Хорошо. 628 00:38:24,548 --> 00:38:26,028 Кто-нибудь ещё? 629 00:38:26,028 --> 00:38:28,159 Как вас зовут? Встаньте, пожалуйста. 630 00:38:28,159 --> 00:38:30,807 Мне вот что интересно. Если бы Дадли и Стивенс 631 00:38:30,978 --> 00:38:35,317 спросили Ричарда Паркера, согласен ли он умереть, 632 00:38:35,546 --> 00:38:42,833 то могло бы это оправдать совершённое убийство и, если да, то было бы 633 00:38:42,833 --> 00:38:45,448 ли это оправданно с точки зрения морали? 634 00:38:45,449 --> 00:38:51,720 - Это любопытно. Согласие. Как вас зовут? - Кэтлин. 635 00:38:51,719 --> 00:38:55,738 Кэтлин предлагает представить, как бы могла выглядеть эта сцена 636 00:38:55,738 --> 00:38:56,619 в таком случае. 637 00:38:56,619 --> 00:39:02,330 Итак, представьте: Дадли с ножом в руке, но вместо молитвы, 638 00:39:02,608 --> 00:39:04,588 или перед молитвой, 639 00:39:04,588 --> 00:39:10,809 он спрашивает: «Паркер, ты не возражаешь? 640 00:39:11,518 --> 00:39:14,348 Мы тут безумно проголодались...» 641 00:39:14,349 --> 00:39:17,679 Смотрите, как Маркус сопереживает им. 642 00:39:17,679 --> 00:39:22,098 «Мы безумно проголодались, а тебе, в любом случае, недолго осталось. 643 00:39:22,168 --> 00:39:23,498 Ты можешь стать мучеником. 644 00:39:23,498 --> 00:39:25,748 Не хочешь стать мучеником? 645 00:39:25,748 --> 00:39:29,468 Что скажешь, Паркер?» 646 00:39:29,469 --> 00:39:36,715 В этом случае можете ли вы это оправдать с точки зрения морали? 647 00:39:37,639 --> 00:39:42,376 Допустим, Паркер в оцепенении говорит: «Ну ладно, я согласен». 648 00:39:42,498 --> 00:39:45,249 Я не считаю, что это морально оправдывает убийство, 649 00:39:45,249 --> 00:39:47,889 но мне просто интересно... - Даже в этом случае? - Нет. 650 00:39:47,889 --> 00:39:52,340 Вы не считаете, что даже с согласия это может быть морально оправдано. 651 00:39:52,489 --> 00:39:56,988 Есть тут люди, готовые подхватить идею Кэтлин о согласии? 652 00:39:57,199 --> 00:39:59,748 И кто считает, что в таком случае их действия были бы 653 00:39:59,748 --> 00:40:01,788 морально оправданны? 654 00:40:01,788 --> 00:40:03,828 Поднимите руку, если вы с этим согласны. 655 00:40:05,869 --> 00:40:07,588 Вот это интересно. 656 00:40:07,588 --> 00:40:11,878 Почему же наличие согласия создало такую разницу? 657 00:40:11,878 --> 00:40:15,888 С чего бы это? 658 00:40:15,889 --> 00:40:18,509 Я думаю, что если бы Паркер сам принимал решение, 659 00:40:18,509 --> 00:40:24,316 если бы это было его собственной идеей, то только тогда это было бы допустимо. 660 00:40:24,478 --> 00:40:28,055 Потому что в такой ситуации вы не можете сказать, 661 00:40:28,358 --> 00:40:30,579 что на него было оказано давление, 662 00:40:30,579 --> 00:40:32,759 - ...что их было трое против одного. - Хорошо. 663 00:40:32,759 --> 00:40:37,810 Мне кажется, принимая такое решение, он делает это по собственной воли. 664 00:40:38,009 --> 00:40:42,668 Конечно, одним людям это покажется поступком, достойным восхищения, 665 00:40:42,668 --> 00:40:45,449 а другим — нет. 666 00:40:45,449 --> 00:40:49,099 Итак, если он сам предложил эту идею, 667 00:40:49,099 --> 00:40:52,460 то это будет единственным вариантом согласия, который бы нас устроил 668 00:40:52,460 --> 00:40:53,610 с точки зрения морали. 669 00:40:53,610 --> 00:40:55,358 Тогда это было бы допустимо. 670 00:40:55,358 --> 00:40:59,670 В ином случае это будет, скажем так, согласие под принуждением, 671 00:40:59,789 --> 00:41:02,099 согласие под воздействием обстоятельств. 672 00:41:02,099 --> 00:41:05,278 Так вы считаете. 673 00:41:05,278 --> 00:41:10,779 Кто-нибудь из вас считает, что даже согласие Паркера 674 00:41:10,978 --> 00:41:15,259 не оправдывает его убийство? 675 00:41:15,478 --> 00:41:17,498 Кто так думает? 676 00:41:17,498 --> 00:41:19,538 Расскажите нам, почему вы так думаете. 677 00:41:19,539 --> 00:41:22,296 Я думаю, что Паркер был убит в надежде, что все остальные 678 00:41:22,318 --> 00:41:26,558 члены экипажа впоследствии будут спасены. 679 00:41:26,559 --> 00:41:29,250 Но для его убийства нет объективных причин, 680 00:41:29,250 --> 00:41:31,869 потому что вы даже не знаете, спасут вас вообще или нет, 681 00:41:31,869 --> 00:41:34,445 то есть его убийство может быть совершенно напрасным. 682 00:41:34,445 --> 00:41:38,389 Вы так и будете убивать одного за другим, пока не останетесь один или вас не спасут? 683 00:41:38,389 --> 00:41:40,309 Просто потому что кто-то всё равно умрёт? 684 00:41:40,309 --> 00:41:45,669 С позиций морали, смысл ситуации в том, что они жертвуют слабейшим, 685 00:41:45,829 --> 00:41:51,718 одним за другим, пока не будут спасены. 686 00:41:51,818 --> 00:41:57,679 И здесь по счастливой случайности, три человека остались в живых. 687 00:41:57,679 --> 00:42:03,736 Но если бы Паркер согласился, как вы думаете, это было бы правильным? 688 00:42:04,068 --> 00:42:06,329 Нет, я по-прежнему не считаю это правильным. 689 00:42:06,329 --> 00:42:08,030 Обоснуйте почему. 690 00:42:08,030 --> 00:42:12,128 Во-первых, я считаю, что каннибализм в принципе аморален. 691 00:42:12,138 --> 00:42:14,509 Вы не должны есть людей ни в каком случае. 692 00:42:14,510 --> 00:42:20,023 Итак, каннибализм неприемлем даже в том случае, 693 00:42:20,159 --> 00:42:24,568 когда мы знаем, что человек точно умрёт? 694 00:42:24,568 --> 00:42:26,318 Даже в этом случае? 695 00:42:26,318 --> 00:42:27,929 Да, лично для меня. 696 00:42:27,929 --> 00:42:33,609 Мне кажется, что всё это зависит от личных моральных принципов человека. 697 00:42:33,609 --> 00:42:35,918 Это только мое мнение. 698 00:42:35,918 --> 00:42:39,339 Конечно, не все с этим согласятся. 699 00:42:39,338 --> 00:42:41,498 Хорошо. Давайте послушаем аргументы «против», 700 00:42:41,498 --> 00:42:45,946 а затем посмотрим, смогут ли они переубедить вас или нет? 701 00:42:46,228 --> 00:42:48,358 Давайте попробуем. 702 00:42:48,358 --> 00:42:53,448 Итак, есть ли здесь кто-нибудь, кому импонирует идея согласия 703 00:42:53,448 --> 00:42:57,908 и кто мог бы объяснить. 704 00:42:57,909 --> 00:43:03,218 Можете ли вы объяснить, почему согласие всё кардинально меняет? 705 00:43:03,358 --> 00:43:04,780 А как насчёт идеи с жребием? 706 00:43:04,780 --> 00:43:07,130 Может ли это считаться своего рода согласием? 707 00:43:07,130 --> 00:43:11,309 Помните, в начале истории Дадли предложил тянуть жребий. 708 00:43:11,508 --> 00:43:16,338 Предположим, что они согласились тянуть жребий. 709 00:43:16,338 --> 00:43:21,069 Теперь кто из вас за то, что это было бы правильно? 710 00:43:21,069 --> 00:43:25,209 Предположим, они тянули жребий, и юнга проиграл. 711 00:43:25,380 --> 00:43:27,109 Далее происходит то, что мы знаем. 712 00:43:27,109 --> 00:43:31,099 Было бы тогда это правильным? Кто так считает? 713 00:43:32,939 --> 00:43:35,489 Итак, если мы предположим, что они тянули жребий, 714 00:43:35,489 --> 00:43:36,779 число согласных возрастает. 715 00:43:36,779 --> 00:43:40,110 Давайте послушаем кого-нибудь из тех, для кого с моральной точки зрения 716 00:43:40,110 --> 00:43:41,609 принципиален жребий. 717 00:43:41,608 --> 00:43:43,458 Почему вы так считаете? 718 00:43:43,458 --> 00:43:45,669 Я думаю, что это принципиальный момент. 719 00:43:45,719 --> 00:43:48,298 На мой взгляд, преступлением этот поступок делает то, 720 00:43:48,298 --> 00:43:53,249 что Дадли и Стивенс как-то решили, что их жизни важнее, чем жизнь юнги. 721 00:43:53,249 --> 00:43:56,609 Я имею в виду, что подобная мысль это предпосылка любого преступления, 722 00:43:56,608 --> 00:43:58,778 разве нет? Это равнозначно признанию того, 723 00:43:58,778 --> 00:44:01,949 что мои потребности и желания важнее, чем ваши. 724 00:44:01,949 --> 00:44:04,798 А если бы они тянули жребий, согласившись с тем, 725 00:44:04,798 --> 00:44:09,098 что кто-то из них должен умереть и пожертвовать таким образом собой, 726 00:44:09,239 --> 00:44:11,008 чтобы спасти остальных. 727 00:44:11,009 --> 00:44:12,949 Тогда всё будет в порядке? 728 00:44:12,949 --> 00:44:15,880 Немного абсурдно, но, 729 00:44:15,880 --> 00:44:18,959 - Но допустимо с точки зрения морали? - Да. 730 00:44:18,958 --> 00:44:22,395 - Как вас зовут? - Мэтт. 731 00:44:22,675 --> 00:44:28,783 Что ж, Мэтт, вас смущает не сам факт каннибализма, 732 00:44:28,783 --> 00:44:31,389 а отсутствие должной процедуры? 733 00:44:31,389 --> 00:44:34,689 Я думаю, да. 734 00:44:34,688 --> 00:44:38,170 Может ли кто-нибудь из тех, кто согласен с Мэттом, 735 00:44:38,170 --> 00:44:46,439 что-нибудь добавить к сказанному о том, почему жребий сделает этот поступок 736 00:44:47,099 --> 00:44:50,979 допустимым с точки зрения морали? 737 00:44:50,978 --> 00:44:54,288 Мне кажется, что основная проблема заключается именно в том, что юнгу 738 00:44:54,288 --> 00:44:56,398 даже не спрашивали, когда решали его судьбу. 739 00:44:56,398 --> 00:45:00,263 Даже в ситуации с несостоявшимся жребием. 740 00:45:00,263 --> 00:45:03,368 Будет или не будет он в нём участвовать, им показалось неважным. 741 00:45:03,368 --> 00:45:06,370 Было просто решено, что именно мальчик должен умереть. 742 00:45:06,420 --> 00:45:08,170 - Да, так и произошло на самом деле. 743 00:45:08,170 --> 00:45:11,540 Но если бы все тянули жребий, и все согласились с этой процедурой, 744 00:45:11,670 --> 00:45:13,539 считаете ли вы, что это правильно? 745 00:45:13,539 --> 00:45:16,418 Да, потому что тогда все бы знали, что кто-то из них умрёт, 746 00:45:16,418 --> 00:45:20,639 в то время как в реальной ситуации юнга не знал, что за него решают судьбу. 747 00:45:21,039 --> 00:45:23,399 Ему никто никто не сказал, что он может умереть. 748 00:45:23,579 --> 00:45:28,829 - Хорошо, предположим, что все согласились тянуть жребий. 749 00:45:28,829 --> 00:45:35,089 Все бросили жребий. Но представьте себе, что юнга проиграл и передумал. 750 00:45:35,088 --> 00:45:38,309 Вы уже всё решили, это своего рода устное соглашение, вы не можете 751 00:45:38,309 --> 00:45:40,989 взять свои слова обратно. Решение было принято 752 00:45:40,989 --> 00:45:44,618 Вы понимаете, что умираете ради того, чтобы спасти других. 753 00:45:44,618 --> 00:45:47,688 Вы осознаёте, что если бы кому-то другому выпал жребий умереть, 754 00:45:47,688 --> 00:45:51,969 то его также съели бы, так что… 755 00:45:51,969 --> 00:45:57,429 Хорошо, но потом он мог бы сказать: «Знаю, но я проиграл». 756 00:45:57,429 --> 00:46:01,939 Я считаю основной нравственной проблемой то, что юнгу никто не спрашивал. 757 00:46:01,938 --> 00:46:06,518 Самое ужасное то, что он даже не представлял, что происходит. 758 00:46:06,518 --> 00:46:09,409 Если бы он осознавал это, то результат был бы 759 00:46:09,529 --> 00:46:12,248 немного более справедливым. 760 00:46:12,298 --> 00:46:14,509 Хорошо. Теперь, мне интересно узнать вот что. 761 00:46:14,510 --> 00:46:18,569 Некоторые из вас считают, что это морально допустимо, 762 00:46:18,708 --> 00:46:26,168 но вас всего около 20 процентов, во главе с Маркусом. 763 00:46:26,559 --> 00:46:29,979 Другие же считают, что основная проблема заключается 764 00:46:30,208 --> 00:46:35,848 в отсутствии согласия, будь то отсутствие согласия тянуть жребий, 765 00:46:35,848 --> 00:46:44,210 или же, как считает Кетлин, отсутствие согласия в момент смерти. 766 00:46:45,139 --> 00:46:51,888 Если мы предположим наличие согласия, то уже больше людей будут готовы признать, 767 00:46:51,889 --> 00:46:54,528 что эта жертва морально оправдана. 768 00:46:54,528 --> 00:47:00,079 Теперь я хочу выслушать тех, кто считает, что даже при наличии согласия, 769 00:47:00,199 --> 00:47:05,990 даже при условии жребия, даже если в самый последний момент 770 00:47:06,949 --> 00:47:12,176 Паркер вяло согласился, это всё равно неправильно. 771 00:47:12,639 --> 00:47:16,673 И я хочу услышать, почему это было бы неправильно. 772 00:47:16,998 --> 00:47:22,194 Всё это время я склонялась к категорической аргументации. 773 00:47:22,639 --> 00:47:29,098 Возможно, я готова принять вариант со жребием, при котором 774 00:47:29,608 --> 00:47:33,165 проигравший собственноручно убивает себя. 775 00:47:33,679 --> 00:47:38,179 Тогда убийства как такового не будет, но я по-прежнему считаю, что даже тут 776 00:47:38,179 --> 00:47:39,552 будет принуждение. 777 00:47:39,552 --> 00:47:42,278 И я не думаю, что тут есть раскаяние, 778 00:47:42,278 --> 00:47:45,458 ведь как это описано в дневнике Дадли: «…когда мы завтракали». 779 00:47:45,458 --> 00:47:50,639 Это выглядит так, как будто он не видит ценности в жизни других. 780 00:47:51,440 --> 00:47:55,089 Это заставляет меня принять категорическую аргументацию. 781 00:47:55,089 --> 00:47:57,969 Вы хотите наказать Дадли по полной программе, 782 00:47:57,969 --> 00:48:01,208 если он не раскаивается или не чувствует, что поступил неправильно? 783 00:48:01,208 --> 00:48:02,298 Да. 784 00:48:02,298 --> 00:48:10,229 Хорошо. Есть ещё те, кто считает это категорически неправильным, 785 00:48:10,229 --> 00:48:13,268 с согласием или без него. Да, пожалуйста. Почему? 786 00:48:13,268 --> 00:48:17,288 Я считаю, что в понятиях нашего общества убийство есть убийство. 787 00:48:17,289 --> 00:48:21,780 Убийство есть убийство, и в любом случае наше общество негативно к этому относится. 788 00:48:21,780 --> 00:48:24,780 789 00:48:24,780 --> 00:48:27,119 На кону было три жизни 790 00:48:27,119 --> 00:48:30,489 против одной. 791 00:48:30,489 --> 00:48:33,028 У юнги не было ни семьи, 792 00:48:33,028 --> 00:48:34,509 ни тех, о ком нужно было заботиться. 793 00:48:34,509 --> 00:48:38,739 У трёх других человек дома остались семьи, у них были иждивенцы: 794 00:48:38,739 --> 00:48:41,418 жёны и дети. 795 00:48:41,418 --> 00:48:43,328 Вспомните Бентама. 796 00:48:43,329 --> 00:48:44,989 Бентам считал, что мы должны учитывать 797 00:48:44,989 --> 00:48:48,048 благосостояние, полезность и счастье 798 00:48:48,048 --> 00:48:51,288 для всех. Мы должны сложить всё вместе, 799 00:48:51,289 --> 00:48:54,640 поэтому это не просто цифра «три» против цифры «один», 800 00:48:54,639 --> 00:48:58,759 а ещё и все эти люди, ждущие моряков дома. 801 00:48:58,759 --> 00:49:00,909 Надо сказать, что во время разбирательства пресса 802 00:49:00,909 --> 00:49:04,248 и общественное мнение сочувствовали 803 00:49:04,248 --> 00:49:05,478 Дадли и Стивенсу. 804 00:49:05,478 --> 00:49:07,919 В газете писали, что если бы ими 805 00:49:07,920 --> 00:49:08,280 не двигали 806 00:49:08,280 --> 00:49:09,640 привязанность к своим близким, оставшимся дома, 807 00:49:09,639 --> 00:49:13,489 и беспокойство об их судьбе, они бы, несомненно, 808 00:49:13,489 --> 00:49:15,969 - не совершили этот страшный поступок. - Хорошо, но в таком случае как они отличаются от людей, 809 00:49:15,969 --> 00:49:17,369 которые просят милостыню 810 00:49:17,369 --> 00:49:21,108 и которые также хотят прокормить свою семью? Я не думаю, что есть большая разница. Я считаю, что в любом случае 811 00:49:21,108 --> 00:49:25,279 если я убиваю кого-то, чтобы улучшить свое положение, это не перестаёт быть убийством. Я думаю, что мы должны рассматривать всё это 812 00:49:25,280 --> 00:49:28,430 с такой точки зрения. Мы считаем преступлениями только 813 00:49:28,429 --> 00:49:30,278 определённые поступки. 814 00:49:30,278 --> 00:49:33,760 При этом некоторые из них кажутся нам более жестокими и дикими, 815 00:49:33,760 --> 00:49:36,760 хотя в их основе всегда лежит один и тот же стимул - 816 00:49:36,760 --> 00:49:40,150 необходимость прокормить свои семьи. 817 00:49:40,150 --> 00:49:43,028 Предположим, что людей в исходной ситуации было бы не трое, а тридцать 818 00:49:43,028 --> 00:49:44,608 или триста. 819 00:49:44,608 --> 00:49:47,358 Пожертвовать одной жизнью, чтобы спасти триста 820 00:49:47,358 --> 00:49:48,349 или больше, 821 00:49:48,349 --> 00:49:49,589 три тысячи. 822 00:49:49,590 --> 00:49:51,039 Или, предположим, что ставки были ещё больше. 823 00:49:51,039 --> 00:49:52,778 Предположим, что ставки были ещё больше. 824 00:49:52,778 --> 00:49:54,608 Я думаю, что это по-прежнему то же самое. 825 00:49:54,608 --> 00:49:58,108 Вы думаете, что Бентам ошибался, говоря, что необходимо 826 00:49:58,108 --> 00:49:58,929 суммировать 827 00:49:58,929 --> 00:50:02,479 всё общественное счастье? Вы думаете, что он ошибался насчёт этого? 828 00:50:02,478 --> 00:50:06,728 - Я не считаю, что он ошибался, но я считаю, что убийство есть убийство в любом случае. - Значит Бентам определённо ошибается. 829 00:50:06,728 --> 00:50:09,568 - Если вы правы, то неправ он. - Хорошо, тогда он не прав. 830 00:50:09,568 --> 00:50:12,818 Хорошо, спасибо. 831 00:50:12,818 --> 00:50:14,358 Давайте отвлечёмся 832 00:50:14,358 --> 00:50:16,389 от этого обсуждения 833 00:50:16,389 --> 00:50:19,728 и обратим внимание на то, 834 00:50:19,728 --> 00:50:23,259 сколько было возражений по поводу поступка Дадли и Стивенса. 835 00:50:23,259 --> 00:50:26,048 Мы услышали несколько мнений в защиту того, что они сделали. 836 00:50:26,048 --> 00:50:28,509 Их оправдывали тем, что они находились 837 00:50:28,509 --> 00:50:28,918 в состоянии крайней необходимости, 838 00:50:28,918 --> 00:50:32,588 были в ужасных обстоятельствах. 839 00:50:32,588 --> 00:50:33,409 По крайней мере, косвенно оправдывали количественным аргументом, 840 00:50:33,409 --> 00:50:36,018 «три жизни против одной». 841 00:50:36,018 --> 00:50:37,858 Говорили, что дело не только в количестве, 842 00:50:37,858 --> 00:50:40,380 но и в более важных обстоятельствах, 843 00:50:40,380 --> 00:50:43,459 в том, что дома у них остались семьи и близкие. 844 00:50:43,458 --> 00:50:44,768 Паркер же был сиротой, 845 00:50:44,768 --> 00:50:47,978 никто бы не скучал по нему. 846 00:50:47,978 --> 00:50:49,578 Таким образом, если вы 847 00:50:49,579 --> 00:50:50,829 сложите всё это 848 00:50:50,829 --> 00:50:52,649 и попробуете оценить 849 00:50:52,648 --> 00:50:53,998 соотношение 850 00:50:53,998 --> 00:50:56,598 счастья и страдания, 851 00:50:56,599 --> 00:50:58,838 то у вас будут основания 852 00:50:58,838 --> 00:51:02,768 утверждать, что они поступили правильно. 853 00:51:02,768 --> 00:51:09,468 Затем мы услышали по крайней мере три различных типа возражений. 854 00:51:09,469 --> 00:51:11,690 Например, возражение о том, 855 00:51:11,690 --> 00:51:14,108 что они поступили неправильно с категорической точки зрения. 856 00:51:14,108 --> 00:51:15,750 Вы так сказали. 857 00:51:15,750 --> 00:51:17,389 Неправильно с категорической точки зрения. 858 00:51:17,389 --> 00:51:19,820 Убийство есть убийство, и это всегда плохо, 859 00:51:19,820 --> 00:51:20,969 даже если 860 00:51:20,969 --> 00:51:23,349 при этом повысится общий уровень счастья 861 00:51:23,349 --> 00:51:25,639 в обществе. 862 00:51:25,639 --> 00:51:28,499 Это категорическое возражение. 863 00:51:28,498 --> 00:51:30,738 Но нам всё равно нужно понять, 864 00:51:30,739 --> 00:51:32,749 почему убийство 865 00:51:32,748 --> 00:51:35,448 является категорически неправильным. 866 00:51:35,449 --> 00:51:38,579 Потому ли, что 867 00:51:38,579 --> 00:51:42,339 даже у юнги есть фундаментальные права? 868 00:51:42,338 --> 00:51:44,400 И если в этом вся причина, 869 00:51:44,400 --> 00:51:47,880 то откуда возникат эти права, если не от идеи 870 00:51:47,880 --> 00:51:53,209 повышения общественного благосостояния, полезности или счастья? Это первый вопрос. 871 00:51:53,208 --> 00:51:56,308 Другие утверждали, 872 00:51:56,309 --> 00:51:58,449 что в случае со жребием было бы иначе. 873 00:51:58,449 --> 00:52:00,039 Справедливая процедура, 874 00:52:00,039 --> 00:52:05,949 как заметил Мэтт. 875 00:52:05,949 --> 00:52:08,769 И некоторые из вас склонились к этой точке зрения. 876 00:52:08,768 --> 00:52:12,188 Но это не совсем категорическое возражение. 877 00:52:12,188 --> 00:52:13,828 Это утверждение о том, 878 00:52:13,829 --> 00:52:16,798 что все должны считаться равными, 879 00:52:16,798 --> 00:52:18,469 даже если в конце концов 880 00:52:18,469 --> 00:52:20,769 один человек будет принесён в жертву 881 00:52:20,768 --> 00:52:23,288 ради общего блага. 882 00:52:23,289 --> 00:52:26,059 Это заставляет нас задуматься о следующем. 883 00:52:26,059 --> 00:52:29,670 Почему согласие на определённую процедуру, 884 00:52:29,670 --> 00:52:31,969 пусть даже справедливую, 885 00:52:31,969 --> 00:52:34,739 оправдывает любой результат, 886 00:52:34,739 --> 00:52:38,088 вытекающий из этой процедуры? 887 00:52:38,088 --> 00:52:39,898 Это второй вопрос. 888 00:52:39,898 --> 00:52:42,398 И наконец третий вопрос - 889 00:52:42,398 --> 00:52:45,338 фундаментальная идея о согласии. 890 00:52:45,338 --> 00:52:48,528 Эту мысль высказала Кэтлин. 891 00:52:48,528 --> 00:52:52,719 Если бы юнга согласился сам, 892 00:52:52,719 --> 00:52:54,499 и никто бы его к этому не принуждал, 893 00:52:54,498 --> 00:52:57,068 как было отмечено, 894 00:52:57,068 --> 00:53:01,918 то пожертвовать его жизнью ради жизни других было вполне нормальным. 895 00:53:01,918 --> 00:53:04,900 Эту идею поддержали ещё больше людей, 896 00:53:04,900 --> 00:53:06,630 но это приводит нас 897 00:53:06,630 --> 00:53:08,528 к третьему философскому вопросу. 898 00:53:08,528 --> 00:53:11,009 Какова моральная основа 899 00:53:11,009 --> 00:53:12,838 согласия? 900 00:53:12,838 --> 00:53:14,438 901 00:53:14,438 --> 00:53:16,978 Почему акт согласия 902 00:53:16,978 --> 00:53:19,188 так существенно меняет дело с моральной точки зрения? 903 00:53:19,188 --> 00:53:23,818 Так меняет, что поступок, который в любом другом случае мы бы посчитали неправильным и назвали бы убийством, 904 00:53:23,818 --> 00:53:25,369 является допустимым 905 00:53:25,369 --> 00:53:26,358 с точки зрения морали, 906 00:53:26,358 --> 00:53:29,619 если на него было дано согласие. 907 00:53:29,619 --> 00:53:31,699 Чтобы ответить на эти три вопроса, 908 00:53:31,699 --> 00:53:34,108 нам с вами нужно будет изучить сочинения неcкольких философов. 909 00:53:34,108 --> 00:53:35,728 В следующий раз 910 00:53:35,728 --> 00:53:36,939 мы начнём 911 00:53:36,940 --> 00:53:37,720 с Бентама 912 00:53:37,719 --> 00:53:43,798 и Джона Стюарта Милля - философов-утилитаристов. 913 00:53:43,798 --> 00:53:47,298 914 00:53:43,798 --> 00:53:47,298 915 00:53:49,869 --> 00:53:56,869 916 00:54:36,219 --> 00:54:40,269 917 00:54:40,268 --> 00:54:41,678