1 00:00:33,299 --> 00:00:37,230 Это курс по теории справедливости, и мы начнём его с мысленного эксперимента. 2 00:00:37,230 --> 00:00:44,549 Представьте, что вы водитель трамвая, который несётся со скоростью 100 км/ч, 3 00:00:44,549 --> 00:00:49,390 И вдруг вдалеке на рельсах вы замечаете пятерых рабочих. 4 00:00:49,390 --> 00:00:51,569 Вы пытаетесь остановиться, но не можете: 5 00:00:51,569 --> 00:00:53,539 тормоза не работают. 6 00:00:53,539 --> 00:00:56,630 Вы в полном отчаянии, поскольку знаете, 7 00:00:56,630 --> 00:00:59,460 что если врежетесь в этих рабочих, 8 00:00:59,460 --> 00:01:01,320 то все они погибнут. 9 00:01:01,320 --> 00:01:04,879 Предположим, вы знаете это наверняка. 10 00:01:04,879 --> 00:01:07,019 Итак, вы не знаете что делать, 11 00:01:07,019 --> 00:01:09,230 но вдруг замечаете, 12 00:01:09,230 --> 00:01:10,890 что справа 13 00:01:10,890 --> 00:01:12,940 есть боковая ветка. 14 00:01:12,940 --> 00:01:15,420 И на конце этой ветки находится только 15 00:01:15,420 --> 00:01:18,119 только один рабочий. 16 00:01:18,818 --> 00:01:21,148 Руль трамвая исправен, 17 00:01:21,148 --> 00:01:22,748 и, если захотите, 18 00:01:22,748 --> 00:01:24,248 вы можете повернуть 19 00:01:24,248 --> 00:01:28,550 на эту боковую ветку 20 00:01:28,550 --> 00:01:30,340 и, тем самым, убить одного рабочего, 21 00:01:30,340 --> 00:01:33,009 но спасти жизнь пятерым. 22 00:01:33,009 --> 00:01:35,819 И вот наш первый вопрос: 23 00:01:35,819 --> 00:01:38,659 как правильно поступить? 24 00:01:38,659 --> 00:01:40,328 Как бы вы поступили в этой ситуации? 25 00:01:40,328 --> 00:01:42,390 Давайте проголосуем. 26 00:01:42,390 --> 00:01:47,720 Кто бы повернул на боковую ветку? 27 00:01:47,720 --> 00:01:51,790 Поднимите руки. 28 00:01:51,790 --> 00:01:53,415 Кто не стал бы этого делать 29 00:01:53,415 --> 00:01:57,645 и поехал бы дальше? 30 00:01:57,645 --> 00:02:03,979 Не опускайте руки те, кто поехал бы дальше. 31 00:02:03,979 --> 00:02:08,198 Большинство. Подавляющее большинство повернуло бы. 32 00:02:08,198 --> 00:02:09,878 Давайте теперь разберёмся, 33 00:02:09,878 --> 00:02:14,979 почему вы приняли именно такое решение. 34 00:02:14,979 --> 00:02:18,209 И давайте начнём с большинства. 35 00:02:18,209 --> 00:02:19,729 С тех, кто бы повернул 36 00:02:19,729 --> 00:02:21,948 на боковую ветку. 37 00:02:21,948 --> 00:02:23,508 Почему бы вы это сделали? 38 00:02:23,508 --> 00:02:25,638 Что сподвигло бы вас на это? 39 00:02:25,638 --> 00:02:29,868 Кто хочет высказаться? Есть добровольцы? 40 00:02:29,868 --> 00:02:32,018 Начинайте. Встаньте, пожалуйста. 41 00:02:32,018 --> 00:02:39,318 Я думаю, что неправильно убивать пять человек, когда есть возможность убить только одного. 42 00:02:39,318 --> 00:02:42,177 Было бы неправильно убивать пятерых 43 00:02:42,177 --> 00:02:46,917 если вместо этого вы можете убить только одного. 44 00:02:46,917 --> 00:02:48,399 Да, неплохая причина. 45 00:02:48,399 --> 00:02:50,429 Действительно неплохая. 46 00:02:52,719 --> 00:02:53,692 Кто-нибудь ещё? 47 00:02:53,692 --> 00:02:56,312 Все согласны с таким 48 00:02:56,312 --> 00:02:59,552 объяснением? 49 00:02:59,552 --> 00:03:01,252 Да, пожалуйста. 50 00:03:01,252 --> 00:03:03,449 Я думаю этот случай похож на то, 51 00:03:03,449 --> 00:03:05,399 что произошло с самолётом, 52 00:03:05,399 --> 00:03:07,429 который разбился 53 00:03:07,429 --> 00:03:09,309 в Пенсильвании 11 сентября. 54 00:03:09,309 --> 00:03:11,598 Потому что эти люди, как настоящие герои, предпочли погибнуть, 55 00:03:11,598 --> 00:03:14,348 но избежать большего количества жертв среди людей, 56 00:03:14,348 --> 00:03:15,918 которые находились на земле. 57 00:03:15,918 --> 00:03:19,281 То есть ими руководила та же логика: 58 00:03:19,281 --> 00:03:20,901 в такой безнадёжной ситуации 59 00:03:20,901 --> 00:03:25,356 лучше убить одного, но спасти пятерых. 60 00:03:25,359 --> 00:03:30,628 Именно так считают те, кто повернул бы? Верно? 61 00:03:30,628 --> 00:03:33,778 Давайте теперь послушаем мнение тех, 62 00:03:33,778 --> 00:03:35,288 кто оказался в меньшинстве. 63 00:03:35,288 --> 00:03:39,148 Тех, кто не повернул бы. 64 00:03:39,148 --> 00:03:40,912 Да, вы. 65 00:03:40,912 --> 00:03:45,376 Я думаю, что это такая же точка зрения, которая оправдывает геноцид и тоталитаризм. 66 00:03:45,376 --> 00:03:50,229 Для того, чтобы спасти представителей одной расы, вы стираете с лица Земли другую. 67 00:03:50,229 --> 00:03:51,965 И что бы вы сделали в этом случае? 68 00:03:51,965 --> 00:03:53,188 Для того, 69 00:03:53,188 --> 00:03:55,338 чтобы избежать 70 00:03:55,338 --> 00:03:57,618 ужасов геноцида, 71 00:03:57,618 --> 00:04:03,378 вы предпочли бы врезаться в пятерых рабочих и убить их? 72 00:04:03,378 --> 00:04:05,542 Думаю, да. 73 00:04:05,542 --> 00:04:06,322 Правда? 74 00:04:06,322 --> 00:04:07,434 Да. 75 00:04:07,434 --> 00:04:09,804 Хорошо. Кто ещё хочет высказать своё мнение? 76 00:04:09,806 --> 00:04:13,251 Это смелый ответ. Спасибо. 77 00:04:13,251 --> 00:04:17,024 Давайте теперь рассмотрим 78 00:04:17,024 --> 00:04:20,264 другой пример с трамвайным вагоном 79 00:04:20,264 --> 00:04:24,990 и посмотрим, 80 00:04:24,990 --> 00:04:25,990 будет ли 81 00:04:25,990 --> 00:04:27,990 большинство из вас 82 00:04:27,990 --> 00:04:28,990 придерживаться той же самой логики 83 00:04:30,500 --> 00:04:33,500 «лучше убить одного, чтобы пятеро остались живы». 84 00:04:33,500 --> 00:04:37,963 В этот раз вы не водитель трамвая, вы переводите стрелки. 85 00:04:38,150 --> 00:04:42,879 Вы стоите на мосту и наблюдаете за рельсами. 86 00:04:42,879 --> 00:04:45,879 И вот по рельсам летит трамвай. 87 00:04:45,879 --> 00:04:48,858 На другом конце пять рабочих. 88 00:04:49,620 --> 00:04:52,909 Тормоза не работают, 89 00:04:52,909 --> 00:04:55,909 трамвай вот-вот в них врежется и убьёт. 90 00:04:55,909 --> 00:04:58,309 Сейчас 91 00:04:58,309 --> 00:04:59,309 вы не водитель 92 00:04:59,309 --> 00:05:01,309 и совершенно не знаете, что делать. 93 00:05:01,309 --> 00:05:05,569 И тут вы замечаете, что рядом с вами 94 00:05:05,569 --> 00:05:06,569 стоит, 95 00:05:06,569 --> 00:05:08,569 прислонившись к перилам 96 00:05:08,569 --> 00:05:11,955 моста, 97 00:05:12,624 --> 00:05:15,624 очень толстый человек. 98 00:05:15,624 --> 00:05:24,554 И вы могли бы 99 00:05:24,554 --> 00:05:25,554 его немного подтолкнуть. 100 00:05:25,554 --> 00:05:29,163 Он упал бы с моста 101 00:05:29,163 --> 00:05:30,163 прямо на рельсы, 102 00:05:30,163 --> 00:05:31,163 на пути 103 00:05:31,163 --> 00:05:32,772 трамвая. 104 00:05:32,772 --> 00:05:33,772 Он погиб бы, 105 00:05:33,772 --> 00:05:36,549 но при этом спас бы жизни пятерых человек. 106 00:05:36,549 --> 00:05:38,622 Кто столкнёт толстяка с моста? Поднимите руки. 107 00:05:38,622 --> 00:05:41,622 Итак, кто столкнул бы 108 00:05:41,622 --> 00:05:44,622 толстяка с моста? Поднимите руки. 109 00:05:48,089 --> 00:05:50,065 Кто не стал бы этого делать? 110 00:05:51,199 --> 00:05:54,069 Большинство не стало бы. 111 00:05:54,069 --> 00:05:55,993 Возникает закономерный вопрос: 112 00:05:55,993 --> 00:05:56,993 Что стало 113 00:05:56,993 --> 00:05:58,993 с тем принципом: 114 00:05:58,993 --> 00:06:03,820 лучше спасти пятерых, даже если для этого потребуется принести в жертву жизнь одного человека? 115 00:06:03,942 --> 00:06:06,240 Что стало с тем принципом, который в первом случае 116 00:06:06,240 --> 00:06:09,240 поддерживали почти все? 117 00:06:09,240 --> 00:06:10,733 Для начала я хотел бы услышать мнение тех, кто был в большинстве 118 00:06:10,733 --> 00:06:13,733 в обоих этих примерах. 119 00:06:13,733 --> 00:06:14,733 Как вы объясните разницу между ними? Пожалуйста. 120 00:06:14,733 --> 00:06:16,397 в обоих этих примерах. 121 00:06:16,397 --> 00:06:17,603 Да, пожалуйста. 122 00:06:18,183 --> 00:06:21,838 Полагаю, что во втором случае у вас есть выбор: толкнуть или не толкнуть человека. 123 00:06:24,527 --> 00:06:26,829 Я думаю, 124 00:06:26,829 --> 00:06:29,829 что этот человек не имеет никакого отношения к ситуации, 125 00:06:29,829 --> 00:06:31,503 и вы 126 00:06:31,503 --> 00:06:34,503 как бы за него принимаете решение, 127 00:06:34,503 --> 00:06:40,228 вмешиваться ли в эту ситуацию или нет. 128 00:06:40,866 --> 00:06:47,598 В отличие 129 00:06:47,598 --> 00:06:48,598 от первого случая, 130 00:06:49,598 --> 00:06:51,434 когда все три стороны: водитель 131 00:06:51,434 --> 00:06:52,658 и две группы рабочих, 132 00:06:52,658 --> 00:06:53,474 уже, как мне кажется, принимают активное участие в том, что происходит. 133 00:06:53,474 --> 00:06:54,291 Но ведь тот парень, который один работает на рельсах, на боковой ветке, 134 00:06:54,291 --> 00:06:56,883 Но тот самый рабочий на запасном пути 135 00:06:56,883 --> 00:06:59,475 он же сам не принимал решения пожертвовать своей жизнью, точно так же, как тот толстяк на мосту, не так ли? 136 00:07:02,069 --> 00:07:05,420 Да, но он был на рельсах. И... 137 00:07:05,399 --> 00:07:07,954 А этот парень был на мосту! 138 00:07:10,439 --> 00:07:13,550 Если хотите, можете продолжить. 139 00:07:13,550 --> 00:07:14,697 Ладно, это непростой вопрос, 140 00:07:14,697 --> 00:07:17,697 но вы хорошо справились. 141 00:07:17,697 --> 00:07:26,240 Кто-нибудь ещё 142 00:07:26,240 --> 00:07:27,240 хочет попробовать 143 00:07:27,240 --> 00:07:28,240 объяснить, почему большинство 144 00:07:28,240 --> 00:07:29,240 именно так отреагировало в обоих этих случаях? 145 00:07:29,240 --> 00:07:30,790 Прошу. 146 00:07:30,790 --> 00:07:32,340 Полагаю, 147 00:07:32,340 --> 00:07:34,370 что в первом случае, 148 00:07:34,370 --> 00:07:35,733 в котором присутствует пять рабочих на основной ветке и один на боковой, 149 00:07:35,733 --> 00:07:37,430 вам необходимо сделать выбор между ними 150 00:07:37,430 --> 00:07:39,588 и принять какое-то решение, иначе эти пять человек погибнут под трамваем, 151 00:07:39,588 --> 00:07:42,588 а потому что несётся трамвай. 152 00:07:42,588 --> 00:07:47,799 но вы за это не несёте никакой ответственности. Вагон несётся на большой скорости, 153 00:07:47,799 --> 00:07:49,658 вам нужно принять мгновенное решение. 154 00:07:49,658 --> 00:07:52,658 А сталкивая толстяка с моста, вы совершаете убийство. 155 00:07:52,658 --> 00:07:54,278 Вы можете это контролировать, 156 00:07:54,278 --> 00:07:57,278 в отличие от вагона. 157 00:07:57,278 --> 00:08:00,089 Поэтому я считаю, что это немного другой случай. 158 00:08:00,089 --> 00:08:04,086 Хорошо, кто хочет возразить? Это было неплохо. 159 00:08:04,848 --> 00:08:06,367 Кто хочет ответить? 160 00:08:06,534 --> 00:08:09,110 Объясняет ли это ситуацию? 161 00:08:09,275 --> 00:08:11,245 Я не думаю, что это очень хорошее объяснение, 162 00:08:11,245 --> 00:08:14,829 потому что ты в любом случае выбираешь, кто умрёт: 163 00:08:14,829 --> 00:08:16,718 потому что вам в любом случае нужно выбирать, кто умрёт. Либо вы решаете повернуть и убить человека на рельсах, 164 00:08:16,718 --> 00:08:17,718 что будет являться вашим сознательным 165 00:08:17,718 --> 00:08:19,718 решением. 166 00:08:19,718 --> 00:08:22,207 Либо вы принимаете решение столкнуть толстяка, 167 00:08:22,207 --> 00:08:23,207 что также будет являться вашим сознательным решением. 168 00:08:23,207 --> 00:08:25,207 Так что вы в любом случае делаете какой-то выбор. 169 00:08:27,689 --> 00:08:28,689 Хотите ответить? 170 00:08:28,689 --> 00:08:33,241 Я не уверен, что это так. Мне кажется, всё равно есть определённая разница. 171 00:08:33,404 --> 00:08:40,170 Если вы сталкиваете кого-то с моста и, тем самым, убиваете его, 172 00:08:40,170 --> 00:08:42,600 - ...то в этом случае вы делаете это своими собственными руками. - Толкаете своими собственными руками. - Да, именно, толкаете. 173 00:08:42,600 --> 00:08:45,669 И это отличается от ситуации, 174 00:08:45,669 --> 00:08:48,669 когда вы управляете чем-то, что может стать причиной смерти. 175 00:08:48,669 --> 00:08:49,935 Вы знаете, 176 00:08:49,935 --> 00:08:52,935 теперь мне самому это не очень нравится. 177 00:08:52,935 --> 00:08:53,957 Нет-нет, это было неплохо. Как вас зовут? 178 00:08:54,070 --> 00:08:55,112 Эндрю. 179 00:08:55,357 --> 00:08:58,445 Эндрю, позвольте задать вам вопрос? 180 00:08:59,014 --> 00:09:01,501 Допустим, 181 00:09:01,501 --> 00:09:04,501 что вы стоите на мосту 182 00:09:04,501 --> 00:09:06,373 Теперь не надо его сталкивать. 183 00:09:06,373 --> 00:09:07,621 рядом с толстяком 184 00:09:07,621 --> 00:09:08,869 и вам не нужно его толкать. Допустим, он стоит прислонившись к дверце, 185 00:09:08,869 --> 00:09:10,118 которую вы можете открыть, повернув рычаг. Вот так. 186 00:09:17,324 --> 00:09:18,561 Вы повернули бы? 187 00:09:18,820 --> 00:09:20,371 Не знаю почему, 188 00:09:20,371 --> 00:09:23,371 но это всё равно как-то неправильно. 189 00:09:23,371 --> 00:09:29,972 Возможно, если бы вы случайно облокотились на этот рычаг или что-то в это роде 190 00:09:30,184 --> 00:09:36,850 или, 191 00:09:36,850 --> 00:09:37,850 например, вагон 192 00:09:37,850 --> 00:09:40,351 катился бы к какому-нибудь переключателю, который откроет эту дверцу. 193 00:09:40,351 --> 00:09:41,351 Тогда ещё куда ни шло. 194 00:09:41,351 --> 00:09:42,852 Ладно, достаточно. Как бы то ни было, это всё равно кажется неправильным. 195 00:09:42,852 --> 00:09:45,354 Точно так же, как в первом случае кажется, что правильным поступком было бы повернуть. 196 00:09:45,500 --> 00:09:50,419 С другой стороны, в первом случае вы имеете непосредственное отношение к этой ситуации, 197 00:09:50,419 --> 00:09:52,449 а во втором - нет. 198 00:09:52,450 --> 00:09:56,172 И у вас есть выбор: участвовать или нет, толкать толстяка или нет. 199 00:09:56,366 --> 00:09:59,672 Давайте на минуту забудем об этом случае. 200 00:09:59,900 --> 00:10:03,439 Это было неплохо. 201 00:10:03,439 --> 00:10:06,453 Давайте представим другой случай. На этот раз вы врач в отделении экстренной помощи. 202 00:10:06,619 --> 00:10:09,878 и у вас шесть пациентов. 203 00:10:10,082 --> 00:10:18,692 Они все — участники ужасной аварии с трамваем. 204 00:10:18,882 --> 00:10:22,341 Пять из них ещё держатся, но у одного серьёзные травмы, 205 00:10:22,478 --> 00:10:27,454 вы можете потратить весь день, чтобы вылечить тяжело больного, 206 00:10:27,689 --> 00:10:29,590 но тогда пятеро умрут. 207 00:10:29,798 --> 00:10:31,988 Или вы можете лечить пятерых, восстановить им здоровье, 208 00:10:32,181 --> 00:10:36,408 но в это время тяжело больной умрёт. 209 00:10:36,556 --> 00:10:41,091 Сколько спасут пятерых, будучи теперь доктором? 210 00:10:41,271 --> 00:10:44,005 Кто спасёт одного? 211 00:10:44,431 --> 00:10:46,528 Лишь немногие из вас. 212 00:10:46,528 --> 00:10:49,426 Практически единицы. 213 00:10:49,611 --> 00:10:55,692 Та же причина, я полагаю: одна жизнь против жизни пятерых. 214 00:10:55,692 --> 00:11:02,080 Другой медицинский случай: вы хирург-трансплантолог, 215 00:11:02,080 --> 00:11:08,350 у вас пять пациентов, каждому жизненно необходим какой-то орган. 216 00:11:09,639 --> 00:11:14,180 Одному — сердце, второму —лёгкое, третьему — почка, четвёртому — печень, 217 00:11:14,449 --> 00:11:18,859 а пятому — поджелудочная железа. 218 00:11:20,210 --> 00:11:22,941 У вас нет донора органов. 219 00:11:23,150 --> 00:11:27,050 Вам остаётся просто смотреть, как они умирают. 220 00:11:27,350 --> 00:11:32,046 Но вдруг оказывается, что в соседней комнате 221 00:11:32,407 --> 00:11:37,570 сидит здоровый человек. который просто пришёл провериться. 222 00:11:39,450 --> 00:11:41,537 И он... 223 00:11:43,740 --> 00:11:47,159 Вам это нравится, да? 224 00:11:47,159 --> 00:11:50,740 И он дремлет. 225 00:11:53,269 --> 00:11:58,069 Вы могли бы очень тихо войти, вытащить пять органов, — 226 00:11:58,069 --> 00:12:02,140 этот человек умрёт, но вы сможете спасти пятерых. 227 00:12:03,169 --> 00:12:06,191 Кто бы так сделал? 228 00:12:07,495 --> 00:12:10,483 Хоть кто-то? 229 00:12:10,852 --> 00:12:14,923 Сколько? Поднимите руки, если сделали бы. 230 00:12:18,056 --> 00:12:20,448 Кто-нибудь с балкона? 231 00:12:20,796 --> 00:12:26,675 Вы? Аккуратно, не слишком перегибайтесь… 232 00:12:26,822 --> 00:12:29,121 Кто бы не стал? 233 00:12:29,465 --> 00:12:30,442 Хорошо. 234 00:12:30,594 --> 00:12:33,216 Что скажете? Выскажитесь с балкона, 235 00:12:33,626 --> 00:12:36,196 почему вы бы изъяли органы? 236 00:12:36,386 --> 00:12:40,188 Я хочу предложить немного другое решение: взять только того из пяти 237 00:12:40,188 --> 00:12:44,419 нуждающихся в органах, кто умрёт первым, 238 00:12:44,419 --> 00:12:49,280 и воспользоваться его здоровыми органами, чтобы спасти оставшихся четверых. 239 00:12:49,862 --> 00:12:53,236 Это довольно хорошая идея. 240 00:12:54,639 --> 00:12:57,830 Великолепная идея, 241 00:12:57,830 --> 00:13:04,811 за исключением того, что вы только что разрушили философский смысл. 242 00:13:06,159 --> 00:13:10,170 Итак, давайте отойдём в сторону от этих историй и наших дискуссий, 243 00:13:10,240 --> 00:13:17,033 чтобы отметить пару обстоятельств того, как стала разворачиваться наша дискуссия. 244 00:13:17,360 --> 00:13:24,630 Уже начали проясняться определённые нравственные принципы в ходе обсуждений. 245 00:13:25,879 --> 00:13:30,780 Давайте рассмотрим, что из себя представляют эти принципы. 246 00:13:31,250 --> 00:13:35,710 Первый нравственный принцип, появившийся в дискуссии, гласил: 247 00:13:35,710 --> 00:13:40,540 правильный поступок, нравственный поступок зависит от последствий, 248 00:13:40,540 --> 00:13:44,904 в которые выльются ваши действия. 249 00:13:47,080 --> 00:13:51,080 В конце концов лучше, чтобы выжили пятеро, даже если один должен умереть. 250 00:13:51,100 --> 00:13:57,820 Это пример консеквенциальной этики. 251 00:13:58,998 --> 00:14:04,310 Консеквенциальная этика помещает мораль в контекст последствий действий. 252 00:14:04,309 --> 00:14:06,549 253 00:14:06,549 --> 00:14:09,049 254 00:14:09,049 --> 00:14:12,789 Потом мы пошли немного дальше, мы рассмотрели другие случаи, 255 00:14:12,789 --> 00:14:18,608 и вы уже не были столь уверены в правильности консеквенционализма. 256 00:14:20,529 --> 00:14:29,338 Когда вы не решались столкнуть толстяка или изъять органы невинного пациента. 257 00:14:29,750 --> 00:14:39,742 Вы указали на доводы, связанные с внутренними особенностями самого действия. 258 00:14:40,092 --> 00:14:42,770 Будь что будет! 259 00:14:42,769 --> 00:14:45,179 Вы сопротивлялись. 260 00:14:45,179 --> 00:14:48,617 Вы думали, что это просто неправильно, категорически неправильно — 261 00:14:48,840 --> 00:14:56,372 убить человека, невинного человека, даже ради спасения пяти жизней. 262 00:14:56,748 --> 00:15:04,035 Люди думали так как минимум во второй версии каждого мысленного эксперимента. 263 00:15:04,386 --> 00:15:15,843 Это указывает на второй, категорический способ размышления о нравственности. 264 00:15:16,182 --> 00:15:19,431 Категорическая нравственность ставит мораль перед определёнными 265 00:15:19,740 --> 00:15:23,860 абсолютно-этическими требованиями, перед обязательствами и правами, 266 00:15:24,048 --> 00:15:27,220 несмотря на последствия. 267 00:15:27,220 --> 00:15:31,755 На протяжении нескольких недель мы будем изучать разницу 268 00:15:31,755 --> 00:15:36,540 между консеквенциализмом и категорическим императивом. 269 00:15:36,539 --> 00:15:43,450 Важнейший пример консеквенциальной этики это утилитаризм — доктрина, 270 00:15:43,450 --> 00:15:49,680 предложенная английским политическим философом 18-го века Джереми Бентамом. 271 00:15:51,100 --> 00:15:56,239 Наиболее видным философом категориальной теории нравственности 272 00:15:56,239 --> 00:16:01,544 является немецкий философ 18-го века Иммануил Кант. 273 00:16:02,390 --> 00:16:06,310 Мы остановимся на этих двух разных видах морального суждения, 274 00:16:06,310 --> 00:16:09,639 дадим им оценку, а также рассмотрим другие виды. 275 00:16:10,429 --> 00:16:15,310 Из учебной программы видно, что мы изучим множество книг: 276 00:16:15,940 --> 00:16:21,909 произведения Аристотеля, Джона Локка, Иммануила Канта, Джона Стюарта Милля, 277 00:16:21,909 --> 00:16:22,629 и других. 278 00:16:23,930 --> 00:16:27,730 Обратите внимание на то, что мы не только рассмотрим эти книги, 279 00:16:27,860 --> 00:16:34,549 но и обсудим современные политические и правовые разногласия, 280 00:16:34,549 --> 00:16:36,563 поднимающие философские вопросы. 281 00:16:36,944 --> 00:16:41,269 Мы будем говорить о равенстве и неравенстве, о позитивной дискриминации, 282 00:16:41,269 --> 00:16:43,627 о свободе слова и пропаганде ненависти, 283 00:16:43,696 --> 00:16:46,951 об однополых браках и воинской повинности,— 284 00:16:46,951 --> 00:16:49,740 эти и другие прикладные вопросы будут подняты, 285 00:16:49,740 --> 00:16:54,450 чтобы не только «оживить» отвлечённые книги, 286 00:16:54,450 --> 00:16:59,780 но и внести ясность, что поставлено на карту 287 00:16:59,780 --> 00:17:03,160 в нашей повседневной жизни, в том числе и в политическом отношении. 288 00:17:05,694 --> 00:17:09,818 После изучения книг и обсуждения прикладных вопросов, 289 00:17:09,818 --> 00:17:15,480 мы увидим, как они дополняют и освещают друг друга. 290 00:17:15,480 --> 00:17:21,447 Возможно, это звучит заманчиво, но я должен предупредить: 291 00:17:23,739 --> 00:17:33,569 такой способ прочтения книг, при котором вы упражняетесь в самопознании, 292 00:17:33,569 --> 00:17:34,669 несет в себе определённые риски — риски как персональные, так и политические; 293 00:17:34,669 --> 00:17:35,250 риски, о которых знает каждый студент курса политической философии. 294 00:17:35,250 --> 00:17:35,970 Эти риски исходят из того, что философия учит нас, 295 00:17:35,970 --> 00:17:37,309 при этом нарушая привычный распорядок, идя вразрез с тем, что мы уже знаем. 296 00:17:37,309 --> 00:17:40,029 Парадоксально, но сложность этого курса в том, что вы учите уже известное вам. 297 00:17:40,029 --> 00:17:40,939 Знания, имеющиеся у нас из неоспоримых истин, превращаются в чуждые. 298 00:17:40,939 --> 00:17:42,119 Именно так работают наши примеры: шутливые гипотетические случаи, 299 00:17:42,869 --> 00:17:44,510 с которых мы начали эту лекцию, они правда отрезвляют. 300 00:17:48,134 --> 00:17:51,540 Эти риски вытекают из того, что философия 301 00:17:51,540 --> 00:17:53,760 учит нас, 302 00:17:53,760 --> 00:17:56,000 побуждает нас сомневаться 303 00:17:56,000 --> 00:17:58,920 и идти вразрез с тем, что мы уже знаем. 304 00:18:00,860 --> 00:18:02,280 Парадоксально, 305 00:18:02,829 --> 00:18:08,049 но сложность этого курса заключается в изучении того, что вам и так уже известно. 306 00:18:09,319 --> 00:18:14,699 Знания, которые мы получили из известных неоспоримых истин, 307 00:18:15,950 --> 00:18:17,680 превращаются в чуждые. 308 00:18:19,789 --> 00:18:21,899 Именно так работают наши примеры, 309 00:18:22,609 --> 00:18:28,329 те шутливые гипотетические случаи, с которых мы начали эту лекцию. 310 00:18:28,729 --> 00:18:31,620 Точно такое же влияние оказывают книги по философии. 311 00:18:31,620 --> 00:18:35,030 Философия отстраняет нас 312 00:18:35,030 --> 00:18:37,000 от хорошо известных истин, 313 00:18:37,000 --> 00:18:39,320 не давая при этом новой информации, 314 00:18:39,970 --> 00:18:41,540 но увлекая нас за собой 315 00:18:41,540 --> 00:18:42,660 и провоцируя 316 00:18:43,109 --> 00:18:46,179 на то, чтобы посмотреть на вещи по-новому. 317 00:18:46,940 --> 00:18:49,240 Но здесь кроется риск. 318 00:18:49,800 --> 00:18:53,960 Когда однажды привычное станет чуждым, 319 00:18:53,960 --> 00:18:56,289 оно уже никогда не будет прежним. 320 00:18:57,289 --> 00:18:59,849 Самопознание 321 00:18:59,849 --> 00:19:02,070 похоже на потерю невинности, 322 00:19:02,680 --> 00:19:04,520 Однако то, что вы обнаружите, 323 00:19:04,520 --> 00:19:05,710 изменив привычное ви́дение, 324 00:19:05,710 --> 00:19:07,229 не будет для вас 325 00:19:07,229 --> 00:19:09,229 неожиданным 326 00:19:09,229 --> 00:19:10,570 или неизвестным. 327 00:19:13,160 --> 00:19:16,910 Это делает наш курс сложным, 328 00:19:16,910 --> 00:19:18,609 но от этого не менее захватывающим. 329 00:19:19,549 --> 00:19:24,880 Моральная и политическая философия - это история, 330 00:19:24,880 --> 00:19:28,900 и ты никогда не знаешь, куда она тебя приведёт, но ты точно знаешь, 331 00:19:28,900 --> 00:19:31,079 что эта история 332 00:19:31,079 --> 00:19:32,249 о тебе самом. 333 00:19:33,909 --> 00:19:36,970 Это индивидуальный риск. 334 00:19:36,970 --> 00:19:39,469 Теперь рассмотрим политические риски. 335 00:19:39,839 --> 00:19:42,740 Одним из способов пробудить у вас интерес к этому курсу 336 00:19:42,740 --> 00:19:44,528 было бы пообещать вам, 337 00:19:44,528 --> 00:19:46,010 что после прочтения этих книг 338 00:19:46,010 --> 00:19:47,830 и обсуждения определённых вопросов 339 00:19:47,830 --> 00:19:51,609 вы станете более ответственным членом общества. 340 00:19:51,609 --> 00:19:56,930 Вы изучите основы общественного устройства, отточите свои политические суждения, 341 00:19:56,930 --> 00:20:02,729 научитесь более эффективно участвовать в общественной жизни. 342 00:20:02,729 --> 00:20:06,029 Но это было бы однобокое и в целом неверное обещание. 343 00:20:06,029 --> 00:20:11,059 Политическая философия в своей основе состоит в другом. 344 00:20:11,059 --> 00:20:14,229 Нам необходимо допустить, 345 00:20:14,229 --> 00:20:18,840 что политическая философия вместо того, чтобы сделать вас лучше, 346 00:20:18,840 --> 00:20:21,530 может сделать вас менее сознательным гражданином. 347 00:20:21,530 --> 00:20:23,700 Или, по крайней мере, сделает вас менее сознательным гражданином 348 00:20:23,700 --> 00:20:25,439 до того, как вы станете 349 00:20:25,439 --> 00:20:27,869 лучше. 350 00:20:27,869 --> 00:20:30,380 Это происходит потому, что философия 351 00:20:30,380 --> 00:20:32,220 является сама по себе занятием, удаляющим нас от реальности 352 00:20:32,220 --> 00:20:36,550 и, порой, развращающим. 353 00:20:36,550 --> 00:20:39,789 Давайте вернёмся во времена Сократа 354 00:20:39,789 --> 00:20:42,029 и обратимся к диалогу "Горгий", 355 00:20:42,029 --> 00:20:44,580 в котором один из друзей Сократа 356 00:20:44,580 --> 00:20:45,620 Калликл, 357 00:20:45,619 --> 00:20:47,239 пытается отговорить его 358 00:20:47,240 --> 00:20:49,970 от философствований. 359 00:20:49,970 --> 00:20:54,400 Калликл говорит ему, что философия, конечно, милая забава, 360 00:20:54,400 --> 00:20:57,980 если предаваться ей в разумных пределах и в определённом возрасте. 361 00:20:57,980 --> 00:21:03,779 Но если философствующий погружается в неё глубже, чем должно, он упирается в тупик. 362 00:21:03,779 --> 00:21:06,669 Калликл говорит: "Прими мой совет, 363 00:21:06,669 --> 00:21:08,199 оставь словопрения 364 00:21:08,199 --> 00:21:11,110 и обратись к жизни деятельной. 365 00:21:11,110 --> 00:21:16,470 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 366 00:21:16,470 --> 00:21:19,899 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 367 00:21:19,899 --> 00:21:22,189 и благословлён другими достоинствами". 368 00:21:22,189 --> 00:21:26,668 Другими словами, Калликл убеждает Сократа 369 00:21:26,668 --> 00:21:28,590 оставить философствования, 370 00:21:28,590 --> 00:21:30,439 обратиться к реальности, 371 00:21:30,439 --> 00:21:34,990 поступить в бизнес-школу. 372 00:21:34,990 --> 00:21:38,300 И Калликл был по-своему прав. 373 00:21:38,299 --> 00:21:39,690 Он был прав в том, 374 00:21:39,690 --> 00:21:42,210 что философия уводит нас в сторону 375 00:21:42,210 --> 00:21:45,009 от традиций, установленных допущений 376 00:21:45,009 --> 00:21:46,750 и устоявшихся убеждений. 377 00:21:46,750 --> 00:21:48,650 Здесь нас и подстерегают опасности, 378 00:21:48,650 --> 00:21:49,970 индивидуальные и политические. 379 00:21:49,970 --> 00:21:54,089 В ответ на их угрозу сознание включает защитный механизм, 380 00:21:54,089 --> 00:21:57,470 который мы называем скептицизмом. 381 00:21:57,470 --> 00:21:58,990 Происходит это примерно следующим образом. 382 00:21:58,990 --> 00:22:03,660 Мы так и не смогли прийти к единому мнению 383 00:22:03,660 --> 00:22:09,759 по вопросам, с обсуждения которых мы начали эту лекцию, 384 00:22:09,759 --> 00:22:11,390 но если ни Аристотель, 385 00:22:11,390 --> 00:22:17,220 ни Локк, ни Кант, ни Милль не дали на них ответа, 386 00:22:17,220 --> 00:22:19,589 то кто мы такие, 387 00:22:19,589 --> 00:22:23,730 те, кто собрался в этом зале на один семестр, 388 00:22:23,730 --> 00:22:26,430 чтобы вдруг разрешить их? 389 00:22:26,430 --> 00:22:29,460 Может быть определённое видение мира - 390 00:22:29,460 --> 00:22:33,519 это личное дело каждого человека? Может быть к этому больше нечего добавить? 391 00:22:33,519 --> 00:22:34,170 Может быть 392 00:22:34,170 --> 00:22:36,590 правильного ответа не существует? 393 00:22:36,589 --> 00:22:37,649 Это попытка бегства. 394 00:22:37,650 --> 00:22:39,440 Бегства в скептицизм. 395 00:22:39,440 --> 00:22:41,279 На это я ответил бы 396 00:22:41,279 --> 00:22:42,660 следующим образом. 397 00:22:42,660 --> 00:22:43,720 Да, над этими вопросами 398 00:22:43,720 --> 00:22:47,559 люди бьются долгое время. 399 00:22:47,559 --> 00:22:49,059 Но сам факт того, 400 00:22:49,059 --> 00:22:52,700 что они возвращаются к нам, нерешённые, снова и снова настойчиво требуя от нас ответа, 401 00:22:52,700 --> 00:22:54,650 может, с одной стороны, говорить о том, 402 00:22:54,650 --> 00:22:57,169 что разрешить их невозможно, 403 00:22:57,169 --> 00:22:59,800 а с другой - о том, что они их возникновение неизбежно. 404 00:22:59,799 --> 00:23:02,299 И причина их неизбежности в том, 405 00:23:02,299 --> 00:23:06,500 что каждый из нас своей собственной жизнью 406 00:23:06,500 --> 00:23:10,069 каждый день по-своему отвечает на эти вопросы. 407 00:23:10,069 --> 00:23:16,129 Таким образом, скептики, в бессилии разводя руками и отказываясь от попыток дать ответы на эти вопросы, 408 00:23:16,130 --> 00:23:18,280 просто уходят от решения моральных дилемм. 409 00:23:18,279 --> 00:23:19,990 Иммануил Кант 410 00:23:19,990 --> 00:23:23,710 очень ёмко описал несостоятельность скептицизма: 411 00:23:23,710 --> 00:23:26,308 "Скептицизм есть привал для человеческого разума, 412 00:23:26,308 --> 00:23:29,099 где он может обдумать своё догматическое странствие, 413 00:23:29,099 --> 00:23:33,069 но это вовсе не место для постоянного пребывания." 414 00:23:33,069 --> 00:23:35,939 Кант писал: "Простое принятие скептицизма 415 00:23:35,940 --> 00:23:42,660 никогда не удовлетворит страждущий разум." 416 00:23:42,660 --> 00:23:47,040 Всеми этими примерами я пытался дать вам некоторое представление о том, 417 00:23:47,039 --> 00:23:49,898 с какими опасностями и искушениями сталкивается ступивший 418 00:23:49,898 --> 00:23:52,589 на путь философского познания и понявший, какие безграничные возможности открываются перед ним. 419 00:23:52,589 --> 00:23:55,589 В заключение я хотел бы сказать, 420 00:23:55,589 --> 00:23:58,099 что задача этого курса 421 00:23:58,099 --> 00:23:59,629 разбудить 422 00:23:59,630 --> 00:24:02,240 страждущий разум 423 00:24:02,240 --> 00:24:04,380 и показать, как далеко он может нас увести. 424 00:24:04,380 --> 00:24:11,380 Спасибо за внимание. 425 00:24:15,440 --> 00:24:16,980 В такой отчаянной ситуации 426 00:24:16,980 --> 00:24:21,259 - ...вы должны сделать всё, что можно, чтобы выжить. - Вы должны сделать всё, что можно? - Да, вы должны сделать всё, 427 00:24:21,259 --> 00:24:22,779 что можно. 428 00:24:22,779 --> 00:24:23,619 Примерно так. 429 00:24:23,619 --> 00:24:25,699 Если вы 19 дней ничего не ели, 430 00:24:25,700 --> 00:24:32,700 - ...кто-то из вас должен пожертвовать собой ради спасения остальных. - Хорошо, как ваше имя? - Маркус. 431 00:24:33,569 --> 00:24:38,359 Что вы ответите Маркусу? 432 00:24:40,309 --> 00:24:44,569 В прошлый раз 433 00:24:44,569 --> 00:24:46,880 мы начали 434 00:24:46,880 --> 00:24:48,830 с нескольких историй, 435 00:24:48,830 --> 00:24:50,859 с нескольких моральных дилемм: 436 00:24:50,859 --> 00:24:52,689 о трамваях 437 00:24:52,689 --> 00:24:54,249 о докторах, 438 00:24:54,249 --> 00:24:56,199 а также о здоровых пациентах, 439 00:24:56,199 --> 00:24:57,379 рискующих 440 00:24:57,379 --> 00:25:00,690 стать жертвами трансплантации органов. 441 00:25:00,690 --> 00:25:03,699 Мы обратили внимание на две особенности 442 00:25:03,699 --> 00:25:06,660 в доводах, которые мы приводили. 443 00:25:06,660 --> 00:25:09,689 Первая особенность связана с тем, как именно мы спорили. 444 00:25:09,689 --> 00:25:13,179 Всё началось с наших суждений об определённых случаях. 445 00:25:13,179 --> 00:25:18,050 Мы попытались сформулировать причины или принципы, 446 00:25:18,050 --> 00:25:22,109 лежащие в основе наших суждений. 447 00:25:22,109 --> 00:25:25,180 И затем, столкнувшись с новым случаем, 448 00:25:25,180 --> 00:25:30,209 мы пересматривали эти принципы, 449 00:25:30,209 --> 00:25:33,269 рассматривая один в свете другого. 450 00:25:33,269 --> 00:25:38,920 И мы почувствовали внутреннее сопротивление, пытаясь привести в соответствие 451 00:25:38,920 --> 00:25:41,680 наши суждения об определённых случаях 452 00:25:41,680 --> 00:25:43,940 и принципы, лежащие 453 00:25:43,940 --> 00:25:46,360 в основе этих суждений. 454 00:25:46,359 --> 00:25:50,589 Мы также заметили кое-что в содержании доводов, 455 00:25:50,589 --> 00:25:55,190 которые возникли в ходе обсуждения. 456 00:25:55,190 --> 00:26:00,649 Мы заметили, что иногда мы испытывали желание дать моральную оценку последствиям действий, 457 00:26:00,649 --> 00:26:06,049 результатам, положению дел, к которому эти действия привели. 458 00:26:06,049 --> 00:26:09,019 Мы назвали это явление 459 00:26:09,019 --> 00:26:11,510 консеквенциальной аргументацией. 460 00:26:11,510 --> 00:26:13,080 Но мы также заметили, 461 00:26:13,080 --> 00:26:16,300 что в некоторых ситуациях 462 00:26:16,300 --> 00:26:18,469 не только результат имел для нас 463 00:26:18,469 --> 00:26:21,219 значение. 464 00:26:21,219 --> 00:26:23,399 Иногда, 465 00:26:23,400 --> 00:26:25,350 как многие из нас почувствовали, 466 00:26:25,349 --> 00:26:30,990 не только последствия, но и сущность или характер действия 467 00:26:30,990 --> 00:26:34,959 имеют моральное значение. 468 00:26:34,959 --> 00:26:40,470 Некоторые люди утверждали, что есть определённые вещи, которые просто категорически неправильны, 469 00:26:40,470 --> 00:26:42,449 даже если за ними последует 470 00:26:42,449 --> 00:26:44,180 положительный результат. 471 00:26:44,180 --> 00:26:45,490 Даже 472 00:26:45,490 --> 00:26:47,200 если они приведут к спасению жизни пяти людей 473 00:26:47,200 --> 00:26:49,588 ценой одной жизни. 474 00:26:49,588 --> 00:26:52,500 Таким образом, мы сравнили консеквенциальные 475 00:26:52,500 --> 00:26:54,450 моральные принципы 476 00:26:54,450 --> 00:26:57,830 и категорические 477 00:26:57,830 --> 00:26:59,790 Cегодня 478 00:26:59,789 --> 00:27:00,819 и в ближайшие несколько дней 479 00:27:00,819 --> 00:27:05,879 мы начнём рассматривать одну из самых влиятельных 480 00:27:05,879 --> 00:27:08,409 версий консеквенциальной 481 00:27:08,409 --> 00:27:10,970 моральной теории 482 00:27:10,970 --> 00:27:15,669 - философию утилитаризма. 483 00:27:15,669 --> 00:27:17,330 Джереми Бентам 484 00:27:17,330 --> 00:27:21,730 - английский политический философ 18-ого века 485 00:27:21,730 --> 00:27:22,910 дал первое 486 00:27:22,910 --> 00:27:26,300 чёткое систематическое определение 487 00:27:26,300 --> 00:27:28,330 утилитаристской 488 00:27:28,330 --> 00:27:31,800 моральной теории. 489 00:27:31,800 --> 00:27:36,260 Идея Бентама, 490 00:27:36,260 --> 00:27:38,300 его основная мысль, 491 00:27:38,300 --> 00:27:42,610 очень проста 492 00:27:42,610 --> 00:27:44,808 и несёт 493 00:27:44,808 --> 00:27:46,929 интуитивно понятный 494 00:27:46,929 --> 00:27:48,429 посыл. 495 00:27:48,430 --> 00:27:50,450 Она заключается 496 00:27:50,450 --> 00:27:51,590 в следующем: 497 00:27:51,589 --> 00:27:54,439 правильное действие, 498 00:27:54,440 --> 00:27:57,619 справедливое действие 499 00:27:57,619 --> 00:27:58,319 должно 500 00:27:58,319 --> 00:28:01,169 максимизировать 501 00:28:01,169 --> 00:28:02,339 полезность. 502 00:28:02,339 --> 00:28:06,329 Что он имел в виду под словом «полезность»? 503 00:28:06,329 --> 00:28:11,490 Под «полезностью» он имел в виду преобладание 504 00:28:11,490 --> 00:28:14,000 удовольствия над болью, 505 00:28:14,000 --> 00:28:16,778 счастья над страданием. 506 00:28:16,778 --> 00:28:18,210 И вот как он достиг 507 00:28:18,210 --> 00:28:19,259 принципа 508 00:28:19,259 --> 00:28:22,308 максимизации полезности. 509 00:28:22,308 --> 00:28:24,450 Он начал с наблюдения, заметив, 510 00:28:24,450 --> 00:28:26,399 что все мы, 511 00:28:26,398 --> 00:28:27,750 все люди 512 00:28:27,750 --> 00:28:31,430 управляемы двумя полновластными "повелителями" - 513 00:28:31,430 --> 00:28:34,620 болью и удовольствием. 514 00:28:34,619 --> 00:28:36,890 Нам, людям, 515 00:28:36,890 --> 00:28:42,308 нравится удовольствие и не нравится боль. 516 00:28:42,308 --> 00:28:45,839 И поэтому мы всегда должны основывать наши моральные суждения, 517 00:28:45,839 --> 00:28:49,169 будь то мысли человека о том, какими должны быть его поступки в частной жизни, 518 00:28:49,170 --> 00:28:50,490 или 519 00:28:50,490 --> 00:28:52,579 его мысли как законодателя или гражданина 520 00:28:52,579 --> 00:28:57,029 о том, каким должен быть закон, на следующем: 521 00:28:57,029 --> 00:29:01,919 нужно действовать, индивидуально или же коллективно, 522 00:29:01,919 --> 00:29:05,838 в направлении максимизации 523 00:29:05,838 --> 00:29:07,560 общего уровня 524 00:29:07,560 --> 00:29:11,259 счастья. 525 00:29:11,259 --> 00:29:15,320 Утилитаризм Бентама иногда выражается слоганом: 526 00:29:15,320 --> 00:29:18,799 "наибольшее благо для наибольшего количества". 527 00:29:18,799 --> 00:29:20,088 Вооружившись этим 528 00:29:20,088 --> 00:29:22,780 базовым принципом полезности, 529 00:29:22,780 --> 00:29:26,410 давайте проверим его, 530 00:29:26,410 --> 00:29:28,099 применив к другому случаю. 531 00:29:28,099 --> 00:29:30,620 На этот раз история 532 00:29:30,619 --> 00:29:32,639 не гипотетическая, 533 00:29:32,640 --> 00:29:33,999 а вполне реальная. 534 00:29:33,999 --> 00:29:38,139 Дело Дадли и Стивенса. 535 00:29:38,139 --> 00:29:41,690 Это знаменитое британское судебное дело 19-ого века, 536 00:29:41,690 --> 00:29:43,599 которое 537 00:29:43,599 --> 00:29:47,068 часто разбирается на юридических факультетах. 538 00:29:47,068 --> 00:29:50,059 Итак, что же произошло в этом деле? 539 00:29:50,059 --> 00:29:51,569 Я вкратце изложу его суть, 540 00:29:51,569 --> 00:29:54,360 и затем я хотел бы услышать, 541 00:29:54,360 --> 00:29:56,930 как бы вы разрешили его, 542 00:29:56,930 --> 00:29:59,950 если бы оказались на месте присяжных. 543 00:30:03,419 --> 00:30:05,799 В газетном отчёте того времени 544 00:30:05,799 --> 00:30:08,799 оно было описано так: 545 00:30:08,799 --> 00:30:11,240 «Нет истории печальнее на свете, 546 00:30:11,240 --> 00:30:12,569 чем история 547 00:30:12,569 --> 00:30:14,788 выживших с яхты 548 00:30:14,788 --> 00:30:16,240 «Mignonette» («Резеда») 549 00:30:16,240 --> 00:30:18,569 Это судно затонуло в Южной Атлантике 550 00:30:18,569 --> 00:30:21,599 в трёхстах милях от Мыса Доброй Надежды. 551 00:30:21,599 --> 00:30:23,580 На борту было четыре человека: 552 00:30:23,580 --> 00:30:25,920 капитан Дадли, 553 00:30:25,920 --> 00:30:27,660 его главный помощник Стивенс 554 00:30:27,660 --> 00:30:30,020 и матрос Брукс. 555 00:30:30,020 --> 00:30:31,279 Все они были «людьми 556 00:30:31,279 --> 00:30:32,490 с безукоризненной репутацией». 557 00:30:32,490 --> 00:30:34,169 По крайней мере, так говорит нам об этом 558 00:30:34,169 --> 00:30:35,719 газетный отчёт. 559 00:30:35,719 --> 00:30:38,639 Четвёртым членом команды был 560 00:30:38,640 --> 00:30:40,300 семнадцатилетний юнга 561 00:30:40,299 --> 00:30:42,719 Ричард Паркер. 562 00:30:42,719 --> 00:30:44,530 Он был сиротой, 563 00:30:44,530 --> 00:30:46,810 у него не было семьи, 564 00:30:46,810 --> 00:30:51,290 и это было его первое дальнее плавание. 565 00:30:51,290 --> 00:30:53,700 Как говорит нам газетный отчёт, он отправился в путешествие, 566 00:30:53,700 --> 00:30:56,730 не послушавшись совета своих друзей. 567 00:30:56,730 --> 00:30:59,850 Полный надежд и юношеских амбиций, 568 00:30:59,850 --> 00:31:03,000 он думал, что путешествие сделает из него мужчину. 569 00:31:03,000 --> 00:31:05,140 К сожалению, этому не суждено было произойти. 570 00:31:05,140 --> 00:31:07,499 Факты дела не были предметом спора. 571 00:31:07,499 --> 00:31:08,970 В судно ударила волна, 572 00:31:08,970 --> 00:31:12,000 и «Mignonette» («Резеда») пошла ко дну. 573 00:31:12,000 --> 00:31:14,709 Экипаж сумел сесть в спасательную шлюпку. 574 00:31:14,709 --> 00:31:18,139 Единственной едой, которую они имели 575 00:31:18,139 --> 00:31:19,659 были две 576 00:31:19,659 --> 00:31:20,990 банки консервированной 577 00:31:20,990 --> 00:31:21,599 репы. 578 00:31:21,599 --> 00:31:23,900 Никакой питьевой воды. 579 00:31:23,900 --> 00:31:26,610 Первые три дня они ничего не ели, 580 00:31:26,609 --> 00:31:30,280 на четвёртый день они открыли одну из консервных банок 581 00:31:30,280 --> 00:31:31,590 и съели её содержимое. 582 00:31:31,589 --> 00:31:34,449 На следующий день они поймали черепаху. 583 00:31:34,450 --> 00:31:36,960 Оставшаяся банка с репой 584 00:31:36,960 --> 00:31:38,549 и черепаха 585 00:31:38,549 --> 00:31:40,058 помогли им продержаться 586 00:31:40,058 --> 00:31:43,069 ещё несколько дней, но затем в течение восьми дней 587 00:31:43,069 --> 00:31:44,038 у них уже не было ничего, 588 00:31:44,038 --> 00:31:47,069 ни еды, ни воды. 589 00:31:47,069 --> 00:31:50,069 Представьте себя в такой ситуации. 590 00:31:50,069 --> 00:31:52,849 Что бы вы сделали? 591 00:31:52,849 --> 00:31:55,119 Вот что сделали они. 592 00:31:55,119 --> 00:32:00,969 К этому моменту юнга Паркер лежал в углу на дне шлюпки, 593 00:32:00,970 --> 00:32:03,230 потому что напился морской воды, 594 00:32:03,230 --> 00:32:05,490 не послушав остальных. 595 00:32:05,490 --> 00:32:07,230 Ему сделалось дурно, 596 00:32:07,230 --> 00:32:10,669 и было понятно, что он умирает. 597 00:32:10,669 --> 00:32:14,619 На девятнадцатый день капитан Дадли предложил 598 00:32:14,618 --> 00:32:17,349 всем бросить 599 00:32:17,349 --> 00:32:18,759 жребий 600 00:32:18,759 --> 00:32:19,619 и определить, 601 00:32:19,619 --> 00:32:20,859 кому суждено умереть, 602 00:32:20,859 --> 00:32:24,079 чтобы спасти остальных. 603 00:32:24,079 --> 00:32:25,210 Брукс 604 00:32:25,210 --> 00:32:26,539 отказался, 605 00:32:26,539 --> 00:32:29,139 ему не понравилась идея со жребием. 606 00:32:29,140 --> 00:32:30,619 Мы не знаем, было ли это 607 00:32:30,618 --> 00:32:35,999 вызвано тем, что он не хотел рисковать, или же тем, что он верил в категорические моральные 608 00:32:35,999 --> 00:32:36,870 принципы, 609 00:32:36,869 --> 00:32:38,619 но в любом случае 610 00:32:38,619 --> 00:32:42,129 жребий так и не был брошен. 611 00:32:42,130 --> 00:32:43,230 На следующий день 612 00:32:43,230 --> 00:32:45,028 спасательного корабля на горизонте по-прежнему не было, 613 00:32:45,028 --> 00:32:48,470 и Дадли попросил Брукса отвернуться, 614 00:32:48,470 --> 00:32:50,720 жестом показав Стивенсу, 615 00:32:50,720 --> 00:32:53,929 что мальчишку Паркера нужно убить. 616 00:32:53,929 --> 00:32:55,850 Дадли помолился, 617 00:32:55,849 --> 00:32:58,480 сказал мальчику, что его время пришло, 618 00:32:58,480 --> 00:33:00,679 и зарезал его перочинным ножом, 619 00:33:00,679 --> 00:33:03,900 поразив яремную вену. 620 00:33:03,900 --> 00:33:09,750 Брукс, отрекшийся от соображений совести, тоже воспользовался этим жутким «подарком». 621 00:33:09,750 --> 00:33:11,029 Четыре дня 622 00:33:11,029 --> 00:33:15,230 они втроём питались телом и кровью юнги. 623 00:33:15,230 --> 00:33:17,220 Реальная история. 624 00:33:17,220 --> 00:33:19,390 А затем их спасли. 625 00:33:19,390 --> 00:33:22,840 Дадли описал это спасение 626 00:33:22,839 --> 00:33:24,678 в своём дневнике 627 00:33:24,679 --> 00:33:27,570 поразительным эвфемизмом. Цитата: 628 00:33:27,569 --> 00:33:29,648 «На двадцать четвёртый день 629 00:33:29,648 --> 00:33:34,750 когда мы завтракали, 630 00:33:34,750 --> 00:33:38,599 наконец-то показался корабль». 631 00:33:38,599 --> 00:33:44,309 Трое выживших были подобраны немецким кораблём и их отправили назад в Фэлмут, в Англию, 632 00:33:44,309 --> 00:33:47,079 где они были арестованы и подвергнуты суду. 633 00:33:47,079 --> 00:33:47,829 Брукс 634 00:33:47,829 --> 00:33:49,949 был свидетелем обвинения, 635 00:33:49,950 --> 00:33:54,450 а Дадли и Стивенс были обвиняемыми. Они не оспаривали факты 636 00:33:54,450 --> 00:33:55,390 и утверждали, 637 00:33:55,390 --> 00:33:58,140 что действовали в состоянии крайней необходимости. 638 00:33:58,140 --> 00:33:59,430 Это была их линия защиты. 639 00:33:59,430 --> 00:34:01,220 Они настаивали на том, что 640 00:34:01,220 --> 00:34:03,250 смерть одного человека более предпочтительна, 641 00:34:03,250 --> 00:34:06,420 чем смерть троих. 642 00:34:06,420 --> 00:34:08,619 Обвинителя 643 00:34:08,619 --> 00:34:10,849 не убедил такой аргумент. 644 00:34:10,849 --> 00:34:12,509 Он сказал: «Убийство есть убийство». 645 00:34:12,509 --> 00:34:16,429 Дело передали в суд. Теперь представьте, что вы присяжные. 646 00:34:16,429 --> 00:34:19,489 Чтобы упростить обсуждение, 647 00:34:19,489 --> 00:34:21,989 оставим в стороне вопрос права 648 00:34:21,989 --> 00:34:23,010 и представим, что 649 00:34:23,010 --> 00:34:25,879 как присяжные 650 00:34:25,878 --> 00:34:28,278 вы должны решить, 651 00:34:28,278 --> 00:34:31,009 было ли то, что они сделали, 652 00:34:31,009 --> 00:34:34,378 морально допустимым или нет. 653 00:34:34,378 --> 00:34:36,608 Кто из вас 654 00:34:36,608 --> 00:34:39,808 проголосовал бы 655 00:34:39,809 --> 00:34:46,809 за то, что они невиновны и что совершённое ими было морально допустимо? 656 00:34:49,528 --> 00:34:51,639 А кто проголосовал бы за то, что они виновны 657 00:34:51,639 --> 00:34:54,858 и что совершённое ими было морально недопустимо? 658 00:34:54,858 --> 00:34:57,998 Значительное большинство. 659 00:34:57,998 --> 00:35:03,808 Давайте послушаем ваши соображения, и позвольте мне начать с тех, кто оказался в меньшинстве. 660 00:35:03,809 --> 00:35:07,739 Давайте сперва предоставим слово защите 661 00:35:07,739 --> 00:35:10,099 Дадли и Стивенса. 662 00:35:10,099 --> 00:35:14,160 Почему вы оправдали бы их с моральной точки зрения? 663 00:35:14,159 --> 00:35:17,989 Чем вы руководствуетесь? 664 00:35:17,989 --> 00:35:20,798 Да, я считаю это предосудительным с моральной точки зрения, 665 00:35:20,798 --> 00:35:24,349 но существует различие между тем, что нравственно предосудительно, 666 00:35:24,349 --> 00:35:26,609 и тем, что влечёт юридическую ответственность. 667 00:35:26,608 --> 00:35:30,690 Или, как мог бы сказать судья, то, что аморально, совсем не обязательно противозаконно. 668 00:35:30,690 --> 00:35:34,789 И хотя я не считаю, что необходимость чего-либо 669 00:35:34,789 --> 00:35:36,169 является достаточным основанием 670 00:35:36,168 --> 00:35:38,578 для кражи, убийства, или другого противозаконного действия, 671 00:35:38,579 --> 00:35:43,509 степень необходимости в той или иной мере может 672 00:35:43,509 --> 00:35:45,849 оправдывать его. 673 00:35:45,849 --> 00:35:50,588 Кто ещё поддерживает эту точку зрения и согласен 674 00:35:50,588 --> 00:35:53,038 с моральными обоснованиями 675 00:35:53,039 --> 00:35:56,989 их действий? Пожалуйста. 676 00:35:56,989 --> 00:35:57,619 Спасибо. 677 00:35:57,619 --> 00:35:58,798 678 00:35:58,798 --> 00:35:59,570 Я думаю, 679 00:35:59,570 --> 00:36:03,139 в такой отчаянной ситуации вы должны сделать всё, что можно, чтобы выжить. 680 00:36:03,139 --> 00:36:04,679 Вы должны сделать всё, что можно? 681 00:36:04,679 --> 00:36:06,789 Да, вы должны сделать всё, что можно. 682 00:36:06,789 --> 00:36:07,849 Если вы 19 дней ничего не ели, 683 00:36:07,849 --> 00:36:09,899 кто-то из вас 684 00:36:09,898 --> 00:36:14,710 должен пожертвовать собой ради спасения остальных. 685 00:36:14,710 --> 00:36:16,139 Более того, 686 00:36:16,139 --> 00:36:21,299 представим, что по возвращении домой, спасшиеся начинают делать что-то полезное для общества: 687 00:36:21,300 --> 00:36:26,230 создают миллионы благотворительных организаций и другие подобные вещи. То есть, в итоге всем хорошо. 688 00:36:26,230 --> 00:36:28,519 Я не знаю, что они сделали после этого случая, но они вполне могли бы продолжать 689 00:36:28,519 --> 00:36:30,478 убивать людей 690 00:36:30,478 --> 00:36:32,889 независимо от... 691 00:36:32,889 --> 00:36:35,708 Что? А что если они вернулись домой и превратились в убийц? 692 00:36:35,708 --> 00:36:38,908 Что если они вернулись домой и превратились в убийц? 693 00:36:38,909 --> 00:36:42,878 Вы бы хотели знать, кого они убили. 694 00:36:42,878 --> 00:36:45,848 Да, верно. 695 00:36:45,849 --> 00:36:49,609 Я хотел бы знать это. 696 00:36:49,608 --> 00:36:50,708 - Хорошо, как ваше имя? - Маркус. 697 00:36:50,708 --> 00:36:52,489 Мы услышали сторону защиты, 698 00:36:52,489 --> 00:36:54,050 пару голосов в оправдание. 699 00:36:54,050 --> 00:36:55,660 Теперь послушаем 700 00:36:55,659 --> 00:36:57,298 сторону обвинения. 701 00:36:57,298 --> 00:36:59,338 Большинство людей думает, 702 00:36:59,338 --> 00:37:05,068 что они не правы. Почему? 703 00:37:05,068 --> 00:37:09,898 Когда я услышала эту историю, то подумала: "Так, если они голодали очень долго, 704 00:37:09,898 --> 00:37:11,409 то, может быть, 705 00:37:11,409 --> 00:37:12,469 в этом случае 706 00:37:12,469 --> 00:37:15,139 они не были в здравом рассудке". 707 00:37:15,139 --> 00:37:16,408 И это могло послужить оправданием, 708 00:37:16,409 --> 00:37:20,619 в качестве возможного аргумента: 709 00:37:20,619 --> 00:37:24,179 они были не в своём уме 710 00:37:24,179 --> 00:37:28,519 и приняли решение, которое не приняли бы в другой ситуации. Думаю, это их оправдывает. 711 00:37:28,518 --> 00:37:33,608 Трезво мыслящий человек так никогда не поступит. Мне кажется, что есть люди, 712 00:37:33,608 --> 00:37:36,108 которые находят данный аргумент приемлемым. 713 00:37:36,108 --> 00:37:40,088 - Вы думаете, что они поступили аморально. - Но я хочу знать, 714 00:37:40,088 --> 00:37:41,248 - ...что думаете вы. Вы голосовали за то, что они виновны, верно? - Да, я не считаю, что они действовали 715 00:37:45,548 --> 00:37:49,449 - ...в рамках морали. - Почему нет? Вы же слышали, как Маркус 716 00:37:49,449 --> 00:37:51,088 защищал их. 717 00:37:51,088 --> 00:37:52,909 Он сказал... 718 00:37:52,909 --> 00:37:53,880 Вы слышали, что он сказал. 719 00:37:53,880 --> 00:37:55,249 Да, 720 00:37:55,248 --> 00:37:56,558 я слышала. 721 00:37:56,559 --> 00:38:00,119 Что вы должны поступать так, как того требует данная ситуация. 722 00:38:00,119 --> 00:38:04,789 Что вы ответите Маркусу? 723 00:38:04,789 --> 00:38:06,439 Я бы сказала, что 724 00:38:06,438 --> 00:38:13,438 нет такой ситуации, в которой можно было бы 725 00:38:13,579 --> 00:38:17,959 лишить человека права управлять своей судьбой или лишить человека жизни. 726 00:38:17,958 --> 00:38:19,328 У нас нет такого права. 727 00:38:19,329 --> 00:38:21,399 Хорошо, спасибо. 728 00:38:21,398 --> 00:38:24,130 - Как вас зовут? - Бритт. 729 00:38:24,130 --> 00:38:24,548 Бритт? Хорошо. 730 00:38:24,548 --> 00:38:26,028 Кто-нибудь ещё? 731 00:38:26,028 --> 00:38:28,159 Как вас зовут? Встаньте, пожалуйста. 732 00:38:28,159 --> 00:38:35,159 Мне вот что интересно. Если бы Дадли и Стивенс спросили Ричарда Паркера, согласен ли он умереть, 733 00:38:35,429 --> 00:38:37,568 то могло бы 734 00:38:37,568 --> 00:38:41,228 это оправдать 735 00:38:41,228 --> 00:38:45,448 совершённое убийство, и если да, то было бы ли это оправданно с точки зрения морали? 736 00:38:45,449 --> 00:38:51,720 - Это любопытно. Согласие. Подождите, как вас зовут? - Кэтлин. 737 00:38:51,719 --> 00:38:56,088 Кэтлин предлагает представить, как бы могла выглядеть эта сцена 738 00:38:56,088 --> 00:38:56,619 в таком случае. 739 00:38:56,619 --> 00:39:00,410 Итак, представьте. Дадли с ножом в руке, 740 00:39:00,409 --> 00:39:02,608 но вместо молитвы 741 00:39:02,608 --> 00:39:04,588 или перед молитвой, 742 00:39:04,588 --> 00:39:07,599 он спрашивает: "Паркер, 743 00:39:07,599 --> 00:39:11,519 ты не возражаешь? 744 00:39:11,518 --> 00:39:14,348 Мы тут безумно проголодались..." 745 00:39:14,349 --> 00:39:17,679 Смотрите, как Маркус сопереживает им. 746 00:39:17,679 --> 00:39:19,769 "Мы безумно проголодались, 747 00:39:19,768 --> 00:39:22,168 а тебе, в любом случае, недолго осталось. 748 00:39:22,168 --> 00:39:23,498 Ты можешь стать мучеником. 749 00:39:23,498 --> 00:39:25,748 Не хочешь стать мучеником? 750 00:39:25,748 --> 00:39:29,468 Что скажешь, Паркер?" 751 00:39:29,469 --> 00:39:33,220 В этом случае 752 00:39:33,219 --> 00:39:37,639 можете ли вы оправдать это с точки зрения морали? 753 00:39:37,639 --> 00:39:38,219 Допустим, Паркер 754 00:39:38,219 --> 00:39:40,168 в оцепенении 755 00:39:40,168 --> 00:39:42,498 говорит: "Ну ладно, я согласен". 756 00:39:42,498 --> 00:39:47,889 - Я не считаю, что это морально оправдывает убийство, но мне просто интересно... - Даже в этом случае? - Нет. 757 00:39:47,889 --> 00:39:50,650 Вы не считаете, что даже с согласия 758 00:39:50,650 --> 00:39:52,490 это может быть морально оправдано. 759 00:39:52,489 --> 00:39:54,568 Есть тут люди, 760 00:39:54,568 --> 00:39:56,369 готовые подхватить идею Кэтлин 761 00:39:56,369 --> 00:39:57,200 о согласии? 762 00:39:57,199 --> 00:40:01,688 И кто считает, что в таком случае их действия были бы морально оправданны? Поднимите руку, 763 00:40:01,688 --> 00:40:05,868 если вы с этим согласны. 764 00:40:05,869 --> 00:40:07,588 Вот это интересно. 765 00:40:07,588 --> 00:40:09,168 Почему же наличие согласия 766 00:40:09,168 --> 00:40:15,888 создало такую разницу? С чего бы это? 767 00:40:15,889 --> 00:40:18,509 Я думаю, что если бы Паркер сам принимал решение, 768 00:40:18,509 --> 00:40:20,969 если бы это было его собственной идеей, 769 00:40:20,969 --> 00:40:23,778 то только в такой ситуации это было бы допустимо. 770 00:40:23,778 --> 00:40:25,940 Потому что в такой ситуации вы не можете сказать, 771 00:40:28,358 --> 00:40:30,579 что на него было оказано давление, 772 00:40:30,579 --> 00:40:32,759 - ...что их было трое против одного. - Хорошо. 773 00:40:32,759 --> 00:40:34,070 Мне кажется, 774 00:40:34,070 --> 00:40:38,009 если, принимая такое решение, он делает это по собственной воле. 775 00:40:38,009 --> 00:40:42,668 Конечно, одним людям это покажется поступком, достойным восхищения, 776 00:40:42,668 --> 00:40:45,449 а другим - нет. 777 00:40:45,449 --> 00:40:49,099 Итак, если он сам предложил эту идею, 778 00:40:49,099 --> 00:40:52,820 то это будет единственным вариантом согласия, который бы нас устроил 779 00:40:52,820 --> 00:40:55,359 с точки зрения морали. Тогда это было бы допустимо. 780 00:40:55,358 --> 00:40:57,268 В ином случае 781 00:40:57,268 --> 00:40:59,788 это будет, cкажем так, согласие под принуждением, 782 00:40:59,789 --> 00:41:01,469 согласие под воздействием обстоятельств. 783 00:41:01,469 --> 00:41:05,278 Так вы считаете. 784 00:41:05,278 --> 00:41:07,349 Кто-нибудь из вас считает, 785 00:41:07,349 --> 00:41:10,979 что даже согласие Паркера 786 00:41:10,978 --> 00:41:13,419 не оправдывает 787 00:41:13,420 --> 00:41:15,479 его убийство? 788 00:41:15,478 --> 00:41:18,088 Кто так думает? 789 00:41:18,088 --> 00:41:19,538 Да, расскажите нам почему вы так думаете. Встаньте, пожалуйста. 790 00:41:19,539 --> 00:41:21,260 Я думаю, что Паркер 791 00:41:21,260 --> 00:41:22,319 был убит 792 00:41:22,318 --> 00:41:26,558 в надежде, что все остальные члены экипажа впоследствии будут спасены. 793 00:41:26,559 --> 00:41:29,250 Но для его убийства нет объективных причин, 794 00:41:29,250 --> 00:41:31,199 потому что вы даже не знаете, 795 00:41:31,199 --> 00:41:35,809 спасут вас вообще или нет, так что его убийство может быть совершенно напрасным. 796 00:41:35,809 --> 00:41:38,039 Вы так и будете убивать одного члена команды за другим, пока вы не останетесь совсем один или вас не спасут? 797 00:41:38,039 --> 00:41:40,309 Просто по той причине, что кто-то всё равно должен умереть? 798 00:41:40,309 --> 00:41:44,199 С позиций морали, смысл ситуации в том, 799 00:41:44,199 --> 00:41:45,829 что они 800 00:41:45,829 --> 00:41:50,318 жертвуют слабейшими один за другим, 801 00:41:50,318 --> 00:41:51,818 пока не будут спасены. 802 00:41:51,818 --> 00:41:57,679 И в этом случае, по счастливой случайности, по крайней мере, три человека остались в живых. 803 00:41:57,679 --> 00:41:58,880 Но если бы 804 00:41:58,880 --> 00:42:01,298 Паркер согласился, 805 00:42:01,298 --> 00:42:04,068 как вы думаете, это было бы правильным? 806 00:42:04,068 --> 00:42:06,329 Нет, я по-прежнему не считаю это правильным. 807 00:42:06,329 --> 00:42:08,030 Обоснуйте почему. 808 00:42:08,030 --> 00:42:10,028 Во-первых, я считаю, что каннибализм 809 00:42:10,028 --> 00:42:13,228 в принципе аморален. 810 00:42:13,228 --> 00:42:14,509 Вы не должны есть людей ни в каком случае. 811 00:42:14,510 --> 00:42:17,449 Итак, 812 00:42:17,449 --> 00:42:19,380 каннибализм неприемлем 813 00:42:19,380 --> 00:42:22,400 даже в том случае, 814 00:42:22,400 --> 00:42:24,568 когда мы знаем, что человек точно умрёт? 815 00:42:24,568 --> 00:42:27,018 Даже в этом случае? 816 00:42:27,018 --> 00:42:27,929 Да, лично для меня. 817 00:42:27,929 --> 00:42:29,739 Мне кажется, 818 00:42:29,739 --> 00:42:31,199 что всё это зависит 819 00:42:31,199 --> 00:42:35,288 от личных моральных принципов человека. Это только мое мнение. 820 00:42:35,289 --> 00:42:39,339 Конечно, не все с этим согласятся. 821 00:42:39,338 --> 00:42:41,498 Хорошо. Давайте послушаем аргументы "против", 822 00:42:41,498 --> 00:42:42,639 а затем посмотрим, 823 00:42:42,639 --> 00:42:44,259 смогут ли они 824 00:42:44,259 --> 00:42:46,228 переубедить вас или нет? 825 00:42:46,228 --> 00:42:48,358 Давайте попробуем. 826 00:42:48,358 --> 00:42:50,098 Итак, 827 00:42:50,099 --> 00:42:53,249 есть ли здесь кто-нибудь, 828 00:42:53,248 --> 00:42:57,908 кому импонирует идея согласия и кто мог бы объяснить. 829 00:42:57,909 --> 00:42:59,778 Можете ли вы объяснить, 830 00:42:59,778 --> 00:43:02,028 почему согласие 831 00:43:02,028 --> 00:43:03,358 всё так кардинально меняет? 832 00:43:03,358 --> 00:43:05,650 А как насчёт идеи с жребием? 833 00:43:05,650 --> 00:43:08,930 Может ли это считаться своего рода согласием? Помните, в начале истории 834 00:43:08,929 --> 00:43:11,308 Дадли предложил тянуть жребий. 835 00:43:11,309 --> 00:43:13,839 Предположим, что они согласились 836 00:43:13,838 --> 00:43:16,338 тянуть жребий. 837 00:43:16,338 --> 00:43:17,369 Теперь 838 00:43:17,369 --> 00:43:20,798 кто из вас за то, 839 00:43:20,798 --> 00:43:23,929 что это было бы правильно? Предположим, они тянули жребий, 840 00:43:23,929 --> 00:43:25,380 и юнга проиграл. 841 00:43:25,380 --> 00:43:32,380 Далее происходит история, которую мы уже знаем. Было бы тогда это правильным? Кто так считает? 842 00:43:33,199 --> 00:43:37,030 Итак, если мы предположим, что они тянули жребий. число тех, кто так считает, возрастает. Давайте послушаем кого-нибудь из тех, 843 00:43:37,030 --> 00:43:41,609 для кого с моральной точки зрения принципиален жребий. 844 00:43:41,608 --> 00:43:43,458 Почему вы так считаете? 845 00:43:43,458 --> 00:43:44,739 Я думаю, что это принципиальный 846 00:43:44,739 --> 00:43:45,718 момент. 847 00:43:45,719 --> 00:43:47,858 На мой взгляд, преступлением этот поступок делает то, 848 00:43:47,858 --> 00:43:53,848 что Дадли и Стивенс в какой-то момент решили, что их жизни важнее, чем жизнь юнги. 849 00:43:53,849 --> 00:43:56,609 Я имею в виду, что подобная мысль является предпосылкой любого преступления, 850 00:43:56,608 --> 00:43:57,688 разве нет? Это равнозначно признанию того, 851 00:43:57,688 --> 00:44:01,949 что мои потребности, мои желания является более важными, более предпочтительными, чем ваши. 852 00:44:01,949 --> 00:44:04,798 А если бы они тянули жребий, согласившись с тем, 853 00:44:04,798 --> 00:44:06,478 что кто-то из них должен умереть 854 00:44:06,478 --> 00:44:09,239 и пожертвовать таким образом собой, 855 00:44:09,239 --> 00:44:11,008 чтобы спасти остальных. 856 00:44:11,009 --> 00:44:12,949 Тогда всё будет в порядке? 857 00:44:12,949 --> 00:44:15,880 Немного абсурдно, но, 858 00:44:15,880 --> 00:44:18,959 - Но допустимо с точки зрения морали? - Да. 859 00:44:18,958 --> 00:44:22,688 - Как вас зовут? - Мэтт. 860 00:44:22,688 --> 00:44:25,578 Что ж, Мэтт, вас 861 00:44:25,579 --> 00:44:27,329 смущает не сам факт 862 00:44:27,329 --> 00:44:31,389 каннибализма, а отсутствие должной процедуры? 863 00:44:31,389 --> 00:44:34,689 Я думаю, да. 864 00:44:34,688 --> 00:44:38,170 Может ли кто-нибудь их тех, кто согласен с Мэттом, 865 00:44:38,170 --> 00:44:40,499 что-нибудь добавить к сказанному 866 00:44:40,498 --> 00:44:41,378 о том, почему 867 00:44:41,378 --> 00:44:43,690 жребий 868 00:44:43,690 --> 00:44:47,099 сделает это поступок 869 00:44:47,099 --> 00:44:50,979 допустимым с точки зрения морали? 870 00:44:50,978 --> 00:44:55,568 Мне кажется, что основная проблема заключается именно в том, что юнгу 871 00:44:55,568 --> 00:44:56,398 даже не спрашивали, 872 00:44:56,398 --> 00:45:00,478 когда решали его судьбу. Даже в ситуации с несостоявшимся 873 00:45:00,478 --> 00:45:01,088 жребием. 874 00:45:01,088 --> 00:45:04,420 Будет или не будет он в ней участвовать, им показалось неважным. Было просто принято решение о том, 875 00:45:04,420 --> 00:45:08,170 что именно мальчик должен умереть. - Да, так и произошло на самом деле. 876 00:45:08,170 --> 00:45:11,900 Но если бы все они тянули жребий, и все были бы согласны с этой процедурой, 877 00:45:11,900 --> 00:45:13,539 считаете ли вы, что это было бы правильным? 878 00:45:13,539 --> 00:45:16,418 Да, потому что тогда все бы знали, что кто-то из них умрёт, 879 00:45:16,418 --> 00:45:17,079 в то время как 880 00:45:17,079 --> 00:45:18,878 в реальной ситуации юнга не знал, 881 00:45:18,878 --> 00:45:21,038 что Дадли и Стивенс решают его судьбу. 882 00:45:21,039 --> 00:45:21,919 Ему никто 883 00:45:21,918 --> 00:45:23,578 не сказал, 884 00:45:23,579 --> 00:45:28,829 - что он может умереть. - Хорошо, предположим, что все согласились тянуть жребий. 885 00:45:28,829 --> 00:45:35,089 Все бросили жребий. Но представьте себе, что юнга проиграл и передумал. 886 00:45:35,088 --> 00:45:40,989 Вы уже всё решили. Это своего рода устное соглашение, вы не можете взять свои слова обратно. Решение было принято. 887 00:45:40,989 --> 00:45:45,139 Вы понимаете, что умираете ради того, чтобы спасти других. 888 00:45:45,139 --> 00:45:45,999 889 00:45:45,998 --> 00:45:47,688 Вы осознаёте, что если бы кому-то другому выпадет жребий умереть, 890 00:45:47,688 --> 00:45:51,969 то его также съедят, так что… 891 00:45:51,969 --> 00:45:57,429 Хорошо, но потом он мог бы сказать: «Знаю, но я проиграл». 892 00:45:57,429 --> 00:46:01,939 Я считаю, что основная нравственная проблема в том, что юнгу никто не спрашивал. 893 00:46:01,938 --> 00:46:04,298 Самым ужасным является то, 894 00:46:04,298 --> 00:46:08,909 что он даже не представлял, что происходит. Если бы он осознавал это, 895 00:46:08,909 --> 00:46:10,599 то результат был бы 896 00:46:10,599 --> 00:46:13,109 немного более справедливым. 897 00:46:13,108 --> 00:46:14,509 Хорошо. Теперь, мне интересно узнать вот что. 898 00:46:14,510 --> 00:46:17,049 Некоторые из вас считают, 899 00:46:17,048 --> 00:46:18,708 что это морально допустимо, 900 00:46:18,708 --> 00:46:24,048 но вас всего около 20 процентов. 901 00:46:24,048 --> 00:46:26,559 Во главе с Маркусом. 902 00:46:26,559 --> 00:46:28,439 Другие же считают, 903 00:46:28,438 --> 00:46:30,208 что основная проблема заключается 904 00:46:30,208 --> 00:46:32,838 в отсутствии согласия, 905 00:46:32,838 --> 00:46:37,139 будь то отсутствие согласия тянуть справедливый жребий 906 00:46:37,139 --> 00:46:38,588 или же, 907 00:46:38,588 --> 00:46:39,690 как считает Кэтлин, 908 00:46:39,690 --> 00:46:40,749 отсутствие согласия 909 00:46:40,748 --> 00:46:42,928 в момент 910 00:46:42,929 --> 00:46:45,139 смерти. 911 00:46:45,139 --> 00:46:48,318 Если мы предположим наличие согласия, то 912 00:46:48,318 --> 00:46:49,019 913 00:46:49,019 --> 00:46:51,889 уже больше людей будут готовы признать, 914 00:46:51,889 --> 00:46:54,528 что эта жертва морально оправдана. 915 00:46:54,528 --> 00:46:56,639 Теперь я хочу выслушать 916 00:46:56,639 --> 00:46:58,548 тех, кто считает, 917 00:46:58,548 --> 00:47:00,199 что даже при наличии согласия, 918 00:47:00,199 --> 00:47:01,898 даже при условии организации жребия, 919 00:47:01,898 --> 00:47:02,519 даже 920 00:47:02,519 --> 00:47:04,579 если бы в самый последний 921 00:47:04,579 --> 00:47:06,950 момент 922 00:47:06,949 --> 00:47:08,018 Паркер 923 00:47:08,018 --> 00:47:09,179 вяло согласился, 924 00:47:09,179 --> 00:47:10,838 это всё равно 925 00:47:10,838 --> 00:47:12,639 было бы неправильно. 926 00:47:12,639 --> 00:47:14,248 И я хочу услышать, 927 00:47:14,248 --> 00:47:16,998 почему это было бы неправильно. 928 00:47:16,998 --> 00:47:18,818 Всё это время 929 00:47:18,818 --> 00:47:22,639 я склонялась к категорической аргументации. 930 00:47:22,639 --> 00:47:25,568 Возможно, 931 00:47:25,568 --> 00:47:29,608 я готова принять вариант со жребием, 932 00:47:29,608 --> 00:47:31,440 при котором проигравший в нём собственноручно 933 00:47:31,440 --> 00:47:32,749 убивает себя. 934 00:47:32,748 --> 00:47:33,679 935 00:47:33,679 --> 00:47:37,358 Тогда убийства как такового не будет, но я по-прежнему считаю, 936 00:47:37,358 --> 00:47:42,278 что даже в таком случае будет принуждение. Я также не думаю, что в этом деле имело место раскаяние, 937 00:47:42,278 --> 00:47:43,338 ведь вспомните, как это описано в дневнике Дадли: 938 00:47:43,338 --> 00:47:44,909 "…когда мы завтракали". 939 00:47:44,909 --> 00:47:47,659 Это выглядит так, как будто он 940 00:47:47,659 --> 00:47:51,440 не видит ценности в жизни других. 941 00:47:51,440 --> 00:47:53,639 Это заставляет меня 942 00:47:53,639 --> 00:47:57,969 принять категорическую аргументацию. - Вы хотите наказать Дадли по полной программе, 943 00:47:57,969 --> 00:48:02,298 если он не раскаивается или не чувствует, что поступил неправильно? - Да. 944 00:48:02,298 --> 00:48:06,969 Хорошо. Есть ещё те, 945 00:48:06,969 --> 00:48:08,769 946 00:48:08,768 --> 00:48:13,268 кто считает, что это категорически неправильно, с согласием или без него. Да, пожалуйста. Почему? 947 00:48:13,268 --> 00:48:17,288 Я считаю, что в понятиях нашего общества убийство есть убийство. 948 00:48:17,289 --> 00:48:21,829 Убийство есть убийство, и в любом случае наше общество негативно к этому относится. 949 00:48:21,829 --> 00:48:24,780 - Я не считаю, что это зависит от обстоятельств. - Хорошо. Позвольте мне задать вам вопрос. 950 00:48:24,780 --> 00:48:27,119 На кону было три жизни 951 00:48:27,119 --> 00:48:30,489 против одной. 952 00:48:30,489 --> 00:48:33,028 У юнги не было ни семьи, 953 00:48:33,028 --> 00:48:34,509 ни тех, о ком нужно было заботиться. 954 00:48:34,509 --> 00:48:38,739 У трёх других человек дома остались семьи, у них были иждивенцы: 955 00:48:38,739 --> 00:48:41,418 жёны и дети. 956 00:48:41,418 --> 00:48:43,328 Вспомните Бентама. 957 00:48:43,329 --> 00:48:44,989 Бентам считал, что мы должны учитывать 958 00:48:44,989 --> 00:48:48,048 благосостояние, полезность и счастье 959 00:48:48,048 --> 00:48:51,288 для всех. Мы должны сложить всё вместе, 960 00:48:51,289 --> 00:48:54,640 поэтому это не просто цифра «три» против цифры «один», 961 00:48:54,639 --> 00:48:58,759 а ещё и все эти люди, ждущие моряков дома. 962 00:48:58,759 --> 00:49:00,909 Надо сказать, что во время разбирательства пресса 963 00:49:00,909 --> 00:49:04,248 и общественное мнение сочувствовали 964 00:49:04,248 --> 00:49:05,478 Дадли и Стивенсу. 965 00:49:05,478 --> 00:49:07,919 В газете писали, что если бы ими 966 00:49:07,920 --> 00:49:08,280 не двигали 967 00:49:08,280 --> 00:49:09,640 привязанность к своим близким, оставшимся дома, 968 00:49:09,639 --> 00:49:13,489 и беспокойство об их судьбе, они бы, несомненно, 969 00:49:13,489 --> 00:49:15,969 - не совершили этот страшный поступок. - Хорошо, но в таком случае как они отличаются от людей, 970 00:49:15,969 --> 00:49:17,369 которые просят милостыню 971 00:49:17,369 --> 00:49:21,108 и которые также хотят прокормить свою семью? Я не думаю, что есть большая разница. Я считаю, что в любом случае 972 00:49:21,108 --> 00:49:25,279 если я убиваю кого-то, чтобы улучшить свое положение, это не перестаёт быть убийством. Я думаю, что мы должны рассматривать всё это 973 00:49:25,280 --> 00:49:28,430 с такой точки зрения. Мы считаем преступлениями только 974 00:49:28,429 --> 00:49:30,278 определённые поступки. 975 00:49:30,278 --> 00:49:33,760 При этом некоторые из них кажутся нам более жестокими и дикими, 976 00:49:33,760 --> 00:49:36,760 хотя в их основе всегда лежит один и тот же стимул - 977 00:49:36,760 --> 00:49:40,150 необходимость прокормить свои семьи. 978 00:49:40,150 --> 00:49:43,028 Предположим, что людей в исходной ситуации было бы не трое, а тридцать 979 00:49:43,028 --> 00:49:44,608 или триста. 980 00:49:44,608 --> 00:49:47,358 Пожертвовать одной жизнью, чтобы спасти триста 981 00:49:47,358 --> 00:49:48,349 или больше, 982 00:49:48,349 --> 00:49:49,589 три тысячи. 983 00:49:49,590 --> 00:49:51,039 Или, предположим, что ставки были ещё больше. 984 00:49:51,039 --> 00:49:52,778 Предположим, что ставки были ещё больше. 985 00:49:52,778 --> 00:49:54,608 Я думаю, что это по-прежнему то же самое. 986 00:49:54,608 --> 00:49:58,108 Вы думаете, что Бентам ошибался, говоря, что необходимо 987 00:49:58,108 --> 00:49:58,929 суммировать 988 00:49:58,929 --> 00:50:02,479 всё общественное счастье? Вы думаете, что он ошибался насчёт этого? 989 00:50:02,478 --> 00:50:06,728 - Я не считаю, что он ошибался, но я считаю, что убийство есть убийство в любом случае. - Значит Бентам определённо ошибается. 990 00:50:06,728 --> 00:50:09,568 - Если вы правы, то неправ он. - Хорошо, тогда он не прав. 991 00:50:09,568 --> 00:50:12,818 Хорошо, спасибо. 992 00:50:12,818 --> 00:50:14,358 Давайте отвлечёмся 993 00:50:14,358 --> 00:50:16,389 от этого обсуждения 994 00:50:16,389 --> 00:50:19,728 и обратим внимание на то, 995 00:50:19,728 --> 00:50:23,259 сколько было возражений по поводу поступка Дадли и Стивенса. 996 00:50:23,259 --> 00:50:26,048 Мы услышали несколько мнений в защиту того, что они сделали. 997 00:50:26,048 --> 00:50:28,509 Их оправдывали тем, что они находились 998 00:50:28,509 --> 00:50:28,918 в состоянии крайней необходимости, 999 00:50:28,918 --> 00:50:32,588 были в ужасных обстоятельствах. 1000 00:50:32,588 --> 00:50:33,409 По крайней мере, косвенно оправдывали количественным аргументом, 1001 00:50:33,409 --> 00:50:36,018 «три жизни против одной». 1002 00:50:36,018 --> 00:50:37,858 Говорили, что дело не только в количестве, 1003 00:50:37,858 --> 00:50:40,380 но и в более важных обстоятельствах, 1004 00:50:40,380 --> 00:50:43,459 в том, что дома у них остались семьи и близкие. 1005 00:50:43,458 --> 00:50:44,768 Паркер же был сиротой, 1006 00:50:44,768 --> 00:50:47,978 никто бы не скучал по нему. 1007 00:50:47,978 --> 00:50:49,578 Таким образом, если вы 1008 00:50:49,579 --> 00:50:50,829 сложите всё это 1009 00:50:50,829 --> 00:50:52,649 и попробуете оценить 1010 00:50:52,648 --> 00:50:53,998 соотношение 1011 00:50:53,998 --> 00:50:56,598 счастья и страдания, 1012 00:50:56,599 --> 00:50:58,838 то у вас будут основания 1013 00:50:58,838 --> 00:51:02,768 утверждать, что они поступили правильно. 1014 00:51:02,768 --> 00:51:09,468 Затем мы услышали по крайней мере три различных типа возражений. 1015 00:51:09,469 --> 00:51:11,690 Например, возражение о том, 1016 00:51:11,690 --> 00:51:14,108 что они поступили неправильно с категорической точки зрения. 1017 00:51:14,108 --> 00:51:15,750 Вы так сказали. 1018 00:51:15,750 --> 00:51:17,389 Неправильно с категорической точки зрения. 1019 00:51:17,389 --> 00:51:19,820 Убийство есть убийство, и это всегда плохо, 1020 00:51:19,820 --> 00:51:20,969 даже если 1021 00:51:20,969 --> 00:51:23,349 при этом повысится общий уровень счастья 1022 00:51:23,349 --> 00:51:25,639 в обществе. 1023 00:51:25,639 --> 00:51:28,499 Это категорическое возражение. 1024 00:51:28,498 --> 00:51:30,738 Но нам всё равно нужно понять, 1025 00:51:30,739 --> 00:51:32,749 почему убийство 1026 00:51:32,748 --> 00:51:35,448 является категорически неправильным. 1027 00:51:35,449 --> 00:51:38,579 Потому ли, что 1028 00:51:38,579 --> 00:51:42,339 даже у юнги есть фундаментальные права? 1029 00:51:42,338 --> 00:51:44,400 И если в этом вся причина, 1030 00:51:44,400 --> 00:51:47,880 то откуда возникат эти права, если не от идеи 1031 00:51:47,880 --> 00:51:53,209 повышения общественного благосостояния, полезности или счастья? Это первый вопрос. 1032 00:51:53,208 --> 00:51:56,308 Другие утверждали, 1033 00:51:56,309 --> 00:51:58,449 что в случае со жребием было бы иначе. 1034 00:51:58,449 --> 00:52:00,039 Справедливая процедура, 1035 00:52:00,039 --> 00:52:05,949 как заметил Мэтт. 1036 00:52:05,949 --> 00:52:08,769 И некоторые из вас склонились к этой точке зрения. 1037 00:52:08,768 --> 00:52:12,188 Но это не совсем категорическое возражение. 1038 00:52:12,188 --> 00:52:13,828 Это утверждение о том, 1039 00:52:13,829 --> 00:52:16,798 что все должны считаться равными, 1040 00:52:16,798 --> 00:52:18,469 даже если в конце концов 1041 00:52:18,469 --> 00:52:20,769 один человек будет принесён в жертву 1042 00:52:20,768 --> 00:52:23,288 ради общего блага. 1043 00:52:23,289 --> 00:52:26,059 Это заставляет нас задуматься о следующем. 1044 00:52:26,059 --> 00:52:29,670 Почему согласие на определённую процедуру, 1045 00:52:29,670 --> 00:52:31,969 пусть даже справедливую, 1046 00:52:31,969 --> 00:52:34,739 оправдывает любой результат, 1047 00:52:34,739 --> 00:52:38,088 вытекающий из этой процедуры? 1048 00:52:38,088 --> 00:52:39,898 Это второй вопрос. 1049 00:52:39,898 --> 00:52:42,398 И наконец третий вопрос - 1050 00:52:42,398 --> 00:52:45,338 фундаментальная идея о согласии. 1051 00:52:45,338 --> 00:52:48,528 Эту мысль высказала Кэтлин. 1052 00:52:48,528 --> 00:52:52,719 Если бы юнга согласился сам, 1053 00:52:52,719 --> 00:52:54,499 и никто бы его к этому не принуждал, 1054 00:52:54,498 --> 00:52:57,068 как было отмечено, 1055 00:52:57,068 --> 00:53:01,918 то пожертвовать его жизнью ради жизни других было вполне нормальным. 1056 00:53:01,918 --> 00:53:04,900 Эту идею поддержали ещё больше людей, 1057 00:53:04,900 --> 00:53:06,630 но это приводит нас 1058 00:53:06,630 --> 00:53:08,528 к третьему философскому вопросу. 1059 00:53:08,528 --> 00:53:11,009 Какова моральная основа 1060 00:53:11,009 --> 00:53:12,838 согласия? 1061 00:53:12,838 --> 00:53:14,438 1062 00:53:14,438 --> 00:53:16,978 Почему акт согласия 1063 00:53:16,978 --> 00:53:19,188 так существенно меняет дело с моральной точки зрения? 1064 00:53:19,188 --> 00:53:23,818 Так меняет, что поступок, который в любом другом случае мы бы посчитали неправильным и назвали бы убийством, 1065 00:53:23,818 --> 00:53:25,369 является допустимым 1066 00:53:25,369 --> 00:53:26,358 с точки зрения морали, 1067 00:53:26,358 --> 00:53:29,619 если на него было дано согласие. 1068 00:53:29,619 --> 00:53:31,699 Чтобы ответить на эти три вопроса, 1069 00:53:31,699 --> 00:53:34,108 нам с вами нужно будет изучить сочинения неcкольких философов. 1070 00:53:34,108 --> 00:53:35,728 В следующий раз 1071 00:53:35,728 --> 00:53:36,939 мы начнём 1072 00:53:36,940 --> 00:53:37,720 с Бентама 1073 00:53:37,719 --> 00:53:43,798 и Джона Стюарта Милля - философов-утилитаристов. 1074 00:53:43,798 --> 00:53:47,298 1075 00:53:43,798 --> 00:53:47,298 1076 00:53:49,869 --> 00:53:56,869 1077 00:54:36,219 --> 00:54:40,269 1078 00:54:40,268 --> 00:54:41,678