1 00:00:33,403 --> 00:00:37,230 Это курс по теории с праведливости, и мы начнём его с мысленного эксперимента. 2 00:00:37,230 --> 00:00:44,509 Представьте, что вы водитель трамвая, который несётся со скоростью 100 км/ч, 3 00:00:44,509 --> 00:00:49,390 И вдруг вдалеке на рельсах вы замечаете пятерых рабочих. 4 00:00:49,390 --> 00:00:51,569 Вы пытаетесь остановиться, но не можете: 5 00:00:51,569 --> 00:00:53,539 тормоза не работают. 6 00:00:53,539 --> 00:00:56,630 Вы в полном отчаянии, поскольку знаете, 7 00:00:56,630 --> 00:00:59,460 что если врежетесь в этих рабочих, 8 00:00:59,460 --> 00:01:01,320 то все они погибнут. 9 00:01:01,320 --> 00:01:04,879 Предположим, вы знаете это наверняка. 10 00:01:04,879 --> 00:01:07,019 Итак, вы не знаете что делать, 11 00:01:07,019 --> 00:01:09,230 но вдруг замечаете, 12 00:01:09,230 --> 00:01:10,890 что справа 13 00:01:10,890 --> 00:01:12,940 есть боковая ветка. 14 00:01:12,940 --> 00:01:18,830 И на конце этой ветки находится только один рабочий. 15 00:01:18,830 --> 00:01:21,148 Руль трамвая исправен, 16 00:01:21,148 --> 00:01:25,758 и, если захотите, вы можете повернуть 17 00:01:25,758 --> 00:01:28,550 на эту боковую ветку 18 00:01:28,550 --> 00:01:30,340 и, тем самым, убить одного рабочего, 19 00:01:30,340 --> 00:01:33,009 но спасти жизнь пятерым. 20 00:01:33,009 --> 00:01:35,819 И вот наш первый вопрос: 21 00:01:35,819 --> 00:01:38,659 как правильно поступить? 22 00:01:38,659 --> 00:01:40,328 Как бы вы поступили? 23 00:01:40,328 --> 00:01:42,390 Давайте проголосуем. 24 00:01:42,390 --> 00:01:47,720 Кто бы повернул на боковую ветку? 25 00:01:47,720 --> 00:01:51,790 Поднимите руки. 26 00:01:51,790 --> 00:01:53,415 Кто не стал бы этого делать 27 00:01:53,415 --> 00:01:57,645 и поехал бы дальше? 28 00:01:57,645 --> 00:02:03,979 Не опускайте руки те, кто поехал бы дальше. 29 00:02:03,979 --> 00:02:08,198 Большинство. Подавляющее большинство повернуло бы. 30 00:02:08,198 --> 00:02:09,878 Давайте теперь разберёмся, 31 00:02:09,878 --> 00:02:14,979 почему вы приняли именно такое решение. 32 00:02:14,979 --> 00:02:18,209 И давайте начнём с большинства. 33 00:02:18,209 --> 00:02:19,729 С тех, кто бы повернул 34 00:02:19,729 --> 00:02:21,948 на боковую ветку. 35 00:02:21,948 --> 00:02:23,508 Почему бы вы это сделали? 36 00:02:23,508 --> 00:02:25,638 Что сподвигло бы вас на это? 37 00:02:25,638 --> 00:02:29,868 Кто хочет высказаться? Есть добровольцы? 38 00:02:29,868 --> 00:02:32,018 Начинайте. Встаньте, пожалуйста. 39 00:02:32,018 --> 00:02:35,000 Я думаю, что неправильно убивать пять человек, 40 00:02:35,000 --> 00:02:39,476 когда есть возможность убить только одного. 41 00:02:39,476 --> 00:02:42,177 Было бы неправильно убивать пятерых, 42 00:02:42,177 --> 00:02:46,877 если вместо этого вы можете убить только одного. 43 00:02:46,877 --> 00:02:48,399 Да, неплохая причина. 44 00:02:48,399 --> 00:02:52,709 Действительно неплохая. 45 00:02:52,719 --> 00:02:53,692 Кто-нибудь ещё? 46 00:02:53,692 --> 00:02:56,312 Все согласны с таким 47 00:02:56,312 --> 00:02:59,552 объяснением? 48 00:02:59,552 --> 00:03:01,252 Да, пожалуйста. 49 00:03:01,252 --> 00:03:05,399 Я думаю этот случай похож на то, что произошло с самолётом, 50 00:03:05,399 --> 00:03:09,259 который разбился в Пенсильвании 11 сентября. 51 00:03:09,259 --> 00:03:11,598 Потому что те люди предпочли погибнуть, 52 00:03:11,598 --> 00:03:15,918 чтобы избежать большего количества жертв среди людей, которые находились на земле. 53 00:03:15,918 --> 00:03:19,121 То есть ими руководила та же логика: 54 00:03:19,121 --> 00:03:20,901 в такой безнадёжной ситуации 55 00:03:20,901 --> 00:03:25,356 лучше убить одного, но спасти пятерых. 56 00:03:25,359 --> 00:03:30,528 Именно так считают те, кто повернул бы? Верно? 57 00:03:30,528 --> 00:03:33,468 Давайте теперь послушаем мнение тех, 58 00:03:33,468 --> 00:03:35,318 кто оказался в меньшинстве. 59 00:03:35,318 --> 00:03:39,148 Тех, кто не повернул бы. 60 00:03:39,148 --> 00:03:40,522 Да. 61 00:03:40,522 --> 00:03:45,276 Я думаю, что это такой же подход, который оправдывает геноцид и тоталитаризм. 62 00:03:45,276 --> 00:03:50,229 Для того, чтобы спасти представителей одной расы, вы уничтожаете другую. 63 00:03:50,229 --> 00:03:51,965 И что бы вы сделали в этом случае? 64 00:03:51,965 --> 00:03:53,188 Для того, 65 00:03:53,188 --> 00:03:55,338 чтобы избежать 66 00:03:55,338 --> 00:03:57,618 ужасов геноцида, 67 00:03:57,618 --> 00:04:03,518 вы предпочли бы врезаться в пятерых рабочих и убить их? 68 00:04:03,518 --> 00:04:05,542 Думаю, да. 69 00:04:05,542 --> 00:04:06,322 Правда? 70 00:04:06,322 --> 00:04:07,434 Да. 71 00:04:07,434 --> 00:04:09,804 Хорошо. Кто ещё хочет высказать своё мнение? 72 00:04:09,806 --> 00:04:13,251 Это смелый ответ. Спасибо. 73 00:04:13,251 --> 00:04:15,664 Давайте теперь рассмотрим 74 00:04:15,664 --> 00:04:20,034 другой пример с трамвайным вагоном 75 00:04:20,034 --> 00:04:23,800 и посмотрим, будет ли 76 00:04:23,800 --> 00:04:27,220 большинство из вас 77 00:04:27,220 --> 00:04:30,820 придерживаться той же самой логики: 78 00:04:30,820 --> 00:04:33,320 лучше убить одного, чтобы пятеро остались живы. 79 00:04:33,320 --> 00:04:38,050 В этот раз вы не водитель трамвая, вы переводите стрелки. 80 00:04:38,050 --> 00:04:42,389 Вы стоите на мосту и наблюдаете за рельсами. 81 00:04:42,389 --> 00:04:45,599 И вот по рельсам летит трамвай. 82 00:04:45,599 --> 00:04:49,488 На другом конце пять рабочих. 83 00:04:49,488 --> 00:04:51,659 Тормоза не работают, 84 00:04:51,659 --> 00:04:55,799 трамвай вот-вот в них врежется и задавит. 85 00:04:55,799 --> 00:04:56,989 Сейчас 86 00:04:56,989 --> 00:04:58,639 вы не водитель 87 00:04:58,639 --> 00:05:00,999 и совершенно не знаете что делать. 88 00:05:00,999 --> 00:05:02,769 И тут вы замечаете, 89 00:05:02,769 --> 00:05:06,479 что рядом с вами 90 00:05:06,479 --> 00:05:08,569 стоит, прислонившись к перилам 91 00:05:08,569 --> 00:05:09,744 моста, 92 00:05:09,744 --> 00:05:15,264 очень толстый человек. 93 00:05:15,264 --> 00:05:18,764 И вы могли бы 94 00:05:18,764 --> 00:05:20,124 его немного 95 00:05:20,124 --> 00:05:22,524 подтолкнуть. 96 00:05:22,524 --> 00:05:24,543 Он упал бы с моста 97 00:05:24,543 --> 00:05:27,653 прямо на рельсы, 98 00:05:27,653 --> 00:05:30,233 на пути 99 00:05:30,233 --> 00:05:32,012 трамвая. 100 00:05:32,012 --> 00:05:33,302 Он бы погиб, 101 00:05:33,302 --> 00:05:36,079 но при этом спас бы жизни пятерым. 102 00:05:36,079 --> 00:05:38,819 Итак. 103 00:05:38,819 --> 00:05:40,992 Кто столкнул бы 104 00:05:40,992 --> 00:05:42,552 толстяка с моста? 105 00:05:42,552 --> 00:05:48,012 Поднимите руки. 106 00:05:48,012 --> 00:05:50,945 Кто не стал бы этого делать? 107 00:05:50,945 --> 00:05:53,909 Большинство не стало бы. 108 00:05:53,909 --> 00:05:55,583 Возникает закономерный вопрос: 109 00:05:55,583 --> 00:05:56,853 Что стало 110 00:05:56,853 --> 00:05:59,973 с тем принципом: 111 00:05:59,973 --> 00:06:03,502 спасение жизни пятерых оправдывает потерю жизни одного. 112 00:06:03,502 --> 00:06:04,942 Что стало с тем принципом, 113 00:06:04,942 --> 00:06:07,380 который в первом случае 114 00:06:07,380 --> 00:06:09,250 поддерживали почти все? 115 00:06:09,250 --> 00:06:12,463 Я хотел бы услышать мнение тех, кто был в большинстве в обоих этих 116 00:06:12,463 --> 00:06:13,453 примерах. 117 00:06:13,453 --> 00:06:16,423 Как вы объясните разницу между ними? 118 00:06:16,423 --> 00:06:17,903 Да, пожалуйста. 119 00:06:17,903 --> 00:06:21,508 Полагаю, что во втором случае у вас есть выбор: 120 00:06:21,508 --> 00:06:24,288 толкнуть или не толкнуть человека. 121 00:06:24,289 --> 00:06:31,329 Я думаю, что этот человек не имеет никакого отношения к ситуации, 122 00:06:31,329 --> 00:06:36,313 и вы как бы принимаете решение за него, 123 00:06:36,313 --> 00:06:39,906 вмешиваться в эту ситуацию или нет. 124 00:06:39,906 --> 00:06:42,768 В отличие от первого случая, 125 00:06:42,768 --> 00:06:47,838 когда все три стороны: водитель и две группы рабочих, 126 00:06:47,838 --> 00:06:50,484 уже принимают активное участие в ситуации. 127 00:06:50,484 --> 00:06:54,891 Но ведь тот парень, который один работает на рельсах, на боковой ветке, 128 00:06:54,891 --> 00:06:57,561 он же сам не принимал решения пожертвовать своей жизнью, 129 00:06:57,561 --> 00:07:01,830 точно так же, как тот толстяк на мосту, не так ли? 130 00:07:01,830 --> 00:07:05,339 Да, это так. Но он был на рельсах. 131 00:07:05,339 --> 00:07:10,354 А этот парень был на мосту! 132 00:07:10,354 --> 00:07:13,250 Если хотите, можете продолжить. 133 00:07:13,250 --> 00:07:15,267 Ладно, это непростой вопрос, 134 00:07:15,267 --> 00:07:16,987 но вы очень хорошо справились. 135 00:07:16,987 --> 00:07:19,527 Очень непростой вопрос. 136 00:07:19,527 --> 00:07:21,030 Кто-нибудь ещё 137 00:07:21,030 --> 00:07:22,250 хочет попробовать 138 00:07:22,250 --> 00:07:25,930 объяснить, почему большинство 139 00:07:25,930 --> 00:07:28,970 именно так отреагировало в обоих этих случаях? 140 00:07:28,970 --> 00:07:29,770 Прошу. 141 00:07:29,770 --> 00:07:32,150 Полагаю, что в первом случае, 142 00:07:32,150 --> 00:07:35,733 в котором присутствует пять рабочих на основной ветке и один на боковой, 143 00:07:35,733 --> 00:07:37,370 вам необходимо сделать выбор 144 00:07:37,370 --> 00:07:40,948 и принять какое-то решение, иначе эти пять человек погибнут под трамваем, 145 00:07:40,948 --> 00:07:45,039 но вы за это не несёте ответственности. Вагон несётся на большой скорости, 146 00:07:45,039 --> 00:07:47,768 вам нужно принять мгновенное решение. 147 00:07:47,768 --> 00:07:52,158 А сталкивая толстяка с моста, вы совершаете убийство. 148 00:07:52,158 --> 00:07:54,208 Вы можете это контролировать, 149 00:07:54,208 --> 00:07:57,278 в отличие от вагона. 150 00:07:57,278 --> 00:07:59,889 Поэтому я считаю, что это немного другой случай. 151 00:07:59,889 --> 00:08:04,388 Хорошо. Кто хочет возразить? Это было неплохо. 152 00:08:04,388 --> 00:08:06,244 Кто хочет ответить? 153 00:08:06,244 --> 00:08:09,155 Объясняет ли это ситуацию? 154 00:08:09,155 --> 00:08:12,355 Не думаю, что это удачное объяснение, потому что... 155 00:08:12,369 --> 00:08:14,158 Вам всё равно нужно решить кто умрёт. 156 00:08:14,158 --> 00:08:16,698 Либо вы решаете повернуть и убить того человека, 157 00:08:16,698 --> 00:08:19,638 что будет являться вашим сознательным решением. 158 00:08:19,638 --> 00:08:21,827 Либо вы принимаете решение столкнуть толстяка, 159 00:08:21,827 --> 00:08:24,517 что также будет являться вашим сознательным решением. 160 00:08:24,517 --> 00:08:27,597 Так что вы в любом случае делаете какой-то выбор. 161 00:08:27,597 --> 00:08:29,629 Хотите возразить? 162 00:08:29,629 --> 00:08:33,944 Я не уверен, что это так. Мне кажется, всё равно есть определённая разница. 163 00:08:33,944 --> 00:08:37,410 Если вы сталкиваете кого-то с моста и, тем самым, убиваете его, 164 00:08:37,410 --> 00:08:39,600 то в этом случае вы делаете это своими руками. 165 00:08:39,600 --> 00:08:42,260 Толкаете своими собственными руками. 166 00:08:42,260 --> 00:08:43,699 И это отличается от ситуации, 167 00:08:43,699 --> 00:08:49,229 когда вы управляете чем-то, что может стать причиной смерти. Знаете... 168 00:08:49,229 --> 00:08:52,765 Теперь мне самому это не очень нравится. 169 00:08:52,765 --> 00:08:55,507 Нет-нет, это было неплохо. Как вас зовут? Эндрю. 170 00:08:55,507 --> 00:08:58,905 Эндрю, позвольте задать вам вопрос? 171 00:08:58,905 --> 00:09:01,911 Допустим, 172 00:09:01,911 --> 00:09:03,461 что вы стоите на мосту 173 00:09:03,461 --> 00:09:04,701 рядом с толстяком 174 00:09:04,701 --> 00:09:07,669 и вам не нужно его толкать. Допустим, он стоит, 175 00:09:07,669 --> 00:09:17,078 прислонившись к дверце, которую вы можете открыть, повернув рычаг. Вот так. 176 00:09:17,078 --> 00:09:18,391 Вы бы повернули? 177 00:09:18,391 --> 00:09:21,441 Не знаю почему, но это всё равно как-то 178 00:09:21,441 --> 00:09:23,001 неправильно. 179 00:09:23,001 --> 00:09:29,674 Возможно, если бы вы случайно задели этот рычаг или что-то в это роде... 180 00:09:29,674 --> 00:09:32,980 Или, например, вагон 181 00:09:32,980 --> 00:09:37,561 катился бы к какому-нибудь переключателю, который откроет эту дверцу. 182 00:09:37,561 --> 00:09:39,051 Тогда ещё куда ни шло. 183 00:09:39,051 --> 00:09:42,552 Ладно, достаточно. Как бы то ни было, это всё равно кажется неправильным. 184 00:09:42,552 --> 00:09:46,054 Так же, как и в первом случае кажется, что правильно было бы повернуть. 185 00:09:46,054 --> 00:09:50,379 С другой стороны, в первом случае вы непосредственно вовлечены в ситуацию, 186 00:09:50,379 --> 00:09:52,499 а во втором — нет. 187 00:09:52,499 --> 00:09:55,546 И у вас есть выбор: вмешиваться или нет. 188 00:09:55,546 --> 00:09:59,340 Давайте на минуту забудем об этом случае. 189 00:09:59,340 --> 00:10:01,229 Это было неплохо. 190 00:10:01,229 --> 00:10:06,269 Давайте представим другой случай. Теперь вы врач в отделении экстренной помощи. 191 00:10:06,269 --> 00:10:11,382 И к вам поступают шесть пациентов. 192 00:10:11,382 --> 00:10:13,672 Они попали в ужасную аварию... 193 00:10:13,672 --> 00:10:18,212 С трамваем. 194 00:10:18,212 --> 00:10:23,508 Пять из них ещё держатся, но один уже при смерти. Вы можете потратить весь день, 195 00:10:23,508 --> 00:10:27,594 пытаясь спасти жизнь одного, 196 00:10:27,594 --> 00:10:32,180 но тогда остальные пятеро умрут. Или вы могли бы попытаться спасти тех пятерых, 197 00:10:32,181 --> 00:10:35,186 но за это время умрёт 198 00:10:35,186 --> 00:10:36,326 тот, кто тяжело ранен. 199 00:10:36,326 --> 00:10:39,461 Кто бы спас пятерых? 200 00:10:39,461 --> 00:10:40,701 Теперь уже в качестве врача. 201 00:10:40,701 --> 00:10:44,175 Кто бы спас одного? 202 00:10:44,175 --> 00:10:46,138 Очень мало людей. 203 00:10:46,138 --> 00:10:49,061 Практически единицы. 204 00:10:49,061 --> 00:10:51,302 Полагаю, вы руководствовались тем же принципом: 205 00:10:51,302 --> 00:10:55,482 лучше спасти пять жизней, но при этом пожертвовать одной. 206 00:10:55,482 --> 00:10:58,950 Теперь рассмотрим другой случай с доктором. 207 00:10:58,950 --> 00:11:01,890 На этот раз вы хирург. 208 00:11:01,890 --> 00:11:06,089 И к вам в больницу попало пять пациентов, каждому из которых 209 00:11:06,089 --> 00:11:09,399 срочно требуется пересадка органа. Иначе они умрут. 210 00:11:09,399 --> 00:11:14,909 Одному нужно сердце, другому — лёгкое, третьему — почка, четвёртому — печень, 211 00:11:14,909 --> 00:11:20,059 а пятому — поджелудочная железа. 212 00:11:20,059 --> 00:11:22,571 Но у вас нет доноров. 213 00:11:22,571 --> 00:11:27,360 Ещё совсем немного, и пациенты умрут. 214 00:11:27,360 --> 00:11:30,477 Но вдруг оказывается, 215 00:11:30,477 --> 00:11:32,327 что в соседней палате 216 00:11:32,327 --> 00:11:35,740 сидит здоровый парень, который пришёл на приём к доктору. 217 00:11:39,260 --> 00:11:43,577 И он... 218 00:11:43,577 --> 00:11:47,029 Вижу вам это нравится? 219 00:11:47,029 --> 00:11:50,740 Он ненадолго задремал. 220 00:11:52,999 --> 00:11:56,439 Вы могли бы очень тихо войти 221 00:11:56,439 --> 00:12:00,499 и извлечь пять его органов. Этот человек умрёт, 222 00:12:00,499 --> 00:12:03,200 но вы сможете спасти пятерых. 223 00:12:03,200 --> 00:12:10,331 Кто бы это сделал? Хоть кто-то? 224 00:12:10,331 --> 00:12:17,343 Сколько вас? Поднимите руки, если бы вы это сделали. 225 00:12:17,803 --> 00:12:20,528 Кто-нибудь с балкона? 226 00:12:20,528 --> 00:12:21,782 Вы? 227 00:12:21,782 --> 00:12:24,272 Аккуратно, не слишком перегибайтесь. 228 00:12:26,562 --> 00:12:29,221 Кто бы не стал этого делать? 229 00:12:29,221 --> 00:12:30,192 Хорошо. 230 00:12:30,192 --> 00:12:33,396 Скажите, там на балконе. 231 00:12:33,396 --> 00:12:35,836 Вы извлекли бы органы. Почему? 232 00:12:35,836 --> 00:12:40,048 Я бы хотел предложить другой вариант: 233 00:12:40,048 --> 00:12:42,982 взять органы только у того из нуждающихся, кто умрёт первым, 234 00:12:42,982 --> 00:12:49,722 и воспользоваться его здоровыми органами, чтобы спасти оставшихся четверых. 235 00:12:49,722 --> 00:12:54,439 Это довольно хорошая идея. 236 00:12:54,439 --> 00:12:57,650 Это просто отличная идея, 237 00:12:57,650 --> 00:13:00,079 если исключить тот факт, 238 00:13:00,079 --> 00:13:04,699 что вы только что разрушили философский замысел. 239 00:13:04,699 --> 00:13:07,220 Давайте отвлечёмся 240 00:13:07,220 --> 00:13:10,200 от этих конкретных случаев и их обсуждения, 241 00:13:10,200 --> 00:13:17,230 чтобы отметить пару выводов, к которым привела наша дискуссия. 242 00:13:17,230 --> 00:13:25,900 Из наших обсуждений уже начали проявляться определённые нравственные принципы. 243 00:13:25,900 --> 00:13:31,160 Давайте рассмотрим что из себя представляют эти принципы. 244 00:13:31,160 --> 00:13:35,660 Первый нравственный принцип, появившийся в дискуссии, гласил: 245 00:13:35,660 --> 00:13:40,510 правильный поступок, нравственный поступок зависит от последствий, 246 00:13:40,510 --> 00:13:45,384 которые станут результатом ваших действий. 247 00:13:45,384 --> 00:13:52,060 В конце концов, лучше, чтобы выжило пять, даже если для этого один должен умереть. 248 00:13:52,060 --> 00:13:58,880 Это пример консеквенциальной этики. 249 00:13:58,880 --> 00:14:04,689 При консеквенциальном подходе моральная ценность выражается в последствиях, 250 00:14:04,689 --> 00:14:08,859 причиной которых стали ваши действия. 251 00:14:08,859 --> 00:14:12,539 Потом мы пошли немного дальше и рассмотрели другие случаи, 252 00:14:12,539 --> 00:14:20,459 и люди уже были не столь уверены в правильности консеквенционализма. 253 00:14:20,459 --> 00:14:25,590 Когда люди не решались столкнуть толстого мужчину с моста 254 00:14:25,590 --> 00:14:29,470 или изъять органы невинного пациента, 255 00:14:29,470 --> 00:14:33,902 они указывали на доводы, 256 00:14:33,902 --> 00:14:39,862 связанные с сущностью самого действия. 257 00:14:39,862 --> 00:14:42,549 Теперь им было уже неважно, какими будут последствия в итоге. 258 00:14:42,549 --> 00:14:44,969 Люди сопротивлялись. 259 00:14:44,969 --> 00:14:49,289 Они думали, что это просто неправильно, категорически неправильно — 260 00:14:49,290 --> 00:14:56,388 убить человека, невинного человека, даже ради спасения пяти жизней. 261 00:14:56,388 --> 00:14:58,416 По крайней мере, они так считали 262 00:14:58,416 --> 00:15:03,786 во второй версии каждого рассмотренного сюжета. 263 00:15:03,786 --> 00:15:15,773 Итак, это второй, категорический способ выстраивания аргументации. 264 00:15:15,773 --> 00:15:18,931 Такая аргументация определяет мораль как соответствие действий 265 00:15:18,931 --> 00:15:21,238 определённым абсолютным этическим требованиям, 266 00:15:21,238 --> 00:15:23,748 определённым категорическим правам и обязанностям, 267 00:15:23,748 --> 00:15:27,240 независимо от последствий. 268 00:15:27,240 --> 00:15:31,535 На протяжении нескольких недель мы будем изучать разницу 269 00:15:31,535 --> 00:15:36,489 между консеквенциальной и категорической аргументацией. 270 00:15:36,489 --> 00:15:43,450 Важнейший пример консеквенциальной аргументации это утилитаризм — доктрина, 271 00:15:43,450 --> 00:15:51,020 предложенная английским политическим философом 18-го века Джереми Бентамом. 272 00:15:51,020 --> 00:15:56,619 Наиболее видным сторонником категориальной аргументации 273 00:15:56,619 --> 00:16:02,414 является немецкий философ 18-го века Иммануил Кант. 274 00:16:02,414 --> 00:16:07,060 Мы остановимся на этих двух разных видах нравственной аргументации, 275 00:16:07,060 --> 00:16:10,569 дадим им оценку, а также рассмотрим некоторые другие. 276 00:16:10,569 --> 00:16:15,860 Из учебной программы видно, что мы изучим множество великих и известных книг: 277 00:16:15,860 --> 00:16:21,949 произведения Аристотеля, Джона Локка, Иммануила Канта, Джона Стюарта Милля, 278 00:16:21,949 --> 00:16:23,860 и других. 279 00:16:23,860 --> 00:16:28,060 Обратите внимание на то, что мы не только изучим эти книги, 280 00:16:28,060 --> 00:16:34,159 но и обсудим современные политические и правовые разногласия, 281 00:16:34,159 --> 00:16:36,923 затрагивающие философские вопросы. 282 00:16:36,923 --> 00:16:41,269 Мы будем говорить о равенстве и неравенстве, о позитивной дискриминации, 283 00:16:41,269 --> 00:16:43,386 о свободе слова и пропаганде ненависти, 284 00:16:43,386 --> 00:16:46,631 об однополых браках и воинской повинности. 285 00:16:46,631 --> 00:16:50,680 Эти и другие прикладные вопросы будут подняты, 286 00:16:50,680 --> 00:16:55,190 чтобы не только «оживить» отвлечённые от реальной жизни книги, 287 00:16:55,190 --> 00:16:59,430 но и внести ясность в то, с чем мы сталкиваемся в нашей повседневной жизни, 288 00:16:59,430 --> 00:17:02,694 включая политические вопросы, 289 00:17:02,704 --> 00:17:05,524 с точки зрения философии. 290 00:17:05,524 --> 00:17:10,048 После изучения этих книг и обсуждения прикладных вопросов, 291 00:17:10,048 --> 00:17:15,350 мы увидим, как они дополняют и освещают друг друга. 292 00:17:15,350 --> 00:17:22,449 Возможно, это звучит заманчиво, но я должен предупредить. 293 00:17:22,449 --> 00:17:25,149 И вот о чём. 294 00:17:25,149 --> 00:17:34,009 Чтение этих книг способом, при котором вы упражняетесь в самопознании, 295 00:17:34,009 --> 00:17:38,129 несёт в себе определённые риски — 296 00:17:38,129 --> 00:17:41,789 риски, как индивидуальные, так и политические. 297 00:17:41,789 --> 00:17:47,600 Риски, о которых знает каждый студент курса политической философии. 298 00:17:47,600 --> 00:17:54,030 Эти риски вытекают из того, что философия учит нас, 299 00:17:54,030 --> 00:18:01,159 побуждает нас сомневаться и идти вразрез с тем, что мы уже знаем. 300 00:18:01,159 --> 00:18:03,269 Парадоксально, 301 00:18:03,269 --> 00:18:09,669 но сложность этого курса в том, что вы изучаете то, что вам уже давно известно. 302 00:18:09,669 --> 00:18:16,319 Знания, которые мы получили из известных неоспоримых истин, 303 00:18:16,319 --> 00:18:20,029 превращаются в чуждые. 304 00:18:20,029 --> 00:18:23,099 Именно так работают наши примеры: 305 00:18:23,099 --> 00:18:28,899 шутливые гипотетические случаи, с которых мы начали эту лекцию. 306 00:18:28,899 --> 00:18:31,580 Точно такое же влияние оказывают книги по философии. 307 00:18:31,580 --> 00:18:35,390 Философия отстраняет нас 308 00:18:35,390 --> 00:18:37,340 от хорошо известных истин, 309 00:18:37,340 --> 00:18:40,260 не давая при этом новой информации, 310 00:18:40,260 --> 00:18:43,550 но увлекая нас за собой и провоцируя на то, 311 00:18:43,550 --> 00:18:47,239 чтобы посмотреть на вещи по-новому. 312 00:18:47,239 --> 00:18:49,800 Но здесь кроется риск. 313 00:18:49,800 --> 00:18:54,080 Когда однажды привычное станет чуждым, 314 00:18:54,080 --> 00:18:57,409 оно уже никогда не будет прежним. 315 00:18:57,409 --> 00:19:00,099 Самопознание 316 00:19:00,099 --> 00:19:02,780 похоже на потерю невинности. 317 00:19:02,780 --> 00:19:05,710 Однако то, что вы обнаружите, изменив привычное ви́дение, 318 00:19:05,710 --> 00:19:09,489 не будет для вас неожиданным 319 00:19:09,489 --> 00:19:13,180 или неизвестным. 320 00:19:13,180 --> 00:19:17,190 Это делает наш курс сложным, 321 00:19:17,190 --> 00:19:19,759 но от этого не менее захватывающим. 322 00:19:19,759 --> 00:19:25,200 Моральная и политическая философия — это история, 323 00:19:25,200 --> 00:19:29,280 и ты никогда не знаешь, куда она тебя приведёт, но ты точно знаешь, 324 00:19:29,280 --> 00:19:31,119 что эта история 325 00:19:31,119 --> 00:19:34,279 о тебе самом. 326 00:19:34,279 --> 00:19:36,970 Это индивидуальный риск. 327 00:19:36,970 --> 00:19:39,979 Теперь рассмотрим политические риски. 328 00:19:39,979 --> 00:19:42,920 Одним из способов пробудить у вас интерес к этому курсу 329 00:19:42,920 --> 00:19:44,608 было бы пообещать вам, 330 00:19:44,608 --> 00:19:46,300 что после прочтения этих книг 331 00:19:46,300 --> 00:19:47,930 и обсуждения определённых вопросов 332 00:19:47,930 --> 00:19:51,719 вы станете более ответственным членом общества. 333 00:19:51,719 --> 00:19:57,070 Вы изучите основы публичной политики, отточите свои политические суждения, 334 00:19:57,070 --> 00:20:02,549 научитесь более эффективно участвовать в общественной жизни. 335 00:20:02,549 --> 00:20:06,439 Но это было бы однобокое и в целом неверное обещание. 336 00:20:06,439 --> 00:20:11,359 Политическая философия в своей основе состоит в другом. 337 00:20:11,359 --> 00:20:14,429 Нам необходимо допустить, 338 00:20:14,429 --> 00:20:18,840 что политическая философия, наоборот, может сделать вас плохим, 339 00:20:18,840 --> 00:20:21,530 а не хорошим гражданином. 340 00:20:21,530 --> 00:20:23,700 Или, по крайней мере, плохим гражданином 341 00:20:23,700 --> 00:20:25,559 до того, как вы станете 342 00:20:25,559 --> 00:20:27,869 хорошим. 343 00:20:27,869 --> 00:20:30,200 Это происходит потому, что занятия философией 344 00:20:30,200 --> 00:20:32,220 удаляют нас от реальности 345 00:20:32,220 --> 00:20:36,370 и, порой, даже развращают. 346 00:20:36,370 --> 00:20:39,709 Давайте вернёмся во времена Сократа 347 00:20:39,709 --> 00:20:41,569 и обратимся к диалогу «Горгий», 348 00:20:41,569 --> 00:20:44,580 в котором один из друзей Сократа 349 00:20:44,580 --> 00:20:45,419 Калликл, 350 00:20:45,419 --> 00:20:47,239 пытается отговорить его 351 00:20:47,240 --> 00:20:49,670 от философствований. 352 00:20:49,670 --> 00:20:54,310 Калликл говорит ему, что философия, конечно, милая забава, 353 00:20:54,310 --> 00:20:57,830 если предаваться ей в разумных пределах и в определённом возрасте. 354 00:20:57,830 --> 00:21:03,599 Но если кто-то погружается в неё глубже, чем нужно, это заканчивается плачевно. 355 00:21:03,599 --> 00:21:06,319 «Прими мой совет, — говорит Калликл, 356 00:21:06,319 --> 00:21:08,199 оставь словопрения 357 00:21:08,199 --> 00:21:11,180 и обратись к жизни деятельной. 358 00:21:11,180 --> 00:21:16,780 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 359 00:21:16,780 --> 00:21:19,859 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 360 00:21:19,859 --> 00:21:22,189 и благословлён другими достоинствами.» 361 00:21:22,189 --> 00:21:26,618 Другими словами, Калликл убеждает Сократа 362 00:21:26,618 --> 00:21:28,500 оставить философствования, 363 00:21:28,500 --> 00:21:30,439 обратиться к реальности, 364 00:21:30,439 --> 00:21:34,990 поступить в бизнес-школу... 365 00:21:34,990 --> 00:21:38,149 И Калликл был по-своему прав. 366 00:21:38,149 --> 00:21:42,030 Он был прав в том, что философия уводит нас в сторону 367 00:21:42,030 --> 00:21:44,949 от традиций, установленных допущений 368 00:21:44,949 --> 00:21:46,529 и устоявшихся убеждений. 369 00:21:46,529 --> 00:21:48,270 Здесь нас и подстерегают опасности, 370 00:21:48,270 --> 00:21:49,840 индивидуальные и политические. 371 00:21:49,840 --> 00:21:54,089 В ответ на их угрозу сознание включает защитный механизм, 372 00:21:54,089 --> 00:21:57,470 который мы называем скептицизмом. 373 00:21:57,470 --> 00:22:03,660 Происходит это примерно следующим образом: мы так и не смогли прийти к единому мнению 374 00:22:03,660 --> 00:22:09,499 по вопросам, с обсуждения которых, мы начали эту лекцию. 375 00:22:09,499 --> 00:22:11,060 Но если ни Аристотель, 376 00:22:11,060 --> 00:22:16,950 ни Локк, ни Кант, ни Милль не дали на них ответа за всё это время, 377 00:22:16,950 --> 00:22:19,509 то кто мы такие, 378 00:22:19,509 --> 00:22:23,470 те, кто собрался в этом зале на один семестр, 379 00:22:23,470 --> 00:22:26,260 чтобы вдруг разрешить их? 380 00:22:26,260 --> 00:22:29,220 Может быть определённое видение мира — 381 00:22:29,220 --> 00:22:34,070 это личное дело каждого человека и к этому больше нечего добавить? 382 00:22:34,070 --> 00:22:36,239 И правильного ответа не существует. 383 00:22:36,239 --> 00:22:37,649 Это попытка бегства. 384 00:22:37,650 --> 00:22:39,380 Бегства в скептицизм. 385 00:22:39,380 --> 00:22:42,419 На это я ответил бы следующим образом: 386 00:22:42,419 --> 00:22:47,380 Да, над этими вопросами люди бьются долгое время. 387 00:22:47,380 --> 00:22:49,059 Но сам факт того, 388 00:22:49,059 --> 00:22:52,600 что они возвращаются к нам, нерешённые, настойчиво требуя от нас ответа, 389 00:22:52,600 --> 00:22:54,650 может, с одной стороны, говорить о том, 390 00:22:54,650 --> 00:22:56,989 что разрешить их невозможно, 391 00:22:56,989 --> 00:22:59,729 а с другой — о том, что их возникновение неизбежно. 392 00:22:59,729 --> 00:23:02,289 И причина их неизбежности в том, 393 00:23:02,289 --> 00:23:09,949 что каждому из нас приходится каждый день отвечать самостоятельно на эти вопросы. 394 00:23:09,949 --> 00:23:15,970 Получается, скептицизм, побуждающий нас отказаться от любых попыток найти ответы, 395 00:23:15,970 --> 00:23:18,059 не может являться решением. 396 00:23:18,059 --> 00:23:19,580 Иммануил Кант 397 00:23:19,580 --> 00:23:22,970 очень ёмко описал несостоятельность скептицизма: 398 00:23:22,970 --> 00:23:26,038 «Скептицизм есть привал для человеческого разума, 399 00:23:26,038 --> 00:23:28,999 где он может обдумать своё догматическое странствие, 400 00:23:28,999 --> 00:23:32,659 но это вовсе не место для постоянного пребывания.» 401 00:23:32,659 --> 00:23:35,750 «Простое принятие скептицизма, — пишет Кант, 402 00:23:35,750 --> 00:23:42,590 никогда не удовлетворит страждущий разум.» 403 00:23:42,590 --> 00:23:46,719 Всеми этими примерами я пытался дать вам некоторое представление о том, 404 00:23:46,719 --> 00:23:49,758 с какими опасностями и искушениями сталкивается ступивший на путь 405 00:23:49,758 --> 00:23:51,658 философского познания. 406 00:23:51,658 --> 00:23:55,509 В заключение я хотел бы сказать, 407 00:23:55,509 --> 00:23:58,039 что задача этого курса — 408 00:23:58,039 --> 00:24:02,079 разбудить страждущий разум 409 00:24:02,079 --> 00:24:04,200 и показать, как далеко он может нас увести. 410 00:24:04,200 --> 00:24:11,380 Спасибо за внимание. 411 00:24:15,440 --> 00:24:16,980 В такой отчаянной ситуации 412 00:24:16,980 --> 00:24:21,259 - ...вы должны сделать всё, что можно, чтобы выжить. - Вы должны сделать всё, что можно? - Да, вы должны сделать всё, 413 00:24:21,259 --> 00:24:22,779 что можно. 414 00:24:22,779 --> 00:24:23,619 Примерно так. 415 00:24:23,619 --> 00:24:25,699 Если вы 19 дней ничего не ели, 416 00:24:25,700 --> 00:24:32,700 - ...кто-то из вас должен пожертвовать собой ради спасения остальных. - Хорошо, как ваше имя? - Маркус. 417 00:24:33,569 --> 00:24:38,359 Что вы ответите Маркусу? 418 00:24:40,419 --> 00:24:44,489 В прошлый раз 419 00:24:44,489 --> 00:24:46,780 мы начали 420 00:24:46,780 --> 00:24:48,820 с нескольких историй, 421 00:24:48,820 --> 00:24:50,759 с нескольких моральных дилемм: 422 00:24:50,759 --> 00:24:52,689 о трамваях 423 00:24:52,689 --> 00:24:54,309 о докторах, 424 00:24:54,309 --> 00:24:56,209 а также о здоровых пациентах, 425 00:24:56,209 --> 00:25:00,689 рискующих, стать жертвами трансплантации органов. 426 00:25:00,690 --> 00:25:03,799 Мы обратили внимание на две особенности 427 00:25:03,799 --> 00:25:06,690 в доводах, которые мы приводили. 428 00:25:06,690 --> 00:25:09,689 Первая особенность связана с тем, как именно мы спорили. 429 00:25:09,689 --> 00:25:13,379 Всё началось с наших суждений об определённых случаях. 430 00:25:13,379 --> 00:25:18,170 Мы попытались сформулировать причины или принципы, 431 00:25:18,170 --> 00:25:22,329 лежащие в основе наших суждений. 432 00:25:22,329 --> 00:25:25,280 И затем, столкнувшись с новым случаем, 433 00:25:25,280 --> 00:25:30,209 мы пересматривали эти принципы, 434 00:25:30,209 --> 00:25:33,869 рассматривая один в свете другого. 435 00:25:33,869 --> 00:25:35,850 И мы почувствовали внутреннее сопротивление, 436 00:25:35,850 --> 00:25:38,860 пытаясь привести в соответствие 437 00:25:38,860 --> 00:25:41,550 наши суждения об определённых случаях 438 00:25:41,550 --> 00:25:46,270 и принципы, лежащие в основе этих суждений. 439 00:25:46,270 --> 00:25:50,459 Мы также заметили кое-что в содержании доводов, 440 00:25:50,459 --> 00:25:55,150 которые возникли в ходе обсуждения. 441 00:25:55,150 --> 00:25:57,449 Мы заметили, что иногда мы испытывали желание 442 00:25:57,449 --> 00:26:00,649 дать моральную оценку последствиям действий, 443 00:26:00,649 --> 00:26:06,389 результатам, положению дел, к которому эти действия привели. 444 00:26:06,389 --> 00:26:11,470 Мы назвали это явление консеквенциальной аргументацией. 445 00:26:11,470 --> 00:26:13,080 Но мы также заметили, 446 00:26:13,080 --> 00:26:16,300 что в некоторых ситуациях 447 00:26:16,300 --> 00:26:18,469 не только результат имел для нас 448 00:26:18,469 --> 00:26:21,309 значение. 449 00:26:21,309 --> 00:26:23,180 Иногда, 450 00:26:23,180 --> 00:26:25,429 как многие из нас почувствовали, 451 00:26:25,429 --> 00:26:31,240 не только последствия, но и сущность или характер действия 452 00:26:31,240 --> 00:26:34,959 имеют моральное значение. 453 00:26:34,959 --> 00:26:40,470 Некоторые люди утверждали, что есть определённые вещи, которые просто категорически неправильны, 454 00:26:40,470 --> 00:26:42,449 даже если за ними последует 455 00:26:42,449 --> 00:26:44,180 положительный результат. 456 00:26:44,180 --> 00:26:45,490 Даже 457 00:26:45,490 --> 00:26:47,200 если они приведут к спасению жизни пяти людей 458 00:26:47,200 --> 00:26:49,588 ценой одной жизни. 459 00:26:49,588 --> 00:26:52,500 Таким образом, мы сравнили консеквенциальные 460 00:26:52,500 --> 00:26:54,450 моральные принципы 461 00:26:54,450 --> 00:26:57,830 и категорические. 462 00:26:57,830 --> 00:26:59,790 Cегодня 463 00:26:59,789 --> 00:27:00,819 и в ближайшие несколько дней 464 00:27:00,819 --> 00:27:05,879 мы начнём рассматривать одну из самых влиятельных 465 00:27:05,879 --> 00:27:08,409 версий консеквенциальной 466 00:27:08,409 --> 00:27:10,970 моральной теории 467 00:27:10,970 --> 00:27:15,669 - философию утилитаризма. 468 00:27:15,669 --> 00:27:17,330 Джереми Бентам 469 00:27:17,330 --> 00:27:21,730 - английский политический философ 18-ого века 470 00:27:21,730 --> 00:27:22,910 дал первое 471 00:27:22,910 --> 00:27:26,300 чёткое систематическое определение 472 00:27:26,300 --> 00:27:28,330 утилитаристской 473 00:27:28,330 --> 00:27:31,800 моральной теории. 474 00:27:31,800 --> 00:27:36,260 Идея Бентама, 475 00:27:36,260 --> 00:27:38,300 его основная мысль, 476 00:27:38,300 --> 00:27:42,610 очень проста 477 00:27:42,610 --> 00:27:44,808 и несёт 478 00:27:44,808 --> 00:27:46,929 интуитивно понятный 479 00:27:46,929 --> 00:27:48,429 посыл. 480 00:27:48,430 --> 00:27:50,450 Она заключается 481 00:27:50,450 --> 00:27:51,590 в следующем: 482 00:27:51,589 --> 00:27:54,439 правильное действие, 483 00:27:54,440 --> 00:27:57,619 справедливое действие 484 00:27:57,619 --> 00:27:58,319 должно 485 00:27:58,319 --> 00:28:01,169 максимизировать 486 00:28:01,169 --> 00:28:02,339 полезность. 487 00:28:02,339 --> 00:28:06,329 Что он имел в виду под словом «полезность»? 488 00:28:06,329 --> 00:28:11,490 Под «полезностью» он имел в виду преобладание 489 00:28:11,490 --> 00:28:14,000 удовольствия над болью, 490 00:28:14,000 --> 00:28:16,778 счастья над страданием. 491 00:28:16,778 --> 00:28:18,210 И вот как он достиг 492 00:28:18,210 --> 00:28:19,259 принципа 493 00:28:19,259 --> 00:28:22,308 максимизации полезности. 494 00:28:22,308 --> 00:28:24,450 Он начал с наблюдения, заметив, 495 00:28:24,450 --> 00:28:26,399 что все мы, 496 00:28:26,398 --> 00:28:27,750 все люди 497 00:28:27,750 --> 00:28:31,430 управляемы двумя полновластными "повелителями" - 498 00:28:31,430 --> 00:28:34,620 болью и удовольствием. 499 00:28:34,619 --> 00:28:36,890 Нам, людям, 500 00:28:36,890 --> 00:28:42,308 нравится удовольствие и не нравится боль. 501 00:28:42,308 --> 00:28:45,839 И поэтому мы всегда должны основывать наши моральные суждения, 502 00:28:45,839 --> 00:28:49,169 будь то мысли человека о том, какими должны быть его поступки в частной жизни, 503 00:28:49,170 --> 00:28:50,490 или 504 00:28:50,490 --> 00:28:52,579 его мысли как законодателя или гражданина 505 00:28:52,579 --> 00:28:57,029 о том, каким должен быть закон, на следующем: 506 00:28:57,029 --> 00:29:01,919 нужно действовать, индивидуально или же коллективно, 507 00:29:01,919 --> 00:29:05,838 в направлении максимизации 508 00:29:05,838 --> 00:29:07,560 общего уровня 509 00:29:07,560 --> 00:29:11,259 счастья. 510 00:29:11,259 --> 00:29:15,320 Утилитаризм Бентама иногда выражается слоганом: 511 00:29:15,320 --> 00:29:18,799 "наибольшее благо для наибольшего количества". 512 00:29:18,799 --> 00:29:20,088 Вооружившись этим 513 00:29:20,088 --> 00:29:22,780 базовым принципом полезности, 514 00:29:22,780 --> 00:29:26,410 давайте проверим его, 515 00:29:26,410 --> 00:29:28,099 применив к другому случаю. 516 00:29:28,099 --> 00:29:30,620 На этот раз история 517 00:29:30,619 --> 00:29:32,639 не гипотетическая, 518 00:29:32,640 --> 00:29:33,999 а вполне реальная. 519 00:29:33,999 --> 00:29:38,139 Дело Дадли и Стивенса. 520 00:29:38,139 --> 00:29:41,690 Это знаменитое британское судебное дело 19-ого века, 521 00:29:41,690 --> 00:29:43,599 которое 522 00:29:43,599 --> 00:29:47,068 часто разбирается на юридических факультетах. 523 00:29:47,068 --> 00:29:50,059 Итак, что же произошло в этом деле? 524 00:29:50,059 --> 00:29:51,569 Я вкратце изложу его суть, 525 00:29:51,569 --> 00:29:54,360 и затем я хотел бы услышать, 526 00:29:54,360 --> 00:29:56,930 как бы вы разрешили его, 527 00:29:56,930 --> 00:29:59,950 если бы оказались на месте присяжных. 528 00:30:03,419 --> 00:30:05,799 В газетном отчёте того времени 529 00:30:05,799 --> 00:30:08,799 оно было описано так: 530 00:30:08,799 --> 00:30:11,240 «Нет истории печальнее на свете, 531 00:30:11,240 --> 00:30:12,569 чем история 532 00:30:12,569 --> 00:30:14,788 выживших с яхты 533 00:30:14,788 --> 00:30:16,240 «Mignonette» («Резеда») 534 00:30:16,240 --> 00:30:18,569 Это судно затонуло в Южной Атлантике 535 00:30:18,569 --> 00:30:21,599 в трёхстах милях от Мыса Доброй Надежды. 536 00:30:21,599 --> 00:30:23,580 На борту было четыре человека: 537 00:30:23,580 --> 00:30:25,920 капитан Дадли, 538 00:30:25,920 --> 00:30:27,660 его главный помощник Стивенс 539 00:30:27,660 --> 00:30:30,020 и матрос Брукс. 540 00:30:30,020 --> 00:30:31,279 Все они были «людьми 541 00:30:31,279 --> 00:30:32,490 с безукоризненной репутацией». 542 00:30:32,490 --> 00:30:34,169 По крайней мере, так говорит нам об этом 543 00:30:34,169 --> 00:30:35,719 газетный отчёт. 544 00:30:35,719 --> 00:30:38,370 Четвёртым членом команды был 545 00:30:38,370 --> 00:30:39,749 Ричард Паркер 546 00:30:39,749 --> 00:30:42,719 - семнадцатилетний юнга. 547 00:30:42,719 --> 00:30:44,530 Он был сиротой, 548 00:30:44,530 --> 00:30:46,810 у него не было семьи, 549 00:30:46,810 --> 00:30:51,290 и это было его первое дальнее плавание. 550 00:30:51,290 --> 00:30:53,700 Как говорит нам газетный отчёт, он отправился в путешествие, 551 00:30:53,700 --> 00:30:56,730 не послушавшись совета своих друзей. 552 00:30:56,730 --> 00:30:59,850 Полный надежд и юношеских амбиций, 553 00:30:59,850 --> 00:31:03,000 он думал, что путешествие сделает из него мужчину. 554 00:31:03,000 --> 00:31:05,140 К сожалению, этому не суждено было произойти. 555 00:31:05,140 --> 00:31:07,499 Факты дела не были предметом спора. 556 00:31:07,499 --> 00:31:08,970 В судно ударила волна, 557 00:31:08,970 --> 00:31:12,000 и «Mignonette» («Резеда») пошла ко дну. 558 00:31:12,000 --> 00:31:14,709 Экипаж сумел сесть в спасательную шлюпку. 559 00:31:14,709 --> 00:31:18,139 Единственной едой, которую они имели 560 00:31:18,139 --> 00:31:19,239 были две 561 00:31:19,239 --> 00:31:21,600 банки консервированной репы. 562 00:31:21,600 --> 00:31:23,900 Никакой питьевой воды. 563 00:31:23,900 --> 00:31:26,610 Первые три дня они ничего не ели, 564 00:31:26,609 --> 00:31:30,280 на четвёртый день они открыли одну из консервных банок 565 00:31:30,280 --> 00:31:31,620 и съели её содержимое. 566 00:31:31,620 --> 00:31:34,150 На следующий день они поймали черепаху. 567 00:31:34,150 --> 00:31:36,920 Оставшаяся банка с репой 568 00:31:36,920 --> 00:31:38,279 и черепаха 569 00:31:38,279 --> 00:31:40,018 помогли им продержаться 570 00:31:40,018 --> 00:31:43,009 ещё несколько дней, но затем в течение восьми дней 571 00:31:43,009 --> 00:31:44,038 у них уже не было ничего, 572 00:31:44,038 --> 00:31:46,749 ни еды, ни воды. 573 00:31:46,749 --> 00:31:49,929 Представьте себя в такой ситуации. 574 00:31:49,929 --> 00:31:52,699 Что бы вы сделали? 575 00:31:52,699 --> 00:31:55,049 Вот что сделали они. 576 00:31:55,049 --> 00:32:00,740 К этому моменту юнга Паркер лежал в углу на дне шлюпки, 577 00:32:00,740 --> 00:32:02,920 потому что напился морской воды, 578 00:32:02,920 --> 00:32:05,490 не послушав остальных. 579 00:32:05,490 --> 00:32:07,230 Ему сделалось дурно, 580 00:32:07,230 --> 00:32:10,669 и было понятно, что он умирает. 581 00:32:10,669 --> 00:32:14,619 На девятнадцатый день капитан Дадли предложил 582 00:32:14,618 --> 00:32:18,749 всем бросить жребий 583 00:32:18,749 --> 00:32:20,859 и определить, кому суждено умереть, 584 00:32:20,859 --> 00:32:24,079 чтобы спасти остальных. 585 00:32:24,079 --> 00:32:25,210 Брукс 586 00:32:25,210 --> 00:32:26,539 отказался, 587 00:32:26,539 --> 00:32:29,139 ему не понравилась идея со жребием. 588 00:32:29,140 --> 00:32:30,619 Мы не знаем, было ли это 589 00:32:30,618 --> 00:32:36,859 вызвано тем, что он не хотел рисковать, или же тем, что он верил в категорические моральные принципы, 590 00:32:36,859 --> 00:32:38,619 но в любом случае 591 00:32:38,619 --> 00:32:42,129 жребий так и не был брошен. 592 00:32:42,130 --> 00:32:43,230 На следующий день 593 00:32:43,230 --> 00:32:45,028 спасательного корабля на горизонте по-прежнему не было, 594 00:32:45,028 --> 00:32:48,250 и Дадли попросил Брукса отвернуться, 595 00:32:48,250 --> 00:32:50,720 жестом показав Стивенсу, 596 00:32:50,720 --> 00:32:53,929 что мальчишку Паркера нужно убить. 597 00:32:53,929 --> 00:32:55,850 Дадли помолился, 598 00:32:55,849 --> 00:32:58,480 сказал мальчику, что его время пришло, 599 00:32:58,480 --> 00:33:00,679 и зарезал его перочинным ножом, 600 00:33:00,679 --> 00:33:03,900 поразив яремную вену. 601 00:33:03,900 --> 00:33:09,750 Брукс, отрекшийся от соображений совести, тоже воспользовался этим жутким «подарком». 602 00:33:09,750 --> 00:33:11,029 Четыре дня 603 00:33:11,029 --> 00:33:15,230 они втроём питались телом и кровью юнги. 604 00:33:15,230 --> 00:33:17,220 Реальная история. 605 00:33:17,220 --> 00:33:19,390 А затем их спасли. 606 00:33:19,390 --> 00:33:22,840 Дадли описал это спасение 607 00:33:22,839 --> 00:33:24,678 в своём дневнике 608 00:33:24,679 --> 00:33:27,570 поразительным эвфемизмом. Цитата: 609 00:33:27,569 --> 00:33:29,648 «На двадцать четвёртый день 610 00:33:29,648 --> 00:33:34,750 когда мы завтракали, 611 00:33:34,750 --> 00:33:38,599 наконец-то показался корабль». 612 00:33:38,599 --> 00:33:44,309 Трое выживших были подобраны немецким кораблём и их отправили назад в Фэлмут, в Англию, 613 00:33:44,309 --> 00:33:47,079 где они были арестованы и подвергнуты суду. 614 00:33:47,079 --> 00:33:47,829 Брукс 615 00:33:47,829 --> 00:33:49,949 был свидетелем обвинения, 616 00:33:49,950 --> 00:33:54,450 а Дадли и Стивенс были обвиняемыми. Они не оспаривали факты 617 00:33:54,450 --> 00:33:55,390 и утверждали, 618 00:33:55,390 --> 00:33:58,140 что действовали в состоянии крайней необходимости. 619 00:33:58,140 --> 00:33:59,430 Это была их линия защиты. 620 00:33:59,430 --> 00:34:01,220 Они настаивали на том, что 621 00:34:01,220 --> 00:34:03,250 смерть одного человека более предпочтительна, 622 00:34:03,250 --> 00:34:06,420 чем смерть троих. 623 00:34:06,420 --> 00:34:08,619 Обвинителя 624 00:34:08,619 --> 00:34:10,849 не убедил такой аргумент. 625 00:34:10,849 --> 00:34:12,509 Он сказал: «Убийство есть убийство». 626 00:34:12,509 --> 00:34:16,429 Дело передали в суд. Теперь представьте, что вы присяжные. 627 00:34:16,429 --> 00:34:19,489 Чтобы упростить обсуждение, 628 00:34:19,489 --> 00:34:21,989 оставим в стороне вопрос права 629 00:34:21,989 --> 00:34:23,010 и представим, что 630 00:34:23,010 --> 00:34:25,879 как присяжные 631 00:34:25,878 --> 00:34:28,278 вы должны решить, 632 00:34:28,278 --> 00:34:31,009 было ли то, что они сделали, 633 00:34:31,009 --> 00:34:34,378 морально допустимым или нет. 634 00:34:34,378 --> 00:34:36,608 Кто из вас 635 00:34:36,608 --> 00:34:39,808 проголосовал бы 636 00:34:39,809 --> 00:34:46,809 за то, что они невиновны и что совершённое ими было морально допустимо? 637 00:34:49,528 --> 00:34:51,639 А кто проголосовал бы за то, что они виновны 638 00:34:51,639 --> 00:34:54,858 и что совершённое ими было морально недопустимо? 639 00:34:54,858 --> 00:34:57,998 Значительное большинство. 640 00:34:57,998 --> 00:35:03,808 Давайте послушаем ваши соображения, и позвольте мне начать с тех, кто оказался в меньшинстве. 641 00:35:03,809 --> 00:35:07,739 Давайте сперва предоставим слово защите 642 00:35:07,739 --> 00:35:10,099 Дадли и Стивенса. 643 00:35:10,099 --> 00:35:14,160 Почему вы оправдали бы их с моральной точки зрения? 644 00:35:14,159 --> 00:35:17,989 Чем вы руководствуетесь? 645 00:35:17,989 --> 00:35:20,798 Да, я считаю это предосудительным с моральной точки зрения, 646 00:35:20,798 --> 00:35:24,349 но существует различие между тем, что нравственно предосудительно, 647 00:35:24,349 --> 00:35:26,609 и тем, что влечёт юридическую ответственность. 648 00:35:26,608 --> 00:35:30,690 Или, как мог бы сказать судья, то, что аморально, совсем не обязательно противозаконно. 649 00:35:30,690 --> 00:35:34,789 И хотя я не считаю, что необходимость чего-либо 650 00:35:34,789 --> 00:35:36,169 является достаточным основанием 651 00:35:36,168 --> 00:35:38,578 для кражи, убийства, или другого противозаконного действия, 652 00:35:38,579 --> 00:35:43,509 степень необходимости в той или иной мере может 653 00:35:43,509 --> 00:35:45,849 оправдывать его. 654 00:35:45,849 --> 00:35:50,588 Кто ещё поддерживает эту точку зрения и согласен 655 00:35:50,588 --> 00:35:53,038 с моральными обоснованиями 656 00:35:53,039 --> 00:35:56,989 их действий? Пожалуйста. 657 00:35:56,989 --> 00:35:57,619 Спасибо. 658 00:35:57,619 --> 00:35:58,798 659 00:35:58,798 --> 00:35:59,570 Я думаю, 660 00:35:59,570 --> 00:36:03,139 в такой отчаянной ситуации вы должны сделать всё, что можно, чтобы выжить. 661 00:36:03,139 --> 00:36:04,679 Вы должны сделать всё, что можно? 662 00:36:04,679 --> 00:36:06,789 Да, вы должны сделать всё, что можно. 663 00:36:06,789 --> 00:36:07,849 Если вы 19 дней ничего не ели, 664 00:36:07,849 --> 00:36:09,899 кто-то из вас 665 00:36:09,898 --> 00:36:14,710 должен пожертвовать собой ради спасения остальных. 666 00:36:14,710 --> 00:36:16,139 Более того, 667 00:36:16,139 --> 00:36:21,299 представим, что по возвращении домой, спасшиеся начинают делать что-то полезное для общества: 668 00:36:21,300 --> 00:36:26,230 создают миллионы благотворительных организаций и другие подобные вещи. То есть, в итоге всем хорошо. 669 00:36:26,230 --> 00:36:28,519 Я не знаю, что они сделали после этого случая, но они вполне могли бы продолжать 670 00:36:28,519 --> 00:36:30,478 убивать людей 671 00:36:30,478 --> 00:36:32,889 независимо от... 672 00:36:32,889 --> 00:36:35,708 Что? А что если они вернулись домой и превратились в убийц? 673 00:36:35,708 --> 00:36:38,908 Что если они вернулись домой и превратились в убийц? 674 00:36:38,909 --> 00:36:42,878 Вы бы хотели знать, кого они убили. 675 00:36:42,878 --> 00:36:45,848 Да, верно. 676 00:36:45,849 --> 00:36:49,609 Я хотел бы знать это. 677 00:36:49,608 --> 00:36:50,708 - Хорошо, как ваше имя? - Маркус. 678 00:36:50,708 --> 00:36:52,489 Мы услышали сторону защиты, 679 00:36:52,489 --> 00:36:54,050 пару голосов в оправдание. 680 00:36:54,050 --> 00:36:55,660 Теперь послушаем 681 00:36:55,659 --> 00:36:57,298 сторону обвинения. 682 00:36:57,298 --> 00:36:59,338 Большинство людей думает, 683 00:36:59,338 --> 00:37:05,068 что они не правы. Почему? 684 00:37:05,068 --> 00:37:09,898 Когда я услышала эту историю, то подумала: "Так, если они голодали очень долго, 685 00:37:09,898 --> 00:37:11,409 то, может быть, 686 00:37:11,409 --> 00:37:12,469 в этом случае 687 00:37:12,469 --> 00:37:15,139 они не были в здравом рассудке". 688 00:37:15,139 --> 00:37:16,408 И это могло послужить оправданием, 689 00:37:16,409 --> 00:37:20,619 в качестве возможного аргумента: 690 00:37:20,619 --> 00:37:24,179 они были не в своём уме 691 00:37:24,179 --> 00:37:28,519 и приняли решение, которое не приняли бы в другой ситуации. Думаю, это их оправдывает. 692 00:37:28,518 --> 00:37:33,608 Трезво мыслящий человек так никогда не поступит. Мне кажется, что есть люди, 693 00:37:33,608 --> 00:37:36,108 которые находят данный аргумент приемлемым. 694 00:37:36,108 --> 00:37:40,088 - Вы думаете, что они поступили аморально. - Но я хочу знать, 695 00:37:40,088 --> 00:37:41,248 - ...что думаете вы. Вы голосовали за то, что они виновны, верно? - Да, я не считаю, что они действовали 696 00:37:45,548 --> 00:37:49,449 - ...в рамках морали. - Почему нет? Вы же слышали, как Маркус 697 00:37:49,449 --> 00:37:51,088 защищал их. 698 00:37:51,088 --> 00:37:52,909 Он сказал... 699 00:37:52,909 --> 00:37:53,880 Вы слышали, что он сказал. 700 00:37:53,880 --> 00:37:55,249 Да, 701 00:37:55,248 --> 00:37:56,558 я слышала. 702 00:37:56,559 --> 00:38:00,119 Что вы должны поступать так, как того требует данная ситуация. 703 00:38:00,119 --> 00:38:04,789 Что вы ответите Маркусу? 704 00:38:04,789 --> 00:38:06,439 Я бы сказала, что 705 00:38:06,438 --> 00:38:13,438 нет такой ситуации, в которой можно было бы 706 00:38:13,579 --> 00:38:17,959 лишить человека права управлять своей судьбой или лишить человека жизни. 707 00:38:17,958 --> 00:38:19,328 У нас нет такого права. 708 00:38:19,329 --> 00:38:21,399 Хорошо, спасибо. 709 00:38:21,398 --> 00:38:24,130 - Как вас зовут? - Бритт. 710 00:38:24,130 --> 00:38:24,548 Бритт? Хорошо. 711 00:38:24,548 --> 00:38:26,028 Кто-нибудь ещё? 712 00:38:26,028 --> 00:38:28,159 Как вас зовут? Встаньте, пожалуйста. 713 00:38:28,159 --> 00:38:35,159 Мне вот что интересно. Если бы Дадли и Стивенс спросили Ричарда Паркера, согласен ли он умереть, 714 00:38:35,429 --> 00:38:37,568 то могло бы 715 00:38:37,568 --> 00:38:41,228 это оправдать 716 00:38:41,228 --> 00:38:45,448 совершённое убийство, и если да, то было бы ли это оправданно с точки зрения морали? 717 00:38:45,449 --> 00:38:51,720 - Это любопытно. Согласие. Подождите, как вас зовут? - Кэтлин. 718 00:38:51,719 --> 00:38:56,088 Кэтлин предлагает представить, как бы могла выглядеть эта сцена 719 00:38:56,088 --> 00:38:56,619 в таком случае. 720 00:38:56,619 --> 00:39:00,410 Итак, представьте. Дадли с ножом в руке, 721 00:39:00,409 --> 00:39:02,608 но вместо молитвы 722 00:39:02,608 --> 00:39:04,588 или перед молитвой, 723 00:39:04,588 --> 00:39:07,599 он спрашивает: "Паркер, 724 00:39:07,599 --> 00:39:11,519 ты не возражаешь? 725 00:39:11,518 --> 00:39:14,348 Мы тут безумно проголодались..." 726 00:39:14,349 --> 00:39:17,679 Смотрите, как Маркус сопереживает им. 727 00:39:17,679 --> 00:39:19,769 "Мы безумно проголодались, 728 00:39:19,768 --> 00:39:22,168 а тебе, в любом случае, недолго осталось. 729 00:39:22,168 --> 00:39:23,498 Ты можешь стать мучеником. 730 00:39:23,498 --> 00:39:25,748 Не хочешь стать мучеником? 731 00:39:25,748 --> 00:39:29,468 Что скажешь, Паркер?" 732 00:39:29,469 --> 00:39:33,220 В этом случае 733 00:39:33,219 --> 00:39:37,639 можете ли вы оправдать это с точки зрения морали? 734 00:39:37,639 --> 00:39:38,219 Допустим, Паркер 735 00:39:38,219 --> 00:39:40,168 в оцепенении 736 00:39:40,168 --> 00:39:42,498 говорит: "Ну ладно, я согласен". 737 00:39:42,498 --> 00:39:47,889 - Я не считаю, что это морально оправдывает убийство, но мне просто интересно... - Даже в этом случае? - Нет. 738 00:39:47,889 --> 00:39:50,650 Вы не считаете, что даже с согласия 739 00:39:50,650 --> 00:39:52,490 это может быть морально оправдано. 740 00:39:52,489 --> 00:39:54,568 Есть тут люди, 741 00:39:54,568 --> 00:39:56,369 готовые подхватить идею Кэтлин 742 00:39:56,369 --> 00:39:57,200 о согласии? 743 00:39:57,199 --> 00:40:01,688 И кто считает, что в таком случае их действия были бы морально оправданны? Поднимите руку, 744 00:40:01,688 --> 00:40:05,868 если вы с этим согласны. 745 00:40:05,869 --> 00:40:07,588 Вот это интересно. 746 00:40:07,588 --> 00:40:09,168 Почему же наличие согласия 747 00:40:09,168 --> 00:40:15,888 создало такую разницу? С чего бы это? 748 00:40:15,889 --> 00:40:18,509 Я думаю, что если бы Паркер сам принимал решение, 749 00:40:18,509 --> 00:40:20,969 если бы это было его собственной идеей, 750 00:40:20,969 --> 00:40:23,778 то только в такой ситуации это было бы допустимо. 751 00:40:23,778 --> 00:40:25,940 Потому что в такой ситуации вы не можете сказать, 752 00:40:28,358 --> 00:40:30,579 что на него было оказано давление, 753 00:40:30,579 --> 00:40:32,759 - ...что их было трое против одного. - Хорошо. 754 00:40:32,759 --> 00:40:34,070 Мне кажется, 755 00:40:34,070 --> 00:40:38,009 если, принимая такое решение, он делает это по собственной воле. 756 00:40:38,009 --> 00:40:42,668 Конечно, одним людям это покажется поступком, достойным восхищения, 757 00:40:42,668 --> 00:40:45,449 а другим - нет. 758 00:40:45,449 --> 00:40:49,099 Итак, если он сам предложил эту идею, 759 00:40:49,099 --> 00:40:52,820 то это будет единственным вариантом согласия, который бы нас устроил 760 00:40:52,820 --> 00:40:55,359 с точки зрения морали. Тогда это было бы допустимо. 761 00:40:55,358 --> 00:40:57,268 В ином случае 762 00:40:57,268 --> 00:40:59,788 это будет, cкажем так, согласие под принуждением, 763 00:40:59,789 --> 00:41:01,469 согласие под воздействием обстоятельств. 764 00:41:01,469 --> 00:41:05,278 Так вы считаете. 765 00:41:05,278 --> 00:41:07,349 Кто-нибудь из вас считает, 766 00:41:07,349 --> 00:41:10,979 что даже согласие Паркера 767 00:41:10,978 --> 00:41:13,419 не оправдывает 768 00:41:13,420 --> 00:41:15,479 его убийство? 769 00:41:15,478 --> 00:41:18,088 Кто так думает? 770 00:41:18,088 --> 00:41:19,538 Да, расскажите нам почему вы так думаете. Встаньте, пожалуйста. 771 00:41:19,539 --> 00:41:21,260 Я думаю, что Паркер 772 00:41:21,260 --> 00:41:22,319 был убит 773 00:41:22,318 --> 00:41:26,558 в надежде, что все остальные члены экипажа впоследствии будут спасены. 774 00:41:26,559 --> 00:41:29,250 Но для его убийства нет объективных причин, 775 00:41:29,250 --> 00:41:31,199 потому что вы даже не знаете, 776 00:41:31,199 --> 00:41:35,809 спасут вас вообще или нет, так что его убийство может быть совершенно напрасным. 777 00:41:35,809 --> 00:41:38,039 Вы так и будете убивать одного члена команды за другим, пока вы не останетесь совсем один или вас не спасут? 778 00:41:38,039 --> 00:41:40,309 Просто по той причине, что кто-то всё равно должен умереть? 779 00:41:40,309 --> 00:41:44,199 С позиций морали, смысл ситуации в том, 780 00:41:44,199 --> 00:41:45,829 что они 781 00:41:45,829 --> 00:41:50,318 жертвуют слабейшими один за другим, 782 00:41:50,318 --> 00:41:51,818 пока не будут спасены. 783 00:41:51,818 --> 00:41:57,679 И в этом случае, по счастливой случайности, по крайней мере, три человека остались в живых. 784 00:41:57,679 --> 00:41:58,880 Но если бы 785 00:41:58,880 --> 00:42:01,298 Паркер согласился, 786 00:42:01,298 --> 00:42:04,068 как вы думаете, это было бы правильным? 787 00:42:04,068 --> 00:42:06,329 Нет, я по-прежнему не считаю это правильным. 788 00:42:06,329 --> 00:42:08,030 Обоснуйте почему. 789 00:42:08,030 --> 00:42:10,028 Во-первых, я считаю, что каннибализм 790 00:42:10,028 --> 00:42:13,228 в принципе аморален. 791 00:42:13,228 --> 00:42:14,509 Вы не должны есть людей ни в каком случае. 792 00:42:14,510 --> 00:42:17,449 Итак, 793 00:42:17,449 --> 00:42:19,380 каннибализм неприемлем 794 00:42:19,380 --> 00:42:22,400 даже в том случае, 795 00:42:22,400 --> 00:42:24,568 когда мы знаем, что человек точно умрёт? 796 00:42:24,568 --> 00:42:27,018 Даже в этом случае? 797 00:42:27,018 --> 00:42:27,929 Да, лично для меня. 798 00:42:27,929 --> 00:42:29,739 Мне кажется, 799 00:42:29,739 --> 00:42:31,199 что всё это зависит 800 00:42:31,199 --> 00:42:35,288 от личных моральных принципов человека. Это только мое мнение. 801 00:42:35,289 --> 00:42:39,339 Конечно, не все с этим согласятся. 802 00:42:39,338 --> 00:42:41,498 Хорошо. Давайте послушаем аргументы "против", 803 00:42:41,498 --> 00:42:42,639 а затем посмотрим, 804 00:42:42,639 --> 00:42:44,259 смогут ли они 805 00:42:44,259 --> 00:42:46,228 переубедить вас или нет? 806 00:42:46,228 --> 00:42:48,358 Давайте попробуем. 807 00:42:48,358 --> 00:42:50,098 Итак, 808 00:42:50,099 --> 00:42:53,249 есть ли здесь кто-нибудь, 809 00:42:53,248 --> 00:42:57,908 кому импонирует идея согласия и кто мог бы объяснить. 810 00:42:57,909 --> 00:42:59,778 Можете ли вы объяснить, 811 00:42:59,778 --> 00:43:02,028 почему согласие 812 00:43:02,028 --> 00:43:03,358 всё так кардинально меняет? 813 00:43:03,358 --> 00:43:05,650 А как насчёт идеи с жребием? 814 00:43:05,650 --> 00:43:08,930 Может ли это считаться своего рода согласием? Помните, в начале истории 815 00:43:08,929 --> 00:43:11,308 Дадли предложил тянуть жребий. 816 00:43:11,309 --> 00:43:13,839 Предположим, что они согласились 817 00:43:13,838 --> 00:43:16,338 тянуть жребий. 818 00:43:16,338 --> 00:43:17,369 Теперь 819 00:43:17,369 --> 00:43:20,798 кто из вас за то, 820 00:43:20,798 --> 00:43:23,929 что это было бы правильно? Предположим, они тянули жребий, 821 00:43:23,929 --> 00:43:25,380 и юнга проиграл. 822 00:43:25,380 --> 00:43:32,380 Далее происходит история, которую мы уже знаем. Было бы тогда это правильным? Кто так считает? 823 00:43:33,199 --> 00:43:37,030 Итак, если мы предположим, что они тянули жребий. число тех, кто так считает, возрастает. Давайте послушаем кого-нибудь из тех, 824 00:43:37,030 --> 00:43:41,609 для кого с моральной точки зрения принципиален жребий. 825 00:43:41,608 --> 00:43:43,458 Почему вы так считаете? 826 00:43:43,458 --> 00:43:44,739 Я думаю, что это принципиальный 827 00:43:44,739 --> 00:43:45,718 момент. 828 00:43:45,719 --> 00:43:47,858 На мой взгляд, преступлением этот поступок делает то, 829 00:43:47,858 --> 00:43:53,848 что Дадли и Стивенс в какой-то момент решили, что их жизни важнее, чем жизнь юнги. 830 00:43:53,849 --> 00:43:56,609 Я имею в виду, что подобная мысль является предпосылкой любого преступления, 831 00:43:56,608 --> 00:43:57,688 разве нет? Это равнозначно признанию того, 832 00:43:57,688 --> 00:44:01,949 что мои потребности, мои желания является более важными, более предпочтительными, чем ваши. 833 00:44:01,949 --> 00:44:04,798 А если бы они тянули жребий, согласившись с тем, 834 00:44:04,798 --> 00:44:06,478 что кто-то из них должен умереть 835 00:44:06,478 --> 00:44:09,239 и пожертвовать таким образом собой, 836 00:44:09,239 --> 00:44:11,008 чтобы спасти остальных. 837 00:44:11,009 --> 00:44:12,949 Тогда всё будет в порядке? 838 00:44:12,949 --> 00:44:15,880 Немного абсурдно, но, 839 00:44:15,880 --> 00:44:18,959 - Но допустимо с точки зрения морали? - Да. 840 00:44:18,958 --> 00:44:22,688 - Как вас зовут? - Мэтт. 841 00:44:22,688 --> 00:44:25,578 Что ж, Мэтт, вас 842 00:44:25,579 --> 00:44:27,329 смущает не сам факт 843 00:44:27,329 --> 00:44:31,389 каннибализма, а отсутствие должной процедуры? 844 00:44:31,389 --> 00:44:34,689 Я думаю, да. 845 00:44:34,688 --> 00:44:38,170 Может ли кто-нибудь их тех, кто согласен с Мэттом, 846 00:44:38,170 --> 00:44:40,499 что-нибудь добавить к сказанному 847 00:44:40,498 --> 00:44:41,378 о том, почему 848 00:44:41,378 --> 00:44:43,690 жребий 849 00:44:43,690 --> 00:44:47,099 сделает это поступок 850 00:44:47,099 --> 00:44:50,979 допустимым с точки зрения морали? 851 00:44:50,978 --> 00:44:55,568 Мне кажется, что основная проблема заключается именно в том, что юнгу 852 00:44:55,568 --> 00:44:56,398 даже не спрашивали, 853 00:44:56,398 --> 00:45:00,478 когда решали его судьбу. Даже в ситуации с несостоявшимся 854 00:45:00,478 --> 00:45:01,088 жребием. 855 00:45:01,088 --> 00:45:04,420 Будет или не будет он в ней участвовать, им показалось неважным. Было просто принято решение о том, 856 00:45:04,420 --> 00:45:08,170 что именно мальчик должен умереть. - Да, так и произошло на самом деле. 857 00:45:08,170 --> 00:45:11,900 Но если бы все они тянули жребий, и все были бы согласны с этой процедурой, 858 00:45:11,900 --> 00:45:13,539 считаете ли вы, что это было бы правильным? 859 00:45:13,539 --> 00:45:16,418 Да, потому что тогда все бы знали, что кто-то из них умрёт, 860 00:45:16,418 --> 00:45:17,079 в то время как 861 00:45:17,079 --> 00:45:18,878 в реальной ситуации юнга не знал, 862 00:45:18,878 --> 00:45:21,038 что Дадли и Стивенс решают его судьбу. 863 00:45:21,039 --> 00:45:21,919 Ему никто 864 00:45:21,918 --> 00:45:23,578 не сказал, 865 00:45:23,579 --> 00:45:28,829 - что он может умереть. - Хорошо, предположим, что все согласились тянуть жребий. 866 00:45:28,829 --> 00:45:35,089 Все бросили жребий. Но представьте себе, что юнга проиграл и передумал. 867 00:45:35,088 --> 00:45:40,989 Вы уже всё решили. Это своего рода устное соглашение, вы не можете взять свои слова обратно. Решение было принято. 868 00:45:40,989 --> 00:45:45,139 Вы понимаете, что умираете ради того, чтобы спасти других. 869 00:45:45,139 --> 00:45:45,999 870 00:45:45,998 --> 00:45:47,688 Вы осознаёте, что если бы кому-то другому выпадет жребий умереть, 871 00:45:47,688 --> 00:45:51,969 то его также съедят, так что… 872 00:45:51,969 --> 00:45:57,429 Хорошо, но потом он мог бы сказать: «Знаю, но я проиграл». 873 00:45:57,429 --> 00:46:01,939 Я считаю, что основная нравственная проблема в том, что юнгу никто не спрашивал. 874 00:46:01,938 --> 00:46:04,298 Самым ужасным является то, 875 00:46:04,298 --> 00:46:08,909 что он даже не представлял, что происходит. Если бы он осознавал это, 876 00:46:08,909 --> 00:46:10,599 то результат был бы 877 00:46:10,599 --> 00:46:13,109 немного более справедливым. 878 00:46:13,108 --> 00:46:14,509 Хорошо. Теперь, мне интересно узнать вот что. 879 00:46:14,510 --> 00:46:17,049 Некоторые из вас считают, 880 00:46:17,048 --> 00:46:18,708 что это морально допустимо, 881 00:46:18,708 --> 00:46:24,048 но вас всего около 20 процентов. 882 00:46:24,048 --> 00:46:26,559 Во главе с Маркусом. 883 00:46:26,559 --> 00:46:28,439 Другие же считают, 884 00:46:28,438 --> 00:46:30,208 что основная проблема заключается 885 00:46:30,208 --> 00:46:32,838 в отсутствии согласия, 886 00:46:32,838 --> 00:46:37,139 будь то отсутствие согласия тянуть справедливый жребий 887 00:46:37,139 --> 00:46:38,588 или же, 888 00:46:38,588 --> 00:46:39,690 как считает Кэтлин, 889 00:46:39,690 --> 00:46:40,749 отсутствие согласия 890 00:46:40,748 --> 00:46:42,928 в момент 891 00:46:42,929 --> 00:46:45,139 смерти. 892 00:46:45,139 --> 00:46:48,318 Если мы предположим наличие согласия, то 893 00:46:48,318 --> 00:46:49,019 894 00:46:49,019 --> 00:46:51,889 уже больше людей будут готовы признать, 895 00:46:51,889 --> 00:46:54,528 что эта жертва морально оправдана. 896 00:46:54,528 --> 00:46:56,639 Теперь я хочу выслушать 897 00:46:56,639 --> 00:46:58,548 тех, кто считает, 898 00:46:58,548 --> 00:47:00,199 что даже при наличии согласия, 899 00:47:00,199 --> 00:47:01,898 даже при условии организации жребия, 900 00:47:01,898 --> 00:47:02,519 даже 901 00:47:02,519 --> 00:47:04,579 если бы в самый последний 902 00:47:04,579 --> 00:47:06,950 момент 903 00:47:06,949 --> 00:47:08,018 Паркер 904 00:47:08,018 --> 00:47:09,179 вяло согласился, 905 00:47:09,179 --> 00:47:10,838 это всё равно 906 00:47:10,838 --> 00:47:12,639 было бы неправильно. 907 00:47:12,639 --> 00:47:14,248 И я хочу услышать, 908 00:47:14,248 --> 00:47:16,998 почему это было бы неправильно. 909 00:47:16,998 --> 00:47:18,818 Всё это время 910 00:47:18,818 --> 00:47:22,639 я склонялась к категорической аргументации. 911 00:47:22,639 --> 00:47:25,568 Возможно, 912 00:47:25,568 --> 00:47:29,608 я готова принять вариант со жребием, 913 00:47:29,608 --> 00:47:31,440 при котором проигравший в нём собственноручно 914 00:47:31,440 --> 00:47:32,749 убивает себя. 915 00:47:32,748 --> 00:47:33,679 916 00:47:33,679 --> 00:47:37,358 Тогда убийства как такового не будет, но я по-прежнему считаю, 917 00:47:37,358 --> 00:47:42,278 что даже в таком случае будет принуждение. Я также не думаю, что в этом деле имело место раскаяние, 918 00:47:42,278 --> 00:47:43,338 ведь вспомните, как это описано в дневнике Дадли: 919 00:47:43,338 --> 00:47:44,909 "…когда мы завтракали". 920 00:47:44,909 --> 00:47:47,659 Это выглядит так, как будто он 921 00:47:47,659 --> 00:47:51,440 не видит ценности в жизни других. 922 00:47:51,440 --> 00:47:53,639 Это заставляет меня 923 00:47:53,639 --> 00:47:57,969 принять категорическую аргументацию. - Вы хотите наказать Дадли по полной программе, 924 00:47:57,969 --> 00:48:02,298 если он не раскаивается или не чувствует, что поступил неправильно? - Да. 925 00:48:02,298 --> 00:48:06,969 Хорошо. Есть ещё те, 926 00:48:06,969 --> 00:48:08,769 927 00:48:08,768 --> 00:48:13,268 кто считает, что это категорически неправильно, с согласием или без него. Да, пожалуйста. Почему? 928 00:48:13,268 --> 00:48:17,288 Я считаю, что в понятиях нашего общества убийство есть убийство. 929 00:48:17,289 --> 00:48:21,829 Убийство есть убийство, и в любом случае наше общество негативно к этому относится. 930 00:48:21,829 --> 00:48:24,780 - Я не считаю, что это зависит от обстоятельств. - Хорошо. Позвольте мне задать вам вопрос. 931 00:48:24,780 --> 00:48:27,119 На кону было три жизни 932 00:48:27,119 --> 00:48:30,489 против одной. 933 00:48:30,489 --> 00:48:33,028 У юнги не было ни семьи, 934 00:48:33,028 --> 00:48:34,509 ни тех, о ком нужно было заботиться. 935 00:48:34,509 --> 00:48:38,739 У трёх других человек дома остались семьи, у них были иждивенцы: 936 00:48:38,739 --> 00:48:41,418 жёны и дети. 937 00:48:41,418 --> 00:48:43,328 Вспомните Бентама. 938 00:48:43,329 --> 00:48:44,989 Бентам считал, что мы должны учитывать 939 00:48:44,989 --> 00:48:48,048 благосостояние, полезность и счастье 940 00:48:48,048 --> 00:48:51,288 для всех. Мы должны сложить всё вместе, 941 00:48:51,289 --> 00:48:54,640 поэтому это не просто цифра «три» против цифры «один», 942 00:48:54,639 --> 00:48:58,759 а ещё и все эти люди, ждущие моряков дома. 943 00:48:58,759 --> 00:49:00,909 Надо сказать, что во время разбирательства пресса 944 00:49:00,909 --> 00:49:04,248 и общественное мнение сочувствовали 945 00:49:04,248 --> 00:49:05,478 Дадли и Стивенсу. 946 00:49:05,478 --> 00:49:07,919 В газете писали, что если бы ими 947 00:49:07,920 --> 00:49:08,280 не двигали 948 00:49:08,280 --> 00:49:09,640 привязанность к своим близким, оставшимся дома, 949 00:49:09,639 --> 00:49:13,489 и беспокойство об их судьбе, они бы, несомненно, 950 00:49:13,489 --> 00:49:15,969 - не совершили этот страшный поступок. - Хорошо, но в таком случае как они отличаются от людей, 951 00:49:15,969 --> 00:49:17,369 которые просят милостыню 952 00:49:17,369 --> 00:49:21,108 и которые также хотят прокормить свою семью? Я не думаю, что есть большая разница. Я считаю, что в любом случае 953 00:49:21,108 --> 00:49:25,279 если я убиваю кого-то, чтобы улучшить свое положение, это не перестаёт быть убийством. Я думаю, что мы должны рассматривать всё это 954 00:49:25,280 --> 00:49:28,430 с такой точки зрения. Мы считаем преступлениями только 955 00:49:28,429 --> 00:49:30,278 определённые поступки. 956 00:49:30,278 --> 00:49:33,760 При этом некоторые из них кажутся нам более жестокими и дикими, 957 00:49:33,760 --> 00:49:36,760 хотя в их основе всегда лежит один и тот же стимул - 958 00:49:36,760 --> 00:49:40,150 необходимость прокормить свои семьи. 959 00:49:40,150 --> 00:49:43,028 Предположим, что людей в исходной ситуации было бы не трое, а тридцать 960 00:49:43,028 --> 00:49:44,608 или триста. 961 00:49:44,608 --> 00:49:47,358 Пожертвовать одной жизнью, чтобы спасти триста 962 00:49:47,358 --> 00:49:48,349 или больше, 963 00:49:48,349 --> 00:49:49,589 три тысячи. 964 00:49:49,590 --> 00:49:51,039 Или, предположим, что ставки были ещё больше. 965 00:49:51,039 --> 00:49:52,778 Предположим, что ставки были ещё больше. 966 00:49:52,778 --> 00:49:54,608 Я думаю, что это по-прежнему то же самое. 967 00:49:54,608 --> 00:49:58,108 Вы думаете, что Бентам ошибался, говоря, что необходимо 968 00:49:58,108 --> 00:49:58,929 суммировать 969 00:49:58,929 --> 00:50:02,479 всё общественное счастье? Вы думаете, что он ошибался насчёт этого? 970 00:50:02,478 --> 00:50:06,728 - Я не считаю, что он ошибался, но я считаю, что убийство есть убийство в любом случае. - Значит Бентам определённо ошибается. 971 00:50:06,728 --> 00:50:09,568 - Если вы правы, то неправ он. - Хорошо, тогда он не прав. 972 00:50:09,568 --> 00:50:12,818 Хорошо, спасибо. 973 00:50:12,818 --> 00:50:14,358 Давайте отвлечёмся 974 00:50:14,358 --> 00:50:16,389 от этого обсуждения 975 00:50:16,389 --> 00:50:19,728 и обратим внимание на то, 976 00:50:19,728 --> 00:50:23,259 сколько было возражений по поводу поступка Дадли и Стивенса. 977 00:50:23,259 --> 00:50:26,048 Мы услышали несколько мнений в защиту того, что они сделали. 978 00:50:26,048 --> 00:50:28,509 Их оправдывали тем, что они находились 979 00:50:28,509 --> 00:50:28,918 в состоянии крайней необходимости, 980 00:50:28,918 --> 00:50:32,588 были в ужасных обстоятельствах. 981 00:50:32,588 --> 00:50:33,409 По крайней мере, косвенно оправдывали количественным аргументом, 982 00:50:33,409 --> 00:50:36,018 «три жизни против одной». 983 00:50:36,018 --> 00:50:37,858 Говорили, что дело не только в количестве, 984 00:50:37,858 --> 00:50:40,380 но и в более важных обстоятельствах, 985 00:50:40,380 --> 00:50:43,459 в том, что дома у них остались семьи и близкие. 986 00:50:43,458 --> 00:50:44,768 Паркер же был сиротой, 987 00:50:44,768 --> 00:50:47,978 никто бы не скучал по нему. 988 00:50:47,978 --> 00:50:49,578 Таким образом, если вы 989 00:50:49,579 --> 00:50:50,829 сложите всё это 990 00:50:50,829 --> 00:50:52,649 и попробуете оценить 991 00:50:52,648 --> 00:50:53,998 соотношение 992 00:50:53,998 --> 00:50:56,598 счастья и страдания, 993 00:50:56,599 --> 00:50:58,838 то у вас будут основания 994 00:50:58,838 --> 00:51:02,768 утверждать, что они поступили правильно. 995 00:51:02,768 --> 00:51:09,468 Затем мы услышали по крайней мере три различных типа возражений. 996 00:51:09,469 --> 00:51:11,690 Например, возражение о том, 997 00:51:11,690 --> 00:51:14,108 что они поступили неправильно с категорической точки зрения. 998 00:51:14,108 --> 00:51:15,750 Вы так сказали. 999 00:51:15,750 --> 00:51:17,389 Неправильно с категорической точки зрения. 1000 00:51:17,389 --> 00:51:19,820 Убийство есть убийство, и это всегда плохо, 1001 00:51:19,820 --> 00:51:20,969 даже если 1002 00:51:20,969 --> 00:51:23,349 при этом повысится общий уровень счастья 1003 00:51:23,349 --> 00:51:25,639 в обществе. 1004 00:51:25,639 --> 00:51:28,499 Это категорическое возражение. 1005 00:51:28,498 --> 00:51:30,738 Но нам всё равно нужно понять, 1006 00:51:30,739 --> 00:51:32,749 почему убийство 1007 00:51:32,748 --> 00:51:35,448 является категорически неправильным. 1008 00:51:35,449 --> 00:51:38,579 Потому ли, что 1009 00:51:38,579 --> 00:51:42,339 даже у юнги есть фундаментальные права? 1010 00:51:42,338 --> 00:51:44,400 И если в этом вся причина, 1011 00:51:44,400 --> 00:51:47,880 то откуда возникат эти права, если не от идеи 1012 00:51:47,880 --> 00:51:53,209 повышения общественного благосостояния, полезности или счастья? Это первый вопрос. 1013 00:51:53,208 --> 00:51:56,308 Другие утверждали, 1014 00:51:56,309 --> 00:51:58,449 что в случае со жребием было бы иначе. 1015 00:51:58,449 --> 00:52:00,039 Справедливая процедура, 1016 00:52:00,039 --> 00:52:05,949 как заметил Мэтт. 1017 00:52:05,949 --> 00:52:08,769 И некоторые из вас склонились к этой точке зрения. 1018 00:52:08,768 --> 00:52:12,188 Но это не совсем категорическое возражение. 1019 00:52:12,188 --> 00:52:13,828 Это утверждение о том, 1020 00:52:13,829 --> 00:52:16,798 что все должны считаться равными, 1021 00:52:16,798 --> 00:52:18,469 даже если в конце концов 1022 00:52:18,469 --> 00:52:20,769 один человек будет принесён в жертву 1023 00:52:20,768 --> 00:52:23,288 ради общего блага. 1024 00:52:23,289 --> 00:52:26,059 Это заставляет нас задуматься о следующем. 1025 00:52:26,059 --> 00:52:29,670 Почему согласие на определённую процедуру, 1026 00:52:29,670 --> 00:52:31,969 пусть даже справедливую, 1027 00:52:31,969 --> 00:52:34,739 оправдывает любой результат, 1028 00:52:34,739 --> 00:52:38,088 вытекающий из этой процедуры? 1029 00:52:38,088 --> 00:52:39,898 Это второй вопрос. 1030 00:52:39,898 --> 00:52:42,398 И наконец третий вопрос - 1031 00:52:42,398 --> 00:52:45,338 фундаментальная идея о согласии. 1032 00:52:45,338 --> 00:52:48,528 Эту мысль высказала Кэтлин. 1033 00:52:48,528 --> 00:52:52,719 Если бы юнга согласился сам, 1034 00:52:52,719 --> 00:52:54,499 и никто бы его к этому не принуждал, 1035 00:52:54,498 --> 00:52:57,068 как было отмечено, 1036 00:52:57,068 --> 00:53:01,918 то пожертвовать его жизнью ради жизни других было вполне нормальным. 1037 00:53:01,918 --> 00:53:04,900 Эту идею поддержали ещё больше людей, 1038 00:53:04,900 --> 00:53:06,630 но это приводит нас 1039 00:53:06,630 --> 00:53:08,528 к третьему философскому вопросу. 1040 00:53:08,528 --> 00:53:11,009 Какова моральная основа 1041 00:53:11,009 --> 00:53:12,838 согласия? 1042 00:53:12,838 --> 00:53:14,438 1043 00:53:14,438 --> 00:53:16,978 Почему акт согласия 1044 00:53:16,978 --> 00:53:19,188 так существенно меняет дело с моральной точки зрения? 1045 00:53:19,188 --> 00:53:23,818 Так меняет, что поступок, который в любом другом случае мы бы посчитали неправильным и назвали бы убийством, 1046 00:53:23,818 --> 00:53:25,369 является допустимым 1047 00:53:25,369 --> 00:53:26,358 с точки зрения морали, 1048 00:53:26,358 --> 00:53:29,619 если на него было дано согласие. 1049 00:53:29,619 --> 00:53:31,699 Чтобы ответить на эти три вопроса, 1050 00:53:31,699 --> 00:53:34,108 нам с вами нужно будет изучить сочинения неcкольких философов. 1051 00:53:34,108 --> 00:53:35,728 В следующий раз 1052 00:53:35,728 --> 00:53:36,939 мы начнём 1053 00:53:36,940 --> 00:53:37,720 с Бентама 1054 00:53:37,719 --> 00:53:43,798 и Джона Стюарта Милля - философов-утилитаристов. 1055 00:53:43,798 --> 00:53:47,298 1056 00:53:43,798 --> 00:53:47,298 1057 00:53:49,869 --> 00:53:56,869 1058 00:54:36,219 --> 00:54:40,269 1059 00:54:40,268 --> 00:54:41,678