1 00:00:33,443 --> 00:00:37,230 Это курс по теории справедливости, и мы начнём его с мысленного эксперимента. 2 00:00:37,230 --> 00:00:44,509 Представьте, что вы водитель трамвая, который несётся со скоростью 100 км/ч, 3 00:00:44,509 --> 00:00:49,390 И вдруг вдалеке на рельсах вы замечаете пятерых рабочих. 4 00:00:49,390 --> 00:00:51,569 Вы пытаетесь остановиться, но не можете: 5 00:00:51,569 --> 00:00:53,539 тормоза не работают. 6 00:00:53,539 --> 00:00:56,630 Вы в полном отчаянии, поскольку знаете, 7 00:00:56,630 --> 00:00:59,460 что если врежетесь в этих рабочих, 8 00:00:59,460 --> 00:01:01,320 то все они погибнут. 9 00:01:01,320 --> 00:01:04,879 Предположим, вы знаете это наверняка. 10 00:01:04,879 --> 00:01:07,019 Итак, вы не знаете что делать, 11 00:01:07,019 --> 00:01:09,320 но вдруг замечаете, 12 00:01:09,320 --> 00:01:12,940 что справа есть боковая ветка. 13 00:01:12,940 --> 00:01:18,830 И на конце этой ветки находится только один рабочий. 14 00:01:18,830 --> 00:01:21,148 Руль трамвая исправен, 15 00:01:21,148 --> 00:01:25,758 и, если захотите, вы можете повернуть 16 00:01:25,758 --> 00:01:28,550 на эту боковую ветку 17 00:01:28,550 --> 00:01:30,340 и, тем самым, убить одного рабочего, 18 00:01:30,340 --> 00:01:33,009 но спасти жизнь пятерым. 19 00:01:33,009 --> 00:01:35,819 И вот наш первый вопрос: 20 00:01:35,819 --> 00:01:38,659 как правильно поступить? 21 00:01:38,659 --> 00:01:40,328 Как бы вы поступили? 22 00:01:40,328 --> 00:01:42,460 Давайте проголосуем. 23 00:01:42,460 --> 00:01:47,720 Кто бы повернул на боковую ветку? 24 00:01:47,720 --> 00:01:51,790 Поднимите руки. 25 00:01:51,790 --> 00:01:53,415 Кто не стал бы этого делать 26 00:01:53,415 --> 00:01:57,645 и поехал бы дальше? 27 00:01:57,645 --> 00:02:03,979 Не опускайте руки те, кто поехал бы дальше. 28 00:02:03,979 --> 00:02:08,198 Большинство. Подавляющее большинство повернуло бы. 29 00:02:08,198 --> 00:02:09,878 Давайте теперь разберёмся, 30 00:02:09,878 --> 00:02:14,979 почему вы приняли именно такое решение. 31 00:02:14,979 --> 00:02:18,209 И давайте начнём с большинства. 32 00:02:18,209 --> 00:02:21,949 С тех, кто бы повернул на боковую ветку. 33 00:02:21,949 --> 00:02:23,508 Почему бы вы это сделали? 34 00:02:23,508 --> 00:02:25,638 Что сподвигло бы вас на это? 35 00:02:25,638 --> 00:02:29,868 Кто хочет высказаться? Есть добровольцы? 36 00:02:29,868 --> 00:02:32,018 Начинайте. Встаньте, пожалуйста. 37 00:02:32,018 --> 00:02:35,000 Я думаю, что неправильно убивать пять человек, 38 00:02:35,000 --> 00:02:39,476 когда есть возможность убить только одного. 39 00:02:39,476 --> 00:02:42,177 Было бы неправильно убивать пятерых, 40 00:02:42,177 --> 00:02:46,877 если вместо этого вы можете убить только одного. 41 00:02:46,877 --> 00:02:48,399 Да, неплохая причина. 42 00:02:48,399 --> 00:02:52,709 Действительно неплохая. 43 00:02:52,719 --> 00:02:53,692 Кто-нибудь ещё? 44 00:02:53,692 --> 00:02:56,312 Все согласны с таким 45 00:02:56,312 --> 00:02:59,552 объяснением? 46 00:02:59,552 --> 00:03:01,252 Да, пожалуйста. 47 00:03:01,252 --> 00:03:05,399 Я думаю этот случай похож на то, что произошло с самолётом, 48 00:03:05,399 --> 00:03:09,259 который разбился в Пенсильвании 11 сентября. 49 00:03:09,259 --> 00:03:11,598 Те люди - настоящие герои - предпочли погибнуть, 50 00:03:11,598 --> 00:03:15,918 чтобы избежать большего количества жертв среди людей, которые находились на земле. 51 00:03:15,918 --> 00:03:19,121 То есть ими руководила та же логика: 52 00:03:19,121 --> 00:03:20,901 в такой безнадёжной ситуации 53 00:03:20,901 --> 00:03:25,356 лучше убить одного, но спасти пятерых. 54 00:03:25,359 --> 00:03:30,528 Именно так считают те, кто бы повернул? Верно? 55 00:03:30,528 --> 00:03:33,468 Давайте теперь послушаем мнение тех, 56 00:03:33,468 --> 00:03:35,318 кто оказался в меньшинстве. 57 00:03:35,318 --> 00:03:39,148 Тех, кто бы не повернул. 58 00:03:39,148 --> 00:03:40,522 Да. 59 00:03:40,522 --> 00:03:45,276 Я думаю, что это такой же подход, который оправдывает геноцид и тоталитаризм. 60 00:03:45,276 --> 00:03:50,229 Для того, чтобы спасти представителей одной расы, вы уничтожаете другую. 61 00:03:50,229 --> 00:03:51,965 И что бы вы сделали в этом случае? 62 00:03:51,965 --> 00:03:53,188 Для того, 63 00:03:53,188 --> 00:03:55,338 чтобы избежать 64 00:03:55,338 --> 00:03:57,618 ужасов геноцида, 65 00:03:57,618 --> 00:04:03,518 вы предпочли бы врезаться в пятерых рабочих и убить их? 66 00:04:03,518 --> 00:04:05,542 Думаю, да. 67 00:04:05,542 --> 00:04:06,322 Правда? 68 00:04:06,322 --> 00:04:07,434 Да. 69 00:04:07,434 --> 00:04:09,804 Хорошо. Кто ещё хочет высказать своё мнение? 70 00:04:09,806 --> 00:04:13,251 Это смелый ответ. Спасибо. 71 00:04:13,251 --> 00:04:15,664 Давайте теперь рассмотрим 72 00:04:15,664 --> 00:04:20,034 другой пример с трамваем, 73 00:04:20,034 --> 00:04:23,800 и посмотрим, будет ли 74 00:04:23,800 --> 00:04:27,220 большинство из вас 75 00:04:27,220 --> 00:04:30,820 придерживаться той же самой логики: 76 00:04:30,820 --> 00:04:33,320 лучше убить одного, чтобы пятеро остались живы. 77 00:04:33,320 --> 00:04:38,050 В этот раз вы не водитель трамвая, вы переводите стрелки. 78 00:04:38,050 --> 00:04:42,389 Вы стоите на мосту и наблюдаете за рельсами. 79 00:04:42,389 --> 00:04:45,599 И вот по рельсам летит трамвай. 80 00:04:45,599 --> 00:04:49,488 На другом конце пять рабочих. 81 00:04:49,488 --> 00:04:51,659 Тормоза не работают, 82 00:04:51,659 --> 00:04:55,799 трамвай вот-вот в них врежется и задавит. 83 00:04:55,799 --> 00:04:56,989 Сейчас 84 00:04:56,989 --> 00:04:58,639 вы не водитель 85 00:04:58,639 --> 00:05:00,999 и совершенно не знаете что делать. 86 00:05:00,999 --> 00:05:02,769 И тут вы замечаете, 87 00:05:02,769 --> 00:05:06,479 что рядом с вами 88 00:05:06,479 --> 00:05:08,569 стоит, прислонившись к перилам 89 00:05:08,569 --> 00:05:09,744 моста, 90 00:05:09,744 --> 00:05:15,264 очень толстый человек. 91 00:05:15,264 --> 00:05:18,764 И вы могли бы 92 00:05:18,764 --> 00:05:20,124 его немного 93 00:05:20,124 --> 00:05:22,524 подтолкнуть. 94 00:05:22,524 --> 00:05:24,543 Он упал бы с моста 95 00:05:24,543 --> 00:05:27,653 прямо на рельсы, 96 00:05:27,653 --> 00:05:30,233 на пути 97 00:05:30,233 --> 00:05:32,012 трамвая. 98 00:05:32,012 --> 00:05:33,302 Он бы погиб, 99 00:05:33,302 --> 00:05:36,079 но при этом спас бы жизни пятерым. 100 00:05:36,079 --> 00:05:38,819 Итак. 101 00:05:38,819 --> 00:05:40,992 Кто столкнул бы 102 00:05:40,992 --> 00:05:42,552 толстяка с моста? 103 00:05:42,552 --> 00:05:48,012 Поднимите руки. 104 00:05:48,012 --> 00:05:50,945 Кто не стал бы этого делать? 105 00:05:50,945 --> 00:05:53,909 Большинство не стало бы. 106 00:05:53,909 --> 00:05:55,583 Возникает закономерный вопрос: 107 00:05:55,583 --> 00:05:56,853 Что стало 108 00:05:56,853 --> 00:05:59,973 с тем принципом: 109 00:05:59,973 --> 00:06:03,502 спасение жизни пятерых оправдывает потерю жизни одного. 110 00:06:03,502 --> 00:06:04,942 Что стало с тем принципом, 111 00:06:04,942 --> 00:06:07,380 который в первом случае 112 00:06:07,380 --> 00:06:09,250 поддерживали почти все? 113 00:06:09,250 --> 00:06:12,463 Я хотел бы услышать мнение тех, кто был в большинстве в обоих этих 114 00:06:12,463 --> 00:06:13,453 примерах. 115 00:06:13,453 --> 00:06:16,423 Как вы объясните разницу между ними? 116 00:06:16,423 --> 00:06:17,903 Да, пожалуйста. 117 00:06:17,903 --> 00:06:21,508 Полагаю, что во втором случае у вас есть выбор: 118 00:06:21,508 --> 00:06:24,288 толкнуть или не толкнуть человека. 119 00:06:24,289 --> 00:06:31,329 Я думаю, что этот человек не имеет никакого отношения к ситуации, 120 00:06:31,329 --> 00:06:36,313 и вы как бы принимаете решение за него, 121 00:06:36,313 --> 00:06:39,906 вмешиваться в эту ситуацию или нет. 122 00:06:39,906 --> 00:06:42,768 В отличие от первого случая, 123 00:06:42,768 --> 00:06:47,838 когда все три стороны: водитель и две группы рабочих, 124 00:06:47,838 --> 00:06:50,484 уже принимают активное участие в ситуации. 125 00:06:50,484 --> 00:06:54,891 Но ведь тот парень, который один работает на рельсах, на боковой ветке, 126 00:06:54,891 --> 00:06:57,561 он же сам не принимал решения пожертвовать своей жизнью, 127 00:06:57,561 --> 00:07:01,830 точно так же, как тот толстяк на мосту, не так ли? 128 00:07:01,830 --> 00:07:05,339 Да, это так. Но он был на рельсах. 129 00:07:05,339 --> 00:07:10,354 А этот парень был на мосту! 130 00:07:10,354 --> 00:07:13,250 Если хотите, можете продолжить. 131 00:07:13,250 --> 00:07:15,267 Ладно, это непростой вопрос, 132 00:07:15,267 --> 00:07:16,987 но вы очень хорошо справились. 133 00:07:16,987 --> 00:07:19,527 Очень непростой вопрос. 134 00:07:19,527 --> 00:07:21,030 Кто-нибудь ещё 135 00:07:21,030 --> 00:07:22,250 хочет попробовать 136 00:07:22,250 --> 00:07:25,930 объяснить, почему большинство 137 00:07:25,930 --> 00:07:28,970 именно так отреагировало в обоих этих случаях? 138 00:07:28,970 --> 00:07:29,770 Прошу. 139 00:07:29,770 --> 00:07:32,150 Полагаю, что в первом случае, 140 00:07:32,150 --> 00:07:35,733 в котором присутствуют пять рабочих на основной ветке и один на боковой, 141 00:07:35,733 --> 00:07:37,370 вам необходимо сделать выбор 142 00:07:37,370 --> 00:07:40,948 и принять какое-то решение, иначе эти пять человек погибнут под трамваем, 143 00:07:40,948 --> 00:07:45,039 но вы за это не несёте ответственности. Вагон несётся на большой скорости, 144 00:07:45,039 --> 00:07:47,768 вам нужно принять мгновенное решение. 145 00:07:47,768 --> 00:07:52,158 А сталкивая толстяка с моста, вы совершаете убийство. 146 00:07:52,158 --> 00:07:54,208 Вы можете это контролировать, 147 00:07:54,208 --> 00:07:57,278 в отличие от вагона. 148 00:07:57,278 --> 00:07:59,889 Поэтому я считаю, что это немного другой случай. 149 00:07:59,889 --> 00:08:04,388 Хорошо. Кто хочет возразить? Это было неплохо. 150 00:08:04,388 --> 00:08:06,264 Кто хочет ответить? 151 00:08:06,264 --> 00:08:09,155 Объясняет ли это ситуацию? 152 00:08:09,155 --> 00:08:12,355 Не думаю, что это удачное объяснение, потому что... 153 00:08:12,369 --> 00:08:14,158 Вам всё равно нужно решить кто умрёт. 154 00:08:14,158 --> 00:08:16,698 Либо вы решаете повернуть и убить того человека, 155 00:08:16,698 --> 00:08:19,638 что будет являться вашим сознательным решением. 156 00:08:19,638 --> 00:08:21,827 Либо вы принимаете решение столкнуть толстяка, 157 00:08:21,827 --> 00:08:24,517 что также будет являться вашим сознательным решением. 158 00:08:24,517 --> 00:08:27,597 Так что вы в любом случае делаете какой-то выбор. 159 00:08:27,597 --> 00:08:29,629 Хотите возразить? 160 00:08:29,629 --> 00:08:33,944 Я не уверен, что это так. Мне кажется, всё равно есть определённая разница. 161 00:08:33,944 --> 00:08:37,430 Если вы сталкиваете кого-то с моста и, тем самым, убиваете его, 162 00:08:37,430 --> 00:08:39,770 то в этом случае вы делаете это своими руками. 163 00:08:39,770 --> 00:08:42,260 Толкаете своими собственными руками. 164 00:08:42,260 --> 00:08:43,699 И это отличается от ситуации, 165 00:08:43,699 --> 00:08:49,229 когда вы управляете чем-то, что может стать причиной смерти. Знаете... 166 00:08:49,229 --> 00:08:52,765 Теперь мне самому это не очень нравится. 167 00:08:52,765 --> 00:08:55,507 Нет-нет, это было неплохо. Как вас зовут? Эндрю. 168 00:08:55,507 --> 00:08:58,905 Позвольте задать вам вопрос, Эндрю. 169 00:08:58,905 --> 00:09:01,911 Допустим, 170 00:09:01,911 --> 00:09:03,461 что вы стоите на мосту 171 00:09:03,461 --> 00:09:04,701 рядом с толстяком 172 00:09:04,701 --> 00:09:07,669 и вам не нужно его толкать. Допустим, он стоит, 173 00:09:07,669 --> 00:09:17,108 прислонившись к дверце, которую вы можете открыть, повернув рычаг. Вот так. 174 00:09:17,108 --> 00:09:18,391 Вы бы повернули? 175 00:09:18,391 --> 00:09:21,441 Не знаю почему, но это всё равно как-то 176 00:09:21,441 --> 00:09:23,001 неправильно. 177 00:09:23,001 --> 00:09:29,674 Возможно, если бы вы случайно задели этот рычаг или что-то в это роде... 178 00:09:29,674 --> 00:09:32,980 Или, например, вагон 179 00:09:32,980 --> 00:09:37,561 катился бы к какому-нибудь переключателю, который откроет эту дверцу. 180 00:09:37,561 --> 00:09:39,051 Тогда ещё куда ни шло. 181 00:09:39,051 --> 00:09:42,552 Ладно, достаточно. Как бы то ни было, это всё равно кажется неправильным. 182 00:09:42,552 --> 00:09:46,054 Так же, как и в первом случае кажется, что правильным было бы повернуть. 183 00:09:46,054 --> 00:09:50,379 С другой стороны, в первом случае вы непосредственно вовлечены в ситуацию, 184 00:09:50,379 --> 00:09:52,529 а во втором — нет. 185 00:09:52,529 --> 00:09:55,546 И у вас есть выбор: вмешиваться или нет. 186 00:09:55,546 --> 00:09:59,340 Давайте на минуту забудем об этом случае. 187 00:09:59,340 --> 00:10:01,229 Это было неплохо. 188 00:10:01,229 --> 00:10:06,269 Давайте представим другой случай. Теперь вы врач в отделении экстренной помощи. 189 00:10:06,269 --> 00:10:11,382 И к вам поступают шесть пациентов. 190 00:10:11,382 --> 00:10:16,562 Они попали в ужасную аварию с трамваем... 191 00:10:18,212 --> 00:10:23,508 Пять из них ещё держатся, но один уже при смерти. Вы можете потратить весь день, 192 00:10:23,508 --> 00:10:27,594 пытаясь спасти жизнь одного, 193 00:10:27,594 --> 00:10:32,180 но тогда остальные пятеро умрут. Или вы могли бы попытаться спасти тех пятерых, 194 00:10:32,181 --> 00:10:35,186 но за это время умрёт 195 00:10:35,186 --> 00:10:36,326 тот, кто тяжело ранен. 196 00:10:36,326 --> 00:10:39,461 Кто бы спас пятерых? 197 00:10:39,461 --> 00:10:40,701 Теперь уже в качестве врача. 198 00:10:40,701 --> 00:10:44,175 Кто бы спас одного? 199 00:10:44,175 --> 00:10:46,138 Очень мало людей. 200 00:10:46,138 --> 00:10:49,061 Практически единицы. 201 00:10:49,061 --> 00:10:51,302 Полагаю, вы руководствовались тем же принципом: 202 00:10:51,302 --> 00:10:55,482 лучше спасти пять жизней, но при этом пожертвовать одной. 203 00:10:55,482 --> 00:10:58,950 Теперь рассмотрим другой случай с доктором. 204 00:10:58,950 --> 00:11:01,890 На этот раз вы хирург. 205 00:11:01,890 --> 00:11:06,089 И к вам в больницу попало пять пациентов, каждому из которых 206 00:11:06,089 --> 00:11:09,399 срочно требуется пересадка органа, иначе они умрут. 207 00:11:09,399 --> 00:11:14,909 Одному нужно сердце, другому — лёгкое, третьему — почка, четвёртому — печень, 208 00:11:14,909 --> 00:11:20,059 а пятому — поджелудочная железа. 209 00:11:20,059 --> 00:11:22,571 Но у вас нет доноров. 210 00:11:22,571 --> 00:11:27,360 Ещё совсем немного, и пациенты умрут. 211 00:11:27,360 --> 00:11:30,477 Но вдруг оказывается, 212 00:11:30,477 --> 00:11:32,327 что в соседней палате 213 00:11:32,327 --> 00:11:35,740 сидит здоровый парень, который пришёл на приём к доктору. 214 00:11:39,260 --> 00:11:43,577 И он... 215 00:11:43,577 --> 00:11:47,029 Вижу вам это нравится? 216 00:11:47,029 --> 00:11:50,740 Он ненадолго задремал. 217 00:11:52,999 --> 00:11:56,439 Вы могли бы очень тихо войти 218 00:11:56,439 --> 00:12:00,499 и извлечь пять его органов. Этот человек умрёт, 219 00:12:00,499 --> 00:12:03,200 но вы сможете спасти пятерых. 220 00:12:03,200 --> 00:12:10,331 Кто бы это сделал? Хоть кто-то? 221 00:12:10,331 --> 00:12:17,343 Сколько вас? Поднимите руки, если бы вы это сделали. 222 00:12:17,803 --> 00:12:20,528 Кто-нибудь с балкона? 223 00:12:20,528 --> 00:12:21,782 Вы? 224 00:12:21,782 --> 00:12:24,272 Аккуратно, не слишком перегибайтесь. 225 00:12:26,562 --> 00:12:29,221 Кто бы не стал этого делать? 226 00:12:29,221 --> 00:12:30,222 Хорошо. 227 00:12:30,222 --> 00:12:32,246 Скажите, там на балконе. 228 00:12:32,246 --> 00:12:35,836 Вы бы извлекли органы. Почему? 229 00:12:35,836 --> 00:12:40,048 Я бы хотел предложить другой вариант: 230 00:12:40,048 --> 00:12:42,982 взять органы только у того из нуждающихся, кто умрёт первым, 231 00:12:42,982 --> 00:12:49,722 и воспользоваться его здоровыми органами, чтобы спасти оставшихся четверых. 232 00:12:49,722 --> 00:12:54,439 Это довольно хорошая идея. 233 00:12:54,439 --> 00:12:57,650 Это просто отличная идея, 234 00:12:57,650 --> 00:13:00,079 если исключить тот факт, 235 00:13:00,079 --> 00:13:04,699 что вы только что разрушили философский замысел. 236 00:13:04,699 --> 00:13:07,220 Давайте отвлечёмся 237 00:13:07,220 --> 00:13:10,240 от этих конкретных случаев и их обсуждения, 238 00:13:10,240 --> 00:13:17,230 чтобы отметить пару моментов, к которым привела наша дискуссия. 239 00:13:17,230 --> 00:13:25,900 Из наших обсуждений уже начали проявляться определённые нравственные принципы. 240 00:13:25,900 --> 00:13:31,160 Давайте рассмотрим что из себя представляют эти принципы. 241 00:13:31,160 --> 00:13:35,660 Первый нравственный принцип, появившийся в дискуссии, гласил: 242 00:13:35,660 --> 00:13:40,510 правильный поступок, нравственный поступок зависит от последствий, 243 00:13:40,510 --> 00:13:45,384 которые станут результатом ваших действий. 244 00:13:45,384 --> 00:13:52,110 В конце концов, лучше, чтобы выжило пять, даже если для этого один должен умереть. 245 00:13:52,110 --> 00:13:58,880 Это пример консеквенциальной аргументации. 246 00:13:58,880 --> 00:14:04,689 При консеквенциальном подходе моральная ценность выражается в последствиях, 247 00:14:04,689 --> 00:14:08,859 причиной которых стали ваши действия. 248 00:14:08,859 --> 00:14:12,539 Потом мы пошли немного дальше и рассмотрели другие случаи, 249 00:14:12,539 --> 00:14:20,459 и люди уже были не столь уверены в правильности консеквенционализма. 250 00:14:20,459 --> 00:14:25,590 Когда люди не решались столкнуть толстого мужчину с моста 251 00:14:25,590 --> 00:14:29,470 или изъять органы невинного пациента, 252 00:14:29,470 --> 00:14:33,902 они указывали на доводы, 253 00:14:33,902 --> 00:14:39,862 связанные с сущностью самого действия. 254 00:14:39,862 --> 00:14:42,549 Теперь им было уже неважно, какими будут последствия в итоге. 255 00:14:42,549 --> 00:14:44,969 Люди сопротивлялись. 256 00:14:44,969 --> 00:14:49,289 Они думали, что это просто неправильно, категорически неправильно — 257 00:14:49,290 --> 00:14:56,388 убить человека, невинного человека, даже ради спасения пяти жизней. 258 00:14:56,388 --> 00:14:58,416 По крайней мере, они так считали 259 00:14:58,416 --> 00:15:03,786 во второй версии каждого рассмотренного сюжета. 260 00:15:03,786 --> 00:15:15,773 Итак, это второй, категорический способ выстраивания аргументации. 261 00:15:15,773 --> 00:15:18,931 Такая аргументация определяет мораль как соответствие действий 262 00:15:18,931 --> 00:15:21,238 определённым абсолютным этическим требованиям, 263 00:15:21,238 --> 00:15:23,748 определённым категорическим правам и обязанностям, 264 00:15:23,748 --> 00:15:27,240 независимо от последствий. 265 00:15:27,240 --> 00:15:31,535 На протяжении нескольких недель мы будем изучать разницу 266 00:15:31,535 --> 00:15:36,489 между консеквенциальной и категорической аргументацией. 267 00:15:36,489 --> 00:15:43,450 Важнейший пример консеквенциальной аргументации это утилитаризм — доктрина, 268 00:15:43,450 --> 00:15:51,020 предложенная английским политическим философом 18-го века Джереми Бентамом. 269 00:15:51,020 --> 00:15:56,619 Наиболее видным сторонником категориальной аргументации 270 00:15:56,619 --> 00:16:02,414 является немецкий философ 18-го века Иммануил Кант. 271 00:16:02,414 --> 00:16:07,060 Мы остановимся на этих двух разных видах нравственной аргументации, 272 00:16:07,060 --> 00:16:10,569 дадим им оценку, а также рассмотрим некоторые другие. 273 00:16:10,569 --> 00:16:15,860 Из учебной программы видно, что мы изучим множество великих и известных книг: 274 00:16:15,860 --> 00:16:21,949 произведения Аристотеля, Джона Локка, Иммануила Канта, Джона Стюарта Милля, 275 00:16:21,949 --> 00:16:23,860 и других. 276 00:16:23,860 --> 00:16:28,060 Обратите внимание на то, что мы не только изучим эти книги, 277 00:16:28,060 --> 00:16:34,159 но и обсудим современные политические и правовые разногласия, 278 00:16:34,159 --> 00:16:36,923 затрагивающие философские вопросы. 279 00:16:36,923 --> 00:16:41,269 Мы будем говорить о равенстве и неравенстве, о позитивной дискриминации, 280 00:16:41,269 --> 00:16:43,386 о свободе слова и пропаганде ненависти, 281 00:16:43,386 --> 00:16:46,631 об однополых браках и воинской повинности. 282 00:16:46,631 --> 00:16:50,680 Эти и другие прикладные вопросы будут подняты, 283 00:16:50,680 --> 00:16:55,190 чтобы не только «оживить» отвлечённые от реальной жизни книги, 284 00:16:55,190 --> 00:16:59,430 но и внести ясность в то, с чем мы сталкиваемся каждый день в обычной жизни, 285 00:16:59,430 --> 00:17:03,264 включая политические вопросы, 286 00:17:03,264 --> 00:17:05,524 с точки зрения философии. 287 00:17:05,524 --> 00:17:10,098 После изучения этих книг и обсуждения прикладных вопросов, 288 00:17:10,098 --> 00:17:15,350 мы увидим, как они дополняют и освещают друг друга. 289 00:17:15,350 --> 00:17:22,449 Возможно, это звучит заманчиво, но я должен предупредить. 290 00:17:22,449 --> 00:17:25,149 И вот о чём. 291 00:17:25,149 --> 00:17:34,009 Чтение этих книг способом, при котором вы упражняетесь в самопознании, 292 00:17:34,009 --> 00:17:38,129 несёт в себе определённые риски — 293 00:17:38,129 --> 00:17:41,789 риски, как индивидуальные, так и политические. 294 00:17:41,789 --> 00:17:47,600 Риски, о которых знает каждый студент курса политической философии. 295 00:17:47,600 --> 00:17:54,030 Эти риски вытекают из того, что философия учит нас, 296 00:17:54,030 --> 00:18:01,159 побуждает нас сомневаться и идти вразрез с тем, что мы уже знаем. 297 00:18:01,159 --> 00:18:03,269 Парадоксально, 298 00:18:03,269 --> 00:18:09,669 но сложность этого курса в том, что вы изучаете то, что вам уже давно известно. 299 00:18:09,669 --> 00:18:16,319 Знания, которые мы получили из известных неоспоримых истин, 300 00:18:16,319 --> 00:18:20,029 превращаются в чуждые. 301 00:18:20,029 --> 00:18:23,099 Именно так работают наши примеры: 302 00:18:23,099 --> 00:18:28,899 шутливые гипотетические случаи, с которых мы начали лекцию. 303 00:18:28,899 --> 00:18:31,580 Точно такое же влияние оказывают книги по философии. 304 00:18:31,580 --> 00:18:35,390 Философия отстраняет нас 305 00:18:35,390 --> 00:18:37,340 от хорошо известных истин, 306 00:18:37,340 --> 00:18:40,250 не давая при этом новой информации, 307 00:18:40,250 --> 00:18:43,550 но увлекая нас за собой и провоцируя на то, 308 00:18:43,550 --> 00:18:47,239 чтобы посмотреть на вещи по-новому. 309 00:18:47,239 --> 00:18:49,800 Но здесь кроется риск. 310 00:18:49,800 --> 00:18:54,080 Когда однажды привычное станет чуждым, 311 00:18:54,080 --> 00:18:57,409 оно уже никогда не будет прежним. 312 00:18:57,409 --> 00:19:00,099 Самопознание 313 00:19:00,099 --> 00:19:02,780 похоже на потерю невинности. 314 00:19:02,780 --> 00:19:05,710 Однако то, что вы обнаружите, изменив привычное ви́дение, 315 00:19:05,710 --> 00:19:09,489 не будет для вас неожиданным 316 00:19:09,489 --> 00:19:13,180 или неизвестным. 317 00:19:13,180 --> 00:19:17,190 Это делает наш курс сложным, 318 00:19:17,190 --> 00:19:19,759 но от этого не менее захватывающим. 319 00:19:19,759 --> 00:19:25,200 Моральная и политическая философия — это история, 320 00:19:25,200 --> 00:19:29,280 и ты никогда не знаешь, куда она тебя приведёт, но ты точно знаешь, 321 00:19:29,280 --> 00:19:31,119 что эта история 322 00:19:31,119 --> 00:19:34,279 о тебе самом. 323 00:19:34,279 --> 00:19:36,970 Это индивидуальный риск. 324 00:19:36,970 --> 00:19:39,979 Теперь рассмотрим политические риски. 325 00:19:39,979 --> 00:19:42,920 Одним из способов пробудить у вас интерес к этому курсу 326 00:19:42,920 --> 00:19:44,608 было бы пообещать вам, 327 00:19:44,608 --> 00:19:46,300 что после прочтения этих книг 328 00:19:46,300 --> 00:19:47,930 и обсуждения определённых вопросов 329 00:19:47,930 --> 00:19:51,719 вы станете более ответственным членом общества. 330 00:19:51,719 --> 00:19:57,070 Вы изучите основы публичной политики, отточите свои политические суждения, 331 00:19:57,070 --> 00:20:02,549 научитесь более эффективно участвовать в общественной жизни. 332 00:20:02,549 --> 00:20:06,439 Но это было бы однобокое и в целом неверное обещание. 333 00:20:06,439 --> 00:20:11,449 Политическая философия в своей основе состоит в другом. 334 00:20:11,449 --> 00:20:14,429 Нам необходимо допустить, 335 00:20:14,429 --> 00:20:18,840 что политическая философия, наоборот, может сделать вас плохим, 336 00:20:18,840 --> 00:20:21,530 а не хорошим гражданином. 337 00:20:21,530 --> 00:20:23,700 Или, по крайней мере, плохим гражданином 338 00:20:23,700 --> 00:20:25,559 до того, как вы станете 339 00:20:25,559 --> 00:20:27,869 хорошим. 340 00:20:27,869 --> 00:20:30,200 Это происходит потому, что занятия философией 341 00:20:30,200 --> 00:20:32,220 удаляют нас от реальности 342 00:20:32,220 --> 00:20:36,370 и, порой, даже развращают. 343 00:20:36,370 --> 00:20:39,709 Давайте вернёмся во времена Сократа 344 00:20:39,709 --> 00:20:41,569 и обратимся к диалогу «Горгий», 345 00:20:41,569 --> 00:20:45,390 в котором один из друзей Сократа — Калликл, 346 00:20:45,390 --> 00:20:47,239 пытается отговорить его 347 00:20:47,240 --> 00:20:49,670 от философствований. 348 00:20:49,670 --> 00:20:54,310 Калликл говорит ему, что философия, конечно, милая забава, 349 00:20:54,310 --> 00:20:57,830 если предаваться ей в разумных пределах и в определённом возрасте. 350 00:20:57,830 --> 00:21:03,599 Но если кто-то погружается в неё глубже, чем требуется, это заканчивается плачевно. 351 00:21:03,599 --> 00:21:06,319 «Прими мой совет, — говорит Калликл, 352 00:21:06,319 --> 00:21:08,199 оставь словопрения 353 00:21:08,199 --> 00:21:11,180 и обратись к жизни деятельной. 354 00:21:11,180 --> 00:21:16,780 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 355 00:21:16,780 --> 00:21:19,859 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 356 00:21:19,859 --> 00:21:22,189 и благословлён другими достоинствами.» 357 00:21:22,189 --> 00:21:26,618 Другими словами, Калликл убеждает Сократа 358 00:21:26,618 --> 00:21:28,500 оставить философствования, 359 00:21:28,500 --> 00:21:30,439 обратиться к реальности, 360 00:21:30,439 --> 00:21:34,990 поступить в бизнес-школу. 361 00:21:34,990 --> 00:21:38,149 И Калликл был по-своему прав. 362 00:21:38,149 --> 00:21:42,030 Он был прав в том, что философия уводит нас в сторону 363 00:21:42,030 --> 00:21:44,949 от традиций, установленных допущений 364 00:21:44,949 --> 00:21:46,539 и устоявшихся убеждений. 365 00:21:46,539 --> 00:21:48,270 Здесь нас и подстерегают опасности, 366 00:21:48,270 --> 00:21:49,840 индивидуальные и политические. 367 00:21:49,840 --> 00:21:54,089 В ответ на их угрозу сознание включает защитный механизм, 368 00:21:54,089 --> 00:21:57,470 этот механизм мы назвали — скептицизмом. 369 00:21:57,470 --> 00:22:03,660 Происходит это примерно следующим образом: мы так и не смогли прийти к единому мнению 370 00:22:03,660 --> 00:22:09,499 по вопросам, с обсуждения которых, мы начали эту лекцию. 371 00:22:09,499 --> 00:22:11,060 Но если ни Аристотель, 372 00:22:11,060 --> 00:22:16,950 ни Локк, ни Кант, ни Милль не дали на них ответа за всё это время, 373 00:22:16,950 --> 00:22:19,509 то кто мы такие, 374 00:22:19,509 --> 00:22:23,470 те, кто собрались в этом зале на один семестр, 375 00:22:23,470 --> 00:22:26,260 чтобы вдруг разрешить их? 376 00:22:26,260 --> 00:22:29,220 Может быть определённое видение мира — 377 00:22:29,220 --> 00:22:34,070 это личное дело каждого человека и к этому больше нечего добавить? 378 00:22:34,070 --> 00:22:36,239 И правильного ответа не существует. 379 00:22:36,239 --> 00:22:37,649 Это попытка бегства. 380 00:22:37,650 --> 00:22:39,380 Бегства в скептицизм. 381 00:22:39,380 --> 00:22:42,439 На это я ответил бы следующим образом: 382 00:22:42,439 --> 00:22:47,380 Да, над этими вопросами люди бьются долгое время. 383 00:22:47,380 --> 00:22:49,059 Но сам факт того, 384 00:22:49,059 --> 00:22:52,600 что они возвращаются к нам, нерешённые, настойчиво требуя от нас ответа, 385 00:22:52,600 --> 00:22:54,650 может, с одной стороны, говорить о том, 386 00:22:54,650 --> 00:22:56,989 что разрешить их невозможно, 387 00:22:56,989 --> 00:22:59,729 а с другой — о том, что их возникновение неизбежно. 388 00:22:59,729 --> 00:23:02,289 И причина их неизбежности в том, 389 00:23:02,289 --> 00:23:09,949 что каждому из нас приходится ежедневно отвечать на эти вопросы самостоятельно. 390 00:23:09,949 --> 00:23:15,970 Таким образом, скептицизм, побуждающий нас отказаться от любых попыток найти ответы, 391 00:23:15,970 --> 00:23:18,059 не может являться решением. 392 00:23:18,059 --> 00:23:19,580 Иммануил Кант 393 00:23:19,580 --> 00:23:22,970 очень ёмко описал несостоятельность скептицизма: 394 00:23:22,970 --> 00:23:26,038 «Скептицизм есть привал для человеческого разума, 395 00:23:26,038 --> 00:23:28,999 где он может обдумать своё догматическое странствие, 396 00:23:28,999 --> 00:23:32,659 но это вовсе не место для постоянного пребывания.» 397 00:23:32,659 --> 00:23:35,750 «Простое принятие скептицизма, — пишет Кант, 398 00:23:35,750 --> 00:23:42,590 никогда не удовлетворит страждущий разум.» 399 00:23:42,590 --> 00:23:46,719 Всеми этими примерами я пытался дать вам некоторое представление о том, 400 00:23:46,719 --> 00:23:49,758 с какими опасностями и искушениями сталкивается ступивший на путь 401 00:23:49,758 --> 00:23:51,658 философского познания. 402 00:23:51,658 --> 00:23:55,509 В заключение я хотел бы сказать, 403 00:23:55,509 --> 00:23:58,039 что задача этого курса — 404 00:23:58,039 --> 00:24:02,079 разбудить страждущий разум 405 00:24:02,079 --> 00:24:04,200 и показать, как далеко он может нас увести. 406 00:24:04,200 --> 00:24:11,380 Спасибо за внимание. 407 00:24:15,370 --> 00:24:16,960 В такой отчаянной ситуации 408 00:24:16,960 --> 00:24:19,059 вы должны сделать всё, чтобы выжить. 409 00:24:19,059 --> 00:24:22,629 Вы должны сделать всё, что возможно? Да, вы должны сделать всё, что можете. 410 00:24:22,629 --> 00:24:25,699 Если вы 19 дней ничего не ели, 411 00:24:25,700 --> 00:24:30,339 кто-то из вас должен пожертвовать собой ради спасения остальных. 412 00:24:30,339 --> 00:24:33,429 Отлично. Очень неплохо. Как вас зовут? Маркус. 413 00:24:33,429 --> 00:24:38,359 Что вы ответите Маркусу? 414 00:24:40,419 --> 00:24:44,489 В прошлый раз 415 00:24:44,489 --> 00:24:46,780 мы начали 416 00:24:46,780 --> 00:24:48,820 с нескольких историй, 417 00:24:48,820 --> 00:24:50,759 с нескольких моральных дилемм: 418 00:24:50,759 --> 00:24:52,689 о трамваях 419 00:24:52,689 --> 00:24:54,309 о докторах, 420 00:24:54,309 --> 00:24:56,209 а также о здоровых пациентах, 421 00:24:56,209 --> 00:25:00,689 рискующих, стать жертвами трансплантации органов. 422 00:25:00,690 --> 00:25:03,799 Мы обратили внимание на две особенности 423 00:25:03,799 --> 00:25:06,690 в доводах, которые мы приводили. 424 00:25:06,690 --> 00:25:09,689 Первая особенность связана с тем, как именно мы спорили. 425 00:25:09,689 --> 00:25:13,379 Всё началось с наших суждений об определённых случаях. 426 00:25:13,379 --> 00:25:18,170 Мы попытались сформулировать причины или принципы, 427 00:25:18,170 --> 00:25:22,329 лежащие в основе наших суждений. 428 00:25:22,329 --> 00:25:25,280 И затем, столкнувшись с новым случаем, 429 00:25:25,280 --> 00:25:30,209 мы пересматривали эти принципы, 430 00:25:30,209 --> 00:25:33,869 рассматривая один в свете другого. 431 00:25:33,869 --> 00:25:35,850 И мы почувствовали внутри сопротивление, 432 00:25:35,850 --> 00:25:38,860 пытаясь привести в соответствие 433 00:25:38,860 --> 00:25:41,550 наши суждения об определённых случаях 434 00:25:41,550 --> 00:25:46,270 и принципы, лежащие в основе этих суждений. 435 00:25:46,270 --> 00:25:50,459 Мы также заметили кое-что в содержании доводов, 436 00:25:50,459 --> 00:25:55,150 которые возникли в ходе обсуждения. 437 00:25:55,150 --> 00:25:57,449 Мы заметили, что иногда мы испытывали желание 438 00:25:57,449 --> 00:26:00,649 дать моральную оценку последствиям действий, 439 00:26:00,649 --> 00:26:06,389 результатам и положению дел, к которому эти действия привели. 440 00:26:06,389 --> 00:26:11,470 Мы назвали это явление консеквенциальной аргументацией. 441 00:26:11,470 --> 00:26:13,110 Но мы также заметили, 442 00:26:13,110 --> 00:26:16,300 что в некоторых ситуациях 443 00:26:16,300 --> 00:26:18,469 не только результат имел для нас 444 00:26:18,469 --> 00:26:21,309 значение. 445 00:26:21,309 --> 00:26:23,180 Иногда, 446 00:26:23,180 --> 00:26:25,249 как многие из нас почувствовали, 447 00:26:25,249 --> 00:26:31,240 не только последствия, но и сущность или характер действия 448 00:26:31,240 --> 00:26:35,229 имеет моральное значение. 449 00:26:35,229 --> 00:26:40,470 Некоторые люди утверждали, что есть определённые вещи, которые просто категорически неправильны, 450 00:26:40,470 --> 00:26:42,449 даже если за ними последует 451 00:26:42,449 --> 00:26:44,240 положительный результат. 452 00:26:44,240 --> 00:26:45,460 Даже 453 00:26:45,460 --> 00:26:47,200 если они приведут к спасению жизни пяти людей 454 00:26:47,200 --> 00:26:49,588 ценой одной жизни. 455 00:26:49,588 --> 00:26:52,510 Таким образом, мы сравнили консеквенциальные 456 00:26:52,510 --> 00:26:54,470 моральные принципы 457 00:26:54,470 --> 00:26:57,930 и категорические. 458 00:26:57,930 --> 00:26:59,729 Cегодня 459 00:26:59,729 --> 00:27:01,149 и в ближайшие несколько дней 460 00:27:01,149 --> 00:27:05,879 мы начнём рассматривать одну из самых влиятельных 461 00:27:05,879 --> 00:27:10,969 версий консеквенциальной моральной теории 462 00:27:10,970 --> 00:27:15,709 — философию утилитаризма. 463 00:27:15,709 --> 00:27:17,410 Джереми Бентам 464 00:27:17,410 --> 00:27:21,660 — английский политический философ 18-ого века 465 00:27:21,660 --> 00:27:22,910 дал первое 466 00:27:22,910 --> 00:27:26,580 чёткое систематическое определение 467 00:27:26,580 --> 00:27:32,020 утилитаристской моральной теории. 468 00:27:32,020 --> 00:27:36,260 Идея Бентама, 469 00:27:36,260 --> 00:27:38,300 его основная мысль, 470 00:27:38,300 --> 00:27:42,770 очень проста 471 00:27:42,770 --> 00:27:48,428 и несёт интуитивно понятный посыл. 472 00:27:48,428 --> 00:27:51,600 Она заключается в следующем: 473 00:27:51,600 --> 00:27:54,439 правильное действие, 474 00:27:54,440 --> 00:27:57,619 справедливое действие 475 00:27:57,619 --> 00:28:01,269 должно максимизировать 476 00:28:01,269 --> 00:28:02,309 полезность. 477 00:28:02,309 --> 00:28:06,039 Что он имел в виду под словом «полезность»? 478 00:28:06,039 --> 00:28:11,490 Под «полезностью» он имел в виду преобладание 479 00:28:11,490 --> 00:28:13,540 удовольствия над болью, 480 00:28:13,540 --> 00:28:16,670 счастья над страданием. 481 00:28:16,670 --> 00:28:22,270 И вот как он достиг принципа максимизации полезности. 482 00:28:22,270 --> 00:28:24,700 Он начал с наблюдения, заметив, 483 00:28:24,700 --> 00:28:27,660 что все мы — люди, 484 00:28:27,660 --> 00:28:31,280 управляемы двумя полновластными "повелителями" — 485 00:28:31,280 --> 00:28:34,620 болью и удовольствием. 486 00:28:34,619 --> 00:28:42,300 Нам — людям, нравится удовольствие и не нравится боль. 487 00:28:42,308 --> 00:28:45,839 И поэтому мы всегда должны основывать наши моральные суждения, 488 00:28:45,839 --> 00:28:49,150 будь то наши мысли о том, какими должны быть наши поступки в частной жизни, 489 00:28:49,150 --> 00:28:52,529 или наши мысли в качестве законодателей или граждан 490 00:28:52,529 --> 00:28:57,029 о том, каким должен быть закон, на следующем: 491 00:28:57,029 --> 00:29:01,919 нужно действовать, индивидуально или же коллективно, 492 00:29:01,919 --> 00:29:05,838 в направлении максимизации 493 00:29:05,838 --> 00:29:07,560 общего уровня 494 00:29:07,560 --> 00:29:11,259 счастья. 495 00:29:11,259 --> 00:29:15,320 Утилитаризм Бентама иногда выражается слоганом: 496 00:29:15,320 --> 00:29:18,799 «наибольшее благо для наибольшего количества». 497 00:29:18,799 --> 00:29:22,788 Вооружившись этим базовым принципом полезности, 498 00:29:22,788 --> 00:29:28,090 давайте проверим его, применив к другому случаю. 499 00:29:28,099 --> 00:29:33,970 На этот раз история не гипотетическая, а вполне реальная. 500 00:29:33,970 --> 00:29:38,139 Дело Дадли и Стивенса. 501 00:29:38,139 --> 00:29:41,690 Это знаменитое британское судебное дело 19-ого века, 502 00:29:41,690 --> 00:29:47,479 которое часто разбирается на юридических факультетах. 503 00:29:47,479 --> 00:29:50,019 Итак, что же произошло в этом деле? 504 00:29:50,019 --> 00:29:51,799 Я вкратце изложу его суть, 505 00:29:51,799 --> 00:29:54,880 и затем я хотел бы услышать, 506 00:29:54,880 --> 00:29:57,180 как бы вы разрешили его, 507 00:29:57,180 --> 00:29:59,950 если бы оказались на месте присяжных. 508 00:30:03,669 --> 00:30:08,849 В газетном отчёте того времени оно было описано так: 509 00:30:08,849 --> 00:30:14,180 «Нет истории печальнее на свете, чем история выживших 510 00:30:14,180 --> 00:30:16,180 с яхты «Mignonette» («Резеда»). 511 00:30:16,180 --> 00:30:21,719 Это судно затонуло в Южной Атлантике в трёхстах милях от Мыса Доброй Надежды. 512 00:30:21,719 --> 00:30:25,920 На борту было четыре человека: капитан Дадли, 513 00:30:25,920 --> 00:30:30,020 его главный помощник Стивенс и матрос Брукс. 514 00:30:30,020 --> 00:30:32,489 Все они были «людьми с безукоризненной репутацией». 515 00:30:32,489 --> 00:30:35,719 По крайней мере, так сообщается в газетном отчёте. 516 00:30:35,719 --> 00:30:39,750 Четвёртым членом команды был Ричард Паркер 517 00:30:39,750 --> 00:30:42,729 — семнадцатилетний юнга. 518 00:30:42,729 --> 00:30:51,290 Он был сиротой, у него не было семьи, и это было его первое дальнее плавание. 519 00:30:51,290 --> 00:30:53,700 Как сообщается, он отправился в путешествие, 520 00:30:53,700 --> 00:30:56,730 не послушавшись совета своих друзей. 521 00:30:56,730 --> 00:30:59,850 Полный надежд и юношеских амбиций, 522 00:30:59,850 --> 00:31:03,000 он думал, что путешествие сделает из него мужчину. 523 00:31:03,000 --> 00:31:05,140 К сожалению, этому не суждено было произойти. 524 00:31:05,140 --> 00:31:07,479 Факты дела не были предметом спора. 525 00:31:07,479 --> 00:31:11,940 В судно ударила волна, и «Mignonette» («Резеда») пошла ко дну. 526 00:31:11,940 --> 00:31:14,739 Экипаж сумел сесть в спасательную шлюпку. 527 00:31:14,739 --> 00:31:18,269 Единственной едой, которую они имели, 528 00:31:18,269 --> 00:31:21,600 были две банки консервированной репы. 529 00:31:21,600 --> 00:31:23,900 Никакой питьевой воды. 530 00:31:23,900 --> 00:31:26,610 Первые три дня они ничего не ели, 531 00:31:26,609 --> 00:31:30,250 на четвёртый день они открыли одну из консервных банок 532 00:31:30,250 --> 00:31:31,530 и съели её содержимое. 533 00:31:31,530 --> 00:31:34,150 На следующий день они поймали черепаху. 534 00:31:34,150 --> 00:31:38,250 Оставшаяся банка с репой и черепаха 535 00:31:38,250 --> 00:31:40,960 помогли им продержаться ещё несколько дней, 536 00:31:40,960 --> 00:31:43,899 но затем в течение восьми дней у них уже не было ничего, 537 00:31:43,899 --> 00:31:46,749 ни еды, ни воды. 538 00:31:46,749 --> 00:31:49,929 Представьте себя в такой ситуации. 539 00:31:49,929 --> 00:31:52,699 Что бы вы сделали? 540 00:31:52,699 --> 00:31:55,049 Вот что сделали они. 541 00:31:55,049 --> 00:32:00,740 К этому моменту юнга Паркер лежал в углу на дне шлюпки, 542 00:32:00,740 --> 00:32:02,920 потому что напился морской воды, 543 00:32:02,920 --> 00:32:05,490 не послушав остальных. 544 00:32:05,490 --> 00:32:07,230 Ему сделалось дурно, 545 00:32:07,230 --> 00:32:10,619 и было понятно, что он умирает. 546 00:32:10,619 --> 00:32:14,498 На девятнадцатый день капитан Дадли предложил 547 00:32:14,498 --> 00:32:18,749 всем бросить жребий 548 00:32:18,749 --> 00:32:20,859 и определить, кому суждено умереть, 549 00:32:20,859 --> 00:32:23,820 чтобы спасти остальных. 550 00:32:23,820 --> 00:32:26,480 Брукс отказался. 551 00:32:26,480 --> 00:32:29,139 Ему не понравилась идея со жребием. 552 00:32:29,140 --> 00:32:33,079 Мы не знаем, было ли это вызвано тем, что он не хотел рисковать, 553 00:32:33,079 --> 00:32:36,859 или же тем, что он верил в категорические моральные принципы, 554 00:32:36,859 --> 00:32:42,119 но в любом случае жребий так и не был брошен. 555 00:32:42,130 --> 00:32:45,030 На следующий день спасательного корабля по-прежнему не было, 556 00:32:45,030 --> 00:32:48,300 и Дадли попросил Брукса отвернуться, 557 00:32:48,300 --> 00:32:50,730 жестом показав Стивенсу, 558 00:32:50,730 --> 00:32:53,719 что мальчишку Паркера нужно убить. 559 00:32:53,719 --> 00:32:55,850 Дадли помолился, 560 00:32:55,849 --> 00:32:58,450 сказал мальчику, что его время пришло, 561 00:32:58,450 --> 00:33:00,409 и зарезал его перочинным ножом, 562 00:33:00,409 --> 00:33:03,640 поразив яремную вену. 563 00:33:03,640 --> 00:33:09,670 Брукс, отрекшийся от соображений совести, тоже воспользовался этим жутким «подарком». 564 00:33:09,670 --> 00:33:11,049 Четыре дня 565 00:33:11,049 --> 00:33:15,230 они втроём питались телом и кровью юнги. 566 00:33:15,230 --> 00:33:17,140 Реальная история. 567 00:33:17,140 --> 00:33:19,150 А затем их спасли. 568 00:33:19,150 --> 00:33:24,619 Дадли описал это спасение в своём дневнике 569 00:33:24,619 --> 00:33:27,570 поразительным эвфемизмом. Цитата: 570 00:33:27,569 --> 00:33:29,618 «На двадцать четвёртый день, 571 00:33:29,618 --> 00:33:34,818 когда мы завтракали, 572 00:33:34,818 --> 00:33:38,599 наконец-то показался корабль». 573 00:33:38,599 --> 00:33:44,239 Трое выживших были подобраны немецким кораблём и их отправили назад в Фэлмут, в Англию, 574 00:33:44,239 --> 00:33:46,749 где они были арестованы и подвергнуты суду. 575 00:33:46,749 --> 00:33:49,810 Брукс был свидетелем обвинения, 576 00:33:49,810 --> 00:33:51,970 а Дадли и Стивенс были обвиняемыми. 577 00:33:51,970 --> 00:33:54,370 Они не оспаривали факты. 578 00:33:54,370 --> 00:33:57,670 Они утверждали, что действовали в крайних обстоятельствах. 579 00:33:57,670 --> 00:33:59,430 Это была их линия защиты. 580 00:33:59,430 --> 00:34:03,110 Они настаивали на том, что смерть одного человека более предпочтительна, 581 00:34:03,110 --> 00:34:06,430 чем смерть троих. 582 00:34:06,430 --> 00:34:10,849 Обвинителя не убедил такой аргумент. 583 00:34:10,849 --> 00:34:13,869 Он сказал: «Убийство есть убийство.» Дело передали в суд. 584 00:34:13,869 --> 00:34:16,209 Теперь представьте, что вы присяжные. 585 00:34:16,209 --> 00:34:21,789 Чтобы упростить обсуждение, оставим в стороне вопрос права 586 00:34:21,789 --> 00:34:25,840 и представим, что как присяжные 587 00:34:25,840 --> 00:34:28,050 вы должны решить, 588 00:34:28,050 --> 00:34:34,399 было ли то, что они сделали, морально допустимым или нет. 589 00:34:34,399 --> 00:34:36,608 Кто из вас 590 00:34:36,608 --> 00:34:39,689 проголосовал бы 591 00:34:39,689 --> 00:34:46,809 за то, что они невиновны и что совершённое ими было морально допустимо? 592 00:34:49,408 --> 00:34:51,639 А кто проголосовал бы за то, что они виновны 593 00:34:51,639 --> 00:34:54,858 и что совершённое ими было морально недопустимо? 594 00:34:54,858 --> 00:34:57,998 Значительное большинство. 595 00:34:57,998 --> 00:35:03,808 Давайте послушаем ваши соображения. Начнём с тех, кто оказался в меньшинстве. 596 00:35:03,809 --> 00:35:07,669 Давайте сперва предоставим слово защите 597 00:35:07,669 --> 00:35:10,059 Дадли и Стивенса. 598 00:35:10,059 --> 00:35:14,149 Почему вы оправдали бы их с моральной точки зрения? 599 00:35:14,149 --> 00:35:16,369 Чем вы руководствуетесь? 600 00:35:16,369 --> 00:35:17,989 Пожалуйста. 601 00:35:17,989 --> 00:35:20,778 Я считаю это предосудительным с моральной точки зрения, 602 00:35:20,778 --> 00:35:24,229 но существует различие между тем, что нравственно предосудительно, 603 00:35:24,229 --> 00:35:26,609 и тем, что влечёт юридическую ответственность. 604 00:35:26,608 --> 00:35:32,140 Или, как мог бы сказать судья, аморальное совсем не обязательно противозаконно. 605 00:35:32,140 --> 00:35:34,119 И хотя я не считаю, что необходимость чего-либо 606 00:35:34,119 --> 00:35:36,169 является достаточным основанием 607 00:35:36,168 --> 00:35:38,578 для кражи, убийства, или другого противозаконного действия, 608 00:35:38,579 --> 00:35:45,849 степень необходимости в той или иной мере может оправдывать его. 609 00:35:45,849 --> 00:35:50,398 Кто ещё поддерживает эту точку зрения и согласен 610 00:35:50,398 --> 00:35:54,208 с моральными обоснованиями их действий? 611 00:35:54,208 --> 00:35:56,969 Пожалуйста. 612 00:35:56,969 --> 00:35:58,519 Спасибо. 613 00:35:58,528 --> 00:36:03,140 Я думаю, в такой отчаянной ситуации вы должны сделать всё возможное чтобы выжить. 614 00:36:03,140 --> 00:36:04,679 Вы должны сделать всё, что возможно? 615 00:36:04,679 --> 00:36:06,789 Да, вы должны сделать всё, что можно. 616 00:36:06,789 --> 00:36:10,439 Если вы девятнадцать дней ничего не ели, 617 00:36:10,439 --> 00:36:14,630 кто-то из вас должен пожертвовать собой ради спасения остальных. 618 00:36:14,630 --> 00:36:20,959 Более того, представим, что по возвращении домой, спасшиеся начинают создавать 619 00:36:20,959 --> 00:36:25,700 миллионы благотворительных организаций и другие подобные вещи. То есть, в итоге всем хорошо. 620 00:36:25,700 --> 00:36:28,639 Я не знаю, что они сделали после этого случая, но они вполне могли бы продолжать 621 00:36:28,639 --> 00:36:30,628 убивать людей независимо от... 622 00:36:30,628 --> 00:36:35,708 От чего? А что если они вернулись домой и превратились в убийц? 623 00:36:35,708 --> 00:36:39,108 Что если они вернулись домой и превратились в убийц? 624 00:36:39,108 --> 00:36:42,648 Вы бы хотели знать, кого они убили. 625 00:36:42,648 --> 00:36:45,309 Да, верно. 626 00:36:45,309 --> 00:36:46,568 Я хотел бы знать это. 627 00:36:46,568 --> 00:36:48,048 Это было неплохо. Как вас зовут? 628 00:36:48,048 --> 00:36:50,708 Маркус. 629 00:36:50,708 --> 00:36:54,039 Мы услышали сторону защиты, пару голосов в оправдание. 630 00:36:54,039 --> 00:36:57,290 Теперь послушаем сторону обвинения. 631 00:36:57,298 --> 00:37:03,578 Большинство людей думает, что они не правы. Почему? 632 00:37:03,578 --> 00:37:04,628 Пожалуйста. 633 00:37:04,628 --> 00:37:09,078 Когда я услышала эту историю, я подумала: Так, если они голодали очень долго, 634 00:37:09,078 --> 00:37:15,089 то, может быть, в этом случае они не были в здравом рассудке. 635 00:37:15,089 --> 00:37:20,608 И это могло послужить оправданием, в качестве возможного аргумента: 636 00:37:20,608 --> 00:37:25,859 они были не в своём уме и приняли решение, которое не приняли бы в другой ситуации. 637 00:37:25,859 --> 00:37:28,519 Думаю, это их оправдывает. 638 00:37:28,518 --> 00:37:33,348 Трезво мыслящий человек так никогда не поступит. Мне кажется, что есть люди, 639 00:37:33,348 --> 00:37:36,058 которые находят данный аргумент приемлемым. 640 00:37:36,058 --> 00:37:37,588 Вы думаете, что они поступили аморально? 641 00:37:37,588 --> 00:37:39,298 Но я хочу знать что думаете вы. 642 00:37:39,298 --> 00:37:42,548 Вы голосовали за то, что они виновны, верно? 643 00:37:42,548 --> 00:37:46,428 Да, я не считаю, что они действовали в рамках морали. 644 00:37:46,428 --> 00:37:51,069 Но почему нет? Вы же слышали, как Маркус защищал их. 645 00:37:51,069 --> 00:37:52,709 Он сказал... 646 00:37:52,709 --> 00:37:53,960 Вы слышали, что он сказал. 647 00:37:53,960 --> 00:37:56,339 Да, я слышала. 648 00:37:56,339 --> 00:38:00,019 Что вы должны поступать так, как того требует данная ситуация. 649 00:38:00,019 --> 00:38:04,759 Что вы ответите Маркусу? 650 00:38:04,759 --> 00:38:06,428 Я бы сказала, что 651 00:38:06,428 --> 00:38:13,459 нет такой ситуации, в которой можно было бы 652 00:38:13,459 --> 00:38:17,238 лишить человека права управлять своей судьбой или лишить человека жизни. 653 00:38:17,238 --> 00:38:19,868 У нас нет такого права. 654 00:38:19,868 --> 00:38:22,429 Хорошо, спасибо. Как вас зовут? 655 00:38:22,429 --> 00:38:23,350 Бритт. 656 00:38:23,350 --> 00:38:24,548 Бритт? Хорошо. 657 00:38:24,548 --> 00:38:25,798 Кто-нибудь ещё? 658 00:38:25,798 --> 00:38:28,059 Что вы скажете? Встаньте, пожалуйста. 659 00:38:28,059 --> 00:38:30,039 Мне вот что интересно. Если бы Дадли и Стивенс 660 00:38:30,039 --> 00:38:35,509 спросили Ричарда Паркера, согласен ли он ...умереть, 661 00:38:35,509 --> 00:38:37,519 то могло бы это... 662 00:38:37,519 --> 00:38:42,268 Могло бы это оправдать совершённое убийство 663 00:38:42,268 --> 00:38:45,269 и если да, то было бы ли это оправданно с точки зрения морали? 664 00:38:45,269 --> 00:38:49,539 Это любопытно. Согласие. Подождите, как вас зовут? 665 00:38:49,539 --> 00:38:51,639 Кэтлин. 666 00:38:51,639 --> 00:38:55,459 Кэтлин предлагает представить, как бы могла выглядеть эта сцена в таком случае. 667 00:38:55,459 --> 00:39:02,610 Итак, представьте: Дадли с ножом в руке, но вместо молитвы, 668 00:39:02,610 --> 00:39:04,588 или перед молитвой, 669 00:39:04,588 --> 00:39:06,348 он спрашивает: 670 00:39:06,348 --> 00:39:11,528 «Паркер, ты не возражаешь? 671 00:39:11,528 --> 00:39:14,348 Мы тут безумно проголодались..." 672 00:39:14,349 --> 00:39:17,679 Смотрите, как Маркус сопереживает им. 673 00:39:17,679 --> 00:39:22,089 «Мы безумно проголодались, а тебе, в любом случае, недолго осталось. 674 00:39:22,089 --> 00:39:23,458 Ты можешь стать мучеником. 675 00:39:23,458 --> 00:39:25,708 Не хочешь стать мучеником? 676 00:39:25,708 --> 00:39:29,179 Что скажешь, Паркер?» 677 00:39:29,179 --> 00:39:33,089 В этом случае 678 00:39:33,089 --> 00:39:36,939 можете ли вы оправдать это с точки зрения морали? 679 00:39:36,939 --> 00:39:42,889 Допустим, Паркер в оцепенении говорит: «Ну ладно, я согласен». 680 00:39:42,889 --> 00:39:45,359 Я не считаю, что это морально оправдывает убийство, но мне просто интересно... 681 00:39:45,359 --> 00:39:47,839 Даже в этом случае? Даже в этом случае, не было бы оправдания? Нет. 682 00:39:47,839 --> 00:39:52,390 Вы не считаете, что даже с согласия это может быть морально оправданно. 683 00:39:52,390 --> 00:39:57,458 Есть тут люди, готовые подхватить идею Кэтлин о согласии? 684 00:39:57,458 --> 00:40:00,148 И кто считает, что в таком случае их действия были бы морально оправданны? 685 00:40:00,148 --> 00:40:05,739 Поднимите руку, если вы с этим согласны. 686 00:40:05,739 --> 00:40:07,458 Вот это интересно. 687 00:40:07,458 --> 00:40:14,038 Почему же наличие согласия создало такую разницу? 688 00:40:14,038 --> 00:40:15,679 С чего бы это? 689 00:40:15,679 --> 00:40:18,419 Я думаю, что если бы Паркер сам принимал решение, 690 00:40:18,419 --> 00:40:20,899 если бы это было его собственной идеей, 691 00:40:20,899 --> 00:40:25,768 то только в такой ситуации это было бы допустимо. 692 00:40:25,768 --> 00:40:28,380 Потому что в такой ситуации вы не можете сказать, 693 00:40:28,380 --> 00:40:31,979 что на него было оказано давление, что их было трое против одного. 694 00:40:31,979 --> 00:40:33,199 Верно. 695 00:40:33,199 --> 00:40:39,430 Мне кажется, принимая такое решение, он делает это по собственной воле. 696 00:40:39,430 --> 00:40:41,428 Конечно, одним людям это покажется поступком, достойным восхищения, 697 00:40:41,428 --> 00:40:45,319 а другие могут быть не согласны с такой оценкой. 698 00:40:45,319 --> 00:40:48,999 Итак, если он сам предложил эту идею, 699 00:40:48,999 --> 00:40:52,520 то это будет единственным вариантом согласия, который бы нас устроил 700 00:40:52,520 --> 00:40:54,858 с точки зрения морали. Тогда это было бы допустимо. 701 00:40:54,858 --> 00:40:57,268 В ином случае 702 00:40:57,268 --> 00:40:59,579 это будет, скажем так, согласие под принуждением, 703 00:40:59,579 --> 00:41:01,489 согласие под воздействием обстоятельств. 704 00:41:01,489 --> 00:41:05,228 Так вы считаете. 705 00:41:05,228 --> 00:41:07,349 Кто-нибудь из вас считает, 706 00:41:07,349 --> 00:41:10,859 что даже согласие Паркера 707 00:41:10,859 --> 00:41:15,479 не оправдывает его убийство? 708 00:41:15,479 --> 00:41:17,338 Кто так думает? 709 00:41:17,338 --> 00:41:19,548 Да. Расскажите нам почему вы так думаете. Встаньте, пожалуйста. 710 00:41:19,548 --> 00:41:22,860 Я думаю, что Паркер был убит в надежде, 711 00:41:22,860 --> 00:41:26,379 что все остальные члены экипажа впоследствии будут спасены. 712 00:41:26,379 --> 00:41:29,000 Но для его убийства нет объективных причин, 713 00:41:29,000 --> 00:41:32,439 потому что вы даже не знаете, спасут вас вообще или нет, 714 00:41:32,439 --> 00:41:34,429 так что его убийство может быть совершенно напрасным. 715 00:41:34,429 --> 00:41:38,039 Вы так и будете убивать одного за другим, пока не останетесь один или вас не спасут? 716 00:41:38,039 --> 00:41:39,949 Просто потому что кто-то всё равно умрёт? 717 00:41:39,949 --> 00:41:44,159 С позиций морали, смысл ситуации в том, 718 00:41:44,159 --> 00:41:50,059 что они жертвуют слабейшим, одним за другим, 719 00:41:50,059 --> 00:41:51,929 пока не будут спасены. 720 00:41:51,929 --> 00:41:57,679 И в этом случае по счастливой случайности, три человека остались живы. 721 00:41:57,679 --> 00:42:01,210 Но если бы Паркер согласился, 722 00:42:01,210 --> 00:42:03,488 как вы думаете, это было бы правильным? 723 00:42:03,488 --> 00:42:06,329 Нет, я по-прежнему не считаю это правильным. 724 00:42:06,329 --> 00:42:08,030 Обоснуйте почему. 725 00:42:08,030 --> 00:42:12,838 Во-первых, я считаю, что каннибализм аморален в принципе. 726 00:42:12,838 --> 00:42:14,470 Вы не должны есть людей ни в каком случае. 727 00:42:14,470 --> 00:42:16,819 Итак, 728 00:42:16,819 --> 00:42:22,410 каннибализм неприемлем даже в том случае, 729 00:42:22,410 --> 00:42:24,318 когда мы знаем, что человек точно умрёт? 730 00:42:24,318 --> 00:42:26,198 Даже в этом случае? 731 00:42:26,198 --> 00:42:27,959 Да, лично для меня. 732 00:42:27,959 --> 00:42:31,189 Мне кажется, что всё это зависит 733 00:42:31,199 --> 00:42:35,258 от личных моральных принципов человека. 734 00:42:35,258 --> 00:42:36,808 Это только моё мнение. 735 00:42:36,808 --> 00:42:39,339 Конечно, не все с этим согласятся. 736 00:42:39,338 --> 00:42:41,498 Хорошо. Давайте послушаем аргументы «против», 737 00:42:41,498 --> 00:42:46,199 а затем посмотрим, смогут ли они переубедить вас или нет? 738 00:42:46,199 --> 00:42:48,248 Давайте попробуем. 739 00:42:48,248 --> 00:42:50,098 Итак, 740 00:42:50,099 --> 00:42:53,249 есть ли здесь кто-нибудь, 741 00:42:53,248 --> 00:42:57,869 кому импонирует идея согласия и кто мог бы объяснить. 742 00:42:57,869 --> 00:43:03,328 Можете ли вы объяснить, почему согласие всё кардинально меняет? 743 00:43:03,328 --> 00:43:05,600 А как насчёт идеи с жребием? 744 00:43:05,600 --> 00:43:08,809 Может ли это считаться своего рода согласием? Помните, в начале истории 745 00:43:08,809 --> 00:43:10,989 Дадли предложил тянуть жребий. 746 00:43:10,989 --> 00:43:16,119 Предположим, что они согласились тянуть жребий. 747 00:43:16,119 --> 00:43:20,819 Теперь кто из вас за то, 748 00:43:20,819 --> 00:43:23,769 что это было бы правильно? Предположим, они тянули жребий, 749 00:43:23,769 --> 00:43:25,380 и юнга проиграл. 750 00:43:25,380 --> 00:43:33,160 Далее происходит история, которую мы уже знаем. Было бы тогда это допустимым? 751 00:43:33,160 --> 00:43:37,030 В случае со жребием число согласных увеличилось. Давайте послушаем кого-нибудь 752 00:43:37,030 --> 00:43:41,609 для кого с моральной точки зрения принципиален жребий. 753 00:43:41,608 --> 00:43:43,458 Почему вы так считаете? 754 00:43:43,458 --> 00:43:45,709 Я думаю, что это принципиальный момент. 755 00:43:45,719 --> 00:43:47,858 На мой взгляд, преступлением этот поступок делает то, 756 00:43:47,858 --> 00:43:53,848 что Дадли и Стивенс в один момент решили, что их жизни важнее, чем жизнь юнги. 757 00:43:53,849 --> 00:43:56,609 Я имею в виду, что подобная мысль является предпосылкой любого преступления. 758 00:43:56,608 --> 00:43:58,938 Это равнозначно признанию того, что мои потребности, мои желания 759 00:43:58,938 --> 00:44:01,949 является более важными, более предпочтительными, чем ваши. 760 00:44:01,949 --> 00:44:04,798 А если бы они тянули жребий, согласившись с тем, 761 00:44:04,798 --> 00:44:06,478 что кто-то из них должен умереть 762 00:44:06,478 --> 00:44:09,239 и пожертвовать таким образом собой, 763 00:44:09,239 --> 00:44:10,959 чтобы спасти остальных. 764 00:44:10,959 --> 00:44:12,919 Тогда всё будет в порядке? 765 00:44:12,919 --> 00:44:15,840 Немного абсурдно, но, 766 00:44:15,840 --> 00:44:18,828 Но допустимо с точки зрения морали? Да. 767 00:44:18,828 --> 00:44:20,958 Как вас зовут? Мэтт. 768 00:44:20,958 --> 00:44:25,578 Что ж, Мэтт, вас смущает 769 00:44:25,579 --> 00:44:28,259 не сам факт каннибализма, 770 00:44:28,259 --> 00:44:31,389 а отсутствие должной процедуры? 771 00:44:31,389 --> 00:44:34,689 Я думаю, да. 772 00:44:34,688 --> 00:44:38,170 Может ли кто-нибудь из тех, кто согласен с Мэттом, 773 00:44:38,170 --> 00:44:40,410 что-нибудь добавить к сказанному 774 00:44:40,410 --> 00:44:46,738 о том, почему жребий сделает этот поступок 775 00:44:46,738 --> 00:44:50,528 допустимым с точки зрения морали? 776 00:44:50,528 --> 00:44:53,938 Мне кажется, что основная проблема заключается именно в том, 777 00:44:53,938 --> 00:44:58,758 что юнгу даже не спрашивали, когда решали его судьбу. 778 00:44:58,758 --> 00:45:01,018 Даже в ситуации с несостоявшимся жребием. 779 00:45:01,018 --> 00:45:02,810 Будет или не будет он в нём участвовать, им показалось неважным. 780 00:45:02,810 --> 00:45:05,690 Было просто решено, что именно мальчик должен умереть. 781 00:45:05,690 --> 00:45:08,170 Да, так и произошло на самом деле. 782 00:45:08,170 --> 00:45:11,900 Но если бы все они тянули жребий, и все были бы согласны с этой процедурой, 783 00:45:11,900 --> 00:45:13,399 считали бы вы это правильным? 784 00:45:13,399 --> 00:45:16,418 Да, потому что тогда все бы знали, что кто-то из них умрёт, 785 00:45:16,418 --> 00:45:18,879 в то время как в реальной ситуации юнга не знал, 786 00:45:18,879 --> 00:45:21,038 что Дадли и Стивенс решают его судьбу. 787 00:45:21,039 --> 00:45:26,309 Ему никто никто не сказал, что он может умереть. 788 00:45:26,309 --> 00:45:29,299 Хорошо, предположим, что все согласились тянуть жребий. 789 00:45:29,299 --> 00:45:34,368 Все бросили жребий. Но представьте себе, что юнга проиграл и передумал. 790 00:45:34,368 --> 00:45:37,029 Вы уже всё решили, это своего рода устное соглашение, 791 00:45:37,029 --> 00:45:40,989 вы не можете взять свои слова обратно. Решение было принято. 792 00:45:40,989 --> 00:45:45,148 Вы понимаете, что умираете ради того, чтобы спасти других. 793 00:45:45,148 --> 00:45:48,208 Вы осознаёте, что если бы кому-то другому выпал жребий умереть, 794 00:45:48,208 --> 00:45:51,009 то его так же съели бы, так что... 795 00:45:51,009 --> 00:45:56,709 Хорошо, но потом он мог бы сказать: «Знаю, но я проиграл.» 796 00:45:56,709 --> 00:46:02,688 Я считаю, что основная нравственная проблема в том, что юнгу никто не спрашивал. 797 00:46:02,688 --> 00:46:07,048 Самое ужасное то, что он даже не представлял, что происходит. 798 00:46:07,048 --> 00:46:10,599 Если бы он осознавал это, то результат был бы 799 00:46:10,599 --> 00:46:12,278 немного более справедливым. 800 00:46:12,278 --> 00:46:14,509 Хорошо. Теперь, мне интересно узнать вот что. 801 00:46:14,510 --> 00:46:16,919 Некоторые из вас считают, 802 00:46:16,919 --> 00:46:18,719 что это морально допустимо, 803 00:46:18,719 --> 00:46:23,878 но вас всего около 20 процентов. 804 00:46:23,878 --> 00:46:26,389 Во главе с Маркусом. 805 00:46:26,389 --> 00:46:28,439 Другие же считают, 806 00:46:28,438 --> 00:46:30,208 что основная проблема заключается 807 00:46:30,208 --> 00:46:32,678 в отсутствии согласия, 808 00:46:32,678 --> 00:46:36,919 будь то отсутствие согласия тянуть справедливый жребий 809 00:46:36,919 --> 00:46:38,488 или же, 810 00:46:38,488 --> 00:46:39,690 как считает Кэтлин, 811 00:46:39,690 --> 00:46:42,899 отсутствие согласия в момент 812 00:46:42,899 --> 00:46:44,979 смерти. 813 00:46:44,979 --> 00:46:49,038 Если мы предположим наличие согласия, то 814 00:46:49,038 --> 00:46:51,889 уже больше людей будут готовы признать, 815 00:46:51,889 --> 00:46:54,528 что эта жертва морально оправданна. 816 00:46:54,528 --> 00:46:58,388 Теперь я хочу выслушать тех, кто считает, 817 00:46:58,388 --> 00:47:00,139 что даже при наличии согласия, 818 00:47:00,139 --> 00:47:01,758 даже при условии организации жребия, 819 00:47:01,759 --> 00:47:08,009 даже, если бы в самый последний момент Паркер 820 00:47:08,018 --> 00:47:09,179 вяло согласился, 821 00:47:09,179 --> 00:47:12,578 это всё равно было бы неправильно. 822 00:47:12,578 --> 00:47:15,458 И я хочу услышать, почему это было бы неправильно. 823 00:47:15,458 --> 00:47:16,858 Да. 824 00:47:16,858 --> 00:47:22,718 Всё это время я склонялась к категорической аргументации. 825 00:47:22,718 --> 00:47:25,428 И думаю, 826 00:47:25,428 --> 00:47:29,368 что возможно, я готова принять вариант со жребием, 827 00:47:29,368 --> 00:47:33,660 при котором проигравший собственноручно убивает себя. 828 00:47:33,660 --> 00:47:37,218 Тогда убийства как такового не будет, но я по-прежнему считаю, 829 00:47:37,218 --> 00:47:39,768 что даже в таком случае будет принуждение. 830 00:47:39,768 --> 00:47:43,338 И я не думаю, что тут есть раскаяние. Вспомните, что написано в дневнике Дадли: 831 00:47:43,338 --> 00:47:44,909 "…когда мы завтракали". 832 00:47:44,909 --> 00:47:51,799 Это выглядит так, как будто он не видит ценности в жизни других. 833 00:47:51,799 --> 00:47:55,359 Это заставляет меня принять категорическую аргументацию. 834 00:47:55,359 --> 00:47:57,489 Вы хотите наказать Дадли по полной программе, 835 00:47:57,489 --> 00:48:00,758 если он не раскаивается или не чувствует, что поступил неправильно? 836 00:48:00,758 --> 00:48:02,158 Да. 837 00:48:02,158 --> 00:48:08,769 Хорошо. Есть ещё кто-нибудь, 838 00:48:08,769 --> 00:48:13,558 кто считает, что это категорически неправильно, с согласием или без него. Да, пожалуйста. Почему? 839 00:48:13,558 --> 00:48:17,129 Я считаю, что в понятиях нашего общества убийство есть убийство. 840 00:48:17,129 --> 00:48:21,489 Убийство есть убийство, и в любом случае наше общество негативно к этому относится. 841 00:48:21,489 --> 00:48:23,239 Я не считаю, что это зависит от обстоятельств. 842 00:48:23,239 --> 00:48:24,720 Позвольте мне задать вам вопрос. 843 00:48:24,720 --> 00:48:27,119 На кону было три жизни 844 00:48:27,119 --> 00:48:30,489 против одной. 845 00:48:30,489 --> 00:48:34,348 У юнги не было ни семьи, ни тех, о ком нужно было заботиться. 846 00:48:34,348 --> 00:48:39,149 У трёх других человек дома остались семьи, у них были иждивенцы: 847 00:48:39,149 --> 00:48:41,198 жёны и дети. 848 00:48:41,198 --> 00:48:43,099 Вспомните Бентама. 849 00:48:43,099 --> 00:48:47,969 Бентам считал, что мы должны учитывать благосостояние, полезность и счастье 850 00:48:47,969 --> 00:48:51,298 для всех. Мы должны сложить всё вместе. 851 00:48:51,298 --> 00:48:54,509 Поэтому это не просто цифра «три» против цифры «один», 852 00:48:54,509 --> 00:48:58,759 а ещё и все эти люди, ждущие моряков дома. 853 00:48:58,759 --> 00:49:00,909 Надо сказать, что во время разбирательства пресса 854 00:49:00,909 --> 00:49:05,438 и общественное мнение сочувствовали Дадли и Стивенсу. 855 00:49:05,438 --> 00:49:10,529 В газете писали, что если бы ими не двигали привязанность 856 00:49:10,529 --> 00:49:12,579 к своим близким, оставшимся дома, и беспокойство о них, 857 00:49:12,579 --> 00:49:14,039 они бы несомненно не совершили этот страшный поступок. 858 00:49:14,039 --> 00:49:17,369 Да, но тогда как они отличаются от людей, просящих милостыню 859 00:49:17,369 --> 00:49:21,109 и которые так же хотят прокормить свою семью? Здесь нет большой разницы. 860 00:49:21,109 --> 00:49:25,279 Если я убиваю кого-то, чтобы улучшить своё положение, это не перестаёт быть убийством. 861 00:49:25,280 --> 00:49:26,919 Нужно смотреть на это так. 862 00:49:26,919 --> 00:49:30,278 Мы считаем преступлениями только определённые поступки. 863 00:49:30,278 --> 00:49:33,760 При этом некоторые из них кажутся нам более жестокими и дикими, 864 00:49:33,760 --> 00:49:36,680 хотя в их основе всегда лежит один и тот же стимул: 865 00:49:36,680 --> 00:49:39,850 необходимость прокормить свои семьи. 866 00:49:39,850 --> 00:49:43,068 Предположим, что людей в исходной ситуации было бы не трое, а тридцать 867 00:49:43,068 --> 00:49:44,508 или триста. 868 00:49:44,508 --> 00:49:47,298 Пожертвовать одной жизнью, чтобы спасти три сотни 869 00:49:47,298 --> 00:49:48,349 или больше, 870 00:49:48,349 --> 00:49:49,589 три тысячи. 871 00:49:49,590 --> 00:49:51,039 Предположим, что ставки были ещё больше. 872 00:49:51,039 --> 00:49:52,778 Предположим, что ставки были ещё больше. 873 00:49:52,778 --> 00:49:54,368 Я думаю, что это по-прежнему то же самое. 874 00:49:54,368 --> 00:49:58,709 Вы думаете, что Бентам ошибался, говоря, что необходимо 875 00:49:58,709 --> 00:50:02,479 суммировать всё общественное счастье? Вы думаете, что он ошибался насчёт этого? 876 00:50:02,478 --> 00:50:06,728 - Я не считаю, что он ошибался, но я считаю, что убийство есть убийство в любом случае. - Значит Бентам определённо ошибается. 877 00:50:06,728 --> 00:50:09,568 - Если вы правы, то неправ он. - Хорошо, тогда он не прав. 878 00:50:09,568 --> 00:50:12,818 Хорошо, спасибо. 879 00:50:12,818 --> 00:50:14,358 Давайте отвлечёмся 880 00:50:14,358 --> 00:50:16,389 от этого обсуждения 881 00:50:16,389 --> 00:50:19,728 и обратим внимание на то, 882 00:50:19,728 --> 00:50:23,259 сколько было возражений по поводу поступка Дадли и Стивенса. 883 00:50:23,259 --> 00:50:26,048 Мы услышали несколько мнений в защиту того, что они сделали. 884 00:50:26,048 --> 00:50:28,509 Их оправдывали тем, что они находились 885 00:50:28,509 --> 00:50:28,918 в состоянии крайней необходимости, 886 00:50:28,918 --> 00:50:32,588 были в ужасных обстоятельствах. 887 00:50:32,588 --> 00:50:33,409 По крайней мере, косвенно оправдывали количественным аргументом, 888 00:50:33,409 --> 00:50:36,018 «три жизни против одной». 889 00:50:36,018 --> 00:50:37,858 Говорили, что дело не только в количестве, 890 00:50:37,858 --> 00:50:40,380 но и в более важных обстоятельствах, 891 00:50:40,380 --> 00:50:43,459 в том, что дома у них остались семьи и близкие. 892 00:50:43,458 --> 00:50:44,768 Паркер же был сиротой, 893 00:50:44,768 --> 00:50:47,978 никто бы не скучал по нему. 894 00:50:47,978 --> 00:50:49,578 Таким образом, если вы 895 00:50:49,579 --> 00:50:50,829 сложите всё это 896 00:50:50,829 --> 00:50:52,649 и попробуете оценить 897 00:50:52,648 --> 00:50:53,998 соотношение 898 00:50:53,998 --> 00:50:56,598 счастья и страдания, 899 00:50:56,599 --> 00:50:58,838 то у вас будут основания 900 00:50:58,838 --> 00:51:02,768 утверждать, что они поступили правильно. 901 00:51:02,768 --> 00:51:09,468 Затем мы услышали по крайней мере три различных типа возражений. 902 00:51:09,469 --> 00:51:11,690 Например, возражение о том, 903 00:51:11,690 --> 00:51:14,108 что они поступили неправильно с категорической точки зрения. 904 00:51:14,108 --> 00:51:15,750 Вы так сказали. 905 00:51:15,750 --> 00:51:17,389 Неправильно с категорической точки зрения. 906 00:51:17,389 --> 00:51:19,820 Убийство есть убийство, и это всегда плохо, 907 00:51:19,820 --> 00:51:20,969 даже если 908 00:51:20,969 --> 00:51:23,349 при этом повысится общий уровень счастья 909 00:51:23,349 --> 00:51:25,639 в обществе. 910 00:51:25,639 --> 00:51:28,499 Это категорическое возражение. 911 00:51:28,498 --> 00:51:30,738 Но нам всё равно нужно понять, 912 00:51:30,739 --> 00:51:32,749 почему убийство 913 00:51:32,748 --> 00:51:35,448 является категорически неправильным. 914 00:51:35,449 --> 00:51:38,579 Потому ли, что 915 00:51:38,579 --> 00:51:42,339 даже у юнги есть фундаментальные права? 916 00:51:42,338 --> 00:51:44,400 И если в этом вся причина, 917 00:51:44,400 --> 00:51:47,880 то откуда возникат эти права, если не от идеи 918 00:51:47,880 --> 00:51:53,209 повышения общественного благосостояния, полезности или счастья? Это первый вопрос. 919 00:51:53,208 --> 00:51:56,308 Другие утверждали, 920 00:51:56,309 --> 00:51:58,449 что в случае со жребием было бы иначе. 921 00:51:58,449 --> 00:52:00,039 Справедливая процедура, 922 00:52:00,039 --> 00:52:05,949 как заметил Мэтт. 923 00:52:05,949 --> 00:52:08,769 И некоторые из вас склонились к этой точке зрения. 924 00:52:08,768 --> 00:52:12,188 Но это не совсем категорическое возражение. 925 00:52:12,188 --> 00:52:13,828 Это утверждение о том, 926 00:52:13,829 --> 00:52:16,798 что все должны считаться равными, 927 00:52:16,798 --> 00:52:18,469 даже если в конце концов 928 00:52:18,469 --> 00:52:20,769 один человек будет принесён в жертву 929 00:52:20,768 --> 00:52:23,288 ради общего блага. 930 00:52:23,289 --> 00:52:26,059 Это заставляет нас задуматься о следующем. 931 00:52:26,059 --> 00:52:29,670 Почему согласие на определённую процедуру, 932 00:52:29,670 --> 00:52:31,969 пусть даже справедливую, 933 00:52:31,969 --> 00:52:34,739 оправдывает любой результат, 934 00:52:34,739 --> 00:52:38,088 вытекающий из этой процедуры? 935 00:52:38,088 --> 00:52:39,898 Это второй вопрос. 936 00:52:39,898 --> 00:52:42,398 И наконец третий вопрос - 937 00:52:42,398 --> 00:52:45,338 фундаментальная идея о согласии. 938 00:52:45,338 --> 00:52:48,528 Эту мысль высказала Кэтлин. 939 00:52:48,528 --> 00:52:52,719 Если бы юнга согласился сам, 940 00:52:52,719 --> 00:52:54,499 и никто бы его к этому не принуждал, 941 00:52:54,498 --> 00:52:57,068 как было отмечено, 942 00:52:57,068 --> 00:53:01,918 то пожертвовать его жизнью ради жизни других было вполне нормальным. 943 00:53:01,918 --> 00:53:04,900 Эту идею поддержали ещё больше людей, 944 00:53:04,900 --> 00:53:06,630 но это приводит нас 945 00:53:06,630 --> 00:53:08,528 к третьему философскому вопросу. 946 00:53:08,528 --> 00:53:11,009 Какова моральная основа 947 00:53:11,009 --> 00:53:12,838 согласия? 948 00:53:12,838 --> 00:53:14,438 949 00:53:14,438 --> 00:53:16,978 Почему акт согласия 950 00:53:16,978 --> 00:53:19,188 так существенно меняет дело с моральной точки зрения? 951 00:53:19,188 --> 00:53:23,818 Так меняет, что поступок, который в любом другом случае мы бы посчитали неправильным и назвали бы убийством, 952 00:53:23,818 --> 00:53:25,369 является допустимым 953 00:53:25,369 --> 00:53:26,358 с точки зрения морали, 954 00:53:26,358 --> 00:53:29,619 если на него было дано согласие. 955 00:53:29,619 --> 00:53:31,699 Чтобы ответить на эти три вопроса, 956 00:53:31,699 --> 00:53:34,058 нам с вами нужно будет изучить сочинения неcкольких философов. 957 00:53:34,058 --> 00:53:38,688 В следующий раз мы начнём с Бентама и Джона Стюарта Милля — 958 00:53:38,688 --> 00:53:43,798 философов-утилитаристов. 959 00:53:43,798 --> 00:53:47,298 960 00:53:43,798 --> 00:53:47,298 961 00:53:49,869 --> 00:53:56,869 962 00:54:36,219 --> 00:54:40,269 963 00:54:40,268 --> 00:54:41,678