1 00:00:33,353 --> 00:00:37,230 Это курс по теории справедливости, и мы начнём его с мысленного эксперимента. 2 00:00:37,230 --> 00:00:44,489 Представьте, что вы водитель трамвая, несущегося со скоростью 100 км/ч. 3 00:00:44,489 --> 00:00:49,360 И вдруг вдалеке на рельсах вы замечаете пятерых рабочих. 4 00:00:49,360 --> 00:00:51,569 Вы пытаетесь остановиться, но не можете: 5 00:00:51,569 --> 00:00:53,679 тормоза не работают. 6 00:00:53,679 --> 00:00:56,630 Вы в полном отчаянии, поскольку знаете, 7 00:00:56,630 --> 00:00:59,460 что если врежетесь в этих рабочих, 8 00:00:59,460 --> 00:01:01,320 то все они погибнут. 9 00:01:01,320 --> 00:01:04,879 Предположим, вы знаете это наверняка. 10 00:01:04,879 --> 00:01:07,019 Итак, вы не знаете, что делать, 11 00:01:07,019 --> 00:01:09,320 но вдруг замечаете, 12 00:01:09,320 --> 00:01:12,912 что справа есть боковая ветка. 13 00:01:12,912 --> 00:01:18,336 И на конце этой ветки находится только один рабочий. 14 00:01:18,830 --> 00:01:21,148 Руль трамвая исправен, 15 00:01:21,148 --> 00:01:25,728 и при желании вы можете повернуть 16 00:01:25,728 --> 00:01:28,545 на эту боковую ветку, 17 00:01:28,545 --> 00:01:30,340 убить одного рабочего, 18 00:01:30,340 --> 00:01:33,000 но спасти жизнь пятерым. 19 00:01:33,009 --> 00:01:35,819 И вот первый вопрос: 20 00:01:35,819 --> 00:01:38,656 как правильно поступить? 21 00:01:38,659 --> 00:01:40,320 Как бы вы поступили? 22 00:01:40,328 --> 00:01:41,891 Давайте проголосуем. 23 00:01:42,420 --> 00:01:47,262 Кто бы повернул на боковую ветку? 24 00:01:47,720 --> 00:01:49,703 Поднимите руки. 25 00:01:51,790 --> 00:01:55,976 Кто не стал бы этого делать и поехал бы прямо? 26 00:01:57,615 --> 00:02:01,942 Не опускайте руки те, кто поехал бы прямо. 27 00:02:03,939 --> 00:02:07,821 Подавляющее большинство повернуло бы. 28 00:02:08,198 --> 00:02:09,908 Теперь разберёмся, 29 00:02:09,908 --> 00:02:14,972 почему вы приняли именно такое решение. 30 00:02:14,979 --> 00:02:18,201 И давайте начнём с большинства, 31 00:02:18,209 --> 00:02:21,942 с тех, кто повернул бы на боковую ветку. 32 00:02:21,949 --> 00:02:23,508 Почему вы бы сделали это? 33 00:02:23,508 --> 00:02:25,638 Что сподвигло бы вас на это? 34 00:02:25,638 --> 00:02:29,859 Кто хочет высказаться? Есть добровольцы? 35 00:02:29,868 --> 00:02:32,018 Начинайте. Встаньте, пожалуйста. 36 00:02:32,018 --> 00:02:35,000 Я думаю, что неправильно убивать пять человек, 37 00:02:35,000 --> 00:02:38,935 когда есть возможность убить только одного. 38 00:02:39,476 --> 00:02:42,177 Было бы неправильно убивать пятерых, 39 00:02:42,177 --> 00:02:45,734 если вместо этого вы можете убить только одного. 40 00:02:46,877 --> 00:02:48,399 Да, неплохая причина. 41 00:02:48,399 --> 00:02:50,798 Действительно неплохая. 42 00:02:52,719 --> 00:02:53,692 Кто-нибудь ещё? 43 00:02:53,692 --> 00:02:57,364 Все согласны с таким объяснением? 44 00:02:59,552 --> 00:03:00,775 Да, пожалуйста. 45 00:03:01,252 --> 00:03:05,399 Я думаю, это похоже на случай с самолётом, 46 00:03:05,399 --> 00:03:09,259 который разбился в Пенсильвании 11 сентября. 47 00:03:09,259 --> 00:03:11,598 Те люди — настоящие герои — предпочли погибнуть, 48 00:03:11,598 --> 00:03:15,918 но не допустить бóльших жертв среди людей на земле. 49 00:03:15,918 --> 00:03:19,119 То есть они руководствовались тем же принципом: 50 00:03:19,121 --> 00:03:25,354 в такой безнадёжной ситуации лучше убить одного, но спасти пятерых. 51 00:03:25,359 --> 00:03:29,882 Именно так считают те, кто повернул бы? Верно? 52 00:03:30,528 --> 00:03:33,468 Давайте теперь послушаем мнение тех, 53 00:03:33,468 --> 00:03:35,318 кто оказался в меньшинстве, 54 00:03:35,318 --> 00:03:38,137 тех, кто не повернул бы. 55 00:03:39,148 --> 00:03:39,896 Да. 56 00:03:40,522 --> 00:03:45,282 Я думаю, что такой же подход оправдывает геноцид и тоталитаризм. 57 00:03:45,282 --> 00:03:50,234 Чтобы спасти представителей одной расы, вы уничтожаете другую. 58 00:03:50,234 --> 00:03:51,965 И что бы вы сделали в этом случае? 59 00:03:51,965 --> 00:03:57,621 Чтобы избежать ужасов геноцида, 60 00:03:57,621 --> 00:04:02,627 вы предпочли бы врезаться в пятерых рабочих и убить их? 61 00:04:03,518 --> 00:04:04,606 Думаю, да. 62 00:04:05,542 --> 00:04:06,322 Правда? 63 00:04:06,322 --> 00:04:07,073 Да. 64 00:04:07,434 --> 00:04:09,128 Хорошо, кто ещё? 65 00:04:09,806 --> 00:04:12,324 Это смелый ответ, спасибо. 66 00:04:13,251 --> 00:04:20,024 Давайте теперь рассмотрим другой пример с трамваем 67 00:04:20,034 --> 00:04:27,225 и посмотрим, будет ли большинство из вас 68 00:04:27,225 --> 00:04:30,839 придерживаться того же принципа: 69 00:04:30,839 --> 00:04:33,320 лучше убить одного, чтобы пятеро остались живы. 70 00:04:33,320 --> 00:04:38,034 В этот раз вы не водитель трамвая, а просто наблюдатель. 71 00:04:38,034 --> 00:04:42,397 Вы стоите на мосту и наблюдаете за рельсами. 72 00:04:42,397 --> 00:04:45,588 И вот по рельсам несётся трамвай. 73 00:04:45,599 --> 00:04:49,488 На другом конце — пять рабочих. 74 00:04:49,488 --> 00:04:51,659 Тормоза не работают, 75 00:04:51,659 --> 00:04:55,761 трамвай вот-вот в них врежется и задавит. 76 00:04:55,761 --> 00:04:58,292 Сейчас вы не водитель 77 00:04:58,292 --> 00:05:00,998 и совершенно не знаете, что делать. 78 00:05:00,999 --> 00:05:02,769 И тут вы замечаете, 79 00:05:02,769 --> 00:05:06,479 что рядом с вами 80 00:05:06,479 --> 00:05:09,742 стоит, прислонившись к перилам моста, 81 00:05:09,742 --> 00:05:13,152 очень толстый человек. 82 00:05:15,264 --> 00:05:18,764 И вы могли бы 83 00:05:18,764 --> 00:05:20,124 его немного 84 00:05:20,124 --> 00:05:22,526 подтолкнуть. 85 00:05:22,526 --> 00:05:24,543 Он упал бы с моста 86 00:05:24,543 --> 00:05:27,653 прямо на рельсы, 87 00:05:27,653 --> 00:05:32,014 на пути трамвая. 88 00:05:32,014 --> 00:05:35,423 Он бы погиб, но при этом спас бы пять жизней. 89 00:05:36,079 --> 00:05:37,008 Итак. 90 00:05:38,789 --> 00:05:42,547 Кто столкнул бы толстяка с моста? 91 00:05:42,547 --> 00:05:44,059 Поднимите руки. 92 00:05:48,012 --> 00:05:50,924 Кто не стал бы этого делать? 93 00:05:50,924 --> 00:05:53,881 Большинство не стало бы. 94 00:05:53,891 --> 00:05:55,583 Возникает закономерный вопрос. 95 00:05:55,583 --> 00:05:59,976 Что стало с тем принципом: 96 00:05:59,976 --> 00:06:03,502 спасение жизни пятерых оправдывает потерю жизни одного? 97 00:06:03,502 --> 00:06:04,942 Что стало с тем принципом, 98 00:06:04,942 --> 00:06:09,235 который в первом случае поддерживали почти все? 99 00:06:09,235 --> 00:06:13,429 Я хотел бы услышать мнение тех, кто был в большинстве оба раза. 100 00:06:13,429 --> 00:06:16,414 Как вы объясните разницу между ними? 101 00:06:16,414 --> 00:06:17,895 Да, пожалуйста. 102 00:06:17,903 --> 00:06:21,508 Полагаю, что во втором случае у вас есть выбор: 103 00:06:21,508 --> 00:06:24,268 толкнуть или не толкнуть человека. 104 00:06:24,268 --> 00:06:31,329 Этот человек иначе не имел бы никакого отношения к ситуации, 105 00:06:31,329 --> 00:06:36,313 и вы как бы принимаете решение за него, 106 00:06:36,313 --> 00:06:39,906 вмешиваться в эту ситуацию или нет, 107 00:06:39,906 --> 00:06:42,768 в отличие от первого случая, 108 00:06:42,768 --> 00:06:47,838 когда все три стороны — водитель и две группы рабочих — 109 00:06:47,838 --> 00:06:50,456 уже принимают активное участие в ситуации. 110 00:06:50,456 --> 00:06:54,891 Но ведь тот парень, который в одиночку работает на боковой ветке, 111 00:06:54,891 --> 00:06:57,561 не принимал решение пожертвовать своей жизнью, 112 00:06:57,561 --> 00:07:01,836 точно так же, как тот толстяк на мосту, не так ли? 113 00:07:01,836 --> 00:07:05,338 Да, это так, но он был на рельсах. 114 00:07:05,339 --> 00:07:07,797 А этот парень был на мосту! 115 00:07:10,324 --> 00:07:12,376 Если хотите, можете продолжить. 116 00:07:13,250 --> 00:07:15,267 Ладно, это непростой вопрос, 117 00:07:15,267 --> 00:07:16,987 но вы очень хорошо справились. 118 00:07:16,987 --> 00:07:19,036 Очень непростой вопрос. 119 00:07:19,527 --> 00:07:21,030 Кто-нибудь ещё 120 00:07:21,030 --> 00:07:22,250 хочет попробовать 121 00:07:22,250 --> 00:07:25,930 объяснить, почему большинство 122 00:07:25,930 --> 00:07:28,420 именно так отреагировало в обоих этих случаях? 123 00:07:28,860 --> 00:07:29,766 Прошу. 124 00:07:29,770 --> 00:07:32,150 Полагаю, что в первом случае, 125 00:07:32,150 --> 00:07:35,721 в котором пять рабочих на основной ветке и один на боковой, 126 00:07:35,733 --> 00:07:37,370 вам необходимо сделать выбор 127 00:07:37,370 --> 00:07:40,948 и принять какое-то решение, иначе эти пять человек погибнут под трамваем, 128 00:07:40,948 --> 00:07:42,868 но вы за это не несёте ответственности. 129 00:07:42,868 --> 00:07:45,048 Вагон несётся на большой скорости, 130 00:07:45,048 --> 00:07:47,768 и вам нужно принять мгновенное решение, 131 00:07:47,768 --> 00:07:52,158 а, сталкивая толстяка с моста, вы совершаете убийство. 132 00:07:52,158 --> 00:07:57,258 Вы можете это контролировать, в отличие от вагона. 133 00:07:57,258 --> 00:07:59,876 Поэтому я считаю, что это немного другой случай. 134 00:07:59,876 --> 00:08:04,359 Хорошо. Кто хочет возразить? Это было неплохо. 135 00:08:04,359 --> 00:08:06,243 Кто хочет ответить? 136 00:08:06,243 --> 00:08:09,161 Объясняет ли это ситуацию? 137 00:08:09,161 --> 00:08:11,600 Не думаю, что это удачное объяснение, 138 00:08:11,600 --> 00:08:14,158 потому что вам всё равно нужно решить, кто умрёт. 139 00:08:14,158 --> 00:08:16,698 Либо вы решаете повернуть и убить одного рабочего, 140 00:08:16,698 --> 00:08:19,638 что будет вашим сознательным решением, 141 00:08:19,638 --> 00:08:21,817 либо вы решаете столкнуть толстяка, 142 00:08:21,817 --> 00:08:24,477 что также будет вашим сознательным решением. 143 00:08:24,477 --> 00:08:27,511 Так что вы в любом случае делаете какой-то выбор. 144 00:08:27,511 --> 00:08:29,625 Хотите возразить? 145 00:08:29,629 --> 00:08:33,944 Я не уверен, что это так. Мне кажется, всё равно есть определённая разница. 146 00:08:33,944 --> 00:08:37,230 Если вы сталкиваете кого-то с моста и убиваете его, 147 00:08:37,230 --> 00:08:39,772 то в этом случае вы делаете это своими руками. 148 00:08:39,772 --> 00:08:42,260 Толкаете своими собственными руками. 149 00:08:42,260 --> 00:08:43,769 И это отличается от ситуации, 150 00:08:43,769 --> 00:08:49,099 когда вы управляете тем, что может стать причиной смерти. 151 00:08:49,109 --> 00:08:52,626 Теперь мне самому это не очень нравится. 152 00:08:52,626 --> 00:08:54,295 Всё нормально. Как вас зовут? 153 00:08:54,295 --> 00:08:55,378 Эндрю. 154 00:08:55,378 --> 00:08:58,905 Позвольте задать вам вопрос, Эндрю. 155 00:08:58,905 --> 00:09:01,910 Допустим, 156 00:09:01,910 --> 00:09:03,461 вы стоите на мосту 157 00:09:03,461 --> 00:09:04,701 рядом с толстяком, 158 00:09:04,701 --> 00:09:06,001 и вам не нужно его толкать. 159 00:09:06,001 --> 00:09:07,669 Допустим, он стоит, 160 00:09:07,669 --> 00:09:14,437 прислонившись к дверце, которую вы можете открыть, повернув рычаг. 161 00:09:17,108 --> 00:09:18,391 Вы бы повернули? 162 00:09:18,391 --> 00:09:23,003 Не знаю почему, но это всё равно как-то неправильно. 163 00:09:23,003 --> 00:09:29,680 Возможно, если бы вы случайно задели этот рычаг или что-то в этом роде... 164 00:09:29,680 --> 00:09:31,897 Или, например, вагон 165 00:09:31,897 --> 00:09:37,556 катился бы к какому-нибудь переключателю, который откроет эту дверцу. 166 00:09:37,561 --> 00:09:39,051 Тогда ещё куда ни шло. 167 00:09:39,051 --> 00:09:42,590 Вполне логично. Как бы то ни было, это всё равно кажется неправильным. 168 00:09:42,590 --> 00:09:46,054 Как и в первом случае кажется, что правильным было бы повернуть. 169 00:09:46,054 --> 00:09:50,383 С другой стороны, в первом случае вы непосредственно вовлечены в ситуацию, 170 00:09:50,383 --> 00:09:52,535 а во втором — нет. 171 00:09:52,535 --> 00:09:55,521 И у вас есть выбор: вмешиваться или нет. 172 00:09:55,521 --> 00:09:59,341 Давайте на минуту забудем об этом случае. 173 00:09:59,341 --> 00:10:01,212 Это было неплохо. 174 00:10:01,212 --> 00:10:06,276 Давайте представим другой случай. Теперь вы врач в отделении экстренной помощи. 175 00:10:06,276 --> 00:10:09,667 И к вам поступают шесть пациентов. 176 00:10:11,382 --> 00:10:16,562 Они попали в ужасную аварию с трамваем. 177 00:10:18,212 --> 00:10:21,818 Пять из них ещё держатся, но один уже при смерти. 178 00:10:21,818 --> 00:10:27,342 Вы можете потратить весь день, пытаясь спасти жизнь одного, 179 00:10:27,342 --> 00:10:28,929 но тогда остальные пятеро умрут. 180 00:10:29,181 --> 00:10:32,181 Или вы могли бы попытаться спасти тех пятерых, 181 00:10:32,181 --> 00:10:36,025 но за это время умрёт тот, кто тяжело ранен. 182 00:10:36,326 --> 00:10:38,418 Кто спас бы пятерых? 183 00:10:39,176 --> 00:10:40,701 Теперь уже в качестве врача. 184 00:10:40,701 --> 00:10:42,757 Кто спас бы одного? 185 00:10:44,175 --> 00:10:45,577 Немногие. 186 00:10:46,138 --> 00:10:47,891 Всего лишь несколько человек. 187 00:10:49,061 --> 00:10:51,302 Полагаю, вы руководствовались тем же принципом: 188 00:10:51,302 --> 00:10:55,263 лучше спасти пять жизней, но при этом пожертвовать одной. 189 00:10:55,482 --> 00:10:58,726 Теперь рассмотрим другой случай с доктором. 190 00:10:58,950 --> 00:11:01,215 На этот раз вы хирург. 191 00:11:01,890 --> 00:11:03,965 И к вам в больницу попало пять пациентов, 192 00:11:04,100 --> 00:11:09,399 каждому из которых срочно требуется пересадка органа, иначе они умрут. 193 00:11:09,399 --> 00:11:14,909 Одному нужно сердце, другому — лёгкое, третьему — почка, четвёртому — печень, 194 00:11:14,909 --> 00:11:18,828 а пятому — поджелудочная железа. 195 00:11:20,059 --> 00:11:21,762 Но у вас нет доноров. 196 00:11:22,571 --> 00:11:26,467 Ещё совсем немного — и пациенты умрут. 197 00:11:27,360 --> 00:11:30,477 Но вдруг оказывается, 198 00:11:30,477 --> 00:11:32,327 что в соседней палате 199 00:11:32,327 --> 00:11:35,740 сидит здоровый парень, который пришёл на приём к доктору. 200 00:11:39,260 --> 00:11:40,651 И он... 201 00:11:43,577 --> 00:11:45,514 Вам это нравится. 202 00:11:47,029 --> 00:11:50,282 Он ненадолго задремал. 203 00:11:52,999 --> 00:11:56,439 Вы могли бы очень тихо войти 204 00:11:56,439 --> 00:11:58,177 и извлечь пять его органов. 205 00:11:58,177 --> 00:12:02,701 Этот человек умрёт, но вы сможете спасти пятерых. 206 00:12:03,200 --> 00:12:04,993 Кто бы это сделал? 207 00:12:07,176 --> 00:12:08,472 Хоть кто-нибудь? 208 00:12:10,331 --> 00:12:14,696 Сколько вас? Поднимите руки, если бы вы это сделали. 209 00:12:17,803 --> 00:12:19,564 Кто-нибудь с балкона? 210 00:12:20,528 --> 00:12:21,236 Вы? 211 00:12:21,782 --> 00:12:24,272 Аккуратно, не слишком перегибайтесь. 212 00:12:26,562 --> 00:12:28,546 Кто не стал бы этого делать? 213 00:12:29,221 --> 00:12:29,938 Хорошо. 214 00:12:30,222 --> 00:12:32,246 Выскажитесь, там на балконе. 215 00:12:32,246 --> 00:12:35,429 Вы бы извлекли органы, почему? 216 00:12:35,836 --> 00:12:39,354 Я бы хотел предложить другой вариант: 217 00:12:39,354 --> 00:12:42,665 взять органы только у того из больных, кто умрёт первым, 218 00:12:42,982 --> 00:12:48,963 и воспользоваться его здоровыми органами, чтобы спасти оставшихся четверых. 219 00:12:49,722 --> 00:12:52,316 Это довольно хорошая идея. 220 00:12:54,439 --> 00:12:56,561 Это просто отличная идея, 221 00:12:57,650 --> 00:12:59,687 если исключить тот факт, 222 00:13:00,079 --> 00:13:03,814 что вы только что разрушили философский замысел. 223 00:13:04,699 --> 00:13:07,220 Давайте отвлечёмся 224 00:13:07,220 --> 00:13:10,240 от этих конкретных случаев и их обсуждения, 225 00:13:10,240 --> 00:13:16,669 чтобы отметить пару моментов, к которым привела наша дискуссия. 226 00:13:17,230 --> 00:13:24,991 Из наших обсуждений проявляются нравственные принципы. 227 00:13:25,900 --> 00:13:30,588 Давайте рассмотрим, что из себя представляют эти принципы. 228 00:13:31,160 --> 00:13:35,332 Первый нравственный принцип, появившийся в дискуссии, гласил: 229 00:13:35,660 --> 00:13:40,510 правильный, нравственный поступок зависит от последствий, 230 00:13:40,510 --> 00:13:44,176 к которым приводят ваши действия. 231 00:13:45,384 --> 00:13:51,415 Лучше, чтобы выжили пятеро, даже если для этого один должен умереть. 232 00:13:52,110 --> 00:13:57,979 Это пример консеквенциальной аргументации. 233 00:13:58,880 --> 00:14:04,689 При консеквенциальном подходе моральная ценность выражается в последствиях, 234 00:14:04,689 --> 00:14:08,079 к которым привели ваши действия. 235 00:14:08,859 --> 00:14:12,539 Потом мы пошли немного дальше и рассмотрели другие случаи, 236 00:14:12,539 --> 00:14:19,277 и люди уже были не столь уверены в правильности консеквенционализма. 237 00:14:20,459 --> 00:14:25,590 Когда люди не решались столкнуть толстого мужчину с моста 238 00:14:25,590 --> 00:14:29,470 или изъять органы невинного пациента, 239 00:14:29,470 --> 00:14:36,681 они указывали на доводы, связанные с сущностью самого действия. 240 00:14:38,982 --> 00:14:42,549 Теперь им было уже неважно, какими будут последствия в итоге. 241 00:14:42,549 --> 00:14:44,425 Люди сопротивлялись. 242 00:14:44,969 --> 00:14:49,289 Они думали, что это просто неправильно, категорически неправильно 243 00:14:49,290 --> 00:14:55,896 убить невинного человека, даже ради спасения пяти жизней. 244 00:14:56,388 --> 00:14:58,416 По крайней мере, они так считали 245 00:14:58,416 --> 00:15:03,019 во второй версии каждого рассмотренного сюжета. 246 00:15:03,786 --> 00:15:15,355 Это второй, категорический способ выстраивания аргументации. 247 00:15:15,773 --> 00:15:18,931 Такая аргументация определяет мораль как соответствие действий 248 00:15:18,931 --> 00:15:21,238 определённым абсолютным этическим требованиям, 249 00:15:21,238 --> 00:15:23,748 категорическим правам и обязанностям, 250 00:15:23,748 --> 00:15:26,216 независимо от последствий. 251 00:15:27,240 --> 00:15:31,535 На протяжении нескольких недель мы будем изучать разницу 252 00:15:31,535 --> 00:15:35,894 между консеквенциальной и категорической аргументацией. 253 00:15:36,489 --> 00:15:43,450 Важнейший пример консеквенциальной аргументации — это утилитаризм, доктрина, 254 00:15:43,450 --> 00:15:49,915 предложенная английским политическим философом 18-го века Иеремией Бентамом. 255 00:15:51,020 --> 00:15:56,619 Наиболее видный сторонник категорической аргументации — 256 00:15:56,619 --> 00:16:01,832 немецкий философ 18-го века Иммануил Кант. 257 00:16:02,414 --> 00:16:07,060 Мы остановимся на этих двух разных видах нравственной аргументации, 258 00:16:07,060 --> 00:16:10,115 дадим им оценку, а также рассмотрим другие. 259 00:16:10,569 --> 00:16:15,860 Из учебной программы видно, что мы изучим множество великих и известных книг: 260 00:16:15,860 --> 00:16:21,949 сочинения Аристотеля, Джона Локка, Иммануила Канта, Джона Стюарта Милля, 261 00:16:21,949 --> 00:16:23,112 и других. 262 00:16:23,860 --> 00:16:27,647 Обратите внимание на то, что мы не только изучим эти книги, 263 00:16:28,060 --> 00:16:34,159 но и рассмотрим современные политические и правовые дискуссии, 264 00:16:34,159 --> 00:16:36,623 касающиеся философских вопросов. 265 00:16:36,923 --> 00:16:41,269 Мы будем говорить о равенстве и неравенстве, о позитивной дискриминации, 266 00:16:41,269 --> 00:16:43,386 о свободе слова и языке вражды, 267 00:16:43,386 --> 00:16:46,302 об однополых браках и воинской повинности. 268 00:16:46,631 --> 00:16:50,680 Эти и другие прикладные вопросы будут подняты, 269 00:16:50,680 --> 00:16:55,190 чтобы не только «оживить» отвлечённые от реальной жизни книги, 270 00:16:55,190 --> 00:16:59,430 но и внести ясность в то, с чем мы сталкиваемся каждый день в обычной жизни, 271 00:16:59,430 --> 00:17:04,924 включая политические вопросы. 272 00:17:05,524 --> 00:17:10,098 После изучения этих книг и обсуждения прикладных вопросов, 273 00:17:10,098 --> 00:17:14,360 мы увидим, как они дополняют и освещают друг друга. 274 00:17:15,350 --> 00:17:21,326 Это звучит заманчиво, но я должен предупредить. 275 00:17:22,449 --> 00:17:23,866 И вот о чём. 276 00:17:25,149 --> 00:17:34,009 Чтение этих книг ради упражнений в самопознании 277 00:17:34,009 --> 00:17:38,129 несёт в себе определённые риски, 278 00:17:38,129 --> 00:17:41,361 как индивидуальные, так и политические. 279 00:17:41,789 --> 00:17:46,788 Риски, о которых знает каждый студент курса политической философии. 280 00:17:47,600 --> 00:17:54,030 Эти риски вытекают из того, что философия учит нас, 281 00:17:54,030 --> 00:17:59,883 побуждает нас сомневаться и противоречить тому, что мы уже знаем. 282 00:18:01,159 --> 00:18:03,269 Парадоксально, 283 00:18:03,269 --> 00:18:08,901 но сложность этого курса в том, что вы изучаете уже давно известное вам. 284 00:18:09,669 --> 00:18:15,797 Знания, которые мы получили из известных неоспоримых истин, 285 00:18:16,319 --> 00:18:18,616 превращаются в чуждые. 286 00:18:20,029 --> 00:18:23,099 Именно так работают наши примеры, 287 00:18:23,099 --> 00:18:28,059 шуточные гипотетические случаи, с которых мы начали лекцию. 288 00:18:28,899 --> 00:18:31,411 Точно такое же влияние оказывают книги по философии. 289 00:18:31,580 --> 00:18:35,390 Философия отстраняет нас 290 00:18:35,390 --> 00:18:37,340 от хорошо известных истин, 291 00:18:37,340 --> 00:18:40,250 не давая при этом новой информации, 292 00:18:40,250 --> 00:18:43,550 но увлекая за собой и провоцируя на то, 293 00:18:43,550 --> 00:18:46,734 чтобы посмотреть на вещи по-новому. 294 00:18:47,239 --> 00:18:49,103 Но здесь кроется риск. 295 00:18:49,800 --> 00:18:54,080 Когда однажды привычное станет чуждым, 296 00:18:54,080 --> 00:18:56,833 оно уже никогда не будет прежним. 297 00:18:57,409 --> 00:19:00,099 Самопознание 298 00:19:00,099 --> 00:19:02,419 похоже на потерю невинности. 299 00:19:02,780 --> 00:19:05,710 Однако то, что вы обнаружите, изменив привычное ви́дение, 300 00:19:05,710 --> 00:19:08,842 уже не будет для вас неожиданным 301 00:19:09,489 --> 00:19:11,265 или неизвестным. 302 00:19:13,180 --> 00:19:16,097 Это делает наш курс сложным, 303 00:19:17,190 --> 00:19:19,759 но от этого не менее захватывающим. 304 00:19:19,759 --> 00:19:23,760 Моральная и политическая философия — это история, 305 00:19:25,200 --> 00:19:29,280 и вы никогда не знаете, куда она вас приведёт, но вы точно знаете, 306 00:19:29,280 --> 00:19:31,119 что эта история 307 00:19:31,119 --> 00:19:33,087 о вас самих. 308 00:19:34,279 --> 00:19:36,346 Это индивидуальный риск. 309 00:19:36,970 --> 00:19:39,451 Теперь рассмотрим политические риски. 310 00:19:39,979 --> 00:19:42,920 Одним из способов пробудить у вас интерес к этому курсу 311 00:19:42,920 --> 00:19:44,608 было бы пообещать вам, 312 00:19:44,608 --> 00:19:46,300 что после прочтения этих книг 313 00:19:46,300 --> 00:19:48,080 и обсуждения определённых вопросов 314 00:19:48,080 --> 00:19:50,987 вы станете более ответственным членом общества. 315 00:19:51,719 --> 00:19:57,070 Вы изучите основы публичной политики, отточите свои политические суждения 316 00:19:57,070 --> 00:20:01,169 и научитесь более эффективно участвовать в общественной жизни. 317 00:20:02,549 --> 00:20:05,630 Но это было бы однобокое и в целом неверное обещание. 318 00:20:06,439 --> 00:20:10,718 Политическая философия, по большому счёту, состоит в другом. 319 00:20:11,449 --> 00:20:14,090 Нам необходимо допустить, 320 00:20:14,429 --> 00:20:18,046 что политическая философия, наоборот, может сделать вас плохим, 321 00:20:18,840 --> 00:20:21,113 а не хорошим гражданином. 322 00:20:21,530 --> 00:20:23,700 Или, по крайней мере, плохим гражданином 323 00:20:23,700 --> 00:20:27,104 до того, как вы станете хорошим. 324 00:20:27,869 --> 00:20:30,200 Это происходит потому, что занятия философией 325 00:20:30,200 --> 00:20:32,220 удаляют нас от реальности 326 00:20:32,220 --> 00:20:35,905 и порой даже заводят в тупик. 327 00:20:36,370 --> 00:20:39,709 Давайте вернёмся во времена Сократа 328 00:20:39,709 --> 00:20:41,569 и обратимся к диалогу «Горгий», 329 00:20:41,569 --> 00:20:45,390 в котором друг Сократа, Калликл, 330 00:20:45,390 --> 00:20:48,842 пытается отговорить его от философствований. 331 00:20:49,670 --> 00:20:54,310 Калликл говорит ему, что философия, конечно, милая забава, 332 00:20:54,310 --> 00:20:57,585 если предаваться ей в разумных пределах и в определённом возрасте. 333 00:20:57,830 --> 00:21:03,254 Но если кто-то погружается в неё глубже, чем требуется, это заканчивается плачевно. 334 00:21:03,599 --> 00:21:06,319 «Прими мой совет, — говорит Калликл, 335 00:21:06,319 --> 00:21:08,199 оставь словопрения 336 00:21:08,199 --> 00:21:10,688 и обратись к жизни деятельной. 337 00:21:11,180 --> 00:21:16,210 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 338 00:21:16,780 --> 00:21:19,859 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 339 00:21:19,859 --> 00:21:22,189 и благословлён другими достоинствами». 340 00:21:22,189 --> 00:21:28,203 Другими словами, Калликл убеждает Сократа оставить философствования, 341 00:21:28,500 --> 00:21:30,439 обратиться к реальности, 342 00:21:30,439 --> 00:21:33,231 поступить в бизнес-школу. 343 00:21:34,990 --> 00:21:37,607 И Калликл был по-своему прав. 344 00:21:38,149 --> 00:21:42,030 Он был прав в том, что философия уводит нас в сторону 345 00:21:42,030 --> 00:21:44,949 от традиций, установленных допущений 346 00:21:44,949 --> 00:21:46,539 и устоявшихся убеждений. 347 00:21:46,539 --> 00:21:48,270 Здесь нас и подстерегают опасности, 348 00:21:48,270 --> 00:21:49,840 индивидуальные и политические. 349 00:21:49,840 --> 00:21:53,319 В ответ на их угрозу сознание включает защитный механизм, 350 00:21:54,089 --> 00:21:56,913 этот механизм мы назвали скептицизмом. 351 00:21:57,470 --> 00:22:03,660 Допустим, что мы так и не смогли прийти к единому мнению по вопросам, 352 00:22:03,660 --> 00:22:08,921 с обсуждения которых мы начали эту лекцию. 353 00:22:09,499 --> 00:22:11,060 Но если ни Аристотель, 354 00:22:11,060 --> 00:22:16,950 ни Локк, ни Кант, ни Милль не дали на них ответа за всё это время, 355 00:22:16,950 --> 00:22:23,052 то кто мы такие, те, кто собрались в этом зале на семестр, 356 00:22:23,470 --> 00:22:25,796 чтобы вдруг разрешить их? 357 00:22:26,260 --> 00:22:29,220 Может быть определённое ви́дение мира — 358 00:22:29,220 --> 00:22:34,070 это личное дело каждого человека и к этому больше нечего добавить? 359 00:22:34,070 --> 00:22:36,239 И правильного ответа не существует. 360 00:22:36,239 --> 00:22:37,649 Это попытка бегства. 361 00:22:37,650 --> 00:22:39,380 Бегства в скептицизм. 362 00:22:39,380 --> 00:22:41,993 На это я ответил бы следующим образом. 363 00:22:42,439 --> 00:22:46,801 Да, над этими вопросами люди бьются долгое время. 364 00:22:47,380 --> 00:22:49,059 Но сам факт того, 365 00:22:49,059 --> 00:22:52,600 что они возвращаются к нам нерешёнными, настойчиво требуя от нас ответа, 366 00:22:52,600 --> 00:22:54,650 с одной стороны, говорит о том, 367 00:22:54,650 --> 00:22:56,989 что разрешить их невозможно, 368 00:22:56,989 --> 00:22:59,729 а с другой — о том, что их возникновение неизбежно. 369 00:22:59,729 --> 00:23:02,289 И причина их неизбежности в том, 370 00:23:02,289 --> 00:23:09,308 что каждому из нас приходится ежедневно отвечать на эти вопросы самостоятельно. 371 00:23:09,949 --> 00:23:15,970 Скептицизм, побуждающий нас отказаться от любых попыток найти ответы, 372 00:23:15,970 --> 00:23:18,059 не может являться решением. 373 00:23:18,059 --> 00:23:19,580 Иммануил Кант 374 00:23:19,580 --> 00:23:22,608 очень ёмко описал несостоятельность скептицизма: 375 00:23:22,970 --> 00:23:26,038 «Скептицизм есть привал для человеческого разума, 376 00:23:26,038 --> 00:23:28,999 где он может обдумать своё догматическое странствие, 377 00:23:28,999 --> 00:23:32,659 но это вовсе не место для постоянного пребывания». 378 00:23:32,659 --> 00:23:35,750 «Простое принятие скептицизма, — пишет Кант, — 379 00:23:35,750 --> 00:23:41,083 никогда не удовлетворит страждущий разум». 380 00:23:42,590 --> 00:23:46,529 Этими примерами я пытался дать вам представление о том, 381 00:23:46,529 --> 00:23:49,758 с какими опасностями и искушениями сталкивается ступивший на путь 382 00:23:49,758 --> 00:23:51,571 философского познания. 383 00:23:51,658 --> 00:23:54,855 В заключение я хотел бы сказать, 384 00:23:55,509 --> 00:23:58,039 что задача этого курса — 385 00:23:58,039 --> 00:24:01,226 разбудить страждущий разум 386 00:24:01,939 --> 00:24:04,090 и показать, как далеко он может нас увести. 387 00:24:04,200 --> 00:24:06,437 Спасибо за внимание. 388 00:24:15,370 --> 00:24:16,960 В такой отчаянной ситуации 389 00:24:16,960 --> 00:24:19,059 вы должны сделать всё, чтобы выжить. 390 00:24:19,059 --> 00:24:22,629 Вы должны сделать всё, что возможно? Да, вы должны сделать всё, что можете. 391 00:24:22,629 --> 00:24:25,699 Если вы девятнадцать дней ничего не ели, 392 00:24:25,700 --> 00:24:30,339 кто-то из вас должен пожертвовать собой ради спасения остальных. 393 00:24:30,339 --> 00:24:31,859 Отлично. Как вас зовут? 394 00:24:32,139 --> 00:24:32,949 Маркус. 395 00:24:33,429 --> 00:24:35,564 Что вы ответите Маркусу? 396 00:24:40,419 --> 00:24:44,489 В прошлый раз 397 00:24:44,489 --> 00:24:46,780 мы начали 398 00:24:46,780 --> 00:24:48,820 с нескольких историй, 399 00:24:48,820 --> 00:24:50,759 с нескольких моральных дилемм: 400 00:24:50,759 --> 00:24:52,689 о трамваях, 401 00:24:52,689 --> 00:24:54,309 докторах, 402 00:24:54,309 --> 00:24:56,209 а также о здоровых пациентах, 403 00:24:56,209 --> 00:25:00,689 рискующих стать жертвами трансплантации органов. 404 00:25:00,690 --> 00:25:03,799 Мы обратили внимание на две особенности 405 00:25:03,799 --> 00:25:06,690 в доводах, которые мы приводили. 406 00:25:06,690 --> 00:25:09,689 Первая особенность связана с тем, как именно мы спорили. 407 00:25:09,689 --> 00:25:13,379 Всё началось с наших суждений об определённых случаях. 408 00:25:13,379 --> 00:25:18,170 Мы попытались сформулировать причины или принципы, 409 00:25:18,170 --> 00:25:22,329 лежащие в основе наших суждений. 410 00:25:22,329 --> 00:25:25,280 И затем, столкнувшись с новым случаем, 411 00:25:25,280 --> 00:25:30,209 мы пересматривали эти принципы, 412 00:25:30,209 --> 00:25:33,869 рассматривая один в свете другого. 413 00:25:33,869 --> 00:25:35,850 И мы чувствовали внутреннее сопротивление, 414 00:25:35,850 --> 00:25:38,860 пытаясь привести в соответствие 415 00:25:38,860 --> 00:25:41,550 наши суждения об определённых случаях 416 00:25:41,550 --> 00:25:46,270 и принципы, лежащие в основе этих суждений. 417 00:25:46,270 --> 00:25:50,459 Мы также заметили кое-что в содержании доводов, 418 00:25:50,459 --> 00:25:55,150 которые возникли в ходе обсуждения. 419 00:25:55,150 --> 00:25:57,449 Мы заметили, что иногда мы испытывали желание 420 00:25:57,449 --> 00:26:00,649 дать моральную оценку последствиям действий, 421 00:26:00,649 --> 00:26:06,389 результатам и положению дел, к которому эти действия привели. 422 00:26:06,389 --> 00:26:11,470 Мы назвали это явление консеквенциальной аргументацией. 423 00:26:11,470 --> 00:26:13,110 Но мы также заметили, 424 00:26:13,110 --> 00:26:16,300 что в некоторых ситуациях 425 00:26:16,300 --> 00:26:18,469 не только результат имел для нас 426 00:26:18,469 --> 00:26:21,309 значение. 427 00:26:21,309 --> 00:26:23,180 Иногда, 428 00:26:23,180 --> 00:26:25,249 как многие из нас почувствовали, 429 00:26:25,249 --> 00:26:31,240 не только последствия, но и сущность или характер действия 430 00:26:31,240 --> 00:26:34,769 имеет моральное значение. 431 00:26:34,769 --> 00:26:37,470 Некоторые люди утверждали, что есть определённые вещи, 432 00:26:37,470 --> 00:26:40,470 которые категорически неправильны, 433 00:26:40,470 --> 00:26:42,449 даже если за ними последует 434 00:26:42,449 --> 00:26:44,240 положительный результат. 435 00:26:44,240 --> 00:26:47,200 Даже если они приведут к спасению жизни пятерых 436 00:26:47,200 --> 00:26:49,588 ценой одной жизни. 437 00:26:49,588 --> 00:26:52,510 Таким образом, мы сравнили консеквенциальные 438 00:26:52,510 --> 00:26:54,470 моральные принципы 439 00:26:54,470 --> 00:26:57,930 и категорические. 440 00:26:57,930 --> 00:26:59,729 Cегодня 441 00:26:59,729 --> 00:27:01,149 и в ближайшие несколько дней 442 00:27:01,149 --> 00:27:05,879 мы начнём рассматривать одну из самых влиятельных 443 00:27:05,879 --> 00:27:10,969 версий консеквенциальной моральной теории — 444 00:27:10,970 --> 00:27:15,709 философию утилитаризма. 445 00:27:15,709 --> 00:27:17,410 Иеремия Бентам — 446 00:27:17,410 --> 00:27:21,660 английский политический философ 18-го века 447 00:27:21,660 --> 00:27:22,910 дал первое 448 00:27:22,910 --> 00:27:26,580 чёткое систематическое определение 449 00:27:26,580 --> 00:27:32,020 утилитаристской моральной теории. 450 00:27:32,020 --> 00:27:36,260 Идея Бентама, 451 00:27:36,260 --> 00:27:38,300 его основная мысль, 452 00:27:38,300 --> 00:27:42,770 очень проста 453 00:27:42,770 --> 00:27:48,428 и несёт интуитивно понятный посыл. 454 00:27:48,428 --> 00:27:51,600 Она заключается в следующем: 455 00:27:51,600 --> 00:27:54,439 правильное действие, 456 00:27:54,440 --> 00:27:57,619 справедливое действие 457 00:27:57,619 --> 00:28:01,269 должно максимизировать 458 00:28:01,269 --> 00:28:02,309 полезность. 459 00:28:02,309 --> 00:28:06,039 Что он имел в виду под «полезностью»? 460 00:28:06,039 --> 00:28:11,490 Под «полезностью» он имел в виду преобладание 461 00:28:11,490 --> 00:28:13,540 удовольствия над болью, 462 00:28:13,540 --> 00:28:16,670 счастья над страданием. 463 00:28:16,670 --> 00:28:22,270 И вот как он достиг принципа максимизации полезности. 464 00:28:22,270 --> 00:28:24,700 Он начал с наблюдения, заметив, 465 00:28:24,700 --> 00:28:27,660 что все мы, все люди, 466 00:28:27,660 --> 00:28:31,280 управляемы двумя полновластными «повелителями»: 467 00:28:31,280 --> 00:28:34,620 болью и удовольствием. 468 00:28:34,619 --> 00:28:42,258 Нам нравится удовольствие и не нравится боль. 469 00:28:42,258 --> 00:28:45,839 И поэтому мы всегда должны основывать наши моральные суждения, 470 00:28:45,839 --> 00:28:49,150 думаем ли мы о том, как правильно поступить в нашей частной жизни, 471 00:28:49,150 --> 00:28:52,529 или же размышляем уже в качестве законодателей или граждан 472 00:28:52,529 --> 00:28:57,029 о том, каким должен быть закон, на следующем: 473 00:28:57,029 --> 00:29:01,919 нужно действовать, индивидуально или же коллективно, 474 00:29:01,919 --> 00:29:05,838 в направлении максимизации 475 00:29:05,838 --> 00:29:07,560 общего уровня 476 00:29:07,560 --> 00:29:11,259 счастья. 477 00:29:11,259 --> 00:29:15,320 Утилитаризм Бентама иногда выражается слоганом: 478 00:29:15,320 --> 00:29:18,799 «наибольшее благо для наибольшего количества». 479 00:29:18,799 --> 00:29:22,788 Вооружившись этим базовым принципом полезности, 480 00:29:22,788 --> 00:29:28,090 давайте проверим его, применив к другому случаю. 481 00:29:28,099 --> 00:29:33,970 На этот раз история не гипотетическая, а вполне реальная. 482 00:29:33,970 --> 00:29:38,139 Дело Дадли и Стивенса. 483 00:29:38,139 --> 00:29:41,690 Это знаменитое британское судебное дело 19-ого века, 484 00:29:41,690 --> 00:29:47,479 которое часто разбирается на юридических факультетах. 485 00:29:47,479 --> 00:29:50,019 Итак, что же произошло в этом деле? 486 00:29:50,019 --> 00:29:51,799 Я вкратце изложу его суть, 487 00:29:51,799 --> 00:29:54,880 и затем я хотел бы услышать, 488 00:29:54,880 --> 00:29:57,180 как бы вы разрешили его, 489 00:29:57,180 --> 00:29:59,950 если бы оказались на месте присяжных. 490 00:30:03,669 --> 00:30:08,849 В газетном отчёте того времени оно было описано так: 491 00:30:08,849 --> 00:30:14,180 «Нет истории печальнее на свете, чем история выживших 492 00:30:14,180 --> 00:30:16,180 с яхты «Mignonette» [«Резеда»]. 493 00:30:16,180 --> 00:30:21,719 Это судно затонуло в Южной Атлантике в трёхстах милях от Мыса Доброй Надежды. 494 00:30:21,719 --> 00:30:25,920 На борту было четыре человека: капитан Дадли, 495 00:30:25,920 --> 00:30:30,020 его главный помощник Стивенс и матрос Брукс. 496 00:30:30,020 --> 00:30:32,489 Все они были «людьми с безукоризненной репутацией». 497 00:30:32,489 --> 00:30:35,719 По крайней мере, так сообщается в газетном отчёте. 498 00:30:35,719 --> 00:30:39,750 Четвёртым членом команды был Ричард Паркер — 499 00:30:39,750 --> 00:30:42,729 семнадцатилетний юнга. 500 00:30:42,729 --> 00:30:51,290 Он был сиротой, у него не было семьи, и это было его первое дальнее плавание. 501 00:30:51,290 --> 00:30:53,700 Как сообщается, он отправился в путешествие, 502 00:30:53,700 --> 00:30:56,730 не послушавшись совета своих друзей. 503 00:30:56,730 --> 00:30:59,850 Полный надежд и юношеских амбиций, 504 00:30:59,850 --> 00:31:03,000 он думал, что путешествие сделает из него мужчину. 505 00:31:03,000 --> 00:31:05,140 К сожалению, этому не суждено было произойти. 506 00:31:05,140 --> 00:31:07,479 Факты дела не были предметом спора. 507 00:31:07,479 --> 00:31:11,940 В судно ударила волна, и «Mignonette» [«Резеда»] пошла ко дну. 508 00:31:11,940 --> 00:31:14,739 Экипаж сумел сесть в спасательную шлюпку. 509 00:31:14,739 --> 00:31:18,269 Единственной едой, которую они имели, 510 00:31:18,269 --> 00:31:21,600 были две банки консервированной репы. 511 00:31:21,600 --> 00:31:23,900 Никакой питьевой воды. 512 00:31:23,900 --> 00:31:26,610 Первые три дня они ничего не ели, 513 00:31:26,609 --> 00:31:30,250 на четвёртый день они открыли одну из консервных банок 514 00:31:30,250 --> 00:31:31,530 и съели её содержимое. 515 00:31:31,530 --> 00:31:34,150 На следующий день они поймали черепаху. 516 00:31:34,150 --> 00:31:38,250 Оставшаяся банка с репой и черепаха 517 00:31:38,250 --> 00:31:40,960 помогли им продержаться ещё несколько дней, 518 00:31:40,960 --> 00:31:43,899 но затем в течение восьми дней у них уже не было ничего, 519 00:31:43,899 --> 00:31:46,749 ни еды, ни воды. 520 00:31:46,749 --> 00:31:49,929 Представьте себя в такой ситуации. 521 00:31:49,929 --> 00:31:52,699 Что бы вы сделали? 522 00:31:52,699 --> 00:31:55,049 Вот что сделали они. 523 00:31:55,049 --> 00:32:00,740 К этому моменту юнга Паркер лежал в углу на дне шлюпки, 524 00:32:00,740 --> 00:32:02,920 потому что напился морской воды, 525 00:32:02,920 --> 00:32:05,490 не послушав остальных. 526 00:32:05,490 --> 00:32:07,230 Ему сделалось дурно, 527 00:32:07,230 --> 00:32:10,619 и было понятно, что он умирает. 528 00:32:10,619 --> 00:32:14,498 На девятнадцатый день капитан Дадли предложил 529 00:32:14,498 --> 00:32:18,749 всем бросить жребий 530 00:32:18,749 --> 00:32:20,859 и определить, кому суждено умереть, 531 00:32:20,859 --> 00:32:23,820 чтобы спасти остальных. 532 00:32:23,820 --> 00:32:26,480 Брукс отказался. 533 00:32:26,480 --> 00:32:29,139 Ему не понравилась идея со жребием. 534 00:32:29,140 --> 00:32:33,079 Мы не знаем, было ли это вызвано тем, что он не хотел рисковать, 535 00:32:33,079 --> 00:32:36,859 или же тем, что он верил в категорические моральные принципы, 536 00:32:36,859 --> 00:32:42,119 но в любом случае жребий так и не был брошен. 537 00:32:42,130 --> 00:32:45,030 На следующий день спасительного корабля по-прежнему не было, 538 00:32:45,030 --> 00:32:48,300 и Дадли попросил Брукса отвернуться, 539 00:32:48,300 --> 00:32:50,730 жестом показав Стивенсу, 540 00:32:50,730 --> 00:32:53,719 что мальчишку Паркера нужно убить. 541 00:32:53,719 --> 00:32:55,850 Дадли помолился, 542 00:32:55,849 --> 00:32:58,450 сказал мальчику, что его время пришло, 543 00:32:58,450 --> 00:33:00,409 и зарезал его перочинным ножом, 544 00:33:00,409 --> 00:33:03,640 поразив ярёмную вену. 545 00:33:03,640 --> 00:33:09,670 Брукс, отрёкшийся от соображений совести, воспользовался этим жутким «подарком». 546 00:33:09,670 --> 00:33:11,049 Четыре дня 547 00:33:11,049 --> 00:33:15,230 они втроём питались телом и кровью юнги. 548 00:33:15,230 --> 00:33:17,140 Реальная история. 549 00:33:17,140 --> 00:33:19,150 А затем их спасли. 550 00:33:19,150 --> 00:33:24,619 Дадли описал это спасение в своём дневнике 551 00:33:24,619 --> 00:33:27,570 поразительным эвфемизмом. Цитата: 552 00:33:27,569 --> 00:33:29,618 «На двадцать четвёртый день, 553 00:33:29,618 --> 00:33:34,818 когда мы завтракали, 554 00:33:34,818 --> 00:33:38,599 наконец-то показался корабль». 555 00:33:38,599 --> 00:33:44,239 Трое выживших были подобраны немецким кораблём и отправлены назад в Англию, 556 00:33:44,239 --> 00:33:46,749 где их арестовали и подвергли суду. 557 00:33:46,749 --> 00:33:49,810 Брукс был свидетелем обвинения, 558 00:33:49,810 --> 00:33:51,970 а Дадли и Стивенс — обвиняемыми. 559 00:33:51,970 --> 00:33:54,370 Они не оспаривали факты. 560 00:33:54,370 --> 00:33:57,670 Они утверждали, что действовали из крайней необходимости. 561 00:33:57,670 --> 00:33:59,430 Это была их линия защиты. 562 00:33:59,430 --> 00:34:03,110 Они настаивали на том, что смерть одного человека более предпочтительна, 563 00:34:03,110 --> 00:34:06,430 чем смерть троих. 564 00:34:06,430 --> 00:34:10,849 Обвинителя не убедил такой аргумент. 565 00:34:10,849 --> 00:34:13,869 Он сказал: «Убийство есть убийство». Дело передали в суд. 566 00:34:13,869 --> 00:34:16,209 Теперь представьте, что вы присяжные. 567 00:34:16,209 --> 00:34:21,789 Чтобы упростить обсуждение, оставим в стороне вопрос права 568 00:34:21,789 --> 00:34:25,840 и представим, что как присяжные 569 00:34:25,840 --> 00:34:28,050 вы должны решить, 570 00:34:28,050 --> 00:34:34,399 было ли то, что они сделали, морально допустимым или нет. 571 00:34:34,399 --> 00:34:36,608 Кто из вас 572 00:34:36,608 --> 00:34:39,689 проголосовал бы 573 00:34:39,689 --> 00:34:46,809 за то, что они невиновны и что совершённое ими было морально допустимо? 574 00:34:49,408 --> 00:34:51,639 А кто проголосовал бы за то, что они виновны 575 00:34:51,639 --> 00:34:54,858 и что совершённое ими было недопустимо? 576 00:34:54,858 --> 00:34:57,998 Значительное большинство. 577 00:34:57,998 --> 00:35:03,808 Давайте послушаем ваши соображения. Начнём с тех, кто оказался в меньшинстве. 578 00:35:03,809 --> 00:35:07,669 Давайте сперва предоставим слово защите 579 00:35:07,669 --> 00:35:10,059 Дадли и Стивенса. 580 00:35:10,059 --> 00:35:14,149 Почему вы оправдали бы их с моральной точки зрения? 581 00:35:14,149 --> 00:35:16,369 Чем вы руководствуетесь? 582 00:35:16,369 --> 00:35:17,989 Пожалуйста. 583 00:35:17,989 --> 00:35:20,778 Я считаю это предосудительным с моральной точки зрения, 584 00:35:20,778 --> 00:35:24,229 но существует различие между тем, что нравственно предосудительно, 585 00:35:24,229 --> 00:35:26,609 и тем, что влечёт юридическую ответственность. 586 00:35:26,608 --> 00:35:32,140 Или, как мог бы сказать судья, аморальное совсем не обязательно противозаконно. 587 00:35:32,140 --> 00:35:35,989 И хотя я не считаю, что необходимость чего-либо является достаточным основанием 588 00:35:35,989 --> 00:35:38,578 для кражи, убийства или другого незаконного действия, 589 00:35:38,579 --> 00:35:45,849 степень необходимости в той или иной мере может оправдывать его. 590 00:35:45,849 --> 00:35:50,398 Хорошо. Кто ещё поддерживает эту точку зрения и согласен 591 00:35:50,398 --> 00:35:54,208 с моральными обоснованиями их действий? 592 00:35:54,208 --> 00:35:56,969 Пожалуйста. 593 00:35:56,969 --> 00:35:58,519 Спасибо. 594 00:35:58,528 --> 00:36:03,020 Я думаю, в такой отчаянной ситуации вы должны сделать всё, чтобы выжить. 595 00:36:03,020 --> 00:36:04,689 Вы должны сделать всё, что возможно? 596 00:36:04,689 --> 00:36:06,789 Да, вы должны сделать всё, что можете. 597 00:36:06,789 --> 00:36:10,409 Если вы девятнадцать дней ничего не ели, 598 00:36:10,409 --> 00:36:14,630 кто-то из вас должен пожертвовать собой ради спасения остальных. 599 00:36:14,630 --> 00:36:20,959 Более того, представим, что по возвращении домой спасшиеся, к примеру, создадут 600 00:36:20,959 --> 00:36:25,660 благотворительные организации и другие подобные вещи. И в итоге всем хорошо. 601 00:36:25,660 --> 00:36:28,109 Я не знаю, что они сделали после этого случая, 602 00:36:28,109 --> 00:36:30,549 но они вполне могли бы продолжать убивать людей... 603 00:36:30,549 --> 00:36:32,798 Что? 604 00:36:32,798 --> 00:36:35,708 А что если они вернулись домой и стали убийцами? 605 00:36:35,708 --> 00:36:39,108 Что если они вернулись домой и стали убийцами? 606 00:36:39,108 --> 00:36:42,648 Вы бы хотели знать, кого они убили. 607 00:36:42,648 --> 00:36:45,309 Да, верно. 608 00:36:45,309 --> 00:36:46,568 Я хотел бы знать это. 609 00:36:46,568 --> 00:36:50,728 Это было неплохо. Как вас зовут? Маркус. 610 00:36:50,728 --> 00:36:54,039 Мы услышали сторону защиты, пару голосов в оправдание. 611 00:36:54,039 --> 00:36:57,290 Теперь послушаем сторону обвинения. 612 00:36:57,298 --> 00:37:03,578 Большинство людей думает, что они не правы. Почему? 613 00:37:03,578 --> 00:37:04,628 Пожалуйста. 614 00:37:04,628 --> 00:37:09,078 Когда я услышала эту историю, я подумала: «Так, если они голодали очень долго, 615 00:37:09,078 --> 00:37:15,089 то может в этом случае они не были в здравом рассудке». 616 00:37:15,089 --> 00:37:20,608 И это могло послужить оправданием, в качестве возможного аргумента: 617 00:37:20,608 --> 00:37:25,859 они были не в своём уме и приняли решение, которое не приняли бы в другой ситуации. 618 00:37:25,859 --> 00:37:28,519 Думаю, это их оправдывает. 619 00:37:28,518 --> 00:37:33,348 Трезво мыслящий человек так никогда не поступит. Мне кажется, что есть люди, 620 00:37:33,348 --> 00:37:36,058 которые находят данный аргумент приемлемым. 621 00:37:36,058 --> 00:37:37,588 Вы думаете, что они поступили... 622 00:37:37,588 --> 00:37:39,298 Но я хочу знать, что думаете вы. 623 00:37:39,298 --> 00:37:42,548 Вы голосовали за то, что они виновны, верно? 624 00:37:42,548 --> 00:37:46,428 Да, я не считаю, что они действовали в рамках морали. 625 00:37:46,428 --> 00:37:51,069 Но почему нет? Вы же слышали, как Маркус защищал их. 626 00:37:51,069 --> 00:37:52,709 Он сказал... 627 00:37:52,709 --> 00:37:53,960 Вы слышали, что он сказал. 628 00:37:53,960 --> 00:37:56,339 Да, я слышала. 629 00:37:56,339 --> 00:38:00,019 Что вы должны поступать так, как того требует данная ситуация. 630 00:38:00,019 --> 00:38:04,759 Что вы ответите Маркусу? 631 00:38:04,759 --> 00:38:06,428 Я бы сказала, что 632 00:38:06,428 --> 00:38:13,459 нет такой ситуации, в которой можно было бы 633 00:38:13,459 --> 00:38:17,238 лишить человека права управлять своей судьбой или лишить человека жизни. 634 00:38:17,238 --> 00:38:19,868 У нас нет такого права. 635 00:38:19,868 --> 00:38:22,429 Хорошо, спасибо. Как вас зовут? 636 00:38:22,429 --> 00:38:23,350 Бритт. 637 00:38:23,350 --> 00:38:24,548 Бритт? Хорошо. 638 00:38:24,548 --> 00:38:25,798 Кто-нибудь ещё? 639 00:38:25,798 --> 00:38:28,059 Что вы скажете? Встаньте, пожалуйста. 640 00:38:28,059 --> 00:38:31,833 Мне вот что интересно. Если бы Дадли и Стивенс получили бы от Ричарда Паркера 641 00:38:31,833 --> 00:38:34,403 согласие 642 00:38:34,403 --> 00:38:35,543 на смерть. 643 00:38:35,543 --> 00:38:37,499 Могло бы это... 644 00:38:37,499 --> 00:38:42,268 Могло бы это оправдать совершённое убийство, 645 00:38:42,268 --> 00:38:45,269 и если да, то было бы ли это оправданно с точки зрения морали? 646 00:38:45,269 --> 00:38:49,539 Это любопытно. Согласие. Подождите, как вас зовут? 647 00:38:49,539 --> 00:38:51,639 Кэтлин. 648 00:38:51,639 --> 00:38:55,459 Кэтлин предлагает представить, как бы могла выглядеть эта сцена в таком случае. 649 00:38:55,459 --> 00:39:02,610 Итак, представьте. Дадли с ножом в руке, но вместо молитвы, 650 00:39:02,610 --> 00:39:04,588 или перед молитвой, 651 00:39:04,588 --> 00:39:06,348 он спрашивает: 652 00:39:06,348 --> 00:39:11,528 «Паркер, ты не возражаешь? 653 00:39:11,528 --> 00:39:14,348 Мы тут безумно проголодались...» 654 00:39:14,349 --> 00:39:17,679 Смотрите, как Маркус сопереживает им. 655 00:39:17,679 --> 00:39:22,089 «Мы безумно проголодались, а тебе, в любом случае, недолго осталось. 656 00:39:22,089 --> 00:39:23,458 Ты можешь стать мучеником. 657 00:39:23,458 --> 00:39:25,708 Не хочешь стать мучеником? 658 00:39:25,708 --> 00:39:29,179 Что скажешь, Паркер?» 659 00:39:29,179 --> 00:39:33,089 В этом случае 660 00:39:33,089 --> 00:39:36,939 можете ли вы оправдать это с точки зрения морали? 661 00:39:36,939 --> 00:39:42,889 Допустим, Паркер в оцепенении говорит: «Я согласен». 662 00:39:42,889 --> 00:39:45,559 Я не считаю, что это оправдывает убийство, мне просто... 663 00:39:45,559 --> 00:39:47,839 Даже в этом случае не было бы оправдания? Нет. 664 00:39:47,839 --> 00:39:52,290 Вы не считаете, что даже с согласия это может быть морально оправданно. 665 00:39:52,290 --> 00:39:57,228 Есть тут люди, готовые подхватить идею Кэтлин о согласии? 666 00:39:57,228 --> 00:40:00,148 Кто считает, что в этом случае их действия были бы оправданны? 667 00:40:00,148 --> 00:40:05,739 Поднимите руку, если вы с этим согласны. 668 00:40:05,739 --> 00:40:07,458 Вот это интересно. 669 00:40:07,458 --> 00:40:14,038 Почему же наличие согласия создало такую разницу? 670 00:40:14,038 --> 00:40:15,679 С чего бы это? 671 00:40:15,679 --> 00:40:18,419 Я думаю, что если бы Паркер сам принимал решение, 672 00:40:18,419 --> 00:40:20,899 если бы это было его собственным желанием, 673 00:40:20,899 --> 00:40:25,768 то только в такой ситуации это было бы допустимо. 674 00:40:25,768 --> 00:40:28,380 Потому что в такой ситуации вы не можете сказать, 675 00:40:28,380 --> 00:40:31,979 что на него было оказано давление, что их было трое против одного. 676 00:40:31,979 --> 00:40:33,199 Верно. 677 00:40:33,199 --> 00:40:39,430 Мне кажется, принимая такое решение, он делает это по собственной воле. 678 00:40:39,430 --> 00:40:41,478 Некоторые могут восхититься этим поступком, 679 00:40:41,478 --> 00:40:45,319 другие могут быть не согласны с такой оценкой. 680 00:40:45,319 --> 00:40:48,999 Итак, если он сам предложил эту идею, 681 00:40:48,999 --> 00:40:52,230 то это будет единственным вариантом согласия, который бы нас устроил 682 00:40:52,230 --> 00:40:54,858 с точки зрения морали. Тогда это было бы допустимо. 683 00:40:54,858 --> 00:40:57,268 В ином случае 684 00:40:57,268 --> 00:40:59,579 это будет, скажем так, согласие под принуждением, 685 00:40:59,579 --> 00:41:01,489 согласие под воздействием обстоятельств. 686 00:41:01,489 --> 00:41:05,228 Вы так считаете. 687 00:41:05,228 --> 00:41:07,349 Кто-нибудь из вас считает, 688 00:41:07,349 --> 00:41:10,859 что даже согласие Паркера 689 00:41:10,859 --> 00:41:15,479 не оправдывает его убийство? 690 00:41:15,479 --> 00:41:17,288 Кто так думает? 691 00:41:17,288 --> 00:41:19,548 Да. Расскажите нам почему. Встаньте, пожалуйста. 692 00:41:19,548 --> 00:41:22,860 Я думаю, что Паркер был убит в надежде, 693 00:41:22,860 --> 00:41:26,379 что все остальные члены экипажа впоследствии будут спасены. 694 00:41:26,379 --> 00:41:28,920 Но для его убийства нет объективных причин, 695 00:41:28,920 --> 00:41:32,319 потому что вы даже не знаете, спасут вас вообще или нет, 696 00:41:32,319 --> 00:41:34,092 и его убийство может быть напрасным. 697 00:41:34,092 --> 00:41:38,039 Вы так и будете убивать одного за другим, пока не останетесь один или вас не спасут? 698 00:41:38,039 --> 00:41:39,949 Просто потому что кто-то всё равно умрёт? 699 00:41:39,949 --> 00:41:44,159 С позиций морали смысл ситуации в том, 700 00:41:44,159 --> 00:41:50,059 что они жертвуют слабейшим, одним за другим, 701 00:41:50,059 --> 00:41:51,929 пока не будут спасены. 702 00:41:51,929 --> 00:41:57,679 И в этом случае по счастливой случайности три человека были живы, когда их спасли. 703 00:41:57,679 --> 00:42:01,210 Но если бы Паркер согласился, 704 00:42:01,210 --> 00:42:03,488 как вы думаете, это было бы правильным? 705 00:42:03,488 --> 00:42:06,329 Нет, я по-прежнему не считаю это правильным. 706 00:42:06,329 --> 00:42:08,030 Обоснуйте почему. 707 00:42:08,030 --> 00:42:12,838 Во-первых, я считаю, что каннибализм аморален в принципе. 708 00:42:12,838 --> 00:42:14,550 Есть людей нельзя ни в каком случае. 709 00:42:14,550 --> 00:42:16,819 Итак, 710 00:42:16,819 --> 00:42:22,410 каннибализм неприемлем даже в том случае, 711 00:42:22,410 --> 00:42:24,318 когда мы знаем, что человек точно умрёт? 712 00:42:24,318 --> 00:42:26,198 Даже в этом случае? 713 00:42:26,198 --> 00:42:27,959 Да, лично для меня. 714 00:42:27,959 --> 00:42:31,189 Мне кажется, что всё это зависит 715 00:42:31,199 --> 00:42:35,258 от личных моральных принципов человека. 716 00:42:35,258 --> 00:42:36,808 Это только моё мнение. 717 00:42:36,808 --> 00:42:39,339 Конечно, не все с этим согласятся. 718 00:42:39,338 --> 00:42:41,498 Хорошо. Давайте послушаем аргументы «против», 719 00:42:41,498 --> 00:42:46,199 а затем посмотрим, смогут ли они переубедить вас или нет? 720 00:42:46,199 --> 00:42:48,248 Давайте попробуем. 721 00:42:48,248 --> 00:42:50,098 Итак, 722 00:42:50,099 --> 00:42:53,249 есть ли здесь кто-нибудь, 723 00:42:53,248 --> 00:42:57,869 кому импонирует идея согласия и кто мог бы объяснить... 724 00:42:57,869 --> 00:43:03,328 Можете ли вы объяснить, почему согласие всё кардинально меняет? 725 00:43:03,328 --> 00:43:05,600 А как насчёт идеи с жребием? 726 00:43:05,600 --> 00:43:08,769 Может ли это считаться согласием? Помните, в начале истории 727 00:43:08,769 --> 00:43:10,989 Дадли предложил тянуть жребий. 728 00:43:10,989 --> 00:43:16,119 Предположим, что они согласились тянуть жребий. 729 00:43:16,119 --> 00:43:20,819 Теперь кто из вас за то, 730 00:43:20,819 --> 00:43:23,769 что это было бы правильно? Предположим, они тянули жребий, 731 00:43:23,769 --> 00:43:25,380 и юнга проиграл. 732 00:43:25,380 --> 00:43:33,160 Далее происходит история, которую мы уже знаем. Было бы тогда это допустимым? 733 00:43:33,160 --> 00:43:37,030 В случае со жребием число согласных уже больше. Давайте послушаем кого-нибудь, 734 00:43:37,030 --> 00:43:41,609 для кого с моральной точки зрения принципиален жребий. 735 00:43:41,608 --> 00:43:43,458 Почему вы так считаете? 736 00:43:43,458 --> 00:43:45,709 Я думаю, что это принципиальный момент. 737 00:43:45,719 --> 00:43:47,858 Преступлением этот поступок делает то, 738 00:43:47,858 --> 00:43:52,788 что Дадли и Стивенс в один момент решили, что их жизни важнее, чем жизнь юнги. 739 00:43:52,788 --> 00:43:56,388 И такая мысль может стать предпосылкой для любого преступления. 740 00:43:56,388 --> 00:44:01,859 То есть мои потребности и желания являются более важными, чем ваши. 741 00:44:01,859 --> 00:44:04,798 А если бы они тянули жребий, согласившись с тем, 742 00:44:04,798 --> 00:44:06,478 что кто-то из них должен умереть 743 00:44:06,478 --> 00:44:09,239 и пожертвовать таким образом собой, 744 00:44:09,239 --> 00:44:10,959 чтобы спасти остальных... 745 00:44:10,959 --> 00:44:12,919 Тогда всё будет в порядке? 746 00:44:12,919 --> 00:44:15,840 Немного абсурдно, но... 747 00:44:15,840 --> 00:44:18,828 Но допустимо с точки зрения морали? Да. 748 00:44:18,828 --> 00:44:20,958 Как вас зовут? Мэтт. 749 00:44:20,958 --> 00:44:25,578 Что ж, Мэтт, вас смущает 750 00:44:25,579 --> 00:44:28,259 не сам факт каннибализма, 751 00:44:28,259 --> 00:44:31,389 а отсутствие должной процедуры? 752 00:44:31,389 --> 00:44:34,689 Можно сказать, что да. 753 00:44:34,688 --> 00:44:38,170 Может ли кто-нибудь из тех, кто согласен с Мэттом, 754 00:44:38,170 --> 00:44:40,410 что-нибудь добавить к сказанному 755 00:44:40,410 --> 00:44:46,738 о том, почему жребий сделает этот поступок 756 00:44:46,738 --> 00:44:50,528 допустимым с точки зрения морали? 757 00:44:50,528 --> 00:44:53,938 Мне кажется, что основная проблема заключается именно в том, 758 00:44:53,938 --> 00:44:58,758 что юнгу даже не спрашивали, когда решали его судьбу. 759 00:44:58,758 --> 00:45:01,108 Даже в случае со жребием, им было всё равно, 760 00:45:01,108 --> 00:45:02,810 будет или нет он в нём участвовать. 761 00:45:02,810 --> 00:45:05,690 Было просто решено, что именно мальчик должен умереть. 762 00:45:05,690 --> 00:45:08,170 Да, так и произошло на самом деле. 763 00:45:08,170 --> 00:45:11,900 Но если бы все они тянули жребий и все были бы согласны с этой процедурой, 764 00:45:11,900 --> 00:45:13,399 считали бы вы это правильным? 765 00:45:13,399 --> 00:45:16,418 Да, потому что тогда все бы знали, что кто-то из них умрёт, 766 00:45:16,418 --> 00:45:18,879 в то время как в реальной ситуации юнга не знал, 767 00:45:18,879 --> 00:45:21,038 что Дадли и Стивенс решают его судьбу. 768 00:45:21,039 --> 00:45:26,309 Ему никто не сказал, что он может умереть. 769 00:45:26,309 --> 00:45:29,299 Хорошо, предположим, что все согласились тянуть жребий. 770 00:45:29,299 --> 00:45:34,368 Все бросили жребий. Но представьте себе, что юнга проиграл и передумал. 771 00:45:34,368 --> 00:45:37,029 Вы уже всё решили, это своего рода устное соглашение, 772 00:45:37,029 --> 00:45:40,989 вы не можете взять свои слова обратно. Решение было принято. 773 00:45:40,989 --> 00:45:45,148 Вы понимаете, что умираете ради того, чтобы спасти других. 774 00:45:45,148 --> 00:45:48,208 Вы осознаёте, что если бы кому-то другому выпал жребий умереть, 775 00:45:48,208 --> 00:45:51,009 то его так же съели бы, так что... 776 00:45:51,009 --> 00:45:56,709 Хорошо, но потом он мог бы сказать: «Знаю, но я проиграл». 777 00:45:56,709 --> 00:46:02,688 Я считаю, что основная моральная проблема в том, что юнгу никто не спрашивал. 778 00:46:02,688 --> 00:46:07,048 Самое ужасное то, что он даже не представлял, что происходит. 779 00:46:07,048 --> 00:46:10,599 Если бы он осознавал это, то результат был бы 780 00:46:10,599 --> 00:46:12,278 немного более справедливым. 781 00:46:12,278 --> 00:46:14,509 Хорошо. Теперь я хотел бы узнать вот что. 782 00:46:14,510 --> 00:46:16,919 Некоторые из вас считают, 783 00:46:16,919 --> 00:46:18,719 что это морально допустимо, 784 00:46:18,719 --> 00:46:23,878 но вас всего около 20 процентов. 785 00:46:23,878 --> 00:46:26,389 Во главе с Маркусом. 786 00:46:26,389 --> 00:46:28,439 Другие же считают, 787 00:46:28,438 --> 00:46:30,208 что основная проблема заключается 788 00:46:30,208 --> 00:46:32,678 в отсутствии согласия, 789 00:46:32,678 --> 00:46:36,919 будь то отсутствие согласия тянуть справедливый жребий 790 00:46:36,919 --> 00:46:38,488 или же, 791 00:46:38,488 --> 00:46:39,690 как считает Кэтлин, 792 00:46:39,690 --> 00:46:42,899 отсутствие согласия в момент 793 00:46:42,899 --> 00:46:44,979 смерти. 794 00:46:44,979 --> 00:46:49,038 Если мы предположим наличие согласия, то 795 00:46:49,038 --> 00:46:51,889 уже больше людей будут готовы признать, 796 00:46:51,889 --> 00:46:54,528 что эта жертва морально оправданна. 797 00:46:54,528 --> 00:46:58,388 Теперь я хочу выслушать тех, кто считает, 798 00:46:58,388 --> 00:47:00,139 что даже при наличии согласия, 799 00:47:00,139 --> 00:47:01,758 даже при использовании жребия, 800 00:47:01,759 --> 00:47:08,009 даже если бы в самый последний момент Паркер 801 00:47:08,018 --> 00:47:09,179 вяло согласился, 802 00:47:09,179 --> 00:47:12,578 это всё равно было бы неправильно. 803 00:47:12,578 --> 00:47:15,458 И я хочу услышать, почему это было бы неправильно. 804 00:47:15,458 --> 00:47:16,858 Да. 805 00:47:16,858 --> 00:47:22,718 Всё это время я склонялась к категорической аргументации. 806 00:47:22,718 --> 00:47:25,428 И думаю, 807 00:47:25,428 --> 00:47:29,368 что, возможно, я готова принять вариант со жребием, 808 00:47:29,368 --> 00:47:33,660 при котором проигравший собственноручно убивает себя. 809 00:47:33,660 --> 00:47:37,218 Тогда убийства как такового не будет, но я по-прежнему считаю, 810 00:47:37,218 --> 00:47:39,768 что даже в таком случае будет принуждение. 811 00:47:39,768 --> 00:47:43,338 И я не думаю, что тут есть раскаяние. Вспомните запись в дневнике Дадли: 812 00:47:43,338 --> 00:47:44,909 «…когда мы завтракали». 813 00:47:44,909 --> 00:47:51,799 Это выглядит так, как будто он не видит ценности в жизни других. 814 00:47:51,799 --> 00:47:55,359 Это заставляет меня принять категорическую аргументацию. 815 00:47:55,359 --> 00:47:57,489 Вы хотите наказать Дадли по полной программе, 816 00:47:57,489 --> 00:48:00,758 если он не раскаивается или не чувствует, что поступил неправильно? 817 00:48:00,758 --> 00:48:02,158 Да. 818 00:48:02,158 --> 00:48:08,769 Хорошо. Есть ещё кто-нибудь, кто считает, 819 00:48:08,769 --> 00:48:13,558 что это категорически неправильно, с согласием или без него. Да, пожалуйста. 820 00:48:13,558 --> 00:48:17,129 Я считаю, что в понятиях нашего общества убийство есть убийство. 821 00:48:17,129 --> 00:48:21,489 И в любом случае наше общество негативно к этому относится. Я не считаю, 822 00:48:21,489 --> 00:48:23,169 что это зависит от обстоятельств. 823 00:48:23,169 --> 00:48:24,720 Можно задать вам вопрос? 824 00:48:24,720 --> 00:48:27,119 На кону было три жизни 825 00:48:27,119 --> 00:48:30,489 против одной. 826 00:48:30,489 --> 00:48:34,348 У юнги не было ни семьи, ни тех, о ком нужно было заботиться. 827 00:48:34,348 --> 00:48:39,149 У трёх других человек дома остались семьи, у них были иждивенцы: 828 00:48:39,149 --> 00:48:41,198 жёны и дети. 829 00:48:41,198 --> 00:48:43,099 Вспомните Бентама. 830 00:48:43,099 --> 00:48:47,969 Бентам считал, что мы должны учитывать благосостояние, полезность и счастье 831 00:48:47,969 --> 00:48:51,298 для всех. Мы должны сложить всё вместе. 832 00:48:51,298 --> 00:48:54,509 Поэтому это не просто цифра «три» против цифры «один», 833 00:48:54,509 --> 00:48:58,599 а ещё и люди, ждущие моряков дома. 834 00:48:58,599 --> 00:49:00,959 Надо сказать, что во время разбирательства пресса 835 00:49:00,959 --> 00:49:05,438 и общественное мнение сочувствовали Дадли и Стивенсу. 836 00:49:05,438 --> 00:49:09,509 В газете писали, что если бы ими не двигали привязанность 837 00:49:09,509 --> 00:49:12,299 к своим близким, оставшимся дома, и беспокойство о них, 838 00:49:12,299 --> 00:49:14,039 они бы точно не сделали этого. 839 00:49:14,039 --> 00:49:17,369 Да, но тогда как они отличаются от людей, просящих милостыню, 840 00:49:17,369 --> 00:49:20,859 которые так же хотят прокормить свою семью? Здесь нет большой разницы. 841 00:49:20,859 --> 00:49:23,590 Если я убиваю кого-то, чтобы улучшить своё положение, 842 00:49:23,590 --> 00:49:25,280 это не перестаёт быть убийством. 843 00:49:25,280 --> 00:49:26,919 Нужно смотреть на это так. 844 00:49:26,919 --> 00:49:30,278 Мы считаем преступлениями только определённые поступки. 845 00:49:30,278 --> 00:49:33,760 При этом некоторые из них кажутся нам более жестокими и дикими, 846 00:49:33,760 --> 00:49:36,680 хотя в их основе всегда лежит один и тот же стимул: 847 00:49:36,680 --> 00:49:39,850 необходимость прокормить свои семьи. 848 00:49:39,850 --> 00:49:42,948 Предположим, что людей было бы не трое, а тридцать 849 00:49:42,948 --> 00:49:44,508 или триста. 850 00:49:44,508 --> 00:49:47,298 Пожертвовать одной жизнью, чтобы спасти три сотни 851 00:49:47,298 --> 00:49:48,349 или больше, 852 00:49:48,349 --> 00:49:49,589 три тысячи. 853 00:49:49,590 --> 00:49:51,039 А если ставки были ещё больше. 854 00:49:51,039 --> 00:49:54,358 Предположим, ставки были больше. Я думаю, это по-прежнему то же самое. 855 00:49:54,358 --> 00:49:58,619 Вы думаете, что Бентам ошибался, говоря, что необходимо 856 00:49:58,619 --> 00:50:02,378 суммировать всё общественное счастье? Вы думаете, что он ошибался насчёт этого? 857 00:50:02,378 --> 00:50:05,098 Я не считаю, что он ошибался, но убийство есть убийство. 858 00:50:05,098 --> 00:50:08,038 Значит Бентам точно ошибается. Если вы правы, то не прав он. 859 00:50:08,038 --> 00:50:09,288 Хорошо, тогда он не прав. 860 00:50:09,288 --> 00:50:13,058 Хорошо, спасибо. 861 00:50:13,058 --> 00:50:18,538 Давайте отвлечёмся от этого обсуждения 862 00:50:18,538 --> 00:50:19,728 и обратим внимание на то, 863 00:50:19,728 --> 00:50:23,159 сколько было возражений по поводу поступка Дадли и Стивенса. 864 00:50:23,159 --> 00:50:26,028 Мы услышали несколько мнений в защиту того, что они сделали. 865 00:50:26,028 --> 00:50:29,129 Их оправдывали тем, что они были в ситуации крайней необходимости, 866 00:50:29,129 --> 00:50:30,399 в ужасных обстоятельствах. 867 00:50:30,399 --> 00:50:33,339 И косвенно оправдывали количественным аргументом: 868 00:50:33,339 --> 00:50:35,868 три жизни против одной. 869 00:50:35,868 --> 00:50:40,310 Говорили, что дело не только в количестве, но и в более важных обстоятельствах, 870 00:50:40,310 --> 00:50:43,208 в том, что дома у них остались семьи и близкие. 871 00:50:43,208 --> 00:50:47,898 Паркер же был сиротой, никто бы не скучал по нему. 872 00:50:47,898 --> 00:50:52,658 Таким образом, если вы сложите всё это и попробуете оценить 873 00:50:52,658 --> 00:50:56,508 соотношение счастья и страдания, 874 00:50:56,508 --> 00:51:02,758 то у вас будут основания утверждать, что они поступили правильно. 875 00:51:02,768 --> 00:51:09,369 Затем мы услышали по крайней мере три различных типа возражений. 876 00:51:09,369 --> 00:51:11,340 Например, возражение о том, 877 00:51:11,340 --> 00:51:14,008 что их поступок был категорически неправильным. 878 00:51:14,008 --> 00:51:17,140 Прозвучавшее здесь. Категорически неправильно. 879 00:51:17,140 --> 00:51:19,460 Убийство есть убийство, и это всегда плохо, 880 00:51:19,460 --> 00:51:23,149 даже если при этом повысится общий уровень счастья 881 00:51:23,149 --> 00:51:25,599 в обществе. 882 00:51:25,599 --> 00:51:28,398 Это категорическое возражение. 883 00:51:28,398 --> 00:51:30,699 Но нам всё равно нужно понять, 884 00:51:30,699 --> 00:51:32,698 почему убийство 885 00:51:32,698 --> 00:51:35,329 является категорически неправильным. 886 00:51:35,329 --> 00:51:38,279 Потому ли, что 887 00:51:38,279 --> 00:51:42,138 даже у юнги есть фундаментальные права? 888 00:51:42,138 --> 00:51:44,280 И если в этом вся причина, 889 00:51:44,280 --> 00:51:47,750 то откуда возникают эти права, если не из идеи 890 00:51:47,750 --> 00:51:53,028 повышения общественного благосостояния, полезности или счастья? Это первый вопрос. 891 00:51:53,028 --> 00:51:56,308 Другие утверждали, 892 00:51:56,309 --> 00:51:58,199 что в случае со жребием было бы иначе. 893 00:51:58,199 --> 00:51:59,834 Справедливая процедура, 894 00:51:59,834 --> 00:52:05,934 как заметил Мэтт. 895 00:52:05,949 --> 00:52:08,668 И некоторые из вас склонились к этой точке зрения. 896 00:52:08,668 --> 00:52:11,918 Но это не совсем категорическое возражение. 897 00:52:11,918 --> 00:52:16,488 Это утверждение о том, что все должны считаться равными, 898 00:52:16,488 --> 00:52:20,599 даже если в конце концов один человек будет принесён в жертву 899 00:52:20,599 --> 00:52:23,179 ради общего блага. 900 00:52:23,179 --> 00:52:25,969 Это заставляет нас задуматься о следующем. 901 00:52:25,969 --> 00:52:29,590 Почему согласие на определённую процедуру, 902 00:52:29,590 --> 00:52:31,369 пусть даже справедливую, 903 00:52:31,369 --> 00:52:37,609 оправдывает любой результат, вытекающий из этой процедуры? 904 00:52:37,609 --> 00:52:39,758 Это второй вопрос. 905 00:52:39,758 --> 00:52:42,298 И наконец третий вопрос связан 906 00:52:42,298 --> 00:52:44,968 с фундаментальной идеей о согласии. 907 00:52:44,968 --> 00:52:48,318 Эту мысль высказала Кэтлин. 908 00:52:48,318 --> 00:52:52,659 Если бы юнга согласился сам 909 00:52:52,659 --> 00:52:54,458 и никто бы его к этому не принуждал, 910 00:52:54,458 --> 00:52:56,798 как было отмечено, 911 00:52:56,798 --> 00:53:01,728 то пожертвовать его жизнью ради жизни других было бы вполне нормальным. 912 00:53:01,728 --> 00:53:04,840 Эту идею поддержали ещё больше людей, 913 00:53:04,840 --> 00:53:08,370 но это приводит нас к третьему философскому вопросу. 914 00:53:08,370 --> 00:53:14,289 Какова моральная основа такого согласия? 915 00:53:14,289 --> 00:53:16,818 Почему акт согласия 916 00:53:16,818 --> 00:53:18,978 так существенно меняет дело с позиции морали? 917 00:53:18,978 --> 00:53:21,808 Поступок, который в любом другом случае мы бы посчитали 918 00:53:21,808 --> 00:53:23,809 неправильным и назвали бы убийством, 919 00:53:23,809 --> 00:53:26,278 мы начинаем считать допустимым, 920 00:53:26,278 --> 00:53:29,499 если на него было дано согласие. 921 00:53:29,499 --> 00:53:31,549 Чтобы ответить на эти три вопроса, 922 00:53:31,549 --> 00:53:34,058 мы с вами изучим сочинения неcкольких философов. 923 00:53:34,058 --> 00:53:38,648 В следующий раз мы начнём с Бентама и Джона Стюарта Милля — 924 00:53:38,648 --> 00:53:43,798 философов-утилитаристов.