1 00:00:03,150 --> 00:00:07,145 «The Lectures from Top Universities» представляет: 2 00:00:07,145 --> 00:00:12,585 перевод первой лекции курса «Справедливость». 3 00:00:33,265 --> 00:00:37,230 Это курс о справедливости, и мы начнём его с мысленного эксперимента. 4 00:00:37,230 --> 00:00:44,489 Представьте, что вы водитель трамвая, несущегося со скоростью 100 км/ч. 5 00:00:44,489 --> 00:00:49,350 Вдруг вдалеке на рельсах вы замечаете пятерых рабочих. 6 00:00:49,350 --> 00:00:51,569 Вы пытаетесь остановиться, но не можете: 7 00:00:51,569 --> 00:00:53,679 тормоза не работают. 8 00:00:53,679 --> 00:00:56,630 Вы в полном отчаянии, поскольку знаете, 9 00:00:56,630 --> 00:00:59,460 что если врежетесь в этих рабочих, 10 00:00:59,460 --> 00:01:01,320 то все они погибнут. 11 00:01:01,320 --> 00:01:04,879 Предположим, вы знаете это наверняка. 12 00:01:04,879 --> 00:01:07,019 Итак, вы не знаете, что делать, 13 00:01:07,019 --> 00:01:09,320 но вдруг замечаете, 14 00:01:09,320 --> 00:01:12,912 что справа есть боковая ветка 15 00:01:12,912 --> 00:01:18,976 и на конце этой ветки находится только один рабочий. 16 00:01:18,976 --> 00:01:21,188 Руль трамвая исправен, 17 00:01:21,188 --> 00:01:25,758 и при желании вы можете повернуть 18 00:01:25,758 --> 00:01:28,545 на эту боковую ветку, 19 00:01:28,545 --> 00:01:30,340 тем самым, убить одного, 20 00:01:30,340 --> 00:01:33,000 но спасти жизнь пятерым. 21 00:01:33,009 --> 00:01:35,819 И вот первый вопрос: 22 00:01:35,819 --> 00:01:38,656 как правильно поступить? 23 00:01:38,659 --> 00:01:40,320 Как бы вы поступили? 24 00:01:40,328 --> 00:01:41,891 Давайте проголосуем. 25 00:01:42,420 --> 00:01:47,722 Кто бы повернул на боковую ветку? 26 00:01:47,722 --> 00:01:50,243 Поднимите руки. 27 00:01:51,790 --> 00:01:56,456 Кто не стал бы этого делать и поехал бы прямо? 28 00:01:57,645 --> 00:02:01,942 Не опускайте руки те, кто поехал бы прямо. 29 00:02:03,989 --> 00:02:07,351 Подавляющее большинство повернуло бы. 30 00:02:08,201 --> 00:02:09,888 Теперь разберёмся, 31 00:02:09,888 --> 00:02:15,089 почему вы приняли именно такое решение. 32 00:02:15,089 --> 00:02:18,231 И давайте начнём с большинства, 33 00:02:18,231 --> 00:02:21,919 с тех, кто повернул бы на боковую ветку. 34 00:02:21,919 --> 00:02:23,508 Почему вы бы сделали это? 35 00:02:23,508 --> 00:02:25,638 Что сподвигло бы вас на это? 36 00:02:25,638 --> 00:02:28,949 Есть добровольцы? 37 00:02:29,839 --> 00:02:31,418 Начинайте. Встаньте, пожалуйста. 38 00:02:32,018 --> 00:02:35,000 Я думаю, что неправильно убивать пять человек, 39 00:02:35,000 --> 00:02:38,685 когда есть возможность убить только одного. 40 00:02:39,446 --> 00:02:42,177 Было бы неправильно убивать пятерых, 41 00:02:42,177 --> 00:02:45,964 если вместо этого вы можете убить только одного. 42 00:02:46,877 --> 00:02:48,399 Да, неплохая причина. 43 00:02:48,399 --> 00:02:50,798 Действительно неплохая. 44 00:02:52,829 --> 00:02:53,692 Кто-нибудь ещё? 45 00:02:53,692 --> 00:02:57,764 Все согласны с таким объяснением? 46 00:02:59,492 --> 00:03:01,265 Да, пожалуйста. 47 00:03:01,265 --> 00:03:05,399 Я думаю, это похоже на случай с самолётом, 48 00:03:05,399 --> 00:03:09,259 который разбился в Пенсильвании 11 сентября. 49 00:03:09,259 --> 00:03:11,598 Те люди, настоящие герои, предпочли погибнуть, 50 00:03:11,598 --> 00:03:15,918 но не допустить бóльших жертв среди людей на земле. 51 00:03:15,918 --> 00:03:19,119 То есть они руководствовались тем же принципом: 52 00:03:19,121 --> 00:03:25,219 в такой безнадёжной ситуации лучше убить одного, но спасти пятерых. 53 00:03:25,219 --> 00:03:29,592 Именно так считают те, кто повернул бы? Верно? 54 00:03:30,468 --> 00:03:33,468 Давайте теперь послушаем мнение тех, 55 00:03:33,468 --> 00:03:35,318 кто оказался в меньшинстве, 56 00:03:35,318 --> 00:03:38,137 тех, кто не повернул бы. 57 00:03:39,148 --> 00:03:39,896 Да. 58 00:03:40,732 --> 00:03:45,282 Я думаю, что такой же подход оправдывает геноцид и тоталитаризм. 59 00:03:45,282 --> 00:03:50,234 Чтобы спасти представителей одной расы, вы уничтожаете другую. 60 00:03:50,234 --> 00:03:53,235 И что бы вы сделали в этом случае? 61 00:03:53,235 --> 00:03:55,261 Чтобы избежать 62 00:03:55,261 --> 00:03:57,621 ужасов геноцида, 63 00:03:57,621 --> 00:04:02,627 вы бы предпочли врезаться в пятерых рабочих и убить их? 64 00:04:03,488 --> 00:04:04,606 Думаю, да. 65 00:04:05,542 --> 00:04:06,322 Правда? 66 00:04:06,322 --> 00:04:07,073 Да. 67 00:04:07,434 --> 00:04:09,128 Хорошо, кто ещё? 68 00:04:09,756 --> 00:04:12,324 Это смелый ответ, спасибо. 69 00:04:13,251 --> 00:04:20,024 Давайте теперь рассмотрим другой пример с трамваем 70 00:04:20,034 --> 00:04:27,225 и посмотрим, будет ли большинство из вас 71 00:04:27,225 --> 00:04:30,839 придерживаться того же принципа: 72 00:04:30,839 --> 00:04:33,320 лучше убить одного, чтобы пятеро остались живы. 73 00:04:33,320 --> 00:04:38,034 В этот раз вы не водитель трамвая, а простой наблюдатель. 74 00:04:38,034 --> 00:04:42,397 Вы стоите на мосту и видите, 75 00:04:42,397 --> 00:04:45,588 что по рельсам несётся трамвай, 76 00:04:45,588 --> 00:04:49,488 впереди чинят пути пять рабочих. 77 00:04:49,488 --> 00:04:51,659 Тормоза не работают, 78 00:04:51,659 --> 00:04:55,761 и трамвай вот-вот врежется в людей. 79 00:04:55,761 --> 00:04:58,582 Итак, вы уже не водитель, 80 00:04:58,582 --> 00:05:00,998 вы совершенно не знаете, что делать, 81 00:05:00,999 --> 00:05:02,769 как вдруг замечаете, 82 00:05:02,769 --> 00:05:06,479 что рядом с вами 83 00:05:06,479 --> 00:05:09,742 стоит, прислонившись к перилам моста, 84 00:05:09,742 --> 00:05:13,152 очень толстый человек. 85 00:05:15,264 --> 00:05:18,764 И вы могли бы 86 00:05:18,764 --> 00:05:20,124 его немного 87 00:05:20,124 --> 00:05:22,526 подтолкнуть. 88 00:05:22,526 --> 00:05:24,543 Он упал бы с моста 89 00:05:24,543 --> 00:05:27,653 прямо на рельсы, 90 00:05:27,653 --> 00:05:32,014 на пути трамвая. 91 00:05:32,014 --> 00:05:35,423 Он бы погиб, но при этом спас бы пять жизней. 92 00:05:36,079 --> 00:05:37,548 Итак. 93 00:05:38,789 --> 00:05:42,547 Кто столкнул бы толстяка с моста? 94 00:05:42,547 --> 00:05:44,059 Поднимите руки. 95 00:05:48,012 --> 00:05:50,924 Кто не стал бы этого делать? 96 00:05:50,924 --> 00:05:53,891 Большинство не стало бы. 97 00:05:53,891 --> 00:05:55,583 Возникает закономерный вопрос. 98 00:05:55,583 --> 00:05:59,976 Что стало с тем принципом: 99 00:05:59,976 --> 00:06:03,502 спасение жизни пятерых оправдывает потерю жизни одного? 100 00:06:03,502 --> 00:06:04,942 Что стало с тем принципом, 101 00:06:04,942 --> 00:06:09,235 который в первом случае поддерживали почти все? 102 00:06:09,235 --> 00:06:13,429 Я хотел бы услышать мнение тех, кто был в большинстве оба раза. 103 00:06:13,429 --> 00:06:16,414 Как вы объясните разницу между ними? 104 00:06:16,414 --> 00:06:17,895 Да, пожалуйста. 105 00:06:17,903 --> 00:06:21,508 Полагаю, что во втором случае у вас есть выбор: 106 00:06:21,508 --> 00:06:24,268 толкнуть или не толкнуть человека. 107 00:06:24,268 --> 00:06:31,329 Этот человек иначе не имел бы никакого отношения к ситуации, 108 00:06:31,329 --> 00:06:36,313 и вы как бы принимаете решение за него, 109 00:06:36,313 --> 00:06:39,906 вмешиваться в эту ситуацию или нет, 110 00:06:39,906 --> 00:06:43,328 в отличие от первого случая, 111 00:06:43,328 --> 00:06:47,838 когда все три стороны — водитель и две группы рабочих — 112 00:06:47,838 --> 00:06:50,486 уже принимают активное участие в ситуации. 113 00:06:50,486 --> 00:06:54,861 Но ведь тот парень, который работает на боковой ветке, 114 00:06:54,861 --> 00:06:57,131 не принимал решение пожертвовать своей жизнью, 115 00:06:57,131 --> 00:07:01,836 точно так же, как тот толстяк на мосту, не так ли? 116 00:07:01,836 --> 00:07:05,338 Да, это так, но он был на рельсах. 117 00:07:05,339 --> 00:07:08,117 А этот парень был на мосту! 118 00:07:10,324 --> 00:07:12,376 Если хотите, можете продолжить. 119 00:07:13,250 --> 00:07:15,267 Ладно, это непростой вопрос, 120 00:07:15,267 --> 00:07:16,987 но вы очень хорошо справились. 121 00:07:16,987 --> 00:07:19,036 Очень непростой вопрос. 122 00:07:19,527 --> 00:07:21,030 Кто-нибудь ещё 123 00:07:21,030 --> 00:07:22,250 хочет попробовать 124 00:07:22,250 --> 00:07:25,930 объяснить, почему большинство 125 00:07:25,930 --> 00:07:28,420 именно так отреагировало в обоих этих случаях? 126 00:07:28,860 --> 00:07:29,766 Прошу. 127 00:07:29,770 --> 00:07:32,150 Полагаю, что в первом случае 128 00:07:32,150 --> 00:07:35,721 с пятью рабочими на основной ветке и одним на боковой, 129 00:07:35,733 --> 00:07:37,370 вам необходимо сделать выбор 130 00:07:37,370 --> 00:07:40,948 и принять какое-то решение, иначе эти пять человек погибнут под трамваем, 131 00:07:40,948 --> 00:07:42,868 но вы за это не несёте ответственности. 132 00:07:42,868 --> 00:07:45,048 Вагон несётся на большой скорости, 133 00:07:45,048 --> 00:07:47,768 и вам нужно принять мгновенное решение, 134 00:07:47,768 --> 00:07:52,158 а, сталкивая толстяка с моста, вы совершаете убийство. 135 00:07:52,158 --> 00:07:57,258 Вы можете это контролировать в отличие от вагона. 136 00:07:57,258 --> 00:07:59,876 Поэтому я считаю, что это немного другой случай. 137 00:07:59,876 --> 00:08:04,359 Хорошо. Кто хочет возразить? Это было неплохо. 138 00:08:04,359 --> 00:08:06,243 Кто хочет ответить? 139 00:08:06,243 --> 00:08:09,161 Объясняет ли это ситуацию? 140 00:08:09,161 --> 00:08:11,600 Не думаю, что это удачное объяснение, 141 00:08:11,600 --> 00:08:14,228 потому что вам всё равно нужно решить, кто умрёт. 142 00:08:14,228 --> 00:08:16,628 Либо вы решаете повернуть и убить одного рабочего, 143 00:08:16,628 --> 00:08:19,638 что будет вашим сознательным решением, 144 00:08:19,638 --> 00:08:21,817 либо вы решаете столкнуть толстяка, 145 00:08:21,817 --> 00:08:24,477 что также будет вашим сознательным решением. 146 00:08:24,477 --> 00:08:27,561 Так что вы в любом случае делаете какой-то выбор. 147 00:08:27,561 --> 00:08:29,645 Хотите возразить? 148 00:08:29,645 --> 00:08:33,944 Я не уверен, что это так. Мне кажется, всё равно есть определённая разница. 149 00:08:33,944 --> 00:08:37,420 Если вы сталкиваете кого-то с моста и убиваете его, 150 00:08:37,420 --> 00:08:39,772 то в этом случае вы делаете это своими руками. 151 00:08:39,772 --> 00:08:42,260 Толкаете своими собственными руками. 152 00:08:42,260 --> 00:08:43,769 И это отличается от ситуации, 153 00:08:43,769 --> 00:08:48,519 когда вы управляете чем-то, что может стать причиной смерти... 154 00:08:48,519 --> 00:08:52,456 Знаете, теперь мне самому это не очень нравится... 155 00:08:52,456 --> 00:08:54,295 Нет-нет, всё нормально. Как вас зовут? 156 00:08:54,295 --> 00:08:55,398 Эндрю. 157 00:08:55,398 --> 00:08:58,905 Позвольте задать вам вопрос, Эндрю. 158 00:08:58,905 --> 00:09:01,910 Допустим, 159 00:09:01,910 --> 00:09:03,461 вы стоите на мосту 160 00:09:03,461 --> 00:09:04,701 рядом с толстяком, 161 00:09:04,701 --> 00:09:06,001 и вам не нужно его толкать. 162 00:09:06,001 --> 00:09:07,669 Допустим, он стоит, 163 00:09:07,669 --> 00:09:14,437 прислонившись к дверце, которую вы можете открыть, повернув рычаг. 164 00:09:17,068 --> 00:09:18,391 Вы бы повернули? 165 00:09:18,391 --> 00:09:23,003 Не знаю почему, но это всё равно как-то неправильно. 166 00:09:23,003 --> 00:09:29,680 Возможно, если бы вы случайно задели этот рычаг или что-то в этом роде... 167 00:09:29,680 --> 00:09:31,897 Или, например, вагон 168 00:09:31,897 --> 00:09:37,531 катился бы к какому-нибудь переключателю, который откроет эту дверцу. 169 00:09:37,531 --> 00:09:39,051 Тогда ещё куда ни шло. 170 00:09:39,051 --> 00:09:42,590 Вполне логично. Как бы то ни было, это всё равно кажется неправильным. 171 00:09:42,590 --> 00:09:46,054 Как и в первом случае кажется, что правильным было бы повернуть. 172 00:09:46,054 --> 00:09:50,363 С другой стороны, в первом случае вы непосредственно вовлечены в ситуацию, 173 00:09:50,363 --> 00:09:52,535 а во втором — нет. 174 00:09:52,535 --> 00:09:55,461 И у вас есть выбор: вмешиваться или нет. 175 00:09:55,461 --> 00:09:59,341 Давайте на минуту забудем об этом случае. 176 00:09:59,341 --> 00:10:01,212 Это было неплохо. 177 00:10:01,212 --> 00:10:06,276 Давайте представим другой случай. Теперь вы врач в отделении экстренной помощи. 178 00:10:06,276 --> 00:10:09,667 И к вам поступают шесть пациентов. 179 00:10:11,382 --> 00:10:16,562 Они попали в ужасную аварию с трамваем... 180 00:10:18,152 --> 00:10:21,698 Пять из них ещё держатся, но один уже при смерти. 181 00:10:21,698 --> 00:10:27,512 Вы можете потратить весь день, пытаясь спасти жизнь одного, 182 00:10:27,512 --> 00:10:29,419 но тогда остальные пятеро умрут. 183 00:10:29,419 --> 00:10:32,181 Или вы могли бы попытаться спасти тех пятерых, 184 00:10:32,181 --> 00:10:36,315 но за это время умрёт тот, кто тяжело ранен. 185 00:10:36,315 --> 00:10:39,358 Кто спас бы пятерых? 186 00:10:39,358 --> 00:10:40,701 Теперь уже в качестве врача. 187 00:10:40,701 --> 00:10:43,097 Кто спас бы одного? 188 00:10:44,165 --> 00:10:46,137 Крайне мало людей. 189 00:10:46,138 --> 00:10:48,061 Всего лишь несколько человек. 190 00:10:49,061 --> 00:10:51,302 Полагаю, вы руководствовались тем же принципом: 191 00:10:51,302 --> 00:10:54,823 лучше спасти пять жизней, но при этом пожертвовать одной. 192 00:10:55,483 --> 00:10:58,956 Теперь рассмотрим другой случай с доктором. 193 00:10:58,956 --> 00:11:01,215 На этот раз вы хирург. 194 00:11:01,850 --> 00:11:03,915 И к вам в больницу попало пять пациентов, 195 00:11:03,915 --> 00:11:09,399 каждому из которых срочно требуется пересадка органа, иначе они умрут. 196 00:11:09,399 --> 00:11:14,909 Одному нужно сердце, другому — лёгкое, третьему — почка, четвёртому — печень, 197 00:11:14,909 --> 00:11:18,828 а пятому — поджелудочная железа. 198 00:11:20,059 --> 00:11:21,982 Но у вас нет доноров. 199 00:11:22,571 --> 00:11:26,667 Ещё совсем немного, и пациенты умрут. 200 00:11:27,360 --> 00:11:30,477 Но вдруг оказывается, 201 00:11:30,477 --> 00:11:32,327 что в соседней палате 202 00:11:32,327 --> 00:11:35,740 сидит здоровый парень, который пришёл на приём к доктору. 203 00:11:39,260 --> 00:11:40,651 И он... 204 00:11:43,577 --> 00:11:45,514 Вам это нравится? 205 00:11:47,029 --> 00:11:50,282 Он ненадолго задремал. 206 00:11:52,999 --> 00:11:56,439 Вы могли бы очень тихо войти 207 00:11:56,439 --> 00:11:57,967 и извлечь пять его органов. 208 00:11:57,967 --> 00:12:02,621 Этот человек умрёт, но вы сможете спасти пятерых. 209 00:12:03,151 --> 00:12:05,473 Кто бы это сделал? 210 00:12:07,176 --> 00:12:08,472 Хоть кто-нибудь? 211 00:12:10,231 --> 00:12:16,136 Сколько вас? Поднимите руки, если бы вы это сделали. 212 00:12:17,763 --> 00:12:19,564 Кто-нибудь с балкона? 213 00:12:20,528 --> 00:12:21,236 Вы? 214 00:12:21,782 --> 00:12:24,272 Аккуратно, не слишком перегибайтесь. 215 00:12:26,562 --> 00:12:28,546 Кто не стал бы этого делать? 216 00:12:29,221 --> 00:12:30,228 Хорошо. 217 00:12:30,228 --> 00:12:32,246 Что скажет молодой человек на балконе? 218 00:12:32,246 --> 00:12:35,839 Вы бы извлекли органы. Почему? 219 00:12:35,839 --> 00:12:38,754 Я бы хотел предложить другой вариант: 220 00:12:38,754 --> 00:12:42,815 взять органы только у того из больных, кто умрёт первым, 221 00:12:42,815 --> 00:12:48,963 и воспользоваться его здоровыми органами, чтобы спасти оставшихся четверых. 222 00:12:49,732 --> 00:12:52,316 Это довольно хорошая идея. 223 00:12:54,439 --> 00:12:56,561 Это просто отличная идея, 224 00:12:57,650 --> 00:13:00,087 если исключить тот факт, 225 00:13:00,087 --> 00:13:04,054 что вы только что разрушили философский замысел. 226 00:13:04,714 --> 00:13:07,220 Давайте отвлечёмся 227 00:13:07,220 --> 00:13:10,240 от этих случаев и их обсуждения, 228 00:13:10,240 --> 00:13:16,669 чтобы отметить пару моментов, к которым привела наша дискуссия. 229 00:13:17,230 --> 00:13:25,361 Из наших обсуждений уже начали проявляться определённые нравственные принципы. 230 00:13:25,860 --> 00:13:30,588 Давайте рассмотрим, что из себя представляют эти принципы. 231 00:13:31,160 --> 00:13:35,662 Первый нравственный принцип, появившийся в дискуссии, гласил: 232 00:13:35,662 --> 00:13:40,540 правильный, нравственный поступок зависит от последствий, 233 00:13:40,540 --> 00:13:44,176 к которым приводят ваши действия. 234 00:13:45,384 --> 00:13:51,415 Лучше, чтобы выжили пятеро, даже если для этого один должен умереть. 235 00:13:51,990 --> 00:13:57,979 Это пример консеквенциальной аргументации. 236 00:13:58,810 --> 00:14:04,559 При консеквенциальном подходе моральная ценность выражается в последствиях, 237 00:14:04,559 --> 00:14:08,079 к которым привели ваши действия. 238 00:14:08,749 --> 00:14:12,649 Потом мы пошли немного дальше и рассмотрели другие случаи, 239 00:14:12,649 --> 00:14:19,537 и люди уже были не столь уверены в правильности консеквенционализма. 240 00:14:20,399 --> 00:14:25,590 Когда люди не решались столкнуть толстяка с моста 241 00:14:25,590 --> 00:14:29,470 или изъять органы невинного пациента, 242 00:14:29,470 --> 00:14:40,001 они указывали на доводы, связанные с сущностью самого действия. 243 00:14:40,001 --> 00:14:42,549 Теперь им было уже неважно, какими будут последствия. 244 00:14:42,549 --> 00:14:44,965 Люди сопротивлялись. 245 00:14:44,969 --> 00:14:49,369 Они думали, что это просто неправильно, категорически неправильно 246 00:14:49,369 --> 00:14:56,376 убить невинного человека, даже ради спасения пяти жизней. 247 00:14:56,376 --> 00:14:58,446 По крайней мере, они так считали 248 00:14:58,446 --> 00:15:03,019 во второй версии каждого рассмотренного сюжета. 249 00:15:03,786 --> 00:15:15,785 Это второй, категорический способ выстраивания аргументации. 250 00:15:15,785 --> 00:15:18,931 Такая аргументация определяет мораль как соответствие действий 251 00:15:18,931 --> 00:15:21,238 определённым абсолютным этическим требованиям, 252 00:15:21,238 --> 00:15:23,748 категорическим правам и обязанностям, 253 00:15:23,748 --> 00:15:26,516 независимо от последствий. 254 00:15:27,240 --> 00:15:31,535 На протяжении нескольких недель мы будем изучать разницу 255 00:15:31,535 --> 00:15:35,794 между консеквенциальной и категорической аргументацией. 256 00:15:36,489 --> 00:15:43,450 Важнейший пример консеквенциальной аргументации — это утилитаризм, доктрина, 257 00:15:43,450 --> 00:15:50,185 предложенная английским политическим философом 18-го века Иеремией Бентамом. 258 00:15:51,020 --> 00:15:58,029 Наиболее видным сторонником категорической аргументации является 259 00:15:58,029 --> 00:16:01,712 немецкий философ 18-го века Иммануил Кант. 260 00:16:02,414 --> 00:16:07,060 Мы остановимся на этих двух разных видах нравственной аргументации, 261 00:16:07,060 --> 00:16:09,935 дадим им оценку, а также рассмотрим другие. 262 00:16:10,569 --> 00:16:15,860 Из учебной программы видно, что мы изучим множество великих и известных книг: 263 00:16:15,860 --> 00:16:21,949 сочинения Аристотеля, Джона Локка, Иммануила Канта, Джона Стюарта Милля, 264 00:16:21,949 --> 00:16:23,112 и других. 265 00:16:23,860 --> 00:16:28,037 Обратите внимание на то, что мы не только изучим эти книги, 266 00:16:28,037 --> 00:16:34,159 но также рассмотрим современные политические и правовые дискуссии, 267 00:16:34,159 --> 00:16:36,893 касающиеся философских вопросов. 268 00:16:36,893 --> 00:16:41,269 Мы будем говорить о равенстве и неравенстве, о позитивной дискриминации, 269 00:16:41,269 --> 00:16:43,386 о свободе слова и языке вражды, 270 00:16:43,386 --> 00:16:46,632 об однополых браках и воинской повинности. 271 00:16:46,632 --> 00:16:50,680 Эти и другие прикладные вопросы будут подняты, 272 00:16:50,680 --> 00:16:55,190 чтобы не только «оживить» отвлечённые от реальной жизни книги, 273 00:16:55,190 --> 00:16:59,430 но и внести ясность в то, с чем мы сталкиваемся каждый день в обычной жизни, 274 00:16:59,430 --> 00:17:04,924 включая политические вопросы. 275 00:17:05,444 --> 00:17:10,018 После изучения этих книг и обсуждения прикладных вопросов, 276 00:17:10,018 --> 00:17:14,480 мы увидим, как они дополняют и освещают друг друга. 277 00:17:15,310 --> 00:17:21,506 Это звучит заманчиво, но я должен предупредить. 278 00:17:22,419 --> 00:17:23,866 И вот о чём. 279 00:17:25,089 --> 00:17:34,009 Чтение этих книг ради упражнений в самопознании 280 00:17:34,009 --> 00:17:38,129 несёт в себе определённые риски, 281 00:17:38,129 --> 00:17:41,791 как индивидуальные, так и политические; 282 00:17:41,791 --> 00:17:46,828 риски, о которых знает каждый студент курса политической философии. 283 00:17:47,600 --> 00:17:54,030 Эти риски вытекают из того, что философия учит нас, 284 00:17:54,030 --> 00:18:00,013 побуждает нас сомневаться и противоречить тому, что мы уже знаем. 285 00:18:01,159 --> 00:18:03,269 Парадоксально, 286 00:18:03,269 --> 00:18:08,901 но сложность этого курса в том, что вы изучаете то, что вы уже давно знаете. 287 00:18:09,679 --> 00:18:16,377 Знания, которые мы получили из известных неоспоримых истин, 288 00:18:16,377 --> 00:18:18,976 превращаются в чуждые. 289 00:18:20,029 --> 00:18:23,059 Именно так работают наши примеры, 290 00:18:23,059 --> 00:18:28,059 шуточные гипотетические случаи, с которых мы начали лекцию. 291 00:18:28,879 --> 00:18:31,581 Точно такое же влияние оказывают книги по философии. 292 00:18:31,581 --> 00:18:35,390 Философия отстраняет нас 293 00:18:35,390 --> 00:18:37,340 от хорошо известных истин, 294 00:18:37,340 --> 00:18:40,250 не давая при этом новой информации, 295 00:18:40,250 --> 00:18:43,550 но увлекая за собой и провоцируя на то, 296 00:18:43,550 --> 00:18:46,734 чтобы посмотреть на вещи по-новому. 297 00:18:47,239 --> 00:18:49,103 Но здесь кроется риск. 298 00:18:49,780 --> 00:18:54,080 Когда однажды привычное станет чуждым, 299 00:18:54,080 --> 00:18:56,663 оно уже никогда не будет прежним. 300 00:18:57,409 --> 00:19:00,099 Самопознание 301 00:19:00,099 --> 00:19:02,279 похоже на потерю невинности. 302 00:19:02,780 --> 00:19:05,710 Однако то, что вы обнаружите, изменив привычное ви́дение, 303 00:19:05,710 --> 00:19:09,492 уже не будет для вас неожиданным 304 00:19:09,492 --> 00:19:11,265 или неизвестным. 305 00:19:13,180 --> 00:19:17,197 Это делает наш курс сложным, 306 00:19:17,197 --> 00:19:19,249 но от этого не менее захватывающим. 307 00:19:19,759 --> 00:19:25,190 Моральная и политическая философия — это история, 308 00:19:25,190 --> 00:19:29,280 и вы никогда не знаете, куда она вас приведёт. Но что вы точно знаете, 309 00:19:29,280 --> 00:19:31,139 так это то, что эта история 310 00:19:31,139 --> 00:19:33,087 о вас самих. 311 00:19:34,279 --> 00:19:36,346 Это индивидуальный риск. 312 00:19:36,970 --> 00:19:39,451 Теперь рассмотрим политические риски. 313 00:19:39,979 --> 00:19:42,920 Одним из способов пробудить у вас интерес к этому курсу 314 00:19:42,920 --> 00:19:44,608 было бы пообещать вам, 315 00:19:44,608 --> 00:19:46,300 что после прочтения этих книг 316 00:19:46,300 --> 00:19:48,080 и обсуждения определённых вопросов 317 00:19:48,080 --> 00:19:50,987 вы станете более ответственным членом общества. 318 00:19:51,719 --> 00:19:57,070 Вы изучите основы публичной политики, отточите свои политические суждения, 319 00:19:57,070 --> 00:20:01,479 научитесь более эффективно участвовать в общественной жизни. 320 00:20:02,549 --> 00:20:05,930 Но это было бы однобокое и в целом неверное обещание. 321 00:20:06,439 --> 00:20:10,718 Политическая философия, по большому счёту, состоит в другом. 322 00:20:11,409 --> 00:20:14,420 Нам необходимо допустить, 323 00:20:14,420 --> 00:20:18,846 что политическая философия может сделать вас плохим гражданином, 324 00:20:18,846 --> 00:20:21,533 вместо обратного. 325 00:20:21,533 --> 00:20:23,700 Или, по крайней мере, плохим гражданином 326 00:20:23,700 --> 00:20:27,104 до тех пор, пока вы не станете лучше. 327 00:20:27,869 --> 00:20:30,200 Это происходит потому, что занятия философией 328 00:20:30,200 --> 00:20:32,220 удаляют нас от реальности 329 00:20:32,220 --> 00:20:35,725 и иногда даже больше вредят, чем приносят пользы. 330 00:20:36,370 --> 00:20:39,709 Давайте вернёмся во времена Сократа 331 00:20:39,709 --> 00:20:41,569 и обратимся к диалогу «Горгий», 332 00:20:41,569 --> 00:20:45,390 в котором друг Сократа, Калликл, 333 00:20:45,390 --> 00:20:48,912 пытается отговорить его от философствований. 334 00:20:49,670 --> 00:20:54,310 Калликл говорит ему, что философия, конечно, милая забава, 335 00:20:54,310 --> 00:20:57,865 если предаваться ей в разумных пределах и в определённом возрасте. 336 00:20:57,865 --> 00:21:03,604 Но если кто-то погружается в неё глубже, чем должно, она может принести вред. 337 00:21:03,604 --> 00:21:06,319 «Прими мой совет, — говорит Калликл, — 338 00:21:06,319 --> 00:21:08,199 оставь словопрения 339 00:21:08,199 --> 00:21:11,178 и обратись к жизни деятельной. 340 00:21:11,180 --> 00:21:16,780 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 341 00:21:16,780 --> 00:21:19,859 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 342 00:21:19,859 --> 00:21:22,189 и благословлён другими достоинствами». 343 00:21:22,189 --> 00:21:28,493 Другими словами, Калликл убеждает Сократа оставить философствования, 344 00:21:28,493 --> 00:21:30,439 обратиться к реальности, 345 00:21:30,439 --> 00:21:33,651 поступить в бизнес-школу. 346 00:21:34,950 --> 00:21:38,127 И Калликл был по-своему прав. 347 00:21:38,127 --> 00:21:42,030 Он был прав в том, что философия уводит нас в сторону 348 00:21:42,030 --> 00:21:44,909 от традиций, установленных допущений 349 00:21:44,909 --> 00:21:46,539 и устоявшихся убеждений. 350 00:21:46,539 --> 00:21:48,270 Здесь нас и подстерегают опасности, 351 00:21:48,270 --> 00:21:49,840 индивидуальные и политические. 352 00:21:49,840 --> 00:21:53,389 В ответ на их угрозу сознание включает защитный механизм. 353 00:21:54,029 --> 00:21:56,230 Этот механизм мы назвали скептицизмом. 354 00:21:56,230 --> 00:21:58,870 Происходит это примерно следующим образом: 355 00:21:58,870 --> 00:22:03,660 мы так и не смогли прийти к единому мнению по вопросам, 356 00:22:03,660 --> 00:22:08,691 с обсуждения которых мы начали эту лекцию. 357 00:22:09,499 --> 00:22:11,060 Но если ни Аристотель, 358 00:22:11,060 --> 00:22:16,950 ни Локк, ни Кант, ни Милль не дали на них ответа за всё это время, 359 00:22:16,950 --> 00:22:23,472 то кто мы такие, те, кто собрались в этом зале на семестр, 360 00:22:23,472 --> 00:22:25,686 чтобы вдруг разрешить их? 361 00:22:26,260 --> 00:22:29,220 Может быть определённое ви́дение мира — 362 00:22:29,220 --> 00:22:34,070 это личное дело каждого человека и к этому больше нечего добавить? 363 00:22:34,070 --> 00:22:35,839 И правильного ответа не существует. 364 00:22:36,239 --> 00:22:37,649 Это попытка бегства. 365 00:22:37,650 --> 00:22:39,040 Бегства в скептицизм. 366 00:22:39,380 --> 00:22:42,443 На это я ответил бы следующим образом: 367 00:22:42,443 --> 00:22:47,391 да, над этими вопросами люди бьются долгое время, 368 00:22:47,391 --> 00:22:49,059 но сам факт того, 369 00:22:49,059 --> 00:22:52,600 что они возвращаются к нам нерешёнными, настойчиво требуя от нас ответа, 370 00:22:52,600 --> 00:22:54,650 с одной стороны, говорит о том, 371 00:22:54,650 --> 00:22:56,989 что разрешить их невозможно, 372 00:22:56,989 --> 00:22:59,729 а с другой — о том, что их возникновение неизбежно. 373 00:22:59,729 --> 00:23:02,289 И причина их неизбежности в том, 374 00:23:02,289 --> 00:23:09,169 что каждому из нас приходится ежедневно отвечать на эти вопросы самостоятельно. 375 00:23:09,899 --> 00:23:15,880 Таким образом, скептицизм, побуждающий нас отказаться от любых попыток найти ответы, 376 00:23:15,880 --> 00:23:18,059 не может являться решением. 377 00:23:18,059 --> 00:23:19,580 Иммануил Кант 378 00:23:19,580 --> 00:23:22,968 очень ёмко описал несостоятельность скептицизма: 379 00:23:22,970 --> 00:23:26,038 «Скептицизм есть привал для человеческого разума, 380 00:23:26,038 --> 00:23:28,999 где он может обдумать своё догматическое странствие, 381 00:23:28,999 --> 00:23:32,659 но это вовсе не место для постоянного пребывания». 382 00:23:32,659 --> 00:23:35,750 «Простое принятие скептицизма, — пишет Кант, — 383 00:23:35,750 --> 00:23:41,503 никогда не удовлетворит страждущий разум». 384 00:23:42,500 --> 00:23:46,669 Этими примерами я пытался дать вам представление о том, 385 00:23:46,669 --> 00:23:49,758 с какими опасностями и искушениями сталкивается ступивший на путь 386 00:23:49,758 --> 00:23:51,741 философского познания. 387 00:23:51,741 --> 00:23:55,525 В заключение я хотел бы сказать, 388 00:23:55,525 --> 00:23:58,039 что задача этого курса — 389 00:23:58,039 --> 00:24:01,976 разбудить страждущий разум 390 00:24:01,976 --> 00:24:04,130 и показать, как далеко он может нас увести. 391 00:24:04,130 --> 00:24:06,807 Спасибо за внимание. 392 00:24:15,280 --> 00:24:16,960 В такой отчаянной ситуации 393 00:24:16,960 --> 00:24:19,059 вы должны сделать всё, чтобы выжить. 394 00:24:19,059 --> 00:24:22,629 Вы должны сделать всё, что возможно? Да, вы должны сделать всё, что можете. 395 00:24:22,629 --> 00:24:25,699 Если вы девятнадцать дней ничего не ели, 396 00:24:25,700 --> 00:24:30,339 кто-то из вас должен пожертвовать собой ради спасения остальных. 397 00:24:30,339 --> 00:24:31,859 Отлично. Как вас зовут? 398 00:24:32,139 --> 00:24:32,949 Маркус. 399 00:24:33,429 --> 00:24:35,564 Что вы ответите Маркусу? 400 00:24:40,459 --> 00:24:44,489 В прошлый раз 401 00:24:44,489 --> 00:24:46,780 мы начали 402 00:24:46,780 --> 00:24:48,820 с нескольких историй, 403 00:24:48,820 --> 00:24:50,759 с нескольких моральных дилемм: 404 00:24:50,759 --> 00:24:52,689 о трамваях, 405 00:24:52,689 --> 00:24:54,339 докторах, 406 00:24:54,339 --> 00:24:56,209 а также о здоровых пациентах, 407 00:24:56,209 --> 00:25:00,689 рискующих стать жертвами трансплантации органов. 408 00:25:00,690 --> 00:25:03,799 Мы обратили внимание на две особенности 409 00:25:03,799 --> 00:25:06,690 в доводах, которые мы приводили. 410 00:25:06,690 --> 00:25:09,689 Первая особенность связана с тем, как именно мы спорили. 411 00:25:09,689 --> 00:25:13,379 Всё началось с наших суждений об определённых случаях. 412 00:25:13,379 --> 00:25:18,170 Мы попытались сформулировать причины или принципы, 413 00:25:18,170 --> 00:25:22,329 лежащие в основе наших суждений. 414 00:25:22,329 --> 00:25:25,280 И затем, столкнувшись с новым случаем, 415 00:25:25,280 --> 00:25:30,209 мы пересматривали эти принципы, 416 00:25:30,209 --> 00:25:33,869 рассматривая один в свете другого. 417 00:25:33,869 --> 00:25:35,850 И мы чувствовали внутреннее сопротивление, 418 00:25:35,850 --> 00:25:38,860 пытаясь привести в соответствие 419 00:25:38,860 --> 00:25:41,550 наши суждения об определённых случаях 420 00:25:41,550 --> 00:25:45,490 и принципы, лежащие в основе этих суждений. 421 00:25:46,270 --> 00:25:50,459 Мы также заметили кое-что в содержании доводов, 422 00:25:50,459 --> 00:25:54,480 которые возникли в ходе обсуждения. 423 00:25:55,150 --> 00:25:57,449 Мы заметили, что иногда мы испытывали желание 424 00:25:57,449 --> 00:26:00,649 дать моральную оценку последствиям действий, 425 00:26:00,649 --> 00:26:05,699 результатам и положению дел, к которому эти действия привели. 426 00:26:06,389 --> 00:26:10,810 Мы назвали это явление консеквенциальной аргументацией. 427 00:26:11,470 --> 00:26:13,110 Но мы также заметили, 428 00:26:13,110 --> 00:26:16,300 что в некоторых ситуациях 429 00:26:16,300 --> 00:26:18,469 не только результат имел для нас 430 00:26:18,469 --> 00:26:20,639 значение. 431 00:26:21,309 --> 00:26:23,180 Иногда, 432 00:26:23,180 --> 00:26:25,249 как многие из нас почувствовали, 433 00:26:25,249 --> 00:26:31,240 не только последствия, но и сущность или характер действия 434 00:26:31,240 --> 00:26:34,329 имеет моральное значение. 435 00:26:35,119 --> 00:26:37,690 Некоторые люди утверждали, что есть определённые вещи, 436 00:26:37,690 --> 00:26:40,470 которые категорически неправильны, 437 00:26:40,470 --> 00:26:42,529 даже если за ними последует 438 00:26:42,529 --> 00:26:44,240 положительный результат; 439 00:26:44,240 --> 00:26:47,250 даже если они приведут к спасению жизни пятерых 440 00:26:47,250 --> 00:26:49,018 ценой одной жизни. 441 00:26:49,588 --> 00:26:52,490 Таким образом, мы сравнили консеквенциальные 442 00:26:52,490 --> 00:26:54,470 моральные принципы 443 00:26:54,470 --> 00:26:57,210 и категорические. 444 00:26:57,930 --> 00:26:59,659 Cегодня 445 00:26:59,659 --> 00:27:01,009 и в ближайшие несколько дней 446 00:27:01,009 --> 00:27:05,879 мы начнём рассматривать одну из самых влиятельных 447 00:27:05,879 --> 00:27:10,920 версий консеквенциальной теории морали — 448 00:27:10,920 --> 00:27:14,989 философию утилитаризма. 449 00:27:15,709 --> 00:27:17,340 Иеремия Бентам, 450 00:27:17,340 --> 00:27:21,560 английский политический философ 18-го века, 451 00:27:21,560 --> 00:27:22,910 дал первое 452 00:27:22,910 --> 00:27:26,580 чёткое систематическое определение 453 00:27:26,580 --> 00:27:31,320 утилитаристской моральной теории. 454 00:27:32,020 --> 00:27:36,260 Идея Бентама, 455 00:27:36,260 --> 00:27:38,300 его основная мысль 456 00:27:38,300 --> 00:27:42,770 очень проста 457 00:27:42,770 --> 00:27:48,208 и несёт интуитивно понятный посыл. 458 00:27:48,208 --> 00:27:51,600 Она заключается в следующем: 459 00:27:51,600 --> 00:27:54,439 правильное действие, 460 00:27:54,440 --> 00:27:57,619 справедливое действие 461 00:27:57,619 --> 00:28:01,199 должно максимизировать 462 00:28:01,199 --> 00:28:02,209 полезность. 463 00:28:02,209 --> 00:28:05,259 Что он имел в виду под «полезностью»? 464 00:28:05,979 --> 00:28:11,380 Под «полезностью» он имел в виду преобладание 465 00:28:11,380 --> 00:28:13,460 удовольствия над болью, 466 00:28:13,460 --> 00:28:16,640 счастья над страданием. 467 00:28:16,640 --> 00:28:22,220 И вот как он достиг принципа максимизации полезности. 468 00:28:22,220 --> 00:28:24,460 Он начал с наблюдения, заметив, 469 00:28:24,460 --> 00:28:27,660 что все мы, люди, 470 00:28:27,660 --> 00:28:31,200 управляемы двумя полновластными «повелителями»: 471 00:28:31,200 --> 00:28:34,539 болью и удовольствием. 472 00:28:34,539 --> 00:28:41,448 Нам нравится удовольствие и не нравится боль. 473 00:28:42,188 --> 00:28:45,769 И поэтому мы всегда должны основывать наши моральные суждения, 474 00:28:45,769 --> 00:28:49,100 думаем ли мы о том, как правильно поступить в нашей частной жизни, 475 00:28:49,100 --> 00:28:52,529 или же размышляем уже в качестве законодателей или граждан 476 00:28:52,529 --> 00:28:56,969 о том, каким должен быть закон, на следующем: 477 00:28:56,969 --> 00:29:01,919 нужно действовать, индивидуально или же коллективно, 478 00:29:01,919 --> 00:29:05,778 в направлении максимизации 479 00:29:05,778 --> 00:29:07,560 общего уровня 480 00:29:07,560 --> 00:29:10,429 счастья. 481 00:29:11,259 --> 00:29:15,320 Утилитаризм Бентама иногда выражается слоганом: 482 00:29:15,320 --> 00:29:18,799 «наибольшее благо для наибольшего количества». 483 00:29:18,799 --> 00:29:22,788 Вооружившись этим базовым принципом полезности, 484 00:29:22,788 --> 00:29:28,100 давайте проверим его, применив к другому случаю. 485 00:29:28,100 --> 00:29:34,050 На этот раз история не гипотетическая, а вполне реальная. 486 00:29:34,050 --> 00:29:38,139 Дело Дадли и Стивенса. 487 00:29:38,139 --> 00:29:41,690 Это знаменитое британское судебное дело 19-го века, 488 00:29:41,690 --> 00:29:46,799 которое часто разбирается на юридических факультетах. 489 00:29:47,429 --> 00:29:49,959 Итак, что же произошло в этом деле? 490 00:29:49,959 --> 00:29:51,759 Я вкратце изложу его суть, 491 00:29:51,759 --> 00:29:54,820 и затем я хотел бы услышать, 492 00:29:54,820 --> 00:29:57,110 как бы вы разрешили его, 493 00:29:57,110 --> 00:30:00,920 если бы оказались на месте присяжных. 494 00:30:03,669 --> 00:30:08,849 В газетном отчёте того времени оно было описано так: 495 00:30:08,849 --> 00:30:14,180 «Нет истории печальнее на свете, чем история выживших 496 00:30:14,180 --> 00:30:16,180 с яхты «Mignonette» [«Резеда»]. 497 00:30:16,180 --> 00:30:21,679 Это судно затонуло в Южной Атлантике в трёхстах милях от Мыса Доброй Надежды. 498 00:30:21,679 --> 00:30:25,920 На борту было четыре человека: капитан Дадли, 499 00:30:25,920 --> 00:30:30,020 его главный помощник Стивенс и матрос Брукс. 500 00:30:30,020 --> 00:30:32,489 Все они были «людьми с безукоризненной репутацией». 501 00:30:32,489 --> 00:30:35,719 По крайней мере, так сообщается в газетном отчёте. 502 00:30:35,719 --> 00:30:39,750 Четвёртым членом команды был Ричард Паркер — 503 00:30:39,750 --> 00:30:42,729 семнадцатилетний юнга. 504 00:30:42,729 --> 00:30:50,560 Он был сиротой, у него не было семьи, и это было его первое дальнее плавание. 505 00:30:51,290 --> 00:30:53,650 Как сообщается, он отправился в путешествие, 506 00:30:53,650 --> 00:30:56,730 не послушавшись совета своих друзей. 507 00:30:56,730 --> 00:30:59,850 Полный надежд и юношеских амбиций, 508 00:30:59,850 --> 00:31:02,380 он думал, что путешествие сделает из него мужчину. 509 00:31:03,000 --> 00:31:05,140 К сожалению, этому не суждено было произойти. 510 00:31:05,140 --> 00:31:07,479 Факты дела не были предметом спора. 511 00:31:07,479 --> 00:31:11,230 В судно ударила волна, и «Mignonette» [«Резеда»] пошла ко дну. 512 00:31:11,940 --> 00:31:14,739 Экипаж сумел сесть в спасательную шлюпку. 513 00:31:14,739 --> 00:31:18,269 Единственной едой, которую они имели, 514 00:31:18,269 --> 00:31:21,600 были две банки консервированной репы. 515 00:31:21,600 --> 00:31:23,260 Никакой питьевой воды. 516 00:31:23,900 --> 00:31:26,610 Первые три дня они ничего не ели, 517 00:31:26,609 --> 00:31:30,250 на четвёртый день они открыли одну из консервных банок 518 00:31:30,250 --> 00:31:31,530 и съели её содержимое. 519 00:31:31,530 --> 00:31:34,150 На следующий день они поймали черепаху. 520 00:31:34,150 --> 00:31:38,250 Оставшаяся банка с репой и черепаха 521 00:31:38,250 --> 00:31:40,960 помогли им продержаться ещё несколько дней, 522 00:31:40,960 --> 00:31:43,939 но затем в течение восьми дней у них уже не было ничего: 523 00:31:43,939 --> 00:31:46,019 ни еды, ни воды. 524 00:31:46,729 --> 00:31:49,929 Представьте себя в такой ситуации. 525 00:31:49,929 --> 00:31:51,929 Что бы вы сделали? 526 00:31:52,679 --> 00:31:54,389 Вот что сделали они. 527 00:31:55,049 --> 00:32:00,740 К этому моменту юнга Паркер лежал в углу на дне шлюпки, 528 00:32:00,740 --> 00:32:02,920 потому что напился морской воды, 529 00:32:02,920 --> 00:32:05,490 не послушав остальных. 530 00:32:05,490 --> 00:32:07,230 Ему сделалось дурно, 531 00:32:07,230 --> 00:32:10,619 и было понятно, что он умирает. 532 00:32:10,619 --> 00:32:14,498 На девятнадцатый день капитан Дадли предложил 533 00:32:14,498 --> 00:32:18,749 всем бросить жребий 534 00:32:18,749 --> 00:32:20,859 и определить, кому суждено умереть, 535 00:32:20,859 --> 00:32:23,070 чтобы спасти остальных. 536 00:32:23,770 --> 00:32:26,380 Брукс отказался, 537 00:32:26,380 --> 00:32:29,139 ему не понравилась идея со жребием. 538 00:32:29,140 --> 00:32:33,079 Мы не знаем, было ли это вызвано тем, что он не хотел рисковать, 539 00:32:33,079 --> 00:32:36,839 или же тем, что он верил в категорические моральные принципы, 540 00:32:36,839 --> 00:32:41,179 но в любом случае жребий так и не был брошен. 541 00:32:42,040 --> 00:32:44,940 На следующий день спасительного корабля по-прежнему не было, 542 00:32:44,940 --> 00:32:48,190 и Дадли попросил Брукса отвернуться, 543 00:32:48,190 --> 00:32:50,560 жестом показав Стивенсу, 544 00:32:50,560 --> 00:32:53,719 что мальчишку Паркера нужно убить. 545 00:32:53,719 --> 00:32:55,829 Дадли помолился, 546 00:32:55,829 --> 00:32:58,410 сказал мальчику, что его время пришло, 547 00:32:58,410 --> 00:33:00,339 и зарезал его перочинным ножом, 548 00:33:00,339 --> 00:33:02,770 поразив ярёмную вену. 549 00:33:03,470 --> 00:33:09,590 Брукс, отрёкшийся от соображений совести, воспользовался этим жутким «подарком». 550 00:33:09,590 --> 00:33:11,049 Четыре дня 551 00:33:11,049 --> 00:33:14,430 они втроём питались телом и кровью юнги. 552 00:33:15,000 --> 00:33:16,330 Реальная история. 553 00:33:16,880 --> 00:33:18,540 А затем их спасли. 554 00:33:19,070 --> 00:33:24,459 Дадли описал это спасение в своём дневнике 555 00:33:24,459 --> 00:33:27,499 поразительным эвфемизмом. Цитата: 556 00:33:27,499 --> 00:33:29,618 «На двадцать четвёртый день, 557 00:33:29,618 --> 00:33:34,738 когда мы завтракали, 558 00:33:34,738 --> 00:33:37,749 наконец-то показался корабль». 559 00:33:38,599 --> 00:33:44,189 Трое выживших были подобраны немецким кораблём и отправлены назад в Англию, 560 00:33:44,189 --> 00:33:46,199 где их арестовали и подвергли суду. 561 00:33:46,749 --> 00:33:49,810 Брукс был свидетелем обвинения, 562 00:33:49,810 --> 00:33:51,970 Дадли и Стивенс — обвиняемыми. 563 00:33:51,970 --> 00:33:54,370 Они не оспаривали факты; 564 00:33:54,370 --> 00:33:57,670 они утверждали, что действовали из крайней необходимости. 565 00:33:57,670 --> 00:33:59,430 Это была их линия защиты. 566 00:33:59,430 --> 00:34:03,110 Они настаивали на том, что смерть одного человека более предпочтительна, 567 00:34:03,110 --> 00:34:05,810 чем смерть троих. 568 00:34:06,430 --> 00:34:10,849 Обвинителя не убедил такой аргумент. 569 00:34:10,849 --> 00:34:13,869 Он сказал: «Убийство есть убийство». Дело передали в суд. 570 00:34:13,869 --> 00:34:16,209 Теперь представьте, что вы присяжные. 571 00:34:16,209 --> 00:34:21,789 Чтобы упростить обсуждение, оставим в стороне вопрос права 572 00:34:21,789 --> 00:34:25,840 и представим, что как присяжные 573 00:34:25,840 --> 00:34:28,050 вы должны решить, 574 00:34:28,050 --> 00:34:33,089 было ли то, что они сделали, морально допустимым или нет. 575 00:34:34,309 --> 00:34:36,548 Кто из вас 576 00:34:36,548 --> 00:34:39,529 проголосовал бы 577 00:34:39,529 --> 00:34:47,949 за то, что они невиновны и совершённое ими было морально допустимо? 578 00:34:49,338 --> 00:34:51,579 А кто проголосовал бы за то, что они виновны 579 00:34:51,579 --> 00:34:54,858 и совершённое ими было недопустимо? 580 00:34:54,858 --> 00:34:57,798 Значительное большинство. 581 00:34:57,798 --> 00:35:03,619 Давайте послушаем ваши соображения; начнём с тех, кто оказался в меньшинстве. 582 00:35:03,619 --> 00:35:07,669 Давайте сперва предоставим слово защите 583 00:35:07,669 --> 00:35:10,059 Дадли и Стивенса. 584 00:35:10,059 --> 00:35:13,959 Почему вы бы оправдали их с моральной точки зрения? 585 00:35:13,959 --> 00:35:16,369 Чем вы руководствуетесь? 586 00:35:16,369 --> 00:35:17,989 Пожалуйста. 587 00:35:17,989 --> 00:35:20,778 Я считаю это предосудительным с моральной точки зрения, 588 00:35:20,778 --> 00:35:24,069 но существует различие между тем, что нравственно предосудительно, 589 00:35:24,069 --> 00:35:26,609 и тем, что влечёт юридическую ответственность. 590 00:35:26,608 --> 00:35:31,970 Или, как мог бы сказать судья, аморальное совсем не обязательно противозаконно. 591 00:35:31,970 --> 00:35:36,129 И хотя я не считаю, что необходимость чего-либо является достаточным основанием 592 00:35:36,129 --> 00:35:38,578 для кражи, убийства или другого преступления, 593 00:35:38,579 --> 00:35:44,909 степень необходимости в той или иной мере может оправдывать его. 594 00:35:44,909 --> 00:35:50,288 Хорошо. Кто ещё поддерживает эту точку зрения и согласен 595 00:35:50,288 --> 00:35:54,058 с моральными обоснованиями их действий? 596 00:35:54,058 --> 00:35:55,619 Пожалуйста. 597 00:35:56,759 --> 00:35:57,869 Спасибо. 598 00:35:58,468 --> 00:36:03,020 Я думаю, в такой отчаянной ситуации вы должны сделать всё, чтобы выжить. 599 00:36:03,020 --> 00:36:04,739 Вы должны сделать всё, что возможно? 600 00:36:04,739 --> 00:36:06,789 Да, вы должны сделать всё, что можете. 601 00:36:06,789 --> 00:36:10,219 Если вы девятнадцать дней ничего не ели, 602 00:36:10,219 --> 00:36:14,630 кто-то из вас должен пожертвовать собой ради спасения остальных. 603 00:36:14,630 --> 00:36:20,749 Более того, представим, что по возвращении домой спасшиеся, к примеру, создадут 604 00:36:20,749 --> 00:36:23,280 благотворительные организации и другие подобные вещи. 605 00:36:23,280 --> 00:36:25,570 И в итоге будет всем хорошо. 606 00:36:25,570 --> 00:36:28,079 Я не знаю, что они сделали после этого случая, 607 00:36:28,079 --> 00:36:30,469 они вполне могли бы продолжать убивать людей... 608 00:36:30,469 --> 00:36:32,798 Что? 609 00:36:32,798 --> 00:36:35,668 А что если они вернулись домой и стали убийцами? 610 00:36:35,668 --> 00:36:39,038 Что если они вернулись домой и стали убийцами? 611 00:36:39,038 --> 00:36:42,648 Вы бы хотели знать, кого они убили. 612 00:36:42,648 --> 00:36:45,309 Да, верно. 613 00:36:45,309 --> 00:36:46,658 Я хотел бы знать это. 614 00:36:46,658 --> 00:36:49,958 Это было неплохо. Как вас зовут? Маркус. 615 00:36:50,658 --> 00:36:53,949 Мы услышали сторону защиты, пару голосов в оправдание. 616 00:36:53,949 --> 00:36:57,068 Теперь послушаем сторону обвинения. 617 00:36:57,068 --> 00:37:02,808 Большинство людей думает, что они не правы. Почему? 618 00:37:03,578 --> 00:37:04,628 Пожалуйста. 619 00:37:04,628 --> 00:37:09,078 Когда я услышала эту историю, я подумала: «Так, если они голодали очень долго, 620 00:37:09,078 --> 00:37:15,089 то может в этом случае они не были в здравом рассудке». 621 00:37:15,089 --> 00:37:20,608 И это могло послужить оправданием, в качестве возможного аргумента: 622 00:37:20,608 --> 00:37:25,719 они были не в своём уме и приняли решение, которое не приняли бы в другой ситуации. 623 00:37:25,719 --> 00:37:28,519 Думаю, это их оправдывает. 624 00:37:28,518 --> 00:37:33,348 Трезво мыслящий человек так никогда не поступит. Мне кажется, что есть люди, 625 00:37:33,348 --> 00:37:36,058 которые находят данный аргумент приемлемым. 626 00:37:36,058 --> 00:37:37,588 Вы думаете, что они поступили... 627 00:37:37,588 --> 00:37:39,298 Но я хочу знать, что думаете вы. 628 00:37:39,298 --> 00:37:42,648 Вы голосовали за то, что они виновны, верно? 629 00:37:42,648 --> 00:37:46,428 Да, я не считаю, что они действовали в рамках морали. 630 00:37:46,428 --> 00:37:50,869 Но почему нет? Вы же слышали, как Маркус защищал их. 631 00:37:50,869 --> 00:37:52,619 Он сказал... 632 00:37:52,619 --> 00:37:53,950 Вы слышали, что он сказал. 633 00:37:53,950 --> 00:37:56,339 Да, я слышала. 634 00:37:56,339 --> 00:38:00,019 Что вы должны поступать так, как того требует данная ситуация. 635 00:38:00,019 --> 00:38:04,019 Что вы ответите Маркусу? 636 00:38:04,759 --> 00:38:06,428 Я бы сказала, что 637 00:38:06,428 --> 00:38:13,459 нет такой ситуации, в которой можно было бы 638 00:38:13,459 --> 00:38:17,238 лишить человека права управлять своей судьбой или лишить человека жизни. 639 00:38:17,238 --> 00:38:19,868 У нас нет такого права. 640 00:38:19,868 --> 00:38:22,429 Хорошо, спасибо. Как вас зовут? 641 00:38:22,429 --> 00:38:23,350 Бритт. 642 00:38:23,350 --> 00:38:24,548 Бритт? Хорошо. 643 00:38:24,548 --> 00:38:25,668 Кто-нибудь ещё? 644 00:38:25,668 --> 00:38:27,979 Что вы скажете? Встаньте, пожалуйста. 645 00:38:27,979 --> 00:38:31,973 Мне вот что интересно. Если бы Дадли и Стивенс получили бы от Ричарда Паркера 646 00:38:31,973 --> 00:38:34,403 согласие 647 00:38:34,403 --> 00:38:35,493 на смерть. 648 00:38:35,493 --> 00:38:37,499 Могло бы это... 649 00:38:37,499 --> 00:38:42,098 Могло бы это оправдать совершённое убийство, 650 00:38:42,098 --> 00:38:45,269 и если да, то было бы ли это оправданно с точки зрения морали? 651 00:38:45,269 --> 00:38:49,539 Это любопытно. Согласие. Подождите, как вас зовут? 652 00:38:49,539 --> 00:38:51,659 Кэтлин. 653 00:38:51,659 --> 00:38:56,459 Кэтлин предлагает представить, как бы могла выглядеть эта сцена в таком случае: 654 00:38:56,459 --> 00:39:02,550 Дадли с ножом в руке, но вместо молитвы, 655 00:39:02,550 --> 00:39:04,498 или перед молитвой, 656 00:39:04,498 --> 00:39:06,158 он спрашивает: 657 00:39:06,158 --> 00:39:11,318 «Паркер, ты не возражаешь? 658 00:39:11,318 --> 00:39:14,348 Мы тут безумно проголодались...» 659 00:39:14,349 --> 00:39:17,679 Смотрите, как Маркус сопереживает им. 660 00:39:17,679 --> 00:39:22,089 «Мы безумно проголодались, а тебе в любом случае недолго осталось. 661 00:39:22,089 --> 00:39:23,458 Ты можешь стать мучеником. 662 00:39:23,458 --> 00:39:25,708 Не хочешь стать мучеником? 663 00:39:25,708 --> 00:39:29,179 Что скажешь, Паркер?» 664 00:39:29,179 --> 00:39:33,089 В этом случае 665 00:39:33,089 --> 00:39:36,939 можете ли вы оправдать это с точки зрения морали? 666 00:39:36,939 --> 00:39:42,889 Допустим, Паркер в оцепенении говорит: «Я согласен». 667 00:39:42,889 --> 00:39:45,259 Я не считаю, что это оправдывает убийство... 668 00:39:45,259 --> 00:39:47,829 Даже в этом случае не было бы оправдания? Нет. 669 00:39:47,829 --> 00:39:52,290 Вы не считаете, что даже с согласия это может быть морально оправданно. 670 00:39:52,290 --> 00:39:57,308 Есть тут люди, готовые подхватить идею Кэтлин о согласии? 671 00:39:57,308 --> 00:40:00,318 И кто считает, что в этом случае их действия были бы оправданны? 672 00:40:00,318 --> 00:40:04,879 Поднимите руку, если вы с этим согласны. 673 00:40:05,639 --> 00:40:07,458 Вот это интересно. 674 00:40:07,458 --> 00:40:12,358 Почему же наличие согласия создало такую разницу? 675 00:40:13,958 --> 00:40:15,629 С чего бы это? 676 00:40:15,629 --> 00:40:18,409 Я думаю, что если бы Паркер сам принимал решение, 677 00:40:18,409 --> 00:40:20,899 если бы это было его собственным желанием, 678 00:40:20,899 --> 00:40:25,768 то только в такой ситуации это было бы допустимо. 679 00:40:25,768 --> 00:40:28,380 Потому что в этом случае вы не можете сказать, 680 00:40:28,380 --> 00:40:31,909 что на него было оказано давление, что их было трое против одного. 681 00:40:31,909 --> 00:40:33,199 Верно. 682 00:40:33,199 --> 00:40:39,430 Поэтому принимая решение пожертвовать собой, он делает это по собственной воле. 683 00:40:39,430 --> 00:40:41,478 Некоторые могут восхититься этим поступком, 684 00:40:41,478 --> 00:40:45,289 другие могут быть не согласны с такой оценкой. 685 00:40:45,289 --> 00:40:48,939 Итак, если он сам предложил эту идею, 686 00:40:48,939 --> 00:40:52,320 то это будет единственным вариантом согласия, который бы нас устроил 687 00:40:52,320 --> 00:40:54,858 с точки зрения морали. Тогда это было бы допустимо. 688 00:40:54,858 --> 00:40:57,198 В ином случае 689 00:40:57,198 --> 00:40:59,579 это будет, скажем так, согласие под принуждением, 690 00:40:59,579 --> 00:41:01,489 продиктованное обстоятельствами. 691 00:41:01,489 --> 00:41:03,598 Вы так считаете. 692 00:41:05,158 --> 00:41:07,309 Кто-нибудь из вас считает, 693 00:41:07,309 --> 00:41:10,859 что даже согласие Паркера 694 00:41:10,859 --> 00:41:15,439 не оправдывает его убийство? 695 00:41:15,439 --> 00:41:17,288 Кто так думает? 696 00:41:17,288 --> 00:41:19,548 Да. Расскажите нам почему. Встаньте, пожалуйста. 697 00:41:19,548 --> 00:41:22,860 Я думаю, что Паркер был убит в надежде, 698 00:41:22,860 --> 00:41:26,379 что все остальные члены экипажа впоследствии будут спасены. 699 00:41:26,379 --> 00:41:28,920 Но для его убийства нет объективных причин, 700 00:41:28,920 --> 00:41:32,319 потому что вы даже не знаете, спасут вас вообще или нет, 701 00:41:32,319 --> 00:41:34,092 и его убийство может быть напрасным. 702 00:41:34,092 --> 00:41:38,039 Вы так и будете убивать одного за другим, пока не останетесь один или вас не спасут? 703 00:41:38,039 --> 00:41:39,949 Просто потому что кто-то всё равно умрёт? 704 00:41:39,949 --> 00:41:44,159 С позиции морали смысл ситуации в том, 705 00:41:44,159 --> 00:41:50,059 что они жертвуют слабейшим, одним за другим, 706 00:41:50,059 --> 00:41:51,949 пока не будут спасены. 707 00:41:51,949 --> 00:41:56,889 И в этом случае по счастливой случайности три человека были живы, когда их спасли. 708 00:41:57,609 --> 00:42:01,210 Но если бы Паркер согласился, 709 00:42:01,210 --> 00:42:03,488 как вы думаете, было бы это правильным? 710 00:42:03,488 --> 00:42:06,159 Нет, я по-прежнему не считаю это правильным. 711 00:42:06,159 --> 00:42:07,890 Обоснуйте почему. 712 00:42:07,890 --> 00:42:12,758 Во-первых, я считаю, что каннибализм аморален в принципе. 713 00:42:12,758 --> 00:42:14,480 Есть людей нельзя ни в каком случае. 714 00:42:14,480 --> 00:42:16,819 Итак, 715 00:42:16,819 --> 00:42:22,350 каннибализм неприемлем даже в том случае, 716 00:42:22,350 --> 00:42:24,318 когда мы знаем, что человек точно умрёт? 717 00:42:24,318 --> 00:42:25,988 Даже в этом случае? 718 00:42:25,988 --> 00:42:27,959 Да, лично для меня. 719 00:42:27,959 --> 00:42:31,189 Мне кажется, что всё это зависит 720 00:42:31,199 --> 00:42:35,258 от личных моральных принципов человека. 721 00:42:35,258 --> 00:42:36,808 Это только моё мнение. 722 00:42:36,808 --> 00:42:39,339 Конечно, не все с этим согласятся. 723 00:42:39,338 --> 00:42:41,498 Хорошо. Давайте послушаем аргументы «против», 724 00:42:41,498 --> 00:42:46,159 а затем посмотрим, смогут ли они переубедить вас или нет? 725 00:42:46,159 --> 00:42:48,248 Давайте попробуем. 726 00:42:48,248 --> 00:42:50,098 Итак, 727 00:42:50,099 --> 00:42:53,158 есть ли здесь кто-нибудь, 728 00:42:53,158 --> 00:42:57,869 кому импонирует идея согласия и кто мог бы объяснить. 729 00:42:57,869 --> 00:43:03,298 Можете ли вы объяснить, почему согласие всё кардинально меняет? 730 00:43:03,298 --> 00:43:05,600 А как насчёт идеи со жребием? 731 00:43:05,600 --> 00:43:08,769 Может ли это считаться согласием? Помните, в начале истории 732 00:43:08,769 --> 00:43:10,989 Дадли предложил тянуть жребий. 733 00:43:10,989 --> 00:43:15,349 Предположим, что они согласились тянуть жребий. 734 00:43:16,119 --> 00:43:20,739 Теперь кто из вас за то, 735 00:43:20,739 --> 00:43:23,689 что это было бы правильно? Предположим, они тянули жребий, 736 00:43:23,689 --> 00:43:25,280 и юнга проиграл. 737 00:43:25,280 --> 00:43:31,640 Далее происходит история, которую мы уже знаем. Было бы тогда это допустимым? 738 00:43:33,120 --> 00:43:37,030 В случае со жребием число согласных уже больше. Давайте послушаем кого-нибудь, 739 00:43:37,030 --> 00:43:41,609 для кого с моральной точки зрения принципиален жребий. 740 00:43:41,608 --> 00:43:43,458 Почему вы так считаете? 741 00:43:43,458 --> 00:43:45,719 Я думаю, что это принципиальный момент. 742 00:43:45,719 --> 00:43:47,858 Преступлением этот поступок делает то, 743 00:43:47,858 --> 00:43:52,788 что Дадли и Стивенс в один момент решили, что их жизни важнее, чем жизнь юнги. 744 00:43:52,788 --> 00:43:56,388 И такая мысль может стать предпосылкой для любого преступления. 745 00:43:56,388 --> 00:44:01,859 То есть мои потребности и желания являются более важными, чем ваши. 746 00:44:01,859 --> 00:44:04,798 А если бы они тянули жребий, согласившись с тем, 747 00:44:04,798 --> 00:44:06,478 что кто-то из них должен умереть 748 00:44:06,478 --> 00:44:09,239 и пожертвовать таким образом собой, 749 00:44:09,239 --> 00:44:10,959 чтобы спасти остальных... 750 00:44:10,959 --> 00:44:12,919 Тогда всё было бы в порядке? 751 00:44:12,919 --> 00:44:15,740 Немного абсурдно, но... 752 00:44:15,740 --> 00:44:18,778 Но допустимо с точки зрения морали? Да. 753 00:44:18,778 --> 00:44:20,958 Как вас зовут? Мэтт. 754 00:44:20,958 --> 00:44:25,459 Что ж, Мэтт, вас смущает 755 00:44:25,459 --> 00:44:28,259 не сам факт каннибализма, 756 00:44:28,259 --> 00:44:31,389 а отсутствие должной процедуры? 757 00:44:31,389 --> 00:44:34,648 Можно сказать, что да. 758 00:44:34,648 --> 00:44:38,170 Может ли кто-нибудь из тех, кто согласен с Мэттом, 759 00:44:38,170 --> 00:44:40,270 что-нибудь добавить к сказанному 760 00:44:40,270 --> 00:44:46,738 о том, почему жребий сделает этот поступок 761 00:44:46,738 --> 00:44:49,698 допустимым с точки зрения морали? 762 00:44:50,528 --> 00:44:53,938 Мне кажется, что основная проблема заключается именно в том, 763 00:44:53,938 --> 00:44:58,758 что юнгу даже не спрашивали, когда решали его судьбу. 764 00:44:58,758 --> 00:45:01,108 Даже в случае со жребием, им было всё равно, 765 00:45:01,108 --> 00:45:02,810 будет или нет он в нём участвовать. 766 00:45:02,810 --> 00:45:05,690 Было просто решено, что именно мальчик должен умереть. 767 00:45:05,690 --> 00:45:08,170 Да, так и произошло на самом деле. 768 00:45:08,170 --> 00:45:11,720 Но если бы все они тянули жребий и все были бы согласны с этой процедурой, 769 00:45:11,720 --> 00:45:13,199 считали бы вы это правильным? 770 00:45:13,199 --> 00:45:16,248 Да, потому что тогда все бы знали, что кто-то из них умрёт, 771 00:45:16,248 --> 00:45:18,799 в то время как в реальной ситуации юнга не знал, 772 00:45:18,799 --> 00:45:20,909 что Дадли и Стивенс решают его судьбу. 773 00:45:20,909 --> 00:45:26,269 Ему никто не сказал, что он может умереть. 774 00:45:26,269 --> 00:45:29,299 Хорошо, предположим, что все согласились тянуть жребий. 775 00:45:29,299 --> 00:45:34,368 Все бросили жребий. Но представьте себе, что юнга проиграл и передумал. 776 00:45:34,368 --> 00:45:37,029 Вы уже всё решили, это своего рода устное соглашение, 777 00:45:37,029 --> 00:45:40,989 вы не можете взять свои слова обратно; решение было принято. 778 00:45:40,989 --> 00:45:45,148 Вы понимаете, что умираете ради того, чтобы спасти других. 779 00:45:45,148 --> 00:45:48,208 Вы осознаёте, что если бы кому-то другому выпал жребий умереть, 780 00:45:48,208 --> 00:45:50,979 то его так же съели бы, так что... 781 00:45:50,979 --> 00:45:56,709 Хорошо, но потом он мог бы сказать: «Знаю, но я проиграл». 782 00:45:56,709 --> 00:46:02,678 Я считаю, что основная моральная проблема в том, что юнгу никто не спрашивал. 783 00:46:02,678 --> 00:46:07,048 Самое ужасное то, что он даже не представлял, что происходит. 784 00:46:07,048 --> 00:46:10,599 Если бы он осознавал это, то результат был бы 785 00:46:10,599 --> 00:46:12,278 немного более справедливым. 786 00:46:12,278 --> 00:46:14,509 Хорошо. Теперь я хотел бы узнать вот что. 787 00:46:14,510 --> 00:46:16,919 Некоторые из вас считают, 788 00:46:16,919 --> 00:46:18,719 что это морально допустимо, 789 00:46:18,719 --> 00:46:22,648 но вас всего около 20 процентов. 790 00:46:23,838 --> 00:46:25,479 Во главе с Маркусом. 791 00:46:26,389 --> 00:46:28,439 Другие же считают, 792 00:46:28,438 --> 00:46:30,208 что основная проблема заключается 793 00:46:30,208 --> 00:46:32,628 в отсутствии согласия, 794 00:46:32,628 --> 00:46:36,769 будь то отсутствие согласия тянуть справедливый жребий 795 00:46:36,769 --> 00:46:38,418 или же, 796 00:46:38,418 --> 00:46:39,520 как считает Кэтлин, 797 00:46:39,520 --> 00:46:42,899 отсутствие согласия в момент 798 00:46:42,899 --> 00:46:44,979 смерти. 799 00:46:44,979 --> 00:46:48,968 Если мы предположим наличие согласия, то 800 00:46:48,968 --> 00:46:51,889 уже больше людей будут готовы признать, 801 00:46:51,889 --> 00:46:54,528 что эта жертва морально оправданна. 802 00:46:54,528 --> 00:46:58,168 Теперь я хочу выслушать тех, кто считает, 803 00:46:58,168 --> 00:46:59,889 что даже при наличии согласия, 804 00:46:59,889 --> 00:47:01,559 даже при использовании жребия, 805 00:47:01,559 --> 00:47:07,648 даже если бы в самый последний момент Паркер 806 00:47:07,648 --> 00:47:09,179 вяло согласился, 807 00:47:09,179 --> 00:47:12,578 это всё равно было бы неправильно. 808 00:47:12,578 --> 00:47:15,458 И я хочу услышать, почему это было бы неправильно. 809 00:47:15,458 --> 00:47:16,858 Да. 810 00:47:16,858 --> 00:47:22,718 Всё это время я склонялась к категорической аргументации. 811 00:47:22,718 --> 00:47:25,338 И думаю, 812 00:47:25,338 --> 00:47:29,368 что, возможно, я готова принять вариант со жребием, 813 00:47:29,368 --> 00:47:33,480 при котором проигравший собственноручно убивает себя. 814 00:47:33,480 --> 00:47:37,098 Тогда убийства как такового не будет, но я по-прежнему считаю, 815 00:47:37,098 --> 00:47:39,768 что даже в таком случае будет принуждение. 816 00:47:39,768 --> 00:47:43,238 И я не думаю, что тут есть раскаяние. Вспомните запись в дневнике Дадли: 817 00:47:43,238 --> 00:47:44,909 «…когда мы завтракали». 818 00:47:44,909 --> 00:47:51,799 Это выглядит так, как будто он не видит ценности в жизни других. 819 00:47:51,799 --> 00:47:55,259 Это заставляет меня принять категорическую аргументацию. 820 00:47:55,259 --> 00:47:57,489 Вы хотите наказать Дадли по полной программе, 821 00:47:57,489 --> 00:48:00,758 если он не раскаивается или не чувствует, что поступил неправильно? 822 00:48:00,758 --> 00:48:02,158 Да. 823 00:48:02,158 --> 00:48:08,769 Хорошо. Есть ещё кто-нибудь, кто считает, 824 00:48:08,769 --> 00:48:13,558 что это категорически неправильно, с согласием или без него. Да, пожалуйста. 825 00:48:13,558 --> 00:48:17,129 Я считаю, что в понятиях нашего общества убийство есть убийство. 826 00:48:17,129 --> 00:48:21,489 И в любом случае наше общество негативно к этому относится. Я не считаю, 827 00:48:21,489 --> 00:48:23,219 что это зависит от обстоятельств. 828 00:48:23,219 --> 00:48:24,720 Можно задать вам вопрос? 829 00:48:24,720 --> 00:48:26,889 На кону было три жизни 830 00:48:26,889 --> 00:48:30,489 против одной. 831 00:48:30,489 --> 00:48:34,348 У юнги не было ни семьи, ни тех, о ком нужно было заботиться. 832 00:48:34,348 --> 00:48:38,919 У трёх других человек дома остались семьи, у них были иждивенцы: 833 00:48:38,919 --> 00:48:41,198 жёны и дети. 834 00:48:41,198 --> 00:48:43,099 Вспомните Бентама. 835 00:48:43,099 --> 00:48:47,969 Бентам считал, что мы должны учитывать благосостояние, полезность и счастье 836 00:48:47,969 --> 00:48:51,298 для всех. Мы должны сложить всё вместе. 837 00:48:51,298 --> 00:48:54,509 Поэтому это не просто цифра «три» против цифры «один», 838 00:48:54,509 --> 00:48:58,599 а ещё и люди, ждущие моряков дома. 839 00:48:58,599 --> 00:49:05,354 Стоит отметить, что пресса и общество были на стороне Дадли и Стивенса. 840 00:49:05,354 --> 00:49:09,509 В газете писали, что если бы ими не двигали привязанность 841 00:49:09,509 --> 00:49:12,299 к своим близким, оставшимся дома, и беспокойство о них, 842 00:49:12,299 --> 00:49:14,039 они бы точно не сделали этого. 843 00:49:14,039 --> 00:49:17,369 Да, но тогда как они отличаются от людей, просящих милостыню, 844 00:49:17,369 --> 00:49:20,959 которые так же хотят прокормить свою семью? Здесь нет большой разницы. 845 00:49:20,959 --> 00:49:23,590 Если я убиваю кого-то, чтобы улучшить своё положение, 846 00:49:23,590 --> 00:49:25,280 это не перестаёт быть убийством. 847 00:49:25,280 --> 00:49:26,919 Нужно смотреть на это так. 848 00:49:26,919 --> 00:49:30,278 Мы считаем преступлениями только определённые поступки, 849 00:49:30,278 --> 00:49:33,760 при этом некоторые из них кажутся нам более жестокими и дикими, 850 00:49:33,760 --> 00:49:36,680 хотя в их основе всегда лежит один и тот же стимул: 851 00:49:36,680 --> 00:49:39,850 необходимость прокормить свои семьи. 852 00:49:39,850 --> 00:49:42,898 Предположим, что людей было бы не трое, а тридцать 853 00:49:42,898 --> 00:49:44,508 или триста. 854 00:49:44,508 --> 00:49:47,268 Пожертвовать одной жизнью, чтобы спасти три сотни 855 00:49:47,268 --> 00:49:48,349 или больше, 856 00:49:48,349 --> 00:49:49,500 три тысячи. 857 00:49:49,500 --> 00:49:51,039 А если ставки были ещё больше. 858 00:49:51,039 --> 00:49:54,358 Предположим, ставки были больше. Я думаю, это по-прежнему то же самое. 859 00:49:54,358 --> 00:49:58,619 Вы думаете, что Бентам ошибался, говоря, что необходимо 860 00:49:58,619 --> 00:50:02,378 суммировать всё общественное счастье? Вы думаете, что он ошибался насчёт этого? 861 00:50:02,378 --> 00:50:05,098 Я не считаю, что он ошибался, но убийство есть убийство. 862 00:50:05,098 --> 00:50:08,038 Значит Бентам точно ошибался. Если вы правы, то не прав он. 863 00:50:08,038 --> 00:50:09,288 Хорошо, тогда он не прав. 864 00:50:09,288 --> 00:50:11,978 Хорошо, спасибо. 865 00:50:13,058 --> 00:50:18,538 Давайте отвлечёмся от этого обсуждения 866 00:50:18,538 --> 00:50:19,728 и обратим внимание на то, 867 00:50:19,728 --> 00:50:23,159 сколько было возражений по поводу поступка Дадли и Стивенса. 868 00:50:23,159 --> 00:50:26,028 Мы услышали несколько мнений в защиту того, что они сделали. 869 00:50:26,028 --> 00:50:29,129 Их оправдывали тем, что они были в ситуации крайней необходимости, 870 00:50:29,129 --> 00:50:30,399 в ужасных обстоятельствах. 871 00:50:30,399 --> 00:50:33,339 И косвенно оправдывали количественным аргументом: 872 00:50:33,339 --> 00:50:35,868 три жизни против одной. 873 00:50:35,868 --> 00:50:40,270 Говорили, что дело не только в количестве, но и в более важных обстоятельствах, 874 00:50:40,270 --> 00:50:43,208 в том, что дома у них остались семьи и близкие. 875 00:50:43,208 --> 00:50:47,078 Паркер же был сиротой, никто бы не скучал по нему. 876 00:50:47,938 --> 00:50:52,658 Таким образом, если вы сложите всё это и попробуете оценить 877 00:50:52,658 --> 00:50:56,508 соотношение счастья и страдания, 878 00:50:56,508 --> 00:51:02,558 то у вас будут основания утверждать, что они поступили правильно. 879 00:51:02,558 --> 00:51:07,559 Затем мы услышали, по крайней мере, три различных типа возражений. 880 00:51:09,369 --> 00:51:11,340 Например, возражение о том, 881 00:51:11,340 --> 00:51:14,008 что их поступок был категорически неправильным. 882 00:51:14,008 --> 00:51:17,140 Прозвучавшее здесь. Категорически неправильно. 883 00:51:17,140 --> 00:51:19,460 Убийство есть убийство, и это всегда плохо, 884 00:51:19,460 --> 00:51:23,209 даже если при этом повысится общий уровень счастья 885 00:51:23,209 --> 00:51:25,599 в обществе. 886 00:51:25,599 --> 00:51:28,398 Это категорическое возражение. 887 00:51:28,398 --> 00:51:30,699 Но нам всё равно нужно понять, 888 00:51:30,699 --> 00:51:32,698 почему убийство 889 00:51:32,698 --> 00:51:35,329 является категорически неправильным. 890 00:51:35,329 --> 00:51:38,279 Потому ли, что 891 00:51:38,279 --> 00:51:42,138 даже у юнги есть фундаментальные права? 892 00:51:42,138 --> 00:51:44,280 И если в этом вся причина, 893 00:51:44,280 --> 00:51:47,750 то откуда возникают эти права, если не из идеи 894 00:51:47,750 --> 00:51:52,148 повышения общественного благосостояния, полезности или счастья? Это первый вопрос. 895 00:51:52,868 --> 00:51:56,308 Другие утверждали, 896 00:51:56,309 --> 00:51:58,199 что в случае со жребием было бы иначе. 897 00:51:58,199 --> 00:51:59,874 Справедливая процедура, 898 00:51:59,874 --> 00:52:02,164 как заметил Мэтт. 899 00:52:05,809 --> 00:52:08,638 И некоторые из вас склонились к этой точке зрения. 900 00:52:08,638 --> 00:52:11,918 Но это не совсем категорическое возражение. 901 00:52:11,918 --> 00:52:16,488 Это утверждение о том, что все должны считаться равными, 902 00:52:16,488 --> 00:52:20,549 даже если в конце концов один человек будет принесён в жертву 903 00:52:20,549 --> 00:52:23,179 ради общего блага. 904 00:52:23,179 --> 00:52:25,969 Это заставляет нас задуматься о следующем. 905 00:52:25,969 --> 00:52:29,590 Почему согласие на определённую процедуру, 906 00:52:29,590 --> 00:52:31,369 пусть даже справедливую, 907 00:52:31,369 --> 00:52:37,609 оправдывает любой результат, вытекающий из этой процедуры? 908 00:52:37,609 --> 00:52:39,758 Это второй вопрос. 909 00:52:39,758 --> 00:52:42,298 И, наконец, третий вопрос связан 910 00:52:42,298 --> 00:52:44,968 с фундаментальной идеей о согласии. 911 00:52:44,968 --> 00:52:47,158 Эту мысль высказала Кэтлин. 912 00:52:48,318 --> 00:52:52,499 Если бы юнга согласился сам 913 00:52:52,499 --> 00:52:54,428 и никто бы его к этому не принуждал, 914 00:52:54,428 --> 00:52:56,798 как было отмечено, 915 00:52:56,798 --> 00:53:00,688 то пожертвовать его жизнью ради жизни других было бы вполне нормальным. 916 00:53:01,728 --> 00:53:04,770 Эту идею поддержали ещё больше людей, 917 00:53:04,770 --> 00:53:08,370 но это приводит нас к третьему философскому вопросу. 918 00:53:08,370 --> 00:53:14,289 Какова моральная основа такого согласия? 919 00:53:14,289 --> 00:53:16,818 Почему акт согласия 920 00:53:16,818 --> 00:53:18,978 так существенно меняет дело с позиции морали? 921 00:53:18,978 --> 00:53:21,808 Поступок, который в любом другом случае мы бы посчитали 922 00:53:21,808 --> 00:53:23,809 неправильным и назвали бы убийством, 923 00:53:23,809 --> 00:53:26,278 мы начинаем считать допустимым, 924 00:53:26,278 --> 00:53:29,499 если на него было дано согласие. 925 00:53:29,499 --> 00:53:31,549 Чтобы ответить на эти три вопроса, 926 00:53:31,549 --> 00:53:34,068 мы с вами изучим сочинения неcкольких философов. 927 00:53:34,068 --> 00:53:38,728 В следующий раз мы начнём с Бентама и Джона Стюарта Милля — 928 00:53:38,728 --> 00:53:41,018 философов-утилитаристов.