0:00:03.150,0:00:07.145 «The Lectures from Top Universities»[br]представляет: 0:00:07.145,0:00:12.585 перевод первой лекции [br]курса «Справедливость». 0:00:17.526,0:00:20.517 Курс: «Справедливость»,[br]Гарвардский Университет 0:00:20.517,0:00:22.837 с профессором Майклом Сэнделом 0:00:24.237,0:00:27.407 Эпизод 1: «Моральная сторона убийства» 0:00:33.265,0:00:37.230 Это курс о справедливости, и мы начнём [br]его с мысленного эксперимента. 0:00:37.230,0:00:44.489 Представьте, что вы водитель трамвая,[br]несущегося со скоростью 100 км/ч. 0:00:44.489,0:00:49.350 Вдруг вдалеке на рельсах [br]вы замечаете пятерых рабочих. 0:00:49.350,0:00:51.569 Вы пытаетесь остановиться, но не можете: 0:00:51.569,0:00:53.679 тормоза не работают. 0:00:53.679,0:00:56.630 Вы в полном отчаянии, поскольку знаете, 0:00:56.630,0:00:59.460 что если врежетесь в этих рабочих, 0:00:59.460,0:01:01.320 то все они погибнут. 0:01:01.320,0:01:04.879 Предположим, вы знаете это наверняка. 0:01:04.879,0:01:07.019 Итак, вы не знаете, что делать, 0:01:07.019,0:01:09.320 но вдруг замечаете, [br] 0:01:09.320,0:01:12.912 что справа есть боковая ветка 0:01:12.912,0:01:18.976 и на конце этой ветки находится [br]только один рабочий. 0:01:18.976,0:01:21.188 Руль трамвая исправен, 0:01:21.188,0:01:25.758 и при желании вы можете повернуть 0:01:25.758,0:01:28.545 на эту боковую ветку, 0:01:28.545,0:01:30.340 тем самым, убить одного, 0:01:30.340,0:01:33.000 но спасти жизнь пятерым.[br] 0:01:33.009,0:01:35.819 И вот первый вопрос: 0:01:35.819,0:01:38.656 как правильно поступить? 0:01:38.659,0:01:40.320 Как бы вы поступили? 0:01:40.328,0:01:41.891 Давайте проголосуем. 0:01:42.420,0:01:47.722 Кто бы повернул на боковую ветку? 0:01:47.722,0:01:50.243 Поднимите руки. 0:01:51.790,0:01:56.456 Кто не стал бы этого делать[br]и поехал бы прямо? 0:01:57.645,0:02:01.942 Не опускайте руки те,[br]кто поехал бы прямо. 0:02:03.989,0:02:07.351 Подавляющее большинство повернуло бы. 0:02:08.201,0:02:09.888 Теперь разберёмся, 0:02:09.888,0:02:15.089 почему вы приняли именно такое решение. 0:02:15.089,0:02:18.231 И давайте начнём с большинства, 0:02:18.231,0:02:21.919 с тех, кто повернул бы на боковую ветку. 0:02:21.919,0:02:23.508 Почему вы бы сделали это? 0:02:23.508,0:02:25.638 Что сподвигло бы вас на это? 0:02:25.638,0:02:28.949 Есть добровольцы? 0:02:29.839,0:02:31.418 Начинайте. Встаньте, пожалуйста. 0:02:32.018,0:02:35.000 Я думаю, что неправильно[br]убивать пять человек, 0:02:35.000,0:02:38.685 когда есть возможность[br]убить только одного. 0:02:39.446,0:02:42.177 Было бы неправильно убивать пятерых, 0:02:42.177,0:02:45.964 если вместо этого вы можете[br]убить только одного. 0:02:46.877,0:02:48.399 Да, неплохая причина. 0:02:48.399,0:02:50.798 Действительно неплохая. 0:02:52.829,0:02:53.692 Кто-нибудь ещё? 0:02:53.692,0:02:57.764 Все согласны с таким объяснением? 0:02:59.492,0:03:01.265 Да, пожалуйста. 0:03:01.265,0:03:05.399 Я думаю, это похоже[br]на случай с самолётом, 0:03:05.399,0:03:09.259 который разбился[br]в Пенсильвании 11 сентября. 0:03:09.259,0:03:11.598 Те люди, настоящие герои,[br]предпочли погибнуть, 0:03:11.598,0:03:15.918 но не допустить бóльших жертв [br]среди людей на земле. 0:03:15.918,0:03:19.119 То есть они руководствовались[br]тем же принципом: 0:03:19.121,0:03:25.219 в такой безнадёжной ситуации[br]лучше убить одного, но спасти пятерых. 0:03:25.219,0:03:29.592 Именно так считают те, [br]кто повернул бы? Верно? 0:03:30.468,0:03:33.468 Давайте теперь послушаем мнение тех, 0:03:33.468,0:03:35.318 кто оказался в меньшинстве, 0:03:35.318,0:03:38.137 тех, кто не повернул бы. 0:03:39.148,0:03:39.896 Да. 0:03:40.732,0:03:45.282 Я думаю, что такой же подход[br]оправдывает геноцид и тоталитаризм. 0:03:45.282,0:03:50.234 Чтобы спасти представителей[br]одной расы, вы уничтожаете другую. 0:03:50.234,0:03:53.235 И что бы вы сделали в этом случае? 0:03:53.235,0:03:55.261 Чтобы избежать 0:03:55.261,0:03:57.621 ужасов геноцида, 0:03:57.621,0:04:02.627 вы бы предпочли врезаться [br]в пятерых рабочих и убить их? 0:04:03.488,0:04:04.606 Думаю, да. 0:04:05.542,0:04:06.322 Правда?[br] 0:04:06.322,0:04:07.073 Да. 0:04:07.434,0:04:09.128 Хорошо, кто ещё? 0:04:09.756,0:04:12.324 Это смелый ответ, спасибо. 0:04:13.251,0:04:20.024 Давайте теперь рассмотрим[br]другой пример с трамваем 0:04:20.034,0:04:27.225 и посмотрим, будет ли[br]большинство из вас 0:04:27.225,0:04:30.839 придерживаться того же принципа: 0:04:30.839,0:04:33.320 лучше убить одного, [br]чтобы пятеро остались живы. 0:04:33.320,0:04:38.034 В этот раз вы не водитель трамвая, [br]а простой наблюдатель. 0:04:38.034,0:04:42.397 Вы стоите на мосту и видите, 0:04:42.397,0:04:45.588 что по рельсам несётся трамвай, 0:04:45.588,0:04:49.488 впереди чинят пути пять рабочих. 0:04:49.488,0:04:51.659 Тормоза не работают, 0:04:51.659,0:04:55.761 и трамвай вот-вот врежется в людей. 0:04:55.761,0:04:58.582 Итак, вы уже не водитель, 0:04:58.582,0:05:00.998 вы совершенно не знаете, что делать, 0:05:00.999,0:05:02.769 как вдруг замечаете, 0:05:02.769,0:05:06.479 что рядом с вами 0:05:06.479,0:05:09.742 стоит, прислонившись к перилам моста, 0:05:09.742,0:05:13.152 очень толстый человек. 0:05:15.264,0:05:18.764 И вы могли бы 0:05:18.764,0:05:20.124 его немного 0:05:20.124,0:05:22.526 подтолкнуть. 0:05:22.526,0:05:24.543 Он упал бы с моста 0:05:24.543,0:05:27.653 прямо на рельсы, 0:05:27.653,0:05:32.014 на пути трамвая. 0:05:32.014,0:05:35.423 Он бы погиб, но при этом[br]спас бы пять жизней. 0:05:36.079,0:05:37.548 Итак. 0:05:38.789,0:05:42.547 Кто столкнул бы толстяка с моста? 0:05:42.547,0:05:44.059 Поднимите руки. 0:05:48.012,0:05:50.924 Кто не стал бы этого делать? 0:05:50.924,0:05:53.891 Большинство не стало бы. 0:05:53.891,0:05:55.583 Возникает закономерный вопрос. 0:05:55.583,0:05:59.976 Что стало с тем принципом: 0:05:59.976,0:06:03.502 спасение жизни пятерых оправдывает [br]потерю жизни одного? 0:06:03.502,0:06:04.942 Что стало с тем принципом, 0:06:04.942,0:06:09.235 который в первом случае[br]поддерживали почти все? 0:06:09.235,0:06:13.429 Я хотел бы услышать мнение тех, [br]кто был в большинстве оба раза. 0:06:13.429,0:06:16.414 Как вы объясните разницу между ними? 0:06:16.414,0:06:17.895 Да, пожалуйста. 0:06:17.903,0:06:21.508 Полагаю, что во втором случае [br]у вас есть выбор: 0:06:21.508,0:06:24.268 толкнуть или не толкнуть человека. 0:06:24.268,0:06:31.329 Этот человек иначе не имел бы [br]никакого отношения к ситуации, 0:06:31.329,0:06:36.313 и вы как бы принимаете решение за него, 0:06:36.313,0:06:39.906 вмешиваться в эту ситуацию или нет, 0:06:39.906,0:06:43.328 в отличие от первого случая, 0:06:43.328,0:06:47.838 когда все три стороны —[br]водитель и две группы рабочих — 0:06:47.838,0:06:50.486 уже принимают активное[br]участие в ситуации. 0:06:50.486,0:06:54.861 Но ведь тот парень, который [br]работает на боковой ветке, 0:06:54.861,0:06:57.131 не принимал решения [br]пожертвовать своей жизнью, 0:06:57.131,0:07:01.836 точно так же, как тот [br]толстяк на мосту, не так ли? 0:07:01.836,0:07:05.338 Да, это так, но он был на рельсах. 0:07:05.339,0:07:08.117 А этот парень был на мосту! 0:07:10.324,0:07:12.376 Если хотите, можете продолжить. 0:07:13.250,0:07:15.267 Ладно, это непростой вопрос, 0:07:15.267,0:07:16.987 но вы очень хорошо справились. 0:07:16.987,0:07:19.036 Очень непростой вопрос. 0:07:19.527,0:07:21.030 Кто-нибудь ещё 0:07:21.030,0:07:22.250 хочет попробовать 0:07:22.250,0:07:25.930 объяснить, почему большинство 0:07:25.930,0:07:28.420 именно так отреагировало [br]в обоих этих случаях? 0:07:28.860,0:07:29.766 Прошу. 0:07:29.770,0:07:32.150 Полагаю, что в первом случае 0:07:32.150,0:07:35.721 с пятью рабочими на основной[br]ветке и одним на боковой, 0:07:35.733,0:07:37.370 вам необходимо сделать выбор 0:07:37.370,0:07:40.948 и принять какое-то решение, иначе эти [br]пять человек погибнут под трамваем, 0:07:40.948,0:07:42.868 но вы за это не несёте ответственности. [br] 0:07:42.868,0:07:45.048 Вагон несётся на большой скорости, 0:07:45.048,0:07:47.768 и вам нужно принять мгновенное решение, 0:07:47.768,0:07:52.158 а, сталкивая толстяка с моста, [br]вы совершаете убийство. 0:07:52.158,0:07:57.258 Вы можете это контролировать[br]в отличие от вагона. 0:07:57.258,0:07:59.876 Поэтому я считаю, что это [br]немного другой случай. 0:07:59.876,0:08:04.359 Хорошо. Кто хочет возразить? [br]Это было неплохо. 0:08:04.359,0:08:06.243 Кто хочет ответить? 0:08:06.243,0:08:09.161 Объясняет ли это ситуацию? 0:08:09.161,0:08:11.600 Не думаю, что это удачное объяснение, 0:08:11.600,0:08:14.228 потому что вам всё равно[br]нужно решить, кто умрёт. 0:08:14.228,0:08:16.628 Либо вы решаете повернуть [br]и убить одного рабочего, 0:08:16.628,0:08:19.638 что будет вашим [br]сознательным решением, 0:08:19.638,0:08:21.817 либо вы решаете [br]столкнуть толстяка, 0:08:21.817,0:08:24.477 что также будет вашим[br]сознательным решением. 0:08:24.477,0:08:27.561 Так что вы в любом случае [br]делаете какой-то выбор. 0:08:27.561,0:08:29.645 Хотите возразить? 0:08:29.645,0:08:33.944 Я не уверен, что это так. Мне кажется, [br]всё равно есть определённая разница. 0:08:33.944,0:08:37.420 Если вы сталкиваете кого-то[br]с моста и убиваете его, 0:08:37.420,0:08:39.772 то в этом случае вы делаете это [br]своими руками. 0:08:39.772,0:08:42.260 Толкаете своими собственными руками. 0:08:42.260,0:08:43.769 И это отличается от ситуации, 0:08:43.769,0:08:48.519 когда вы управляете чем-то, что может [br]стать причиной смерти... 0:08:48.519,0:08:52.456 Знаете, теперь мне самому [br]это не очень нравится... 0:08:52.456,0:08:54.295 Нет-нет, всё нормально.[br]Как вас зовут? 0:08:54.295,0:08:55.398 Эндрю. 0:08:55.398,0:08:58.905 Позвольте задать вам вопрос, Эндрю. 0:08:58.905,0:09:01.910 Допустим, [br] 0:09:01.910,0:09:03.461 вы стоите на мосту 0:09:03.461,0:09:04.701 рядом с толстяком, 0:09:04.701,0:09:06.001 и вам не нужно его толкать.[br] 0:09:06.001,0:09:07.669 Допустим, он стоит, 0:09:07.669,0:09:14.437 прислонившись к дверце, которую[br]вы можете открыть, повернув рычаг. 0:09:17.068,0:09:18.391 Вы бы повернули? 0:09:18.391,0:09:23.003 Не знаю почему, но это всё равно[br]как-то неправильно. 0:09:23.003,0:09:29.680 Возможно, если бы вы случайно задели[br]этот рычаг или что-то в этом роде... 0:09:29.680,0:09:31.897 Или, например, вагон 0:09:31.897,0:09:37.531 катился бы к какому-нибудь переключателю, [br]который откроет эту дверцу. 0:09:37.531,0:09:39.051 Тогда ещё куда ни шло. 0:09:39.051,0:09:42.590 Вполне логично. Как бы то ни было, [br]это всё равно кажется неправильным. 0:09:42.590,0:09:46.054 Как и в первом случае кажется, что[br]правильным было бы повернуть. 0:09:46.054,0:09:50.363 С другой стороны, в первом случае[br]вы непосредственно вовлечены в ситуацию, 0:09:50.363,0:09:52.535 а во втором — нет. 0:09:52.535,0:09:55.461 И у вас есть выбор: вмешиваться или нет. 0:09:55.461,0:09:59.341 Давайте на минуту забудем об этом случае. 0:09:59.341,0:10:01.212 Это было неплохо. 0:10:01.212,0:10:06.276 Давайте представим другой случай. Теперь[br]вы врач в отделении экстренной помощи. 0:10:06.276,0:10:09.667 И к вам поступают шесть пациентов. 0:10:11.382,0:10:16.562 Они попали в ужасную аварию с трамваем. 0:10:18.152,0:10:21.698 Пять из них ещё держатся,[br]но один уже при смерти. 0:10:21.698,0:10:27.512 Вы можете потратить весь день,[br]пытаясь спасти жизнь одного, 0:10:27.512,0:10:29.419 но тогда остальные пятеро умрут. 0:10:29.419,0:10:32.181 Или вы могли бы попытаться[br]спасти тех пятерых, 0:10:32.181,0:10:36.315 но за это время умрёт тот,[br]кто тяжело ранен. 0:10:36.315,0:10:39.358 Кто бы спас пятерых? 0:10:39.358,0:10:40.701 Теперь уже в качестве врача. 0:10:40.701,0:10:43.097 Кто бы спас одного? 0:10:44.165,0:10:46.137 Немногие. 0:10:46.138,0:10:48.061 Всего лишь несколько человек. 0:10:49.061,0:10:51.302 Полагаю, вы руководствовались [br]тем же принципом: 0:10:51.302,0:10:54.823 лучше спасти пять жизней, [br]но при этом пожертвовать одной. 0:10:55.483,0:10:58.956 Теперь рассмотрим другой[br]врачебный случай. 0:10:58.956,0:11:01.215 На этот раз вы хирург. 0:11:01.850,0:11:03.915 И к вам в больницу[br]попало пять пациентов, 0:11:03.915,0:11:09.399 каждому из которых срочно требуется[br]пересадка органа, иначе они умрут. 0:11:09.399,0:11:14.909 Одному нужно сердце, другому — лёгкое,[br]третьему — почка, четвёртому — печень, 0:11:14.909,0:11:18.828 а пятому — поджелудочная железа. 0:11:20.059,0:11:21.982 Но у вас нет доноров. 0:11:22.571,0:11:26.667 Ещё совсем немного, и пациенты умрут. 0:11:27.360,0:11:30.477 Но вдруг оказывается, 0:11:30.477,0:11:32.327 что в соседней палате 0:11:32.327,0:11:35.740 сидит здоровый парень,[br]который пришёл на приём к врачу. 0:11:39.260,0:11:40.651 И он... 0:11:43.577,0:11:45.514 Вам это нравится? 0:11:47.029,0:11:50.282 Он ненадолго задремал. 0:11:52.999,0:11:56.439 Вы могли бы очень тихо войти 0:11:56.439,0:11:57.967 и извлечь пять его органов. [br] 0:11:57.967,0:12:02.621 Этот человек умрёт,[br]но вы сможете спасти пятерых. 0:12:03.151,0:12:05.473 Кто бы это сделал? 0:12:07.176,0:12:08.472 Хоть кто-нибудь? 0:12:10.231,0:12:16.136 Сколько вас? Поднимите руки, [br]если бы вы это сделали. 0:12:17.763,0:12:19.564 Кто-нибудь с балкона? 0:12:20.528,0:12:21.236 Вы? 0:12:21.782,0:12:24.272 Аккуратно, не слишком перегибайтесь. 0:12:26.562,0:12:28.546 Кто не стал бы этого делать? 0:12:29.221,0:12:30.228 Хорошо. 0:12:30.228,0:12:32.246 Что скажет молодой человек на балконе? 0:12:32.246,0:12:35.839 Вы бы извлекли органы. Почему? 0:12:35.839,0:12:38.754 Я бы хотел предложить другой вариант: 0:12:38.754,0:12:42.815 взять органы только у того[br]из больных, кто умрёт первым, 0:12:42.815,0:12:48.963 и воспользоваться его здоровыми органами, [br]чтобы спасти оставшихся четверых. 0:12:49.732,0:12:52.316 Это довольно хорошая идея. 0:12:54.439,0:12:56.561 Это просто отличная идея, 0:12:57.650,0:13:00.087 если исключить тот факт, 0:13:00.087,0:13:04.054 что вы только что разрушили [br]философский замысел. 0:13:04.714,0:13:07.220 Давайте отвлечёмся 0:13:07.220,0:13:10.240 от этих случаев [br]и их обсуждения, 0:13:10.240,0:13:16.669 чтобы отметить пару моментов,[br]к которым привела наша дискуссия. 0:13:17.230,0:13:25.361 Из наших обсуждений уже начали проявляться[br]определённые нравственные принципы. 0:13:25.860,0:13:30.588 Давайте рассмотрим, что из себя[br]представляют эти принципы. 0:13:31.160,0:13:35.662 Первый нравственный принцип,[br]появившийся в дискуссии, гласит: 0:13:35.662,0:13:40.540 правильный, нравственный поступок[br]зависит от последствий, 0:13:40.540,0:13:44.176 к которым приводят ваши действия. 0:13:45.384,0:13:51.415 Лучше, чтобы выжили пятеро,[br]даже если для этого один должен умереть. 0:13:51.990,0:13:57.979 Это пример консеквенциальной аргументации. 0:13:58.810,0:14:04.559 При консеквенциальном подходе моральная[br]ценность выражается в последствиях, 0:14:04.559,0:14:08.079 к которым привели ваши действия. 0:14:08.749,0:14:12.649 Потом мы пошли немного дальше [br]и рассмотрели другие случаи, 0:14:12.649,0:14:19.537 и люди уже были не столь уверены[br]в правильности консеквенционализма. 0:14:20.399,0:14:25.590 Когда люди не решались столкнуть[br]толстяка с моста 0:14:25.590,0:14:29.470 или изъять органы невинного пациента, 0:14:29.470,0:14:40.001 они указывали на доводы,[br]связанные с сущностью самого действия. 0:14:40.001,0:14:42.549 Теперь им было уже неважно, [br]какими будут последствия. 0:14:42.549,0:14:44.965 Люди сопротивлялись. 0:14:44.969,0:14:49.369 Они думали, что это просто неправильно,[br]категорически неправильно 0:14:49.369,0:14:56.376 убить невинного человека,[br]даже ради спасения пяти жизней. 0:14:56.376,0:14:58.446 По крайней мере, они так считали 0:14:58.446,0:15:03.019 во второй версии каждого [br]рассмотренного сюжета. 0:15:03.786,0:15:15.785 Это второй, категорический[br]способ выстраивания аргументации. 0:15:15.785,0:15:18.931 Такая аргументация определяет[br]мораль как соответствие действий 0:15:18.931,0:15:21.238 определённым абсолютным [br]этическим требованиям,[br] 0:15:21.238,0:15:23.748 категорическим правам и обязанностям, 0:15:23.748,0:15:26.516 независимо от последствий.[br] 0:15:27.240,0:15:31.535 На протяжении нескольких недель[br]мы будем изучать разницу 0:15:31.535,0:15:35.794 между консеквенциальной[br]и категорической аргументацией. 0:15:36.489,0:15:43.450 Важнейший пример консеквенциальной[br]аргументации — это утилитаризм, доктрина, 0:15:43.450,0:15:50.185 предложенная английским политическим[br]философом 18-го века Иеремией Бентамом. 0:15:51.020,0:15:58.029 Наиболее видным сторонником[br]категорической аргументации является 0:15:58.029,0:16:01.712 немецкий философ[br]18-го века Иммануил Кант. 0:16:02.414,0:16:07.060 Мы остановимся на этих двух разных[br]видах нравственной аргументации, 0:16:07.060,0:16:09.935 дадим им оценку, а также[br]рассмотрим другие. 0:16:10.569,0:16:15.860 Из учебной программы видно, что мы изучим[br]множество великих и известных книг: 0:16:15.860,0:16:21.949 сочинения Аристотеля, Джона Локка,[br]Иммануила Канта, Джона Стюарта Милля, 0:16:21.949,0:16:23.112 и других. 0:16:23.860,0:16:28.037 Обратите внимание на то,[br]что мы не только изучим эти книги, 0:16:28.037,0:16:34.159 но также рассмотрим современные[br]политические и правовые дискуссии, 0:16:34.159,0:16:36.893 затрагивающие философские вопросы. 0:16:36.893,0:16:41.269 Мы будем говорить о равенстве[br]и неравенстве, о позитивной дискриминации, 0:16:41.269,0:16:43.386 о свободе слова и языке вражды, 0:16:43.386,0:16:46.632 об однополых браках и воинской повинности. 0:16:46.632,0:16:50.680 Эти и другие прикладные вопросы [br]будут подняты, 0:16:50.680,0:16:55.190 чтобы не только «оживить» отвлечённые [br]от реальной жизни книги, 0:16:55.190,0:16:59.430 но и внести ясность в то, с чем мы[br]сталкиваемся каждый день в обычной жизни, 0:16:59.430,0:17:04.924 включая политические вопросы. 0:17:05.444,0:17:10.018 После изучения этих книг[br]и обсуждения прикладных вопросов, 0:17:10.018,0:17:14.480 мы увидим, как они дополняют[br]и освещают друг друга. 0:17:15.310,0:17:21.506 Звучит довольно заманчиво,[br]но я должен предупредить. 0:17:22.419,0:17:23.866 И вот о чём. 0:17:25.089,0:17:34.009 Чтение этих книг ради упражнений [br]в самопознании 0:17:34.009,0:17:38.129 несёт в себе определённые риски, 0:17:38.129,0:17:41.791 как индивидуальные, [br]так и политические; 0:17:41.791,0:17:46.828 риски, о которых знает каждый студент[br]курса политической философии. 0:17:47.600,0:17:54.030 Эти риски вытекают из того,[br]что философия учит нас, 0:17:54.030,0:18:00.013 побуждает нас сомневаться[br]и противоречить тому, что мы уже знаем. 0:18:01.159,0:18:03.269 Парадоксально, 0:18:03.269,0:18:08.901 но сложность этого курса в том, что вы [br]будете изучать уже давно известное вам. 0:18:09.679,0:18:16.377 Знания, которые вы получили[br]из известных неоспоримых истин, 0:18:16.377,0:18:19.196 станут для вас чуждыми. 0:18:20.029,0:18:23.059 Именно так работают наши примеры, 0:18:23.059,0:18:28.059 шуточные гипотетические случаи,[br]с которых мы начали лекцию. 0:18:28.879,0:18:31.581 Точно такое же влияние оказывают [br]книги по философии.[br] 0:18:31.581,0:18:35.390 Философия отстраняет нас[br] 0:18:35.390,0:18:37.340 от хорошо известных истин, 0:18:37.340,0:18:40.250 не давая при этом новой информации,[br] 0:18:40.250,0:18:43.550 но увлекая за собой и провоцируя на то, 0:18:43.550,0:18:46.734 чтобы посмотреть на вещи по-новому. 0:18:47.239,0:18:49.103 Но здесь кроется риск. 0:18:49.780,0:18:54.080 Когда однажды привычное станет чуждым, 0:18:54.080,0:18:56.663 оно уже никогда не будет прежним. 0:18:57.409,0:19:00.099 Самопознание 0:19:00.099,0:19:02.279 похоже на потерю невинности. 0:19:02.780,0:19:05.710 Однако то, что вы обнаружите,[br]изменив привычное ви́дение, 0:19:05.710,0:19:09.492 уже не будет для вас неожиданным 0:19:09.492,0:19:11.265 или неизвестным. 0:19:13.180,0:19:17.197 Это делает наш курс сложным, [br] 0:19:17.197,0:19:19.249 но от этого не менее захватывающим. 0:19:19.759,0:19:25.190 Моральная и политическая[br]философия — это история, 0:19:25.190,0:19:29.280 и вы никогда не знаете, куда она вас[br]приведёт. Но вы точно знаете, 0:19:29.280,0:19:31.139 что эта история 0:19:31.139,0:19:33.087 о вас самих. 0:19:34.279,0:19:36.346 Это индивидуальный риск. 0:19:36.970,0:19:39.451 Теперь рассмотрим политические риски. 0:19:39.979,0:19:42.920 Одним из способов пробудить [br]у вас интерес к этому курсу 0:19:42.920,0:19:44.608 было бы пообещать вам, 0:19:44.608,0:19:46.300 что после прочтения этих книг 0:19:46.300,0:19:48.080 и обсуждения определённых вопросов 0:19:48.080,0:19:50.987 вы станете более ответственным [br]членом общества. 0:19:51.719,0:19:57.070 Вы изучите основы публичной политики,[br]отточите свои политические суждения, 0:19:57.070,0:20:01.479 научитесь более эффективно[br]участвовать в общественной жизни. 0:20:02.549,0:20:05.930 Но это было бы однобокое[br]и в целом неверное обещание. 0:20:06.439,0:20:10.718 Политическая философия,[br]по большому счёту, состоит в другом. 0:20:11.409,0:20:14.420 Нам необходимо допустить, 0:20:14.420,0:20:18.846 что под влиянием политической философии [br]вы можете стать плохим гражданином, 0:20:18.846,0:20:21.533 вместо того, чтобы стать хорошим. 0:20:21.533,0:20:23.700 Или, по крайней мере, [br]плохим гражданином 0:20:23.700,0:20:27.104 до тех пор, пока вы не станете лучше. 0:20:27.869,0:20:30.200 Это происходит потому,[br]что занятия философией 0:20:30.200,0:20:32.220 удаляют нас от реальности 0:20:32.220,0:20:35.725 и заводят в тупик. 0:20:36.370,0:20:39.709 Давайте вернёмся во времена Сократа 0:20:39.709,0:20:41.569 и обратимся к диалогу «Горгий», 0:20:41.569,0:20:45.390 в котором друг Сократа, Калликл, 0:20:45.390,0:20:48.912 пытается отговорить его[br]от философствований. 0:20:49.670,0:20:54.310 Калликл говорит ему, что философия, [br]конечно, милая забава, 0:20:54.310,0:20:57.865 если предаваться ей в разумных пределах [br]и в определённом возрасте. 0:20:57.865,0:21:03.604 Но если кто-то погружается в неё глубже, [br]чем должно, это заканчивается плачевно. 0:21:03.604,0:21:06.319 «Прими мой совет, — говорит Калликл, — 0:21:06.319,0:21:08.199 оставь словопрения 0:21:08.199,0:21:11.178 и обратись к жизни деятельной. 0:21:11.180,0:21:16.780 Переведи свой взор с тех, кто тратит [br]время на бессмысленные споры, 0:21:16.780,0:21:19.859 на тех, кто ведёт деятельную жизнь, [br]имеет хорошую репутацию 0:21:19.859,0:21:22.189 и благословлён другими достоинствами». 0:21:22.189,0:21:28.493 Другими словами, Калликл убеждает Сократа[br]оставить философствования, 0:21:28.493,0:21:30.439 обратиться к реальности, 0:21:30.439,0:21:33.651 поступить в бизнес-школу. 0:21:34.950,0:21:38.127 И Калликл был по-своему прав. 0:21:38.127,0:21:42.030 Он был прав в том, что философия [br]уводит нас в сторону 0:21:42.030,0:21:44.909 от традиций, установленных допущений 0:21:44.909,0:21:46.539 и устоявшихся убеждений. 0:21:46.539,0:21:48.270 Здесь нас и подстерегают опасности, 0:21:48.270,0:21:49.840 индивидуальные и политические. 0:21:49.840,0:21:53.389 В ответ на их угрозу сознание [br]включает защитный механизм. 0:21:54.029,0:21:56.230 Этот механизм мы назвали скептицизмом. 0:21:56.230,0:21:58.830 Происходит это примерно следующим образом. 0:21:58.830,0:22:03.660 Допустим, мы так и не смогли прийти [br]к единому мнению по вопросам, 0:22:03.660,0:22:08.691 с обсуждения которых начали эту лекцию. 0:22:09.499,0:22:11.060 Но если ни Аристотель, 0:22:11.060,0:22:16.950 ни Локк, ни Кант, ни Милль [br]не дали на них ответа за всё это время, 0:22:16.950,0:22:23.472 то кто мы такие, те, кто собрались[br]в этом зале на семестр, 0:22:23.472,0:22:25.686 чтобы вдруг разрешить их? 0:22:26.260,0:22:29.220 Может быть, определённое ви́дение мира — 0:22:29.220,0:22:34.070 это личное дело каждого человека,[br]и к этому больше нечего добавить? 0:22:34.070,0:22:35.839 И правильного ответа не существует. 0:22:36.239,0:22:37.649 Это попытка бегства. 0:22:37.650,0:22:39.040 Бегства в скептицизм. 0:22:39.380,0:22:42.443 На это я ответил бы следующим образом: 0:22:42.443,0:22:47.391 да, над этими вопросами [br]люди бьются долгое время, 0:22:47.391,0:22:49.059 но сам факт того, 0:22:49.059,0:22:52.600 что они возвращаются к нам нерешёнными, [br]настойчиво требуя от нас ответа, 0:22:52.600,0:22:54.650 с одной стороны, говорит о том, 0:22:54.650,0:22:56.989 что разрешить их невозможно,[br] 0:22:56.989,0:22:59.729 а с другой — о том, [br]что их возникновение неизбежно. 0:22:59.729,0:23:02.289 И причина их неизбежности в том, 0:23:02.289,0:23:09.169 что каждому из нас приходится ежедневно [br]отвечать на эти вопросы самостоятельно. 0:23:09.899,0:23:15.880 Таким образом, скептицизм, побуждающий нас[br]отказаться от любых попыток найти ответы, 0:23:15.880,0:23:18.059 не может являться решением. 0:23:18.059,0:23:19.580 Иммануил Кант [br] 0:23:19.580,0:23:22.968 очень ёмко описал[br]несостоятельность скептицизма: 0:23:22.970,0:23:26.038 «Скептицизм есть привал [br]для человеческого разума, 0:23:26.038,0:23:28.999 где он может обдумать своё [br]догматическое странствие, 0:23:28.999,0:23:32.659 но это вовсе не место [br]для постоянного пребывания». 0:23:32.659,0:23:35.750 «Простое принятие скептицизма, — [br]пишет Кант, — 0:23:35.750,0:23:41.503 никогда не удовлетворит страждущий разум». 0:23:42.500,0:23:46.669 Этими примерами я пытался дать вам [br]представление о том, 0:23:46.669,0:23:49.758 с какими опасностями и искушениями [br]сталкивается ступивший на путь 0:23:49.758,0:23:51.741 философского познания. 0:23:51.741,0:23:55.525 В заключение я хотел бы сказать, 0:23:55.525,0:23:58.039 что задача этого курса — 0:23:58.039,0:24:01.976 разбудить страждущий разум 0:24:01.976,0:24:04.130 и показать, как далеко [br]он может нас увести. 0:24:04.130,0:24:06.807 Спасибо за внимание. 0:24:15.280,0:24:16.960 В такой отчаянной ситуации 0:24:16.960,0:24:19.059 вы должны сделать всё, чтобы выжить. 0:24:19.059,0:24:22.629 Вы должны сделать всё, что возможно? [br]Да, вы должны сделать всё, что можете. 0:24:22.629,0:24:25.699 Если вы девятнадцать дней ничего не ели, 0:24:25.700,0:24:30.339 кто-то из вас должен пожертвовать собой[br]ради спасения остальных. 0:24:30.339,0:24:31.859 Отлично. Как вас зовут? 0:24:32.139,0:24:32.949 Маркус. 0:24:33.429,0:24:35.564 Что вы ответите Маркусу? 0:24:37.459,0:24:39.879 Эпизод 2: «Случай каннибализма» 0:24:40.459,0:24:44.489 В прошлый раз 0:24:44.489,0:24:46.780 мы начали 0:24:46.780,0:24:48.820 с нескольких историй, 0:24:48.820,0:24:50.759 с нескольких моральных дилемм: 0:24:50.759,0:24:52.689 о трамваях, 0:24:52.689,0:24:54.339 врачах, 0:24:54.339,0:24:56.209 а также о здоровых пациентах, 0:24:56.209,0:25:00.689 рискующих стать жертвами [br]трансплантации органов. 0:25:00.690,0:25:03.799 Мы обратили внимание на две особенности 0:25:03.799,0:25:06.690 в доводах, которые мы приводили. 0:25:06.690,0:25:09.689 Первая особенность связана с тем, [br]как именно мы спорили. 0:25:09.689,0:25:13.379 Всё началось с наших суждений [br]об определённых случаях. 0:25:13.379,0:25:18.170 Мы попытались сформулировать [br]причины или принципы, 0:25:18.170,0:25:22.329 лежащие в основе наших суждений.[br] 0:25:22.329,0:25:25.280 И затем, столкнувшись с новым случаем, 0:25:25.280,0:25:30.209 мы пересматривали эти принципы, 0:25:30.209,0:25:33.869 рассматривая один в свете другого. 0:25:33.869,0:25:35.850 И мы чувствовали внутреннее[br]сопротивление, 0:25:35.850,0:25:38.860 пытаясь привести в соответствие 0:25:38.860,0:25:41.550 наши суждения об определённых случаях[br] 0:25:41.550,0:25:45.490 и принципы, лежащие в основе[br]этих суждений. 0:25:46.270,0:25:50.459 Мы также заметили кое-что [br]в содержании доводов, 0:25:50.459,0:25:54.480 которые возникли в ходе обсуждения.[br] 0:25:55.150,0:25:57.449 Мы заметили, что иногда [br]мы испытывали желание 0:25:57.449,0:26:00.649 дать моральную оценку[br]последствиям действий, 0:26:00.649,0:26:05.699 результатам и положению дел, [br]к которому эти действия привели. 0:26:06.389,0:26:10.810 Мы назвали это явление[br]консеквенциальной аргументацией. 0:26:11.470,0:26:13.110 Но мы также заметили, 0:26:13.110,0:26:16.300 что в некоторых ситуациях 0:26:16.300,0:26:18.469 не только результат имел для нас 0:26:18.469,0:26:20.639 значение. 0:26:21.309,0:26:23.180 Иногда, 0:26:23.180,0:26:25.249 как многие из нас почувствовали, 0:26:25.249,0:26:31.240 не только последствия, но и сущность [br]или характер действия 0:26:31.240,0:26:34.329 имеет моральное значение. 0:26:35.119,0:26:37.690 Некоторые люди утверждали, [br]что есть определённые вещи, 0:26:37.690,0:26:40.470 которые категорически неправильны, 0:26:40.470,0:26:42.529 даже если за ними последует 0:26:42.529,0:26:44.240 положительный результат; 0:26:44.240,0:26:47.250 даже если они приведут [br]к спасению жизни пятерых 0:26:47.250,0:26:49.018 ценой одной жизни. 0:26:49.588,0:26:52.490 Таким образом, мы сравнили [br]консеквенциальные 0:26:52.490,0:26:54.470 моральные принципы 0:26:54.470,0:26:57.210 и категорические. 0:26:57.930,0:26:59.659 Cегодня 0:26:59.659,0:27:01.009 и в ближайшие несколько дней 0:27:01.009,0:27:05.879 мы начнём рассматривать одну [br]из самых влиятельных 0:27:05.879,0:27:10.920 версий консеквенциальной[br]теории морали — 0:27:10.920,0:27:14.989 философию утилитаризма. 0:27:15.709,0:27:17.340 Иеремия Бентам, 0:27:17.340,0:27:21.560 английский политический философ [br]18-го века, 0:27:21.560,0:27:22.910 дал первое 0:27:22.910,0:27:26.580 чёткое систематическое определение 0:27:26.580,0:27:31.320 утилитаристской моральной теории. 0:27:32.020,0:27:36.260 Идея Бентама, 0:27:36.260,0:27:38.300 его основная мысль 0:27:38.300,0:27:42.770 очень проста[br] 0:27:42.770,0:27:48.208 и несёт интуитивно понятный посыл. 0:27:48.208,0:27:51.600 Она заключается в следующем: 0:27:51.600,0:27:54.439 правильное действие, 0:27:54.440,0:27:57.619 справедливое действие 0:27:57.619,0:28:01.199 должно максимизировать 0:28:01.199,0:28:02.209 полезность. 0:28:02.209,0:28:05.259 Что он имел в виду под «полезностью»?[br] 0:28:05.979,0:28:11.380 Под «полезностью» он имел в виду [br]преобладание 0:28:11.380,0:28:13.460 удовольствия над болью, 0:28:13.460,0:28:16.640 счастья над страданием. 0:28:16.640,0:28:22.220 И вот как он достиг принципа[br]максимизации полезности. 0:28:22.220,0:28:24.460 Он начал с наблюдения, заметив, 0:28:24.460,0:28:27.660 что все мы, люди, 0:28:27.660,0:28:31.200 управляемы двумя полновластными [br]«повелителями»: 0:28:31.200,0:28:34.539 болью и удовольствием. 0:28:34.539,0:28:41.448 Нам нравится удовольствие [br]и не нравится боль. 0:28:42.188,0:28:45.769 И поэтому мы всегда должны основывать [br]наши моральные суждения, 0:28:45.769,0:28:49.100 думаем ли мы о том, как правильно [br]поступить в нашей частной жизни, 0:28:49.100,0:28:52.529 или же размышляем уже в качестве[br]законодателей или граждан 0:28:52.529,0:28:56.969 о том, каким должен быть закон, [br]на следующем: 0:28:56.969,0:29:01.919 нужно действовать, индивидуально [br]или же коллективно, 0:29:01.919,0:29:05.778 в направлении максимизации 0:29:05.778,0:29:07.560 общего уровня 0:29:07.560,0:29:10.429 счастья. 0:29:11.259,0:29:15.320 Утилитаризм Бентама иногда [br]выражается слоганом: 0:29:15.320,0:29:18.799 «наибольшее благо[br]для наибольшего количества». 0:29:18.799,0:29:22.788 Вооружившись этим[br]базовым принципом полезности, 0:29:22.788,0:29:28.100 давайте проверим его,[br]применив к другому случаю. 0:29:28.100,0:29:34.050 На этот раз история не гипотетическая,[br]а вполне реальная. 0:29:34.050,0:29:38.139 Дело Дадли и Стивенса. 0:29:38.139,0:29:41.690 Это знаменитое британское[br]судебное дело 19-го века, 0:29:41.690,0:29:46.799 которое часто разбирается[br]на юридических факультетах. 0:29:47.429,0:29:49.959 Итак, что же произошло в этом деле? 0:29:49.959,0:29:51.759 Я вкратце изложу его суть, 0:29:51.759,0:29:54.820 и затем я хотел бы услышать, 0:29:54.820,0:29:57.110 как бы вы разрешили его, 0:29:57.110,0:30:00.920 если бы оказались на месте присяжных. 0:30:03.669,0:30:08.849 В газетном отчёте того времени[br]оно было описано так: 0:30:08.849,0:30:14.180 «Нет истории печальнее на свете,[br]чем история выживших 0:30:14.180,0:30:16.180 с яхты «Mignonette» [«Резеда»]. 0:30:16.180,0:30:21.679 Это судно затонуло в Южной Атлантике[br]в трёхстах милях от Мыса Доброй Надежды. 0:30:21.679,0:30:25.920 На борту было четыре человека:[br]капитан Дадли, 0:30:25.920,0:30:30.020 его главный помощник Стивенс[br]и матрос Брукс. 0:30:30.020,0:30:32.489 Все они были «людьми[br]с безукоризненной репутацией». 0:30:32.489,0:30:35.719 По крайней мере, так сообщается[br]в газетном отчёте. 0:30:35.719,0:30:39.750 Четвёртым членом команды был[br]Ричард Паркер — 0:30:39.750,0:30:42.729 семнадцатилетний юнга. 0:30:42.729,0:30:50.560 Он был сиротой, у него не было семьи,[br]и это было его первое дальнее плавание. 0:30:51.290,0:30:53.650 Как сообщается,[br]он отправился в путешествие, 0:30:53.650,0:30:56.730 не послушавшись совета своих друзей. 0:30:56.730,0:30:59.850 Полный надежд и юношеских амбиций, 0:30:59.850,0:31:02.380 он думал, что путешествие [br]сделает из него мужчину. 0:31:03.000,0:31:05.140 К сожалению, этому не суждено[br]было произойти. 0:31:05.140,0:31:07.479 Факты дела не были предметом спора.[br] 0:31:07.479,0:31:11.230 В судно ударила волна,[br]и «Mignonette» [«Резеда»] пошла ко дну. 0:31:11.940,0:31:14.739 Экипаж сумел сесть в спасательную шлюпку. 0:31:14.739,0:31:18.269 Единственной едой, которую они имели, 0:31:18.269,0:31:21.600 были две банки консервированной репы. 0:31:21.600,0:31:23.260 Никакой питьевой воды.[br] 0:31:23.900,0:31:26.610 Первые три дня они ничего не ели, 0:31:26.609,0:31:30.250 на четвёртый день они открыли [br]одну из консервных банок 0:31:30.250,0:31:31.530 и съели её содержимое. 0:31:31.530,0:31:34.150 На следующий день они поймали черепаху. 0:31:34.150,0:31:38.250 Оставшаяся банка с репой и черепаха 0:31:38.250,0:31:40.960 помогли им продержаться[br]ещё несколько дней, [br] 0:31:40.960,0:31:43.939 но затем в течение восьми дней[br]у них уже не было ничего: 0:31:43.939,0:31:46.019 ни еды, ни воды. 0:31:46.729,0:31:49.929 Представьте себя в такой ситуации. 0:31:49.929,0:31:51.929 Что бы вы сделали? 0:31:52.679,0:31:54.389 Вот что сделали они. 0:31:55.049,0:32:00.740 К этому моменту юнга Паркер [br]лежал в углу на дне шлюпки, 0:32:00.740,0:32:02.920 потому что напился морской воды, 0:32:02.920,0:32:05.490 не послушав остальных. 0:32:05.490,0:32:07.230 Ему сделалось дурно, 0:32:07.230,0:32:10.619 и было понятно, что он умирает. 0:32:10.619,0:32:14.498 На девятнадцатый день [br]капитан Дадли предложил 0:32:14.498,0:32:18.749 всем бросить жребий 0:32:18.749,0:32:20.859 и определить, кому суждено умереть, 0:32:20.859,0:32:23.070 чтобы спасти остальных. 0:32:23.770,0:32:26.380 Брукс отказался, 0:32:26.380,0:32:29.139 ему не понравилась идея со жребием. 0:32:29.140,0:32:33.079 Мы не знаем, было ли это вызвано тем,[br]что он не хотел рисковать, 0:32:33.079,0:32:36.839 или же тем, что он верил [br]в категорические моральные принципы, 0:32:36.839,0:32:41.179 но в любом случае[br]жребий так и не был брошен. 0:32:42.040,0:32:44.940 На следующий день спасительного корабля[br]по-прежнему не было, 0:32:44.940,0:32:48.190 и Дадли попросил Брукса отвернуться,[br] 0:32:48.190,0:32:50.560 жестом показав Стивенсу, 0:32:50.560,0:32:53.719 что мальчишку Паркера нужно убить. 0:32:53.719,0:32:55.829 Дадли помолился, 0:32:55.829,0:32:58.410 сказал мальчику, что его время пришло, 0:32:58.410,0:33:00.339 и зарезал его перочинным ножом, 0:33:00.339,0:33:02.770 поразив ярёмную вену. 0:33:03.470,0:33:09.590 Брукс, отрёкшийся от соображений совести,[br]воспользовался этим жутким «подарком». 0:33:09.590,0:33:11.049 Четыре дня 0:33:11.049,0:33:14.430 они втроём питались [br]телом и кровью юнги. 0:33:15.000,0:33:16.330 Реальная история. 0:33:16.880,0:33:18.540 А затем их спасли. 0:33:19.070,0:33:24.459 Дадли описал это спасение[br]в своём дневнике 0:33:24.459,0:33:27.499 поразительным эвфемизмом. Цитата: 0:33:27.499,0:33:29.618 «На двадцать четвёртый день, 0:33:29.618,0:33:34.738 когда мы завтракали, 0:33:34.738,0:33:37.749 наконец-то показался корабль». 0:33:38.599,0:33:44.189 Трое выживших были подобраны немецким[br]кораблём и отправлены назад в Англию, 0:33:44.189,0:33:46.199 где их арестовали и подвергли суду. 0:33:46.749,0:33:49.810 Брукс был свидетелем обвинения, 0:33:49.810,0:33:51.970 Дадли и Стивенс — обвиняемыми. 0:33:51.970,0:33:54.370 Они не оспаривали факты; 0:33:54.370,0:33:57.670 они утверждали, что действовали [br]из крайней необходимости. 0:33:57.670,0:33:59.430 Это была их линия защиты. 0:33:59.430,0:34:03.110 Они настаивали на том, что смерть[br]одного человека более предпочтительна, 0:34:03.110,0:34:05.810 чем смерть троих. 0:34:06.430,0:34:10.849 Обвинителя не убедил такой аргумент. 0:34:10.849,0:34:13.869 Он сказал: «Убийство есть убийство». [br]Дело передали в суд. 0:34:13.869,0:34:16.209 Теперь представьте, что вы присяжные. 0:34:16.209,0:34:21.789 Чтобы упростить обсуждение,[br]оставим в стороне вопрос права 0:34:21.789,0:34:25.840 и представим, что как присяжные 0:34:25.840,0:34:28.050 вы должны решить, 0:34:28.050,0:34:33.089 было ли то, что они сделали,[br]морально допустимым или нет. 0:34:34.309,0:34:36.548 Кто из вас 0:34:36.548,0:34:39.529 проголосовал бы 0:34:39.529,0:34:47.949 за то, что они невиновны и[br]совершённое ими было морально допустимо? 0:34:49.338,0:34:51.579 А кто проголосовал бы за то, [br]что они виновны 0:34:51.579,0:34:54.858 и совершённое ими было недопустимо? 0:34:54.858,0:34:57.798 Значительное большинство. 0:34:57.798,0:35:03.619 Давайте послушаем ваши соображения;[br]начнём с тех, кто оказался в меньшинстве. 0:35:03.619,0:35:07.669 Давайте сперва предоставим слово защите [br] 0:35:07.669,0:35:10.059 Дадли и Стивенса. 0:35:10.059,0:35:13.959 Почему вы бы оправдали их [br]с моральной точки зрения? 0:35:13.959,0:35:16.369 Чем вы руководствуетесь? 0:35:16.369,0:35:17.989 Пожалуйста. 0:35:17.989,0:35:20.778 Я считаю это предосудительным [br]с моральной точки зрения, 0:35:20.778,0:35:24.069 но существует различие между тем, [br]что нравственно предосудительно, 0:35:24.069,0:35:26.609 и тем, что влечёт юридическую [br]ответственность. 0:35:26.608,0:35:31.970 Или, как мог бы сказать судья, аморальное[br]совсем не обязательно противозаконно. 0:35:31.970,0:35:36.129 И хотя я не считаю, что необходимость [br]чего-либо является достаточным основанием 0:35:36.129,0:35:38.578 для кражи, убийства или другого [br]преступления, 0:35:38.579,0:35:44.909 степень необходимости в той или иной[br]мере может оправдывать его. 0:35:44.909,0:35:50.288 Хорошо. Кто ещё поддерживает эту [br]точку зрения и согласен 0:35:50.288,0:35:54.058 с моральными обоснованиями их действий? 0:35:54.058,0:35:55.619 Пожалуйста. 0:35:56.759,0:35:57.869 Спасибо. 0:35:58.468,0:36:03.020 Я думаю, в такой отчаянной ситуации вы[br]должны сделать всё, чтобы выжить. 0:36:03.020,0:36:04.739 Вы должны сделать всё, что возможно? 0:36:04.739,0:36:06.789 Да, вы должны сделать всё, что можете. 0:36:06.789,0:36:10.219 Если вы девятнадцать дней ничего не ели, 0:36:10.219,0:36:14.630 кто-то из вас должен пожертвовать собой[br]ради спасения остальных. 0:36:14.630,0:36:20.749 Более того, представим, что по возвращении[br]домой спасшиеся, к примеру, создадут 0:36:20.749,0:36:23.280 благотворительные организации [br]и другие подобные вещи. 0:36:23.280,0:36:25.570 И в итоге будет всем хорошо. 0:36:25.570,0:36:28.079 Я не знаю, что они сделали[br]после этого случая, 0:36:28.079,0:36:30.469 они вполне могли бы [br]продолжать убивать людей... 0:36:30.469,0:36:32.798 Что? 0:36:32.798,0:36:35.668 А что если они вернулись [br]домой и стали убийцами? 0:36:35.668,0:36:39.038 Что если они вернулись домой [br]и стали убийцами? 0:36:39.038,0:36:42.648 Вы бы хотели знать, кого они убили. 0:36:42.648,0:36:45.309 Да, верно. 0:36:45.309,0:36:46.658 Я хотел бы знать это. 0:36:46.658,0:36:49.958 Это было неплохо. Как вас зовут?[br]Маркус. 0:36:50.658,0:36:53.949 Мы услышали сторону защиты,[br]пару голосов в оправдание. 0:36:53.949,0:36:57.068 Теперь послушаем сторону обвинения. 0:36:57.068,0:37:02.808 Большинство людей думает,[br]что они не правы. Почему? 0:37:03.578,0:37:04.628 Пожалуйста. 0:37:04.628,0:37:09.078 Когда я услышала эту историю, я подумала: [br]«Так, если они голодали очень долго, 0:37:09.078,0:37:15.089 то может в этом случае[br]они не были в здравом рассудке». 0:37:15.089,0:37:20.608 И это могло послужить оправданием,[br]в качестве возможного аргумента: 0:37:20.608,0:37:25.719 они были не в своём уме и приняли решение,[br]которое не приняли бы в другой ситуации. 0:37:25.719,0:37:28.519 Думаю, это их оправдывает. 0:37:28.518,0:37:33.348 Трезво мыслящий человек так никогда [br]не поступит. Мне кажется, что есть люди, 0:37:33.348,0:37:36.058 которые находят данный аргумент [br]приемлемым. 0:37:36.058,0:37:37.588 Вы думаете, что они поступили... 0:37:37.588,0:37:39.298 Но я хочу знать, что думаете вы. 0:37:39.298,0:37:42.648 Вы голосовали за то,[br]что они виновны, верно? 0:37:42.648,0:37:46.428 Да, я не считаю, что они[br]действовали в рамках морали. 0:37:46.428,0:37:50.869 Но почему нет? Вы же слышали, [br]как Маркус защищал их. 0:37:50.869,0:37:52.619 Он сказал... 0:37:52.619,0:37:53.950 Вы слышали, что он сказал. 0:37:53.950,0:37:56.339 Да, я слышала. 0:37:56.339,0:38:00.019 Что вы должны поступать так, [br]как того требует данная ситуация. 0:38:00.019,0:38:04.019 Что вы ответите Маркусу? 0:38:04.759,0:38:06.428 Я бы сказала, что 0:38:06.428,0:38:13.459 нет такой ситуации, [br]в которой можно было бы 0:38:13.459,0:38:17.238 лишить человека права управлять своей [br]судьбой или лишить человека жизни. 0:38:17.238,0:38:19.868 У нас нет такого права. 0:38:19.868,0:38:22.429 Хорошо, спасибо. Как вас зовут? 0:38:22.429,0:38:23.350 Бритт. 0:38:23.350,0:38:24.548 Бритт? Хорошо. 0:38:24.548,0:38:25.668 Кто-нибудь ещё? 0:38:25.668,0:38:27.979 Что вы скажете? Встаньте, пожалуйста. 0:38:27.979,0:38:31.973 Мне вот что интересно. Если бы Дадли [br]и Стивенс получили бы от Ричарда Паркера 0:38:31.973,0:38:34.403 согласие 0:38:34.403,0:38:35.493 на смерть. 0:38:35.493,0:38:37.499 Могло бы это... 0:38:37.499,0:38:42.098 Могло бы это оправдать [br]совершённое убийство, 0:38:42.098,0:38:45.269 и если да, то было бы ли это оправданно [br]с точки зрения морали? 0:38:45.269,0:38:49.539 Это любопытно. Согласие.[br]Подождите, как вас зовут? 0:38:49.539,0:38:51.659 Кэтлин. 0:38:51.659,0:38:56.459 Кэтлин предлагает представить, как бы[br]могла выглядеть эта сцена в таком случае: 0:38:56.459,0:39:02.550 Дадли с ножом в руке,[br]но вместо молитвы, 0:39:02.550,0:39:04.498 или перед молитвой, 0:39:04.498,0:39:06.158 он спрашивает: 0:39:06.158,0:39:11.318 «Паркер, ты не возражаешь? 0:39:11.318,0:39:14.348 Мы тут безумно проголодались...» 0:39:14.349,0:39:17.679 Смотрите, как Маркус сопереживает им. 0:39:17.679,0:39:22.089 «Мы безумно проголодались,[br]а тебе в любом случае недолго осталось. 0:39:22.089,0:39:23.458 Ты можешь стать мучеником. 0:39:23.458,0:39:25.708 Не хочешь стать мучеником? 0:39:25.708,0:39:29.179 Что скажешь, Паркер?» 0:39:29.179,0:39:33.089 В этом случае 0:39:33.089,0:39:36.939 можете ли вы оправдать это [br]с точки зрения морали? 0:39:36.939,0:39:42.889 Допустим, Паркер в оцепенении говорит:[br]«Я согласен». 0:39:42.889,0:39:45.259 Я не считаю, что это оправдывает [br]убийство... 0:39:45.259,0:39:47.829 Даже в этом случае не было бы оправдания? [br]Нет. 0:39:47.829,0:39:52.290 Вы не считаете, что даже с согласия[br]это может быть морально оправданно. 0:39:52.290,0:39:57.308 Есть тут люди, готовые подхватить[br]идею Кэтлин о согласии? 0:39:57.308,0:40:00.318 И кто считает, что в этом случае их[br]действия были бы оправданны? 0:40:00.318,0:40:04.879 Поднимите руку, если вы с этим согласны. 0:40:05.639,0:40:07.458 Вот это интересно. 0:40:07.458,0:40:12.358 Почему же наличие согласия[br]создало такую разницу? 0:40:13.958,0:40:15.629 С чего бы это? 0:40:15.629,0:40:18.409 Я думаю, что если бы Паркер [br]сам принимал решение, 0:40:18.409,0:40:20.899 если бы это было его собственным желанием, 0:40:20.899,0:40:25.768 то только в такой ситуации [br]это было бы допустимо. 0:40:25.768,0:40:28.380 Потому что в этом случае[br]вы не можете сказать, 0:40:28.380,0:40:31.909 что на него было оказано давление,[br]что их было трое против одного. 0:40:31.909,0:40:33.199 Верно. 0:40:33.199,0:40:39.430 Поэтому принимая решение пожертвовать[br]собой, он делает это по собственной воле. 0:40:39.430,0:40:41.478 Некоторые могут восхититься [br]этим поступком, 0:40:41.478,0:40:45.289 другие могут быть не согласны [br]с такой оценкой. 0:40:45.289,0:40:48.939 Итак, если он сам предложил эту идею, 0:40:48.939,0:40:52.320 то это будет единственным вариантом [br]согласия, который бы нас устроил 0:40:52.320,0:40:54.858 с точки зрения морали. [br]Тогда это было бы допустимо. 0:40:54.858,0:40:57.198 В ином случае 0:40:57.198,0:40:59.579 это будет, скажем так,[br]согласие под принуждением, 0:40:59.579,0:41:01.489 продиктованное обстоятельствами. 0:41:01.489,0:41:03.598 Вы так считаете. 0:41:05.158,0:41:07.309 Кто-нибудь из вас считает, 0:41:07.309,0:41:10.859 что даже согласие Паркера 0:41:10.859,0:41:15.439 не оправдывает его убийство? 0:41:15.439,0:41:17.288 Кто так думает? 0:41:17.288,0:41:19.548 Да. Расскажите нам почему.[br]Встаньте, пожалуйста. 0:41:19.548,0:41:22.860 Я думаю, что Паркер был убит в надежде, 0:41:22.860,0:41:26.379 что все остальные члены экипажа [br]впоследствии будут спасены. 0:41:26.379,0:41:28.920 Но для его убийства нет[br]объективных причин, 0:41:28.920,0:41:32.319 потому что вы даже не знаете,[br]спасут вас вообще или нет, 0:41:32.319,0:41:34.092 и его убийство может быть напрасным. 0:41:34.092,0:41:38.039 Вы так и будете убивать одного за другим,[br]пока не останетесь один или вас не спасут? 0:41:38.039,0:41:39.949 Просто потому что кто-то[br]всё равно умрёт? 0:41:39.949,0:41:44.159 С позиции морали смысл ситуации в том, 0:41:44.159,0:41:50.059 что они жертвуют слабейшим, [br]одним за другим, 0:41:50.059,0:41:51.949 пока не будут спасены. 0:41:51.949,0:41:56.889 И в этом случае по счастливой случайности[br]три человека были живы, когда их спасли. 0:41:57.609,0:42:01.210 Но если бы Паркер согласился, 0:42:01.210,0:42:03.488 как вы думаете, было бы это правильным? 0:42:03.488,0:42:06.159 Нет, я по-прежнему[br]не считаю это правильным. 0:42:06.159,0:42:07.890 Обоснуйте почему. 0:42:07.890,0:42:12.758 Во-первых, я считаю, что каннибализм[br]аморален в принципе. 0:42:12.758,0:42:14.480 Есть людей нельзя ни в каком случае. 0:42:14.480,0:42:16.819 Итак, 0:42:16.819,0:42:22.350 каннибализм неприемлем[br]даже в том случае, 0:42:22.350,0:42:24.318 когда мы знаем, что человек [br]точно умрёт? 0:42:24.318,0:42:25.988 Даже в этом случае? 0:42:25.988,0:42:27.959 Да, лично для меня. 0:42:27.959,0:42:31.189 Мне кажется, что всё это зависит 0:42:31.199,0:42:35.258 от личных моральных принципов человека. 0:42:35.258,0:42:36.808 Это только моё мнение. 0:42:36.808,0:42:38.838 Конечно, не все с этим согласятся. 0:42:38.838,0:42:41.498 Давайте послушаем [br]аргументы «против», 0:42:41.498,0:42:46.039 а затем посмотрим, смогут ли они[br]переубедить вас или нет? 0:42:46.039,0:42:48.248 Давайте попробуем. 0:42:48.248,0:42:50.098 Итак, 0:42:50.099,0:42:53.158 есть ли здесь кто-нибудь, 0:42:53.158,0:42:57.869 кому импонирует идея согласия[br]и кто мог бы привести доводы. 0:42:57.869,0:43:03.298 Можете ли вы объяснить,[br]почему согласие всё кардинально меняет? 0:43:03.298,0:43:05.600 А как насчёт идеи со жребием? 0:43:05.600,0:43:08.769 Может ли это считаться согласием? [br]Помните, в начале истории 0:43:08.769,0:43:10.989 Дадли предложил тянуть жребий. 0:43:10.989,0:43:15.489 Предположим, что они согласились[br]тянуть жребий. 0:43:16.119,0:43:20.649 Кто из вас теперь считает, 0:43:20.649,0:43:23.689 что это было бы правильно? [br]Предположим, они тянули жребий, 0:43:23.689,0:43:25.280 и юнга проиграл. 0:43:25.280,0:43:31.640 Далее происходит история, которую мы уже[br]знаем. Было бы тогда это допустимым? 0:43:33.040,0:43:37.030 В случае со жребием число согласных[br]уже больше. Давайте послушаем кого-нибудь, 0:43:37.030,0:43:41.609 для кого с моральной точки зрения [br]принципиален жребий. 0:43:41.608,0:43:43.458 Почему вы так считаете? 0:43:43.458,0:43:45.719 Я думаю, что это принципиальный момент. 0:43:45.719,0:43:47.858 Преступлением этот поступок делает то, 0:43:47.858,0:43:52.788 что Дадли и Стивенс в один момент решили, [br]что их жизни важнее, чем жизнь юнги. 0:43:52.788,0:43:56.388 И такая мысль может стать предпосылкой [br]для любого преступления. 0:43:56.388,0:44:01.859 То есть мои потребности и желания[br]являются более важными, чем ваши. 0:44:01.859,0:44:04.518 Вот, если бы они тянули жребий,[br]дав согласие на то, 0:44:04.518,0:44:06.248 что кто-то из них должен умереть 0:44:06.248,0:44:09.209 и пожертвовать таким образом собой, 0:44:09.209,0:44:10.959 чтобы спасти остальных... 0:44:10.959,0:44:12.919 Тогда всё было бы в порядке? 0:44:12.919,0:44:15.740 Немного абсурдно, но... 0:44:15.740,0:44:18.778 Но допустимо с точки зрения морали? [br]Да. 0:44:18.778,0:44:20.958 Как вас зовут? [br]Мэтт. 0:44:20.958,0:44:25.459 Что ж, Мэтт, вас смущает 0:44:25.459,0:44:28.159 не сам факт каннибализма, 0:44:28.159,0:44:31.389 а отсутствие должной процедуры? 0:44:31.389,0:44:34.648 Можно сказать, что да. 0:44:34.648,0:44:38.170 Может ли кто-нибудь из тех,[br]кто согласен с Мэттом, 0:44:38.170,0:44:40.270 что-нибудь добавить к сказанному 0:44:40.270,0:44:46.738 о том, почему жребий сделает этот поступок 0:44:46.738,0:44:49.558 допустимым с точки зрения морали? 0:44:49.558,0:44:50.528 Пожалуйста. 0:44:50.528,0:44:53.938 Мне кажется, что основная проблема [br]заключается именно в том, 0:44:53.938,0:44:58.758 что юнгу даже не спрашивали,[br]когда решали его судьбу. 0:44:58.758,0:45:00.898 Даже в случае со жребием,[br]им было всё равно, 0:45:00.898,0:45:02.810 будет или нет он в нём участвовать. 0:45:02.810,0:45:05.690 Было просто решено, что именно [br]мальчик должен умереть. 0:45:05.690,0:45:08.170 Да, так и произошло на самом деле. 0:45:08.170,0:45:11.720 Но если бы все они тянули жребий и все [br]были бы согласны с этой процедурой, 0:45:11.720,0:45:13.199 считали бы вы это правильным? 0:45:13.199,0:45:16.248 Да, потому что тогда все бы [br]знали, что кто-то из них умрёт, 0:45:16.248,0:45:18.799 в то время как в реальной [br]ситуации юнга не знал, 0:45:18.799,0:45:20.909 что Дадли и Стивенс решают его судьбу. 0:45:20.909,0:45:26.269 Ему никто не сказал,[br]что он может умереть. 0:45:26.269,0:45:29.319 Хорошо, предположим,[br]что все согласились тянуть жребий. 0:45:29.319,0:45:34.368 Все бросили жребий. Но представьте себе, [br]что юнга проиграл и передумал. 0:45:34.368,0:45:37.029 Вы уже всё решили, это своего рода [br]устное соглашение, 0:45:37.029,0:45:40.989 вы не можете взять свои слова обратно;[br]решение было принято. 0:45:40.989,0:45:45.148 Вы понимаете, что умираете ради того,[br]чтобы спасти других. 0:45:45.148,0:45:48.208 Вы осознаёте, что если бы кому-то другому [br]выпал жребий умереть, 0:45:48.208,0:45:50.979 то его бы так же съели, так что... 0:45:50.979,0:45:56.709 Хорошо, но потом он мог бы сказать: [br]«Знаю, но я проиграл». 0:45:56.709,0:46:02.678 Я считаю, что основная моральная проблема [br]в том, что юнгу никто не спрашивал. 0:46:02.678,0:46:07.048 Самое ужасное то, что он даже[br]не представлял, что происходит. 0:46:07.048,0:46:10.599 Если бы он осознавал это,[br]то результат был бы 0:46:10.599,0:46:12.278 немного более справедливым. 0:46:12.278,0:46:14.509 Хорошо. Теперь я хотел бы узнать вот что. 0:46:14.510,0:46:16.919 Некоторые из вас считают, 0:46:16.919,0:46:18.719 что это морально допустимо, 0:46:18.719,0:46:22.648 но вас всего около 20 процентов. 0:46:23.838,0:46:25.479 Во главе с Маркусом. 0:46:26.389,0:46:28.439 Другие же считают, 0:46:28.438,0:46:30.208 что основная проблема заключается 0:46:30.208,0:46:32.538 в отсутствии согласия,[br] 0:46:32.538,0:46:36.769 будь то отсутствие согласия [br]тянуть справедливый жребий 0:46:36.769,0:46:38.418 или же, 0:46:38.418,0:46:39.520 как считает Кэтлин, 0:46:39.520,0:46:42.899 отсутствие согласия в момент 0:46:42.899,0:46:45.019 смерти. 0:46:45.019,0:46:48.968 Если мы предположим наличие согласия, то 0:46:48.968,0:46:51.889 уже больше людей будут готовы признать, 0:46:51.889,0:46:54.528 что эта жертва морально оправданна. 0:46:54.528,0:46:58.168 Теперь я хотел бы выслушать[br]тех, кто считает, 0:46:58.168,0:46:59.889 что даже при наличии согласия, 0:46:59.889,0:47:01.559 даже при использовании жребия, 0:47:01.559,0:47:07.648 даже если бы в самый [br]последний момент Паркер 0:47:07.648,0:47:09.179 вяло согласился, 0:47:09.179,0:47:12.578 это всё равно[br]было бы неправильно.[br] 0:47:12.578,0:47:15.458 И я хотел бы услышать,[br]почему бы это было неправильно. 0:47:15.458,0:47:16.858 Да. 0:47:16.858,0:47:22.718 Всё это время я склонялась[br]к категорической аргументации. 0:47:22.718,0:47:25.338 И думаю, 0:47:25.338,0:47:29.228 что, возможно, я готова [br]принять вариант со жребием, 0:47:29.228,0:47:33.480 при котором проигравший [br]собственноручно убивает себя. 0:47:33.480,0:47:37.088 Тогда убийства как такового не будет, [br]но я по-прежнему считаю, 0:47:37.088,0:47:39.768 что даже в таком случае будет принуждение. 0:47:39.768,0:47:43.238 И я не думаю, что тут есть раскаяние. [br]Вспомните запись в дневнике Дадли: 0:47:43.238,0:47:44.909 «…когда мы завтракали». 0:47:44.909,0:47:51.799 Это выглядит так, как будто он[br]не видит ценности в жизни других. 0:47:51.799,0:47:55.259 Это заставляет меня принять[br]категорическую аргументацию. 0:47:55.259,0:47:57.489 Вы хотите наказать Дадли[br]по полной программе, 0:47:57.489,0:48:00.758 если он не раскаивается или не чувствует,[br]что поступил неправильно? 0:48:00.758,0:48:02.158 Да. 0:48:02.158,0:48:08.769 Хорошо. Есть ли ещё кто-то, кто считает, 0:48:08.769,0:48:13.558 что это категорически неправильно, [br]с согласием или без него. Да, пожалуйста. 0:48:13.558,0:48:17.129 Я считаю, что в восприятии нашего общества[br]убийство есть убийство. 0:48:17.129,0:48:21.489 И в любом случае наше общество негативно [br]к этому относится. Я не считаю, 0:48:21.489,0:48:23.219 что это зависит от обстоятельств. 0:48:23.219,0:48:24.720 Можно задать вам вопрос? 0:48:24.720,0:48:26.889 На кону было три жизни 0:48:26.889,0:48:29.459 против одной. 0:48:30.289,0:48:34.348 У юнги не было ни семьи,[br]ни тех, о ком нужно было заботиться. 0:48:34.348,0:48:39.159 У трёх других человек дома остались [br]семьи, у них были иждивенцы: 0:48:39.159,0:48:41.198 жёны и дети. 0:48:41.198,0:48:43.099 Вспомните Бентама. 0:48:43.099,0:48:47.909 Бентам считал, что мы должны учитывать[br]благосостояние, полезность и счастье 0:48:47.909,0:48:51.118 для всех. Мы должны сложить всё вместе. 0:48:51.118,0:48:54.419 Поэтому это не просто цифра [br]«три» против цифры «один», 0:48:54.419,0:48:58.589 а ещё и люди, [br]ждущие моряков дома. 0:48:58.599,0:49:05.354 Стоит отметить, что пресса и общество[br]были на стороне Дадли и Стивенса. 0:49:05.354,0:49:09.509 В газете писали, что если бы ими[br]не двигали привязанность 0:49:09.509,0:49:12.469 к своим близким, оставшимся дома,[br]и беспокойство о них, 0:49:12.469,0:49:14.069 они бы точно не сделали этого. 0:49:14.069,0:49:17.369 Да, но тогда как они отличаются[br]от людей, просящих милостыню, 0:49:17.369,0:49:20.959 которые так же хотят прокормить свою [br]семью? Здесь нет большой разницы. 0:49:20.959,0:49:23.680 Если я убиваю кого-то, чтобы[br]улучшить своё положение, 0:49:23.680,0:49:26.920 это не перестаёт быть убийством.[br]Нужно смотреть на это так. 0:49:26.920,0:49:30.278 Мы считаем преступлениями [br]только определённые поступки, 0:49:30.278,0:49:33.610 при этом некоторые из них кажутся [br]нам более жестокими и дикими, 0:49:33.610,0:49:36.630 хотя в их основе всегда лежит[br]один и тот же стимул: 0:49:36.630,0:49:39.850 необходимость прокормить свои семьи. 0:49:39.850,0:49:42.838 Предположим, что людей было бы [br]не трое, а тридцать 0:49:42.838,0:49:44.508 или триста. 0:49:44.508,0:49:47.268 Пожертвовать одной жизнью, [br]чтобы спасти три сотни 0:49:47.268,0:49:48.199 или больше,[br] 0:49:48.199,0:49:49.500 три тысячи. 0:49:49.500,0:49:51.039 А если ставки были ещё больше. 0:49:51.039,0:49:54.358 Предположим, ставки были больше. Я думаю,[br]это по-прежнему то же самое. 0:49:54.358,0:49:58.619 Вы думаете, что Бентам ошибался, [br]говоря, что необходимо 0:49:58.619,0:50:02.378 суммировать всё общественное счастье? [br]Вы думаете, что он ошибался насчёт этого? 0:50:02.378,0:50:05.098 Я не считаю, что он ошибался, но[br]убийство есть убийство. 0:50:05.098,0:50:08.038 Значит Бентам точно ошибался.[br]Если вы правы, то не прав он. 0:50:08.038,0:50:09.288 Хорошо, тогда он не прав.[br] 0:50:09.288,0:50:11.978 Хорошо, спасибо. 0:50:13.058,0:50:18.538 Давайте отвлечёмся от этого обсуждения 0:50:18.538,0:50:19.728 и обратим внимание на то, 0:50:19.728,0:50:23.149 сколько было возражений по поводу [br]поступка Дадли и Стивенса. 0:50:23.149,0:50:26.008 Мы услышали несколько мнений [br]в защиту того, что они сделали. 0:50:26.008,0:50:27.578 Их оправдывали тем, что они были 0:50:27.578,0:50:30.389 в ситуации крайней необходимости,[br]в ужасных обстоятельствах. 0:50:30.389,0:50:33.339 И косвенно оправдывали [br]количественным аргументом: 0:50:33.339,0:50:35.868 три жизни против одной. 0:50:35.868,0:50:40.270 Говорили, что дело не только в количестве,[br]но и в более важных обстоятельствах, 0:50:40.270,0:50:43.208 в том, что дома у них[br]остались семьи и близкие. 0:50:43.208,0:50:47.078 Паркер же был сиротой,[br]никто бы не скучал по нему. 0:50:47.938,0:50:52.658 Таким образом, если вы сложите всё это[br]и попробуете оценить 0:50:52.658,0:50:56.508 соотношение счастья и страдания, 0:50:56.508,0:51:01.668 то у вас будут основания утверждать, [br]что они поступили правильно. 0:51:02.558,0:51:07.559 Затем мы услышали, по крайней мере, [br]три различных типа возражений. 0:51:09.349,0:51:11.340 Например, возражение о том, 0:51:11.340,0:51:14.008 что их поступок был[br]категорически неправильным. 0:51:14.008,0:51:17.140 Прозвучавшее здесь. Категорически [br]неправильно. 0:51:17.140,0:51:19.460 Убийство есть убийство,[br]и это всегда плохо, 0:51:19.460,0:51:23.209 даже если при этом повысится[br]общий уровень счастья 0:51:23.209,0:51:25.599 в обществе. 0:51:25.599,0:51:28.398 Это категорическое возражение. 0:51:28.398,0:51:30.699 Но нам всё равно нужно понять, 0:51:30.699,0:51:32.698 почему убийство 0:51:32.698,0:51:35.329 является категорически неправильным. 0:51:35.329,0:51:38.279 Потому ли, что 0:51:38.279,0:51:42.138 даже у юнги есть фундаментальные права? 0:51:42.138,0:51:44.280 И если в этом вся причина, 0:51:44.280,0:51:47.750 то откуда возникают эти права,[br]если не из идеи 0:51:47.750,0:51:52.148 повышения общественного благосостояния, [br]полезности или счастья? Это первый вопрос. 0:51:52.868,0:51:56.308 Другие утверждали, 0:51:56.309,0:51:58.199 что в случае со жребием было бы иначе. 0:51:58.199,0:51:59.874 Справедливая процедура, 0:51:59.874,0:52:02.164 как заметил Мэтт. 0:52:05.789,0:52:08.638 И некоторые из вас склонились[br]к этой точке зрения. 0:52:08.638,0:52:11.918 Но это не совсем[br]категорическое возражение. 0:52:11.918,0:52:16.488 Это утверждение о том,[br]что все должны считаться равными, 0:52:16.488,0:52:20.579 даже если в конце концов[br]один человек будет принесён в жертву 0:52:20.579,0:52:23.179 ради общего блага. 0:52:23.179,0:52:25.839 Это заставляет нас задуматься о следующем. 0:52:25.839,0:52:29.590 Почему согласие на определённую процедуру, 0:52:29.590,0:52:31.369 пусть даже справедливую, 0:52:31.369,0:52:37.629 оправдывает любой результат,[br]вытекающий из этой процедуры? 0:52:37.629,0:52:39.768 Это второй вопрос. 0:52:39.768,0:52:42.298 И, наконец, третий вопрос связан 0:52:42.298,0:52:44.968 с фундаментальной идеей о согласии. 0:52:44.968,0:52:47.508 Эту мысль высказала Кэтлин. 0:52:48.318,0:52:52.499 Если бы юнга согласился сам 0:52:52.499,0:52:54.428 и никто бы его к этому не принуждал, 0:52:54.428,0:52:56.798 как было отмечено, 0:52:56.798,0:53:00.808 то пожертвовать его жизнью ради жизни [br]других было бы вполне нормальным. 0:53:01.728,0:53:04.770 Эту идею поддержали ещё больше людей, 0:53:04.770,0:53:08.370 но это приводит нас к третьему [br]философскому вопросу.[br] 0:53:08.370,0:53:14.289 Какова моральная основа [br]такого согласия? 0:53:14.289,0:53:16.818 Почему акт согласия 0:53:16.818,0:53:18.978 так существенно меняет дело [br]с позиции морали? 0:53:18.978,0:53:21.808 Поступок, который в любом [br]другом случае мы бы посчитали 0:53:21.808,0:53:23.809 неправильным и назвали бы убийством, 0:53:23.809,0:53:26.278 мы начинаем считать допустимым, 0:53:26.278,0:53:28.739 если на него было дано согласие. 0:53:29.499,0:53:31.549 Чтобы ответить на эти три вопроса, 0:53:31.549,0:53:33.958 мы с вами изучим сочинения [br]неcкольких философов. 0:53:33.958,0:53:38.688 В следующий раз мы начнём[br]с Бентама и Джона Стюарта Милля — 0:53:38.688,0:53:41.738 философов-утилитаристов.