0:00:33.353,0:00:37.230 Это курс по теории справедливости, [br]и мы начнём его с мысленного эксперимента. 0:00:37.230,0:00:44.489 Представьте, что вы водитель трамвая,[br]несущегося со скоростью 100 км/ч. 0:00:44.489,0:00:49.360 И вдруг вдалеке на рельсах [br]вы замечаете пятерых рабочих. 0:00:49.360,0:00:51.569 Вы пытаетесь остановиться, но не можете: 0:00:51.569,0:00:53.679 тормоза не работают. 0:00:53.679,0:00:56.630 Вы в полном отчаянии, поскольку знаете, 0:00:56.630,0:00:59.460 что если врежетесь в этих рабочих, 0:00:59.460,0:01:01.320 то все они погибнут. 0:01:01.320,0:01:04.879 Предположим, вы знаете это наверняка. 0:01:04.879,0:01:07.019 Итак, вы не знаете, что делать, 0:01:07.019,0:01:09.320 но вдруг замечаете, [br] 0:01:09.320,0:01:12.912 что справа есть боковая ветка. 0:01:12.912,0:01:18.336 И на конце этой ветки находится [br]только один рабочий. 0:01:18.830,0:01:21.148 Руль трамвая исправен, 0:01:21.148,0:01:25.728 и при желании вы можете повернуть 0:01:25.728,0:01:28.545 на эту боковую ветку, 0:01:28.545,0:01:30.340 убить одного рабочего, 0:01:30.340,0:01:33.000 но спасти жизнь пятерым.[br] 0:01:33.009,0:01:35.819 И вот первый вопрос: 0:01:35.819,0:01:38.656 как правильно поступить? 0:01:38.659,0:01:40.320 Как бы вы поступили? 0:01:40.328,0:01:41.891 Давайте проголосуем. 0:01:42.420,0:01:47.262 Кто бы повернул на боковую ветку? 0:01:47.720,0:01:49.703 Поднимите руки. 0:01:51.790,0:01:55.976 Кто не стал бы этого делать[br]и поехал бы прямо? 0:01:57.615,0:02:01.942 Не опускайте руки те,[br]кто поехал бы прямо. 0:02:03.939,0:02:07.821 Подавляющее большинство повернуло бы. 0:02:08.198,0:02:09.908 Теперь разберёмся, 0:02:09.908,0:02:14.972 почему вы приняли именно такое решение. 0:02:14.979,0:02:18.201 И давайте начнём с большинства, 0:02:18.209,0:02:21.942 с тех, кто повернул бы на боковую ветку. 0:02:21.949,0:02:23.508 Почему вы бы сделали это? 0:02:23.508,0:02:25.638 Что сподвигло бы вас на это? 0:02:25.638,0:02:29.859 Кто хочет высказаться? Есть добровольцы? 0:02:29.868,0:02:32.018 Начинайте. Встаньте, пожалуйста. 0:02:32.018,0:02:35.000 Я думаю, что неправильно[br]убивать пять человек, 0:02:35.000,0:02:38.935 когда есть возможность[br]убить только одного. 0:02:39.476,0:02:42.177 Было бы неправильно убивать пятерых, 0:02:42.177,0:02:45.734 если вместо этого вы можете[br]убить только одного. 0:02:46.877,0:02:48.399 Да, неплохая причина. 0:02:48.399,0:02:50.798 Действительно неплохая. 0:02:52.719,0:02:53.692 Кто-нибудь ещё? 0:02:53.692,0:02:57.364 Все согласны с таким объяснением? 0:02:59.552,0:03:00.775 Да, пожалуйста. 0:03:01.252,0:03:05.399 Я думаю, это похоже[br]на случай с самолётом, 0:03:05.399,0:03:09.259 который разбился[br]в Пенсильвании 11 сентября. 0:03:09.259,0:03:11.598 Те люди — настоящие герои —[br]предпочли погибнуть, 0:03:11.598,0:03:15.918 но не допустить бóльших жертв [br]среди людей на земле. 0:03:15.918,0:03:19.119 То есть они руководствовались[br]тем же принципом: 0:03:19.121,0:03:25.354 в такой безнадёжной ситуации[br]лучше убить одного, но спасти пятерых. 0:03:25.359,0:03:29.882 Именно так считают те, [br]кто повернул бы? Верно? 0:03:30.528,0:03:33.468 Давайте теперь послушаем мнение тех, 0:03:33.468,0:03:35.318 кто оказался в меньшинстве, 0:03:35.318,0:03:38.137 тех, кто не повернул бы. 0:03:39.148,0:03:39.896 Да. 0:03:40.522,0:03:45.282 Я думаю, что такой же подход[br]оправдывает геноцид и тоталитаризм. 0:03:45.282,0:03:50.234 Чтобы спасти представителей[br]одной расы, вы уничтожаете другую. 0:03:50.234,0:03:51.965 И что бы вы сделали в этом случае? 0:03:51.965,0:03:57.621 Чтобы избежать ужасов геноцида, 0:03:57.621,0:04:02.627 вы предпочли бы врезаться [br]в пятерых рабочих и убить их? 0:04:03.518,0:04:04.606 Думаю, да. 0:04:05.542,0:04:06.322 Правда?[br] 0:04:06.322,0:04:07.073 Да. 0:04:07.434,0:04:09.128 Хорошо, кто ещё? 0:04:09.806,0:04:12.324 Это смелый ответ, спасибо. 0:04:13.251,0:04:20.024 Давайте теперь рассмотрим[br]другой пример с трамваем 0:04:20.034,0:04:27.225 и посмотрим, будет ли[br]большинство из вас 0:04:27.225,0:04:30.839 придерживаться того же принципа: 0:04:30.839,0:04:33.320 лучше убить одного, [br]чтобы пятеро остались живы. 0:04:33.320,0:04:38.034 В этот раз вы не водитель трамвая, [br]а просто наблюдатель. 0:04:38.034,0:04:42.397 Вы стоите на мосту [br]и наблюдаете за рельсами.[br] 0:04:42.397,0:04:45.588 И вот по рельсам несётся трамвай. 0:04:45.599,0:04:49.488 На другом конце — пять рабочих. 0:04:49.488,0:04:51.659 Тормоза не работают, 0:04:51.659,0:04:55.761 трамвай вот-вот в них врежется и задавит. 0:04:55.761,0:04:58.292 Сейчас вы не водитель 0:04:58.292,0:05:00.998 и совершенно не знаете, что делать. 0:05:00.999,0:05:02.769 И тут вы замечаете, 0:05:02.769,0:05:06.479 что рядом с вами 0:05:06.479,0:05:09.742 стоит, прислонившись к перилам моста, 0:05:09.742,0:05:13.152 очень толстый человек. 0:05:15.264,0:05:18.764 И вы могли бы 0:05:18.764,0:05:20.124 его немного 0:05:20.124,0:05:22.526 подтолкнуть. 0:05:22.526,0:05:24.543 Он упал бы с моста 0:05:24.543,0:05:27.653 прямо на рельсы, 0:05:27.653,0:05:32.014 на пути трамвая. 0:05:32.014,0:05:35.423 Он бы погиб, но при этом[br]спас бы пять жизней. 0:05:36.079,0:05:37.008 Итак. 0:05:38.789,0:05:42.547 Кто столкнул бы толстяка с моста? 0:05:42.547,0:05:44.059 Поднимите руки. 0:05:48.012,0:05:50.924 Кто не стал бы этого делать? 0:05:50.924,0:05:53.881 Большинство не стало бы. 0:05:53.891,0:05:55.583 Возникает закономерный вопрос. 0:05:55.583,0:05:59.976 Что стало с тем принципом: 0:05:59.976,0:06:03.502 спасение жизни пятерых оправдывает [br]потерю жизни одного? 0:06:03.502,0:06:04.942 Что стало с тем принципом, 0:06:04.942,0:06:09.235 который в первом случае[br]поддерживали почти все? 0:06:09.235,0:06:13.429 Я хотел бы услышать мнение тех, [br]кто был в большинстве оба раза. 0:06:13.429,0:06:16.414 Как вы объясните разницу между ними? 0:06:16.414,0:06:17.895 Да, пожалуйста. 0:06:17.903,0:06:21.508 Полагаю, что во втором случае [br]у вас есть выбор: 0:06:21.508,0:06:24.268 толкнуть или не толкнуть человека. 0:06:24.268,0:06:31.329 Этот человек иначе не имел бы [br]никакого отношения к ситуации, 0:06:31.329,0:06:36.313 и вы как бы принимаете решение за него, 0:06:36.313,0:06:39.906 вмешиваться в эту ситуацию или нет, 0:06:39.906,0:06:42.768 в отличие от первого случая, 0:06:42.768,0:06:47.838 когда все три стороны —[br]водитель и две группы рабочих — 0:06:47.838,0:06:50.456 уже принимают активное[br]участие в ситуации. 0:06:50.456,0:06:54.891 Но ведь тот парень, который в одиночку[br]работает на боковой ветке, 0:06:54.891,0:06:57.561 не принимал решение [br]пожертвовать своей жизнью, 0:06:57.561,0:07:01.836 точно так же, как тот [br]толстяк на мосту, не так ли? 0:07:01.836,0:07:05.338 Да, это так, но он был на рельсах. 0:07:05.339,0:07:07.797 А этот парень был на мосту! 0:07:10.324,0:07:12.376 Если хотите, можете продолжить. 0:07:13.250,0:07:15.267 Ладно, это непростой вопрос, 0:07:15.267,0:07:16.987 но вы очень хорошо справились. 0:07:16.987,0:07:19.036 Очень непростой вопрос. 0:07:19.527,0:07:21.030 Кто-нибудь ещё 0:07:21.030,0:07:22.250 хочет попробовать 0:07:22.250,0:07:25.930 объяснить, почему большинство 0:07:25.930,0:07:28.420 именно так отреагировало [br]в обоих этих случаях? 0:07:28.860,0:07:29.766 Прошу. 0:07:29.770,0:07:32.150 Полагаю, что в первом случае, 0:07:32.150,0:07:35.721 в котором пять рабочих — на основной[br]ветке и один — на боковой, 0:07:35.733,0:07:37.370 вам необходимо сделать выбор 0:07:37.370,0:07:40.948 и принять какое-то решение, иначе эти [br]пять человек погибнут под трамваем, 0:07:40.948,0:07:42.868 но вы за это не несёте ответственности. [br] 0:07:42.868,0:07:45.048 Вагон несётся на большой скорости, 0:07:45.048,0:07:47.768 и вам нужно принять мгновенное решение, 0:07:47.768,0:07:52.158 а, сталкивая толстяка с моста, [br]вы совершаете убийство. 0:07:52.158,0:07:57.258 Вы можете это контролировать,[br]в отличие от вагона. 0:07:57.258,0:07:59.876 Поэтому я считаю, что это [br]немного другой случай. 0:07:59.876,0:08:04.359 Хорошо. Кто хочет возразить? [br]Это было неплохо. 0:08:04.359,0:08:06.243 Кто хочет ответить? 0:08:06.243,0:08:09.161 Объясняет ли это ситуацию? 0:08:09.161,0:08:11.600 Не думаю, что это удачное объяснение, 0:08:11.600,0:08:14.158 потому что вам всё равно[br]нужно решить, кто умрёт. 0:08:14.158,0:08:16.698 Либо вы решаете повернуть [br]и убить одного рабочего, 0:08:16.698,0:08:19.638 что будет вашим [br]сознательным решением, 0:08:19.638,0:08:21.817 либо вы решаете [br]столкнуть толстяка, 0:08:21.817,0:08:24.477 что также будет вашим[br]сознательным решением. 0:08:24.477,0:08:27.511 Так что вы в любом случае [br]делаете какой-то выбор. 0:08:27.511,0:08:29.625 Хотите возразить? 0:08:29.629,0:08:33.944 Я не уверен, что это так. Мне кажется, [br]всё равно есть определённая разница. 0:08:33.944,0:08:37.230 Если вы сталкиваете кого-то[br]с моста и убиваете его, 0:08:37.230,0:08:39.772 то в этом случае вы делаете это [br]своими руками. 0:08:39.772,0:08:42.260 Толкаете своими собственными руками. 0:08:42.260,0:08:43.769 И это отличается от ситуации, 0:08:43.769,0:08:49.099 когда вы управляете тем, что может [br]стать причиной смерти. 0:08:49.109,0:08:52.626 Теперь мне самому это не очень нравится. 0:08:52.626,0:08:54.295 Всё нормально.[br]Как вас зовут? 0:08:54.295,0:08:55.378 Эндрю. 0:08:55.378,0:08:58.905 Позвольте задать вам вопрос, Эндрю. 0:08:58.905,0:09:01.910 Допустим, [br] 0:09:01.910,0:09:03.461 вы стоите на мосту 0:09:03.461,0:09:04.701 рядом с толстяком, 0:09:04.701,0:09:06.001 и вам не нужно его толкать.[br] 0:09:06.001,0:09:07.669 Допустим, он стоит, 0:09:07.669,0:09:14.437 прислонившись к дверце, которую[br]вы можете открыть, повернув рычаг. 0:09:17.108,0:09:18.391 Вы бы повернули? 0:09:18.391,0:09:23.003 Не знаю почему, но это[br]всё равно как-то неправильно. 0:09:23.003,0:09:29.680 Возможно, если бы вы случайно задели[br]этот рычаг или что-то в этом роде... 0:09:29.680,0:09:31.897 Или, например, вагон 0:09:31.897,0:09:37.556 катился бы к какому-нибудь переключателю, [br]который откроет эту дверцу. 0:09:37.561,0:09:39.051 Тогда ещё куда ни шло. 0:09:39.051,0:09:42.590 Вполне логично. Как бы то ни было, [br]это всё равно кажется неправильным. 0:09:42.590,0:09:46.054 Как и в первом случае кажется, что[br]правильным было бы повернуть. 0:09:46.054,0:09:50.383 С другой стороны, в первом случае[br]вы непосредственно вовлечены в ситуацию, 0:09:50.383,0:09:52.535 а во втором — нет. 0:09:52.535,0:09:55.521 И у вас есть выбор: вмешиваться или нет. 0:09:55.521,0:09:59.341 Давайте на минуту забудем об этом случае. 0:09:59.341,0:10:01.212 Это было неплохо. 0:10:01.212,0:10:06.276 Давайте представим другой случай. Теперь[br]вы врач в отделении экстренной помощи. 0:10:06.276,0:10:09.667 И к вам поступают шесть пациентов. 0:10:11.382,0:10:16.562 Они попали в ужасную аварию с трамваем. 0:10:18.212,0:10:21.818 Пять из них ещё держатся,[br]но один уже при смерти. 0:10:21.818,0:10:27.342 Вы можете потратить весь день,[br]пытаясь спасти жизнь одного, 0:10:27.342,0:10:28.929 но тогда остальные пятеро умрут. 0:10:29.181,0:10:32.181 Или вы могли бы попытаться[br]спасти тех пятерых, 0:10:32.181,0:10:36.025 но за это время умрёт тот,[br]кто тяжело ранен. 0:10:36.326,0:10:38.418 Кто спас бы пятерых? 0:10:39.176,0:10:40.701 Теперь уже в качестве врача. 0:10:40.701,0:10:42.757 Кто спас бы одного? 0:10:44.175,0:10:45.577 Немногие. 0:10:46.138,0:10:47.891 Всего лишь несколько человек. 0:10:49.061,0:10:51.302 Полагаю, вы руководствовались [br]тем же принципом: 0:10:51.302,0:10:55.263 лучше спасти пять жизней, [br]но при этом пожертвовать одной. 0:10:55.482,0:10:58.726 Теперь рассмотрим[br]другой случай с доктором. 0:10:58.950,0:11:01.215 На этот раз вы хирург. 0:11:01.890,0:11:03.965 И к вам в больницу[br]попало пять пациентов, 0:11:04.100,0:11:09.399 каждому из которых срочно требуется[br]пересадка органа, иначе они умрут. 0:11:09.399,0:11:14.909 Одному нужно сердце, другому — лёгкое,[br]третьему — почка, четвёртому — печень, 0:11:14.909,0:11:18.828 а пятому — поджелудочная железа. 0:11:20.059,0:11:21.762 Но у вас нет доноров. 0:11:22.571,0:11:26.467 Ещё совсем немного — и пациенты умрут. 0:11:27.360,0:11:30.477 Но вдруг оказывается, 0:11:30.477,0:11:32.327 что в соседней палате 0:11:32.327,0:11:35.740 сидит здоровый парень,[br]который пришёл на приём к доктору. 0:11:39.260,0:11:40.651 И он... 0:11:43.577,0:11:45.514 Вам это нравится. 0:11:47.029,0:11:50.282 Он ненадолго задремал. 0:11:52.999,0:11:56.439 Вы могли бы очень тихо войти 0:11:56.439,0:11:58.177 и извлечь пять его органов. [br] 0:11:58.177,0:12:02.701 Этот человек умрёт,[br]но вы сможете спасти пятерых. 0:12:03.200,0:12:04.993 Кто бы это сделал? 0:12:07.176,0:12:08.472 Хоть кто-нибудь? 0:12:10.331,0:12:14.696 Сколько вас? Поднимите руки, [br]если бы вы это сделали. 0:12:17.803,0:12:19.564 Кто-нибудь с балкона? 0:12:20.528,0:12:21.236 Вы? 0:12:21.782,0:12:24.272 Аккуратно, не слишком перегибайтесь. 0:12:26.562,0:12:28.546 Кто не стал бы этого делать? 0:12:29.221,0:12:29.938 Хорошо. 0:12:30.222,0:12:32.246 Выскажитесь, там на балконе. 0:12:32.246,0:12:35.429 Вы бы извлекли органы, почему? 0:12:35.836,0:12:39.354 Я бы хотел предложить другой вариант: 0:12:39.354,0:12:42.665 взять органы только у того[br]из больных, кто умрёт первым, 0:12:42.982,0:12:48.963 и воспользоваться его здоровыми органами, [br]чтобы спасти оставшихся четверых. 0:12:49.722,0:12:52.316 Это довольно хорошая идея. 0:12:54.439,0:12:56.561 Это просто отличная идея, 0:12:57.650,0:12:59.687 если исключить тот факт, 0:13:00.079,0:13:03.814 что вы только что разрушили [br]философский замысел. 0:13:04.699,0:13:07.220 Давайте отвлечёмся 0:13:07.220,0:13:10.240 от этих конкретных случаев [br]и их обсуждения, 0:13:10.240,0:13:16.669 чтобы отметить пару моментов,[br]к которым привела наша дискуссия. 0:13:17.230,0:13:24.991 Из наших обсуждений проявляются[br]нравственные принципы. 0:13:25.900,0:13:30.588 Давайте рассмотрим, что из себя[br]представляют эти принципы. 0:13:31.160,0:13:35.332 Первый нравственный принцип,[br]появившийся в дискуссии, гласил: 0:13:35.660,0:13:40.510 правильный, нравственный поступок[br]зависит от последствий, 0:13:40.510,0:13:44.176 к которым приводят ваши действия. 0:13:45.384,0:13:51.415 Лучше, чтобы выжили пятеро,[br]даже если для этого один должен умереть. 0:13:52.110,0:13:57.979 Это пример консеквенциальной аргументации. 0:13:58.880,0:14:04.689 При консеквенциальном подходе моральная[br]ценность выражается в последствиях, 0:14:04.689,0:14:08.079 к которым привели ваши действия. 0:14:08.859,0:14:12.539 Потом мы пошли немного дальше [br]и рассмотрели другие случаи, 0:14:12.539,0:14:19.277 и люди уже были не столь уверены[br]в правильности консеквенционализма. 0:14:20.459,0:14:25.590 Когда люди не решались столкнуть[br]толстого мужчину с моста 0:14:25.590,0:14:29.470 или изъять органы невинного пациента, 0:14:29.470,0:14:36.681 они указывали на доводы,[br]связанные с сущностью самого действия. 0:14:38.982,0:14:42.549 Теперь им было уже неважно, [br]какими будут последствия в итоге. 0:14:42.549,0:14:44.425 Люди сопротивлялись. 0:14:44.969,0:14:49.289 Они думали, что это просто неправильно,[br]категорически неправильно 0:14:49.290,0:14:55.896 убить невинного человека,[br]даже ради спасения пяти жизней. 0:14:56.388,0:14:58.416 По крайней мере, они так считали 0:14:58.416,0:15:03.019 во второй версии каждого [br]рассмотренного сюжета. 0:15:03.786,0:15:15.355 Это второй, категорический[br]способ выстраивания аргументации. 0:15:15.773,0:15:18.931 Такая аргументация определяет[br]мораль как соответствие действий 0:15:18.931,0:15:21.238 определённым абсолютным [br]этическим требованиям,[br] 0:15:21.238,0:15:23.748 категорическим правам и обязанностям, 0:15:23.748,0:15:26.216 независимо от последствий.[br] 0:15:27.240,0:15:31.535 На протяжении нескольких недель[br]мы будем изучать разницу 0:15:31.535,0:15:35.894 между консеквенциальной[br]и категорической аргументацией. 0:15:36.489,0:15:43.450 Важнейший пример консеквенциальной[br]аргументации — это утилитаризм, доктрина, 0:15:43.450,0:15:49.915 предложенная английским политическим[br]философом 18-го века Иеремией Бентамом. 0:15:51.020,0:15:56.619 Наиболее видный сторонник [br]категорической аргументации — 0:15:56.619,0:16:01.832 немецкий философ[br]18-го века Иммануил Кант. 0:16:02.414,0:16:07.060 Мы остановимся на этих двух разных[br]видах нравственной аргументации, 0:16:07.060,0:16:10.115 дадим им оценку, а также[br]рассмотрим другие. 0:16:10.569,0:16:15.860 Из учебной программы видно, что мы изучим[br]множество великих и известных книг: 0:16:15.860,0:16:21.949 сочинения Аристотеля, Джона Локка,[br]Иммануила Канта, Джона Стюарта Милля, 0:16:21.949,0:16:23.112 и других. 0:16:23.860,0:16:27.647 Обратите внимание на то,[br]что мы не только изучим эти книги, 0:16:28.060,0:16:34.159 но и рассмотрим современные[br]политические и правовые дискуссии, 0:16:34.159,0:16:36.623 касающиеся философских вопросов. 0:16:36.923,0:16:41.269 Мы будем говорить о равенстве[br]и неравенстве, о позитивной дискриминации, 0:16:41.269,0:16:43.386 о свободе слова и языке вражды, 0:16:43.386,0:16:46.302 об однополых браках и воинской повинности. 0:16:46.631,0:16:50.680 Эти и другие прикладные вопросы [br]будут подняты, 0:16:50.680,0:16:55.190 чтобы не только «оживить» отвлечённые [br]от реальной жизни книги, 0:16:55.190,0:16:59.430 но и внести ясность в то, с чем мы[br]сталкиваемся каждый день в обычной жизни, 0:16:59.430,0:17:04.924 включая политические вопросы. 0:17:05.524,0:17:10.098 После изучения этих книг[br]и обсуждения прикладных вопросов, 0:17:10.098,0:17:14.360 мы увидим, как они дополняют[br]и освещают друг друга. 0:17:15.350,0:17:21.326 Это звучит заманчиво,[br]но я должен предупредить. 0:17:22.449,0:17:23.866 И вот о чём. 0:17:25.149,0:17:34.009 Чтение этих книг ради упражнений [br]в самопознании 0:17:34.009,0:17:38.129 несёт в себе определённые риски, 0:17:38.129,0:17:41.361 как индивидуальные, [br]так и политические. 0:17:41.789,0:17:46.788 Риски, о которых знает каждый студент[br]курса политической философии. 0:17:47.600,0:17:54.030 Эти риски вытекают из того,[br]что философия учит нас, 0:17:54.030,0:17:59.883 побуждает нас сомневаться[br]и противоречить тому, что мы уже знаем. 0:18:01.159,0:18:03.269 Парадоксально, 0:18:03.269,0:18:08.901 но сложность этого курса в том, что вы [br]изучаете уже давно известное вам. 0:18:09.669,0:18:15.797 Знания, которые мы получили[br]из известных неоспоримых истин, 0:18:16.319,0:18:18.616 превращаются в чуждые. 0:18:20.029,0:18:23.099 Именно так работают наши примеры, 0:18:23.099,0:18:28.059 шуточные гипотетические случаи,[br]с которых мы начали лекцию. 0:18:28.899,0:18:31.411 Точно такое же влияние оказывают [br]книги по философии.[br] 0:18:31.580,0:18:35.390 Философия отстраняет нас[br] 0:18:35.390,0:18:37.340 от хорошо известных истин, 0:18:37.340,0:18:40.250 не давая при этом новой информации,[br] 0:18:40.250,0:18:43.550 но увлекая за собой и провоцируя на то, 0:18:43.550,0:18:46.734 чтобы посмотреть на вещи по-новому. 0:18:47.239,0:18:49.103 Но здесь кроется риск. 0:18:49.800,0:18:54.080 Когда однажды привычное станет чуждым, 0:18:54.080,0:18:56.833 оно уже никогда не будет прежним. 0:18:57.409,0:19:00.099 Самопознание 0:19:00.099,0:19:02.419 похоже на потерю невинности. 0:19:02.780,0:19:05.710 Однако то, что вы обнаружите,[br]изменив привычное ви́дение, 0:19:05.710,0:19:08.842 уже не будет для вас неожиданным 0:19:09.489,0:19:11.265 или неизвестным. 0:19:13.180,0:19:16.097 Это делает наш курс сложным, [br] 0:19:17.190,0:19:19.759 но от этого не менее захватывающим. 0:19:19.759,0:19:23.760 Моральная и политическая[br]философия — это история, 0:19:25.200,0:19:29.280 и вы никогда не знаете, куда она[br]вас приведёт, но вы точно знаете, 0:19:29.280,0:19:31.119 что эта история 0:19:31.119,0:19:33.087 о вас самих. 0:19:34.279,0:19:36.346 Это индивидуальный риск. 0:19:36.970,0:19:39.451 Теперь рассмотрим политические риски. 0:19:39.979,0:19:42.920 Одним из способов пробудить [br]у вас интерес к этому курсу 0:19:42.920,0:19:44.608 было бы пообещать вам, 0:19:44.608,0:19:46.300 что после прочтения этих книг 0:19:46.300,0:19:48.080 и обсуждения определённых вопросов 0:19:48.080,0:19:50.987 вы станете более ответственным [br]членом общества. 0:19:51.719,0:19:57.070 Вы изучите основы публичной политики,[br]отточите свои политические суждения 0:19:57.070,0:20:01.169 и научитесь более эффективно[br]участвовать в общественной жизни. 0:20:02.549,0:20:05.630 Но это было бы однобокое[br]и в целом неверное обещание. 0:20:06.439,0:20:10.718 Политическая философия,[br]по большому счёту, состоит в другом. 0:20:11.449,0:20:14.090 Нам необходимо допустить, 0:20:14.429,0:20:18.046 что политическая философия, наоборот,[br]может сделать вас плохим, 0:20:18.840,0:20:21.113 а не хорошим гражданином. 0:20:21.530,0:20:23.700 Или, по крайней мере, [br]плохим гражданином 0:20:23.700,0:20:27.104 до того, как вы станете хорошим. 0:20:27.869,0:20:30.200 Это происходит потому,[br]что занятия философией 0:20:30.200,0:20:32.220 удаляют нас от реальности 0:20:32.220,0:20:35.905 и порой даже заводят в тупик. 0:20:36.370,0:20:39.709 Давайте вернёмся во времена Сократа 0:20:39.709,0:20:41.569 и обратимся к диалогу «Горгий», 0:20:41.569,0:20:45.390 в котором друг Сократа, Калликл, 0:20:45.390,0:20:48.842 пытается отговорить его[br]от философствований. 0:20:49.670,0:20:54.310 Калликл говорит ему, что философия, [br]конечно, милая забава, 0:20:54.310,0:20:57.585 если предаваться ей в разумных пределах [br]и в определённом возрасте. 0:20:57.830,0:21:03.254 Но если кто-то погружается в неё глубже,[br]чем требуется, это заканчивается плачевно. 0:21:03.599,0:21:06.319 «Прими мой совет, — говорит Калликл, 0:21:06.319,0:21:08.199 оставь словопрения 0:21:08.199,0:21:10.688 и обратись к жизни деятельной. 0:21:11.180,0:21:16.210 Переведи свой взор с тех, кто тратит [br]время на бессмысленные споры, 0:21:16.780,0:21:19.859 на тех, кто ведёт деятельную жизнь, [br]имеет хорошую репутацию 0:21:19.859,0:21:22.189 и благословлён другими достоинствами». 0:21:22.189,0:21:28.203 Другими словами, Калликл убеждает Сократа[br]оставить философствования,[br] 0:21:28.500,0:21:30.439 обратиться к реальности, 0:21:30.439,0:21:33.231 поступить в бизнес-школу. 0:21:34.990,0:21:37.607 И Калликл был по-своему прав. 0:21:38.149,0:21:42.030 Он был прав в том, что философия [br]уводит нас в сторону 0:21:42.030,0:21:44.949 от традиций, установленных допущений 0:21:44.949,0:21:46.539 и устоявшихся убеждений. 0:21:46.539,0:21:48.270 Здесь нас и подстерегают опасности, 0:21:48.270,0:21:49.840 индивидуальные и политические. 0:21:49.840,0:21:53.319 В ответ на их угрозу сознание [br]включает защитный механизм, 0:21:54.089,0:21:56.913 этот механизм мы назвали скептицизмом. 0:21:57.470,0:22:03.660 Допустим, что мы так и не смогли[br]прийти к единому мнению по вопросам, 0:22:03.660,0:22:08.921 с обсуждения которых мы начали эту лекцию. 0:22:09.499,0:22:11.060 Но если ни Аристотель, 0:22:11.060,0:22:16.950 ни Локк, ни Кант, ни Милль [br]не дали на них ответа за всё это время, 0:22:16.950,0:22:23.052 то кто мы такие, те, кто собрались[br]в этом зале на семестр, 0:22:23.470,0:22:25.796 чтобы вдруг разрешить их? 0:22:26.260,0:22:29.220 Может быть определённое ви́дение мира — 0:22:29.220,0:22:34.070 это личное дело каждого человека[br]и к этому больше нечего добавить? 0:22:34.070,0:22:36.239 И правильного ответа не существует. 0:22:36.239,0:22:37.649 Это попытка бегства. 0:22:37.650,0:22:39.380 Бегства в скептицизм. 0:22:39.380,0:22:41.993 На это я ответил бы следующим образом. 0:22:42.439,0:22:46.801 Да, над этими вопросами [br]люди бьются долгое время. 0:22:47.380,0:22:49.059 Но сам факт того, 0:22:49.059,0:22:52.600 что они возвращаются к нам нерешёнными, [br]настойчиво требуя от нас ответа, 0:22:52.600,0:22:54.650 с одной стороны, говорит о том, 0:22:54.650,0:22:56.989 что разрешить их невозможно,[br] 0:22:56.989,0:22:59.729 а с другой — о том, [br]что их возникновение неизбежно. 0:22:59.729,0:23:02.289 И причина их неизбежности в том, 0:23:02.289,0:23:09.308 что каждому из нас приходится ежедневно [br]отвечать на эти вопросы самостоятельно. 0:23:09.949,0:23:15.970 Скептицизм, побуждающий нас[br]отказаться от любых попыток найти ответы, 0:23:15.970,0:23:18.059 не может являться решением. 0:23:18.059,0:23:19.580 Иммануил Кант [br] 0:23:19.580,0:23:22.608 очень ёмко описал[br]несостоятельность скептицизма: 0:23:22.970,0:23:26.038 «Скептицизм есть привал [br]для человеческого разума, 0:23:26.038,0:23:28.999 где он может обдумать своё [br]догматическое странствие, 0:23:28.999,0:23:32.659 но это вовсе не место [br]для постоянного пребывания». 0:23:32.659,0:23:35.750 «Простое принятие скептицизма, — [br]пишет Кант, — 0:23:35.750,0:23:41.083 никогда не удовлетворит страждущий разум». 0:23:42.590,0:23:46.529 Этими примерами я пытался дать вам [br]представление о том, 0:23:46.529,0:23:49.758 с какими опасностями и искушениями [br]сталкивается ступивший на путь 0:23:49.758,0:23:51.571 философского познания. 0:23:51.658,0:23:54.855 В заключение я хотел бы сказать, 0:23:55.509,0:23:58.039 что задача этого курса — 0:23:58.039,0:24:01.226 разбудить страждущий разум 0:24:01.939,0:24:04.090 и показать, как далеко [br]он может нас увести. 0:24:04.200,0:24:06.437 Спасибо за внимание. 0:24:15.370,0:24:16.960 В такой отчаянной ситуации 0:24:16.960,0:24:19.059 вы должны сделать всё, чтобы выжить. 0:24:19.059,0:24:22.629 Вы должны сделать всё, что возможно? [br]Да, вы должны сделать всё, что можете. 0:24:22.629,0:24:25.699 Если вы девятнадцать дней ничего не ели, 0:24:25.700,0:24:30.339 кто-то из вас должен пожертвовать собой[br]ради спасения остальных. 0:24:30.339,0:24:31.859 Отлично. Как вас зовут? 0:24:32.139,0:24:32.949 Маркус. 0:24:33.429,0:24:35.564 Что вы ответите Маркусу? 0:24:40.419,0:24:44.489 В прошлый раз 0:24:44.489,0:24:46.780 мы начали 0:24:46.780,0:24:48.820 с нескольких историй, 0:24:48.820,0:24:50.759 с нескольких моральных дилемм: 0:24:50.759,0:24:52.689 о трамваях, 0:24:52.689,0:24:54.309 докторах, 0:24:54.309,0:24:56.209 а также о здоровых пациентах, 0:24:56.209,0:25:00.689 рискующих стать жертвами [br]трансплантации органов. 0:25:00.690,0:25:03.799 Мы обратили внимание на две особенности 0:25:03.799,0:25:06.690 в доводах, которые мы приводили. 0:25:06.690,0:25:09.689 Первая особенность связана с тем, [br]как именно мы спорили. 0:25:09.689,0:25:13.379 Всё началось с наших суждений [br]об определённых случаях. 0:25:13.379,0:25:18.170 Мы попытались сформулировать [br]причины или принципы, 0:25:18.170,0:25:22.329 лежащие в основе наших суждений.[br] 0:25:22.329,0:25:25.280 И затем, столкнувшись с новым случаем, 0:25:25.280,0:25:30.209 мы пересматривали эти принципы, 0:25:30.209,0:25:33.869 рассматривая один в свете другого. 0:25:33.869,0:25:35.850 И мы чувствовали внутреннее[br]сопротивление, 0:25:35.850,0:25:38.860 пытаясь привести в соответствие 0:25:38.860,0:25:41.550 наши суждения об определённых случаях[br] 0:25:41.550,0:25:46.270 и принципы, лежащие в основе[br]этих суждений. 0:25:46.270,0:25:50.459 Мы также заметили кое-что [br]в содержании доводов, 0:25:50.459,0:25:55.150 которые возникли в ходе обсуждения.[br] 0:25:55.150,0:25:57.449 Мы заметили, что иногда [br]мы испытывали желание 0:25:57.449,0:26:00.649 дать моральную оценку[br]последствиям действий, 0:26:00.649,0:26:06.389 результатам и положению дел, [br]к которому эти действия привели. 0:26:06.389,0:26:11.470 Мы назвали это явление[br]консеквенциальной аргументацией. 0:26:11.470,0:26:13.110 Но мы также заметили, 0:26:13.110,0:26:16.300 что в некоторых ситуациях 0:26:16.300,0:26:18.469 не только результат имел для нас 0:26:18.469,0:26:21.309 значение. 0:26:21.309,0:26:23.180 Иногда, 0:26:23.180,0:26:25.249 как многие из нас почувствовали, 0:26:25.249,0:26:31.240 не только последствия, но и сущность [br]или характер действия 0:26:31.240,0:26:34.769 имеет моральное значение. 0:26:34.769,0:26:37.470 Некоторые люди утверждали, [br]что есть определённые вещи, 0:26:37.470,0:26:40.470 которые категорически неправильны, 0:26:40.470,0:26:42.449 даже если за ними последует 0:26:42.449,0:26:44.240 положительный результат. 0:26:44.240,0:26:47.200 Даже если они приведут [br]к спасению жизни пятерых 0:26:47.200,0:26:49.588 ценой одной жизни. 0:26:49.588,0:26:52.510 Таким образом, мы сравнили [br]консеквенциальные 0:26:52.510,0:26:54.470 моральные принципы 0:26:54.470,0:26:57.930 и категорические. 0:26:57.930,0:26:59.729 Cегодня 0:26:59.729,0:27:01.149 и в ближайшие несколько дней 0:27:01.149,0:27:05.879 мы начнём рассматривать одну [br]из самых влиятельных 0:27:05.879,0:27:10.969 версий консеквенциальной[br]моральной теории — 0:27:10.970,0:27:15.709 философию утилитаризма. 0:27:15.709,0:27:17.410 Иеремия Бентам — 0:27:17.410,0:27:21.660 английский политический философ [br]18-го века 0:27:21.660,0:27:22.910 дал первое 0:27:22.910,0:27:26.580 чёткое систематическое определение 0:27:26.580,0:27:32.020 утилитаристской моральной теории. 0:27:32.020,0:27:36.260 Идея Бентама, 0:27:36.260,0:27:38.300 его основная мысль, 0:27:38.300,0:27:42.770 очень проста[br] 0:27:42.770,0:27:48.428 и несёт интуитивно понятный посыл. 0:27:48.428,0:27:51.600 Она заключается в следующем: 0:27:51.600,0:27:54.439 правильное действие, 0:27:54.440,0:27:57.619 справедливое действие 0:27:57.619,0:28:01.269 должно максимизировать 0:28:01.269,0:28:02.309 полезность. 0:28:02.309,0:28:06.039 Что он имел в виду под «полезностью»?[br] 0:28:06.039,0:28:11.490 Под «полезностью» он имел в виду [br]преобладание 0:28:11.490,0:28:13.540 удовольствия над болью, 0:28:13.540,0:28:16.670 счастья над страданием. 0:28:16.670,0:28:22.270 И вот как он достиг принципа[br]максимизации полезности. 0:28:22.270,0:28:24.700 Он начал с наблюдения, заметив, 0:28:24.700,0:28:27.660 что все мы, все люди, 0:28:27.660,0:28:31.280 управляемы двумя полновластными [br]«повелителями»: 0:28:31.280,0:28:34.620 болью и удовольствием. 0:28:34.619,0:28:42.258 Нам нравится удовольствие [br]и не нравится боль. 0:28:42.258,0:28:45.839 И поэтому мы всегда должны основывать [br]наши моральные суждения, 0:28:45.839,0:28:49.150 думаем ли мы о том, как правильно [br]поступить в нашей частной жизни, 0:28:49.150,0:28:52.529 или же размышляем уже в качестве[br]законодателей или граждан 0:28:52.529,0:28:57.029 о том, каким должен быть закон, [br]на следующем: 0:28:57.029,0:29:01.919 нужно действовать, индивидуально [br]или же коллективно, 0:29:01.919,0:29:05.838 в направлении максимизации 0:29:05.838,0:29:07.560 общего уровня 0:29:07.560,0:29:11.259 счастья. 0:29:11.259,0:29:15.320 Утилитаризм Бентама иногда [br]выражается слоганом: 0:29:15.320,0:29:18.799 «наибольшее благо[br]для наибольшего количества». 0:29:18.799,0:29:22.788 Вооружившись этим[br]базовым принципом полезности, 0:29:22.788,0:29:28.090 давайте проверим его,[br]применив к другому случаю. 0:29:28.099,0:29:33.970 На этот раз история не гипотетическая,[br]а вполне реальная. 0:29:33.970,0:29:38.139 Дело Дадли и Стивенса. 0:29:38.139,0:29:41.690 Это знаменитое британское[br]судебное дело 19-ого века, 0:29:41.690,0:29:47.479 которое часто разбирается[br]на юридических факультетах. 0:29:47.479,0:29:50.019 Итак, что же произошло в этом деле? 0:29:50.019,0:29:51.799 Я вкратце изложу его суть, 0:29:51.799,0:29:54.880 и затем я хотел бы услышать, 0:29:54.880,0:29:57.180 как бы вы разрешили его, 0:29:57.180,0:29:59.950 если бы оказались на месте присяжных. 0:30:03.669,0:30:08.849 В газетном отчёте того времени[br]оно было описано так: 0:30:08.849,0:30:14.180 «Нет истории печальнее на свете,[br]чем история выживших 0:30:14.180,0:30:16.180 с яхты «Mignonette» [«Резеда»]. 0:30:16.180,0:30:21.719 Это судно затонуло в Южной Атлантике[br]в трёхстах милях от Мыса Доброй Надежды. 0:30:21.719,0:30:25.920 На борту было четыре человека:[br]капитан Дадли, 0:30:25.920,0:30:30.020 его главный помощник Стивенс[br]и матрос Брукс. 0:30:30.020,0:30:32.489 Все они были «людьми[br]с безукоризненной репутацией». 0:30:32.489,0:30:35.719 По крайней мере, так сообщается[br]в газетном отчёте. 0:30:35.719,0:30:39.750 Четвёртым членом команды был[br]Ричард Паркер — 0:30:39.750,0:30:42.729 семнадцатилетний юнга. 0:30:42.729,0:30:51.290 Он был сиротой, у него не было семьи,[br]и это было его первое дальнее плавание. 0:30:51.290,0:30:53.700 Как сообщается,[br]он отправился в путешествие, 0:30:53.700,0:30:56.730 не послушавшись совета своих друзей. 0:30:56.730,0:30:59.850 Полный надежд и юношеских амбиций, 0:30:59.850,0:31:03.000 он думал, что путешествие [br]сделает из него мужчину. 0:31:03.000,0:31:05.140 К сожалению, этому не суждено[br]было произойти. 0:31:05.140,0:31:07.479 Факты дела не были предметом спора.[br] 0:31:07.479,0:31:11.940 В судно ударила волна,[br]и «Mignonette» [«Резеда»] пошла ко дну. 0:31:11.940,0:31:14.739 Экипаж сумел сесть в спасательную шлюпку. 0:31:14.739,0:31:18.269 Единственной едой, которую они имели, 0:31:18.269,0:31:21.600 были две банки консервированной репы. 0:31:21.600,0:31:23.900 Никакой питьевой воды.[br] 0:31:23.900,0:31:26.610 Первые три дня они ничего не ели, 0:31:26.609,0:31:30.250 на четвёртый день они открыли [br]одну из консервных банок 0:31:30.250,0:31:31.530 и съели её содержимое. 0:31:31.530,0:31:34.150 На следующий день они поймали черепаху. 0:31:34.150,0:31:38.250 Оставшаяся банка с репой и черепаха 0:31:38.250,0:31:40.960 помогли им продержаться[br]ещё несколько дней, [br] 0:31:40.960,0:31:43.899 но затем в течение восьми дней[br]у них уже не было ничего, 0:31:43.899,0:31:46.749 ни еды, ни воды. 0:31:46.749,0:31:49.929 Представьте себя в такой ситуации. 0:31:49.929,0:31:52.699 Что бы вы сделали? 0:31:52.699,0:31:55.049 Вот что сделали они. 0:31:55.049,0:32:00.740 К этому моменту юнга Паркер [br]лежал в углу на дне шлюпки, 0:32:00.740,0:32:02.920 потому что напился морской воды, 0:32:02.920,0:32:05.490 не послушав остальных. 0:32:05.490,0:32:07.230 Ему сделалось дурно, 0:32:07.230,0:32:10.619 и было понятно, что он умирает. 0:32:10.619,0:32:14.498 На девятнадцатый день [br]капитан Дадли предложил 0:32:14.498,0:32:18.749 всем бросить жребий 0:32:18.749,0:32:20.859 и определить, кому суждено умереть, 0:32:20.859,0:32:23.820 чтобы спасти остальных. 0:32:23.820,0:32:26.480 Брукс отказался. 0:32:26.480,0:32:29.139 Ему не понравилась идея со жребием. 0:32:29.140,0:32:33.079 Мы не знаем, было ли это вызвано тем,[br]что он не хотел рисковать, 0:32:33.079,0:32:36.859 или же тем, что он верил [br]в категорические моральные принципы, 0:32:36.859,0:32:42.119 но в любом случае[br]жребий так и не был брошен. 0:32:42.130,0:32:45.030 На следующий день спасительного корабля[br]по-прежнему не было, 0:32:45.030,0:32:48.300 и Дадли попросил Брукса отвернуться,[br] 0:32:48.300,0:32:50.730 жестом показав Стивенсу, 0:32:50.730,0:32:53.719 что мальчишку Паркера нужно убить. 0:32:53.719,0:32:55.850 Дадли помолился, 0:32:55.849,0:32:58.450 сказал мальчику, что его время пришло, 0:32:58.450,0:33:00.409 и зарезал его перочинным ножом, 0:33:00.409,0:33:03.640 поразив ярёмную вену. 0:33:03.640,0:33:09.670 Брукс, отрёкшийся от соображений совести,[br]воспользовался этим жутким «подарком». 0:33:09.670,0:33:11.049 Четыре дня 0:33:11.049,0:33:15.230 они втроём питались [br]телом и кровью юнги. 0:33:15.230,0:33:17.140 Реальная история. 0:33:17.140,0:33:19.150 А затем их спасли. 0:33:19.150,0:33:24.619 Дадли описал это спасение[br]в своём дневнике 0:33:24.619,0:33:27.570 поразительным эвфемизмом. Цитата: 0:33:27.569,0:33:29.618 «На двадцать четвёртый день, 0:33:29.618,0:33:34.818 когда мы завтракали, 0:33:34.818,0:33:38.599 наконец-то показался корабль». 0:33:38.599,0:33:44.239 Трое выживших были подобраны немецким[br]кораблём и отправлены назад в Англию, 0:33:44.239,0:33:46.749 где их арестовали и подвергли суду. 0:33:46.749,0:33:49.810 Брукс был свидетелем обвинения, 0:33:49.810,0:33:51.970 а Дадли и Стивенс — обвиняемыми. 0:33:51.970,0:33:54.370 Они не оспаривали факты. 0:33:54.370,0:33:57.670 Они утверждали, что действовали [br]из крайней необходимости. 0:33:57.670,0:33:59.430 Это была их линия защиты. 0:33:59.430,0:34:03.110 Они настаивали на том, что смерть[br]одного человека более предпочтительна, 0:34:03.110,0:34:06.430 чем смерть троих. 0:34:06.430,0:34:10.849 Обвинителя не убедил такой аргумент. 0:34:10.849,0:34:13.869 Он сказал: «Убийство есть убийство». [br]Дело передали в суд. 0:34:13.869,0:34:16.209 Теперь представьте, что вы присяжные. 0:34:16.209,0:34:21.789 Чтобы упростить обсуждение,[br]оставим в стороне вопрос права 0:34:21.789,0:34:25.840 и представим, что как присяжные 0:34:25.840,0:34:28.050 вы должны решить, 0:34:28.050,0:34:34.399 было ли то, что они сделали,[br]морально допустимым или нет. 0:34:34.399,0:34:36.608 Кто из вас 0:34:36.608,0:34:39.689 проголосовал бы 0:34:39.689,0:34:46.809 за то, что они невиновны и что[br]совершённое ими было морально допустимо? 0:34:49.408,0:34:51.639 А кто проголосовал бы за то, [br]что они виновны 0:34:51.639,0:34:54.858 и что совершённое ими было недопустимо? 0:34:54.858,0:34:57.998 Значительное большинство. 0:34:57.998,0:35:03.808 Давайте послушаем ваши соображения.[br]Начнём с тех, кто оказался в меньшинстве. 0:35:03.809,0:35:07.669 Давайте сперва предоставим слово защите [br] 0:35:07.669,0:35:10.059 Дадли и Стивенса. 0:35:10.059,0:35:14.149 Почему вы оправдали бы их [br]с моральной точки зрения? 0:35:14.149,0:35:16.369 Чем вы руководствуетесь? 0:35:16.369,0:35:17.989 Пожалуйста. 0:35:17.989,0:35:20.778 Я считаю это предосудительным [br]с моральной точки зрения, 0:35:20.778,0:35:24.229 но существует различие между тем, [br]что нравственно предосудительно, 0:35:24.229,0:35:26.609 и тем, что влечёт юридическую [br]ответственность. 0:35:26.608,0:35:32.140 Или, как мог бы сказать судья, аморальное[br]совсем не обязательно противозаконно. 0:35:32.140,0:35:35.989 И хотя я не считаю, что необходимость [br]чего-либо является достаточным основанием 0:35:35.989,0:35:38.578 для кражи, убийства или другого [br]незаконного действия, 0:35:38.579,0:35:45.849 степень необходимости в той или иной[br]мере может оправдывать его. 0:35:45.849,0:35:50.398 Хорошо. Кто ещё поддерживает эту [br]точку зрения и согласен 0:35:50.398,0:35:54.208 с моральными обоснованиями их действий? 0:35:54.208,0:35:56.969 Пожалуйста. 0:35:56.969,0:35:58.519 Спасибо. 0:35:58.528,0:36:03.020 Я думаю, в такой отчаянной ситуации вы[br]должны сделать всё, чтобы выжить. 0:36:03.020,0:36:04.689 Вы должны сделать всё, что возможно? 0:36:04.689,0:36:06.789 Да, вы должны сделать всё, что можете. 0:36:06.789,0:36:10.409 Если вы девятнадцать дней ничего не ели, 0:36:10.409,0:36:14.630 кто-то из вас должен пожертвовать собой[br]ради спасения остальных. 0:36:14.630,0:36:20.959 Более того, представим, что по возвращении[br]домой спасшиеся, к примеру, создадут 0:36:20.959,0:36:25.660 благотворительные организации и другие [br]подобные вещи. И в итоге всем хорошо. 0:36:25.660,0:36:28.109 Я не знаю, что они сделали[br]после этого случая, 0:36:28.109,0:36:30.549 но они вполне могли бы [br]продолжать убивать людей... 0:36:30.549,0:36:32.798 Что? 0:36:32.798,0:36:35.708 А что если они вернулись [br]домой и стали убийцами? 0:36:35.708,0:36:39.108 Что если они вернулись домой [br]и стали убийцами? 0:36:39.108,0:36:42.648 Вы бы хотели знать, кого они убили. 0:36:42.648,0:36:45.309 Да, верно. 0:36:45.309,0:36:46.568 Я хотел бы знать это. 0:36:46.568,0:36:50.728 Это было неплохо. Как вас зовут?[br]Маркус. 0:36:50.728,0:36:54.039 Мы услышали сторону защиты,[br]пару голосов в оправдание. 0:36:54.039,0:36:57.290 Теперь послушаем сторону обвинения. 0:36:57.298,0:37:03.578 Большинство людей думает,[br]что они не правы. Почему? 0:37:03.578,0:37:04.628 Пожалуйста. 0:37:04.628,0:37:09.078 Когда я услышала эту историю, я подумала: [br]«Так, если они голодали очень долго, 0:37:09.078,0:37:15.089 то может в этом случае[br]они не были в здравом рассудке». 0:37:15.089,0:37:20.608 И это могло послужить оправданием,[br]в качестве возможного аргумента: 0:37:20.608,0:37:25.859 они были не в своём уме и приняли решение,[br]которое не приняли бы в другой ситуации. 0:37:25.859,0:37:28.519 Думаю, это их оправдывает. 0:37:28.518,0:37:33.348 Трезво мыслящий человек так никогда [br]не поступит. Мне кажется, что есть люди, 0:37:33.348,0:37:36.058 которые находят данный аргумент [br]приемлемым. 0:37:36.058,0:37:37.588 Вы думаете, что они поступили... 0:37:37.588,0:37:39.298 Но я хочу знать, что думаете вы. 0:37:39.298,0:37:42.548 Вы голосовали за то, что они виновны, [br]верно? 0:37:42.548,0:37:46.428 Да, я не считаю, что они действовали [br]в рамках морали. 0:37:46.428,0:37:51.069 Но почему нет? Вы же слышали, [br]как Маркус защищал их. 0:37:51.069,0:37:52.709 Он сказал... 0:37:52.709,0:37:53.960 Вы слышали, что он сказал. 0:37:53.960,0:37:56.339 Да, я слышала. 0:37:56.339,0:38:00.019 Что вы должны поступать так, [br]как того требует данная ситуация. 0:38:00.019,0:38:04.759 Что вы ответите Маркусу? 0:38:04.759,0:38:06.428 Я бы сказала, что 0:38:06.428,0:38:13.459 нет такой ситуации, [br]в которой можно было бы 0:38:13.459,0:38:17.238 лишить человека права управлять своей [br]судьбой или лишить человека жизни. 0:38:17.238,0:38:19.868 У нас нет такого права. 0:38:19.868,0:38:22.429 Хорошо, спасибо. Как вас зовут? 0:38:22.429,0:38:23.350 Бритт. 0:38:23.350,0:38:24.548 Бритт? Хорошо. 0:38:24.548,0:38:25.798 Кто-нибудь ещё? 0:38:25.798,0:38:28.059 Что вы скажете? Встаньте, пожалуйста. 0:38:28.059,0:38:31.833 Мне вот что интересно. Если бы Дадли [br]и Стивенс получили бы от Ричарда Паркера 0:38:31.833,0:38:34.403 согласие 0:38:34.403,0:38:35.543 на смерть. 0:38:35.543,0:38:37.499 Могло бы это... 0:38:37.499,0:38:42.268 Могло бы это оправдать [br]совершённое убийство, 0:38:42.268,0:38:45.269 и если да, то было бы ли это оправданно [br]с точки зрения морали? 0:38:45.269,0:38:49.539 Это любопытно. Согласие.[br]Подождите, как вас зовут? 0:38:49.539,0:38:51.639 Кэтлин. 0:38:51.639,0:38:55.459 Кэтлин предлагает представить, как бы[br]могла выглядеть эта сцена в таком случае. 0:38:55.459,0:39:02.610 Итак, представьте. Дадли с ножом в руке,[br]но вместо молитвы, 0:39:02.610,0:39:04.588 или перед молитвой, 0:39:04.588,0:39:06.348 он спрашивает: 0:39:06.348,0:39:11.528 «Паркер, ты не возражаешь? 0:39:11.528,0:39:14.348 Мы тут безумно проголодались...» 0:39:14.349,0:39:17.679 Смотрите, как Маркус сопереживает им. 0:39:17.679,0:39:22.089 «Мы безумно проголодались,[br]а тебе, в любом случае, недолго осталось. 0:39:22.089,0:39:23.458 Ты можешь стать мучеником. 0:39:23.458,0:39:25.708 Не хочешь стать мучеником? 0:39:25.708,0:39:29.179 Что скажешь, Паркер?» 0:39:29.179,0:39:33.089 В этом случае 0:39:33.089,0:39:36.939 можете ли вы оправдать это [br]с точки зрения морали? 0:39:36.939,0:39:42.889 Допустим, Паркер в оцепенении говорит:[br]«Я согласен». 0:39:42.889,0:39:45.559 Я не считаю, что это оправдывает[br]убийство, мне просто... 0:39:45.559,0:39:47.839 Даже в этом случае не было бы оправдания? [br]Нет. 0:39:47.839,0:39:52.290 Вы не считаете, что даже с согласия[br]это может быть морально оправданно. 0:39:52.290,0:39:57.228 Есть тут люди, готовые подхватить[br]идею Кэтлин о согласии? 0:39:57.228,0:40:00.148 Кто считает, что в этом случае их[br]действия были бы оправданны? 0:40:00.148,0:40:05.739 Поднимите руку, если вы с этим согласны. 0:40:05.739,0:40:07.458 Вот это интересно. 0:40:07.458,0:40:14.038 Почему же наличие согласия[br]создало такую разницу? 0:40:14.038,0:40:15.679 С чего бы это? 0:40:15.679,0:40:18.419 Я думаю, что если бы Паркер [br]сам принимал решение, 0:40:18.419,0:40:20.899 если бы это было его собственным желанием, 0:40:20.899,0:40:25.768 то только в такой ситуации [br]это было бы допустимо. 0:40:25.768,0:40:28.380 Потому что в такой ситуации вы[br]не можете сказать, 0:40:28.380,0:40:31.979 что на него было оказано давление,[br]что их было трое против одного. 0:40:31.979,0:40:33.199 Верно. 0:40:33.199,0:40:39.430 Мне кажется, принимая такое решение,[br]он делает это по собственной воле. 0:40:39.430,0:40:41.478 Некоторые могут восхититься [br]этим поступком, 0:40:41.478,0:40:45.319 другие могут быть не согласны [br]с такой оценкой. 0:40:45.319,0:40:48.999 Итак, если он сам предложил эту идею, 0:40:48.999,0:40:52.230 то это будет единственным вариантом [br]согласия, который бы нас устроил 0:40:52.230,0:40:54.858 с точки зрения морали. [br]Тогда это было бы допустимо. 0:40:54.858,0:40:57.268 В ином случае 0:40:57.268,0:40:59.579 это будет, скажем так,[br]согласие под принуждением, 0:40:59.579,0:41:01.489 согласие под воздействием обстоятельств. 0:41:01.489,0:41:05.228 Вы так считаете. 0:41:05.228,0:41:07.349 Кто-нибудь из вас считает, 0:41:07.349,0:41:10.859 что даже согласие Паркера 0:41:10.859,0:41:15.479 не оправдывает его убийство? 0:41:15.479,0:41:17.288 Кто так думает? 0:41:17.288,0:41:19.548 Да. Расскажите нам почему.[br]Встаньте, пожалуйста. 0:41:19.548,0:41:22.860 Я думаю, что Паркер был убит в надежде, 0:41:22.860,0:41:26.379 что все остальные члены экипажа [br]впоследствии будут спасены. 0:41:26.379,0:41:28.920 Но для его убийства нет[br]объективных причин, 0:41:28.920,0:41:32.319 потому что вы даже не знаете,[br]спасут вас вообще или нет, 0:41:32.319,0:41:34.092 и его убийство может быть напрасным. 0:41:34.092,0:41:38.039 Вы так и будете убивать одного за другим,[br]пока не останетесь один или вас не спасут? 0:41:38.039,0:41:39.949 Просто потому что кто-то[br]всё равно умрёт? 0:41:39.949,0:41:44.159 С позиций морали смысл ситуации в том, 0:41:44.159,0:41:50.059 что они жертвуют слабейшим, [br]одним за другим, 0:41:50.059,0:41:51.929 пока не будут спасены. 0:41:51.929,0:41:57.679 И в этом случае по счастливой случайности[br]три человека были живы, когда их спасли. 0:41:57.679,0:42:01.210 Но если бы Паркер согласился, 0:42:01.210,0:42:03.488 как вы думаете, это было бы правильным? 0:42:03.488,0:42:06.329 Нет, я по-прежнему[br]не считаю это правильным. 0:42:06.329,0:42:08.030 Обоснуйте почему. 0:42:08.030,0:42:12.838 Во-первых, я считаю, что каннибализм[br]аморален в принципе. 0:42:12.838,0:42:14.550 Есть людей нельзя ни в каком случае. 0:42:14.550,0:42:16.819 Итак, 0:42:16.819,0:42:22.410 каннибализм неприемлем[br]даже в том случае, 0:42:22.410,0:42:24.318 когда мы знаем, что человек [br]точно умрёт? 0:42:24.318,0:42:26.198 Даже в этом случае? 0:42:26.198,0:42:27.959 Да, лично для меня. 0:42:27.959,0:42:31.189 Мне кажется, что всё это зависит 0:42:31.199,0:42:35.258 от личных моральных принципов человека. 0:42:35.258,0:42:36.808 Это только моё мнение. 0:42:36.808,0:42:39.339 Конечно, не все с этим согласятся. 0:42:39.338,0:42:41.498 Хорошо. Давайте послушаем [br]аргументы «против», 0:42:41.498,0:42:46.199 а затем посмотрим, смогут ли они[br]переубедить вас или нет? 0:42:46.199,0:42:48.248 Давайте попробуем. 0:42:48.248,0:42:50.098 Итак, 0:42:50.099,0:42:53.249 есть ли здесь кто-нибудь, 0:42:53.248,0:42:57.869 кому импонирует идея согласия [br]и кто мог бы объяснить... 0:42:57.869,0:43:03.328 Можете ли вы объяснить,[br]почему согласие всё кардинально меняет? 0:43:03.328,0:43:05.600 А как насчёт идеи с жребием? 0:43:05.600,0:43:08.769 Может ли это считаться согласием? [br]Помните, в начале истории 0:43:08.769,0:43:10.989 Дадли предложил тянуть жребий. 0:43:10.989,0:43:16.119 Предположим, что они согласились[br]тянуть жребий. 0:43:16.119,0:43:20.819 Теперь кто из вас за то, 0:43:20.819,0:43:23.769 что это было бы правильно? [br]Предположим, они тянули жребий, 0:43:23.769,0:43:25.380 и юнга проиграл. 0:43:25.380,0:43:33.160 Далее происходит история, которую мы уже[br]знаем. Было бы тогда это допустимым? 0:43:33.160,0:43:37.030 В случае со жребием число согласных[br]уже больше. Давайте послушаем кого-нибудь, 0:43:37.030,0:43:41.609 для кого с моральной точки зрения [br]принципиален жребий. 0:43:41.608,0:43:43.458 Почему вы так считаете? 0:43:43.458,0:43:45.709 Я думаю, что это принципиальный момент. 0:43:45.719,0:43:47.858 Преступлением этот поступок делает то, 0:43:47.858,0:43:52.788 что Дадли и Стивенс в один момент решили, [br]что их жизни важнее, чем жизнь юнги. 0:43:52.788,0:43:56.388 И такая мысль может стать предпосылкой [br]для любого преступления. 0:43:56.388,0:44:01.859 То есть мои потребности и желания[br]являются более важными, чем ваши. 0:44:01.859,0:44:04.798 А если бы они тянули жребий,[br]согласившись с тем, 0:44:04.798,0:44:06.478 что кто-то из них должен умереть 0:44:06.478,0:44:09.239 и пожертвовать таким образом собой, 0:44:09.239,0:44:10.959 чтобы спасти остальных... 0:44:10.959,0:44:12.919 Тогда всё будет в порядке? 0:44:12.919,0:44:15.840 Немного абсурдно, но... 0:44:15.840,0:44:18.828 Но допустимо с точки зрения морали? [br]Да. 0:44:18.828,0:44:20.958 Как вас зовут? [br]Мэтт. 0:44:20.958,0:44:25.578 Что ж, Мэтт, вас смущает 0:44:25.579,0:44:28.259 не сам факт каннибализма, 0:44:28.259,0:44:31.389 а отсутствие должной процедуры? 0:44:31.389,0:44:34.689 Можно сказать, что да. 0:44:34.688,0:44:38.170 Может ли кто-нибудь из тех,[br]кто согласен с Мэттом, 0:44:38.170,0:44:40.410 что-нибудь добавить к сказанному 0:44:40.410,0:44:46.738 о том, почему жребий сделает этот поступок 0:44:46.738,0:44:50.528 допустимым с точки зрения морали? 0:44:50.528,0:44:53.938 Мне кажется, что основная проблема [br]заключается именно в том, 0:44:53.938,0:44:58.758 что юнгу даже не спрашивали,[br]когда решали его судьбу. 0:44:58.758,0:45:01.108 Даже в случае со жребием,[br]им было всё равно, 0:45:01.108,0:45:02.810 будет или нет он в нём участвовать. 0:45:02.810,0:45:05.690 Было просто решено, что именно [br]мальчик должен умереть. 0:45:05.690,0:45:08.170 Да, так и произошло на самом деле. 0:45:08.170,0:45:11.900 Но если бы все они тянули жребий и все [br]были бы согласны с этой процедурой, 0:45:11.900,0:45:13.399 считали бы вы это правильным? 0:45:13.399,0:45:16.418 Да, потому что тогда все бы [br]знали, что кто-то из них умрёт, 0:45:16.418,0:45:18.879 в то время как в реальной [br]ситуации юнга не знал, 0:45:18.879,0:45:21.038 что Дадли и Стивенс решают его судьбу. 0:45:21.039,0:45:26.309 Ему никто не сказал,[br]что он может умереть. 0:45:26.309,0:45:29.299 Хорошо, предположим,[br]что все согласились тянуть жребий. 0:45:29.299,0:45:34.368 Все бросили жребий. Но представьте себе, [br]что юнга проиграл и передумал. 0:45:34.368,0:45:37.029 Вы уже всё решили, это своего рода [br]устное соглашение, 0:45:37.029,0:45:40.989 вы не можете взять свои слова обратно.[br]Решение было принято. 0:45:40.989,0:45:45.148 Вы понимаете, что умираете ради того,[br]чтобы спасти других. 0:45:45.148,0:45:48.208 Вы осознаёте, что если бы кому-то другому [br]выпал жребий умереть, 0:45:48.208,0:45:51.009 то его так же съели бы, так что... 0:45:51.009,0:45:56.709 Хорошо, но потом он мог бы сказать: [br]«Знаю, но я проиграл». 0:45:56.709,0:46:02.688 Я считаю, что основная моральная проблема [br]в том, что юнгу никто не спрашивал. 0:46:02.688,0:46:07.048 Самое ужасное то, что он даже[br]не представлял, что происходит. 0:46:07.048,0:46:10.599 Если бы он осознавал это,[br]то результат был бы 0:46:10.599,0:46:12.278 немного более справедливым. 0:46:12.278,0:46:14.509 Хорошо. Теперь я хотел бы узнать вот что. 0:46:14.510,0:46:16.919 Некоторые из вас считают, 0:46:16.919,0:46:18.719 что это морально допустимо, 0:46:18.719,0:46:23.878 но вас всего около 20 процентов. 0:46:23.878,0:46:26.389 Во главе с Маркусом. 0:46:26.389,0:46:28.439 Другие же считают, 0:46:28.438,0:46:30.208 что основная проблема заключается 0:46:30.208,0:46:32.678 в отсутствии согласия,[br] 0:46:32.678,0:46:36.919 будь то отсутствие согласия [br]тянуть справедливый жребий 0:46:36.919,0:46:38.488 или же, 0:46:38.488,0:46:39.690 как считает Кэтлин, 0:46:39.690,0:46:42.899 отсутствие согласия в момент 0:46:42.899,0:46:44.979 смерти. 0:46:44.979,0:46:49.038 Если мы предположим наличие согласия, то 0:46:49.038,0:46:51.889 уже больше людей будут готовы признать, 0:46:51.889,0:46:54.528 что эта жертва морально оправданна. 0:46:54.528,0:46:58.388 Теперь я хочу выслушать[br]тех, кто считает,[br] 0:46:58.388,0:47:00.139 что даже при наличии согласия, 0:47:00.139,0:47:01.758 даже при использовании жребия, 0:47:01.759,0:47:08.009 даже если бы в самый [br]последний момент Паркер 0:47:08.018,0:47:09.179 вяло согласился, 0:47:09.179,0:47:12.578 это всё равно[br]было бы неправильно.[br] 0:47:12.578,0:47:15.458 И я хочу услышать,[br]почему это было бы неправильно. 0:47:15.458,0:47:16.858 Да. 0:47:16.858,0:47:22.718 Всё это время я склонялась[br]к категорической аргументации. 0:47:22.718,0:47:25.428 И думаю, 0:47:25.428,0:47:29.368 что, возможно, я готова [br]принять вариант со жребием, 0:47:29.368,0:47:33.660 при котором проигравший [br]собственноручно убивает себя. 0:47:33.660,0:47:37.218 Тогда убийства как такового не будет, [br]но я по-прежнему считаю, 0:47:37.218,0:47:39.768 что даже в таком случае будет принуждение. 0:47:39.768,0:47:43.338 И я не думаю, что тут есть раскаяние. [br]Вспомните запись в дневнике Дадли: 0:47:43.338,0:47:44.909 «…когда мы завтракали». 0:47:44.909,0:47:51.799 Это выглядит так, как будто он[br]не видит ценности в жизни других. 0:47:51.799,0:47:55.359 Это заставляет меня принять[br]категорическую аргументацию. 0:47:55.359,0:47:57.489 Вы хотите наказать Дадли[br]по полной программе, 0:47:57.489,0:48:00.758 если он не раскаивается или не чувствует,[br]что поступил неправильно? 0:48:00.758,0:48:02.158 Да. 0:48:02.158,0:48:08.769 Хорошо. Есть ещё кто-нибудь, кто считает, 0:48:08.769,0:48:13.558 что это категорически неправильно, [br]с согласием или без него. Да, пожалуйста. 0:48:13.558,0:48:17.129 Я считаю, что в понятиях нашего общества [br]убийство есть убийство. 0:48:17.129,0:48:21.489 И в любом случае наше общество негативно [br]к этому относится. Я не считаю, 0:48:21.489,0:48:23.169 что это зависит от обстоятельств. 0:48:23.169,0:48:24.720 Можно задать вам вопрос? 0:48:24.720,0:48:27.119 На кону было три жизни 0:48:27.119,0:48:30.489 против одной. 0:48:30.489,0:48:34.348 У юнги не было ни семьи,[br]ни тех, о ком нужно было заботиться. 0:48:34.348,0:48:39.149 У трёх других человек дома остались [br]семьи, у них были иждивенцы: 0:48:39.149,0:48:41.198 жёны и дети. 0:48:41.198,0:48:43.099 Вспомните Бентама. 0:48:43.099,0:48:47.969 Бентам считал, что мы должны учитывать[br]благосостояние, полезность и счастье 0:48:47.969,0:48:51.298 для всех. Мы должны сложить всё вместе. 0:48:51.298,0:48:54.509 Поэтому это не просто цифра [br]«три» против цифры «один», 0:48:54.509,0:48:58.599 а ещё и люди, [br]ждущие моряков дома. 0:48:58.599,0:49:00.959 Надо сказать, что во время [br]разбирательства пресса 0:49:00.959,0:49:05.438 и общественное мнение сочувствовали[br]Дадли и Стивенсу. 0:49:05.438,0:49:09.509 В газете писали, что если бы ими[br]не двигали привязанность 0:49:09.509,0:49:12.299 к своим близким, оставшимся дома,[br]и беспокойство о них, 0:49:12.299,0:49:14.039 они бы точно не сделали этого. 0:49:14.039,0:49:17.369 Да, но тогда как они отличаются[br]от людей, просящих милостыню, 0:49:17.369,0:49:20.859 которые так же хотят прокормить свою [br]семью? Здесь нет большой разницы. 0:49:20.859,0:49:23.590 Если я убиваю кого-то, чтобы[br]улучшить своё положение, 0:49:23.590,0:49:25.280 это не перестаёт быть убийством. 0:49:25.280,0:49:26.919 Нужно смотреть на это так. 0:49:26.919,0:49:30.278 Мы считаем преступлениями [br]только определённые поступки. 0:49:30.278,0:49:33.760 При этом некоторые из них кажутся [br]нам более жестокими и дикими, 0:49:33.760,0:49:36.680 хотя в их основе всегда лежит[br]один и тот же стимул: 0:49:36.680,0:49:39.850 необходимость прокормить свои семьи. 0:49:39.850,0:49:42.948 Предположим, что людей было бы [br]не трое, а тридцать 0:49:42.948,0:49:44.508 или триста. 0:49:44.508,0:49:47.298 Пожертвовать одной жизнью, [br]чтобы спасти три сотни 0:49:47.298,0:49:48.349 или больше,[br] 0:49:48.349,0:49:49.589 три тысячи. 0:49:49.590,0:49:51.039 А если ставки были ещё больше. 0:49:51.039,0:49:54.358 Предположим, ставки были больше. Я думаю,[br]это по-прежнему то же самое. 0:49:54.358,0:49:58.619 Вы думаете, что Бентам ошибался, [br]говоря, что необходимо 0:49:58.619,0:50:02.378 суммировать всё общественное счастье? [br]Вы думаете, что он ошибался насчёт этого? 0:50:02.378,0:50:05.098 Я не считаю, что он ошибался, но[br]убийство есть убийство. 0:50:05.098,0:50:08.038 Значит Бентам точно ошибается.[br]Если вы правы, то не прав он. 0:50:08.038,0:50:09.288 Хорошо, тогда он не прав.[br] 0:50:09.288,0:50:13.058 Хорошо, спасибо. 0:50:13.058,0:50:18.538 Давайте отвлечёмся от этого обсуждения 0:50:18.538,0:50:19.728 и обратим внимание на то, 0:50:19.728,0:50:23.159 сколько было возражений по поводу [br]поступка Дадли и Стивенса. 0:50:23.159,0:50:26.028 Мы услышали несколько мнений [br]в защиту того, что они сделали. 0:50:26.028,0:50:29.129 Их оправдывали тем, что они были[br]в ситуации крайней необходимости, 0:50:29.129,0:50:30.399 в ужасных обстоятельствах. 0:50:30.399,0:50:33.339 И косвенно оправдывали [br]количественным аргументом: 0:50:33.339,0:50:35.868 три жизни против одной. 0:50:35.868,0:50:40.310 Говорили, что дело не только в количестве,[br]но и в более важных обстоятельствах, 0:50:40.310,0:50:43.208 в том, что дома у них[br]остались семьи и близкие. 0:50:43.208,0:50:47.898 Паркер же был сиротой,[br]никто бы не скучал по нему. 0:50:47.898,0:50:52.658 Таким образом, если вы сложите всё это[br]и попробуете оценить 0:50:52.658,0:50:56.508 соотношение счастья и страдания, 0:50:56.508,0:51:02.758 то у вас будут основания утверждать, [br]что они поступили правильно. 0:51:02.768,0:51:09.369 Затем мы услышали по крайней мере [br]три различных типа возражений. 0:51:09.369,0:51:11.340 Например, возражение о том, 0:51:11.340,0:51:14.008 что их поступок был[br]категорически неправильным. 0:51:14.008,0:51:17.140 Прозвучавшее здесь. Категорически [br]неправильно. 0:51:17.140,0:51:19.460 Убийство есть убийство,[br]и это всегда плохо, 0:51:19.460,0:51:23.149 даже если при этом повысится[br]общий уровень счастья 0:51:23.149,0:51:25.599 в обществе. 0:51:25.599,0:51:28.398 Это категорическое возражение. 0:51:28.398,0:51:30.699 Но нам всё равно нужно понять, 0:51:30.699,0:51:32.698 почему убийство 0:51:32.698,0:51:35.329 является категорически неправильным. 0:51:35.329,0:51:38.279 Потому ли, что 0:51:38.279,0:51:42.138 даже у юнги есть фундаментальные права? 0:51:42.138,0:51:44.280 И если в этом вся причина, 0:51:44.280,0:51:47.750 то откуда возникают эти права,[br]если не из идеи 0:51:47.750,0:51:53.028 повышения общественного благосостояния, [br]полезности или счастья? Это первый вопрос. 0:51:53.028,0:51:56.308 Другие утверждали, 0:51:56.309,0:51:58.199 что в случае со жребием было бы иначе. 0:51:58.199,0:51:59.834 Справедливая процедура, 0:51:59.834,0:52:05.934 как заметил Мэтт. 0:52:05.949,0:52:08.668 И некоторые из вас склонились[br]к этой точке зрения. 0:52:08.668,0:52:11.918 Но это не совсем[br]категорическое возражение. 0:52:11.918,0:52:16.488 Это утверждение о том,[br]что все должны считаться равными, 0:52:16.488,0:52:20.599 даже если в конце концов[br]один человек будет принесён в жертву 0:52:20.599,0:52:23.179 ради общего блага. 0:52:23.179,0:52:25.969 Это заставляет нас задуматься о следующем. 0:52:25.969,0:52:29.590 Почему согласие на определённую процедуру, 0:52:29.590,0:52:31.369 пусть даже справедливую, 0:52:31.369,0:52:37.609 оправдывает любой результат,[br]вытекающий из этой процедуры? 0:52:37.609,0:52:39.758 Это второй вопрос. 0:52:39.758,0:52:42.298 И наконец третий вопрос связан 0:52:42.298,0:52:44.968 с фундаментальной идеей о согласии. 0:52:44.968,0:52:48.318 Эту мысль высказала Кэтлин. 0:52:48.318,0:52:52.659 Если бы юнга согласился сам 0:52:52.659,0:52:54.458 и никто бы его к этому не принуждал, 0:52:54.458,0:52:56.798 как было отмечено, 0:52:56.798,0:53:01.728 то пожертвовать его жизнью ради жизни [br]других было бы вполне нормальным. 0:53:01.728,0:53:04.840 Эту идею поддержали ещё больше людей, 0:53:04.840,0:53:08.370 но это приводит нас к третьему [br]философскому вопросу.[br] 0:53:08.370,0:53:14.289 Какова моральная основа [br]такого согласия? 0:53:14.289,0:53:16.818 Почему акт согласия 0:53:16.818,0:53:18.978 так существенно меняет дело [br]с позиции морали? 0:53:18.978,0:53:21.808 Поступок, который в любом [br]другом случае мы бы посчитали 0:53:21.808,0:53:23.809 неправильным и назвали бы убийством, 0:53:23.809,0:53:26.278 мы начинаем считать допустимым, 0:53:26.278,0:53:29.499 если на него было дано согласие. 0:53:29.499,0:53:31.549 Чтобы ответить на эти три вопроса, 0:53:31.549,0:53:34.058 мы с вами изучим сочинения [br]неcкольких философов. 0:53:34.058,0:53:38.648 В следующий раз мы начнём[br]с Бентама и Джона Стюарта Милля — 0:53:38.648,0:53:43.798 философов-утилитаристов.