0:00:33.299,0:00:37.230 Это курс по теории справедливости, [br]и мы начнём его с мысленного эксперимента. 0:00:37.230,0:00:44.549 Представьте, что вы водитель трамвая,[br]который несётся со скоростью 100 км/ч, 0:00:44.549,0:00:49.390 И вдруг вдалеке на рельсах [br]вы замечаете пятерых рабочих. 0:00:49.390,0:00:51.569 Вы пытаетесь остановиться, но не можете: 0:00:51.569,0:00:53.539 тормоза не работают. 0:00:53.539,0:00:56.630 Вы в полном отчаянии, поскольку знаете, 0:00:56.630,0:00:59.460 что если врежетесь в этих рабочих, 0:00:59.460,0:01:01.320 то все они погибнут. 0:01:01.320,0:01:04.879 Предположим, вы знаете это наверняка. 0:01:04.879,0:01:07.019 Итак, вы не знаете что делать, 0:01:07.019,0:01:09.230 но вдруг замечаете, 0:01:09.230,0:01:10.890 что справа 0:01:10.890,0:01:12.940 есть боковая ветка. 0:01:12.940,0:01:15.420 И на конце этой ветки находится только 0:01:15.420,0:01:18.119 только один рабочий. 0:01:19.348,0:01:21.748 Руль трамвая исправен, 0:01:21.748,0:01:22.748 и, если захотите, 0:01:22.748,0:01:24.148 вы можете повернуть 0:01:24.148,0:01:30.300 на эту боковую ветку 0:01:30.300,0:01:31.300 и, тем самым, убить одного рабочего, 0:01:31.300,0:01:33.079 но спасти жизнь пятерым.[br] 0:01:33.079,0:01:35.819 И вот наш первый вопрос: 0:01:35.819,0:01:38.659 как правильно поступить? 0:01:38.659,0:01:40.328 Как бы вы поступили в этой ситуации? 0:01:40.328,0:01:42.390 Давайте проголосуем. 0:01:42.390,0:01:47.720 Кто бы повернул на боковую ветку? 0:01:47.720,0:01:51.790 Поднимите руки. 0:01:51.790,0:01:54.645 Кто не стал бы этого делать 0:01:54.645,0:01:57.645 и поехал бы дальше?[br] 0:01:57.645,0:02:03.979 Не опускайте руки те, [br]кто поехал бы дальше. 0:02:03.979,0:02:08.198 Большинство. Подавляющее[br]большинство повернуло бы. 0:02:08.198,0:02:09.878 Давайте теперь разберёмся, 0:02:09.878,0:02:15.199 почему вы приняли именно такое решение. 0:02:15.199,0:02:19.729 И давайте начнём с большинства.[br]С тех, кто повернул бы 0:02:19.729,0:02:21.948 на боковую ветку. 0:02:21.948,0:02:22.948 Почему бы вы это сделали? 0:02:22.948,0:02:25.808 Что сподвигло бы вас на это? 0:02:25.808,0:02:29.868 Кто хочет высказаться? Есть добровольцы? 0:02:29.868,0:02:31.948 Начинайте. Встаньте, пожалуйста. 0:02:31.948,0:02:39.318 Я думаю, что неправильно убивать пять человек, [br]когда есть возможность убить только одного. 0:02:39.318,0:02:43.467 Было бы неправильно убивать пятерых 0:02:43.467,0:02:46.467 если вместо этого вы можете убить только одного. 0:02:46.467,0:02:48.239 Да, неплохая причина. 0:02:48.239,0:02:52.789 Действительно неплохая. 0:02:52.959,0:02:54.162 Кто-нибудь ещё? 0:02:54.322,0:02:57.022 Все согласны с таким 0:02:59.102,0:03:00.022 объяснением? Да, пожалуйста. 0:03:00.022,0:03:02.459 Я думаю этот случай похож на то, 0:03:02.459,0:03:05.459 что произошло с самолётом, 0:03:05.459,0:03:06.819 который разбился 0:03:06.819,0:03:09.819 в Пенсильвании 11 сентября. 0:03:09.819,0:03:12.561 Потому что эти люди, как настоящие [br]герои, предпочли погибнуть, 0:03:12.788,0:03:13.788 но избежать большего количества [br]жертв среди людей, 0:03:13.788,0:03:15.218 которые находились на земле. 0:03:15.218,0:03:19.708 То есть ими руководила та же логика: 0:03:19.901,0:03:20.901 в безнадёжной ситуации 0:03:20.901,0:03:23.176 лучше убить одного, но спасти пятерых. 0:03:25.359,0:03:30.748 Именно так считают те, кто повернул бы? Верно? 0:03:30.748,0:03:36.508 Давайте теперь послушаем мнение тех, 0:03:36.508,0:03:39.508 кто оказался в меньшинстве, 0:03:39.618,0:03:40.618 Да, вы. 0:03:40.872,0:03:45.116 Я думаю, что это такая же точка зрения, которая[br]оправдывает геноцид и тоталитаризм. 0:03:45.656,0:03:50.317 Для того, чтобы спасти представителей одной расы, [br]вы стираете с лица Земли другую. 0:03:50.779,0:03:52.847 И что бы вы сделали в этом случае? 0:03:53.225,0:04:00.408 Для того, 0:04:00.408,0:04:01.408 чтобы избежать ужасов геноцида, 0:04:01.408,0:04:03.738 вы предпочли бы врезаться в пятерых рабочих и убить их? 0:04:03.738,0:04:05.182 Думаю, да. 0:04:05.662,0:04:06.538 Правда?[br]Да. 0:04:07.614,0:04:09.164 Хорошо. Кто ещё хочет [br]высказать своё мнение? 0:04:09.996,0:04:13.460 Это смелый ответ. Спасибо. 0:04:13.611,0:04:17.264 Давайте теперь рассмотрим 0:04:17.264,0:04:20.264 другой пример с трамвайным вагоном 0:04:20.264,0:04:24.990 и посмотрим, 0:04:24.990,0:04:25.990 будет ли 0:04:25.990,0:04:27.990 большинство из вас 0:04:27.990,0:04:28.990 придерживаться той же самой логики 0:04:30.500,0:04:33.500 «лучше убить одного, чтобы пятеро остались живы». 0:04:33.500,0:04:37.963 В этот раз вы не водитель трамвая, [br]вы переводите стрелки. 0:04:38.150,0:04:42.879 Вы стоите на мосту и наблюдаете за рельсами. 0:04:42.879,0:04:45.879 И вот по рельсам летит трамвай. 0:04:45.879,0:04:48.858 На другом конце пять рабочих. 0:04:49.620,0:04:52.909 Тормоза не работают, 0:04:52.909,0:04:55.909 трамвай вот-вот в них врежется и убьёт. 0:04:55.909,0:04:58.309 Сейчас 0:04:58.309,0:04:59.309 вы не водитель 0:04:59.309,0:05:01.309 и совершенно не знаете, что делать. 0:05:01.309,0:05:05.569 И тут вы замечаете, что рядом с вами 0:05:05.569,0:05:06.569 стоит, 0:05:06.569,0:05:08.569 прислонившись к перилам 0:05:08.569,0:05:11.955 моста, 0:05:12.624,0:05:15.624 очень толстый человек. 0:05:15.624,0:05:24.554 И вы могли бы 0:05:24.554,0:05:25.554 его немного подтолкнуть. 0:05:25.554,0:05:29.163 Он упал бы с моста 0:05:29.163,0:05:30.163 прямо на рельсы, 0:05:30.163,0:05:31.163 на пути 0:05:31.163,0:05:32.772 трамвая. 0:05:32.772,0:05:33.772 Он погиб бы, 0:05:33.772,0:05:36.549 но при этом спас бы жизни пятерых человек.[br] 0:05:36.549,0:05:38.622 Кто столкнёт толстяка с моста?[br]Поднимите руки. 0:05:38.622,0:05:41.622 Итак, кто столкнул бы 0:05:41.622,0:05:44.622 толстяка с моста? Поднимите руки. 0:05:48.089,0:05:50.065 Кто не стал бы этого делать? 0:05:51.199,0:05:54.069 Большинство не стало бы. 0:05:54.069,0:05:55.993 Возникает закономерный вопрос: 0:05:55.993,0:05:56.993 Что стало 0:05:56.993,0:05:58.993 с тем принципом: 0:05:58.993,0:06:03.820 лучше спасти пятерых, даже если для этого потребуется [br]принести в жертву жизнь одного человека? 0:06:03.942,0:06:06.240 Что стало с тем принципом, [br]который в первом случае 0:06:06.240,0:06:09.240 поддерживали почти все?[br] 0:06:09.240,0:06:10.733 Для начала я хотел бы услышать [br]мнение тех, кто был в большинстве 0:06:10.733,0:06:13.733 в обоих этих примерах. 0:06:13.733,0:06:14.733 Как вы объясните разницу[br]между ними? Пожалуйста. 0:06:14.733,0:06:16.397 в обоих этих примерах. 0:06:16.397,0:06:17.603 Да, пожалуйста. 0:06:18.183,0:06:21.838 Полагаю, что во втором случае у вас есть выбор: [br]толкнуть или не толкнуть человека. 0:06:24.527,0:06:26.829 Я думаю, 0:06:26.829,0:06:29.829 что этот человек не имеет [br]никакого отношения к ситуации, 0:06:29.829,0:06:31.503 и вы 0:06:31.503,0:06:34.503 как бы за него принимаете решение, 0:06:34.503,0:06:40.228 вмешиваться ли в эту ситуацию или нет. 0:06:40.866,0:06:47.598 В отличие 0:06:47.598,0:06:48.598 от первого случая, 0:06:49.598,0:06:51.434 когда все три стороны: водитель 0:06:51.434,0:06:52.658 и две группы рабочих, 0:06:52.658,0:06:53.474 уже, как мне кажется, принимают [br]активное участие в том, что происходит. 0:06:53.474,0:06:54.291 Но ведь тот парень, который один работает [br]на рельсах, на боковой ветке, 0:06:54.291,0:06:56.883 Но тот самый рабочий на запасном пути 0:06:56.883,0:06:59.475 он же сам не принимал решения пожертвовать своей жизнью, [br]точно так же, как тот толстяк на мосту, не так ли? 0:07:02.069,0:07:05.420 Да, но он был на рельсах. И... 0:07:05.399,0:07:07.954 А этот парень был на мосту! 0:07:10.439,0:07:13.550 Если хотите, можете продолжить. 0:07:13.550,0:07:14.697 Ладно, это непростой вопрос, 0:07:14.697,0:07:17.697 но вы хорошо справились. 0:07:17.697,0:07:26.240 Кто-нибудь ещё 0:07:26.240,0:07:27.240 хочет попробовать 0:07:27.240,0:07:28.240 объяснить, почему большинство 0:07:28.240,0:07:29.240 именно так отреагировало [br]в обоих этих случаях? 0:07:29.240,0:07:30.790 Прошу. 0:07:30.790,0:07:32.340 Полагаю, 0:07:32.340,0:07:34.370 что в первом случае, 0:07:34.370,0:07:35.733 в котором присутствует пять рабочих [br]на основной ветке и один на боковой, 0:07:35.733,0:07:37.430 вам необходимо сделать выбор между ними 0:07:37.430,0:07:39.588 и принять какое-то решение, иначе эти [br]пять человек погибнут под трамваем, 0:07:39.588,0:07:42.588 а потому что несётся трамвай. 0:07:42.588,0:07:47.799 но вы за это не несёте никакой ответственности. [br]Вагон несётся на большой скорости, 0:07:47.799,0:07:49.658 вам нужно принять мгновенное решение. 0:07:49.658,0:07:52.658 А сталкивая толстяка с моста, [br]вы совершаете убийство. 0:07:52.658,0:07:54.278 Вы можете это контролировать, 0:07:54.278,0:07:57.278 в отличие от вагона. 0:07:57.278,0:08:00.089 Поэтому я считаю, что это [br]немного другой случай. 0:08:00.089,0:08:04.086 Хорошо, кто хочет возразить? [br]Это было неплохо. 0:08:04.848,0:08:06.367 Кто хочет ответить? 0:08:06.534,0:08:09.110 Объясняет ли это ситуацию? 0:08:09.275,0:08:11.245 Я не думаю, что это очень [br]хорошее объяснение, 0:08:11.245,0:08:14.829 потому что ты в любом случае[br]выбираешь, кто умрёт: 0:08:14.829,0:08:16.718 потому что вам в любом случае нужно выбирать, кто умрёт. [br]Либо вы решаете повернуть и убить человека на рельсах, 0:08:16.718,0:08:17.718 что будет являться вашим сознательным 0:08:17.718,0:08:19.718 решением. 0:08:19.718,0:08:22.207 Либо вы принимаете решение [br]столкнуть толстяка, 0:08:22.207,0:08:23.207 что также будет являться вашим[br]сознательным решением. 0:08:23.207,0:08:25.207 Так что вы в любом случае [br]делаете какой-то выбор. 0:08:27.689,0:08:28.689 Хотите ответить? 0:08:28.689,0:08:33.241 Я не уверен, что это так. Мне кажется, [br]всё равно есть определённая разница. 0:08:33.404,0:08:40.170 Если вы сталкиваете кого-то с моста и, [br]тем самым, убиваете его, 0:08:40.170,0:08:42.600 - ...то в этом случае вы делаете это своими собственными руками. [br]- Толкаете своими собственными руками. [br]- Да, именно, толкаете. 0:08:42.600,0:08:45.669 И это отличается от ситуации, 0:08:45.669,0:08:48.669 когда вы управляете чем-то, [br]что может стать причиной смерти. 0:08:48.669,0:08:49.935 Вы знаете, 0:08:49.935,0:08:52.935 теперь мне самому это не очень нравится. 0:08:52.935,0:08:53.957 Нет-нет, это было неплохо. Как вас зовут? 0:08:54.070,0:08:55.112 Эндрю. 0:08:55.357,0:08:58.445 Эндрю, позвольте задать вам вопрос? 0:08:59.014,0:09:01.501 Допустим, [br] 0:09:01.501,0:09:04.501 что вы стоите на мосту 0:09:04.501,0:09:06.373 Теперь не надо его сталкивать. 0:09:06.373,0:09:07.621 рядом с толстяком 0:09:07.621,0:09:08.869 и вам не нужно его толкать. Допустим, [br]он стоит прислонившись к дверце, 0:09:08.869,0:09:10.118 которую вы можете открыть, [br]повернув рычаг. Вот так. 0:09:17.324,0:09:18.561 Вы повернули бы? 0:09:18.820,0:09:20.371 Не знаю почему, 0:09:20.371,0:09:23.371 но это всё равно как-то неправильно. 0:09:23.371,0:09:29.972 Возможно, если бы вы случайно облокотились [br]на этот рычаг или что-то в это роде 0:09:30.184,0:09:36.850 или, 0:09:36.850,0:09:37.850 например, вагон 0:09:37.850,0:09:40.351 катился бы к какому-нибудь переключателю, [br]который откроет эту дверцу. 0:09:40.351,0:09:41.351 Тогда ещё куда ни шло. 0:09:41.351,0:09:42.852 Ладно, достаточно. Как бы то ни было, [br]это всё равно кажется неправильным. 0:09:42.852,0:09:45.354 Точно так же, как в первом случае кажется, [br]что правильным поступком было бы повернуть. 0:09:45.500,0:09:50.419 С другой стороны, в первом случае вы имеете [br]непосредственное отношение к этой ситуации, 0:09:50.419,0:09:52.449 а во втором - нет. 0:09:52.450,0:09:56.172 И у вас есть выбор: участвовать [br]или нет, толкать толстяка или нет. 0:09:56.366,0:09:59.672 Давайте на минуту забудем об этом случае. 0:09:59.900,0:10:03.439 Это было неплохо. 0:10:03.439,0:10:06.453 Давайте представим другой случай. На этот раз [br]вы врач в отделении экстренной помощи. 0:10:06.619,0:10:09.878 и у вас шесть пациентов. 0:10:10.082,0:10:18.692 Они все — участники ужасной[br]аварии с трамваем. 0:10:18.882,0:10:22.341 Пять из них ещё держатся,[br]но у одного серьёзные травмы, 0:10:22.478,0:10:27.454 вы можете потратить весь день,[br]чтобы вылечить тяжело больного, 0:10:27.689,0:10:29.590 но тогда пятеро умрут. 0:10:29.798,0:10:31.988 Или вы можете лечить пятерых,[br]восстановить им здоровье, 0:10:32.181,0:10:36.408 но в это время тяжело больной умрёт. 0:10:36.556,0:10:41.091 Сколько спасут пятерых,[br]будучи теперь доктором? 0:10:41.271,0:10:44.005 Кто спасёт одного? 0:10:44.431,0:10:46.528 Лишь немногие из вас. 0:10:46.528,0:10:49.426 Практически единицы. 0:10:49.611,0:10:55.692 Та же причина, я полагаю:[br]одна жизнь против жизни пятерых. 0:10:55.692,0:11:02.080 Другой медицинский случай:[br]вы хирург-трансплантолог, 0:11:02.080,0:11:08.350 у вас пять пациентов, каждому[br]жизненно необходим какой-то орган. 0:11:09.639,0:11:14.180 Одному — сердце, второму —лёгкое,[br]третьему — почка, четвёртому — печень, 0:11:14.449,0:11:18.859 а пятому — поджелудочная железа. 0:11:20.210,0:11:22.941 У вас нет донора органов.[br] 0:11:23.150,0:11:27.050 Вам остаётся просто смотреть,[br]как они умирают. 0:11:27.350,0:11:32.046 Но вдруг оказывается,[br]что в соседней комнате 0:11:32.407,0:11:37.570 сидит здоровый человек.[br]который просто пришёл провериться. 0:11:39.450,0:11:41.537 И он... 0:11:43.740,0:11:47.159 Вам это нравится, да? 0:11:47.159,0:11:50.740 И он дремлет. 0:11:53.269,0:11:58.069 Вы могли бы очень тихо войти,[br]вытащить пять органов, — 0:11:58.069,0:12:02.140 этот человек умрёт,[br]но вы сможете спасти пятерых. 0:12:03.169,0:12:06.191 Кто бы так сделал? 0:12:07.495,0:12:10.483 Хоть кто-то? 0:12:10.852,0:12:14.923 Сколько? Поднимите руки, если сделали бы. 0:12:18.056,0:12:20.448 Кто-нибудь с балкона? 0:12:20.796,0:12:26.675 Вы? Аккуратно, не слишком перегибайтесь… 0:12:26.822,0:12:29.121 Кто бы не стал? 0:12:29.465,0:12:30.442 Хорошо. 0:12:30.594,0:12:33.216 Что скажете?[br]Выскажитесь с балкона, 0:12:33.626,0:12:36.196 почему вы бы изъяли органы? 0:12:36.386,0:12:40.188 Я хочу предложить немного другое[br]решение: взять только того из пяти 0:12:40.188,0:12:44.419 нуждающихся в органах, кто умрёт первым, 0:12:44.419,0:12:49.280 и воспользоваться его здоровыми органами, [br]чтобы спасти оставшихся четверых. 0:12:49.862,0:12:53.236 Это довольно хорошая идея. 0:12:54.639,0:12:57.830 Великолепная идея, 0:12:57.830,0:13:04.811 за исключением того, что вы[br]только что разрушили философский смысл. 0:13:06.159,0:13:10.170 Итак, давайте отойдём в сторону[br]от этих историй и наших дискуссий, 0:13:10.240,0:13:17.033 чтобы отметить пару обстоятельств того,[br]как стала разворачиваться наша дискуссия. 0:13:17.360,0:13:24.630 Уже начали проясняться определённые[br]нравственные принципы в ходе обсуждений. 0:13:25.879,0:13:30.780 Давайте рассмотрим, что из себя[br]представляют эти принципы. 0:13:31.250,0:13:35.710 Первый нравственный принцип,[br]появившийся в дискуссии, гласил: 0:13:35.710,0:13:40.540 правильный поступок, нравственный поступок[br]зависит от последствий, 0:13:40.540,0:13:44.904 в которые выльются ваши действия. 0:13:47.080,0:13:51.080 В конце концов лучше, чтобы выжили пятеро,[br]даже если один должен умереть. 0:13:51.100,0:13:57.820 Это пример консеквенциальной этики. 0:13:58.998,0:14:04.310 Консеквенциальная этика помещает мораль[br]в контекст последствий действий. 0:14:04.309,0:14:06.549 0:14:06.549,0:14:09.049 0:14:09.049,0:14:12.789 Потом мы пошли немного дальше,[br]мы рассмотрели другие случаи, 0:14:12.789,0:14:18.608 и вы уже не были столь уверены[br]в правильности консеквенционализма. 0:14:20.529,0:14:29.338 Когда вы не решались столкнуть толстяка[br]или изъять органы невинного пациента. 0:14:29.750,0:14:39.742 Вы указали на доводы, связанные с[br]внутренними особенностями самого действия. 0:14:40.092,0:14:42.770 Будь что будет! 0:14:42.769,0:14:45.179 Вы сопротивлялись. 0:14:45.179,0:14:48.617 Вы думали, что это просто неправильно,[br]категорически неправильно — 0:14:48.840,0:14:56.372 убить человека, невинного человека,[br]даже ради спасения пяти жизней. 0:14:56.748,0:15:04.035 Люди думали так как минимум во второй[br]версии каждого мысленного эксперимента. 0:15:04.386,0:15:15.843 Это указывает на второй, категорический[br]способ размышления о нравственности. 0:15:16.182,0:15:19.431 Категорическая нравственность ставит[br]мораль перед определёнными 0:15:19.740,0:15:23.860 абсолютно-этическими требованиями,[br]перед обязательствами и правами, 0:15:24.048,0:15:27.220 несмотря на последствия. 0:15:27.220,0:15:31.755 На протяжении нескольких недель[br]мы будем изучать разницу 0:15:31.755,0:15:36.540 между консеквенциализмом[br]и категорическим императивом. 0:15:36.539,0:15:43.450 Важнейший пример консеквенциальной[br]этики это утилитаризм — доктрина, 0:15:43.450,0:15:49.680 предложенная английским политическим[br]философом 18-го века Джереми Бентамом. 0:15:51.100,0:15:56.239 Наиболее видным философом[br]категориальной теории нравственности 0:15:56.239,0:16:01.544 является немецкий философ[br]18-го века Иммануил Кант. 0:16:02.390,0:16:06.310 Мы остановимся на этих двух[br]разных видах морального суждения, 0:16:06.310,0:16:09.639 дадим им оценку,[br]а также рассмотрим другие виды. 0:16:10.429,0:16:15.310 Из учебной программы видно,[br]что мы изучим множество книг: 0:16:15.940,0:16:21.909 произведения Аристотеля, Джона Локка,[br]Иммануила Канта, Джона Стюарта Милля, 0:16:21.909,0:16:22.629 и других. 0:16:23.930,0:16:27.730 Обратите внимание на то,[br]что мы не только рассмотрим эти книги, 0:16:27.860,0:16:34.549 но и обсудим современные[br]политические и правовые разногласия, 0:16:34.549,0:16:36.563 поднимающие философские вопросы. 0:16:36.944,0:16:41.269 Мы будем говорить о равенстве[br]и неравенстве, о позитивной дискриминации, 0:16:41.269,0:16:43.627 о свободе слова и пропаганде ненависти,[br] 0:16:43.696,0:16:46.951 об однополых браках[br]и воинской повинности,— 0:16:46.951,0:16:49.740 эти и другие прикладные[br]вопросы будут подняты, 0:16:49.740,0:16:54.450 чтобы не только «оживить»[br]отвлечённые книги, 0:16:54.450,0:16:59.780 но и внести ясность,[br]что поставлено на карту 0:16:59.780,0:17:03.160 в нашей повседневной жизни, [br]в том числе и в политическом отношении. 0:17:05.694,0:17:09.818 После изучения книг[br]и обсуждения прикладных вопросов, 0:17:09.818,0:17:15.480 мы увидим, как они дополняют[br]и освещают друг друга. 0:17:15.480,0:17:21.447 Возможно, это звучит заманчиво,[br]но я должен предупредить: 0:17:23.739,0:17:33.569 такой способ прочтения книг,[br]при котором вы упражняетесь в самопознании, 0:17:33.569,0:17:34.669 несет в себе определённые риски —[br]риски как персональные, так и политические; 0:17:34.669,0:17:35.250 риски, о которых знает каждый студент[br]курса политической философии. 0:17:35.250,0:17:35.970 Эти риски исходят из того,[br]что философия учит нас, 0:17:35.970,0:17:37.309 при этом нарушая привычный распорядок,[br]идя вразрез с тем, что мы уже знаем. 0:17:37.309,0:17:40.029 Парадоксально, но сложность этого курса в том,[br]что вы учите уже известное вам. 0:17:40.029,0:17:40.939 Знания, имеющиеся у нас из неоспоримых истин,[br]превращаются в чуждые. 0:17:40.939,0:17:42.119 Именно так работают наши примеры: шутливые гипотетические случаи, 0:17:42.869,0:17:44.510 с которых мы начали эту лекцию, они правда отрезвляют. 0:17:48.134,0:17:51.540 Эти риски вытекают из того, что философия [br] 0:17:51.540,0:17:53.760 учит нас, 0:17:53.760,0:17:56.000 побуждает нас сомневаться 0:17:56.000,0:17:58.920 и идти вразрез с тем, что мы уже знаем. 0:18:00.860,0:18:02.280 Парадоксально, 0:18:02.829,0:18:08.049 но сложность этого курса заключается [br]в изучении того, что вам и так уже известно. 0:18:09.319,0:18:14.699 Знания, которые мы получили [br]из известных неоспоримых истин, 0:18:15.950,0:18:17.680 превращаются в чуждые.[br] 0:18:19.789,0:18:21.899 Именно так работают наши примеры, 0:18:22.609,0:18:28.329 те шутливые гипотетические случаи,[br]с которых мы начали эту лекцию. 0:18:28.729,0:18:31.620 Точно такое же влияние оказывают книги по философии. 0:18:31.620,0:18:35.030 Философия отстраняет нас[br] 0:18:35.030,0:18:37.000 от хорошо известных истин, 0:18:37.000,0:18:39.320 не давая при этом новой информации,[br] 0:18:39.970,0:18:41.540 но увлекая нас за собой 0:18:41.540,0:18:42.660 и провоцируя 0:18:43.109,0:18:46.179 на то, чтобы посмотреть на вещи по-новому. 0:18:46.940,0:18:49.240 Но здесь кроется риск. 0:18:49.800,0:18:53.960 Когда однажды привычное станет чуждым, 0:18:53.960,0:18:56.289 оно уже никогда не будет прежним. 0:18:57.289,0:18:59.849 Самопознание 0:18:59.849,0:19:02.070 похоже на потерю невинности, 0:19:02.680,0:19:04.520 Однако то, что вы обнаружите, 0:19:04.520,0:19:05.710 изменив привычное ви́дение, 0:19:05.710,0:19:07.229 не будет для вас 0:19:07.229,0:19:09.229 неожиданным 0:19:09.229,0:19:10.570 или неизвестным. 0:19:13.160,0:19:16.910 Это делает наш курс сложным, [br] 0:19:16.910,0:19:18.609 но от этого не менее захватывающим. 0:19:19.549,0:19:24.880 Моральная и политическая философия - это история, 0:19:24.880,0:19:28.900 и ты никогда не знаешь, куда она тебя приведёт,[br]но ты точно знаешь, 0:19:28.900,0:19:31.079 что эта история 0:19:31.079,0:19:32.249 о тебе самом.[br] 0:19:33.909,0:19:36.970 Это индивидуальный риск. 0:19:36.970,0:19:39.469 Теперь рассмотрим политические риски. 0:19:39.839,0:19:42.740 Одним из способов пробудить у вас интерес к этому курсу[br] 0:19:42.740,0:19:44.528 было бы пообещать вам, 0:19:44.528,0:19:46.010 что после прочтения этих книг 0:19:46.010,0:19:47.830 и обсуждения определённых вопросов 0:19:47.830,0:19:51.609 вы станете более ответственным членом общества. 0:19:51.609,0:19:56.930 Вы изучите основы общественного устройства,[br]отточите свои политические суждения, 0:19:56.930,0:20:02.729 научитесь более эффективно участвовать в общественной жизни. 0:20:02.729,0:20:06.029 Но это было бы однобокое и в целом неверное обещание. 0:20:06.029,0:20:11.059 Политическая философия в своей основе состоит в другом. 0:20:11.059,0:20:14.229 Нам необходимо допустить, 0:20:14.229,0:20:18.840 что политическая философия вместо того, чтобы сделать вас лучше, 0:20:18.840,0:20:21.530 может сделать вас менее сознательным гражданином. 0:20:21.530,0:20:23.700 Или, по крайней мере, сделает вас менее сознательным гражданином 0:20:23.700,0:20:25.439 до того, как вы станете 0:20:25.439,0:20:27.869 лучше. 0:20:27.869,0:20:30.380 Это происходит потому, что философия 0:20:30.380,0:20:32.220 является сама по себе занятием, удаляющим нас от реальности 0:20:32.220,0:20:36.550 и, порой, развращающим. 0:20:36.550,0:20:39.789 Давайте вернёмся во времена Сократа 0:20:39.789,0:20:42.029 и обратимся к диалогу "Горгий", [br] 0:20:42.029,0:20:44.580 в котором один из друзей Сократа 0:20:44.580,0:20:45.620 Калликл, 0:20:45.619,0:20:47.239 пытается отговорить его 0:20:47.240,0:20:49.970 от философствований. 0:20:49.970,0:20:54.400 Калликл говорит ему, что философия, конечно, милая забава, 0:20:54.400,0:20:57.980 если предаваться ей в разумных пределах и в определённом возрасте. 0:20:57.980,0:21:03.779 Но если философствующий погружается в неё глубже, чем должно, [br]он упирается в тупик. 0:21:03.779,0:21:06.669 Калликл говорит: "Прими мой совет, 0:21:06.669,0:21:08.199 оставь словопрения 0:21:08.199,0:21:11.110 и обратись к жизни деятельной. 0:21:11.110,0:21:16.470 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 0:21:16.470,0:21:19.899 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 0:21:19.899,0:21:22.189 и благословлён другими достоинствами". 0:21:22.189,0:21:26.668 Другими словами, Калликл убеждает Сократа 0:21:26.668,0:21:28.590 оставить философствования, 0:21:28.590,0:21:30.439 обратиться к реальности, 0:21:30.439,0:21:34.990 поступить в бизнес-школу. 0:21:34.990,0:21:38.300 И Калликл был по-своему прав. 0:21:38.299,0:21:39.690 Он был прав в том, 0:21:39.690,0:21:42.210 что философия уводит нас в сторону 0:21:42.210,0:21:45.009 от традиций, установленных допущений 0:21:45.009,0:21:46.750 и устоявшихся убеждений. 0:21:46.750,0:21:48.650 Здесь нас и подстерегают опасности, 0:21:48.650,0:21:49.970 индивидуальные и политические. 0:21:49.970,0:21:54.089 В ответ на их угрозу сознание включает защитный механизм, 0:21:54.089,0:21:57.470 который мы называем скептицизмом. 0:21:57.470,0:21:58.990 Происходит это примерно следующим образом. 0:21:58.990,0:22:03.660 Мы так и не смогли прийти к единому мнению 0:22:03.660,0:22:09.759 по вопросам, с обсуждения которых мы начали эту лекцию, 0:22:09.759,0:22:11.390 но если ни Аристотель, 0:22:11.390,0:22:17.220 ни Локк, ни Кант, ни Милль не дали на них ответа, 0:22:17.220,0:22:19.589 то кто мы такие, 0:22:19.589,0:22:23.730 те, кто собрался в этом зале на один семестр, 0:22:23.730,0:22:26.430 чтобы вдруг разрешить их? 0:22:26.430,0:22:29.460 Может быть определённое видение мира - 0:22:29.460,0:22:33.519 это личное дело каждого человека? [br]Может быть к этому больше нечего добавить? 0:22:33.519,0:22:34.170 Может быть 0:22:34.170,0:22:36.590 правильного ответа не существует? 0:22:36.589,0:22:37.649 Это попытка бегства. 0:22:37.650,0:22:39.440 Бегства в скептицизм. 0:22:39.440,0:22:41.279 На это я ответил бы[br] 0:22:41.279,0:22:42.660 следующим образом. 0:22:42.660,0:22:43.720 Да, над этими вопросами 0:22:43.720,0:22:47.559 люди бьются долгое время. 0:22:47.559,0:22:49.059 Но сам факт того, 0:22:49.059,0:22:52.700 что они возвращаются к нам, нерешённые, [br]снова и снова настойчиво требуя от нас ответа, 0:22:52.700,0:22:54.650 может, с одной стороны, говорить о том, 0:22:54.650,0:22:57.169 что разрешить их невозможно,[br] 0:22:57.169,0:22:59.800 а с другой - о том, что они их возникновение неизбежно. 0:22:59.799,0:23:02.299 И причина их неизбежности в том, 0:23:02.299,0:23:06.500 что каждый из нас своей собственной жизнью 0:23:06.500,0:23:10.069 каждый день по-своему отвечает на эти вопросы. 0:23:10.069,0:23:16.129 Таким образом, скептики, в бессилии разводя руками [br]и отказываясь от попыток дать ответы на эти вопросы, 0:23:16.130,0:23:18.280 просто уходят от решения моральных дилемм. 0:23:18.279,0:23:19.990 Иммануил Кант [br] 0:23:19.990,0:23:23.710 очень ёмко описал несостоятельность скептицизма: 0:23:23.710,0:23:26.308 "Скептицизм есть привал для человеческого разума, 0:23:26.308,0:23:29.099 где он может обдумать своё догматическое странствие, 0:23:29.099,0:23:33.069 но это вовсе не место для постоянного пребывания." 0:23:33.069,0:23:35.939 Кант писал: "Простое принятие скептицизма 0:23:35.940,0:23:42.660 никогда не удовлетворит страждущий разум." 0:23:42.660,0:23:47.040 Всеми этими примерами я пытался дать вам [br]некоторое представление о том, 0:23:47.039,0:23:49.898 с какими опасностями и искушениями сталкивается ступивший 0:23:49.898,0:23:52.589 на путь философского познания и понявший, какие безграничные [br]возможности открываются перед ним. 0:23:52.589,0:23:55.589 В заключение я хотел бы сказать, 0:23:55.589,0:23:58.099 что задача этого курса 0:23:58.099,0:23:59.629 разбудить 0:23:59.630,0:24:02.240 страждущий разум 0:24:02.240,0:24:04.380 и показать, как далеко он может нас увести. 0:24:04.380,0:24:11.380 Спасибо за внимание. 0:24:15.440,0:24:16.980 В такой отчаянной ситуации 0:24:16.980,0:24:21.259 - ...вы должны сделать всё, что можно, чтобы выжить. [br]- Вы должны сделать всё, что можно? [br]- Да, вы должны сделать всё,[br] 0:24:21.259,0:24:22.779 что можно. 0:24:22.779,0:24:23.619 Примерно так. 0:24:23.619,0:24:25.699 Если вы 19 дней ничего не ели,[br] 0:24:25.700,0:24:32.700 - ...кто-то из вас должен пожертвовать собой ради спасения остальных.[br]- Хорошо, как ваше имя? - Маркус. 0:24:33.569,0:24:38.359 Что вы ответите Маркусу? 0:24:40.309,0:24:44.569 В прошлый раз 0:24:44.569,0:24:46.880 мы начали 0:24:46.880,0:24:48.830 с нескольких историй, 0:24:48.830,0:24:50.859 с нескольких моральных дилемм: 0:24:50.859,0:24:52.689 о трамваях[br] 0:24:52.689,0:24:54.249 о докторах, 0:24:54.249,0:24:56.199 а также о здоровых пациентах, 0:24:56.199,0:24:57.379 рискующих 0:24:57.379,0:25:00.690 стать жертвами трансплантации органов. 0:25:00.690,0:25:03.699 Мы обратили внимание на две особенности 0:25:03.699,0:25:06.660 в доводах, которые мы приводили. 0:25:06.660,0:25:09.689 Первая особенность связана с тем, как именно мы спорили. 0:25:09.689,0:25:13.179 Всё началось с наших суждений об определённых случаях.[br] 0:25:13.179,0:25:18.050 Мы попытались сформулировать причины или принципы,[br] 0:25:18.050,0:25:22.109 лежащие в основе наших суждений.[br] 0:25:22.109,0:25:25.180 И затем, столкнувшись с новым случаем, 0:25:25.180,0:25:30.209 мы пересматривали эти принципы, 0:25:30.209,0:25:33.269 рассматривая один в свете другого. 0:25:33.269,0:25:38.920 И мы почувствовали внутреннее сопротивление, [br]пытаясь привести в соответствие 0:25:38.920,0:25:41.680 наши суждения об определённых случаях[br] 0:25:41.680,0:25:43.940 и принципы, лежащие 0:25:43.940,0:25:46.360 в основе этих суждений. 0:25:46.359,0:25:50.589 Мы также заметили кое-что в содержании доводов, 0:25:50.589,0:25:55.190 которые возникли в ходе обсуждения.[br] 0:25:55.190,0:26:00.649 Мы заметили, что иногда мы испытывали желание [br]дать моральную оценку последствиям действий, 0:26:00.649,0:26:06.049 результатам, положению дел, [br]к которому эти действия привели. 0:26:06.049,0:26:09.019 Мы назвали это явление 0:26:09.019,0:26:11.510 консеквенциальной аргументацией. 0:26:11.510,0:26:13.080 Но мы также заметили, 0:26:13.080,0:26:16.300 что в некоторых ситуациях 0:26:16.300,0:26:18.469 не только результат имел для нас 0:26:18.469,0:26:21.219 значение. 0:26:21.219,0:26:23.399 Иногда, 0:26:23.400,0:26:25.350 как многие из нас почувствовали, 0:26:25.349,0:26:30.990 не только последствия, но и сущность [br]или характер действия 0:26:30.990,0:26:34.959 имеют моральное значение. 0:26:34.959,0:26:40.470 Некоторые люди утверждали, что есть определённые вещи, [br]которые просто категорически неправильны, 0:26:40.470,0:26:42.449 даже если за ними последует 0:26:42.449,0:26:44.180 положительный результат. 0:26:44.180,0:26:45.490 Даже 0:26:45.490,0:26:47.200 если они приведут к спасению жизни пяти людей 0:26:47.200,0:26:49.588 ценой одной жизни. 0:26:49.588,0:26:52.500 Таким образом, мы сравнили консеквенциальные 0:26:52.500,0:26:54.450 моральные принципы 0:26:54.450,0:26:57.830 и категорические 0:26:57.830,0:26:59.790 Cегодня 0:26:59.789,0:27:00.819 и в ближайшие несколько дней 0:27:00.819,0:27:05.879 мы начнём рассматривать одну [br]из самых влиятельных 0:27:05.879,0:27:08.409 версий консеквенциальной [br] 0:27:08.409,0:27:10.970 моральной теории 0:27:10.970,0:27:15.669 - философию утилитаризма. 0:27:15.669,0:27:17.330 Джереми Бентам[br] 0:27:17.330,0:27:21.730 - английский политический философ 18-ого века 0:27:21.730,0:27:22.910 дал первое 0:27:22.910,0:27:26.300 чёткое систематическое определение 0:27:26.300,0:27:28.330 утилитаристской 0:27:28.330,0:27:31.800 моральной теории. 0:27:31.800,0:27:36.260 Идея Бентама, 0:27:36.260,0:27:38.300 его основная мысль, 0:27:38.300,0:27:42.610 очень проста[br] 0:27:42.610,0:27:44.808 и несёт 0:27:44.808,0:27:46.929 интуитивно понятный 0:27:46.929,0:27:48.429 посыл. 0:27:48.430,0:27:50.450 Она заключается 0:27:50.450,0:27:51.590 в следующем: 0:27:51.589,0:27:54.439 правильное действие, 0:27:54.440,0:27:57.619 справедливое действие 0:27:57.619,0:27:58.319 должно 0:27:58.319,0:28:01.169 максимизировать 0:28:01.169,0:28:02.339 полезность. 0:28:02.339,0:28:06.329 Что он имел в виду под словом «полезность»? 0:28:06.329,0:28:11.490 Под «полезностью» он имел в виду преобладание 0:28:11.490,0:28:14.000 удовольствия над болью, 0:28:14.000,0:28:16.778 счастья над страданием. 0:28:16.778,0:28:18.210 И вот как он достиг 0:28:18.210,0:28:19.259 принципа 0:28:19.259,0:28:22.308 максимизации полезности. 0:28:22.308,0:28:24.450 Он начал с наблюдения, заметив, 0:28:24.450,0:28:26.399 что все мы, 0:28:26.398,0:28:27.750 все люди 0:28:27.750,0:28:31.430 управляемы двумя полновластными "повелителями" - 0:28:31.430,0:28:34.620 болью и удовольствием. 0:28:34.619,0:28:36.890 Нам, людям, 0:28:36.890,0:28:42.308 нравится удовольствие и не нравится боль. 0:28:42.308,0:28:45.839 И поэтому мы всегда должны основывать [br]наши моральные суждения, 0:28:45.839,0:28:49.169 будь то мысли человека о том, какими должны [br]быть его поступки в частной жизни, 0:28:49.170,0:28:50.490 или 0:28:50.490,0:28:52.579 его мысли как законодателя или гражданина 0:28:52.579,0:28:57.029 о том, каким должен быть закон, на следующем: 0:28:57.029,0:29:01.919 нужно действовать, индивидуально или же коллективно, 0:29:01.919,0:29:05.838 в направлении максимизации 0:29:05.838,0:29:07.560 общего уровня 0:29:07.560,0:29:11.259 счастья. 0:29:11.259,0:29:15.320 Утилитаризм Бентама иногда выражается слоганом:[br] 0:29:15.320,0:29:18.799 "наибольшее благо для наибольшего количества". 0:29:18.799,0:29:20.088 Вооружившись этим 0:29:20.088,0:29:22.780 базовым принципом полезности, 0:29:22.780,0:29:26.410 давайте проверим его, [br] 0:29:26.410,0:29:28.099 применив к другому случаю. 0:29:28.099,0:29:30.620 На этот раз история 0:29:30.619,0:29:32.639 не гипотетическая, 0:29:32.640,0:29:33.999 а вполне реальная. 0:29:33.999,0:29:38.139 Дело Дадли и Стивенса. 0:29:38.139,0:29:41.690 Это знаменитое британское судебное дело 19-ого века, 0:29:41.690,0:29:43.599 которое 0:29:43.599,0:29:47.068 часто разбирается на юридических факультетах. 0:29:47.068,0:29:50.059 Итак, что же произошло в этом деле? 0:29:50.059,0:29:51.569 Я вкратце изложу его суть, 0:29:51.569,0:29:54.360 и затем я хотел бы услышать, 0:29:54.360,0:29:56.930 как бы вы разрешили его, 0:29:56.930,0:29:59.950 если бы оказались на месте присяжных. 0:30:03.419,0:30:05.799 В газетном отчёте того времени 0:30:05.799,0:30:08.799 оно было описано так: 0:30:08.799,0:30:11.240 «Нет истории печальнее на свете, 0:30:11.240,0:30:12.569 чем история 0:30:12.569,0:30:14.788 выживших с яхты 0:30:14.788,0:30:16.240 «Mignonette» («Резеда») 0:30:16.240,0:30:18.569 Это судно затонуло в Южной Атлантике 0:30:18.569,0:30:21.599 в трёхстах милях от Мыса Доброй Надежды. 0:30:21.599,0:30:23.580 На борту было четыре человека: 0:30:23.580,0:30:25.920 капитан Дадли, 0:30:25.920,0:30:27.660 его главный помощник Стивенс 0:30:27.660,0:30:30.020 и матрос Брукс. 0:30:30.020,0:30:31.279 Все они были «людьми 0:30:31.279,0:30:32.490 с безукоризненной репутацией». 0:30:32.490,0:30:34.169 По крайней мере, так говорит нам об этом 0:30:34.169,0:30:35.719 газетный отчёт. 0:30:35.719,0:30:38.639 Четвёртым членом команды был 0:30:38.640,0:30:40.300 семнадцатилетний юнга 0:30:40.299,0:30:42.719 Ричард Паркер. 0:30:42.719,0:30:44.530 Он был сиротой, 0:30:44.530,0:30:46.810 у него не было семьи, 0:30:46.810,0:30:51.290 и это было его первое дальнее плавание.[br] 0:30:51.290,0:30:53.700 Как говорит нам газетный отчёт, [br]он отправился в путешествие, 0:30:53.700,0:30:56.730 не послушавшись совета своих друзей. 0:30:56.730,0:30:59.850 Полный надежд и юношеских амбиций, 0:30:59.850,0:31:03.000 он думал, что путешествие сделает из него мужчину. 0:31:03.000,0:31:05.140 К сожалению, этому не суждено было произойти. 0:31:05.140,0:31:07.499 Факты дела не были предметом спора.[br] 0:31:07.499,0:31:08.970 В судно ударила волна, 0:31:08.970,0:31:12.000 и «Mignonette» («Резеда») пошла ко дну. 0:31:12.000,0:31:14.709 Экипаж сумел сесть в спасательную шлюпку. 0:31:14.709,0:31:18.139 Единственной едой, которую они имели 0:31:18.139,0:31:19.659 были две 0:31:19.659,0:31:20.990 банки консервированной 0:31:20.990,0:31:21.599 репы.[br] 0:31:21.599,0:31:23.900 Никакой питьевой воды.[br] 0:31:23.900,0:31:26.610 Первые три дня они ничего не ели, 0:31:26.609,0:31:30.280 на четвёртый день они открыли [br]одну из консервных банок 0:31:30.280,0:31:31.590 и съели её содержимое. 0:31:31.589,0:31:34.449 На следующий день они поймали черепаху. 0:31:34.450,0:31:36.960 Оставшаяся банка с репой[br] 0:31:36.960,0:31:38.549 и черепаха 0:31:38.549,0:31:40.058 помогли им продержаться 0:31:40.058,0:31:43.069 ещё несколько дней, но затем [br]в течение восьми дней 0:31:43.069,0:31:44.038 у них уже не было ничего, 0:31:44.038,0:31:47.069 ни еды, ни воды. 0:31:47.069,0:31:50.069 Представьте себя в такой ситуации. 0:31:50.069,0:31:52.849 Что бы вы сделали? 0:31:52.849,0:31:55.119 Вот что сделали они. 0:31:55.119,0:32:00.969 К этому моменту юнга Паркер [br]лежал в углу на дне шлюпки, 0:32:00.970,0:32:03.230 потому что напился морской воды, 0:32:03.230,0:32:05.490 не послушав остальных. 0:32:05.490,0:32:07.230 Ему сделалось дурно, 0:32:07.230,0:32:10.669 и было понятно, что он умирает. 0:32:10.669,0:32:14.619 На девятнадцатый день [br]капитан Дадли предложил 0:32:14.618,0:32:17.349 всем бросить 0:32:17.349,0:32:18.759 жребий 0:32:18.759,0:32:19.619 и определить, 0:32:19.619,0:32:20.859 кому суждено умереть, 0:32:20.859,0:32:24.079 чтобы спасти остальных. 0:32:24.079,0:32:25.210 Брукс 0:32:25.210,0:32:26.539 отказался, 0:32:26.539,0:32:29.139 ему не понравилась идея со жребием. 0:32:29.140,0:32:30.619 Мы не знаем, было ли это 0:32:30.618,0:32:35.999 вызвано тем, что он не хотел рисковать, или же тем,[br]что он верил в категорические моральные 0:32:35.999,0:32:36.870 принципы, 0:32:36.869,0:32:38.619 но в любом случае 0:32:38.619,0:32:42.129 жребий так и не был брошен. 0:32:42.130,0:32:43.230 На следующий день 0:32:43.230,0:32:45.028 спасательного корабля на горизонте [br]по-прежнему не было, 0:32:45.028,0:32:48.470 и Дадли попросил Брукса отвернуться, 0:32:48.470,0:32:50.720 жестом показав Стивенсу, 0:32:50.720,0:32:53.929 что мальчишку Паркера нужно убить. 0:32:53.929,0:32:55.850 Дадли помолился, 0:32:55.849,0:32:58.480 сказал мальчику, что его время пришло, 0:32:58.480,0:33:00.679 и зарезал его перочинным ножом, 0:33:00.679,0:33:03.900 поразив яремную вену. 0:33:03.900,0:33:09.750 Брукс, отрекшийся от соображений совести,[br]тоже воспользовался этим жутким «подарком».[br] 0:33:09.750,0:33:11.029 Четыре дня 0:33:11.029,0:33:15.230 они втроём питались [br]телом и кровью юнги. 0:33:15.230,0:33:17.220 Реальная история. 0:33:17.220,0:33:19.390 А затем их спасли. 0:33:19.390,0:33:22.840 Дадли описал это спасение 0:33:22.839,0:33:24.678 в своём дневнике 0:33:24.679,0:33:27.570 поразительным эвфемизмом. Цитата: 0:33:27.569,0:33:29.648 «На двадцать четвёртый день 0:33:29.648,0:33:34.750 когда мы завтракали, 0:33:34.750,0:33:38.599 наконец-то показался корабль». 0:33:38.599,0:33:44.309 Трое выживших были подобраны немецким кораблём [br]и их отправили назад в Фэлмут, в Англию, 0:33:44.309,0:33:47.079 где они были арестованы и подвергнуты суду. 0:33:47.079,0:33:47.829 Брукс 0:33:47.829,0:33:49.949 был свидетелем обвинения, 0:33:49.950,0:33:54.450 а Дадли и Стивенс были обвиняемыми.[br]Они не оспаривали факты 0:33:54.450,0:33:55.390 и утверждали, 0:33:55.390,0:33:58.140 что действовали в состоянии [br]крайней необходимости. 0:33:58.140,0:33:59.430 Это была их линия защиты. 0:33:59.430,0:34:01.220 Они настаивали на том, что 0:34:01.220,0:34:03.250 смерть одного человека [br]более предпочтительна, 0:34:03.250,0:34:06.420 чем смерть троих. 0:34:06.420,0:34:08.619 Обвинителя 0:34:08.619,0:34:10.849 не убедил такой аргумент. 0:34:10.849,0:34:12.509 Он сказал: «Убийство есть убийство». 0:34:12.509,0:34:16.429 Дело передали в суд. Теперь [br]представьте, что вы присяжные. 0:34:16.429,0:34:19.489 Чтобы упростить обсуждение, 0:34:19.489,0:34:21.989 оставим в стороне вопрос права 0:34:21.989,0:34:23.010 и представим, что 0:34:23.010,0:34:25.879 как присяжные 0:34:25.878,0:34:28.278 вы должны решить, 0:34:28.278,0:34:31.009 было ли то, что они сделали, 0:34:31.009,0:34:34.378 морально допустимым или нет. 0:34:34.378,0:34:36.608 Кто из вас 0:34:36.608,0:34:39.808 проголосовал бы 0:34:39.809,0:34:46.809 за то, что они невиновны и что совершённое [br]ими было морально допустимо? 0:34:49.528,0:34:51.639 А кто проголосовал бы за то, что они виновны[br] 0:34:51.639,0:34:54.858 и что совершённое ими было морально недопустимо? 0:34:54.858,0:34:57.998 Значительное большинство. 0:34:57.998,0:35:03.808 Давайте послушаем ваши соображения, и позвольте [br]мне начать с тех, кто оказался в меньшинстве. 0:35:03.809,0:35:07.739 Давайте сперва предоставим слово защите [br] 0:35:07.739,0:35:10.099 Дадли и Стивенса. 0:35:10.099,0:35:14.160 Почему вы оправдали бы их [br]с моральной точки зрения? 0:35:14.159,0:35:17.989 Чем вы руководствуетесь? 0:35:17.989,0:35:20.798 Да, я считаю это предосудительным [br]с моральной точки зрения, 0:35:20.798,0:35:24.349 но существует различие между тем, [br]что нравственно предосудительно, 0:35:24.349,0:35:26.609 и тем, что влечёт юридическую ответственность. 0:35:26.608,0:35:30.690 Или, как мог бы сказать судья, то, что аморально, [br]совсем не обязательно противозаконно. 0:35:30.690,0:35:34.789 И хотя я не считаю, что необходимость чего-либо 0:35:34.789,0:35:36.169 является достаточным основанием 0:35:36.168,0:35:38.578 для кражи, убийства, или другого [br]противозаконного действия, 0:35:38.579,0:35:43.509 степень необходимости [br]в той или иной мере может 0:35:43.509,0:35:45.849 оправдывать его. 0:35:45.849,0:35:50.588 Кто ещё поддерживает эту [br]точку зрения и согласен 0:35:50.588,0:35:53.038 с моральными обоснованиями 0:35:53.039,0:35:56.989 их действий? [br]Пожалуйста. 0:35:56.989,0:35:57.619 Спасибо. 0:35:57.619,0:35:58.798 [br] 0:35:58.798,0:35:59.570 Я думаю, 0:35:59.570,0:36:03.139 в такой отчаянной ситуации вы должны [br]сделать всё, что можно, чтобы выжить. 0:36:03.139,0:36:04.679 Вы должны сделать всё, что можно? 0:36:04.679,0:36:06.789 Да, вы должны сделать всё, что можно. 0:36:06.789,0:36:07.849 Если вы 19 дней ничего не ели, 0:36:07.849,0:36:09.899 кто-то из вас 0:36:09.898,0:36:14.710 должен пожертвовать собой [br]ради спасения остальных. 0:36:14.710,0:36:16.139 Более того, 0:36:16.139,0:36:21.299 представим, что по возвращении домой, спасшиеся [br]начинают делать что-то полезное для общества: 0:36:21.300,0:36:26.230 создают миллионы благотворительных организаций [br]и другие подобные вещи. То есть, в итоге всем хорошо. 0:36:26.230,0:36:28.519 Я не знаю, что они сделали после этого случая, [br]но они вполне могли бы продолжать 0:36:28.519,0:36:30.478 убивать людей 0:36:30.478,0:36:32.889 независимо от... 0:36:32.889,0:36:35.708 Что? А что если они вернулись [br]домой и превратились в убийц? 0:36:35.708,0:36:38.908 Что если они вернулись домой [br]и превратились в убийц? 0:36:38.909,0:36:42.878 Вы бы хотели знать, кого они убили. 0:36:42.878,0:36:45.848 Да, верно. 0:36:45.849,0:36:49.609 Я хотел бы знать это. 0:36:49.608,0:36:50.708 - Хорошо, как ваше имя? [br]- Маркус. 0:36:50.708,0:36:52.489 Мы услышали сторону защиты, 0:36:52.489,0:36:54.050 пару голосов в оправдание. 0:36:54.050,0:36:55.660 Теперь послушаем 0:36:55.659,0:36:57.298 сторону обвинения. 0:36:57.298,0:36:59.338 Большинство людей думает, 0:36:59.338,0:37:05.068 что они не правы. Почему? 0:37:05.068,0:37:09.898 Когда я услышала эту историю, то подумала: [br]"Так, если они голодали очень долго, 0:37:09.898,0:37:11.409 то, может быть, 0:37:11.409,0:37:12.469 в этом случае 0:37:12.469,0:37:15.139 они не были в здравом рассудке". 0:37:15.139,0:37:16.408 И это могло послужить оправданием, 0:37:16.409,0:37:20.619 в качестве возможного аргумента: 0:37:20.619,0:37:24.179 они были не в своём уме 0:37:24.179,0:37:28.519 и приняли решение, которое не приняли бы [br]в другой ситуации. Думаю, это их оправдывает. 0:37:28.518,0:37:33.608 Трезво мыслящий человек так никогда [br]не поступит. Мне кажется, что есть люди, 0:37:33.608,0:37:36.108 которые находят данный аргумент приемлемым. 0:37:36.108,0:37:40.088 - Вы думаете, что они поступили аморально. [br]- Но я хочу знать, 0:37:40.088,0:37:41.248 - ...что думаете вы. Вы голосовали за то, что они виновны, верно? [br]- Да, я не считаю, что они действовали 0:37:45.548,0:37:49.449 - ...в рамках морали. [br]- Почему нет? Вы же слышали, как Маркус 0:37:49.449,0:37:51.088 защищал их. 0:37:51.088,0:37:52.909 Он сказал... 0:37:52.909,0:37:53.880 Вы слышали, что он сказал. 0:37:53.880,0:37:55.249 Да, 0:37:55.248,0:37:56.558 я слышала. 0:37:56.559,0:38:00.119 Что вы должны поступать так, [br]как того требует данная ситуация. 0:38:00.119,0:38:04.789 Что вы ответите Маркусу? 0:38:04.789,0:38:06.439 Я бы сказала, что 0:38:06.438,0:38:13.438 нет такой ситуации, [br]в которой можно было бы 0:38:13.579,0:38:17.959 лишить человека права управлять своей [br]судьбой или лишить человека жизни. 0:38:17.958,0:38:19.328 У нас нет такого права. 0:38:19.329,0:38:21.399 Хорошо, спасибо. 0:38:21.398,0:38:24.130 - Как вас зовут? [br]- Бритт. 0:38:24.130,0:38:24.548 Бритт? Хорошо. 0:38:24.548,0:38:26.028 Кто-нибудь ещё? 0:38:26.028,0:38:28.159 Как вас зовут? [br]Встаньте, пожалуйста. 0:38:28.159,0:38:35.159 Мне вот что интересно. Если бы Дадли и Стивенс [br]спросили Ричарда Паркера, согласен ли он умереть, 0:38:35.429,0:38:37.568 то могло бы 0:38:37.568,0:38:41.228 это оправдать 0:38:41.228,0:38:45.448 совершённое убийство, и если да, то было бы [br]ли это оправданно с точки зрения морали? 0:38:45.449,0:38:51.720 - Это любопытно. Согласие. Подождите, как вас зовут? [br]- Кэтлин. 0:38:51.719,0:38:56.088 Кэтлин предлагает представить, [br]как бы могла выглядеть эта сцена 0:38:56.088,0:38:56.619 в таком случае. 0:38:56.619,0:39:00.410 Итак, представьте. Дадли с ножом в руке, 0:39:00.409,0:39:02.608 но вместо молитвы 0:39:02.608,0:39:04.588 или перед молитвой, 0:39:04.588,0:39:07.599 он спрашивает: "Паркер, 0:39:07.599,0:39:11.519 ты не возражаешь? 0:39:11.518,0:39:14.348 Мы тут безумно проголодались..." 0:39:14.349,0:39:17.679 Смотрите, как Маркус сопереживает им. 0:39:17.679,0:39:19.769 "Мы безумно проголодались, 0:39:19.768,0:39:22.168 а тебе, в любом случае, недолго осталось. 0:39:22.168,0:39:23.498 Ты можешь стать мучеником. 0:39:23.498,0:39:25.748 Не хочешь стать мучеником? 0:39:25.748,0:39:29.468 Что скажешь, Паркер?" 0:39:29.469,0:39:33.220 В этом случае 0:39:33.219,0:39:37.639 можете ли вы оправдать это [br]с точки зрения морали? 0:39:37.639,0:39:38.219 Допустим, Паркер 0:39:38.219,0:39:40.168 в оцепенении 0:39:40.168,0:39:42.498 говорит: "Ну ладно, я согласен". 0:39:42.498,0:39:47.889 - Я не считаю, что это морально оправдывает убийство, [br]но мне просто интересно... - Даже в этом случае? - Нет. 0:39:47.889,0:39:50.650 Вы не считаете, что даже с согласия 0:39:50.650,0:39:52.490 это может быть морально оправдано. 0:39:52.489,0:39:54.568 Есть тут люди, 0:39:54.568,0:39:56.369 готовые подхватить идею Кэтлин 0:39:56.369,0:39:57.200 о согласии? 0:39:57.199,0:40:01.688 И кто считает, что в таком случае их действия были бы [br]морально оправданны? Поднимите руку, 0:40:01.688,0:40:05.868 если вы с этим согласны. 0:40:05.869,0:40:07.588 Вот это интересно. 0:40:07.588,0:40:09.168 Почему же наличие согласия[br] 0:40:09.168,0:40:15.888 создало такую разницу? С чего бы это? 0:40:15.889,0:40:18.509 Я думаю, что если бы Паркер [br]сам принимал решение, 0:40:18.509,0:40:20.969 если бы это было его собственной идеей, 0:40:20.969,0:40:23.778 то только в такой ситуации это было бы допустимо. 0:40:23.778,0:40:25.940 Потому что в такой ситуации вы не можете сказать, 0:40:28.358,0:40:30.579 что на него было оказано давление, 0:40:30.579,0:40:32.759 - ...что их было трое против одного. [br]- Хорошо. 0:40:32.759,0:40:34.070 Мне кажется, [br] 0:40:34.070,0:40:38.009 если, принимая такое решение, он делает [br]это по собственной воле. 0:40:38.009,0:40:42.668 Конечно, одним людям это покажется [br]поступком, достойным восхищения, 0:40:42.668,0:40:45.449 а другим - нет. 0:40:45.449,0:40:49.099 Итак, если он сам предложил эту идею, 0:40:49.099,0:40:52.820 то это будет единственным вариантом [br]согласия, который бы нас устроил 0:40:52.820,0:40:55.359 с точки зрения морали. [br]Тогда это было бы допустимо. 0:40:55.358,0:40:57.268 В ином случае 0:40:57.268,0:40:59.788 это будет, cкажем так, согласие под принуждением, 0:40:59.789,0:41:01.469 согласие под воздействием обстоятельств. 0:41:01.469,0:41:05.278 Так вы считаете. 0:41:05.278,0:41:07.349 Кто-нибудь из вас считает, 0:41:07.349,0:41:10.979 что даже согласие Паркера 0:41:10.978,0:41:13.419 не оправдывает 0:41:13.420,0:41:15.479 его убийство? 0:41:15.478,0:41:18.088 Кто так думает? 0:41:18.088,0:41:19.538 Да, расскажите нам почему вы так думаете. [br]Встаньте, пожалуйста. 0:41:19.539,0:41:21.260 Я думаю, что Паркер 0:41:21.260,0:41:22.319 был убит 0:41:22.318,0:41:26.558 в надежде, что все остальные члены [br]экипажа впоследствии будут спасены. 0:41:26.559,0:41:29.250 Но для его убийства нет объективных причин, 0:41:29.250,0:41:31.199 потому что вы даже не знаете, 0:41:31.199,0:41:35.809 спасут вас вообще или нет, так что его убийство [br]может быть совершенно напрасным. 0:41:35.809,0:41:38.039 Вы так и будете убивать одного члена команды за другим, [br]пока вы не останетесь совсем один или вас не спасут? 0:41:38.039,0:41:40.309 Просто по той причине, что кто-то всё равно должен умереть? 0:41:40.309,0:41:44.199 С позиций морали, смысл ситуации в том, 0:41:44.199,0:41:45.829 что они 0:41:45.829,0:41:50.318 жертвуют слабейшими один за другим, 0:41:50.318,0:41:51.818 пока не будут спасены. 0:41:51.818,0:41:57.679 И в этом случае, по счастливой случайности, [br]по крайней мере, три человека остались в живых. 0:41:57.679,0:41:58.880 Но если бы 0:41:58.880,0:42:01.298 Паркер согласился, 0:42:01.298,0:42:04.068 как вы думаете, это было бы правильным? 0:42:04.068,0:42:06.329 Нет, я по-прежнему не считаю это правильным. 0:42:06.329,0:42:08.030 Обоснуйте почему. 0:42:08.030,0:42:10.028 Во-первых, я считаю, что каннибализм 0:42:10.028,0:42:13.228 в принципе аморален. 0:42:13.228,0:42:14.509 Вы не должны есть людей ни в каком случае.[br] 0:42:14.510,0:42:17.449 Итак, 0:42:17.449,0:42:19.380 каннибализм неприемлем 0:42:19.380,0:42:22.400 даже в том случае, 0:42:22.400,0:42:24.568 когда мы знаем, что человек точно умрёт? 0:42:24.568,0:42:27.018 Даже в этом случае? 0:42:27.018,0:42:27.929 Да, лично для меня. 0:42:27.929,0:42:29.739 Мне кажется, 0:42:29.739,0:42:31.199 что всё это зависит 0:42:31.199,0:42:35.288 от личных моральных принципов [br]человека. Это только мое мнение. 0:42:35.289,0:42:39.339 Конечно, не все с этим согласятся. 0:42:39.338,0:42:41.498 Хорошо. Давайте послушаем аргументы "против", 0:42:41.498,0:42:42.639 а затем посмотрим, 0:42:42.639,0:42:44.259 смогут ли они 0:42:44.259,0:42:46.228 переубедить вас или нет? 0:42:46.228,0:42:48.358 Давайте попробуем. 0:42:48.358,0:42:50.098 Итак, 0:42:50.099,0:42:53.249 есть ли здесь кто-нибудь, 0:42:53.248,0:42:57.908 кому импонирует идея согласия [br]и кто мог бы объяснить. 0:42:57.909,0:42:59.778 Можете ли вы объяснить, 0:42:59.778,0:43:02.028 почему согласие 0:43:02.028,0:43:03.358 всё так кардинально меняет? 0:43:03.358,0:43:05.650 А как насчёт идеи с жребием? 0:43:05.650,0:43:08.930 Может ли это считаться своего рода согласием? [br]Помните, в начале истории 0:43:08.929,0:43:11.308 Дадли предложил тянуть жребий. 0:43:11.309,0:43:13.839 Предположим, что они согласились 0:43:13.838,0:43:16.338 тянуть жребий. 0:43:16.338,0:43:17.369 Теперь 0:43:17.369,0:43:20.798 кто из вас за то, 0:43:20.798,0:43:23.929 что это было бы правильно? [br]Предположим, они тянули жребий, 0:43:23.929,0:43:25.380 и юнга проиграл. 0:43:25.380,0:43:32.380 Далее происходит история, которую мы уже знаем. [br]Было бы тогда это правильным? Кто так считает? 0:43:33.199,0:43:37.030 Итак, если мы предположим, что они тянули жребий. [br]число тех, кто так считает, возрастает. Давайте послушаем кого-нибудь из тех, 0:43:37.030,0:43:41.609 для кого с моральной точки зрения [br]принципиален жребий. 0:43:41.608,0:43:43.458 Почему вы так считаете? 0:43:43.458,0:43:44.739 Я думаю, что это принципиальный 0:43:44.739,0:43:45.718 момент. 0:43:45.719,0:43:47.858 На мой взгляд, преступлением [br]этот поступок делает то, 0:43:47.858,0:43:53.848 что Дадли и Стивенс в какой-то момент решили, [br]что их жизни важнее, чем жизнь юнги. 0:43:53.849,0:43:56.609 Я имею в виду, что подобная мысль является [br]предпосылкой любого преступления, 0:43:56.608,0:43:57.688 разве нет? Это равнозначно признанию того, 0:43:57.688,0:44:01.949 что мои потребности, мои желания является более [br]важными, более предпочтительными, чем ваши. 0:44:01.949,0:44:04.798 А если бы они тянули жребий, согласившись с тем, 0:44:04.798,0:44:06.478 что кто-то из них должен умереть 0:44:06.478,0:44:09.239 и пожертвовать таким образом собой, 0:44:09.239,0:44:11.008 чтобы спасти остальных. 0:44:11.009,0:44:12.949 Тогда всё будет в порядке? 0:44:12.949,0:44:15.880 Немного абсурдно, но, 0:44:15.880,0:44:18.959 - Но допустимо с точки зрения морали? [br]- Да. 0:44:18.958,0:44:22.688 - Как вас зовут? [br]- Мэтт. 0:44:22.688,0:44:25.578 Что ж, Мэтт, вас 0:44:25.579,0:44:27.329 смущает не сам факт 0:44:27.329,0:44:31.389 каннибализма, а отсутствие должной процедуры? 0:44:31.389,0:44:34.689 Я думаю, да. 0:44:34.688,0:44:38.170 Может ли кто-нибудь их тех, кто согласен с Мэттом,[br] 0:44:38.170,0:44:40.499 что-нибудь добавить к сказанному 0:44:40.498,0:44:41.378 о том, почему 0:44:41.378,0:44:43.690 жребий 0:44:43.690,0:44:47.099 сделает это поступок 0:44:47.099,0:44:50.979 допустимым с точки зрения морали? 0:44:50.978,0:44:55.568 Мне кажется, что основная проблема [br]заключается именно в том, что юнгу 0:44:55.568,0:44:56.398 даже не спрашивали, 0:44:56.398,0:45:00.478 когда решали его судьбу. Даже[br]в ситуации с несостоявшимся 0:45:00.478,0:45:01.088 жребием. 0:45:01.088,0:45:04.420 Будет или не будет он в ней участвовать, им показалось [br]неважным. Было просто принято решение о том, 0:45:04.420,0:45:08.170 что именно мальчик должен умереть. [br]- Да, так и произошло на самом деле. 0:45:08.170,0:45:11.900 Но если бы все они тянули жребий, и все [br]были бы согласны с этой процедурой, 0:45:11.900,0:45:13.539 считаете ли вы, что это было бы правильным?[br] 0:45:13.539,0:45:16.418 Да, потому что тогда все бы [br]знали, что кто-то из них умрёт, 0:45:16.418,0:45:17.079 в то время как 0:45:17.079,0:45:18.878 в реальной ситуации юнга не знал, 0:45:18.878,0:45:21.038 что Дадли и Стивенс решают его судьбу. 0:45:21.039,0:45:21.919 Ему никто 0:45:21.918,0:45:23.578 не сказал, 0:45:23.579,0:45:28.829 - что он может умереть. [br]- Хорошо, предположим, что все согласились тянуть жребий. 0:45:28.829,0:45:35.089 Все бросили жребий. Но представьте себе, [br]что юнга проиграл и передумал. 0:45:35.088,0:45:40.989 Вы уже всё решили. Это своего рода устное соглашение, вы [br]не можете взять свои слова обратно. Решение было принято. 0:45:40.989,0:45:45.139 Вы понимаете, что умираете ради того, чтобы спасти других. 0:45:45.139,0:45:45.999 0:45:45.998,0:45:47.688 Вы осознаёте, что если бы кому-то [br]другому выпадет жребий умереть, 0:45:47.688,0:45:51.969 то его также съедят, так что… 0:45:51.969,0:45:57.429 Хорошо, но потом он мог бы сказать: [br]«Знаю, но я проиграл». 0:45:57.429,0:46:01.939 Я считаю, что основная нравственная проблема [br]в том, что юнгу никто не спрашивал. 0:46:01.938,0:46:04.298 Самым ужасным является то, 0:46:04.298,0:46:08.909 что он даже не представлял, что происходит. [br]Если бы он осознавал это, 0:46:08.909,0:46:10.599 то результат был бы 0:46:10.599,0:46:13.109 немного более справедливым. 0:46:13.108,0:46:14.509 Хорошо. Теперь, мне интересно узнать вот что. 0:46:14.510,0:46:17.049 Некоторые из вас считают, 0:46:17.048,0:46:18.708 что это морально допустимо,[br] 0:46:18.708,0:46:24.048 но вас всего около 20 процентов. 0:46:24.048,0:46:26.559 Во главе с Маркусом. 0:46:26.559,0:46:28.439 Другие же считают, 0:46:28.438,0:46:30.208 что основная проблема заключается 0:46:30.208,0:46:32.838 в отсутствии согласия,[br] 0:46:32.838,0:46:37.139 будь то отсутствие согласия [br]тянуть справедливый жребий 0:46:37.139,0:46:38.588 или же, 0:46:38.588,0:46:39.690 как считает Кэтлин, 0:46:39.690,0:46:40.749 отсутствие согласия 0:46:40.748,0:46:42.928 в момент 0:46:42.929,0:46:45.139 смерти.[br] 0:46:45.139,0:46:48.318 Если мы предположим наличие согласия, то 0:46:48.318,0:46:49.019 0:46:49.019,0:46:51.889 уже больше людей будут готовы признать, 0:46:51.889,0:46:54.528 что эта жертва морально оправдана.[br] 0:46:54.528,0:46:56.639 Теперь я хочу выслушать 0:46:56.639,0:46:58.548 тех, кто считает, 0:46:58.548,0:47:00.199 что даже при наличии согласия, 0:47:00.199,0:47:01.898 даже при условии организации жребия, 0:47:01.898,0:47:02.519 даже 0:47:02.519,0:47:04.579 если бы в самый последний 0:47:04.579,0:47:06.950 момент 0:47:06.949,0:47:08.018 Паркер 0:47:08.018,0:47:09.179 вяло согласился, 0:47:09.179,0:47:10.838 это всё равно 0:47:10.838,0:47:12.639 было бы неправильно. 0:47:12.639,0:47:14.248 И я хочу услышать, 0:47:14.248,0:47:16.998 почему это было бы неправильно. 0:47:16.998,0:47:18.818 Всё это время 0:47:18.818,0:47:22.639 я склонялась к категорической аргументации. 0:47:22.639,0:47:25.568 Возможно,[br] 0:47:25.568,0:47:29.608 я готова принять вариант со жребием, 0:47:29.608,0:47:31.440 при котором проигравший [br]в нём собственноручно 0:47:31.440,0:47:32.749 убивает себя. 0:47:32.748,0:47:33.679 0:47:33.679,0:47:37.358 Тогда убийства как такового не будет, [br]но я по-прежнему считаю, 0:47:37.358,0:47:42.278 что даже в таком случае будет принуждение. Я также [br]не думаю, что в этом деле имело место раскаяние, 0:47:42.278,0:47:43.338 ведь вспомните, как это описано в дневнике Дадли: 0:47:43.338,0:47:44.909 "…когда мы завтракали". 0:47:44.909,0:47:47.659 Это выглядит так, как будто он 0:47:47.659,0:47:51.440 не видит ценности в жизни других.[br] 0:47:51.440,0:47:53.639 Это заставляет меня 0:47:53.639,0:47:57.969 принять категорическую аргументацию. [br]- Вы хотите наказать Дадли по полной программе,[br] 0:47:57.969,0:48:02.298 если он не раскаивается или не чувствует, что поступил неправильно?[br]- Да.[br] 0:48:02.298,0:48:06.969 Хорошо. Есть ещё те, 0:48:06.969,0:48:08.769 0:48:08.768,0:48:13.268 кто считает, что это категорически неправильно, [br]с согласием или без него. Да, пожалуйста. Почему? 0:48:13.268,0:48:17.288 Я считаю, что в понятиях нашего общества [br]убийство есть убийство. 0:48:17.289,0:48:21.829 Убийство есть убийство, и в любом случае [br]наше общество негативно к этому относится. 0:48:21.829,0:48:24.780 - Я не считаю, что это зависит от обстоятельств. [br]- Хорошо. Позвольте мне задать вам вопрос. 0:48:24.780,0:48:27.119 На кону было три жизни 0:48:27.119,0:48:30.489 против одной. 0:48:30.489,0:48:33.028 У юнги не было ни семьи, 0:48:33.028,0:48:34.509 ни тех, о ком нужно было заботиться. 0:48:34.509,0:48:38.739 У трёх других человек дома остались [br]семьи, у них были иждивенцы: 0:48:38.739,0:48:41.418 жёны и дети. 0:48:41.418,0:48:43.328 Вспомните Бентама. 0:48:43.329,0:48:44.989 Бентам считал, что мы должны учитывать 0:48:44.989,0:48:48.048 благосостояние, полезность и счастье 0:48:48.048,0:48:51.288 для всех. Мы должны сложить всё вместе, 0:48:51.289,0:48:54.640 поэтому это не просто цифра [br]«три» против цифры «один», 0:48:54.639,0:48:58.759 а ещё и все эти люди, [br]ждущие моряков дома. 0:48:58.759,0:49:00.909 Надо сказать, что во время [br]разбирательства пресса 0:49:00.909,0:49:04.248 и общественное мнение сочувствовали 0:49:04.248,0:49:05.478 Дадли и Стивенсу. 0:49:05.478,0:49:07.919 В газете писали, что если бы ими 0:49:07.920,0:49:08.280 не двигали 0:49:08.280,0:49:09.640 привязанность к своим близким, оставшимся дома, 0:49:09.639,0:49:13.489 и беспокойство об их судьбе, они бы, несомненно, 0:49:13.489,0:49:15.969 - не совершили этот страшный поступок. [br]- Хорошо, но в таком случае как они отличаются от людей, 0:49:15.969,0:49:17.369 которые просят милостыню 0:49:17.369,0:49:21.108 и которые также хотят прокормить свою семью? Я не думаю, [br]что есть большая разница. Я считаю, что в любом случае 0:49:21.108,0:49:25.279 если я убиваю кого-то, чтобы улучшить свое положение, это не перестаёт [br]быть убийством. Я думаю, что мы должны рассматривать всё это 0:49:25.280,0:49:28.430 с такой точки зрения. Мы считаем преступлениями только [br] 0:49:28.429,0:49:30.278 определённые поступки. 0:49:30.278,0:49:33.760 При этом некоторые из них кажутся [br]нам более жестокими и дикими, 0:49:33.760,0:49:36.760 хотя в их основе всегда лежит один и тот же стимул - 0:49:36.760,0:49:40.150 необходимость прокормить свои семьи. 0:49:40.150,0:49:43.028 Предположим, что людей в исходной [br]ситуации было бы не трое, а тридцать 0:49:43.028,0:49:44.608 или триста. 0:49:44.608,0:49:47.358 Пожертвовать одной жизнью, [br]чтобы спасти триста 0:49:47.358,0:49:48.349 или больше,[br] 0:49:48.349,0:49:49.589 три тысячи. 0:49:49.590,0:49:51.039 Или, предположим, что ставки были ещё больше. 0:49:51.039,0:49:52.778 Предположим, что ставки были ещё больше. 0:49:52.778,0:49:54.608 Я думаю, что это по-прежнему то же самое.[br] 0:49:54.608,0:49:58.108 Вы думаете, что Бентам ошибался, [br]говоря, что необходимо 0:49:58.108,0:49:58.929 суммировать 0:49:58.929,0:50:02.479 всё общественное счастье? Вы думаете, [br]что он ошибался насчёт этого? 0:50:02.478,0:50:06.728 - Я не считаю, что он ошибался, но я считаю, что [br]убийство есть убийство в любом случае. [br]- Значит Бентам определённо ошибается. 0:50:06.728,0:50:09.568 - Если вы правы, то неправ он. [br]- Хорошо, тогда он не прав. 0:50:09.568,0:50:12.818 Хорошо, спасибо. 0:50:12.818,0:50:14.358 Давайте отвлечёмся 0:50:14.358,0:50:16.389 от этого обсуждения 0:50:16.389,0:50:19.728 и обратим внимание на то, 0:50:19.728,0:50:23.259 сколько было возражений по поводу [br]поступка Дадли и Стивенса. 0:50:23.259,0:50:26.048 Мы услышали несколько мнений [br]в защиту того, что они сделали. 0:50:26.048,0:50:28.509 Их оправдывали тем, что они находились 0:50:28.509,0:50:28.918 в состоянии крайней необходимости, 0:50:28.918,0:50:32.588 были в ужасных обстоятельствах. 0:50:32.588,0:50:33.409 По крайней мере, косвенно оправдывали [br]количественным аргументом, 0:50:33.409,0:50:36.018 «три жизни против одной». 0:50:36.018,0:50:37.858 Говорили, что дело не только в количестве, 0:50:37.858,0:50:40.380 но и в более важных обстоятельствах, 0:50:40.380,0:50:43.459 в том, что дома у них остались семьи и близкие. 0:50:43.458,0:50:44.768 Паркер же был сиротой, 0:50:44.768,0:50:47.978 никто бы не скучал по нему. 0:50:47.978,0:50:49.578 Таким образом, если вы 0:50:49.579,0:50:50.829 сложите всё это 0:50:50.829,0:50:52.649 и попробуете оценить 0:50:52.648,0:50:53.998 соотношение 0:50:53.998,0:50:56.598 счастья и страдания, 0:50:56.599,0:50:58.838 то у вас будут основания 0:50:58.838,0:51:02.768 утверждать, что они поступили правильно. 0:51:02.768,0:51:09.468 Затем мы услышали по крайней мере [br]три различных типа возражений. 0:51:09.469,0:51:11.690 Например, возражение о том, 0:51:11.690,0:51:14.108 что они поступили неправильно [br]с категорической точки зрения. 0:51:14.108,0:51:15.750 Вы так сказали. 0:51:15.750,0:51:17.389 Неправильно с категорической точки зрения. 0:51:17.389,0:51:19.820 Убийство есть убийство, и это всегда плохо, 0:51:19.820,0:51:20.969 даже если 0:51:20.969,0:51:23.349 при этом повысится общий уровень счастья 0:51:23.349,0:51:25.639 в обществе. 0:51:25.639,0:51:28.499 Это категорическое возражение. 0:51:28.498,0:51:30.738 Но нам всё равно нужно понять, 0:51:30.739,0:51:32.749 почему убийство 0:51:32.748,0:51:35.448 является категорически неправильным. 0:51:35.449,0:51:38.579 Потому ли, что 0:51:38.579,0:51:42.339 даже у юнги есть фундаментальные права? 0:51:42.338,0:51:44.400 И если в этом вся причина, 0:51:44.400,0:51:47.880 то откуда возникат эти права, если не от идеи 0:51:47.880,0:51:53.209 повышения общественного благосостояния, [br]полезности или счастья? Это первый вопрос. 0:51:53.208,0:51:56.308 Другие утверждали, 0:51:56.309,0:51:58.449 что в случае со жребием было бы иначе. 0:51:58.449,0:52:00.039 Справедливая процедура, 0:52:00.039,0:52:05.949 как заметил Мэтт. 0:52:05.949,0:52:08.769 И некоторые из вас склонились к этой точке зрения. 0:52:08.768,0:52:12.188 Но это не совсем категорическое возражение. 0:52:12.188,0:52:13.828 Это утверждение о том, 0:52:13.829,0:52:16.798 что все должны считаться равными, 0:52:16.798,0:52:18.469 даже если в конце концов 0:52:18.469,0:52:20.769 один человек будет принесён в жертву 0:52:20.768,0:52:23.288 ради общего блага. 0:52:23.289,0:52:26.059 Это заставляет нас задуматься о следующем. 0:52:26.059,0:52:29.670 Почему согласие на определённую процедуру, 0:52:29.670,0:52:31.969 пусть даже справедливую, 0:52:31.969,0:52:34.739 оправдывает любой результат, 0:52:34.739,0:52:38.088 вытекающий из этой процедуры? 0:52:38.088,0:52:39.898 Это второй вопрос. 0:52:39.898,0:52:42.398 И наконец третий вопрос - 0:52:42.398,0:52:45.338 фундаментальная идея о согласии. 0:52:45.338,0:52:48.528 Эту мысль высказала Кэтлин. 0:52:48.528,0:52:52.719 Если бы юнга согласился сам, 0:52:52.719,0:52:54.499 и никто бы его к этому не принуждал, 0:52:54.498,0:52:57.068 как было отмечено, 0:52:57.068,0:53:01.918 то пожертвовать его жизнью ради жизни [br]других было вполне нормальным. 0:53:01.918,0:53:04.900 Эту идею поддержали ещё больше людей, 0:53:04.900,0:53:06.630 но это приводит нас 0:53:06.630,0:53:08.528 к третьему философскому вопросу. 0:53:08.528,0:53:11.009 Какова моральная основа 0:53:11.009,0:53:12.838 согласия? 0:53:12.838,0:53:14.438 0:53:14.438,0:53:16.978 Почему акт согласия 0:53:16.978,0:53:19.188 так существенно меняет дело [br]с моральной точки зрения? 0:53:19.188,0:53:23.818 Так меняет, что поступок, который в любом другом случае [br]мы бы посчитали неправильным и назвали бы убийством, 0:53:23.818,0:53:25.369 является допустимым 0:53:25.369,0:53:26.358 с точки зрения морали, 0:53:26.358,0:53:29.619 если на него было дано согласие. 0:53:29.619,0:53:31.699 Чтобы ответить на эти три вопроса, 0:53:31.699,0:53:34.108 нам с вами нужно будет изучить [br]сочинения неcкольких философов. 0:53:34.108,0:53:35.728 В следующий раз 0:53:35.728,0:53:36.939 мы начнём 0:53:36.940,0:53:37.720 с Бентама 0:53:37.719,0:53:43.798 и Джона Стюарта Милля - философов-утилитаристов. 0:53:43.798,0:53:47.298 0:53:43.798,0:53:47.298 0:53:49.869,0:53:56.869 0:54:36.219,0:54:40.269 0:54:40.268,0:54:41.678