0:00:33.299,0:00:37.230 Это курс по теории справедливости, [br]и мы начнём его с мысленного эксперимента. 0:00:37.230,0:00:44.509 Представьте, что вы водитель трамвая,[br]который несётся со скоростью 100 км/ч, 0:00:44.509,0:00:49.390 И вдруг вдалеке на рельсах [br]вы замечаете пятерых рабочих. 0:00:49.390,0:00:51.569 Вы пытаетесь остановиться, но не можете: 0:00:51.569,0:00:53.539 тормоза не работают. 0:00:53.539,0:00:56.630 Вы в полном отчаянии, поскольку знаете, 0:00:56.630,0:00:59.460 что если врежетесь в этих рабочих, 0:00:59.460,0:01:01.320 то все они погибнут. 0:01:01.320,0:01:04.879 Предположим, вы знаете это наверняка. 0:01:04.879,0:01:07.019 Итак, вы не знаете что делать, 0:01:07.019,0:01:09.230 но вдруг замечаете, 0:01:09.230,0:01:10.890 что справа 0:01:10.890,0:01:12.940 есть боковая ветка. 0:01:12.940,0:01:15.420 И на конце этой ветки находится только 0:01:15.420,0:01:18.829 только один рабочий. 0:01:18.829,0:01:21.148 Руль трамвая исправен, 0:01:21.148,0:01:22.748 и, если захотите, 0:01:22.748,0:01:25.758 вы можете повернуть 0:01:25.758,0:01:28.550 на эту боковую ветку 0:01:28.550,0:01:30.340 и, тем самым, убить одного рабочего, 0:01:30.340,0:01:33.009 но спасти жизнь пятерым.[br] 0:01:33.009,0:01:35.819 И вот наш первый вопрос: 0:01:35.819,0:01:38.659 как правильно поступить? 0:01:38.659,0:01:40.328 Как бы вы поступили в этой ситуации? 0:01:40.328,0:01:42.390 Давайте проголосуем. 0:01:42.390,0:01:47.720 Кто бы повернул на боковую ветку? 0:01:47.720,0:01:51.790 Поднимите руки. 0:01:51.790,0:01:53.415 Кто не стал бы этого делать 0:01:53.415,0:01:57.645 и поехал бы дальше?[br] 0:01:57.645,0:02:03.979 Не опускайте руки те, [br]кто поехал бы дальше. 0:02:03.979,0:02:08.198 Большинство. Подавляющее[br]большинство повернуло бы. 0:02:08.198,0:02:09.878 Давайте теперь разберёмся, 0:02:09.878,0:02:14.979 почему вы приняли именно такое решение. 0:02:14.979,0:02:18.209 И давайте начнём с большинства. 0:02:18.209,0:02:19.729 С тех, кто бы повернул 0:02:19.729,0:02:21.948 на боковую ветку. 0:02:21.948,0:02:23.508 Почему бы вы это сделали? 0:02:23.508,0:02:25.638 Что сподвигло бы вас на это? 0:02:25.638,0:02:29.868 Кто хочет высказаться? Есть добровольцы? 0:02:29.868,0:02:32.018 Начинайте. Встаньте, пожалуйста. 0:02:32.018,0:02:35.362 Я думаю, что неправильно[br]убивать пять человек, 0:02:35.470,0:02:39.016 когда есть возможность[br]убить только одного. 0:02:39.318,0:02:42.177 Было бы неправильно убивать пятерых, 0:02:42.177,0:02:46.917 если вместо этого вы можете[br]убить только одного. 0:02:46.917,0:02:48.399 Да, неплохая причина. 0:02:48.399,0:02:52.709 Действительно неплохая. 0:02:52.719,0:02:53.692 Кто-нибудь ещё? 0:02:53.692,0:02:56.312 Все согласны с таким 0:02:56.312,0:02:59.552 объяснением? 0:02:59.552,0:03:01.252 Да, пожалуйста. 0:03:01.252,0:03:05.399 Я думаю этот случай похож на то,[br]что произошло с самолётом, 0:03:05.399,0:03:09.299 который разбился в Пенсильвании 11 сентября. 0:03:09.309,0:03:11.598 Потому что эти люди, как настоящие [br]герои, предпочли погибнуть, 0:03:11.598,0:03:14.348 но избежать большего количества [br]жертв среди людей, 0:03:14.348,0:03:15.918 которые находились на земле. 0:03:15.918,0:03:19.281 То есть ими руководила та же логика: 0:03:19.281,0:03:20.901 в такой безнадёжной ситуации 0:03:20.901,0:03:25.356 лучше убить одного, но спасти пятерых. 0:03:25.359,0:03:30.628 Именно так считают те, кто повернул бы? Верно? 0:03:30.628,0:03:33.468 Давайте теперь послушаем мнение тех, 0:03:33.468,0:03:35.288 кто оказался в меньшинстве. 0:03:35.288,0:03:39.148 Тех, кто не повернул бы. 0:03:39.148,0:03:40.522 Да. 0:03:40.522,0:03:45.276 Я думаю, что это такая же точка зрения, которая[br]оправдывает геноцид и тоталитаризм. 0:03:45.276,0:03:50.229 Для того, чтобы спасти представителей одной расы, [br]вы стираете с лица Земли другую. 0:03:50.229,0:03:51.965 И что бы вы сделали в этом случае? 0:03:51.965,0:03:53.188 Для того, 0:03:53.188,0:03:55.338 чтобы избежать 0:03:55.338,0:03:57.618 ужасов геноцида, 0:03:57.618,0:04:03.518 вы предпочли бы врезаться [br]в пятерых рабочих и убить их? 0:04:03.518,0:04:05.542 Думаю, да. 0:04:05.542,0:04:06.322 Правда?[br] 0:04:06.322,0:04:07.434 Да. 0:04:07.434,0:04:09.804 Хорошо. Кто ещё хочет [br]высказать своё мнение? 0:04:09.806,0:04:13.251 Это смелый ответ. Спасибо. 0:04:13.251,0:04:15.664 Давайте теперь рассмотрим 0:04:15.664,0:04:20.034 другой пример с трамвайным вагоном 0:04:20.034,0:04:23.800 и посмотрим, будет ли 0:04:23.800,0:04:27.220 большинство из вас 0:04:27.220,0:04:30.820 придерживаться той же самой логики: 0:04:30.820,0:04:33.320 лучше убить одного, чтобы пятеро остались живы. 0:04:33.320,0:04:38.050 В этот раз вы не водитель трамвая, [br]вы переводите стрелки. 0:04:38.050,0:04:42.389 Вы стоите на мосту и наблюдаете за рельсами. 0:04:42.389,0:04:45.599 И вот по рельсам летит трамвай. 0:04:45.599,0:04:49.488 На другом конце пять рабочих. 0:04:49.488,0:04:51.659 Тормоза не работают, 0:04:51.659,0:04:55.799 трамвай вот-вот в них врежется и убьёт. 0:04:55.799,0:04:56.989 Сейчас 0:04:56.989,0:04:58.639 вы не водитель 0:04:58.639,0:05:00.999 и совершенно не знаете, что делать. 0:05:00.999,0:05:02.769 И тут вы замечаете, 0:05:02.769,0:05:06.479 что рядом с вами 0:05:06.479,0:05:08.569 стоит, прислонившись к перилам 0:05:08.569,0:05:09.744 моста, 0:05:09.744,0:05:15.264 очень толстый человек. 0:05:15.264,0:05:18.764 И вы могли бы 0:05:18.764,0:05:20.124 его немного 0:05:20.124,0:05:22.524 подтолкнуть. 0:05:22.524,0:05:24.543 Он упал бы с моста 0:05:24.543,0:05:27.653 прямо на рельсы, 0:05:27.653,0:05:30.233 на пути 0:05:30.233,0:05:32.012 трамвая. 0:05:32.012,0:05:33.302 Он бы погиб, 0:05:33.302,0:05:36.079 но при этом спас бы жизни пятерым. 0:05:36.079,0:05:38.819 Итак 0:05:38.819,0:05:40.992 Кто столкнул бы 0:05:40.992,0:05:42.552 толстяка с моста? 0:05:42.552,0:05:48.012 Поднимите руки. 0:05:48.012,0:05:50.945 Кто не стал бы этого делать? 0:05:50.945,0:05:53.909 Большинство не стало бы. 0:05:53.909,0:05:55.583 Возникает закономерный вопрос: 0:05:55.583,0:05:56.853 Что стало 0:05:56.853,0:05:59.973 с тем принципом: 0:05:59.973,0:06:03.512 лучше спасти пятерых, даже если для этого потребуется [br]принести в жертву жизнь одного человека? 0:06:03.512,0:06:04.942 Что стало с тем принципом, 0:06:04.942,0:06:07.380 который в первом случае 0:06:07.380,0:06:09.250 поддерживали почти все?[br] 0:06:09.250,0:06:12.463 Для начала я хотел бы услышать мнение тех, [br]кто был в большинстве в обоих этих 0:06:12.463,0:06:13.453 примерах. 0:06:13.453,0:06:16.423 Как вы объясните разницу между ними? 0:06:16.423,0:06:17.903 Да, пожалуйста. 0:06:17.903,0:06:21.508 Полагаю, что во втором случае у вас есть выбор: 0:06:21.508,0:06:24.288 толкнуть или не толкнуть человека. 0:06:24.288,0:06:25.019 Я думаю, 0:06:25.019,0:06:29.829 что этот человек не имеет [br]никакого отношения к ситуации, 0:06:29.829,0:06:31.273 и вы 0:06:31.273,0:06:36.313 как бы него принимаете решение за него, 0:06:36.313,0:06:39.906 вмешиваться в эту ситуацию или нет. 0:06:39.906,0:06:41.668 В отличие 0:06:41.668,0:06:43.608 от первого случая, когда 0:06:43.608,0:06:45.844 все три стороны: водитель 0:06:45.844,0:06:47.838 и две группы рабочих, 0:06:47.838,0:06:50.484 уже, как мне кажется, принимают [br]активное участие в том, что происходит. 0:06:50.484,0:06:54.941 Но ведь тот парень, который один работает [br]на рельсах, на боковой ветке, 0:06:54.941,0:07:01.829 он же сам не принимал решения пожертвовать своей жизнью, [br]точно так же, как тот толстяк на мосту, не так ли? 0:07:01.829,0:07:05.339 Да, это так. Но он был на рельсах. 0:07:05.339,0:07:10.354 А этот парень был на мосту! 0:07:10.354,0:07:13.250 Если хотите, можете продолжить. 0:07:13.250,0:07:15.267 Ладно, это непростой вопрос, 0:07:15.267,0:07:16.987 но вы хорошо справились. Очень хорошо. 0:07:16.987,0:07:19.527 Очень непростой вопрос. 0:07:19.527,0:07:21.030 Кто-нибудь ещё 0:07:21.030,0:07:22.250 хочет попробовать 0:07:22.250,0:07:25.930 объяснить, почему большинство 0:07:25.930,0:07:28.970 именно так отреагировало [br]в обоих этих случаях? 0:07:28.970,0:07:29.770 Прошу. 0:07:29.770,0:07:31.090 Полагаю, 0:07:31.090,0:07:32.150 что в первом случае, 0:07:32.150,0:07:35.733 в котором присутствует пять рабочих [br]на основной ветке и один на боковой, 0:07:35.733,0:07:37.370 вам необходимо сделать выбор между ними 0:07:37.370,0:07:40.948 и принять какое-то решение, иначе эти [br]пять человек погибнут под трамваем, 0:07:40.948,0:07:45.039 но вы за это не несёте никакой ответственности. [br]Вагон несётся на большой скорости, 0:07:45.039,0:07:47.768 вам нужно принять мгновенное решение. 0:07:47.768,0:07:52.158 А сталкивая толстяка с моста, [br]вы совершаете убийство. 0:07:52.158,0:07:54.208 Вы можете это контролировать, 0:07:54.208,0:07:57.278 в отличие от вагона. 0:07:57.278,0:07:59.889 Поэтому я считаю, что это [br]немного другой случай. 0:07:59.889,0:08:04.428 Хорошо, кто хочет возразить? [br]Это было неплохо. 0:08:04.428,0:08:06.244 Кто хочет ответить? 0:08:06.244,0:08:09.155 Объясняет ли это ситуацию? 0:08:09.155,0:08:10.695 Я не думаю, что это очень [br]хорошее объяснение, 0:08:10.695,0:08:12.369 потому что ты в любом случае выбираешь. 0:08:12.369,0:08:14.158 Всё равно нужно решить, кто умрёт. 0:08:14.158,0:08:16.698 Либо вы решаете повернуть [br]и убить человека на рельсах, 0:08:16.698,0:08:19.638 что будет являться вашим [br]сознательным решением.[br] 0:08:19.638,0:08:21.827 Либо вы принимаете решение [br]столкнуть толстяка, 0:08:21.827,0:08:24.517 что также будет являться вашим[br]сознательным решением. 0:08:24.517,0:08:27.597 Так что вы в любом случае [br]делаете какой-то выбор. 0:08:27.597,0:08:29.629 Хотите возразить? 0:08:29.629,0:08:32.754 Я не уверен, что это так. Мне кажется, [br]всё равно есть определённая разница. 0:08:32.754,0:08:37.410 Если вы сталкиваете кого-то с моста и, [br]тем самым, убиваете его, 0:08:37.410,0:08:39.600 то в этом случае вы делаете это [br]своими собственными руками. 0:08:39.600,0:08:42.260 Толкаете своими собственными руками. 0:08:42.260,0:08:43.699 И это отличается от ситуации, 0:08:43.699,0:08:49.229 когда вы управляете чем-то, что может стать [br]причиной смерти. Знаете... 0:08:49.229,0:08:52.765 Теперь мне самому это не очень нравится. 0:08:52.765,0:08:54.477 Нет-нет, это было неплохо. Как вас зовут? 0:08:54.477,0:08:55.502 Эндрю. 0:08:55.502,0:08:58.905 Эндрю, позвольте задать вам вопрос? 0:08:58.905,0:09:01.911 Допустим, [br] 0:09:01.911,0:09:03.461 что вы стоите на мосту 0:09:03.461,0:09:04.701 рядом с толстяком 0:09:04.701,0:09:07.669 и вам не нужно его толкать.[br]Допустим, он стоит, 0:09:07.669,0:09:17.078 прислонившись к дверце, которую вы можете[br]открыть, повернув рычаг. Вот так. 0:09:17.078,0:09:18.391 Вы бы повернули? 0:09:18.391,0:09:21.441 Не знаю почему, но это всё равно как-то 0:09:21.441,0:09:23.001 неправильно. 0:09:23.001,0:09:29.674 Возможно, если бы вы случайно облокотились [br]на этот рычаг или что-то в это роде... 0:09:29.674,0:09:30.540 Или, 0:09:30.540,0:09:33.000 например, вагон 0:09:33.000,0:09:37.561 катился бы к какому-нибудь переключателю, [br]который откроет эту дверцу. 0:09:37.561,0:09:39.051 Тогда ещё куда ни шло. 0:09:39.051,0:09:42.552 Ладно, достаточно. Как бы то ни было, [br]это всё равно кажется неправильным. 0:09:42.552,0:09:46.054 Точно так же, как в первом случае кажется, [br]что правильным поступком было бы повернуть. 0:09:46.054,0:09:50.379 С другой стороны, в первом случае вы имеете [br]непосредственное отношение к этой ситуации, 0:09:50.379,0:09:52.539 а во втором — нет. 0:09:52.539,0:09:55.546 И у вас есть выбор: участвовать [br]или нет, толкать толстяка или нет. 0:09:55.546,0:09:59.340 Давайте на минуту забудем об этом случае. 0:09:59.340,0:10:01.229 Это было неплохо. 0:10:01.229,0:10:06.269 Давайте представим другой случай. На этот раз [br]вы врач в отделении экстренной помощи. 0:10:06.269,0:10:11.382 И к вам поступают шесть пациентов. 0:10:11.382,0:10:18.212 Они попали в ужасную аварию... С трамваем. 0:10:18.212,0:10:23.508 Пять из них ещё держатся, но у одного серьёзные [br]травмы. Вы можете потратить весь день, 0:10:23.508,0:10:27.594 пытаясь спасти жизнь одного, 0:10:27.594,0:10:32.180 но тогда остальные пятеро умрут. [br]Или вы могли бы попытаться спасти тех пятерых, 0:10:32.181,0:10:35.186 но за это время умрёт 0:10:35.186,0:10:36.326 тот, кто тяжело ранен. 0:10:36.326,0:10:39.461 Кто бы спас пятерых? 0:10:39.461,0:10:40.701 Теперь уже в качестве врача. 0:10:40.701,0:10:44.175 Кто бы спас одного? 0:10:44.175,0:10:46.138 Очень мало людей. 0:10:46.138,0:10:49.061 Практически единицы. 0:10:49.061,0:10:51.302 Полагаю, вы руководствовались [br]тем же принципом: 0:10:51.302,0:10:55.482 лучше спасти пять жизней, [br]но при этом пожертвовать одной. 0:10:55.482,0:10:58.950 Теперь рассмотрим другой врачебный случай. 0:10:58.950,0:11:01.890 На этот раз вы хирург. 0:11:01.890,0:11:06.089 И к вам в больницу попало пять [br]пациентов, каждому из которых 0:11:06.089,0:11:09.399 срочно требуется пересадка органа. [br]Иначе они умрут. 0:11:09.399,0:11:14.909 Одному нужно сердце, другому — лёгкое,[br]третьему — почка, четвёртому — печень, 0:11:14.909,0:11:20.059 а пятому — поджелудочная железа. 0:11:20.059,0:11:22.571 Но у вас нет доноров. 0:11:22.571,0:11:27.360 Ещё совсем немного, и пациенты умрут. 0:11:27.360,0:11:32.327 Но вдруг оказывается, что в соседней палате 0:11:32.327,0:11:35.740 сидит здоровый парень,[br]который пришёл на приём к доктору. 0:11:39.260,0:11:43.577 И он... 0:11:43.577,0:11:47.029 Вижу вам это нравится? 0:11:47.029,0:11:50.740 Он ненадолго задремал. 0:11:52.999,0:11:56.439 Вы могли бы очень тихо войти 0:11:56.439,0:12:00.499 и извлечь пять его органов. [br]Этот человек умрёт, 0:12:00.499,0:12:03.200 но вы сможете спасти пятерых. 0:12:03.200,0:12:10.331 Кто бы это сделал? Хоть кто-то? 0:12:10.331,0:12:17.343 Сколько вас? Поднимите руки, если бы вы это сделали. 0:12:17.803,0:12:20.528 Кто-нибудь с балкона? 0:12:20.528,0:12:21.782 Вы? 0:12:21.782,0:12:24.272 Аккуратно, не слишком перегибайтесь. 0:12:26.562,0:12:29.221 Кто бы не стал этого делать?[br] 0:12:29.221,0:12:30.192 Хорошо. 0:12:30.192,0:12:33.396 Скажите, там на балконе. 0:12:33.396,0:12:35.896 Вы извлекли бы органы. Почему? 0:12:35.896,0:12:40.048 Я бы хотел предложить другой вариант: 0:12:40.048,0:12:42.982 взять органы только у того из пятерых [br]нуждающихся, кто умрёт первым, 0:12:42.982,0:12:49.722 и воспользоваться его здоровыми органами, [br]чтобы спасти оставшихся четверых. 0:12:49.722,0:12:54.439 Это довольно хорошая идея. 0:12:54.439,0:12:57.650 Это просто отличная идея, 0:12:57.650,0:13:00.089 если исключить тот факт, 0:13:00.089,0:13:04.699 что вы только что разрушили философский замысел.[br] 0:13:04.699,0:13:07.220 Давайте отвлечёмся 0:13:07.220,0:13:10.200 от этих конкретных случаев и их обсуждения, 0:13:10.200,0:13:17.230 чтобы отметить пару направлений, в которых [br]стала разворачиваться наша дискуссия. 0:13:17.230,0:13:25.900 Из наших обсуждений уже начали вырисовываться [br]определённые нравственные принципы. 0:13:25.900,0:13:31.160 Давайте рассмотрим, что из себя[br]представляют эти принципы. 0:13:31.160,0:13:35.660 Первый нравственный принцип,[br]появившийся в дискуссии, гласил: 0:13:35.660,0:13:40.510 правильный поступок, нравственный поступок[br]зависит от последствий, 0:13:40.510,0:13:45.384 которые станут результатом [br]ваших действий. 0:13:45.384,0:13:52.060 В конце концов, лучше, чтобы выжили пятеро,[br]даже если для этого один должен умереть. 0:13:52.060,0:13:58.880 Это пример консеквенциальной этики. 0:13:58.880,0:14:06.089 При консеквенциальном образе мыслей моральная [br]ценность выражается в последствиях, в результате 0:14:06.089,0:14:08.859 ваших действий. 0:14:08.859,0:14:12.539 Потом мы пошли немного дальше [br]и рассмотрели другие случаи, 0:14:12.539,0:14:20.459 и люди уже были не столь уверены[br]в правильности консеквенционализма. 0:14:20.459,0:14:25.590 Когда люди не решались столкнуть[br]толстого мужчину с моста 0:14:25.590,0:14:29.470 или изъять органы невинного пациента, 0:14:29.470,0:14:31.742 они указывали на доводы, 0:14:31.742,0:14:34.022 связанные 0:14:34.022,0:14:39.862 с сущностью самого действия. 0:14:39.862,0:14:42.549 Теперь им было уже неважно, [br]какими будут последствия в итоге. 0:14:42.549,0:14:44.969 Люди сопротивлялись. 0:14:44.969,0:14:47.109 Они думали, что это просто неправильно, 0:14:47.109,0:14:49.290 категорически неправильно — 0:14:49.290,0:14:53.238 убить человека, невинного человека, 0:14:53.238,0:14:56.388 даже ради спасения пяти жизней. 0:14:56.388,0:14:58.416 По крайней мере, они так считали 0:14:58.416,0:15:03.786 во второй версии каждого [br]рассмотренного сюжета. 0:15:03.786,0:15:15.773 Итак, это указывает на второй, категорический[br]способ выстраивания аргументации. 0:15:15.773,0:15:18.931 Категорическая аргументация определяет[br]мораль как соответствие действий 0:15:18.931,0:15:21.238 определённым абсолютным этическим требованиям, 0:15:21.238,0:15:23.748 определённым категорическим правам и обязанностям, 0:15:23.748,0:15:27.240 независимо от последствий.[br] 0:15:27.240,0:15:31.535 На протяжении нескольких недель[br]мы будем изучать разницу 0:15:31.535,0:15:36.489 между консеквенциальной и категорической аргументацией. 0:15:36.489,0:15:43.450 Важнейший пример консеквенциальной[br]аргументации это утилитаризм — доктрина, 0:15:43.450,0:15:51.020 предложенная английским политическим[br]философом 18-го века Джереми Бентамом. 0:15:51.020,0:15:56.619 Наиболее видным сторонником [br]категориальной аргументации 0:15:56.619,0:16:02.414 является немецкий философ[br]18-го века Иммануил Кант. 0:16:02.414,0:16:07.060 Мы остановимся на этих двух разных[br]видах нравственной аргументации, 0:16:07.060,0:16:10.569 дадим им оценку, а также[br]рассмотрим некоторые другие. 0:16:10.569,0:16:15.860 Из учебной программы видно, что мы изучим[br]множество великих и известных книг: 0:16:15.860,0:16:21.949 произведения Аристотеля, Джона Локка,[br]Иммануила Канта, Джона Стюарта Милля, 0:16:21.949,0:16:23.860 и других. 0:16:23.860,0:16:28.060 Обратите внимание на то,[br]что мы не только изучим эти книги, 0:16:28.060,0:16:34.159 но и обсудим современные[br]политические и правовые разногласия, 0:16:34.159,0:16:36.923 затрагивающие философские вопросы. 0:16:36.923,0:16:41.269 Мы будем говорить о равенстве[br]и неравенстве, о позитивной дискриминации, 0:16:41.269,0:16:43.386 о свободе слова и пропаганде ненависти,[br] 0:16:43.386,0:16:46.631 об однополых браках и воинской повинности. 0:16:46.631,0:16:50.680 Эти и другие прикладные вопросы будут подняты, 0:16:50.680,0:16:55.190 чтобы не только «оживить» отвлечённые книги, 0:16:55.190,0:16:59.430 но и внести ясность в то, с чем мы[br]сталкиваемся в нашей повседневной жизни, 0:16:59.430,0:17:02.694 включая политические вопросы, 0:17:02.694,0:17:03.694 рассмотреть это ? 0:17:03.694,0:17:05.524 с точки зрения философии. ? 0:17:05.524,0:17:10.048 После изучения этих книг[br]и обсуждения прикладных вопросов, 0:17:10.048,0:17:15.350 мы увидим, как они дополняют[br]и освещают друг друга. 0:17:15.350,0:17:22.449 Возможно, это звучит заманчиво,[br]но я должен предупредить. 0:17:22.449,0:17:25.149 И вот о чём. 0:17:25.149,0:17:34.009 Чтение этих книг способом, при котором [br]вы упражняетесь в самопознании, 0:17:34.009,0:17:38.129 несёт в себе определённые риски — 0:17:38.129,0:17:41.789 риски, как индивидуальные, так и политические. 0:17:41.789,0:17:47.600 Риски, о которых знает каждый студент[br]курса политической философии. 0:17:47.600,0:17:54.030 Эти риски вытекают из того,[br]что философия учит нас, 0:17:54.030,0:18:01.159 побуждает нас сомневаться[br]и идти вразрез с тем, что мы уже знаем. 0:18:01.159,0:18:03.269 Парадоксально, 0:18:03.269,0:18:09.669 но сложность этого курса заключается в том,[br]что вы изучаете то, что вам уже давно известно. 0:18:09.669,0:18:16.319 Знания, которые мы получили[br]из известных неоспоримых истин, 0:18:16.319,0:18:20.029 превращаются в чуждые. 0:18:20.029,0:18:23.099 Именно так работают наши примеры: 0:18:23.099,0:18:28.899 шутливые гипотетические случаи,[br]с которых мы начали эту лекцию. 0:18:28.899,0:18:31.580 Точно такое же влияние оказывают книги по философии. 0:18:31.580,0:18:35.390 Философия отстраняет нас[br] 0:18:35.390,0:18:37.340 от хорошо известных истин, 0:18:37.340,0:18:40.260 не давая при этом новой информации,[br] 0:18:40.260,0:18:43.550 но увлекая нас за собой и провоцируя на то, 0:18:43.550,0:18:47.239 чтобы посмотреть на вещи по-новому. 0:18:47.239,0:18:49.800 Но здесь кроется риск. 0:18:49.800,0:18:54.080 Когда однажды привычное станет чуждым, 0:18:54.080,0:18:57.409 оно уже никогда не будет прежним. 0:18:57.409,0:19:00.099 Самопознание 0:19:00.099,0:19:02.780 похоже на потерю невинности. 0:19:02.780,0:19:05.710 Однако то, что вы обнаружите,[br]изменив привычное ви́дение, 0:19:05.710,0:19:09.239 не будет для вас неожиданным 0:19:09.239,0:19:13.180 или неизвестным. 0:19:13.180,0:19:17.190 Это делает наш курс сложным, [br] 0:19:17.190,0:19:19.759 но от этого не менее захватывающим. 0:19:19.759,0:19:25.150 Моральная и политическая философия — это история, 0:19:25.150,0:19:29.210 и ты никогда не знаешь, куда она тебя приведёт,[br]но ты точно знаешь, 0:19:29.210,0:19:31.079 что эта история 0:19:31.079,0:19:34.279 о тебе самом.[br] 0:19:34.279,0:19:36.970 Это индивидуальный риск. 0:19:36.970,0:19:39.949 Теперь рассмотрим политические риски. 0:19:39.949,0:19:42.900 Одним из способов пробудить [br]у вас интерес к этому курсу 0:19:42.900,0:19:44.618 было бы пообещать вам, 0:19:44.618,0:19:46.310 что после прочтения этих книг 0:19:46.310,0:19:47.950 и обсуждения определённых вопросов 0:19:47.950,0:19:51.729 вы станете более ответственным членом общества. 0:19:51.729,0:19:57.070 Вы изучите основы общественного устройства,[br]отточите свои политические суждения, 0:19:57.070,0:20:02.569 научитесь более эффективно участвовать [br]в общественной жизни. 0:20:02.569,0:20:06.489 Но это было бы однобокое[br]и в целом неверное обещание. 0:20:06.489,0:20:11.399 Политическая философия в своей основе [br]состоит в другом. 0:20:11.399,0:20:14.429 Нам необходимо допустить, 0:20:14.429,0:20:18.840 что политическая философия, наоборот,[br]может сделать вас как гражданина хуже, 0:20:18.840,0:20:21.530 вместо того, чтобы сделать вас лучше. 0:20:21.530,0:20:23.700 Или, по крайней мере, сделает вас [br]как гражданина хуже 0:20:23.700,0:20:25.499 до того, как вы станете 0:20:25.499,0:20:27.869 лучше. 0:20:27.869,0:20:30.200 Это происходит потому, что философия 0:20:30.200,0:20:32.220 является сама по себе занятием, [br]удаляющим нас от реальности 0:20:32.220,0:20:36.370 и, порой, развращающим. 0:20:36.370,0:20:39.709 Давайте вернёмся во времена Сократа 0:20:39.709,0:20:41.569 и обратимся к диалогу «Горгий», 0:20:41.569,0:20:44.580 в котором один из друзей Сократа 0:20:44.580,0:20:45.419 Калликл, 0:20:45.419,0:20:47.239 пытается отговорить его 0:20:47.240,0:20:49.670 от философствований. 0:20:49.670,0:20:54.310 Калликл говорит ему, что философия, [br]конечно, милая забава, 0:20:54.310,0:20:57.890 если предаваться ей в разумных пределах [br]и в определённом возрасте. 0:20:57.890,0:21:03.599 Но если философствующий погружается в неё глубже, [br]чем должно, он упирается в тупик. 0:21:03.599,0:21:06.319 «Прими мой совет, — говорит Калликл, 0:21:06.319,0:21:08.199 оставь словопрения 0:21:08.199,0:21:11.360 и обратись к жизни деятельной. 0:21:11.360,0:21:16.780 Переведи свой взор с тех, кто тратит время [br]на бессмысленные споры, 0:21:16.780,0:21:19.899 на тех, кто ведёт деятельную жизнь, [br]имеет хорошую репутацию 0:21:19.899,0:21:22.189 и благословлён другими достоинствами.» 0:21:22.189,0:21:26.668 Другими словами, Калликл убеждает Сократа 0:21:26.668,0:21:28.530 оставить философствования, 0:21:28.530,0:21:30.439 обратиться к реальности, 0:21:30.439,0:21:34.990 поступить в бизнес-школу... 0:21:34.990,0:21:38.149 И Калликл был по-своему прав. 0:21:38.149,0:21:42.030 Он был прав в том, что философия [br]уводит нас в сторону 0:21:42.030,0:21:44.949 от традиций, установленных допущений 0:21:44.949,0:21:46.529 и устоявшихся убеждений. 0:21:46.529,0:21:48.270 Здесь нас и подстерегают опасности, 0:21:48.270,0:21:49.840 индивидуальные и политические. 0:21:49.840,0:21:54.089 В ответ на их угрозу сознание [br]включает защитный механизм, 0:21:54.089,0:21:57.470 который мы называем скептицизмом. 0:21:57.470,0:21:58.990 Происходит это примерно следующим образом: 0:21:58.990,0:22:03.660 мы так и не смогли прийти к единому мнению 0:22:03.660,0:22:09.629 по вопросам, с обсуждения которых, [br]мы начали эту лекцию. 0:22:09.629,0:22:11.180 Но если ни Аристотель, 0:22:11.180,0:22:16.950 ни Локк, ни Кант, ни Милль [br]не дали на них ответа за всё это время, 0:22:16.950,0:22:19.509 то кто мы такие, 0:22:19.509,0:22:23.490 те, кто собрался в этом зале [br]на один семестр, 0:22:23.490,0:22:26.300 чтобы вдруг разрешить их? 0:22:26.300,0:22:29.270 Может быть определённое видение мира — 0:22:29.270,0:22:34.090 это личное дело каждого человека[br]и к этому больше нечего добавить? 0:22:34.090,0:22:36.289 И правильного ответа не существует. 0:22:36.289,0:22:37.649 Это попытка бегства. 0:22:37.650,0:22:39.440 Бегства в скептицизм. 0:22:39.440,0:22:42.449 На это я ответил бы следующим образом: 0:22:42.449,0:22:47.440 Да, над этими вопросами [br]люди бьются долгое время. 0:22:47.440,0:22:49.059 Но сам факт того, 0:22:49.059,0:22:52.600 что они возвращаются к нам, нерешённые, [br]настойчиво требуя от нас ответа, 0:22:52.600,0:22:54.650 может, с одной стороны, говорить о том, 0:22:54.650,0:22:57.049 что разрешить их невозможно,[br] 0:22:57.049,0:22:59.759 а с другой — о том, [br]что их возникновение неизбежно. 0:22:59.759,0:23:02.299 И причина их неизбежности в том, 0:23:02.299,0:23:09.949 что каждый из нас своей собственной жизнью[br]каждый день по-своему отвечает на эти вопросы. 0:23:09.949,0:23:15.970 Таким образом, скептики, в бессилии разводя руками [br]и отказываясь от попыток дать ответы на эти вопросы, 0:23:15.970,0:23:18.059 просто уходят от решения моральных дилемм. 0:23:18.059,0:23:19.580 Иммануил Кант [br] 0:23:19.580,0:23:22.970 очень ёмко описал несостоятельность [br]скептицизма: 0:23:22.970,0:23:26.038 «Скептицизм есть привал [br]для человеческого разума, 0:23:26.038,0:23:28.999 где он может обдумать своё [br]догматическое странствие, 0:23:28.999,0:23:32.659 но это вовсе не место [br]для постоянного пребывания.» 0:23:32.659,0:23:35.750 «Простое принятие скептицизма, — пишет Кант, 0:23:35.750,0:23:42.590 никогда не удовлетворит страждущий разум.» 0:23:42.590,0:23:46.719 Всеми этими примерами я пытался дать вам [br]некоторое представление о том, 0:23:46.719,0:23:49.898 с какими опасностями и искушениями [br]сталкивается ступивший 0:23:49.898,0:23:51.659 на путь философского познания и понявший, какие безграничные [br]возможности открываются перед ним. 0:23:51.659,0:23:55.509 В заключение я хотел бы сказать, 0:23:55.509,0:23:58.039 что задача этого курса — 0:23:58.039,0:24:02.079 разбудить страждущий разум 0:24:02.079,0:24:04.200 и показать, как далеко он может нас увести. 0:24:04.200,0:24:11.380 Спасибо за внимание. 0:24:15.440,0:24:16.980 В такой отчаянной ситуации 0:24:16.980,0:24:21.259 - ...вы должны сделать всё, что можно, чтобы выжить. [br]- Вы должны сделать всё, что можно? [br]- Да, вы должны сделать всё,[br] 0:24:21.259,0:24:22.779 что можно. 0:24:22.779,0:24:23.619 Примерно так. 0:24:23.619,0:24:25.699 Если вы 19 дней ничего не ели,[br] 0:24:25.700,0:24:32.700 - ...кто-то из вас должен пожертвовать собой ради спасения остальных.[br]- Хорошо, как ваше имя? - Маркус. 0:24:33.569,0:24:38.359 Что вы ответите Маркусу? 0:24:40.309,0:24:44.569 В прошлый раз 0:24:44.569,0:24:46.880 мы начали 0:24:46.880,0:24:48.830 с нескольких историй, 0:24:48.830,0:24:50.859 с нескольких моральных дилемм: 0:24:50.859,0:24:52.689 о трамваях[br] 0:24:52.689,0:24:54.249 о докторах, 0:24:54.249,0:24:56.199 а также о здоровых пациентах, 0:24:56.199,0:24:57.379 рискующих 0:24:57.379,0:25:00.690 стать жертвами трансплантации органов. 0:25:00.690,0:25:03.699 Мы обратили внимание на две особенности 0:25:03.699,0:25:06.660 в доводах, которые мы приводили. 0:25:06.660,0:25:09.689 Первая особенность связана с тем, как именно мы спорили. 0:25:09.689,0:25:13.179 Всё началось с наших суждений об определённых случаях.[br] 0:25:13.179,0:25:18.050 Мы попытались сформулировать причины или принципы,[br] 0:25:18.050,0:25:22.109 лежащие в основе наших суждений.[br] 0:25:22.109,0:25:25.180 И затем, столкнувшись с новым случаем, 0:25:25.180,0:25:30.209 мы пересматривали эти принципы, 0:25:30.209,0:25:33.269 рассматривая один в свете другого. 0:25:33.269,0:25:38.920 И мы почувствовали внутреннее сопротивление, [br]пытаясь привести в соответствие 0:25:38.920,0:25:41.680 наши суждения об определённых случаях[br] 0:25:41.680,0:25:43.940 и принципы, лежащие 0:25:43.940,0:25:46.360 в основе этих суждений. 0:25:46.359,0:25:50.589 Мы также заметили кое-что в содержании доводов, 0:25:50.589,0:25:55.190 которые возникли в ходе обсуждения.[br] 0:25:55.190,0:26:00.649 Мы заметили, что иногда мы испытывали желание [br]дать моральную оценку последствиям действий, 0:26:00.649,0:26:06.049 результатам, положению дел, [br]к которому эти действия привели. 0:26:06.049,0:26:09.019 Мы назвали это явление 0:26:09.019,0:26:11.510 консеквенциальной аргументацией. 0:26:11.510,0:26:13.080 Но мы также заметили, 0:26:13.080,0:26:16.300 что в некоторых ситуациях 0:26:16.300,0:26:18.469 не только результат имел для нас 0:26:18.469,0:26:21.219 значение. 0:26:21.219,0:26:23.399 Иногда, 0:26:23.400,0:26:25.350 как многие из нас почувствовали, 0:26:25.349,0:26:30.990 не только последствия, но и сущность [br]или характер действия 0:26:30.990,0:26:34.959 имеют моральное значение. 0:26:34.959,0:26:40.470 Некоторые люди утверждали, что есть определённые вещи, [br]которые просто категорически неправильны, 0:26:40.470,0:26:42.449 даже если за ними последует 0:26:42.449,0:26:44.180 положительный результат. 0:26:44.180,0:26:45.490 Даже 0:26:45.490,0:26:47.200 если они приведут к спасению жизни пяти людей 0:26:47.200,0:26:49.588 ценой одной жизни. 0:26:49.588,0:26:52.500 Таким образом, мы сравнили консеквенциальные 0:26:52.500,0:26:54.450 моральные принципы 0:26:54.450,0:26:57.830 и категорические. 0:26:57.830,0:26:59.790 Cегодня 0:26:59.789,0:27:00.819 и в ближайшие несколько дней 0:27:00.819,0:27:05.879 мы начнём рассматривать одну [br]из самых влиятельных 0:27:05.879,0:27:08.409 версий консеквенциальной [br] 0:27:08.409,0:27:10.970 моральной теории 0:27:10.970,0:27:15.669 - философию утилитаризма. 0:27:15.669,0:27:17.330 Джереми Бентам[br] 0:27:17.330,0:27:21.730 - английский политический философ 18-ого века 0:27:21.730,0:27:22.910 дал первое 0:27:22.910,0:27:26.300 чёткое систематическое определение 0:27:26.300,0:27:28.330 утилитаристской 0:27:28.330,0:27:31.800 моральной теории. 0:27:31.800,0:27:36.260 Идея Бентама, 0:27:36.260,0:27:38.300 его основная мысль, 0:27:38.300,0:27:42.610 очень проста[br] 0:27:42.610,0:27:44.808 и несёт 0:27:44.808,0:27:46.929 интуитивно понятный 0:27:46.929,0:27:48.429 посыл. 0:27:48.430,0:27:50.450 Она заключается 0:27:50.450,0:27:51.590 в следующем: 0:27:51.589,0:27:54.439 правильное действие, 0:27:54.440,0:27:57.619 справедливое действие 0:27:57.619,0:27:58.319 должно 0:27:58.319,0:28:01.169 максимизировать 0:28:01.169,0:28:02.339 полезность. 0:28:02.339,0:28:06.329 Что он имел в виду под словом «полезность»? 0:28:06.329,0:28:11.490 Под «полезностью» он имел в виду преобладание 0:28:11.490,0:28:14.000 удовольствия над болью, 0:28:14.000,0:28:16.778 счастья над страданием. 0:28:16.778,0:28:18.210 И вот как он достиг 0:28:18.210,0:28:19.259 принципа 0:28:19.259,0:28:22.308 максимизации полезности. 0:28:22.308,0:28:24.450 Он начал с наблюдения, заметив, 0:28:24.450,0:28:26.399 что все мы, 0:28:26.398,0:28:27.750 все люди 0:28:27.750,0:28:31.430 управляемы двумя полновластными "повелителями" - 0:28:31.430,0:28:34.620 болью и удовольствием. 0:28:34.619,0:28:36.890 Нам, людям, 0:28:36.890,0:28:42.308 нравится удовольствие и не нравится боль. 0:28:42.308,0:28:45.839 И поэтому мы всегда должны основывать [br]наши моральные суждения, 0:28:45.839,0:28:49.169 будь то мысли человека о том, какими должны [br]быть его поступки в частной жизни, 0:28:49.170,0:28:50.490 или 0:28:50.490,0:28:52.579 его мысли как законодателя или гражданина 0:28:52.579,0:28:57.029 о том, каким должен быть закон, на следующем: 0:28:57.029,0:29:01.919 нужно действовать, индивидуально или же коллективно, 0:29:01.919,0:29:05.838 в направлении максимизации 0:29:05.838,0:29:07.560 общего уровня 0:29:07.560,0:29:11.259 счастья. 0:29:11.259,0:29:15.320 Утилитаризм Бентама иногда выражается слоганом:[br] 0:29:15.320,0:29:18.799 "наибольшее благо для наибольшего количества". 0:29:18.799,0:29:20.088 Вооружившись этим 0:29:20.088,0:29:22.780 базовым принципом полезности, 0:29:22.780,0:29:26.410 давайте проверим его, [br] 0:29:26.410,0:29:28.099 применив к другому случаю. 0:29:28.099,0:29:30.620 На этот раз история 0:29:30.619,0:29:32.639 не гипотетическая, 0:29:32.640,0:29:33.999 а вполне реальная. 0:29:33.999,0:29:38.139 Дело Дадли и Стивенса. 0:29:38.139,0:29:41.690 Это знаменитое британское судебное дело 19-ого века, 0:29:41.690,0:29:43.599 которое 0:29:43.599,0:29:47.068 часто разбирается на юридических факультетах. 0:29:47.068,0:29:50.059 Итак, что же произошло в этом деле? 0:29:50.059,0:29:51.569 Я вкратце изложу его суть, 0:29:51.569,0:29:54.360 и затем я хотел бы услышать, 0:29:54.360,0:29:56.930 как бы вы разрешили его, 0:29:56.930,0:29:59.950 если бы оказались на месте присяжных. 0:30:03.419,0:30:05.799 В газетном отчёте того времени 0:30:05.799,0:30:08.799 оно было описано так: 0:30:08.799,0:30:11.240 «Нет истории печальнее на свете, 0:30:11.240,0:30:12.569 чем история 0:30:12.569,0:30:14.788 выживших с яхты 0:30:14.788,0:30:16.240 «Mignonette» («Резеда») 0:30:16.240,0:30:18.569 Это судно затонуло в Южной Атлантике 0:30:18.569,0:30:21.599 в трёхстах милях от Мыса Доброй Надежды. 0:30:21.599,0:30:23.580 На борту было четыре человека: 0:30:23.580,0:30:25.920 капитан Дадли, 0:30:25.920,0:30:27.660 его главный помощник Стивенс 0:30:27.660,0:30:30.020 и матрос Брукс. 0:30:30.020,0:30:31.279 Все они были «людьми 0:30:31.279,0:30:32.490 с безукоризненной репутацией». 0:30:32.490,0:30:34.169 По крайней мере, так говорит нам об этом 0:30:34.169,0:30:35.719 газетный отчёт. 0:30:35.719,0:30:38.370 Четвёртым членом команды был 0:30:38.370,0:30:39.749 Ричард Паркер 0:30:39.749,0:30:42.719 - семнадцатилетний юнга. 0:30:42.719,0:30:44.530 Он был сиротой, 0:30:44.530,0:30:46.810 у него не было семьи, 0:30:46.810,0:30:51.290 и это было его первое дальнее плавание.[br] 0:30:51.290,0:30:53.700 Как говорит нам газетный отчёт, [br]он отправился в путешествие, 0:30:53.700,0:30:56.730 не послушавшись совета своих друзей. 0:30:56.730,0:30:59.850 Полный надежд и юношеских амбиций, 0:30:59.850,0:31:03.000 он думал, что путешествие сделает из него мужчину. 0:31:03.000,0:31:05.140 К сожалению, этому не суждено было произойти. 0:31:05.140,0:31:07.499 Факты дела не были предметом спора.[br] 0:31:07.499,0:31:08.970 В судно ударила волна, 0:31:08.970,0:31:12.000 и «Mignonette» («Резеда») пошла ко дну. 0:31:12.000,0:31:14.709 Экипаж сумел сесть в спасательную шлюпку. 0:31:14.709,0:31:18.139 Единственной едой, которую они имели 0:31:18.139,0:31:19.239 были две 0:31:19.239,0:31:21.600 банки консервированной репы. 0:31:21.600,0:31:23.900 Никакой питьевой воды.[br] 0:31:23.900,0:31:26.610 Первые три дня они ничего не ели, 0:31:26.609,0:31:30.280 на четвёртый день они открыли [br]одну из консервных банок 0:31:30.280,0:31:31.620 и съели её содержимое. 0:31:31.620,0:31:34.150 На следующий день они поймали черепаху. 0:31:34.150,0:31:36.920 Оставшаяся банка с репой[br] 0:31:36.920,0:31:38.279 и черепаха 0:31:38.279,0:31:40.018 помогли им продержаться 0:31:40.018,0:31:43.009 ещё несколько дней, но затем [br]в течение восьми дней 0:31:43.009,0:31:44.038 у них уже не было ничего, 0:31:44.038,0:31:46.749 ни еды, ни воды. 0:31:46.749,0:31:49.929 Представьте себя в такой ситуации. 0:31:49.929,0:31:52.699 Что бы вы сделали? 0:31:52.699,0:31:55.049 Вот что сделали они. 0:31:55.049,0:32:00.740 К этому моменту юнга Паркер [br]лежал в углу на дне шлюпки, 0:32:00.740,0:32:02.920 потому что напился морской воды, 0:32:02.920,0:32:05.490 не послушав остальных. 0:32:05.490,0:32:07.230 Ему сделалось дурно, 0:32:07.230,0:32:10.669 и было понятно, что он умирает. 0:32:10.669,0:32:14.619 На девятнадцатый день [br]капитан Дадли предложил 0:32:14.618,0:32:18.749 всем бросить жребий 0:32:18.749,0:32:20.859 и определить, кому суждено умереть, 0:32:20.859,0:32:24.079 чтобы спасти остальных. 0:32:24.079,0:32:25.210 Брукс 0:32:25.210,0:32:26.539 отказался, 0:32:26.539,0:32:29.139 ему не понравилась идея со жребием. 0:32:29.140,0:32:30.619 Мы не знаем, было ли это 0:32:30.618,0:32:36.859 вызвано тем, что он не хотел рисковать, или же тем,[br]что он верил в категорические моральные принципы, 0:32:36.859,0:32:38.619 но в любом случае 0:32:38.619,0:32:42.129 жребий так и не был брошен. 0:32:42.130,0:32:43.230 На следующий день 0:32:43.230,0:32:45.028 спасательного корабля на горизонте [br]по-прежнему не было, 0:32:45.028,0:32:48.250 и Дадли попросил Брукса отвернуться, 0:32:48.250,0:32:50.720 жестом показав Стивенсу, 0:32:50.720,0:32:53.929 что мальчишку Паркера нужно убить. 0:32:53.929,0:32:55.850 Дадли помолился, 0:32:55.849,0:32:58.480 сказал мальчику, что его время пришло, 0:32:58.480,0:33:00.679 и зарезал его перочинным ножом, 0:33:00.679,0:33:03.900 поразив яремную вену. 0:33:03.900,0:33:09.750 Брукс, отрекшийся от соображений совести,[br]тоже воспользовался этим жутким «подарком».[br] 0:33:09.750,0:33:11.029 Четыре дня 0:33:11.029,0:33:15.230 они втроём питались [br]телом и кровью юнги. 0:33:15.230,0:33:17.220 Реальная история. 0:33:17.220,0:33:19.390 А затем их спасли. 0:33:19.390,0:33:22.840 Дадли описал это спасение 0:33:22.839,0:33:24.678 в своём дневнике 0:33:24.679,0:33:27.570 поразительным эвфемизмом. Цитата: 0:33:27.569,0:33:29.648 «На двадцать четвёртый день 0:33:29.648,0:33:34.750 когда мы завтракали, 0:33:34.750,0:33:38.599 наконец-то показался корабль». 0:33:38.599,0:33:44.309 Трое выживших были подобраны немецким кораблём [br]и их отправили назад в Фэлмут, в Англию, 0:33:44.309,0:33:47.079 где они были арестованы и подвергнуты суду. 0:33:47.079,0:33:47.829 Брукс 0:33:47.829,0:33:49.949 был свидетелем обвинения, 0:33:49.950,0:33:54.450 а Дадли и Стивенс были обвиняемыми.[br]Они не оспаривали факты 0:33:54.450,0:33:55.390 и утверждали, 0:33:55.390,0:33:58.140 что действовали в состоянии [br]крайней необходимости. 0:33:58.140,0:33:59.430 Это была их линия защиты. 0:33:59.430,0:34:01.220 Они настаивали на том, что 0:34:01.220,0:34:03.250 смерть одного человека [br]более предпочтительна, 0:34:03.250,0:34:06.420 чем смерть троих. 0:34:06.420,0:34:08.619 Обвинителя 0:34:08.619,0:34:10.849 не убедил такой аргумент. 0:34:10.849,0:34:12.509 Он сказал: «Убийство есть убийство». 0:34:12.509,0:34:16.429 Дело передали в суд. Теперь [br]представьте, что вы присяжные. 0:34:16.429,0:34:19.489 Чтобы упростить обсуждение, 0:34:19.489,0:34:21.989 оставим в стороне вопрос права 0:34:21.989,0:34:23.010 и представим, что 0:34:23.010,0:34:25.879 как присяжные 0:34:25.878,0:34:28.278 вы должны решить, 0:34:28.278,0:34:31.009 было ли то, что они сделали, 0:34:31.009,0:34:34.378 морально допустимым или нет. 0:34:34.378,0:34:36.608 Кто из вас 0:34:36.608,0:34:39.808 проголосовал бы 0:34:39.809,0:34:46.809 за то, что они невиновны и что совершённое [br]ими было морально допустимо? 0:34:49.528,0:34:51.639 А кто проголосовал бы за то, что они виновны[br] 0:34:51.639,0:34:54.858 и что совершённое ими было морально недопустимо? 0:34:54.858,0:34:57.998 Значительное большинство. 0:34:57.998,0:35:03.808 Давайте послушаем ваши соображения, и позвольте [br]мне начать с тех, кто оказался в меньшинстве. 0:35:03.809,0:35:07.739 Давайте сперва предоставим слово защите [br] 0:35:07.739,0:35:10.099 Дадли и Стивенса. 0:35:10.099,0:35:14.160 Почему вы оправдали бы их [br]с моральной точки зрения? 0:35:14.159,0:35:17.989 Чем вы руководствуетесь? 0:35:17.989,0:35:20.798 Да, я считаю это предосудительным [br]с моральной точки зрения, 0:35:20.798,0:35:24.349 но существует различие между тем, [br]что нравственно предосудительно, 0:35:24.349,0:35:26.609 и тем, что влечёт юридическую ответственность. 0:35:26.608,0:35:30.690 Или, как мог бы сказать судья, то, что аморально, [br]совсем не обязательно противозаконно. 0:35:30.690,0:35:34.789 И хотя я не считаю, что необходимость чего-либо 0:35:34.789,0:35:36.169 является достаточным основанием 0:35:36.168,0:35:38.578 для кражи, убийства, или другого [br]противозаконного действия, 0:35:38.579,0:35:43.509 степень необходимости [br]в той или иной мере может 0:35:43.509,0:35:45.849 оправдывать его. 0:35:45.849,0:35:50.588 Кто ещё поддерживает эту [br]точку зрения и согласен 0:35:50.588,0:35:53.038 с моральными обоснованиями 0:35:53.039,0:35:56.989 их действий? [br]Пожалуйста. 0:35:56.989,0:35:57.619 Спасибо. 0:35:57.619,0:35:58.798 [br] 0:35:58.798,0:35:59.570 Я думаю, 0:35:59.570,0:36:03.139 в такой отчаянной ситуации вы должны [br]сделать всё, что можно, чтобы выжить. 0:36:03.139,0:36:04.679 Вы должны сделать всё, что можно? 0:36:04.679,0:36:06.789 Да, вы должны сделать всё, что можно. 0:36:06.789,0:36:07.849 Если вы 19 дней ничего не ели, 0:36:07.849,0:36:09.899 кто-то из вас 0:36:09.898,0:36:14.710 должен пожертвовать собой [br]ради спасения остальных. 0:36:14.710,0:36:16.139 Более того, 0:36:16.139,0:36:21.299 представим, что по возвращении домой, спасшиеся [br]начинают делать что-то полезное для общества: 0:36:21.300,0:36:26.230 создают миллионы благотворительных организаций [br]и другие подобные вещи. То есть, в итоге всем хорошо. 0:36:26.230,0:36:28.519 Я не знаю, что они сделали после этого случая, [br]но они вполне могли бы продолжать 0:36:28.519,0:36:30.478 убивать людей 0:36:30.478,0:36:32.889 независимо от... 0:36:32.889,0:36:35.708 Что? А что если они вернулись [br]домой и превратились в убийц? 0:36:35.708,0:36:38.908 Что если они вернулись домой [br]и превратились в убийц? 0:36:38.909,0:36:42.878 Вы бы хотели знать, кого они убили. 0:36:42.878,0:36:45.848 Да, верно. 0:36:45.849,0:36:49.609 Я хотел бы знать это. 0:36:49.608,0:36:50.708 - Хорошо, как ваше имя? [br]- Маркус. 0:36:50.708,0:36:52.489 Мы услышали сторону защиты, 0:36:52.489,0:36:54.050 пару голосов в оправдание. 0:36:54.050,0:36:55.660 Теперь послушаем 0:36:55.659,0:36:57.298 сторону обвинения. 0:36:57.298,0:36:59.338 Большинство людей думает, 0:36:59.338,0:37:05.068 что они не правы. Почему? 0:37:05.068,0:37:09.898 Когда я услышала эту историю, то подумала: [br]"Так, если они голодали очень долго, 0:37:09.898,0:37:11.409 то, может быть, 0:37:11.409,0:37:12.469 в этом случае 0:37:12.469,0:37:15.139 они не были в здравом рассудке". 0:37:15.139,0:37:16.408 И это могло послужить оправданием, 0:37:16.409,0:37:20.619 в качестве возможного аргумента: 0:37:20.619,0:37:24.179 они были не в своём уме 0:37:24.179,0:37:28.519 и приняли решение, которое не приняли бы [br]в другой ситуации. Думаю, это их оправдывает. 0:37:28.518,0:37:33.608 Трезво мыслящий человек так никогда [br]не поступит. Мне кажется, что есть люди, 0:37:33.608,0:37:36.108 которые находят данный аргумент приемлемым. 0:37:36.108,0:37:40.088 - Вы думаете, что они поступили аморально. [br]- Но я хочу знать, 0:37:40.088,0:37:41.248 - ...что думаете вы. Вы голосовали за то, что они виновны, верно? [br]- Да, я не считаю, что они действовали 0:37:45.548,0:37:49.449 - ...в рамках морали. [br]- Почему нет? Вы же слышали, как Маркус 0:37:49.449,0:37:51.088 защищал их. 0:37:51.088,0:37:52.909 Он сказал... 0:37:52.909,0:37:53.880 Вы слышали, что он сказал. 0:37:53.880,0:37:55.249 Да, 0:37:55.248,0:37:56.558 я слышала. 0:37:56.559,0:38:00.119 Что вы должны поступать так, [br]как того требует данная ситуация. 0:38:00.119,0:38:04.789 Что вы ответите Маркусу? 0:38:04.789,0:38:06.439 Я бы сказала, что 0:38:06.438,0:38:13.438 нет такой ситуации, [br]в которой можно было бы 0:38:13.579,0:38:17.959 лишить человека права управлять своей [br]судьбой или лишить человека жизни. 0:38:17.958,0:38:19.328 У нас нет такого права. 0:38:19.329,0:38:21.399 Хорошо, спасибо. 0:38:21.398,0:38:24.130 - Как вас зовут? [br]- Бритт. 0:38:24.130,0:38:24.548 Бритт? Хорошо. 0:38:24.548,0:38:26.028 Кто-нибудь ещё? 0:38:26.028,0:38:28.159 Как вас зовут? [br]Встаньте, пожалуйста. 0:38:28.159,0:38:35.159 Мне вот что интересно. Если бы Дадли и Стивенс [br]спросили Ричарда Паркера, согласен ли он умереть, 0:38:35.429,0:38:37.568 то могло бы 0:38:37.568,0:38:41.228 это оправдать 0:38:41.228,0:38:45.448 совершённое убийство, и если да, то было бы [br]ли это оправданно с точки зрения морали? 0:38:45.449,0:38:51.720 - Это любопытно. Согласие. Подождите, как вас зовут? [br]- Кэтлин. 0:38:51.719,0:38:56.088 Кэтлин предлагает представить, [br]как бы могла выглядеть эта сцена 0:38:56.088,0:38:56.619 в таком случае. 0:38:56.619,0:39:00.410 Итак, представьте. Дадли с ножом в руке, 0:39:00.409,0:39:02.608 но вместо молитвы 0:39:02.608,0:39:04.588 или перед молитвой, 0:39:04.588,0:39:07.599 он спрашивает: "Паркер, 0:39:07.599,0:39:11.519 ты не возражаешь? 0:39:11.518,0:39:14.348 Мы тут безумно проголодались..." 0:39:14.349,0:39:17.679 Смотрите, как Маркус сопереживает им. 0:39:17.679,0:39:19.769 "Мы безумно проголодались, 0:39:19.768,0:39:22.168 а тебе, в любом случае, недолго осталось. 0:39:22.168,0:39:23.498 Ты можешь стать мучеником. 0:39:23.498,0:39:25.748 Не хочешь стать мучеником? 0:39:25.748,0:39:29.468 Что скажешь, Паркер?" 0:39:29.469,0:39:33.220 В этом случае 0:39:33.219,0:39:37.639 можете ли вы оправдать это [br]с точки зрения морали? 0:39:37.639,0:39:38.219 Допустим, Паркер 0:39:38.219,0:39:40.168 в оцепенении 0:39:40.168,0:39:42.498 говорит: "Ну ладно, я согласен". 0:39:42.498,0:39:47.889 - Я не считаю, что это морально оправдывает убийство, [br]но мне просто интересно... - Даже в этом случае? - Нет. 0:39:47.889,0:39:50.650 Вы не считаете, что даже с согласия 0:39:50.650,0:39:52.490 это может быть морально оправдано. 0:39:52.489,0:39:54.568 Есть тут люди, 0:39:54.568,0:39:56.369 готовые подхватить идею Кэтлин 0:39:56.369,0:39:57.200 о согласии? 0:39:57.199,0:40:01.688 И кто считает, что в таком случае их действия были бы [br]морально оправданны? Поднимите руку, 0:40:01.688,0:40:05.868 если вы с этим согласны. 0:40:05.869,0:40:07.588 Вот это интересно. 0:40:07.588,0:40:09.168 Почему же наличие согласия[br] 0:40:09.168,0:40:15.888 создало такую разницу? С чего бы это? 0:40:15.889,0:40:18.509 Я думаю, что если бы Паркер [br]сам принимал решение, 0:40:18.509,0:40:20.969 если бы это было его собственной идеей, 0:40:20.969,0:40:23.778 то только в такой ситуации это было бы допустимо. 0:40:23.778,0:40:25.940 Потому что в такой ситуации вы не можете сказать, 0:40:28.358,0:40:30.579 что на него было оказано давление, 0:40:30.579,0:40:32.759 - ...что их было трое против одного. [br]- Хорошо. 0:40:32.759,0:40:34.070 Мне кажется, [br] 0:40:34.070,0:40:38.009 если, принимая такое решение, он делает [br]это по собственной воле. 0:40:38.009,0:40:42.668 Конечно, одним людям это покажется [br]поступком, достойным восхищения, 0:40:42.668,0:40:45.449 а другим - нет. 0:40:45.449,0:40:49.099 Итак, если он сам предложил эту идею, 0:40:49.099,0:40:52.820 то это будет единственным вариантом [br]согласия, который бы нас устроил 0:40:52.820,0:40:55.359 с точки зрения морали. [br]Тогда это было бы допустимо. 0:40:55.358,0:40:57.268 В ином случае 0:40:57.268,0:40:59.788 это будет, cкажем так, согласие под принуждением, 0:40:59.789,0:41:01.469 согласие под воздействием обстоятельств. 0:41:01.469,0:41:05.278 Так вы считаете. 0:41:05.278,0:41:07.349 Кто-нибудь из вас считает, 0:41:07.349,0:41:10.979 что даже согласие Паркера 0:41:10.978,0:41:13.419 не оправдывает 0:41:13.420,0:41:15.479 его убийство? 0:41:15.478,0:41:18.088 Кто так думает? 0:41:18.088,0:41:19.538 Да, расскажите нам почему вы так думаете. [br]Встаньте, пожалуйста. 0:41:19.539,0:41:21.260 Я думаю, что Паркер 0:41:21.260,0:41:22.319 был убит 0:41:22.318,0:41:26.558 в надежде, что все остальные члены [br]экипажа впоследствии будут спасены. 0:41:26.559,0:41:29.250 Но для его убийства нет объективных причин, 0:41:29.250,0:41:31.199 потому что вы даже не знаете, 0:41:31.199,0:41:35.809 спасут вас вообще или нет, так что его убийство [br]может быть совершенно напрасным. 0:41:35.809,0:41:38.039 Вы так и будете убивать одного члена команды за другим, [br]пока вы не останетесь совсем один или вас не спасут? 0:41:38.039,0:41:40.309 Просто по той причине, что кто-то всё равно должен умереть? 0:41:40.309,0:41:44.199 С позиций морали, смысл ситуации в том, 0:41:44.199,0:41:45.829 что они 0:41:45.829,0:41:50.318 жертвуют слабейшими один за другим, 0:41:50.318,0:41:51.818 пока не будут спасены. 0:41:51.818,0:41:57.679 И в этом случае, по счастливой случайности, [br]по крайней мере, три человека остались в живых. 0:41:57.679,0:41:58.880 Но если бы 0:41:58.880,0:42:01.298 Паркер согласился, 0:42:01.298,0:42:04.068 как вы думаете, это было бы правильным? 0:42:04.068,0:42:06.329 Нет, я по-прежнему не считаю это правильным. 0:42:06.329,0:42:08.030 Обоснуйте почему. 0:42:08.030,0:42:10.028 Во-первых, я считаю, что каннибализм 0:42:10.028,0:42:13.228 в принципе аморален. 0:42:13.228,0:42:14.509 Вы не должны есть людей ни в каком случае.[br] 0:42:14.510,0:42:17.449 Итак, 0:42:17.449,0:42:19.380 каннибализм неприемлем 0:42:19.380,0:42:22.400 даже в том случае, 0:42:22.400,0:42:24.568 когда мы знаем, что человек точно умрёт? 0:42:24.568,0:42:27.018 Даже в этом случае? 0:42:27.018,0:42:27.929 Да, лично для меня. 0:42:27.929,0:42:29.739 Мне кажется, 0:42:29.739,0:42:31.199 что всё это зависит 0:42:31.199,0:42:35.288 от личных моральных принципов [br]человека. Это только мое мнение. 0:42:35.289,0:42:39.339 Конечно, не все с этим согласятся. 0:42:39.338,0:42:41.498 Хорошо. Давайте послушаем аргументы "против", 0:42:41.498,0:42:42.639 а затем посмотрим, 0:42:42.639,0:42:44.259 смогут ли они 0:42:44.259,0:42:46.228 переубедить вас или нет? 0:42:46.228,0:42:48.358 Давайте попробуем. 0:42:48.358,0:42:50.098 Итак, 0:42:50.099,0:42:53.249 есть ли здесь кто-нибудь, 0:42:53.248,0:42:57.908 кому импонирует идея согласия [br]и кто мог бы объяснить. 0:42:57.909,0:42:59.778 Можете ли вы объяснить, 0:42:59.778,0:43:02.028 почему согласие 0:43:02.028,0:43:03.358 всё так кардинально меняет? 0:43:03.358,0:43:05.650 А как насчёт идеи с жребием? 0:43:05.650,0:43:08.930 Может ли это считаться своего рода согласием? [br]Помните, в начале истории 0:43:08.929,0:43:11.308 Дадли предложил тянуть жребий. 0:43:11.309,0:43:13.839 Предположим, что они согласились 0:43:13.838,0:43:16.338 тянуть жребий. 0:43:16.338,0:43:17.369 Теперь 0:43:17.369,0:43:20.798 кто из вас за то, 0:43:20.798,0:43:23.929 что это было бы правильно? [br]Предположим, они тянули жребий, 0:43:23.929,0:43:25.380 и юнга проиграл. 0:43:25.380,0:43:32.380 Далее происходит история, которую мы уже знаем. [br]Было бы тогда это правильным? Кто так считает? 0:43:33.199,0:43:37.030 Итак, если мы предположим, что они тянули жребий. [br]число тех, кто так считает, возрастает. Давайте послушаем кого-нибудь из тех, 0:43:37.030,0:43:41.609 для кого с моральной точки зрения [br]принципиален жребий. 0:43:41.608,0:43:43.458 Почему вы так считаете? 0:43:43.458,0:43:44.739 Я думаю, что это принципиальный 0:43:44.739,0:43:45.718 момент. 0:43:45.719,0:43:47.858 На мой взгляд, преступлением [br]этот поступок делает то, 0:43:47.858,0:43:53.848 что Дадли и Стивенс в какой-то момент решили, [br]что их жизни важнее, чем жизнь юнги. 0:43:53.849,0:43:56.609 Я имею в виду, что подобная мысль является [br]предпосылкой любого преступления, 0:43:56.608,0:43:57.688 разве нет? Это равнозначно признанию того, 0:43:57.688,0:44:01.949 что мои потребности, мои желания является более [br]важными, более предпочтительными, чем ваши. 0:44:01.949,0:44:04.798 А если бы они тянули жребий, согласившись с тем, 0:44:04.798,0:44:06.478 что кто-то из них должен умереть 0:44:06.478,0:44:09.239 и пожертвовать таким образом собой, 0:44:09.239,0:44:11.008 чтобы спасти остальных. 0:44:11.009,0:44:12.949 Тогда всё будет в порядке? 0:44:12.949,0:44:15.880 Немного абсурдно, но, 0:44:15.880,0:44:18.959 - Но допустимо с точки зрения морали? [br]- Да. 0:44:18.958,0:44:22.688 - Как вас зовут? [br]- Мэтт. 0:44:22.688,0:44:25.578 Что ж, Мэтт, вас 0:44:25.579,0:44:27.329 смущает не сам факт 0:44:27.329,0:44:31.389 каннибализма, а отсутствие должной процедуры? 0:44:31.389,0:44:34.689 Я думаю, да. 0:44:34.688,0:44:38.170 Может ли кто-нибудь их тех, кто согласен с Мэттом,[br] 0:44:38.170,0:44:40.499 что-нибудь добавить к сказанному 0:44:40.498,0:44:41.378 о том, почему 0:44:41.378,0:44:43.690 жребий 0:44:43.690,0:44:47.099 сделает это поступок 0:44:47.099,0:44:50.979 допустимым с точки зрения морали? 0:44:50.978,0:44:55.568 Мне кажется, что основная проблема [br]заключается именно в том, что юнгу 0:44:55.568,0:44:56.398 даже не спрашивали, 0:44:56.398,0:45:00.478 когда решали его судьбу. Даже[br]в ситуации с несостоявшимся 0:45:00.478,0:45:01.088 жребием. 0:45:01.088,0:45:04.420 Будет или не будет он в ней участвовать, им показалось [br]неважным. Было просто принято решение о том, 0:45:04.420,0:45:08.170 что именно мальчик должен умереть. [br]- Да, так и произошло на самом деле. 0:45:08.170,0:45:11.900 Но если бы все они тянули жребий, и все [br]были бы согласны с этой процедурой, 0:45:11.900,0:45:13.539 считаете ли вы, что это было бы правильным?[br] 0:45:13.539,0:45:16.418 Да, потому что тогда все бы [br]знали, что кто-то из них умрёт, 0:45:16.418,0:45:17.079 в то время как 0:45:17.079,0:45:18.878 в реальной ситуации юнга не знал, 0:45:18.878,0:45:21.038 что Дадли и Стивенс решают его судьбу. 0:45:21.039,0:45:21.919 Ему никто 0:45:21.918,0:45:23.578 не сказал, 0:45:23.579,0:45:28.829 - что он может умереть. [br]- Хорошо, предположим, что все согласились тянуть жребий. 0:45:28.829,0:45:35.089 Все бросили жребий. Но представьте себе, [br]что юнга проиграл и передумал. 0:45:35.088,0:45:40.989 Вы уже всё решили. Это своего рода устное соглашение, вы [br]не можете взять свои слова обратно. Решение было принято. 0:45:40.989,0:45:45.139 Вы понимаете, что умираете ради того, чтобы спасти других. 0:45:45.139,0:45:45.999 0:45:45.998,0:45:47.688 Вы осознаёте, что если бы кому-то [br]другому выпадет жребий умереть, 0:45:47.688,0:45:51.969 то его также съедят, так что… 0:45:51.969,0:45:57.429 Хорошо, но потом он мог бы сказать: [br]«Знаю, но я проиграл». 0:45:57.429,0:46:01.939 Я считаю, что основная нравственная проблема [br]в том, что юнгу никто не спрашивал. 0:46:01.938,0:46:04.298 Самым ужасным является то, 0:46:04.298,0:46:08.909 что он даже не представлял, что происходит. [br]Если бы он осознавал это, 0:46:08.909,0:46:10.599 то результат был бы 0:46:10.599,0:46:13.109 немного более справедливым. 0:46:13.108,0:46:14.509 Хорошо. Теперь, мне интересно узнать вот что. 0:46:14.510,0:46:17.049 Некоторые из вас считают, 0:46:17.048,0:46:18.708 что это морально допустимо,[br] 0:46:18.708,0:46:24.048 но вас всего около 20 процентов. 0:46:24.048,0:46:26.559 Во главе с Маркусом. 0:46:26.559,0:46:28.439 Другие же считают, 0:46:28.438,0:46:30.208 что основная проблема заключается 0:46:30.208,0:46:32.838 в отсутствии согласия,[br] 0:46:32.838,0:46:37.139 будь то отсутствие согласия [br]тянуть справедливый жребий 0:46:37.139,0:46:38.588 или же, 0:46:38.588,0:46:39.690 как считает Кэтлин, 0:46:39.690,0:46:40.749 отсутствие согласия 0:46:40.748,0:46:42.928 в момент 0:46:42.929,0:46:45.139 смерти.[br] 0:46:45.139,0:46:48.318 Если мы предположим наличие согласия, то 0:46:48.318,0:46:49.019 0:46:49.019,0:46:51.889 уже больше людей будут готовы признать, 0:46:51.889,0:46:54.528 что эта жертва морально оправдана.[br] 0:46:54.528,0:46:56.639 Теперь я хочу выслушать 0:46:56.639,0:46:58.548 тех, кто считает, 0:46:58.548,0:47:00.199 что даже при наличии согласия, 0:47:00.199,0:47:01.898 даже при условии организации жребия, 0:47:01.898,0:47:02.519 даже 0:47:02.519,0:47:04.579 если бы в самый последний 0:47:04.579,0:47:06.950 момент 0:47:06.949,0:47:08.018 Паркер 0:47:08.018,0:47:09.179 вяло согласился, 0:47:09.179,0:47:10.838 это всё равно 0:47:10.838,0:47:12.639 было бы неправильно. 0:47:12.639,0:47:14.248 И я хочу услышать, 0:47:14.248,0:47:16.998 почему это было бы неправильно. 0:47:16.998,0:47:18.818 Всё это время 0:47:18.818,0:47:22.639 я склонялась к категорической аргументации. 0:47:22.639,0:47:25.568 Возможно,[br] 0:47:25.568,0:47:29.608 я готова принять вариант со жребием, 0:47:29.608,0:47:31.440 при котором проигравший [br]в нём собственноручно 0:47:31.440,0:47:32.749 убивает себя. 0:47:32.748,0:47:33.679 0:47:33.679,0:47:37.358 Тогда убийства как такового не будет, [br]но я по-прежнему считаю, 0:47:37.358,0:47:42.278 что даже в таком случае будет принуждение. Я также [br]не думаю, что в этом деле имело место раскаяние, 0:47:42.278,0:47:43.338 ведь вспомните, как это описано в дневнике Дадли: 0:47:43.338,0:47:44.909 "…когда мы завтракали". 0:47:44.909,0:47:47.659 Это выглядит так, как будто он 0:47:47.659,0:47:51.440 не видит ценности в жизни других.[br] 0:47:51.440,0:47:53.639 Это заставляет меня 0:47:53.639,0:47:57.969 принять категорическую аргументацию. [br]- Вы хотите наказать Дадли по полной программе,[br] 0:47:57.969,0:48:02.298 если он не раскаивается или не чувствует, что поступил неправильно?[br]- Да.[br] 0:48:02.298,0:48:06.969 Хорошо. Есть ещё те, 0:48:06.969,0:48:08.769 0:48:08.768,0:48:13.268 кто считает, что это категорически неправильно, [br]с согласием или без него. Да, пожалуйста. Почему? 0:48:13.268,0:48:17.288 Я считаю, что в понятиях нашего общества [br]убийство есть убийство. 0:48:17.289,0:48:21.829 Убийство есть убийство, и в любом случае [br]наше общество негативно к этому относится. 0:48:21.829,0:48:24.780 - Я не считаю, что это зависит от обстоятельств. [br]- Хорошо. Позвольте мне задать вам вопрос. 0:48:24.780,0:48:27.119 На кону было три жизни 0:48:27.119,0:48:30.489 против одной. 0:48:30.489,0:48:33.028 У юнги не было ни семьи, 0:48:33.028,0:48:34.509 ни тех, о ком нужно было заботиться. 0:48:34.509,0:48:38.739 У трёх других человек дома остались [br]семьи, у них были иждивенцы: 0:48:38.739,0:48:41.418 жёны и дети. 0:48:41.418,0:48:43.328 Вспомните Бентама. 0:48:43.329,0:48:44.989 Бентам считал, что мы должны учитывать 0:48:44.989,0:48:48.048 благосостояние, полезность и счастье 0:48:48.048,0:48:51.288 для всех. Мы должны сложить всё вместе, 0:48:51.289,0:48:54.640 поэтому это не просто цифра [br]«три» против цифры «один», 0:48:54.639,0:48:58.759 а ещё и все эти люди, [br]ждущие моряков дома. 0:48:58.759,0:49:00.909 Надо сказать, что во время [br]разбирательства пресса 0:49:00.909,0:49:04.248 и общественное мнение сочувствовали 0:49:04.248,0:49:05.478 Дадли и Стивенсу. 0:49:05.478,0:49:07.919 В газете писали, что если бы ими 0:49:07.920,0:49:08.280 не двигали 0:49:08.280,0:49:09.640 привязанность к своим близким, оставшимся дома, 0:49:09.639,0:49:13.489 и беспокойство об их судьбе, они бы, несомненно, 0:49:13.489,0:49:15.969 - не совершили этот страшный поступок. [br]- Хорошо, но в таком случае как они отличаются от людей, 0:49:15.969,0:49:17.369 которые просят милостыню 0:49:17.369,0:49:21.108 и которые также хотят прокормить свою семью? Я не думаю, [br]что есть большая разница. Я считаю, что в любом случае 0:49:21.108,0:49:25.279 если я убиваю кого-то, чтобы улучшить свое положение, это не перестаёт [br]быть убийством. Я думаю, что мы должны рассматривать всё это 0:49:25.280,0:49:28.430 с такой точки зрения. Мы считаем преступлениями только [br] 0:49:28.429,0:49:30.278 определённые поступки. 0:49:30.278,0:49:33.760 При этом некоторые из них кажутся [br]нам более жестокими и дикими, 0:49:33.760,0:49:36.760 хотя в их основе всегда лежит один и тот же стимул - 0:49:36.760,0:49:40.150 необходимость прокормить свои семьи. 0:49:40.150,0:49:43.028 Предположим, что людей в исходной [br]ситуации было бы не трое, а тридцать 0:49:43.028,0:49:44.608 или триста. 0:49:44.608,0:49:47.358 Пожертвовать одной жизнью, [br]чтобы спасти триста 0:49:47.358,0:49:48.349 или больше,[br] 0:49:48.349,0:49:49.589 три тысячи. 0:49:49.590,0:49:51.039 Или, предположим, что ставки были ещё больше. 0:49:51.039,0:49:52.778 Предположим, что ставки были ещё больше. 0:49:52.778,0:49:54.608 Я думаю, что это по-прежнему то же самое.[br] 0:49:54.608,0:49:58.108 Вы думаете, что Бентам ошибался, [br]говоря, что необходимо 0:49:58.108,0:49:58.929 суммировать 0:49:58.929,0:50:02.479 всё общественное счастье? Вы думаете, [br]что он ошибался насчёт этого? 0:50:02.478,0:50:06.728 - Я не считаю, что он ошибался, но я считаю, что [br]убийство есть убийство в любом случае. [br]- Значит Бентам определённо ошибается. 0:50:06.728,0:50:09.568 - Если вы правы, то неправ он. [br]- Хорошо, тогда он не прав. 0:50:09.568,0:50:12.818 Хорошо, спасибо. 0:50:12.818,0:50:14.358 Давайте отвлечёмся 0:50:14.358,0:50:16.389 от этого обсуждения 0:50:16.389,0:50:19.728 и обратим внимание на то, 0:50:19.728,0:50:23.259 сколько было возражений по поводу [br]поступка Дадли и Стивенса. 0:50:23.259,0:50:26.048 Мы услышали несколько мнений [br]в защиту того, что они сделали. 0:50:26.048,0:50:28.509 Их оправдывали тем, что они находились 0:50:28.509,0:50:28.918 в состоянии крайней необходимости, 0:50:28.918,0:50:32.588 были в ужасных обстоятельствах. 0:50:32.588,0:50:33.409 По крайней мере, косвенно оправдывали [br]количественным аргументом, 0:50:33.409,0:50:36.018 «три жизни против одной». 0:50:36.018,0:50:37.858 Говорили, что дело не только в количестве, 0:50:37.858,0:50:40.380 но и в более важных обстоятельствах, 0:50:40.380,0:50:43.459 в том, что дома у них остались семьи и близкие. 0:50:43.458,0:50:44.768 Паркер же был сиротой, 0:50:44.768,0:50:47.978 никто бы не скучал по нему. 0:50:47.978,0:50:49.578 Таким образом, если вы 0:50:49.579,0:50:50.829 сложите всё это 0:50:50.829,0:50:52.649 и попробуете оценить 0:50:52.648,0:50:53.998 соотношение 0:50:53.998,0:50:56.598 счастья и страдания, 0:50:56.599,0:50:58.838 то у вас будут основания 0:50:58.838,0:51:02.768 утверждать, что они поступили правильно. 0:51:02.768,0:51:09.468 Затем мы услышали по крайней мере [br]три различных типа возражений. 0:51:09.469,0:51:11.690 Например, возражение о том, 0:51:11.690,0:51:14.108 что они поступили неправильно [br]с категорической точки зрения. 0:51:14.108,0:51:15.750 Вы так сказали. 0:51:15.750,0:51:17.389 Неправильно с категорической точки зрения. 0:51:17.389,0:51:19.820 Убийство есть убийство, и это всегда плохо, 0:51:19.820,0:51:20.969 даже если 0:51:20.969,0:51:23.349 при этом повысится общий уровень счастья 0:51:23.349,0:51:25.639 в обществе. 0:51:25.639,0:51:28.499 Это категорическое возражение. 0:51:28.498,0:51:30.738 Но нам всё равно нужно понять, 0:51:30.739,0:51:32.749 почему убийство 0:51:32.748,0:51:35.448 является категорически неправильным. 0:51:35.449,0:51:38.579 Потому ли, что 0:51:38.579,0:51:42.339 даже у юнги есть фундаментальные права? 0:51:42.338,0:51:44.400 И если в этом вся причина, 0:51:44.400,0:51:47.880 то откуда возникат эти права, если не от идеи 0:51:47.880,0:51:53.209 повышения общественного благосостояния, [br]полезности или счастья? Это первый вопрос. 0:51:53.208,0:51:56.308 Другие утверждали, 0:51:56.309,0:51:58.449 что в случае со жребием было бы иначе. 0:51:58.449,0:52:00.039 Справедливая процедура, 0:52:00.039,0:52:05.949 как заметил Мэтт. 0:52:05.949,0:52:08.769 И некоторые из вас склонились к этой точке зрения. 0:52:08.768,0:52:12.188 Но это не совсем категорическое возражение. 0:52:12.188,0:52:13.828 Это утверждение о том, 0:52:13.829,0:52:16.798 что все должны считаться равными, 0:52:16.798,0:52:18.469 даже если в конце концов 0:52:18.469,0:52:20.769 один человек будет принесён в жертву 0:52:20.768,0:52:23.288 ради общего блага. 0:52:23.289,0:52:26.059 Это заставляет нас задуматься о следующем. 0:52:26.059,0:52:29.670 Почему согласие на определённую процедуру, 0:52:29.670,0:52:31.969 пусть даже справедливую, 0:52:31.969,0:52:34.739 оправдывает любой результат, 0:52:34.739,0:52:38.088 вытекающий из этой процедуры? 0:52:38.088,0:52:39.898 Это второй вопрос. 0:52:39.898,0:52:42.398 И наконец третий вопрос - 0:52:42.398,0:52:45.338 фундаментальная идея о согласии. 0:52:45.338,0:52:48.528 Эту мысль высказала Кэтлин. 0:52:48.528,0:52:52.719 Если бы юнга согласился сам, 0:52:52.719,0:52:54.499 и никто бы его к этому не принуждал, 0:52:54.498,0:52:57.068 как было отмечено, 0:52:57.068,0:53:01.918 то пожертвовать его жизнью ради жизни [br]других было вполне нормальным. 0:53:01.918,0:53:04.900 Эту идею поддержали ещё больше людей, 0:53:04.900,0:53:06.630 но это приводит нас 0:53:06.630,0:53:08.528 к третьему философскому вопросу. 0:53:08.528,0:53:11.009 Какова моральная основа 0:53:11.009,0:53:12.838 согласия? 0:53:12.838,0:53:14.438 0:53:14.438,0:53:16.978 Почему акт согласия 0:53:16.978,0:53:19.188 так существенно меняет дело [br]с моральной точки зрения? 0:53:19.188,0:53:23.818 Так меняет, что поступок, который в любом другом случае [br]мы бы посчитали неправильным и назвали бы убийством, 0:53:23.818,0:53:25.369 является допустимым 0:53:25.369,0:53:26.358 с точки зрения морали, 0:53:26.358,0:53:29.619 если на него было дано согласие. 0:53:29.619,0:53:31.699 Чтобы ответить на эти три вопроса, 0:53:31.699,0:53:34.108 нам с вами нужно будет изучить [br]сочинения неcкольких философов. 0:53:34.108,0:53:35.728 В следующий раз 0:53:35.728,0:53:36.939 мы начнём 0:53:36.940,0:53:37.720 с Бентама 0:53:37.719,0:53:43.798 и Джона Стюарта Милля - философов-утилитаристов. 0:53:43.798,0:53:47.298 0:53:43.798,0:53:47.298 0:53:49.869,0:53:56.869 0:54:36.219,0:54:40.269 0:54:40.268,0:54:41.678