0:00:33.443,0:00:37.230 Это курс по теории справедливости, [br]и мы начнём его с мысленного эксперимента. 0:00:37.230,0:00:44.509 Представьте, что вы водитель трамвая,[br]который несётся со скоростью 100 км/ч, 0:00:44.509,0:00:49.390 И вдруг вдалеке на рельсах [br]вы замечаете пятерых рабочих. 0:00:49.390,0:00:51.569 Вы пытаетесь остановиться, но не можете: 0:00:51.569,0:00:53.539 тормоза не работают. 0:00:53.539,0:00:56.630 Вы в полном отчаянии, поскольку знаете, 0:00:56.630,0:00:59.460 что если врежетесь в этих рабочих, 0:00:59.460,0:01:01.320 то все они погибнут. 0:01:01.320,0:01:04.879 Предположим, вы знаете это наверняка. 0:01:04.879,0:01:07.019 Итак, вы не знаете что делать, 0:01:07.019,0:01:09.320 но вдруг замечаете, [br] 0:01:09.320,0:01:12.940 что справа есть [br]боковая ветка. 0:01:12.940,0:01:18.830 И на конце этой ветки находится [br]только один рабочий. 0:01:18.830,0:01:21.148 Руль трамвая исправен, 0:01:21.148,0:01:25.758 и, если захотите, вы можете повернуть[br] 0:01:25.758,0:01:28.550 на эту боковую ветку 0:01:28.550,0:01:30.340 и, тем самым, убить одного рабочего, 0:01:30.340,0:01:33.009 но спасти жизнь пятерым.[br] 0:01:33.009,0:01:35.819 И вот наш первый вопрос: 0:01:35.819,0:01:38.659 как правильно поступить? 0:01:38.659,0:01:40.328 Как бы вы поступили? 0:01:40.328,0:01:42.460 Давайте проголосуем. 0:01:42.460,0:01:47.720 Кто бы повернул на боковую ветку? 0:01:47.720,0:01:51.790 Поднимите руки. 0:01:51.790,0:01:53.415 Кто не стал бы этого делать 0:01:53.415,0:01:57.645 и поехал бы дальше?[br] 0:01:57.645,0:02:03.979 Не опускайте руки те, [br]кто поехал бы дальше. 0:02:03.979,0:02:08.198 Большинство. Подавляющее[br]большинство повернуло бы. 0:02:08.198,0:02:09.878 Давайте теперь разберёмся, 0:02:09.878,0:02:14.979 почему вы приняли именно такое решение. 0:02:14.979,0:02:18.209 И давайте начнём с большинства. 0:02:18.209,0:02:21.949 С тех, кто бы повернул[br]на боковую ветку.[br] 0:02:21.949,0:02:23.508 Почему бы вы это сделали? 0:02:23.508,0:02:25.638 Что сподвигло бы вас на это? 0:02:25.638,0:02:29.868 Кто хочет высказаться? Есть добровольцы? 0:02:29.868,0:02:32.018 Начинайте. Встаньте, пожалуйста. 0:02:32.018,0:02:35.000 Я думаю, что неправильно[br]убивать пять человек, 0:02:35.000,0:02:39.476 когда есть возможность[br]убить только одного. 0:02:39.476,0:02:42.177 Было бы неправильно убивать пятерых, 0:02:42.177,0:02:46.877 если вместо этого вы можете[br]убить только одного. 0:02:46.877,0:02:48.399 Да, неплохая причина. 0:02:48.399,0:02:52.709 Действительно неплохая. 0:02:52.719,0:02:53.692 Кто-нибудь ещё? 0:02:53.692,0:02:56.312 Все согласны с таким 0:02:56.312,0:02:59.552 объяснением? 0:02:59.552,0:03:01.252 Да, пожалуйста. 0:03:01.252,0:03:05.399 Я думаю этот случай похож на то,[br]что произошло с самолётом, 0:03:05.399,0:03:09.259 который разбился в Пенсильвании [br]11 сентября. 0:03:09.259,0:03:11.598 Те люди - настоящие герои - [br]предпочли погибнуть, 0:03:11.598,0:03:15.918 чтобы избежать большего количества жертв [br]среди людей, которые находились на земле. 0:03:15.918,0:03:19.121 То есть ими руководила та же логика: 0:03:19.121,0:03:20.901 в такой безнадёжной ситуации 0:03:20.901,0:03:25.356 лучше убить одного, но спасти пятерых. 0:03:25.359,0:03:30.528 Именно так считают те, [br]кто бы повернул? Верно? 0:03:30.528,0:03:33.468 Давайте теперь послушаем мнение тех, 0:03:33.468,0:03:35.318 кто оказался в меньшинстве. 0:03:35.318,0:03:39.148 Тех, кто бы не повернул. 0:03:39.148,0:03:40.522 Да. 0:03:40.522,0:03:45.276 Я думаю, что это такой же подход, который[br]оправдывает геноцид и тоталитаризм. 0:03:45.276,0:03:50.229 Для того, чтобы спасти представителей[br]одной расы, вы уничтожаете другую. 0:03:50.229,0:03:51.965 И что бы вы сделали в этом случае? 0:03:51.965,0:03:53.188 Для того, 0:03:53.188,0:03:55.338 чтобы избежать 0:03:55.338,0:03:57.618 ужасов геноцида, 0:03:57.618,0:04:03.518 вы предпочли бы врезаться [br]в пятерых рабочих и убить их? 0:04:03.518,0:04:05.542 Думаю, да. 0:04:05.542,0:04:06.322 Правда?[br] 0:04:06.322,0:04:07.434 Да. 0:04:07.434,0:04:09.804 Хорошо. Кто ещё хочет [br]высказать своё мнение? 0:04:09.806,0:04:13.251 Это смелый ответ. Спасибо. 0:04:13.251,0:04:15.664 Давайте теперь рассмотрим 0:04:15.664,0:04:20.034 другой пример с трамваем, 0:04:20.034,0:04:23.800 и посмотрим, будет ли 0:04:23.800,0:04:27.220 большинство из вас 0:04:27.220,0:04:30.820 придерживаться той же самой логики: 0:04:30.820,0:04:33.320 лучше убить одного, [br]чтобы пятеро остались живы. 0:04:33.320,0:04:38.050 В этот раз вы не водитель трамвая, [br]вы переводите стрелки. 0:04:38.050,0:04:42.389 Вы стоите на мосту [br]и наблюдаете за рельсами.[br] 0:04:42.389,0:04:45.599 И вот по рельсам летит трамвай. 0:04:45.599,0:04:49.488 На другом конце пять рабочих. 0:04:49.488,0:04:51.659 Тормоза не работают, 0:04:51.659,0:04:55.799 трамвай вот-вот в них врежется и задавит. 0:04:55.799,0:04:56.989 Сейчас 0:04:56.989,0:04:58.639 вы не водитель 0:04:58.639,0:05:00.999 и совершенно не знаете что делать. 0:05:00.999,0:05:02.769 И тут вы замечаете, 0:05:02.769,0:05:06.479 что рядом с вами 0:05:06.479,0:05:08.569 стоит, прислонившись к перилам 0:05:08.569,0:05:09.744 моста, 0:05:09.744,0:05:15.264 очень толстый человек. 0:05:15.264,0:05:18.764 И вы могли бы 0:05:18.764,0:05:20.124 его немного 0:05:20.124,0:05:22.524 подтолкнуть. 0:05:22.524,0:05:24.543 Он упал бы с моста 0:05:24.543,0:05:27.653 прямо на рельсы, 0:05:27.653,0:05:30.233 на пути 0:05:30.233,0:05:32.012 трамвая. 0:05:32.012,0:05:33.302 Он бы погиб, 0:05:33.302,0:05:36.079 но при этом спас бы жизни пятерым. 0:05:36.079,0:05:38.819 Итак. 0:05:38.819,0:05:40.992 Кто столкнул бы 0:05:40.992,0:05:42.552 толстяка с моста? 0:05:42.552,0:05:48.012 Поднимите руки. 0:05:48.012,0:05:50.945 Кто не стал бы этого делать? 0:05:50.945,0:05:53.909 Большинство не стало бы. 0:05:53.909,0:05:55.583 Возникает закономерный вопрос: 0:05:55.583,0:05:56.853 Что стало 0:05:56.853,0:05:59.973 с тем принципом: 0:05:59.973,0:06:03.502 спасение жизни пятерых оправдывает [br]потерю жизни одного. 0:06:03.502,0:06:04.942 Что стало с тем принципом, 0:06:04.942,0:06:07.380 который в первом случае 0:06:07.380,0:06:09.250 поддерживали почти все?[br] 0:06:09.250,0:06:12.463 Я хотел бы услышать мнение тех, [br]кто был в большинстве в обоих этих 0:06:12.463,0:06:13.453 примерах. 0:06:13.453,0:06:16.423 Как вы объясните разницу между ними? 0:06:16.423,0:06:17.903 Да, пожалуйста. 0:06:17.903,0:06:21.508 Полагаю, что во втором случае [br]у вас есть выбор: 0:06:21.508,0:06:24.288 толкнуть или не толкнуть человека. 0:06:24.289,0:06:31.329 Я думаю, что этот человек не имеет [br]никакого отношения к ситуации, 0:06:31.329,0:06:36.313 и вы как бы принимаете решение за него, 0:06:36.313,0:06:39.906 вмешиваться в эту ситуацию или нет. 0:06:39.906,0:06:42.768 В отличие от первого случая, 0:06:42.768,0:06:47.838 когда все три стороны:[br]водитель и две группы рабочих, 0:06:47.838,0:06:50.484 уже принимают активное[br]участие в ситуации. 0:06:50.484,0:06:54.891 Но ведь тот парень, который один работает [br]на рельсах, на боковой ветке, 0:06:54.891,0:06:57.561 он же сам не принимал решения [br]пожертвовать своей жизнью, 0:06:57.561,0:07:01.830 точно так же, как тот [br]толстяк на мосту, не так ли? 0:07:01.830,0:07:05.339 Да, это так. Но он был на рельсах. 0:07:05.339,0:07:10.354 А этот парень был на мосту! 0:07:10.354,0:07:13.250 Если хотите, можете продолжить. 0:07:13.250,0:07:15.267 Ладно, это непростой вопрос, 0:07:15.267,0:07:16.987 но вы очень хорошо справились. 0:07:16.987,0:07:19.527 Очень непростой вопрос. 0:07:19.527,0:07:21.030 Кто-нибудь ещё 0:07:21.030,0:07:22.250 хочет попробовать 0:07:22.250,0:07:25.930 объяснить, почему большинство 0:07:25.930,0:07:28.970 именно так отреагировало [br]в обоих этих случаях? 0:07:28.970,0:07:29.770 Прошу. 0:07:29.770,0:07:32.150 Полагаю, что в первом случае, 0:07:32.150,0:07:35.733 в котором присутствуют пять рабочих [br]на основной ветке и один на боковой, 0:07:35.733,0:07:37.370 вам необходимо сделать выбор 0:07:37.370,0:07:40.948 и принять какое-то решение, иначе эти [br]пять человек погибнут под трамваем, 0:07:40.948,0:07:45.039 но вы за это не несёте ответственности. [br]Вагон несётся на большой скорости, 0:07:45.039,0:07:47.768 вам нужно принять мгновенное решение. 0:07:47.768,0:07:52.158 А сталкивая толстяка с моста, [br]вы совершаете убийство. 0:07:52.158,0:07:54.208 Вы можете это контролировать, 0:07:54.208,0:07:57.278 в отличие от вагона. 0:07:57.278,0:07:59.889 Поэтому я считаю, что это [br]немного другой случай. 0:07:59.889,0:08:04.388 Хорошо. Кто хочет возразить? [br]Это было неплохо. 0:08:04.388,0:08:06.264 Кто хочет ответить? 0:08:06.264,0:08:09.155 Объясняет ли это ситуацию? 0:08:09.155,0:08:12.355 Не думаю, что это удачное объяснение, [br]потому что... 0:08:12.369,0:08:14.158 Вам всё равно нужно решить кто умрёт. 0:08:14.158,0:08:16.698 Либо вы решаете повернуть [br]и убить того человека, 0:08:16.698,0:08:19.638 что будет являться вашим [br]сознательным решением.[br] 0:08:19.638,0:08:21.827 Либо вы принимаете решение [br]столкнуть толстяка, 0:08:21.827,0:08:24.517 что также будет являться вашим[br]сознательным решением. 0:08:24.517,0:08:27.597 Так что вы в любом случае [br]делаете какой-то выбор. 0:08:27.597,0:08:29.629 Хотите возразить? 0:08:29.629,0:08:33.944 Я не уверен, что это так. Мне кажется, [br]всё равно есть определённая разница. 0:08:33.944,0:08:37.430 Если вы сталкиваете кого-то с моста и, [br]тем самым, убиваете его, 0:08:37.430,0:08:39.770 то в этом случае вы делаете это [br]своими руками. 0:08:39.770,0:08:42.260 Толкаете своими собственными руками. 0:08:42.260,0:08:43.699 И это отличается от ситуации, 0:08:43.699,0:08:49.229 когда вы управляете чем-то, что может [br]стать причиной смерти. Знаете... 0:08:49.229,0:08:52.765 Теперь мне самому это не очень нравится. 0:08:52.765,0:08:55.507 Нет-нет, это было неплохо. Как вас зовут?[br]Эндрю. 0:08:55.507,0:08:58.905 Позвольте задать вам вопрос, Эндрю. 0:08:58.905,0:09:01.911 Допустим, [br] 0:09:01.911,0:09:03.461 что вы стоите на мосту 0:09:03.461,0:09:04.701 рядом с толстяком 0:09:04.701,0:09:07.669 и вам не нужно его толкать.[br]Допустим, он стоит, 0:09:07.669,0:09:17.108 прислонившись к дверце, которую вы можете[br]открыть, повернув рычаг. Вот так. 0:09:17.108,0:09:18.391 Вы бы повернули? 0:09:18.391,0:09:21.441 Не знаю почему, но это всё равно как-то 0:09:21.441,0:09:23.001 неправильно. 0:09:23.001,0:09:29.674 Возможно, если бы вы случайно задели[br]этот рычаг или что-то в это роде... 0:09:29.674,0:09:32.980 Или, например, вагон 0:09:32.980,0:09:37.561 катился бы к какому-нибудь переключателю, [br]который откроет эту дверцу. 0:09:37.561,0:09:39.051 Тогда ещё куда ни шло. 0:09:39.051,0:09:42.552 Ладно, достаточно. Как бы то ни было, [br]это всё равно кажется неправильным. 0:09:42.552,0:09:46.054 Так же, как и в первом случае кажется, что[br]правильным было бы повернуть. 0:09:46.054,0:09:50.379 С другой стороны, в первом случае[br]вы непосредственно вовлечены в ситуацию, 0:09:50.379,0:09:52.529 а во втором — нет. 0:09:52.529,0:09:55.546 И у вас есть выбор: вмешиваться или нет. 0:09:55.546,0:09:59.340 Давайте на минуту забудем об этом случае. 0:09:59.340,0:10:01.229 Это было неплохо. 0:10:01.229,0:10:06.269 Давайте представим другой случай. Теперь[br]вы врач в отделении экстренной помощи. 0:10:06.269,0:10:11.382 И к вам поступают шесть пациентов. 0:10:11.382,0:10:16.562 Они попали в ужасную аварию с трамваем... 0:10:18.212,0:10:23.508 Пять из них ещё держатся, но один уже[br]при смерти. Вы можете потратить весь день, 0:10:23.508,0:10:27.594 пытаясь спасти жизнь одного, 0:10:27.594,0:10:32.180 но тогда остальные пятеро умрут. Или [br]вы могли бы попытаться спасти тех пятерых, 0:10:32.181,0:10:35.186 но за это время умрёт 0:10:35.186,0:10:36.326 тот, кто тяжело ранен. 0:10:36.326,0:10:39.461 Кто бы спас пятерых? 0:10:39.461,0:10:40.701 Теперь уже в качестве врача. 0:10:40.701,0:10:44.175 Кто бы спас одного? 0:10:44.175,0:10:46.138 Очень мало людей. 0:10:46.138,0:10:49.061 Практически единицы. 0:10:49.061,0:10:51.302 Полагаю, вы руководствовались [br]тем же принципом: 0:10:51.302,0:10:55.482 лучше спасти пять жизней, [br]но при этом пожертвовать одной. 0:10:55.482,0:10:58.950 Теперь рассмотрим другой случай [br]с доктором. 0:10:58.950,0:11:01.890 На этот раз вы хирург. 0:11:01.890,0:11:06.089 И к вам в больницу попало пять [br]пациентов, каждому из которых 0:11:06.089,0:11:09.399 срочно требуется пересадка органа, [br]иначе они умрут. 0:11:09.399,0:11:14.909 Одному нужно сердце, другому — лёгкое,[br]третьему — почка, четвёртому — печень, 0:11:14.909,0:11:20.059 а пятому — поджелудочная железа. 0:11:20.059,0:11:22.571 Но у вас нет доноров. 0:11:22.571,0:11:27.360 Ещё совсем немного, и пациенты умрут. 0:11:27.360,0:11:30.477 Но вдруг оказывается, 0:11:30.477,0:11:32.327 что в соседней палате 0:11:32.327,0:11:35.740 сидит здоровый парень,[br]который пришёл на приём к доктору. 0:11:39.260,0:11:43.577 И он... 0:11:43.577,0:11:47.029 Вижу вам это нравится? 0:11:47.029,0:11:50.740 Он ненадолго задремал. 0:11:52.999,0:11:56.439 Вы могли бы очень тихо войти 0:11:56.439,0:12:00.499 и извлечь пять его органов. [br]Этот человек умрёт, 0:12:00.499,0:12:03.200 но вы сможете спасти пятерых. 0:12:03.200,0:12:10.331 Кто бы это сделал? Хоть кто-то? 0:12:10.331,0:12:17.343 Сколько вас? Поднимите руки, [br]если бы вы это сделали. 0:12:17.803,0:12:20.528 Кто-нибудь с балкона? 0:12:20.528,0:12:21.782 Вы? 0:12:21.782,0:12:24.272 Аккуратно, не слишком перегибайтесь. 0:12:26.562,0:12:29.221 Кто бы не стал этого делать?[br] 0:12:29.221,0:12:30.222 Хорошо. 0:12:30.222,0:12:32.246 Скажите, там на балконе. 0:12:32.246,0:12:35.836 Вы бы извлекли органы. Почему? 0:12:35.836,0:12:40.048 Я бы хотел предложить другой вариант: 0:12:40.048,0:12:42.982 взять органы только у того из нуждающихся,[br]кто умрёт первым, 0:12:42.982,0:12:49.722 и воспользоваться его здоровыми органами, [br]чтобы спасти оставшихся четверых. 0:12:49.722,0:12:54.439 Это довольно хорошая идея. 0:12:54.439,0:12:57.650 Это просто отличная идея, 0:12:57.650,0:13:00.079 если исключить тот факт, 0:13:00.079,0:13:04.699 что вы только что разрушили [br]философский замысел. 0:13:04.699,0:13:07.220 Давайте отвлечёмся 0:13:07.220,0:13:10.240 от этих конкретных случаев [br]и их обсуждения, 0:13:10.240,0:13:17.230 чтобы отметить пару моментов, к которым[br]привела наша дискуссия. 0:13:17.230,0:13:25.900 Из наших обсуждений уже начали проявляться[br]определённые нравственные принципы. 0:13:25.900,0:13:31.160 Давайте рассмотрим что из себя[br]представляют эти принципы. 0:13:31.160,0:13:35.660 Первый нравственный принцип,[br]появившийся в дискуссии, гласил: 0:13:35.660,0:13:40.510 правильный поступок, нравственный поступок[br]зависит от последствий, 0:13:40.510,0:13:45.384 которые станут результатом [br]ваших действий. 0:13:45.384,0:13:52.110 В конце концов, лучше, чтобы выжило пять,[br]даже если для этого один должен умереть. 0:13:52.110,0:13:58.880 Это пример консеквенциальной аргументации. 0:13:58.880,0:14:04.689 При консеквенциальном подходе моральная[br]ценность выражается в последствиях, 0:14:04.689,0:14:08.859 причиной которых стали ваши действия. 0:14:08.859,0:14:12.539 Потом мы пошли немного дальше [br]и рассмотрели другие случаи, 0:14:12.539,0:14:20.459 и люди уже были не столь уверены[br]в правильности консеквенционализма. 0:14:20.459,0:14:25.590 Когда люди не решались столкнуть[br]толстого мужчину с моста 0:14:25.590,0:14:29.470 или изъять органы невинного пациента, 0:14:29.470,0:14:33.902 они указывали на доводы, 0:14:33.902,0:14:39.862 связанные с сущностью самого действия. 0:14:39.862,0:14:42.549 Теперь им было уже неважно, [br]какими будут последствия в итоге. 0:14:42.549,0:14:44.969 Люди сопротивлялись. 0:14:44.969,0:14:49.289 Они думали, что это просто неправильно,[br]категорически неправильно — 0:14:49.290,0:14:56.388 убить человека, невинного человека,[br]даже ради спасения пяти жизней. 0:14:56.388,0:14:58.416 По крайней мере, они так считали 0:14:58.416,0:15:03.786 во второй версии каждого [br]рассмотренного сюжета. 0:15:03.786,0:15:15.773 Итак, это второй, категорический[br]способ выстраивания аргументации. 0:15:15.773,0:15:18.931 Такая аргументация определяет[br]мораль как соответствие действий 0:15:18.931,0:15:21.238 определённым абсолютным [br]этическим требованиям,[br] 0:15:21.238,0:15:23.748 определённым категорическим [br]правам и обязанностям, 0:15:23.748,0:15:27.240 независимо от последствий.[br] 0:15:27.240,0:15:31.535 На протяжении нескольких недель[br]мы будем изучать разницу 0:15:31.535,0:15:36.489 между консеквенциальной и категорической [br]аргументацией. 0:15:36.489,0:15:43.450 Важнейший пример консеквенциальной[br]аргументации это утилитаризм — доктрина, 0:15:43.450,0:15:51.020 предложенная английским политическим[br]философом 18-го века Джереми Бентамом. 0:15:51.020,0:15:56.619 Наиболее видным сторонником [br]категориальной аргументации 0:15:56.619,0:16:02.414 является немецкий философ[br]18-го века Иммануил Кант. 0:16:02.414,0:16:07.060 Мы остановимся на этих двух разных[br]видах нравственной аргументации, 0:16:07.060,0:16:10.569 дадим им оценку, а также[br]рассмотрим некоторые другие. 0:16:10.569,0:16:15.860 Из учебной программы видно, что мы изучим[br]множество великих и известных книг: 0:16:15.860,0:16:21.949 произведения Аристотеля, Джона Локка,[br]Иммануила Канта, Джона Стюарта Милля, 0:16:21.949,0:16:23.860 и других. 0:16:23.860,0:16:28.060 Обратите внимание на то,[br]что мы не только изучим эти книги, 0:16:28.060,0:16:34.159 но и обсудим современные политические [br]и правовые разногласия, 0:16:34.159,0:16:36.923 затрагивающие философские вопросы. 0:16:36.923,0:16:41.269 Мы будем говорить о равенстве[br]и неравенстве, о позитивной дискриминации, 0:16:41.269,0:16:43.386 о свободе слова и пропаганде ненависти,[br] 0:16:43.386,0:16:46.631 об однополых браках и воинской повинности. 0:16:46.631,0:16:50.680 Эти и другие прикладные вопросы [br]будут подняты, 0:16:50.680,0:16:55.190 чтобы не только «оживить» отвлечённые [br]от реальной жизни книги, 0:16:55.190,0:16:59.430 но и внести ясность в то, с чем мы[br]сталкиваемся каждый день в обычной жизни, 0:16:59.430,0:17:03.264 включая политические вопросы, 0:17:03.264,0:17:05.524 с точки зрения философии. 0:17:05.524,0:17:10.098 После изучения этих книг[br]и обсуждения прикладных вопросов, 0:17:10.098,0:17:15.350 мы увидим, как они дополняют[br]и освещают друг друга. 0:17:15.350,0:17:22.449 Возможно, это звучит заманчиво,[br]но я должен предупредить. 0:17:22.449,0:17:25.149 И вот о чём. 0:17:25.149,0:17:34.009 Чтение этих книг способом, при котором [br]вы упражняетесь в самопознании, 0:17:34.009,0:17:38.129 несёт в себе определённые риски — 0:17:38.129,0:17:41.789 риски, как индивидуальные, [br]так и политические. 0:17:41.789,0:17:47.600 Риски, о которых знает каждый студент[br]курса политической философии. 0:17:47.600,0:17:54.030 Эти риски вытекают из того,[br]что философия учит нас, 0:17:54.030,0:18:01.159 побуждает нас сомневаться[br]и идти вразрез с тем, что мы уже знаем. 0:18:01.159,0:18:03.269 Парадоксально, 0:18:03.269,0:18:09.669 но сложность этого курса в том, что вы [br]изучаете то, что вам уже давно известно. 0:18:09.669,0:18:16.319 Знания, которые мы получили[br]из известных неоспоримых истин, 0:18:16.319,0:18:20.029 превращаются в чуждые. 0:18:20.029,0:18:23.099 Именно так работают наши примеры: 0:18:23.099,0:18:28.899 шутливые гипотетические случаи,[br]с которых мы начали лекцию. 0:18:28.899,0:18:31.580 Точно такое же влияние оказывают [br]книги по философии.[br] 0:18:31.580,0:18:35.390 Философия отстраняет нас[br] 0:18:35.390,0:18:37.340 от хорошо известных истин, 0:18:37.340,0:18:40.250 не давая при этом новой информации,[br] 0:18:40.250,0:18:43.550 но увлекая нас за собой [br]и провоцируя на то, 0:18:43.550,0:18:47.239 чтобы посмотреть на вещи по-новому. 0:18:47.239,0:18:49.800 Но здесь кроется риск. 0:18:49.800,0:18:54.080 Когда однажды привычное станет чуждым, 0:18:54.080,0:18:57.409 оно уже никогда не будет прежним. 0:18:57.409,0:19:00.099 Самопознание 0:19:00.099,0:19:02.780 похоже на потерю невинности. 0:19:02.780,0:19:05.710 Однако то, что вы обнаружите,[br]изменив привычное ви́дение, 0:19:05.710,0:19:09.489 не будет для вас неожиданным 0:19:09.489,0:19:13.180 или неизвестным. 0:19:13.180,0:19:17.190 Это делает наш курс сложным, [br] 0:19:17.190,0:19:19.759 но от этого не менее захватывающим. 0:19:19.759,0:19:25.200 Моральная и политическая философия [br]— это история, 0:19:25.200,0:19:29.280 и ты никогда не знаешь, куда она[br]тебя приведёт, но ты точно знаешь, 0:19:29.280,0:19:31.119 что эта история 0:19:31.119,0:19:34.279 о тебе самом.[br] 0:19:34.279,0:19:36.970 Это индивидуальный риск. 0:19:36.970,0:19:39.979 Теперь рассмотрим политические риски. 0:19:39.979,0:19:42.920 Одним из способов пробудить [br]у вас интерес к этому курсу 0:19:42.920,0:19:44.608 было бы пообещать вам, 0:19:44.608,0:19:46.300 что после прочтения этих книг 0:19:46.300,0:19:47.930 и обсуждения определённых вопросов 0:19:47.930,0:19:51.719 вы станете более ответственным [br]членом общества. 0:19:51.719,0:19:57.070 Вы изучите основы публичной политики,[br]отточите свои политические суждения, 0:19:57.070,0:20:02.549 научитесь более эффективно участвовать [br]в общественной жизни. 0:20:02.549,0:20:06.439 Но это было бы однобокое[br]и в целом неверное обещание. 0:20:06.439,0:20:11.449 Политическая философия в своей основе [br]состоит в другом. 0:20:11.449,0:20:14.429 Нам необходимо допустить, 0:20:14.429,0:20:18.840 что политическая философия, наоборот,[br]может сделать вас плохим, 0:20:18.840,0:20:21.530 а не хорошим гражданином. 0:20:21.530,0:20:23.700 Или, по крайней мере, [br]плохим гражданином 0:20:23.700,0:20:25.559 до того, как вы станете 0:20:25.559,0:20:27.869 хорошим. 0:20:27.869,0:20:30.200 Это происходит потому,[br]что занятия философией 0:20:30.200,0:20:32.220 удаляют нас от реальности 0:20:32.220,0:20:36.370 и, порой, даже развращают. 0:20:36.370,0:20:39.709 Давайте вернёмся во времена Сократа 0:20:39.709,0:20:41.569 и обратимся к диалогу «Горгий», 0:20:41.569,0:20:45.390 в котором один из друзей Сократа [br]— Калликл, 0:20:45.390,0:20:47.239 пытается отговорить его 0:20:47.240,0:20:49.670 от философствований. 0:20:49.670,0:20:54.310 Калликл говорит ему, что философия, [br]конечно, милая забава, 0:20:54.310,0:20:57.830 если предаваться ей в разумных пределах [br]и в определённом возрасте. 0:20:57.830,0:21:03.599 Но если кто-то погружается в неё глубже,[br]чем требуется, это заканчивается плачевно. 0:21:03.599,0:21:06.319 «Прими мой совет, — говорит Калликл, 0:21:06.319,0:21:08.199 оставь словопрения 0:21:08.199,0:21:11.180 и обратись к жизни деятельной. 0:21:11.180,0:21:16.780 Переведи свой взор с тех, кто тратит [br]время на бессмысленные споры, 0:21:16.780,0:21:19.859 на тех, кто ведёт деятельную жизнь, [br]имеет хорошую репутацию 0:21:19.859,0:21:22.189 и благословлён другими достоинствами.» 0:21:22.189,0:21:26.618 Другими словами, Калликл убеждает Сократа 0:21:26.618,0:21:28.500 оставить философствования, 0:21:28.500,0:21:30.439 обратиться к реальности, 0:21:30.439,0:21:34.990 поступить в бизнес-школу. 0:21:34.990,0:21:38.149 И Калликл был по-своему прав. 0:21:38.149,0:21:42.030 Он был прав в том, что философия [br]уводит нас в сторону 0:21:42.030,0:21:44.949 от традиций, установленных допущений 0:21:44.949,0:21:46.539 и устоявшихся убеждений. 0:21:46.539,0:21:48.270 Здесь нас и подстерегают опасности, 0:21:48.270,0:21:49.840 индивидуальные и политические. 0:21:49.840,0:21:54.089 В ответ на их угрозу сознание [br]включает защитный механизм, 0:21:54.089,0:21:57.470 этот механизм мы назвали — скептицизмом. 0:21:57.470,0:22:03.660 Происходит это примерно следующим образом:[br]мы так и не смогли прийти к единому мнению 0:22:03.660,0:22:09.499 по вопросам, с обсуждения которых, [br]мы начали эту лекцию. 0:22:09.499,0:22:11.060 Но если ни Аристотель, 0:22:11.060,0:22:16.950 ни Локк, ни Кант, ни Милль [br]не дали на них ответа за всё это время, 0:22:16.950,0:22:19.509 то кто мы такие, 0:22:19.509,0:22:23.470 те, кто собрались в этом зале [br]на один семестр, 0:22:23.470,0:22:26.260 чтобы вдруг разрешить их? 0:22:26.260,0:22:29.220 Может быть определённое видение мира — 0:22:29.220,0:22:34.070 это личное дело каждого человека[br]и к этому больше нечего добавить? 0:22:34.070,0:22:36.239 И правильного ответа не существует. 0:22:36.239,0:22:37.649 Это попытка бегства. 0:22:37.650,0:22:39.380 Бегства в скептицизм. 0:22:39.380,0:22:42.439 На это я ответил бы следующим образом: 0:22:42.439,0:22:47.380 Да, над этими вопросами [br]люди бьются долгое время. 0:22:47.380,0:22:49.059 Но сам факт того, 0:22:49.059,0:22:52.600 что они возвращаются к нам, нерешённые, [br]настойчиво требуя от нас ответа, 0:22:52.600,0:22:54.650 может, с одной стороны, говорить о том, 0:22:54.650,0:22:56.989 что разрешить их невозможно,[br] 0:22:56.989,0:22:59.729 а с другой — о том, [br]что их возникновение неизбежно. 0:22:59.729,0:23:02.289 И причина их неизбежности в том, 0:23:02.289,0:23:09.949 что каждому из нас приходится ежедневно [br]отвечать на эти вопросы самостоятельно. 0:23:09.949,0:23:15.970 Таким образом, скептицизм, побуждающий нас[br]отказаться от любых попыток найти ответы, 0:23:15.970,0:23:18.059 не может являться решением. 0:23:18.059,0:23:19.580 Иммануил Кант [br] 0:23:19.580,0:23:22.970 очень ёмко описал несостоятельность [br]скептицизма: 0:23:22.970,0:23:26.038 «Скептицизм есть привал [br]для человеческого разума, 0:23:26.038,0:23:28.999 где он может обдумать своё [br]догматическое странствие, 0:23:28.999,0:23:32.659 но это вовсе не место [br]для постоянного пребывания.» 0:23:32.659,0:23:35.750 «Простое принятие скептицизма, [br]— пишет Кант, 0:23:35.750,0:23:42.590 никогда не удовлетворит страждущий разум.» 0:23:42.590,0:23:46.719 Всеми этими примерами я пытался дать вам [br]некоторое представление о том, 0:23:46.719,0:23:49.758 с какими опасностями и искушениями [br]сталкивается ступивший на путь 0:23:49.758,0:23:51.658 философского познания. 0:23:51.658,0:23:55.509 В заключение я хотел бы сказать, 0:23:55.509,0:23:58.039 что задача этого курса — 0:23:58.039,0:24:02.079 разбудить страждущий разум 0:24:02.079,0:24:04.200 и показать, как далеко [br]он может нас увести. 0:24:04.200,0:24:11.380 Спасибо за внимание. 0:24:15.370,0:24:16.960 В такой отчаянной ситуации 0:24:16.960,0:24:19.059 вы должны сделать всё, чтобы выжить. 0:24:19.059,0:24:22.629 Вы должны сделать всё, что возможно? [br]Да, вы должны сделать всё, что можете. 0:24:22.629,0:24:25.699 Если вы 19 дней ничего не ели,[br] 0:24:25.700,0:24:30.339 кто-то из вас должен пожертвовать собой[br]ради спасения остальных. 0:24:30.339,0:24:33.429 Отлично. Очень неплохо. Как вас зовут? [br]Маркус. 0:24:33.429,0:24:38.359 Что вы ответите Маркусу? 0:24:40.419,0:24:44.489 В прошлый раз 0:24:44.489,0:24:46.780 мы начали 0:24:46.780,0:24:48.820 с нескольких историй, 0:24:48.820,0:24:50.759 с нескольких моральных дилемм: 0:24:50.759,0:24:52.689 о трамваях[br] 0:24:52.689,0:24:54.309 о докторах, 0:24:54.309,0:24:56.209 а также о здоровых пациентах, 0:24:56.209,0:25:00.689 рискующих, стать жертвами [br]трансплантации органов. 0:25:00.690,0:25:03.799 Мы обратили внимание на две особенности 0:25:03.799,0:25:06.690 в доводах, которые мы приводили. 0:25:06.690,0:25:09.689 Первая особенность связана с тем, [br]как именно мы спорили. 0:25:09.689,0:25:13.379 Всё началось с наших суждений [br]об определённых случаях. 0:25:13.379,0:25:18.170 Мы попытались сформулировать [br]причины или принципы, 0:25:18.170,0:25:22.329 лежащие в основе наших суждений.[br] 0:25:22.329,0:25:25.280 И затем, столкнувшись с новым случаем, 0:25:25.280,0:25:30.209 мы пересматривали эти принципы, 0:25:30.209,0:25:33.869 рассматривая один в свете другого. 0:25:33.869,0:25:35.850 И мы почувствовали внутри сопротивление, 0:25:35.850,0:25:38.860 пытаясь привести в соответствие 0:25:38.860,0:25:41.550 наши суждения об определённых случаях[br] 0:25:41.550,0:25:46.270 и принципы, лежащие в основе[br]этих суждений. 0:25:46.270,0:25:50.459 Мы также заметили кое-что [br]в содержании доводов, 0:25:50.459,0:25:55.150 которые возникли в ходе обсуждения.[br] 0:25:55.150,0:25:57.449 Мы заметили, что иногда [br]мы испытывали желание 0:25:57.449,0:26:00.649 дать моральную оценку[br]последствиям действий, 0:26:00.649,0:26:06.389 результатам и положению дел, [br]к которому эти действия привели. 0:26:06.389,0:26:11.470 Мы назвали это явление[br]консеквенциальной аргументацией. 0:26:11.470,0:26:13.110 Но мы также заметили, 0:26:13.110,0:26:16.300 что в некоторых ситуациях 0:26:16.300,0:26:18.469 не только результат имел для нас 0:26:18.469,0:26:21.309 значение. 0:26:21.309,0:26:23.180 Иногда, 0:26:23.180,0:26:25.249 как многие из нас почувствовали, 0:26:25.249,0:26:31.240 не только последствия, но и сущность [br]или характер действия 0:26:31.240,0:26:35.229 имеет моральное значение. 0:26:35.229,0:26:40.470 Некоторые люди утверждали, что есть определённые вещи, [br]которые просто категорически неправильны, 0:26:40.470,0:26:42.449 даже если за ними последует 0:26:42.449,0:26:44.240 положительный результат. 0:26:44.240,0:26:45.460 Даже 0:26:45.460,0:26:47.200 если они приведут к спасению жизни пяти людей 0:26:47.200,0:26:49.588 ценой одной жизни. 0:26:49.588,0:26:52.510 Таким образом, мы сравнили консеквенциальные 0:26:52.510,0:26:54.470 моральные принципы 0:26:54.470,0:26:57.930 и категорические. 0:26:57.930,0:26:59.729 Cегодня 0:26:59.729,0:27:01.149 и в ближайшие несколько дней 0:27:01.149,0:27:05.879 мы начнём рассматривать одну [br]из самых влиятельных 0:27:05.879,0:27:10.969 версий консеквенциальной[br]моральной теории 0:27:10.970,0:27:15.709 — философию утилитаризма. 0:27:15.709,0:27:17.410 Джереми Бентам[br] 0:27:17.410,0:27:21.660 — английский политический философ 18-ого века 0:27:21.660,0:27:22.910 дал первое 0:27:22.910,0:27:26.580 чёткое систематическое определение 0:27:26.580,0:27:32.020 утилитаристской моральной теории. 0:27:32.020,0:27:36.260 Идея Бентама, 0:27:36.260,0:27:38.300 его основная мысль, 0:27:38.300,0:27:42.770 очень проста[br] 0:27:42.770,0:27:48.428 и несёт интуитивно понятный посыл. 0:27:48.428,0:27:51.600 Она заключается в следующем: 0:27:51.600,0:27:54.439 правильное действие, 0:27:54.440,0:27:57.619 справедливое действие 0:27:57.619,0:28:01.269 должно максимизировать 0:28:01.269,0:28:02.309 полезность. 0:28:02.309,0:28:06.039 Что он имел в виду под словом «полезность»? 0:28:06.039,0:28:11.490 Под «полезностью» он имел в виду преобладание 0:28:11.490,0:28:13.540 удовольствия над болью, 0:28:13.540,0:28:16.670 счастья над страданием. 0:28:16.670,0:28:22.270 И вот как он достиг принципа максимизации[br]полезности. 0:28:22.270,0:28:24.700 Он начал с наблюдения, заметив, 0:28:24.700,0:28:27.660 что все мы — люди, 0:28:27.660,0:28:31.280 управляемы двумя полновластными [br]"повелителями" — 0:28:31.280,0:28:34.620 болью и удовольствием. 0:28:34.619,0:28:42.300 Нам — людям, нравится удовольствие [br]и не нравится боль. 0:28:42.308,0:28:45.839 И поэтому мы всегда должны основывать [br]наши моральные суждения, 0:28:45.839,0:28:49.150 будь то наши мысли о том, какими должны [br]быть наши поступки в частной жизни, 0:28:49.150,0:28:52.529 или наши мысли в качестве законодателей[br]или граждан 0:28:52.529,0:28:57.029 о том, каким должен быть закон, на следующем: 0:28:57.029,0:29:01.919 нужно действовать, индивидуально [br]или же коллективно, 0:29:01.919,0:29:05.838 в направлении максимизации 0:29:05.838,0:29:07.560 общего уровня 0:29:07.560,0:29:11.259 счастья. 0:29:11.259,0:29:15.320 Утилитаризм Бентама иногда [br]выражается слоганом: 0:29:15.320,0:29:18.799 «наибольшее благо[br]для наибольшего количества». 0:29:18.799,0:29:22.788 Вооружившись этим[br]базовым принципом полезности, 0:29:22.788,0:29:28.090 давайте проверим его,[br]применив к другому случаю. 0:29:28.099,0:29:33.970 На этот раз история не гипотетическая,[br]а вполне реальная. 0:29:33.970,0:29:38.139 Дело Дадли и Стивенса. 0:29:38.139,0:29:41.690 Это знаменитое британское[br]судебное дело 19-ого века, 0:29:41.690,0:29:47.479 которое часто разбирается[br]на юридических факультетах. 0:29:47.479,0:29:50.019 Итак, что же произошло в этом деле? 0:29:50.019,0:29:51.799 Я вкратце изложу его суть, 0:29:51.799,0:29:54.880 и затем я хотел бы услышать, 0:29:54.880,0:29:57.180 как бы вы разрешили его, 0:29:57.180,0:29:59.950 если бы оказались на месте присяжных. 0:30:03.669,0:30:08.849 В газетном отчёте того времени[br]оно было описано так: 0:30:08.849,0:30:14.180 «Нет истории печальнее на свете,[br]чем история выживших 0:30:14.180,0:30:16.180 с яхты «Mignonette» («Резеда»). 0:30:16.180,0:30:21.719 Это судно затонуло в Южной Атлантике[br]в трёхстах милях от Мыса Доброй Надежды. 0:30:21.719,0:30:25.920 На борту было четыре человека:[br]капитан Дадли, 0:30:25.920,0:30:30.020 его главный помощник Стивенс[br]и матрос Брукс. 0:30:30.020,0:30:32.489 Все они были «людьми[br]с безукоризненной репутацией». 0:30:32.489,0:30:35.719 По крайней мере, так сообщается[br]в газетном отчёте. 0:30:35.719,0:30:39.750 Четвёртым членом команды был[br]Ричард Паркер 0:30:39.750,0:30:42.729 — семнадцатилетний юнга. 0:30:42.729,0:30:51.290 Он был сиротой, у него не было семьи,[br]и это было его первое дальнее плавание. 0:30:51.290,0:30:53.700 Как сообщается,[br]он отправился в путешествие, 0:30:53.700,0:30:56.730 не послушавшись совета своих друзей. 0:30:56.730,0:30:59.850 Полный надежд и юношеских амбиций, 0:30:59.850,0:31:03.000 он думал, что путешествие [br]сделает из него мужчину. 0:31:03.000,0:31:05.140 К сожалению, этому не суждено[br]было произойти. 0:31:05.140,0:31:07.479 Факты дела не были предметом спора.[br] 0:31:07.479,0:31:11.940 В судно ударила волна,[br]и «Mignonette» («Резеда») пошла ко дну. 0:31:11.940,0:31:14.739 Экипаж сумел сесть в спасательную шлюпку. 0:31:14.739,0:31:18.269 Единственной едой, которую они имели, 0:31:18.269,0:31:21.600 были две банки консервированной репы. 0:31:21.600,0:31:23.900 Никакой питьевой воды.[br] 0:31:23.900,0:31:26.610 Первые три дня они ничего не ели, 0:31:26.609,0:31:30.250 на четвёртый день они открыли [br]одну из консервных банок 0:31:30.250,0:31:31.530 и съели её содержимое. 0:31:31.530,0:31:34.150 На следующий день они поймали черепаху. 0:31:34.150,0:31:38.250 Оставшаяся банка с репой и черепаха 0:31:38.250,0:31:40.960 помогли им продержаться[br]ещё несколько дней, [br] 0:31:40.960,0:31:43.899 но затем в течение восьми дней[br]у них уже не было ничего, 0:31:43.899,0:31:46.749 ни еды, ни воды. 0:31:46.749,0:31:49.929 Представьте себя в такой ситуации. 0:31:49.929,0:31:52.699 Что бы вы сделали? 0:31:52.699,0:31:55.049 Вот что сделали они. 0:31:55.049,0:32:00.740 К этому моменту юнга Паркер [br]лежал в углу на дне шлюпки, 0:32:00.740,0:32:02.920 потому что напился морской воды, 0:32:02.920,0:32:05.490 не послушав остальных. 0:32:05.490,0:32:07.230 Ему сделалось дурно, 0:32:07.230,0:32:10.619 и было понятно, что он умирает. 0:32:10.619,0:32:14.498 На девятнадцатый день [br]капитан Дадли предложил 0:32:14.498,0:32:18.749 всем бросить жребий 0:32:18.749,0:32:20.859 и определить, кому суждено умереть, 0:32:20.859,0:32:23.820 чтобы спасти остальных. 0:32:23.820,0:32:26.480 Брукс отказался. 0:32:26.480,0:32:29.139 Ему не понравилась идея со жребием. 0:32:29.140,0:32:33.079 Мы не знаем, было ли это вызвано тем,[br]что он не хотел рисковать, 0:32:33.079,0:32:36.859 или же тем, что он верил [br]в категорические моральные принципы, 0:32:36.859,0:32:42.119 но в любом случае[br]жребий так и не был брошен. 0:32:42.130,0:32:45.030 На следующий день спасательного корабля[br]по-прежнему не было, 0:32:45.030,0:32:48.300 и Дадли попросил Брукса отвернуться,[br] 0:32:48.300,0:32:50.730 жестом показав Стивенсу, 0:32:50.730,0:32:53.719 что мальчишку Паркера нужно убить. 0:32:53.719,0:32:55.850 Дадли помолился, 0:32:55.849,0:32:58.450 сказал мальчику, что его время пришло, 0:32:58.450,0:33:00.409 и зарезал его перочинным ножом, 0:33:00.409,0:33:03.640 поразив яремную вену. 0:33:03.640,0:33:09.670 Брукс, отрекшийся от соображений совести,[br]тоже воспользовался этим жутким «подарком».[br] 0:33:09.670,0:33:11.049 Четыре дня 0:33:11.049,0:33:15.230 они втроём питались [br]телом и кровью юнги. 0:33:15.230,0:33:17.140 Реальная история. 0:33:17.140,0:33:19.150 А затем их спасли. 0:33:19.150,0:33:24.619 Дадли описал это спасение[br]в своём дневнике 0:33:24.619,0:33:27.570 поразительным эвфемизмом. Цитата: 0:33:27.569,0:33:29.618 «На двадцать четвёртый день, 0:33:29.618,0:33:34.818 когда мы завтракали, 0:33:34.818,0:33:38.599 наконец-то показался корабль». 0:33:38.599,0:33:44.239 Трое выживших были подобраны немецким кораблём [br]и их отправили назад в Фэлмут, в Англию, 0:33:44.239,0:33:46.749 где они были арестованы и подвергнуты суду. 0:33:46.749,0:33:49.810 Брукс был свидетелем обвинения, 0:33:49.810,0:33:51.970 а Дадли и Стивенс были обвиняемыми. 0:33:51.970,0:33:54.370 Они не оспаривали факты. 0:33:54.370,0:33:57.670 Они утверждали, что действовали [br]в крайних обстоятельствах. 0:33:57.670,0:33:59.430 Это была их линия защиты. 0:33:59.430,0:34:03.110 Они настаивали на том, что смерть[br]одного человека более предпочтительна, 0:34:03.110,0:34:06.430 чем смерть троих. 0:34:06.430,0:34:10.849 Обвинителя не убедил такой аргумент. 0:34:10.849,0:34:13.869 Он сказал: «Убийство есть убийство.» [br]Дело передали в суд. 0:34:13.869,0:34:16.209 Теперь представьте, что вы присяжные. 0:34:16.209,0:34:21.789 Чтобы упростить обсуждение,[br]оставим в стороне вопрос права 0:34:21.789,0:34:25.840 и представим, что как присяжные 0:34:25.840,0:34:28.050 вы должны решить, 0:34:28.050,0:34:34.399 было ли то, что они сделали,[br]морально допустимым или нет. 0:34:34.399,0:34:36.608 Кто из вас 0:34:36.608,0:34:39.689 проголосовал бы 0:34:39.689,0:34:46.809 за то, что они невиновны и что совершённое [br]ими было морально допустимо? 0:34:49.408,0:34:51.639 А кто проголосовал бы за то, что они виновны[br] 0:34:51.639,0:34:54.858 и что совершённое ими было морально недопустимо? 0:34:54.858,0:34:57.998 Значительное большинство. 0:34:57.998,0:35:03.808 Давайте послушаем ваши соображения.[br]Начнём с тех, кто оказался в меньшинстве. 0:35:03.809,0:35:07.669 Давайте сперва предоставим слово защите [br] 0:35:07.669,0:35:10.059 Дадли и Стивенса. 0:35:10.059,0:35:14.149 Почему вы оправдали бы их [br]с моральной точки зрения? 0:35:14.149,0:35:16.369 Чем вы руководствуетесь? 0:35:16.369,0:35:17.989 Пожалуйста. 0:35:17.989,0:35:20.778 Я считаю это предосудительным [br]с моральной точки зрения, 0:35:20.778,0:35:24.229 но существует различие между тем, [br]что нравственно предосудительно, 0:35:24.229,0:35:26.609 и тем, что влечёт юридическую [br]ответственность. 0:35:26.608,0:35:32.140 Или, как мог бы сказать судья, аморальное[br]совсем не обязательно противозаконно. 0:35:32.140,0:35:34.119 И хотя я не считаю,[br]что необходимость чего-либо 0:35:34.119,0:35:36.169 является достаточным основанием 0:35:36.168,0:35:38.578 для кражи, убийства, или другого [br]противозаконного действия, 0:35:38.579,0:35:45.849 степень необходимости в той или иной[br]мере может оправдывать его. 0:35:45.849,0:35:50.398 Кто ещё поддерживает эту [br]точку зрения и согласен 0:35:50.398,0:35:54.208 с моральными обоснованиями их действий? 0:35:54.208,0:35:56.969 Пожалуйста. 0:35:56.969,0:35:58.519 Спасибо. 0:35:58.528,0:36:03.140 Я думаю, в такой отчаянной ситуации вы[br]должны сделать всё возможное чтобы выжить. 0:36:03.140,0:36:04.679 Вы должны сделать всё, что возможно? 0:36:04.679,0:36:06.789 Да, вы должны сделать всё, что можно. 0:36:06.789,0:36:10.439 Если вы девятнадцать дней ничего не ели, 0:36:10.439,0:36:14.630 кто-то из вас должен пожертвовать собой[br]ради спасения остальных. 0:36:14.630,0:36:20.959 Более того, представим, что по возвращении[br]домой, спасшиеся начинают создавать 0:36:20.959,0:36:25.700 миллионы благотворительных организаций [br]и другие подобные вещи. То есть, в итоге всем хорошо. 0:36:25.700,0:36:28.639 Я не знаю, что они сделали после этого случая, [br]но они вполне могли бы продолжать 0:36:28.639,0:36:30.628 убивать людей независимо от... 0:36:30.628,0:36:35.708 От чего? А что если они вернулись [br]домой и превратились в убийц? 0:36:35.708,0:36:39.108 Что если они вернулись домой [br]и превратились в убийц? 0:36:39.108,0:36:42.648 Вы бы хотели знать, кого они убили. 0:36:42.648,0:36:45.309 Да, верно. 0:36:45.309,0:36:46.568 Я хотел бы знать это. 0:36:46.568,0:36:48.048 Это было неплохо. Как вас зовут? 0:36:48.048,0:36:50.708 Маркус. 0:36:50.708,0:36:54.039 Мы услышали сторону защиты,[br]пару голосов в оправдание. 0:36:54.039,0:36:57.290 Теперь послушаем сторону обвинения. 0:36:57.298,0:37:03.578 Большинство людей думает,[br]что они не правы. Почему? 0:37:03.578,0:37:04.628 Пожалуйста. 0:37:04.628,0:37:09.078 Когда я услышала эту историю, я подумала: [br]Так, если они голодали очень долго, 0:37:09.078,0:37:15.089 то, может быть, в этом случае[br]они не были в здравом рассудке. 0:37:15.089,0:37:20.608 И это могло послужить оправданием,[br]в качестве возможного аргумента: 0:37:20.608,0:37:25.859 они были не в своём уме и приняли решение,[br]которое не приняли бы в другой ситуации. 0:37:25.859,0:37:28.519 Думаю, это их оправдывает. 0:37:28.518,0:37:33.348 Трезво мыслящий человек так никогда [br]не поступит. Мне кажется, что есть люди, 0:37:33.348,0:37:36.058 которые находят данный аргумент [br]приемлемым. 0:37:36.058,0:37:37.588 Вы думаете, что они поступили аморально? 0:37:37.588,0:37:39.298 Но я хочу знать что думаете вы. 0:37:39.298,0:37:42.548 Вы голосовали за то, что они виновны, [br]верно? 0:37:42.548,0:37:46.428 Да, я не считаю, что они действовали [br]в рамках морали. 0:37:46.428,0:37:51.069 Но почему нет? Вы же слышали, [br]как Маркус защищал их. 0:37:51.069,0:37:52.709 Он сказал... 0:37:52.709,0:37:53.960 Вы слышали, что он сказал. 0:37:53.960,0:37:56.339 Да, я слышала. 0:37:56.339,0:38:00.019 Что вы должны поступать так, [br]как того требует данная ситуация. 0:38:00.019,0:38:04.759 Что вы ответите Маркусу? 0:38:04.759,0:38:06.428 Я бы сказала, что 0:38:06.428,0:38:13.459 нет такой ситуации, [br]в которой можно было бы 0:38:13.459,0:38:17.238 лишить человека права управлять своей [br]судьбой или лишить человека жизни. 0:38:17.238,0:38:19.868 У нас нет такого права. 0:38:19.868,0:38:22.429 Хорошо, спасибо. Как вас зовут? 0:38:22.429,0:38:23.350 Бритт. 0:38:23.350,0:38:24.548 Бритт? Хорошо. 0:38:24.548,0:38:25.798 Кто-нибудь ещё? 0:38:25.798,0:38:28.059 Что вы скажете? Встаньте, пожалуйста. 0:38:28.059,0:38:30.039 Мне вот что интересно.[br]Если бы Дадли и Стивенс 0:38:30.039,0:38:35.509 спросили Ричарда Паркера,[br]согласен ли он ...умереть, 0:38:35.509,0:38:37.519 то могло бы это... 0:38:37.519,0:38:42.268 Могло бы это оправдать [br]совершённое убийство 0:38:42.268,0:38:45.269 и если да, то было бы ли это оправданно [br]с точки зрения морали? 0:38:45.269,0:38:49.539 Это любопытно. Согласие.[br]Подождите, как вас зовут? 0:38:49.539,0:38:51.639 Кэтлин. 0:38:51.639,0:38:55.459 Кэтлин предлагает представить, как бы[br]могла выглядеть эта сцена в таком случае. 0:38:55.459,0:39:02.610 Итак, представьте: Дадли с ножом в руке,[br]но вместо молитвы, 0:39:02.610,0:39:04.588 или перед молитвой, 0:39:04.588,0:39:06.348 он спрашивает: 0:39:06.348,0:39:11.528 «Паркер, ты не возражаешь? 0:39:11.528,0:39:14.348 Мы тут безумно проголодались..." 0:39:14.349,0:39:17.679 Смотрите, как Маркус сопереживает им. 0:39:17.679,0:39:22.089 «Мы безумно проголодались,[br]а тебе, в любом случае, недолго осталось. 0:39:22.089,0:39:23.458 Ты можешь стать мучеником. 0:39:23.458,0:39:25.708 Не хочешь стать мучеником? 0:39:25.708,0:39:29.179 Что скажешь, Паркер?» 0:39:29.179,0:39:33.089 В этом случае 0:39:33.089,0:39:36.939 можете ли вы оправдать это [br]с точки зрения морали? 0:39:36.939,0:39:42.889 Допустим, Паркер в оцепенении говорит:[br]«Ну ладно, я согласен». 0:39:42.889,0:39:45.359 Я не считаю, что это морально оправдывает[br]убийство, но мне просто интересно... 0:39:45.359,0:39:47.839 Даже в этом случае? Даже в этом случае, [br]не было бы оправдания? Нет. 0:39:47.839,0:39:52.390 Вы не считаете, что даже с согласия[br]это может быть морально оправданно. 0:39:52.390,0:39:57.458 Есть тут люди, готовые подхватить[br]идею Кэтлин о согласии? 0:39:57.458,0:40:00.148 И кто считает, что в таком случае их действия [br]были бы морально оправданны? 0:40:00.148,0:40:05.739 Поднимите руку, если вы с этим согласны. 0:40:05.739,0:40:07.458 Вот это интересно. 0:40:07.458,0:40:14.038 Почему же наличие согласия[br]создало такую разницу? 0:40:14.038,0:40:15.679 С чего бы это? 0:40:15.679,0:40:18.419 Я думаю, что если бы Паркер [br]сам принимал решение, 0:40:18.419,0:40:20.899 если бы это было его собственной идеей, 0:40:20.899,0:40:25.768 то только в такой ситуации [br]это было бы допустимо. 0:40:25.768,0:40:28.380 Потому что в такой ситуации вы[br]не можете сказать, 0:40:28.380,0:40:31.979 что на него было оказано давление,[br]что их было трое против одного. 0:40:31.979,0:40:33.199 Верно. 0:40:33.199,0:40:39.430 Мне кажется, принимая такое решение,[br]он делает это по собственной воле. 0:40:39.430,0:40:41.428 Конечно, одним людям это покажется [br]поступком, достойным восхищения, 0:40:41.428,0:40:45.319 а другие могут быть не согласны [br]с такой оценкой. 0:40:45.319,0:40:48.999 Итак, если он сам предложил эту идею, 0:40:48.999,0:40:52.520 то это будет единственным вариантом [br]согласия, который бы нас устроил 0:40:52.520,0:40:54.858 с точки зрения морали. [br]Тогда это было бы допустимо. 0:40:54.858,0:40:57.268 В ином случае 0:40:57.268,0:40:59.579 это будет, скажем так,[br]согласие под принуждением, 0:40:59.579,0:41:01.489 согласие под воздействием обстоятельств. 0:41:01.489,0:41:05.228 Так вы считаете. 0:41:05.228,0:41:07.349 Кто-нибудь из вас считает, 0:41:07.349,0:41:10.859 что даже согласие Паркера 0:41:10.859,0:41:15.479 не оправдывает его убийство? 0:41:15.479,0:41:17.338 Кто так думает? 0:41:17.338,0:41:19.548 Да. Расскажите нам почему вы так думаете. [br]Встаньте, пожалуйста. 0:41:19.548,0:41:22.860 Я думаю, что Паркер был убит в надежде, 0:41:22.860,0:41:26.379 что все остальные члены экипажа [br]впоследствии будут спасены. 0:41:26.379,0:41:29.000 Но для его убийства нет[br]объективных причин, 0:41:29.000,0:41:32.439 потому что вы даже не знаете,[br]спасут вас вообще или нет, 0:41:32.439,0:41:34.429 так что его убийство может быть [br]совершенно напрасным. 0:41:34.429,0:41:38.039 Вы так и будете убивать одного за другим,[br]пока не останетесь один или вас не спасут? 0:41:38.039,0:41:39.949 Просто потому что кто-то[br]всё равно умрёт? 0:41:39.949,0:41:44.159 С позиций морали, смысл ситуации в том,[br] 0:41:44.159,0:41:50.059 что они жертвуют слабейшим, [br]одним за другим, 0:41:50.059,0:41:51.929 пока не будут спасены. 0:41:51.929,0:41:57.679 И в этом случае по счастливой[br]случайности, три человека остались живы. 0:41:57.679,0:42:01.210 Но если бы Паркер согласился, 0:42:01.210,0:42:03.488 как вы думаете, это было бы правильным? 0:42:03.488,0:42:06.329 Нет, я по-прежнему[br]не считаю это правильным. 0:42:06.329,0:42:08.030 Обоснуйте почему. 0:42:08.030,0:42:12.838 Во-первых, я считаю, что каннибализм[br]аморален в принципе. 0:42:12.838,0:42:14.470 Вы не должны есть людей ни в каком случае.[br] 0:42:14.470,0:42:16.819 Итак, 0:42:16.819,0:42:22.410 каннибализм неприемлем[br]даже в том случае, 0:42:22.410,0:42:24.318 когда мы знаем, что человек [br]точно умрёт? 0:42:24.318,0:42:26.198 Даже в этом случае? 0:42:26.198,0:42:27.959 Да, лично для меня. 0:42:27.959,0:42:31.189 Мне кажется, что всё это зависит 0:42:31.199,0:42:35.258 от личных моральных принципов человека. 0:42:35.258,0:42:36.808 Это только моё мнение. 0:42:36.808,0:42:39.339 Конечно, не все с этим согласятся. 0:42:39.338,0:42:41.498 Хорошо. Давайте послушаем [br]аргументы «против», 0:42:41.498,0:42:46.199 а затем посмотрим, смогут ли они[br]переубедить вас или нет? 0:42:46.199,0:42:48.248 Давайте попробуем. 0:42:48.248,0:42:50.098 Итак, 0:42:50.099,0:42:53.249 есть ли здесь кто-нибудь, 0:42:53.248,0:42:57.869 кому импонирует идея согласия [br]и кто мог бы объяснить. 0:42:57.869,0:43:03.328 Можете ли вы объяснить,[br]почему согласие всё кардинально меняет? 0:43:03.328,0:43:05.600 А как насчёт идеи с жребием? 0:43:05.600,0:43:08.809 Может ли это считаться своего рода [br]согласием? Помните, в начале истории 0:43:08.809,0:43:10.989 Дадли предложил тянуть жребий. 0:43:10.989,0:43:16.119 Предположим, что они согласились[br]тянуть жребий. 0:43:16.119,0:43:20.819 Теперь кто из вас за то, 0:43:20.819,0:43:23.769 что это было бы правильно? [br]Предположим, они тянули жребий, 0:43:23.769,0:43:25.380 и юнга проиграл. 0:43:25.380,0:43:33.160 Далее происходит история, которую мы уже[br]знаем. Было бы тогда это допустимым? 0:43:33.160,0:43:37.030 В случае со жребием число согласных[br]увеличилось. Давайте послушаем кого-нибудь 0:43:37.030,0:43:41.609 для кого с моральной точки зрения [br]принципиален жребий. 0:43:41.608,0:43:43.458 Почему вы так считаете? 0:43:43.458,0:43:45.709 Я думаю, что это принципиальный момент. 0:43:45.719,0:43:47.858 На мой взгляд, преступлением [br]этот поступок делает то, 0:43:47.858,0:43:53.848 что Дадли и Стивенс в один момент решили, [br]что их жизни важнее, чем жизнь юнги. 0:43:53.849,0:43:56.609 Я имею в виду, что подобная мысль является [br]предпосылкой любого преступления. 0:43:56.608,0:43:58.938 Это равнозначно признанию того,[br]что мои потребности, мои желания 0:43:58.938,0:44:01.949 является более важными, [br]более предпочтительными, чем ваши. 0:44:01.949,0:44:04.798 А если бы они тянули жребий,[br]согласившись с тем, 0:44:04.798,0:44:06.478 что кто-то из них должен умереть 0:44:06.478,0:44:09.239 и пожертвовать таким образом собой, 0:44:09.239,0:44:10.959 чтобы спасти остальных. 0:44:10.959,0:44:12.919 Тогда всё будет в порядке? 0:44:12.919,0:44:15.840 Немного абсурдно, но, 0:44:15.840,0:44:18.828 Но допустимо с точки зрения морали? [br]Да. 0:44:18.828,0:44:20.958 Как вас зовут? [br]Мэтт. 0:44:20.958,0:44:25.578 Что ж, Мэтт, вас смущает 0:44:25.579,0:44:28.259 не сам факт каннибализма, 0:44:28.259,0:44:31.389 а отсутствие должной процедуры? 0:44:31.389,0:44:34.689 Я думаю, да. 0:44:34.688,0:44:38.170 Может ли кто-нибудь из тех,[br]кто согласен с Мэттом, 0:44:38.170,0:44:40.410 что-нибудь добавить к сказанному 0:44:40.410,0:44:46.738 о том, почему жребий сделает этот поступок 0:44:46.738,0:44:50.528 допустимым с точки зрения морали? 0:44:50.528,0:44:53.938 Мне кажется, что основная проблема [br]заключается именно в том, 0:44:53.938,0:44:58.758 что юнгу даже не спрашивали,[br]когда решали его судьбу. 0:44:58.758,0:45:01.018 Даже в ситуации [br]с несостоявшимся жребием. 0:45:01.018,0:45:02.810 Будет или не будет он в нём участвовать,[br]им показалось неважным. 0:45:02.810,0:45:05.690 Было просто решено, что именно [br]мальчик должен умереть. 0:45:05.690,0:45:08.170 Да, так и произошло на самом деле. 0:45:08.170,0:45:11.900 Но если бы все они тянули жребий, и все [br]были бы согласны с этой процедурой, 0:45:11.900,0:45:13.399 считали бы вы это правильным? 0:45:13.399,0:45:16.418 Да, потому что тогда все бы [br]знали, что кто-то из них умрёт, 0:45:16.418,0:45:18.879 в то время как в реальной [br]ситуации юнга не знал, 0:45:18.879,0:45:21.038 что Дадли и Стивенс решают его судьбу. 0:45:21.039,0:45:26.309 Ему никто никто не сказал,[br]что он может умереть. 0:45:26.309,0:45:29.299 Хорошо, предположим,[br]что все согласились тянуть жребий. 0:45:29.299,0:45:34.368 Все бросили жребий. Но представьте себе, [br]что юнга проиграл и передумал. 0:45:34.368,0:45:37.029 Вы уже всё решили, это своего рода [br]устное соглашение, 0:45:37.029,0:45:40.989 вы не можете взять свои слова обратно.[br]Решение было принято. 0:45:40.989,0:45:45.148 Вы понимаете, что умираете ради того,[br]чтобы спасти других. 0:45:45.148,0:45:48.208 Вы осознаёте, что если бы кому-то другому [br]выпал жребий умереть, 0:45:48.208,0:45:51.009 то его так же съели бы, так что... 0:45:51.009,0:45:56.709 Хорошо, но потом он мог бы сказать: [br]«Знаю, но я проиграл.» 0:45:56.709,0:46:02.688 Я считаю, что основная нравственная проблема [br]в том, что юнгу никто не спрашивал. 0:46:02.688,0:46:07.048 Самое ужасное то, что он даже[br]не представлял, что происходит. 0:46:07.048,0:46:10.599 Если бы он осознавал это,[br]то результат был бы 0:46:10.599,0:46:12.278 немного более справедливым. 0:46:12.278,0:46:14.509 Хорошо. Теперь, мне интересно узнать вот что. 0:46:14.510,0:46:16.919 Некоторые из вас считают, 0:46:16.919,0:46:18.719 что это морально допустимо, 0:46:18.719,0:46:23.878 но вас всего около 20 процентов. 0:46:23.878,0:46:26.389 Во главе с Маркусом. 0:46:26.389,0:46:28.439 Другие же считают, 0:46:28.438,0:46:30.208 что основная проблема заключается 0:46:30.208,0:46:32.678 в отсутствии согласия,[br] 0:46:32.678,0:46:36.919 будь то отсутствие согласия [br]тянуть справедливый жребий 0:46:36.919,0:46:38.488 или же, 0:46:38.488,0:46:39.690 как считает Кэтлин, 0:46:39.690,0:46:42.899 отсутствие согласия в момент 0:46:42.899,0:46:44.979 смерти. 0:46:44.979,0:46:49.038 Если мы предположим наличие согласия, то 0:46:49.038,0:46:51.889 уже больше людей будут готовы признать, 0:46:51.889,0:46:54.528 что эта жертва морально оправданна. 0:46:54.528,0:46:58.388 Теперь я хочу выслушать[br]тех, кто считает,[br] 0:46:58.388,0:47:00.139 что даже при наличии согласия, 0:47:00.139,0:47:01.758 даже при условии организации жребия, 0:47:01.759,0:47:08.009 даже, если бы в самый [br]последний момент Паркер 0:47:08.018,0:47:09.179 вяло согласился, 0:47:09.179,0:47:12.578 это всё равно[br]было бы неправильно.[br] 0:47:12.578,0:47:15.458 И я хочу услышать,[br]почему это было бы неправильно. 0:47:15.458,0:47:16.858 Да. 0:47:16.858,0:47:22.718 Всё это время я склонялась[br]к категорической аргументации. 0:47:22.718,0:47:25.428 И думаю, 0:47:25.428,0:47:29.368 что возможно, я готова [br]принять вариант со жребием, 0:47:29.368,0:47:33.660 при котором проигравший [br]собственноручно убивает себя. 0:47:33.660,0:47:37.218 Тогда убийства как такового не будет, [br]но я по-прежнему считаю, 0:47:37.218,0:47:39.768 что даже в таком случае будет принуждение. 0:47:39.768,0:47:43.338 И я не думаю, что тут есть раскаяние. [br]Вспомните, что написано в дневнике Дадли:[br] 0:47:43.338,0:47:44.909 "…когда мы завтракали". 0:47:44.909,0:47:51.799 Это выглядит так, как будто он[br]не видит ценности в жизни других. 0:47:51.799,0:47:55.359 Это заставляет меня принять[br]категорическую аргументацию. 0:47:55.359,0:47:57.489 Вы хотите наказать Дадли[br]по полной программе, 0:47:57.489,0:48:00.758 если он не раскаивается или не чувствует,[br]что поступил неправильно? 0:48:00.758,0:48:02.158 Да. 0:48:02.158,0:48:08.769 Хорошо. Есть ещё кто-нибудь, 0:48:08.769,0:48:13.558 кто считает, что это категорически неправильно, [br]с согласием или без него. Да, пожалуйста. Почему? 0:48:13.558,0:48:17.129 Я считаю, что в понятиях нашего общества [br]убийство есть убийство. 0:48:17.129,0:48:21.489 Убийство есть убийство, и в любом случае [br]наше общество негативно к этому относится. 0:48:21.489,0:48:23.239 Я не считаю, что это зависит [br]от обстоятельств. 0:48:23.239,0:48:24.720 Позвольте мне задать вам вопрос. 0:48:24.720,0:48:27.119 На кону было три жизни 0:48:27.119,0:48:30.489 против одной. 0:48:30.489,0:48:34.348 У юнги не было ни семьи,[br]ни тех, о ком нужно было заботиться. 0:48:34.348,0:48:39.149 У трёх других человек дома остались [br]семьи, у них были иждивенцы: 0:48:39.149,0:48:41.198 жёны и дети. 0:48:41.198,0:48:43.099 Вспомните Бентама. 0:48:43.099,0:48:47.969 Бентам считал, что мы должны учитывать[br]благосостояние, полезность и счастье 0:48:47.969,0:48:51.298 для всех. Мы должны сложить всё вместе. 0:48:51.298,0:48:54.509 Поэтому это не просто цифра [br]«три» против цифры «один», 0:48:54.509,0:48:58.759 а ещё и все эти люди, [br]ждущие моряков дома. 0:48:58.759,0:49:00.909 Надо сказать, что во время [br]разбирательства пресса 0:49:00.909,0:49:05.438 и общественное мнение сочувствовали[br]Дадли и Стивенсу. 0:49:05.438,0:49:10.529 В газете писали, что если бы ими[br]не двигали привязанность 0:49:10.529,0:49:12.579 к своим близким, оставшимся дома,[br]и беспокойство о них, 0:49:12.579,0:49:14.039 они бы несомненно не совершили [br]этот страшный поступок. 0:49:14.039,0:49:17.369 Да, но тогда как они отличаются[br]от людей, просящих милостыню 0:49:17.369,0:49:21.109 и которые так же хотят прокормить свою [br]семью? Здесь нет большой разницы.[br] 0:49:21.109,0:49:25.279 Если я убиваю кого-то, чтобы улучшить своё[br]положение, это не перестаёт быть убийством. 0:49:25.280,0:49:26.919 Нужно смотреть на это так. 0:49:26.919,0:49:30.278 Мы считаем преступлениями [br]только определённые поступки. 0:49:30.278,0:49:33.760 При этом некоторые из них кажутся [br]нам более жестокими и дикими, 0:49:33.760,0:49:36.680 хотя в их основе всегда лежит[br]один и тот же стимул: 0:49:36.680,0:49:39.850 необходимость прокормить свои семьи. 0:49:39.850,0:49:43.068 Предположим, что людей в исходной [br]ситуации было бы не трое, а тридцать 0:49:43.068,0:49:44.508 или триста. 0:49:44.508,0:49:47.298 Пожертвовать одной жизнью, [br]чтобы спасти три сотни 0:49:47.298,0:49:48.349 или больше,[br] 0:49:48.349,0:49:49.589 три тысячи. 0:49:49.590,0:49:51.039 Предположим, что ставки были ещё больше. 0:49:51.039,0:49:52.778 Предположим, что ставки были ещё больше. 0:49:52.778,0:49:54.368 Я думаю, что это по-прежнему то же самое.[br] 0:49:54.368,0:49:58.709 Вы думаете, что Бентам ошибался, [br]говоря, что необходимо 0:49:58.709,0:50:02.408 суммировать всё общественное счастье? [br]Вы думаете, что он ошибался насчёт этого? 0:50:02.408,0:50:05.098 Я не считаю, что он ошибался, но[br]убийство есть убийство в любом случае. 0:50:05.098,0:50:06.728 Значит Бентам определённо ошибается. 0:50:06.728,0:50:08.028 Если вы правы, то не прав он. 0:50:08.028,0:50:09.248 Хорошо, тогда он не прав. 0:50:09.248,0:50:13.058 Хорошо, спасибо. Это было отлично. 0:50:13.058,0:50:18.538 Давайте отвлечёмся от этого обсуждения 0:50:18.538,0:50:19.728 и обратим внимание на то, 0:50:19.728,0:50:23.259 сколько было возражений по поводу [br]поступка Дадли и Стивенса. 0:50:23.259,0:50:26.048 Мы услышали несколько мнений [br]в защиту того, что они сделали. 0:50:26.048,0:50:28.919 Их оправдывали тем, что они находились[br]в ситуации крайней необходимости, 0:50:28.919,0:50:32.138 в ужасных обстоятельствах. 0:50:32.138,0:50:33.409 И косвенно оправдывали [br]количественным аргументом: 0:50:33.409,0:50:36.018 «три жизни против одной». 0:50:36.018,0:50:40.378 Говорили, что дело не только в количестве,[br]но и в более важных обстоятельствах, 0:50:40.380,0:50:43.208 в том, что дома у них[br]остались семьи и близкие. 0:50:43.208,0:50:47.898 Паркер же был сиротой,[br]никто бы не скучал по нему. 0:50:47.898,0:50:52.658 Таким образом, если вы сложите всё это[br]и попробуете оценить 0:50:52.658,0:50:56.508 соотношение счастья и страдания, 0:50:56.508,0:51:02.758 то у вас будут основания утверждать, [br]что они поступили правильно. 0:51:02.768,0:51:09.399 Затем мы услышали по крайней мере [br]три различных типа возражений. 0:51:09.399,0:51:11.650 Например, возражение о том, 0:51:11.650,0:51:14.108 что они поступили неправильно [br]с категорической точки зрения. 0:51:14.108,0:51:17.150 Вы так сказали. Неправильно [br]с категорической точки зрения. 0:51:17.150,0:51:19.540 Убийство есть убийство,[br]и это всегда плохо, 0:51:19.540,0:51:20.969 даже если 0:51:20.969,0:51:23.349 при этом повысится[br]общий уровень счастья 0:51:23.349,0:51:25.639 в обществе. 0:51:25.639,0:51:28.398 Это категорическое возражение. 0:51:28.398,0:51:30.699 Но нам всё равно нужно понять, 0:51:30.699,0:51:32.698 почему убийство 0:51:32.698,0:51:35.329 является категорически неправильным. 0:51:35.329,0:51:38.279 Потому ли, что 0:51:38.279,0:51:42.138 даже у юнги есть фундаментальные права? 0:51:42.138,0:51:44.280 И если в этом вся причина, 0:51:44.280,0:51:47.750 то откуда возникают эти права,[br]если не от идеи 0:51:47.750,0:51:53.209 повышения общественного благосостояния, [br]полезности или счастья? Это первый вопрос. 0:51:53.208,0:51:56.308 Другие утверждали, 0:51:56.309,0:51:58.449 что в случае со жребием было бы иначе. 0:51:58.449,0:52:00.039 Справедливая процедура, 0:52:00.039,0:52:05.949 как заметил Мэтт. 0:52:05.949,0:52:08.769 И некоторые из вас склонились к этой точке зрения. 0:52:08.768,0:52:12.188 Но это не совсем категорическое возражение. 0:52:12.188,0:52:13.828 Это утверждение о том, 0:52:13.829,0:52:16.798 что все должны считаться равными, 0:52:16.798,0:52:18.469 даже если в конце концов 0:52:18.469,0:52:20.769 один человек будет принесён в жертву 0:52:20.768,0:52:23.288 ради общего блага. 0:52:23.289,0:52:26.059 Это заставляет нас задуматься о следующем. 0:52:26.059,0:52:29.670 Почему согласие на определённую процедуру, 0:52:29.670,0:52:31.969 пусть даже справедливую, 0:52:31.969,0:52:34.739 оправдывает любой результат, 0:52:34.739,0:52:38.088 вытекающий из этой процедуры? 0:52:38.088,0:52:39.898 Это второй вопрос. 0:52:39.898,0:52:42.398 И наконец третий вопрос - 0:52:42.398,0:52:45.338 фундаментальная идея о согласии. 0:52:45.338,0:52:48.528 Эту мысль высказала Кэтлин. 0:52:48.528,0:52:52.719 Если бы юнга согласился сам, 0:52:52.719,0:52:54.499 и никто бы его к этому не принуждал, 0:52:54.498,0:52:57.068 как было отмечено, 0:52:57.068,0:53:01.918 то пожертвовать его жизнью ради жизни [br]других было вполне нормальным. 0:53:01.918,0:53:04.900 Эту идею поддержали ещё больше людей, 0:53:04.900,0:53:06.630 но это приводит нас 0:53:06.630,0:53:08.528 к третьему философскому вопросу. 0:53:08.528,0:53:11.009 Какова моральная основа 0:53:11.009,0:53:12.838 согласия? 0:53:12.838,0:53:14.438 0:53:14.438,0:53:16.978 Почему акт согласия 0:53:16.978,0:53:19.188 так существенно меняет дело [br]с моральной точки зрения? 0:53:19.188,0:53:23.818 Так меняет, что поступок, который в любом другом случае [br]мы бы посчитали неправильным и назвали бы убийством, 0:53:23.818,0:53:25.369 является допустимым 0:53:25.369,0:53:26.358 с точки зрения морали, 0:53:26.358,0:53:29.619 если на него было дано согласие. 0:53:29.619,0:53:31.699 Чтобы ответить на эти три вопроса, 0:53:31.699,0:53:34.058 нам с вами нужно будет изучить [br]сочинения неcкольких философов. 0:53:34.058,0:53:38.688 В следующий раз мы начнём[br]с Бентама и Джона Стюарта Милля — 0:53:38.688,0:53:43.798 философов-утилитаристов. 0:53:43.798,0:53:47.298 0:53:43.798,0:53:47.298 0:53:49.869,0:53:56.869 0:54:36.219,0:54:40.269 0:54:40.268,0:54:41.678