WEBVTT 00:00:33.443 --> 00:00:37.230 Это курс по теории справедливости, и мы начнём его с мысленного эксперимента. NOTE Paragraph 00:00:37.230 --> 00:00:44.509 Представьте, что вы водитель трамвая, который несётся со скоростью 100 км/ч, 00:00:44.509 --> 00:00:49.390 И вдруг вдалеке на рельсах вы замечаете пятерых рабочих. 00:00:49.390 --> 00:00:51.569 Вы пытаетесь остановиться, но не можете: 00:00:51.569 --> 00:00:53.539 тормоза не работают. 00:00:53.539 --> 00:00:56.630 Вы в полном отчаянии, поскольку знаете, 00:00:56.630 --> 00:00:59.460 что если врежетесь в этих рабочих, 00:00:59.460 --> 00:01:01.320 то все они погибнут. 00:01:01.320 --> 00:01:04.879 Предположим, вы знаете это наверняка. 00:01:04.879 --> 00:01:07.019 Итак, вы не знаете что делать, 00:01:07.019 --> 00:01:09.320 но вдруг замечаете, 00:01:09.320 --> 00:01:12.940 что справа есть боковая ветка. 00:01:12.940 --> 00:01:18.830 И на конце этой ветки находится только один рабочий. 00:01:18.830 --> 00:01:21.148 Руль трамвая исправен, 00:01:21.148 --> 00:01:25.758 и, если захотите, вы можете повернуть 00:01:25.758 --> 00:01:28.550 на эту боковую ветку 00:01:28.550 --> 00:01:30.340 и, тем самым, убить одного рабочего, 00:01:30.340 --> 00:01:33.009 но спасти жизнь пятерым. 00:01:33.009 --> 00:01:35.819 И вот наш первый вопрос: 00:01:35.819 --> 00:01:38.659 как правильно поступить? 00:01:38.659 --> 00:01:40.328 Как бы вы поступили? 00:01:40.328 --> 00:01:42.460 Давайте проголосуем. 00:01:42.460 --> 00:01:47.720 Кто бы повернул на боковую ветку? 00:01:47.720 --> 00:01:51.790 Поднимите руки. 00:01:51.790 --> 00:01:53.415 Кто не стал бы этого делать 00:01:53.415 --> 00:01:57.645 и поехал бы дальше? 00:01:57.645 --> 00:02:03.979 Не опускайте руки те, кто поехал бы дальше. 00:02:03.979 --> 00:02:08.198 Большинство. Подавляющее большинство повернуло бы. 00:02:08.198 --> 00:02:09.878 Давайте теперь разберёмся, 00:02:09.878 --> 00:02:14.979 почему вы приняли именно такое решение. 00:02:14.979 --> 00:02:18.209 И давайте начнём с большинства. 00:02:18.209 --> 00:02:21.949 С тех, кто бы повернул на боковую ветку. 00:02:21.949 --> 00:02:23.508 Почему бы вы это сделали? 00:02:23.508 --> 00:02:25.638 Что сподвигло бы вас на это? 00:02:25.638 --> 00:02:29.868 Кто хочет высказаться? Есть добровольцы? 00:02:29.868 --> 00:02:32.018 Начинайте. Встаньте, пожалуйста. 00:02:32.018 --> 00:02:35.000 Я думаю, что неправильно убивать пять человек, 00:02:35.000 --> 00:02:39.476 когда есть возможность убить только одного. 00:02:39.476 --> 00:02:42.177 Было бы неправильно убивать пятерых, 00:02:42.177 --> 00:02:46.877 если вместо этого вы можете убить только одного. 00:02:46.877 --> 00:02:48.399 Да, неплохая причина. 00:02:48.399 --> 00:02:52.709 Действительно неплохая. 00:02:52.719 --> 00:02:53.692 Кто-нибудь ещё? 00:02:53.692 --> 00:02:56.312 Все согласны с таким 00:02:56.312 --> 00:02:59.552 объяснением? 00:02:59.552 --> 00:03:01.252 Да, пожалуйста. 00:03:01.252 --> 00:03:05.399 Я думаю этот случай похож на то, что произошло с самолётом, 00:03:05.399 --> 00:03:09.259 который разбился в Пенсильвании 11 сентября. 00:03:09.259 --> 00:03:11.598 Те люди - настоящие герои - предпочли погибнуть, 00:03:11.598 --> 00:03:15.918 чтобы избежать большего количества жертв среди людей, которые находились на земле. 00:03:15.918 --> 00:03:19.121 То есть ими руководила та же логика: 00:03:19.121 --> 00:03:20.901 в такой безнадёжной ситуации 00:03:20.901 --> 00:03:25.356 лучше убить одного, но спасти пятерых. 00:03:25.359 --> 00:03:30.528 Именно так считают те, кто бы повернул? Верно? 00:03:30.528 --> 00:03:33.468 Давайте теперь послушаем мнение тех, 00:03:33.468 --> 00:03:35.318 кто оказался в меньшинстве. 00:03:35.318 --> 00:03:39.148 Тех, кто бы не повернул. 00:03:39.148 --> 00:03:40.522 Да. 00:03:40.522 --> 00:03:45.276 Я думаю, что это такой же подход, который оправдывает геноцид и тоталитаризм. 00:03:45.276 --> 00:03:50.229 Для того, чтобы спасти представителей одной расы, вы уничтожаете другую. 00:03:50.229 --> 00:03:51.965 И что бы вы сделали в этом случае? 00:03:51.965 --> 00:03:53.188 Для того, 00:03:53.188 --> 00:03:55.338 чтобы избежать 00:03:55.338 --> 00:03:57.618 ужасов геноцида, 00:03:57.618 --> 00:04:03.518 вы предпочли бы врезаться в пятерых рабочих и убить их? 00:04:03.518 --> 00:04:05.542 Думаю, да. 00:04:05.542 --> 00:04:06.322 Правда? 00:04:06.322 --> 00:04:07.434 Да. 00:04:07.434 --> 00:04:09.804 Хорошо. Кто ещё хочет высказать своё мнение? 00:04:09.806 --> 00:04:13.251 Это смелый ответ. Спасибо. 00:04:13.251 --> 00:04:15.664 Давайте теперь рассмотрим 00:04:15.664 --> 00:04:20.034 другой пример с трамваем, 00:04:20.034 --> 00:04:23.800 и посмотрим, будет ли 00:04:23.800 --> 00:04:27.220 большинство из вас 00:04:27.220 --> 00:04:30.820 придерживаться той же самой логики: 00:04:30.820 --> 00:04:33.320 лучше убить одного, чтобы пятеро остались живы. 00:04:33.320 --> 00:04:38.050 В этот раз вы не водитель трамвая, вы переводите стрелки. 00:04:38.050 --> 00:04:42.389 Вы стоите на мосту и наблюдаете за рельсами. 00:04:42.389 --> 00:04:45.599 И вот по рельсам летит трамвай. 00:04:45.599 --> 00:04:49.488 На другом конце пять рабочих. 00:04:49.488 --> 00:04:51.659 Тормоза не работают, 00:04:51.659 --> 00:04:55.799 трамвай вот-вот в них врежется и задавит. 00:04:55.799 --> 00:04:56.989 Сейчас 00:04:56.989 --> 00:04:58.639 вы не водитель 00:04:58.639 --> 00:05:00.999 и совершенно не знаете что делать. 00:05:00.999 --> 00:05:02.769 И тут вы замечаете, 00:05:02.769 --> 00:05:06.479 что рядом с вами 00:05:06.479 --> 00:05:08.569 стоит, прислонившись к перилам 00:05:08.569 --> 00:05:09.744 моста, 00:05:09.744 --> 00:05:15.264 очень толстый человек. 00:05:15.264 --> 00:05:18.764 И вы могли бы 00:05:18.764 --> 00:05:20.124 его немного 00:05:20.124 --> 00:05:22.524 подтолкнуть. 00:05:22.524 --> 00:05:24.543 Он упал бы с моста 00:05:24.543 --> 00:05:27.653 прямо на рельсы, 00:05:27.653 --> 00:05:30.233 на пути 00:05:30.233 --> 00:05:32.012 трамвая. 00:05:32.012 --> 00:05:33.302 Он бы погиб, 00:05:33.302 --> 00:05:36.079 но при этом спас бы жизни пятерым. 00:05:36.079 --> 00:05:38.819 Итак. 00:05:38.819 --> 00:05:40.992 Кто столкнул бы 00:05:40.992 --> 00:05:42.552 толстяка с моста? 00:05:42.552 --> 00:05:48.012 Поднимите руки. 00:05:48.012 --> 00:05:50.945 Кто не стал бы этого делать? 00:05:50.945 --> 00:05:53.909 Большинство не стало бы. 00:05:53.909 --> 00:05:55.583 Возникает закономерный вопрос: 00:05:55.583 --> 00:05:56.853 Что стало 00:05:56.853 --> 00:05:59.973 с тем принципом: 00:05:59.973 --> 00:06:03.502 спасение жизни пятерых оправдывает потерю жизни одного. 00:06:03.502 --> 00:06:04.942 Что стало с тем принципом, 00:06:04.942 --> 00:06:07.380 который в первом случае 00:06:07.380 --> 00:06:09.250 поддерживали почти все? 00:06:09.250 --> 00:06:12.463 Я хотел бы услышать мнение тех, кто был в большинстве в обоих этих 00:06:12.463 --> 00:06:13.453 примерах. 00:06:13.453 --> 00:06:16.423 Как вы объясните разницу между ними? 00:06:16.423 --> 00:06:17.903 Да, пожалуйста. 00:06:17.903 --> 00:06:21.508 Полагаю, что во втором случае у вас есть выбор: 00:06:21.508 --> 00:06:24.288 толкнуть или не толкнуть человека. 00:06:24.289 --> 00:06:31.329 Я думаю, что этот человек не имеет никакого отношения к ситуации, 00:06:31.329 --> 00:06:36.313 и вы как бы принимаете решение за него, 00:06:36.313 --> 00:06:39.906 вмешиваться в эту ситуацию или нет. 00:06:39.906 --> 00:06:42.768 В отличие от первого случая, 00:06:42.768 --> 00:06:47.838 когда все три стороны: водитель и две группы рабочих, 00:06:47.838 --> 00:06:50.484 уже принимают активное участие в ситуации. 00:06:50.484 --> 00:06:54.891 Но ведь тот парень, который один работает на рельсах, на боковой ветке, 00:06:54.891 --> 00:06:57.561 он же сам не принимал решения пожертвовать своей жизнью, 00:06:57.561 --> 00:07:01.830 точно так же, как тот толстяк на мосту, не так ли? 00:07:01.830 --> 00:07:05.339 Да, это так. Но он был на рельсах. 00:07:05.339 --> 00:07:10.354 А этот парень был на мосту! 00:07:10.354 --> 00:07:13.250 Если хотите, можете продолжить. 00:07:13.250 --> 00:07:15.267 Ладно, это непростой вопрос, 00:07:15.267 --> 00:07:16.987 но вы очень хорошо справились. 00:07:16.987 --> 00:07:19.527 Очень непростой вопрос. 00:07:19.527 --> 00:07:21.030 Кто-нибудь ещё 00:07:21.030 --> 00:07:22.250 хочет попробовать 00:07:22.250 --> 00:07:25.930 объяснить, почему большинство 00:07:25.930 --> 00:07:28.970 именно так отреагировало в обоих этих случаях? 00:07:28.970 --> 00:07:29.770 Прошу. 00:07:29.770 --> 00:07:32.150 Полагаю, что в первом случае, 00:07:32.150 --> 00:07:35.733 в котором присутствуют пять рабочих на основной ветке и один на боковой, 00:07:35.733 --> 00:07:37.370 вам необходимо сделать выбор 00:07:37.370 --> 00:07:40.948 и принять какое-то решение, иначе эти пять человек погибнут под трамваем, 00:07:40.948 --> 00:07:45.039 но вы за это не несёте ответственности. Вагон несётся на большой скорости, 00:07:45.039 --> 00:07:47.768 вам нужно принять мгновенное решение. 00:07:47.768 --> 00:07:52.158 А сталкивая толстяка с моста, вы совершаете убийство. 00:07:52.158 --> 00:07:54.208 Вы можете это контролировать, 00:07:54.208 --> 00:07:57.278 в отличие от вагона. 00:07:57.278 --> 00:07:59.889 Поэтому я считаю, что это немного другой случай. 00:07:59.889 --> 00:08:04.388 Хорошо. Кто хочет возразить? Это было неплохо. 00:08:04.388 --> 00:08:06.264 Кто хочет ответить? 00:08:06.264 --> 00:08:09.155 Объясняет ли это ситуацию? 00:08:09.155 --> 00:08:12.355 Не думаю, что это удачное объяснение, потому что... 00:08:12.369 --> 00:08:14.158 Вам всё равно нужно решить кто умрёт. 00:08:14.158 --> 00:08:16.698 Либо вы решаете повернуть и убить того человека, 00:08:16.698 --> 00:08:19.638 что будет являться вашим сознательным решением. 00:08:19.638 --> 00:08:21.827 Либо вы принимаете решение столкнуть толстяка, 00:08:21.827 --> 00:08:24.517 что также будет являться вашим сознательным решением. 00:08:24.517 --> 00:08:27.597 Так что вы в любом случае делаете какой-то выбор. 00:08:27.597 --> 00:08:29.629 Хотите возразить? 00:08:29.629 --> 00:08:33.944 Я не уверен, что это так. Мне кажется, всё равно есть определённая разница. 00:08:33.944 --> 00:08:37.430 Если вы сталкиваете кого-то с моста и, тем самым, убиваете его, 00:08:37.430 --> 00:08:39.770 то в этом случае вы делаете это своими руками. 00:08:39.770 --> 00:08:42.260 Толкаете своими собственными руками. 00:08:42.260 --> 00:08:43.699 И это отличается от ситуации, 00:08:43.699 --> 00:08:49.229 когда вы управляете чем-то, что может стать причиной смерти. Знаете... 00:08:49.229 --> 00:08:52.765 Теперь мне самому это не очень нравится. 00:08:52.765 --> 00:08:55.507 Нет-нет, это было неплохо. Как вас зовут? Эндрю. 00:08:55.507 --> 00:08:58.905 Позвольте задать вам вопрос, Эндрю. 00:08:58.905 --> 00:09:01.911 Допустим, 00:09:01.911 --> 00:09:03.461 что вы стоите на мосту 00:09:03.461 --> 00:09:04.701 рядом с толстяком 00:09:04.701 --> 00:09:07.669 и вам не нужно его толкать. Допустим, он стоит, 00:09:07.669 --> 00:09:17.108 прислонившись к дверце, которую вы можете открыть, повернув рычаг. Вот так. 00:09:17.108 --> 00:09:18.391 Вы бы повернули? 00:09:18.391 --> 00:09:21.441 Не знаю почему, но это всё равно как-то 00:09:21.441 --> 00:09:23.001 неправильно. 00:09:23.001 --> 00:09:29.674 Возможно, если бы вы случайно задели этот рычаг или что-то в это роде... 00:09:29.674 --> 00:09:32.980 Или, например, вагон 00:09:32.980 --> 00:09:37.561 катился бы к какому-нибудь переключателю, который откроет эту дверцу. 00:09:37.561 --> 00:09:39.051 Тогда ещё куда ни шло. 00:09:39.051 --> 00:09:42.552 Ладно, достаточно. Как бы то ни было, это всё равно кажется неправильным. 00:09:42.552 --> 00:09:46.054 Так же, как и в первом случае кажется, что правильным было бы повернуть. 00:09:46.054 --> 00:09:50.379 С другой стороны, в первом случае вы непосредственно вовлечены в ситуацию, 00:09:50.379 --> 00:09:52.529 а во втором — нет. 00:09:52.529 --> 00:09:55.546 И у вас есть выбор: вмешиваться или нет. 00:09:55.546 --> 00:09:59.340 Давайте на минуту забудем об этом случае. 00:09:59.340 --> 00:10:01.229 Это было неплохо. 00:10:01.229 --> 00:10:06.269 Давайте представим другой случай. Теперь вы врач в отделении экстренной помощи. 00:10:06.269 --> 00:10:11.382 И к вам поступают шесть пациентов. 00:10:11.382 --> 00:10:16.562 Они попали в ужасную аварию с трамваем... 00:10:18.212 --> 00:10:23.508 Пять из них ещё держатся, но один уже при смерти. Вы можете потратить весь день, 00:10:23.508 --> 00:10:27.594 пытаясь спасти жизнь одного, 00:10:27.594 --> 00:10:32.180 но тогда остальные пятеро умрут. Или вы могли бы попытаться спасти тех пятерых, 00:10:32.181 --> 00:10:35.186 но за это время умрёт 00:10:35.186 --> 00:10:36.326 тот, кто тяжело ранен. 00:10:36.326 --> 00:10:39.461 Кто бы спас пятерых? 00:10:39.461 --> 00:10:40.701 Теперь уже в качестве врача. 00:10:40.701 --> 00:10:44.175 Кто бы спас одного? 00:10:44.175 --> 00:10:46.138 Очень мало людей. 00:10:46.138 --> 00:10:49.061 Практически единицы. 00:10:49.061 --> 00:10:51.302 Полагаю, вы руководствовались тем же принципом: 00:10:51.302 --> 00:10:55.482 лучше спасти пять жизней, но при этом пожертвовать одной. 00:10:55.482 --> 00:10:58.950 Теперь рассмотрим другой случай с доктором. 00:10:58.950 --> 00:11:01.890 На этот раз вы хирург. 00:11:01.890 --> 00:11:06.089 И к вам в больницу попало пять пациентов, каждому из которых 00:11:06.089 --> 00:11:09.399 срочно требуется пересадка органа, иначе они умрут. 00:11:09.399 --> 00:11:14.909 Одному нужно сердце, другому — лёгкое, третьему — почка, четвёртому — печень, 00:11:14.909 --> 00:11:20.059 а пятому — поджелудочная железа. 00:11:20.059 --> 00:11:22.571 Но у вас нет доноров. 00:11:22.571 --> 00:11:27.360 Ещё совсем немного, и пациенты умрут. 00:11:27.360 --> 00:11:30.477 Но вдруг оказывается, 00:11:30.477 --> 00:11:32.327 что в соседней палате 00:11:32.327 --> 00:11:35.740 сидит здоровый парень, который пришёл на приём к доктору. 00:11:39.260 --> 00:11:43.577 И он... 00:11:43.577 --> 00:11:47.029 Вижу вам это нравится? 00:11:47.029 --> 00:11:50.740 Он ненадолго задремал. 00:11:52.999 --> 00:11:56.439 Вы могли бы очень тихо войти 00:11:56.439 --> 00:12:00.499 и извлечь пять его органов. Этот человек умрёт, 00:12:00.499 --> 00:12:03.200 но вы сможете спасти пятерых. 00:12:03.200 --> 00:12:10.331 Кто бы это сделал? Хоть кто-то? 00:12:10.331 --> 00:12:17.343 Сколько вас? Поднимите руки, если бы вы это сделали. 00:12:17.803 --> 00:12:20.528 Кто-нибудь с балкона? 00:12:20.528 --> 00:12:21.782 Вы? 00:12:21.782 --> 00:12:24.272 Аккуратно, не слишком перегибайтесь. 00:12:26.562 --> 00:12:29.221 Кто бы не стал этого делать? 00:12:29.221 --> 00:12:30.222 Хорошо. 00:12:30.222 --> 00:12:32.246 Скажите, там на балконе. 00:12:32.246 --> 00:12:35.836 Вы бы извлекли органы. Почему? 00:12:35.836 --> 00:12:40.048 Я бы хотел предложить другой вариант: 00:12:40.048 --> 00:12:42.982 взять органы только у того из нуждающихся, кто умрёт первым, 00:12:42.982 --> 00:12:49.722 и воспользоваться его здоровыми органами, чтобы спасти оставшихся четверых. 00:12:49.722 --> 00:12:54.439 Это довольно хорошая идея. NOTE Paragraph 00:12:54.439 --> 00:12:57.650 Это просто отличная идея, 00:12:57.650 --> 00:13:00.079 если исключить тот факт, 00:13:00.079 --> 00:13:04.699 что вы только что разрушили философский замысел. 00:13:04.699 --> 00:13:07.220 Давайте отвлечёмся 00:13:07.220 --> 00:13:10.240 от этих конкретных случаев и их обсуждения, 00:13:10.240 --> 00:13:17.230 чтобы отметить пару моментов, к которым привела наша дискуссия. 00:13:17.230 --> 00:13:25.900 Из наших обсуждений уже начали проявляться определённые нравственные принципы. 00:13:25.900 --> 00:13:31.160 Давайте рассмотрим что из себя представляют эти принципы. 00:13:31.160 --> 00:13:35.660 Первый нравственный принцип, появившийся в дискуссии, гласил: 00:13:35.660 --> 00:13:40.510 правильный поступок, нравственный поступок зависит от последствий, 00:13:40.510 --> 00:13:45.384 которые станут результатом ваших действий. 00:13:45.384 --> 00:13:52.110 В конце концов, лучше, чтобы выжило пять, даже если для этого один должен умереть. 00:13:52.110 --> 00:13:58.880 Это пример консеквенциальной аргументации. 00:13:58.880 --> 00:14:04.689 При консеквенциальном подходе моральная ценность выражается в последствиях, 00:14:04.689 --> 00:14:08.859 причиной которых стали ваши действия. 00:14:08.859 --> 00:14:12.539 Потом мы пошли немного дальше и рассмотрели другие случаи, 00:14:12.539 --> 00:14:20.459 и люди уже были не столь уверены в правильности консеквенционализма. 00:14:20.459 --> 00:14:25.590 Когда люди не решались столкнуть толстого мужчину с моста 00:14:25.590 --> 00:14:29.470 или изъять органы невинного пациента, 00:14:29.470 --> 00:14:33.902 они указывали на доводы, 00:14:33.902 --> 00:14:39.862 связанные с сущностью самого действия. 00:14:39.862 --> 00:14:42.549 Теперь им было уже неважно, какими будут последствия в итоге. 00:14:42.549 --> 00:14:44.969 Люди сопротивлялись. 00:14:44.969 --> 00:14:49.289 Они думали, что это просто неправильно, категорически неправильно — 00:14:49.290 --> 00:14:56.388 убить человека, невинного человека, даже ради спасения пяти жизней. 00:14:56.388 --> 00:14:58.416 По крайней мере, они так считали 00:14:58.416 --> 00:15:03.786 во второй версии каждого рассмотренного сюжета. 00:15:03.786 --> 00:15:15.773 Итак, это второй, категорический способ выстраивания аргументации. 00:15:15.773 --> 00:15:18.931 Такая аргументация определяет мораль как соответствие действий 00:15:18.931 --> 00:15:21.238 определённым абсолютным этическим требованиям, 00:15:21.238 --> 00:15:23.748 определённым категорическим правам и обязанностям, 00:15:23.748 --> 00:15:27.240 независимо от последствий. 00:15:27.240 --> 00:15:31.535 На протяжении нескольких недель мы будем изучать разницу 00:15:31.535 --> 00:15:36.489 между консеквенциальной и категорической аргументацией. 00:15:36.489 --> 00:15:43.450 Важнейший пример консеквенциальной аргументации это утилитаризм — доктрина, 00:15:43.450 --> 00:15:51.020 предложенная английским политическим философом 18-го века Джереми Бентамом. 00:15:51.020 --> 00:15:56.619 Наиболее видным сторонником категориальной аргументации 00:15:56.619 --> 00:16:02.414 является немецкий философ 18-го века Иммануил Кант. 00:16:02.414 --> 00:16:07.060 Мы остановимся на этих двух разных видах нравственной аргументации, 00:16:07.060 --> 00:16:10.569 дадим им оценку, а также рассмотрим некоторые другие. 00:16:10.569 --> 00:16:15.860 Из учебной программы видно, что мы изучим множество великих и известных книг: 00:16:15.860 --> 00:16:21.949 произведения Аристотеля, Джона Локка, Иммануила Канта, Джона Стюарта Милля, 00:16:21.949 --> 00:16:23.860 и других. 00:16:23.860 --> 00:16:28.060 Обратите внимание на то, что мы не только изучим эти книги, 00:16:28.060 --> 00:16:34.159 но и обсудим современные политические и правовые разногласия, 00:16:34.159 --> 00:16:36.923 затрагивающие философские вопросы. 00:16:36.923 --> 00:16:41.269 Мы будем говорить о равенстве и неравенстве, о позитивной дискриминации, 00:16:41.269 --> 00:16:43.386 о свободе слова и пропаганде ненависти, 00:16:43.386 --> 00:16:46.631 об однополых браках и воинской повинности. 00:16:46.631 --> 00:16:50.680 Эти и другие прикладные вопросы будут подняты, 00:16:50.680 --> 00:16:55.190 чтобы не только «оживить» отвлечённые от реальной жизни книги, 00:16:55.190 --> 00:16:59.430 но и внести ясность в то, с чем мы сталкиваемся каждый день в обычной жизни, 00:16:59.430 --> 00:17:03.264 включая политические вопросы, 00:17:03.264 --> 00:17:05.524 с точки зрения философии. 00:17:05.524 --> 00:17:10.098 После изучения этих книг и обсуждения прикладных вопросов, 00:17:10.098 --> 00:17:15.350 мы увидим, как они дополняют и освещают друг друга. 00:17:15.350 --> 00:17:22.449 Возможно, это звучит заманчиво, но я должен предупредить. 00:17:22.449 --> 00:17:25.149 И вот о чём. 00:17:25.149 --> 00:17:34.009 Чтение этих книг способом, при котором вы упражняетесь в самопознании, 00:17:34.009 --> 00:17:38.129 несёт в себе определённые риски — 00:17:38.129 --> 00:17:41.789 риски, как индивидуальные, так и политические. 00:17:41.789 --> 00:17:47.600 Риски, о которых знает каждый студент курса политической философии. 00:17:47.600 --> 00:17:54.030 Эти риски вытекают из того, что философия учит нас, 00:17:54.030 --> 00:18:01.159 побуждает нас сомневаться и идти вразрез с тем, что мы уже знаем. 00:18:01.159 --> 00:18:03.269 Парадоксально, 00:18:03.269 --> 00:18:09.669 но сложность этого курса в том, что вы изучаете то, что вам уже давно известно. 00:18:09.669 --> 00:18:16.319 Знания, которые мы получили из известных неоспоримых истин, 00:18:16.319 --> 00:18:20.029 превращаются в чуждые. 00:18:20.029 --> 00:18:23.099 Именно так работают наши примеры: 00:18:23.099 --> 00:18:28.899 шутливые гипотетические случаи, с которых мы начали лекцию. 00:18:28.899 --> 00:18:31.580 Точно такое же влияние оказывают книги по философии. 00:18:31.580 --> 00:18:35.390 Философия отстраняет нас 00:18:35.390 --> 00:18:37.340 от хорошо известных истин, 00:18:37.340 --> 00:18:40.250 не давая при этом новой информации, 00:18:40.250 --> 00:18:43.550 но увлекая нас за собой и провоцируя на то, 00:18:43.550 --> 00:18:47.239 чтобы посмотреть на вещи по-новому. 00:18:47.239 --> 00:18:49.800 Но здесь кроется риск. 00:18:49.800 --> 00:18:54.080 Когда однажды привычное станет чуждым, 00:18:54.080 --> 00:18:57.409 оно уже никогда не будет прежним. 00:18:57.409 --> 00:19:00.099 Самопознание 00:19:00.099 --> 00:19:02.780 похоже на потерю невинности. 00:19:02.780 --> 00:19:05.710 Однако то, что вы обнаружите, изменив привычное ви́дение, 00:19:05.710 --> 00:19:09.489 не будет для вас неожиданным 00:19:09.489 --> 00:19:13.180 или неизвестным. 00:19:13.180 --> 00:19:17.190 Это делает наш курс сложным, 00:19:17.190 --> 00:19:19.759 но от этого не менее захватывающим. 00:19:19.759 --> 00:19:25.200 Моральная и политическая философия — это история, 00:19:25.200 --> 00:19:29.280 и ты никогда не знаешь, куда она тебя приведёт, но ты точно знаешь, 00:19:29.280 --> 00:19:31.119 что эта история 00:19:31.119 --> 00:19:34.279 о тебе самом. 00:19:34.279 --> 00:19:36.970 Это индивидуальный риск. 00:19:36.970 --> 00:19:39.979 Теперь рассмотрим политические риски. 00:19:39.979 --> 00:19:42.920 Одним из способов пробудить у вас интерес к этому курсу 00:19:42.920 --> 00:19:44.608 было бы пообещать вам, 00:19:44.608 --> 00:19:46.300 что после прочтения этих книг 00:19:46.300 --> 00:19:47.930 и обсуждения определённых вопросов 00:19:47.930 --> 00:19:51.719 вы станете более ответственным членом общества. 00:19:51.719 --> 00:19:57.070 Вы изучите основы публичной политики, отточите свои политические суждения, 00:19:57.070 --> 00:20:02.549 научитесь более эффективно участвовать в общественной жизни. 00:20:02.549 --> 00:20:06.439 Но это было бы однобокое и в целом неверное обещание. 00:20:06.439 --> 00:20:11.449 Политическая философия в своей основе состоит в другом. 00:20:11.449 --> 00:20:14.429 Нам необходимо допустить, 00:20:14.429 --> 00:20:18.840 что политическая философия, наоборот, может сделать вас плохим, 00:20:18.840 --> 00:20:21.530 а не хорошим гражданином. 00:20:21.530 --> 00:20:23.700 Или, по крайней мере, плохим гражданином 00:20:23.700 --> 00:20:25.559 до того, как вы станете NOTE Paragraph 00:20:25.559 --> 00:20:27.869 хорошим. 00:20:27.869 --> 00:20:30.200 Это происходит потому, что занятия философией 00:20:30.200 --> 00:20:32.220 удаляют нас от реальности 00:20:32.220 --> 00:20:36.370 и, порой, даже развращают. 00:20:36.370 --> 00:20:39.709 Давайте вернёмся во времена Сократа 00:20:39.709 --> 00:20:41.569 и обратимся к диалогу «Горгий», 00:20:41.569 --> 00:20:45.390 в котором один из друзей Сократа — Калликл, 00:20:45.390 --> 00:20:47.239 пытается отговорить его 00:20:47.240 --> 00:20:49.670 от философствований. 00:20:49.670 --> 00:20:54.310 Калликл говорит ему, что философия, конечно, милая забава, 00:20:54.310 --> 00:20:57.830 если предаваться ей в разумных пределах и в определённом возрасте. 00:20:57.830 --> 00:21:03.599 Но если кто-то погружается в неё глубже, чем требуется, это заканчивается плачевно. 00:21:03.599 --> 00:21:06.319 «Прими мой совет, — говорит Калликл, 00:21:06.319 --> 00:21:08.199 оставь словопрения 00:21:08.199 --> 00:21:11.180 и обратись к жизни деятельной. 00:21:11.180 --> 00:21:16.780 Переведи свой взор с тех, кто тратит время на бессмысленные споры, 00:21:16.780 --> 00:21:19.859 на тех, кто ведёт деятельную жизнь, имеет хорошую репутацию 00:21:19.859 --> 00:21:22.189 и благословлён другими достоинствами.» 00:21:22.189 --> 00:21:26.618 Другими словами, Калликл убеждает Сократа 00:21:26.618 --> 00:21:28.500 оставить философствования, 00:21:28.500 --> 00:21:30.439 обратиться к реальности, 00:21:30.439 --> 00:21:34.990 поступить в бизнес-школу. 00:21:34.990 --> 00:21:38.149 И Калликл был по-своему прав. 00:21:38.149 --> 00:21:42.030 Он был прав в том, что философия уводит нас в сторону 00:21:42.030 --> 00:21:44.949 от традиций, установленных допущений 00:21:44.949 --> 00:21:46.539 и устоявшихся убеждений. 00:21:46.539 --> 00:21:48.270 Здесь нас и подстерегают опасности, 00:21:48.270 --> 00:21:49.840 индивидуальные и политические. 00:21:49.840 --> 00:21:54.089 В ответ на их угрозу сознание включает защитный механизм, 00:21:54.089 --> 00:21:57.470 этот механизм мы назвали — скептицизмом. 00:21:57.470 --> 00:22:03.660 Происходит это примерно следующим образом: мы так и не смогли прийти к единому мнению 00:22:03.660 --> 00:22:09.499 по вопросам, с обсуждения которых, мы начали эту лекцию. 00:22:09.499 --> 00:22:11.060 Но если ни Аристотель, 00:22:11.060 --> 00:22:16.950 ни Локк, ни Кант, ни Милль не дали на них ответа за всё это время, 00:22:16.950 --> 00:22:19.509 то кто мы такие, 00:22:19.509 --> 00:22:23.470 те, кто собрались в этом зале на один семестр, 00:22:23.470 --> 00:22:26.260 чтобы вдруг разрешить их? 00:22:26.260 --> 00:22:29.220 Может быть определённое видение мира — 00:22:29.220 --> 00:22:34.070 это личное дело каждого человека и к этому больше нечего добавить? 00:22:34.070 --> 00:22:36.239 И правильного ответа не существует. 00:22:36.239 --> 00:22:37.649 Это попытка бегства. 00:22:37.650 --> 00:22:39.380 Бегства в скептицизм. 00:22:39.380 --> 00:22:42.439 На это я ответил бы следующим образом: 00:22:42.439 --> 00:22:47.380 Да, над этими вопросами люди бьются долгое время. 00:22:47.380 --> 00:22:49.059 Но сам факт того, 00:22:49.059 --> 00:22:52.600 что они возвращаются к нам, нерешённые, настойчиво требуя от нас ответа, 00:22:52.600 --> 00:22:54.650 может, с одной стороны, говорить о том, 00:22:54.650 --> 00:22:56.989 что разрешить их невозможно, 00:22:56.989 --> 00:22:59.729 а с другой — о том, что их возникновение неизбежно. 00:22:59.729 --> 00:23:02.289 И причина их неизбежности в том, 00:23:02.289 --> 00:23:09.949 что каждому из нас приходится ежедневно отвечать на эти вопросы самостоятельно. 00:23:09.949 --> 00:23:15.970 Таким образом, скептицизм, побуждающий нас отказаться от любых попыток найти ответы, 00:23:15.970 --> 00:23:18.059 не может являться решением. 00:23:18.059 --> 00:23:19.580 Иммануил Кант 00:23:19.580 --> 00:23:22.970 очень ёмко описал несостоятельность скептицизма: 00:23:22.970 --> 00:23:26.038 «Скептицизм есть привал для человеческого разума, 00:23:26.038 --> 00:23:28.999 где он может обдумать своё догматическое странствие, 00:23:28.999 --> 00:23:32.659 но это вовсе не место для постоянного пребывания.» 00:23:32.659 --> 00:23:35.750 «Простое принятие скептицизма, — пишет Кант, 00:23:35.750 --> 00:23:42.590 никогда не удовлетворит страждущий разум.» 00:23:42.590 --> 00:23:46.719 Всеми этими примерами я пытался дать вам некоторое представление о том, 00:23:46.719 --> 00:23:49.758 с какими опасностями и искушениями сталкивается ступивший на путь 00:23:49.758 --> 00:23:51.658 философского познания. 00:23:51.658 --> 00:23:55.509 В заключение я хотел бы сказать, 00:23:55.509 --> 00:23:58.039 что задача этого курса — 00:23:58.039 --> 00:24:02.079 разбудить страждущий разум 00:24:02.079 --> 00:24:04.200 и показать, как далеко он может нас увести. 00:24:04.200 --> 00:24:11.380 Спасибо за внимание. 00:24:15.370 --> 00:24:16.960 В такой отчаянной ситуации 00:24:16.960 --> 00:24:19.059 вы должны сделать всё, чтобы выжить. 00:24:19.059 --> 00:24:22.629 Вы должны сделать всё, что возможно? Да, вы должны сделать всё, что можете. 00:24:22.629 --> 00:24:25.699 Если вы 19 дней ничего не ели, 00:24:25.700 --> 00:24:30.339 кто-то из вас должен пожертвовать собой ради спасения остальных. 00:24:30.339 --> 00:24:33.429 Отлично. Очень неплохо. Как вас зовут? Маркус. 00:24:33.429 --> 00:24:38.359 Что вы ответите Маркусу? 00:24:40.419 --> 00:24:44.489 В прошлый раз 00:24:44.489 --> 00:24:46.780 мы начали 00:24:46.780 --> 00:24:48.820 с нескольких историй, 00:24:48.820 --> 00:24:50.759 с нескольких моральных дилемм: 00:24:50.759 --> 00:24:52.689 о трамваях 00:24:52.689 --> 00:24:54.309 о докторах, 00:24:54.309 --> 00:24:56.209 а также о здоровых пациентах, 00:24:56.209 --> 00:25:00.689 рискующих, стать жертвами трансплантации органов. 00:25:00.690 --> 00:25:03.799 Мы обратили внимание на две особенности 00:25:03.799 --> 00:25:06.690 в доводах, которые мы приводили. 00:25:06.690 --> 00:25:09.689 Первая особенность связана с тем, как именно мы спорили. 00:25:09.689 --> 00:25:13.379 Всё началось с наших суждений об определённых случаях. 00:25:13.379 --> 00:25:18.170 Мы попытались сформулировать причины или принципы, 00:25:18.170 --> 00:25:22.329 лежащие в основе наших суждений. 00:25:22.329 --> 00:25:25.280 И затем, столкнувшись с новым случаем, 00:25:25.280 --> 00:25:30.209 мы пересматривали эти принципы, 00:25:30.209 --> 00:25:33.869 рассматривая один в свете другого. 00:25:33.869 --> 00:25:35.850 И мы почувствовали внутри сопротивление, 00:25:35.850 --> 00:25:38.860 пытаясь привести в соответствие 00:25:38.860 --> 00:25:41.550 наши суждения об определённых случаях 00:25:41.550 --> 00:25:46.270 и принципы, лежащие в основе этих суждений. 00:25:46.270 --> 00:25:50.459 Мы также заметили кое-что в содержании доводов, 00:25:50.459 --> 00:25:55.150 которые возникли в ходе обсуждения. 00:25:55.150 --> 00:25:57.449 Мы заметили, что иногда мы испытывали желание 00:25:57.449 --> 00:26:00.649 дать моральную оценку последствиям действий, 00:26:00.649 --> 00:26:06.389 результатам и положению дел, к которому эти действия привели. 00:26:06.389 --> 00:26:11.470 Мы назвали это явление консеквенциальной аргументацией. 00:26:11.470 --> 00:26:13.110 Но мы также заметили, 00:26:13.110 --> 00:26:16.300 что в некоторых ситуациях 00:26:16.300 --> 00:26:18.469 не только результат имел для нас 00:26:18.469 --> 00:26:21.309 значение. 00:26:21.309 --> 00:26:23.180 Иногда, 00:26:23.180 --> 00:26:25.249 как многие из нас почувствовали, 00:26:25.249 --> 00:26:31.240 не только последствия, но и сущность или характер действия 00:26:31.240 --> 00:26:35.229 имеет моральное значение. 00:26:35.229 --> 00:26:40.470 Некоторые люди утверждали, что есть определённые вещи, которые просто категорически неправильны, 00:26:40.470 --> 00:26:42.449 даже если за ними последует 00:26:42.449 --> 00:26:44.240 положительный результат. 00:26:44.240 --> 00:26:45.460 Даже 00:26:45.460 --> 00:26:47.200 если они приведут к спасению жизни пяти людей 00:26:47.200 --> 00:26:49.588 ценой одной жизни. 00:26:49.588 --> 00:26:52.510 Таким образом, мы сравнили консеквенциальные 00:26:52.510 --> 00:26:54.470 моральные принципы 00:26:54.470 --> 00:26:57.930 и категорические. 00:26:57.930 --> 00:26:59.729 Cегодня 00:26:59.729 --> 00:27:01.149 и в ближайшие несколько дней 00:27:01.149 --> 00:27:05.879 мы начнём рассматривать одну из самых влиятельных 00:27:05.879 --> 00:27:10.969 версий консеквенциальной моральной теории 00:27:10.970 --> 00:27:15.709 — философию утилитаризма. 00:27:15.709 --> 00:27:17.410 Джереми Бентам 00:27:17.410 --> 00:27:21.660 — английский политический философ 18-ого века 00:27:21.660 --> 00:27:22.910 дал первое 00:27:22.910 --> 00:27:26.580 чёткое систематическое определение 00:27:26.580 --> 00:27:32.020 утилитаристской моральной теории. 00:27:32.020 --> 00:27:36.260 Идея Бентама, 00:27:36.260 --> 00:27:38.300 его основная мысль, 00:27:38.300 --> 00:27:42.770 очень проста 00:27:42.770 --> 00:27:48.428 и несёт интуитивно понятный посыл. 00:27:48.428 --> 00:27:51.600 Она заключается в следующем: 00:27:51.600 --> 00:27:54.439 правильное действие, 00:27:54.440 --> 00:27:57.619 справедливое действие 00:27:57.619 --> 00:28:01.269 должно максимизировать 00:28:01.269 --> 00:28:02.309 полезность. 00:28:02.309 --> 00:28:06.039 Что он имел в виду под словом «полезность»? 00:28:06.039 --> 00:28:11.490 Под «полезностью» он имел в виду преобладание 00:28:11.490 --> 00:28:13.540 удовольствия над болью, 00:28:13.540 --> 00:28:16.670 счастья над страданием. 00:28:16.670 --> 00:28:22.270 И вот как он достиг принципа максимизации полезности. 00:28:22.270 --> 00:28:24.700 Он начал с наблюдения, заметив, 00:28:24.700 --> 00:28:27.660 что все мы — люди, 00:28:27.660 --> 00:28:31.280 управляемы двумя полновластными "повелителями" — 00:28:31.280 --> 00:28:34.620 болью и удовольствием. 00:28:34.619 --> 00:28:42.300 Нам — людям, нравится удовольствие и не нравится боль. 00:28:42.308 --> 00:28:45.839 И поэтому мы всегда должны основывать наши моральные суждения, 00:28:45.839 --> 00:28:49.150 будь то наши мысли о том, какими должны быть наши поступки в частной жизни, 00:28:49.150 --> 00:28:52.529 или наши мысли в качестве законодателей или граждан 00:28:52.529 --> 00:28:57.029 о том, каким должен быть закон, на следующем: 00:28:57.029 --> 00:29:01.919 нужно действовать, индивидуально или же коллективно, 00:29:01.919 --> 00:29:05.838 в направлении максимизации 00:29:05.838 --> 00:29:07.560 общего уровня 00:29:07.560 --> 00:29:11.259 счастья. 00:29:11.259 --> 00:29:15.320 Утилитаризм Бентама иногда выражается слоганом: 00:29:15.320 --> 00:29:18.799 «наибольшее благо для наибольшего количества». 00:29:18.799 --> 00:29:22.788 Вооружившись этим базовым принципом полезности, 00:29:22.788 --> 00:29:28.090 давайте проверим его, применив к другому случаю. 00:29:28.099 --> 00:29:33.970 На этот раз история не гипотетическая, а вполне реальная. 00:29:33.970 --> 00:29:38.139 Дело Дадли и Стивенса. 00:29:38.139 --> 00:29:41.690 Это знаменитое британское судебное дело 19-ого века, 00:29:41.690 --> 00:29:47.479 которое часто разбирается на юридических факультетах. 00:29:47.479 --> 00:29:50.019 Итак, что же произошло в этом деле? 00:29:50.019 --> 00:29:51.799 Я вкратце изложу его суть, 00:29:51.799 --> 00:29:54.880 и затем я хотел бы услышать, 00:29:54.880 --> 00:29:57.180 как бы вы разрешили его, 00:29:57.180 --> 00:29:59.950 если бы оказались на месте присяжных. 00:30:03.669 --> 00:30:08.849 В газетном отчёте того времени оно было описано так: 00:30:08.849 --> 00:30:14.180 «Нет истории печальнее на свете, чем история выживших 00:30:14.180 --> 00:30:16.180 с яхты «Mignonette» («Резеда»). 00:30:16.180 --> 00:30:21.719 Это судно затонуло в Южной Атлантике в трёхстах милях от Мыса Доброй Надежды. 00:30:21.719 --> 00:30:25.920 На борту было четыре человека: капитан Дадли, 00:30:25.920 --> 00:30:30.020 его главный помощник Стивенс и матрос Брукс. 00:30:30.020 --> 00:30:32.489 Все они были «людьми с безукоризненной репутацией». 00:30:32.489 --> 00:30:35.719 По крайней мере, так сообщается в газетном отчёте. 00:30:35.719 --> 00:30:39.750 Четвёртым членом команды был Ричард Паркер 00:30:39.750 --> 00:30:42.729 — семнадцатилетний юнга. 00:30:42.729 --> 00:30:51.290 Он был сиротой, у него не было семьи, и это было его первое дальнее плавание. 00:30:51.290 --> 00:30:53.700 Как сообщается, он отправился в путешествие, 00:30:53.700 --> 00:30:56.730 не послушавшись совета своих друзей. 00:30:56.730 --> 00:30:59.850 Полный надежд и юношеских амбиций, 00:30:59.850 --> 00:31:03.000 он думал, что путешествие сделает из него мужчину. 00:31:03.000 --> 00:31:05.140 К сожалению, этому не суждено было произойти. 00:31:05.140 --> 00:31:07.479 Факты дела не были предметом спора. 00:31:07.479 --> 00:31:11.940 В судно ударила волна, и «Mignonette» («Резеда») пошла ко дну. 00:31:11.940 --> 00:31:14.739 Экипаж сумел сесть в спасательную шлюпку. 00:31:14.739 --> 00:31:18.269 Единственной едой, которую они имели, 00:31:18.269 --> 00:31:21.600 были две банки консервированной репы. 00:31:21.600 --> 00:31:23.900 Никакой питьевой воды. 00:31:23.900 --> 00:31:26.610 Первые три дня они ничего не ели, 00:31:26.609 --> 00:31:30.250 на четвёртый день они открыли одну из консервных банок 00:31:30.250 --> 00:31:31.530 и съели её содержимое. 00:31:31.530 --> 00:31:34.150 На следующий день они поймали черепаху. 00:31:34.150 --> 00:31:38.250 Оставшаяся банка с репой и черепаха 00:31:38.250 --> 00:31:40.960 помогли им продержаться ещё несколько дней, 00:31:40.960 --> 00:31:43.899 но затем в течение восьми дней у них уже не было ничего, 00:31:43.899 --> 00:31:46.749 ни еды, ни воды. 00:31:46.749 --> 00:31:49.929 Представьте себя в такой ситуации. 00:31:49.929 --> 00:31:52.699 Что бы вы сделали? 00:31:52.699 --> 00:31:55.049 Вот что сделали они. 00:31:55.049 --> 00:32:00.740 К этому моменту юнга Паркер лежал в углу на дне шлюпки, 00:32:00.740 --> 00:32:02.920 потому что напился морской воды, 00:32:02.920 --> 00:32:05.490 не послушав остальных. 00:32:05.490 --> 00:32:07.230 Ему сделалось дурно, 00:32:07.230 --> 00:32:10.619 и было понятно, что он умирает. 00:32:10.619 --> 00:32:14.498 На девятнадцатый день капитан Дадли предложил 00:32:14.498 --> 00:32:18.749 всем бросить жребий 00:32:18.749 --> 00:32:20.859 и определить, кому суждено умереть, 00:32:20.859 --> 00:32:23.820 чтобы спасти остальных. 00:32:23.820 --> 00:32:26.480 Брукс отказался. 00:32:26.480 --> 00:32:29.139 Ему не понравилась идея со жребием. 00:32:29.140 --> 00:32:33.079 Мы не знаем, было ли это вызвано тем, что он не хотел рисковать, 00:32:33.079 --> 00:32:36.859 или же тем, что он верил в категорические моральные принципы, 00:32:36.859 --> 00:32:42.119 но в любом случае жребий так и не был брошен. 00:32:42.130 --> 00:32:45.030 На следующий день спасательного корабля по-прежнему не было, 00:32:45.030 --> 00:32:48.300 и Дадли попросил Брукса отвернуться, 00:32:48.300 --> 00:32:50.730 жестом показав Стивенсу, 00:32:50.730 --> 00:32:53.719 что мальчишку Паркера нужно убить. 00:32:53.719 --> 00:32:55.850 Дадли помолился, 00:32:55.849 --> 00:32:58.450 сказал мальчику, что его время пришло, 00:32:58.450 --> 00:33:00.409 и зарезал его перочинным ножом, 00:33:00.409 --> 00:33:03.640 поразив яремную вену. 00:33:03.640 --> 00:33:09.670 Брукс, отрекшийся от соображений совести, тоже воспользовался этим жутким «подарком». 00:33:09.670 --> 00:33:11.049 Четыре дня 00:33:11.049 --> 00:33:15.230 они втроём питались телом и кровью юнги. 00:33:15.230 --> 00:33:17.140 Реальная история. 00:33:17.140 --> 00:33:19.150 А затем их спасли. 00:33:19.150 --> 00:33:24.619 Дадли описал это спасение в своём дневнике 00:33:24.619 --> 00:33:27.570 поразительным эвфемизмом. Цитата: 00:33:27.569 --> 00:33:29.618 «На двадцать четвёртый день, 00:33:29.618 --> 00:33:34.818 когда мы завтракали, 00:33:34.818 --> 00:33:38.599 наконец-то показался корабль». 00:33:38.599 --> 00:33:44.239 Трое выживших были подобраны немецким кораблём и их отправили назад в Фэлмут, в Англию, 00:33:44.239 --> 00:33:46.749 где они были арестованы и подвергнуты суду. 00:33:46.749 --> 00:33:49.810 Брукс был свидетелем обвинения, 00:33:49.810 --> 00:33:51.970 а Дадли и Стивенс были обвиняемыми. 00:33:51.970 --> 00:33:54.370 Они не оспаривали факты. 00:33:54.370 --> 00:33:57.670 Они утверждали, что действовали в крайних обстоятельствах. 00:33:57.670 --> 00:33:59.430 Это была их линия защиты. 00:33:59.430 --> 00:34:03.110 Они настаивали на том, что смерть одного человека более предпочтительна, 00:34:03.110 --> 00:34:06.430 чем смерть троих. 00:34:06.430 --> 00:34:10.849 Обвинителя не убедил такой аргумент. 00:34:10.849 --> 00:34:13.869 Он сказал: «Убийство есть убийство.» Дело передали в суд. 00:34:13.869 --> 00:34:16.209 Теперь представьте, что вы присяжные. 00:34:16.209 --> 00:34:21.789 Чтобы упростить обсуждение, оставим в стороне вопрос права 00:34:21.789 --> 00:34:25.840 и представим, что как присяжные 00:34:25.840 --> 00:34:28.050 вы должны решить, 00:34:28.050 --> 00:34:34.399 было ли то, что они сделали, морально допустимым или нет. 00:34:34.399 --> 00:34:36.608 Кто из вас 00:34:36.608 --> 00:34:39.689 проголосовал бы 00:34:39.689 --> 00:34:46.809 за то, что они невиновны и что совершённое ими было морально допустимо? 00:34:49.408 --> 00:34:51.639 А кто проголосовал бы за то, что они виновны 00:34:51.639 --> 00:34:54.858 и что совершённое ими было морально недопустимо? 00:34:54.858 --> 00:34:57.998 Значительное большинство. 00:34:57.998 --> 00:35:03.808 Давайте послушаем ваши соображения. Начнём с тех, кто оказался в меньшинстве. 00:35:03.809 --> 00:35:07.669 Давайте сперва предоставим слово защите 00:35:07.669 --> 00:35:10.059 Дадли и Стивенса. 00:35:10.059 --> 00:35:14.149 Почему вы оправдали бы их с моральной точки зрения? 00:35:14.149 --> 00:35:16.369 Чем вы руководствуетесь? 00:35:16.369 --> 00:35:17.989 Пожалуйста. 00:35:17.989 --> 00:35:20.778 Я считаю это предосудительным с моральной точки зрения, 00:35:20.778 --> 00:35:24.229 но существует различие между тем, что нравственно предосудительно, 00:35:24.229 --> 00:35:26.609 и тем, что влечёт юридическую ответственность. 00:35:26.608 --> 00:35:32.140 Или, как мог бы сказать судья, аморальное совсем не обязательно противозаконно. 00:35:32.140 --> 00:35:34.119 И хотя я не считаю, что необходимость чего-либо 00:35:34.119 --> 00:35:36.169 является достаточным основанием 00:35:36.168 --> 00:35:38.578 для кражи, убийства, или другого противозаконного действия, 00:35:38.579 --> 00:35:45.849 степень необходимости в той или иной мере может оправдывать его. 00:35:45.849 --> 00:35:50.398 Кто ещё поддерживает эту точку зрения и согласен 00:35:50.398 --> 00:35:54.208 с моральными обоснованиями их действий? 00:35:54.208 --> 00:35:56.969 Пожалуйста. 00:35:56.969 --> 00:35:58.519 Спасибо. 00:35:58.528 --> 00:36:03.140 Я думаю, в такой отчаянной ситуации вы должны сделать всё возможное чтобы выжить. 00:36:03.140 --> 00:36:04.679 Вы должны сделать всё, что возможно? 00:36:04.679 --> 00:36:06.789 Да, вы должны сделать всё, что можно. 00:36:06.789 --> 00:36:10.439 Если вы девятнадцать дней ничего не ели, 00:36:10.439 --> 00:36:14.630 кто-то из вас должен пожертвовать собой ради спасения остальных. 00:36:14.630 --> 00:36:20.959 Более того, представим, что по возвращении домой, спасшиеся начинают создавать 00:36:20.959 --> 00:36:25.700 миллионы благотворительных организаций и другие подобные вещи. То есть, в итоге всем хорошо. 00:36:25.700 --> 00:36:28.639 Я не знаю, что они сделали после этого случая, но они вполне могли бы продолжать 00:36:28.639 --> 00:36:30.628 убивать людей независимо от... 00:36:30.628 --> 00:36:35.708 От чего? А что если они вернулись домой и превратились в убийц? 00:36:35.708 --> 00:36:39.108 Что если они вернулись домой и превратились в убийц? 00:36:39.108 --> 00:36:42.648 Вы бы хотели знать, кого они убили. 00:36:42.648 --> 00:36:45.309 Да, верно. 00:36:45.309 --> 00:36:46.568 Я хотел бы знать это. 00:36:46.568 --> 00:36:48.048 Это было неплохо. Как вас зовут? 00:36:48.048 --> 00:36:50.708 Маркус. 00:36:50.708 --> 00:36:54.039 Мы услышали сторону защиты, пару голосов в оправдание. 00:36:54.039 --> 00:36:57.290 Теперь послушаем сторону обвинения. 00:36:57.298 --> 00:37:03.578 Большинство людей думает, что они не правы. Почему? 00:37:03.578 --> 00:37:04.628 Пожалуйста. 00:37:04.628 --> 00:37:09.078 Когда я услышала эту историю, я подумала: Так, если они голодали очень долго, 00:37:09.078 --> 00:37:15.089 то, может быть, в этом случае они не были в здравом рассудке. 00:37:15.089 --> 00:37:20.608 И это могло послужить оправданием, в качестве возможного аргумента: 00:37:20.608 --> 00:37:25.859 они были не в своём уме и приняли решение, которое не приняли бы в другой ситуации. 00:37:25.859 --> 00:37:28.519 Думаю, это их оправдывает. 00:37:28.518 --> 00:37:33.348 Трезво мыслящий человек так никогда не поступит. Мне кажется, что есть люди, 00:37:33.348 --> 00:37:36.058 которые находят данный аргумент приемлемым. 00:37:36.058 --> 00:37:37.588 Вы думаете, что они поступили аморально? 00:37:37.588 --> 00:37:39.298 Но я хочу знать что думаете вы. 00:37:39.298 --> 00:37:42.548 Вы голосовали за то, что они виновны, верно? 00:37:42.548 --> 00:37:46.428 Да, я не считаю, что они действовали в рамках морали. 00:37:46.428 --> 00:37:51.069 Но почему нет? Вы же слышали, как Маркус защищал их. 00:37:51.069 --> 00:37:52.709 Он сказал... 00:37:52.709 --> 00:37:53.960 Вы слышали, что он сказал. 00:37:53.960 --> 00:37:56.339 Да, я слышала. 00:37:56.339 --> 00:38:00.019 Что вы должны поступать так, как того требует данная ситуация. 00:38:00.019 --> 00:38:04.759 Что вы ответите Маркусу? 00:38:04.759 --> 00:38:06.428 Я бы сказала, что 00:38:06.428 --> 00:38:13.459 нет такой ситуации, в которой можно было бы 00:38:13.459 --> 00:38:17.238 лишить человека права управлять своей судьбой или лишить человека жизни. 00:38:17.238 --> 00:38:19.868 У нас нет такого права. 00:38:19.868 --> 00:38:22.429 Хорошо, спасибо. Как вас зовут? 00:38:22.429 --> 00:38:23.350 Бритт. 00:38:23.350 --> 00:38:24.548 Бритт? Хорошо. 00:38:24.548 --> 00:38:25.798 Кто-нибудь ещё? 00:38:25.798 --> 00:38:28.059 Что вы скажете? Встаньте, пожалуйста. 00:38:28.059 --> 00:38:30.039 Мне вот что интересно. Если бы Дадли и Стивенс 00:38:30.039 --> 00:38:35.509 спросили Ричарда Паркера, согласен ли он ...умереть, 00:38:35.509 --> 00:38:37.519 то могло бы это... 00:38:37.519 --> 00:38:42.268 Могло бы это оправдать совершённое убийство 00:38:42.268 --> 00:38:45.269 и если да, то было бы ли это оправданно с точки зрения морали? 00:38:45.269 --> 00:38:49.539 Это любопытно. Согласие. Подождите, как вас зовут? 00:38:49.539 --> 00:38:51.639 Кэтлин. 00:38:51.639 --> 00:38:55.459 Кэтлин предлагает представить, как бы могла выглядеть эта сцена в таком случае. 00:38:55.459 --> 00:39:02.610 Итак, представьте: Дадли с ножом в руке, но вместо молитвы, 00:39:02.610 --> 00:39:04.588 или перед молитвой, 00:39:04.588 --> 00:39:06.348 он спрашивает: 00:39:06.348 --> 00:39:11.528 «Паркер, ты не возражаешь? 00:39:11.528 --> 00:39:14.348 Мы тут безумно проголодались..." 00:39:14.349 --> 00:39:17.679 Смотрите, как Маркус сопереживает им. 00:39:17.679 --> 00:39:22.089 «Мы безумно проголодались, а тебе, в любом случае, недолго осталось. 00:39:22.089 --> 00:39:23.458 Ты можешь стать мучеником. 00:39:23.458 --> 00:39:25.708 Не хочешь стать мучеником? 00:39:25.708 --> 00:39:29.179 Что скажешь, Паркер?» NOTE Paragraph 00:39:29.179 --> 00:39:33.089 В этом случае 00:39:33.089 --> 00:39:36.939 можете ли вы оправдать это с точки зрения морали? 00:39:36.939 --> 00:39:42.889 Допустим, Паркер в оцепенении говорит: «Ну ладно, я согласен». 00:39:42.889 --> 00:39:45.359 Я не считаю, что это морально оправдывает убийство, но мне просто интересно... 00:39:45.359 --> 00:39:47.839 Даже в этом случае? Даже в этом случае, не было бы оправдания? Нет. 00:39:47.839 --> 00:39:52.390 Вы не считаете, что даже с согласия это может быть морально оправданно. 00:39:52.390 --> 00:39:57.458 Есть тут люди, готовые подхватить идею Кэтлин о согласии? 00:39:57.458 --> 00:40:00.148 И кто считает, что в таком случае их действия были бы морально оправданны? 00:40:00.148 --> 00:40:05.739 Поднимите руку, если вы с этим согласны. 00:40:05.739 --> 00:40:07.458 Вот это интересно. 00:40:07.458 --> 00:40:14.038 Почему же наличие согласия создало такую разницу? 00:40:14.038 --> 00:40:15.679 С чего бы это? 00:40:15.679 --> 00:40:18.419 Я думаю, что если бы Паркер сам принимал решение, 00:40:18.419 --> 00:40:20.899 если бы это было его собственной идеей, 00:40:20.899 --> 00:40:25.768 то только в такой ситуации это было бы допустимо. 00:40:25.768 --> 00:40:28.380 Потому что в такой ситуации вы не можете сказать, 00:40:28.380 --> 00:40:31.979 что на него было оказано давление, что их было трое против одного. 00:40:31.979 --> 00:40:33.199 Верно. 00:40:33.199 --> 00:40:39.430 Мне кажется, принимая такое решение, он делает это по собственной воле. 00:40:39.430 --> 00:40:41.428 Конечно, одним людям это покажется поступком, достойным восхищения, 00:40:41.428 --> 00:40:45.319 а другие могут быть не согласны с такой оценкой. 00:40:45.319 --> 00:40:48.999 Итак, если он сам предложил эту идею, 00:40:48.999 --> 00:40:52.520 то это будет единственным вариантом согласия, который бы нас устроил 00:40:52.520 --> 00:40:54.858 с точки зрения морали. Тогда это было бы допустимо. 00:40:54.858 --> 00:40:57.268 В ином случае 00:40:57.268 --> 00:40:59.579 это будет, скажем так, согласие под принуждением, 00:40:59.579 --> 00:41:01.489 согласие под воздействием обстоятельств. 00:41:01.489 --> 00:41:05.228 Так вы считаете. 00:41:05.228 --> 00:41:07.349 Кто-нибудь из вас считает, 00:41:07.349 --> 00:41:10.859 что даже согласие Паркера 00:41:10.859 --> 00:41:15.479 не оправдывает его убийство? 00:41:15.479 --> 00:41:17.338 Кто так думает? 00:41:17.338 --> 00:41:19.548 Да. Расскажите нам почему вы так думаете. Встаньте, пожалуйста. 00:41:19.548 --> 00:41:22.860 Я думаю, что Паркер был убит в надежде, 00:41:22.860 --> 00:41:26.379 что все остальные члены экипажа впоследствии будут спасены. 00:41:26.379 --> 00:41:29.000 Но для его убийства нет объективных причин, 00:41:29.000 --> 00:41:32.439 потому что вы даже не знаете, спасут вас вообще или нет, 00:41:32.439 --> 00:41:34.429 так что его убийство может быть совершенно напрасным. 00:41:34.429 --> 00:41:38.039 Вы так и будете убивать одного за другим, пока не останетесь один или вас не спасут? 00:41:38.039 --> 00:41:39.949 Просто потому что кто-то всё равно умрёт? 00:41:39.949 --> 00:41:44.159 С позиций морали, смысл ситуации в том, 00:41:44.159 --> 00:41:50.059 что они жертвуют слабейшим, одним за другим, 00:41:50.059 --> 00:41:51.929 пока не будут спасены. 00:41:51.929 --> 00:41:57.679 И в этом случае по счастливой случайности, три человека остались живы. 00:41:57.679 --> 00:42:01.210 Но если бы Паркер согласился, 00:42:01.210 --> 00:42:03.488 как вы думаете, это было бы правильным? 00:42:03.488 --> 00:42:06.329 Нет, я по-прежнему не считаю это правильным. 00:42:06.329 --> 00:42:08.030 Обоснуйте почему. 00:42:08.030 --> 00:42:12.838 Во-первых, я считаю, что каннибализм аморален в принципе. 00:42:12.838 --> 00:42:14.470 Вы не должны есть людей ни в каком случае. 00:42:14.470 --> 00:42:16.819 Итак, 00:42:16.819 --> 00:42:22.410 каннибализм неприемлем даже в том случае, 00:42:22.410 --> 00:42:24.318 когда мы знаем, что человек точно умрёт? 00:42:24.318 --> 00:42:26.198 Даже в этом случае? 00:42:26.198 --> 00:42:27.959 Да, лично для меня. 00:42:27.959 --> 00:42:31.189 Мне кажется, что всё это зависит 00:42:31.199 --> 00:42:35.258 от личных моральных принципов человека. 00:42:35.258 --> 00:42:36.808 Это только моё мнение. 00:42:36.808 --> 00:42:39.339 Конечно, не все с этим согласятся. 00:42:39.338 --> 00:42:41.498 Хорошо. Давайте послушаем аргументы «против», 00:42:41.498 --> 00:42:46.199 а затем посмотрим, смогут ли они переубедить вас или нет? 00:42:46.199 --> 00:42:48.248 Давайте попробуем. 00:42:48.248 --> 00:42:50.098 Итак, 00:42:50.099 --> 00:42:53.249 есть ли здесь кто-нибудь, 00:42:53.248 --> 00:42:57.869 кому импонирует идея согласия и кто мог бы объяснить. 00:42:57.869 --> 00:43:03.328 Можете ли вы объяснить, почему согласие всё кардинально меняет? 00:43:03.328 --> 00:43:05.600 А как насчёт идеи с жребием? 00:43:05.600 --> 00:43:08.809 Может ли это считаться своего рода согласием? Помните, в начале истории 00:43:08.809 --> 00:43:10.989 Дадли предложил тянуть жребий. 00:43:10.989 --> 00:43:16.119 Предположим, что они согласились тянуть жребий. 00:43:16.119 --> 00:43:20.819 Теперь кто из вас за то, 00:43:20.819 --> 00:43:23.769 что это было бы правильно? Предположим, они тянули жребий, 00:43:23.769 --> 00:43:25.380 и юнга проиграл. 00:43:25.380 --> 00:43:33.160 Далее происходит история, которую мы уже знаем. Было бы тогда это допустимым? 00:43:33.160 --> 00:43:37.030 В случае со жребием число согласных увеличилось. Давайте послушаем кого-нибудь 00:43:37.030 --> 00:43:41.609 для кого с моральной точки зрения принципиален жребий. 00:43:41.608 --> 00:43:43.458 Почему вы так считаете? 00:43:43.458 --> 00:43:45.709 Я думаю, что это принципиальный момент. 00:43:45.719 --> 00:43:47.858 На мой взгляд, преступлением этот поступок делает то, 00:43:47.858 --> 00:43:53.848 что Дадли и Стивенс в один момент решили, что их жизни важнее, чем жизнь юнги. 00:43:53.849 --> 00:43:56.609 Я имею в виду, что подобная мысль является предпосылкой любого преступления. 00:43:56.608 --> 00:43:58.938 Это равнозначно признанию того, что мои потребности, мои желания 00:43:58.938 --> 00:44:01.949 является более важными, более предпочтительными, чем ваши. 00:44:01.949 --> 00:44:04.798 А если бы они тянули жребий, согласившись с тем, 00:44:04.798 --> 00:44:06.478 что кто-то из них должен умереть 00:44:06.478 --> 00:44:09.239 и пожертвовать таким образом собой, 00:44:09.239 --> 00:44:10.959 чтобы спасти остальных. 00:44:10.959 --> 00:44:12.919 Тогда всё будет в порядке? 00:44:12.919 --> 00:44:15.840 Немного абсурдно, но, 00:44:15.840 --> 00:44:18.828 Но допустимо с точки зрения морали? Да. 00:44:18.828 --> 00:44:20.958 Как вас зовут? Мэтт. 00:44:20.958 --> 00:44:25.578 Что ж, Мэтт, вас смущает 00:44:25.579 --> 00:44:28.259 не сам факт каннибализма, 00:44:28.259 --> 00:44:31.389 а отсутствие должной процедуры? 00:44:31.389 --> 00:44:34.689 Я думаю, да. 00:44:34.688 --> 00:44:38.170 Может ли кто-нибудь из тех, кто согласен с Мэттом, 00:44:38.170 --> 00:44:40.410 что-нибудь добавить к сказанному 00:44:40.410 --> 00:44:46.738 о том, почему жребий сделает этот поступок 00:44:46.738 --> 00:44:50.528 допустимым с точки зрения морали? 00:44:50.528 --> 00:44:53.938 Мне кажется, что основная проблема заключается именно в том, 00:44:53.938 --> 00:44:58.758 что юнгу даже не спрашивали, когда решали его судьбу. 00:44:58.758 --> 00:45:01.018 Даже в ситуации с несостоявшимся жребием. 00:45:01.018 --> 00:45:02.810 Будет или не будет он в нём участвовать, им показалось неважным. 00:45:02.810 --> 00:45:05.690 Было просто решено, что именно мальчик должен умереть. 00:45:05.690 --> 00:45:08.170 Да, так и произошло на самом деле. 00:45:08.170 --> 00:45:11.900 Но если бы все они тянули жребий, и все были бы согласны с этой процедурой, 00:45:11.900 --> 00:45:13.399 считали бы вы это правильным? 00:45:13.399 --> 00:45:16.418 Да, потому что тогда все бы знали, что кто-то из них умрёт, 00:45:16.418 --> 00:45:18.879 в то время как в реальной ситуации юнга не знал, 00:45:18.879 --> 00:45:21.038 что Дадли и Стивенс решают его судьбу. 00:45:21.039 --> 00:45:26.309 Ему никто никто не сказал, что он может умереть. 00:45:26.309 --> 00:45:29.299 Хорошо, предположим, что все согласились тянуть жребий. 00:45:29.299 --> 00:45:34.368 Все бросили жребий. Но представьте себе, что юнга проиграл и передумал. 00:45:34.368 --> 00:45:37.029 Вы уже всё решили, это своего рода устное соглашение, 00:45:37.029 --> 00:45:40.989 вы не можете взять свои слова обратно. Решение было принято. NOTE Paragraph 00:45:40.989 --> 00:45:45.148 Вы понимаете, что умираете ради того, чтобы спасти других. 00:45:45.148 --> 00:45:48.208 Вы осознаёте, что если бы кому-то другому выпал жребий умереть, 00:45:48.208 --> 00:45:51.009 то его так же съели бы, так что... 00:45:51.009 --> 00:45:56.709 Хорошо, но потом он мог бы сказать: «Знаю, но я проиграл.» 00:45:56.709 --> 00:46:02.688 Я считаю, что основная нравственная проблема в том, что юнгу никто не спрашивал. 00:46:02.688 --> 00:46:07.048 Самое ужасное то, что он даже не представлял, что происходит. 00:46:07.048 --> 00:46:10.599 Если бы он осознавал это, то результат был бы 00:46:10.599 --> 00:46:12.278 немного более справедливым. 00:46:12.278 --> 00:46:14.509 Хорошо. Теперь, мне интересно узнать вот что. 00:46:14.510 --> 00:46:16.919 Некоторые из вас считают, 00:46:16.919 --> 00:46:18.719 что это морально допустимо, 00:46:18.719 --> 00:46:23.878 но вас всего около 20 процентов. 00:46:23.878 --> 00:46:26.389 Во главе с Маркусом. 00:46:26.389 --> 00:46:28.439 Другие же считают, 00:46:28.438 --> 00:46:30.208 что основная проблема заключается 00:46:30.208 --> 00:46:32.678 в отсутствии согласия, 00:46:32.678 --> 00:46:36.919 будь то отсутствие согласия тянуть справедливый жребий 00:46:36.919 --> 00:46:38.488 или же, 00:46:38.488 --> 00:46:39.690 как считает Кэтлин, 00:46:39.690 --> 00:46:42.899 отсутствие согласия в момент 00:46:42.899 --> 00:46:44.979 смерти. 00:46:44.979 --> 00:46:49.038 Если мы предположим наличие согласия, то 00:46:49.038 --> 00:46:51.889 уже больше людей будут готовы признать, 00:46:51.889 --> 00:46:54.528 что эта жертва морально оправданна. 00:46:54.528 --> 00:46:58.388 Теперь я хочу выслушать тех, кто считает, 00:46:58.388 --> 00:47:00.139 что даже при наличии согласия, 00:47:00.139 --> 00:47:01.758 даже при условии организации жребия, 00:47:01.759 --> 00:47:08.009 даже, если бы в самый последний момент Паркер 00:47:08.018 --> 00:47:09.179 вяло согласился, 00:47:09.179 --> 00:47:12.578 это всё равно было бы неправильно. 00:47:12.578 --> 00:47:15.458 И я хочу услышать, почему это было бы неправильно. 00:47:15.458 --> 00:47:16.858 Да. 00:47:16.858 --> 00:47:22.718 Всё это время я склонялась к категорической аргументации. 00:47:22.718 --> 00:47:25.428 И думаю, 00:47:25.428 --> 00:47:29.368 что возможно, я готова принять вариант со жребием, 00:47:29.368 --> 00:47:33.660 при котором проигравший собственноручно убивает себя. 00:47:33.660 --> 00:47:37.218 Тогда убийства как такового не будет, но я по-прежнему считаю, 00:47:37.218 --> 00:47:39.768 что даже в таком случае будет принуждение. 00:47:39.768 --> 00:47:43.338 И я не думаю, что тут есть раскаяние. Вспомните, что написано в дневнике Дадли: 00:47:43.338 --> 00:47:44.909 "…когда мы завтракали". 00:47:44.909 --> 00:47:51.799 Это выглядит так, как будто он не видит ценности в жизни других. 00:47:51.799 --> 00:47:55.359 Это заставляет меня принять категорическую аргументацию. 00:47:55.359 --> 00:47:57.489 Вы хотите наказать Дадли по полной программе, 00:47:57.489 --> 00:48:00.758 если он не раскаивается или не чувствует, что поступил неправильно? 00:48:00.758 --> 00:48:02.158 Да. 00:48:02.158 --> 00:48:08.769 Хорошо. Есть ещё кто-нибудь, 00:48:08.769 --> 00:48:13.558 кто считает, что это категорически неправильно, с согласием или без него. Да, пожалуйста. Почему? 00:48:13.558 --> 00:48:17.129 Я считаю, что в понятиях нашего общества убийство есть убийство. 00:48:17.129 --> 00:48:21.489 Убийство есть убийство, и в любом случае наше общество негативно к этому относится. 00:48:21.489 --> 00:48:23.239 Я не считаю, что это зависит от обстоятельств. 00:48:23.239 --> 00:48:24.720 Позвольте мне задать вам вопрос. 00:48:24.720 --> 00:48:27.119 На кону было три жизни 00:48:27.119 --> 00:48:30.489 против одной. 00:48:30.489 --> 00:48:34.348 У юнги не было ни семьи, ни тех, о ком нужно было заботиться. 00:48:34.348 --> 00:48:39.149 У трёх других человек дома остались семьи, у них были иждивенцы: 00:48:39.149 --> 00:48:41.418 жёны и дети. 00:48:41.418 --> 00:48:43.328 Вспомните Бентама. 00:48:43.329 --> 00:48:44.989 Бентам считал, что мы должны учитывать 00:48:44.989 --> 00:48:48.048 благосостояние, полезность и счастье 00:48:48.048 --> 00:48:51.288 для всех. Мы должны сложить всё вместе, 00:48:51.289 --> 00:48:54.640 поэтому это не просто цифра «три» против цифры «один», 00:48:54.639 --> 00:48:58.759 а ещё и все эти люди, ждущие моряков дома. 00:48:58.759 --> 00:49:00.909 Надо сказать, что во время разбирательства пресса 00:49:00.909 --> 00:49:04.248 и общественное мнение сочувствовали 00:49:04.248 --> 00:49:05.478 Дадли и Стивенсу. 00:49:05.478 --> 00:49:07.919 В газете писали, что если бы ими 00:49:07.920 --> 00:49:08.280 не двигали 00:49:08.280 --> 00:49:09.640 привязанность к своим близким, оставшимся дома, 00:49:09.639 --> 00:49:13.489 и беспокойство об их судьбе, они бы, несомненно, 00:49:13.489 --> 00:49:15.969 - не совершили этот страшный поступок. - Хорошо, но в таком случае как они отличаются от людей, 00:49:15.969 --> 00:49:17.369 которые просят милостыню 00:49:17.369 --> 00:49:21.108 и которые также хотят прокормить свою семью? Я не думаю, что есть большая разница. Я считаю, что в любом случае 00:49:21.108 --> 00:49:25.279 если я убиваю кого-то, чтобы улучшить свое положение, это не перестаёт быть убийством. Я думаю, что мы должны рассматривать всё это 00:49:25.280 --> 00:49:28.430 с такой точки зрения. Мы считаем преступлениями только 00:49:28.429 --> 00:49:30.278 определённые поступки. 00:49:30.278 --> 00:49:33.760 При этом некоторые из них кажутся нам более жестокими и дикими, 00:49:33.760 --> 00:49:36.760 хотя в их основе всегда лежит один и тот же стимул - 00:49:36.760 --> 00:49:40.150 необходимость прокормить свои семьи. 00:49:40.150 --> 00:49:43.028 Предположим, что людей в исходной ситуации было бы не трое, а тридцать 00:49:43.028 --> 00:49:44.608 или триста. 00:49:44.608 --> 00:49:47.358 Пожертвовать одной жизнью, чтобы спасти триста 00:49:47.358 --> 00:49:48.349 или больше, 00:49:48.349 --> 00:49:49.589 три тысячи. 00:49:49.590 --> 00:49:51.039 Или, предположим, что ставки были ещё больше. 00:49:51.039 --> 00:49:52.778 Предположим, что ставки были ещё больше. 00:49:52.778 --> 00:49:54.608 Я думаю, что это по-прежнему то же самое. 00:49:54.608 --> 00:49:58.108 Вы думаете, что Бентам ошибался, говоря, что необходимо 00:49:58.108 --> 00:49:58.929 суммировать 00:49:58.929 --> 00:50:02.479 всё общественное счастье? Вы думаете, что он ошибался насчёт этого? 00:50:02.478 --> 00:50:06.728 - Я не считаю, что он ошибался, но я считаю, что убийство есть убийство в любом случае. - Значит Бентам определённо ошибается. 00:50:06.728 --> 00:50:09.568 - Если вы правы, то неправ он. - Хорошо, тогда он не прав. 00:50:09.568 --> 00:50:12.818 Хорошо, спасибо. 00:50:12.818 --> 00:50:14.358 Давайте отвлечёмся 00:50:14.358 --> 00:50:16.389 от этого обсуждения 00:50:16.389 --> 00:50:19.728 и обратим внимание на то, 00:50:19.728 --> 00:50:23.259 сколько было возражений по поводу поступка Дадли и Стивенса. 00:50:23.259 --> 00:50:26.048 Мы услышали несколько мнений в защиту того, что они сделали. 00:50:26.048 --> 00:50:28.509 Их оправдывали тем, что они находились 00:50:28.509 --> 00:50:28.918 в состоянии крайней необходимости, 00:50:28.918 --> 00:50:32.588 были в ужасных обстоятельствах. 00:50:32.588 --> 00:50:33.409 По крайней мере, косвенно оправдывали количественным аргументом, 00:50:33.409 --> 00:50:36.018 «три жизни против одной». 00:50:36.018 --> 00:50:37.858 Говорили, что дело не только в количестве, 00:50:37.858 --> 00:50:40.380 но и в более важных обстоятельствах, 00:50:40.380 --> 00:50:43.459 в том, что дома у них остались семьи и близкие. 00:50:43.458 --> 00:50:44.768 Паркер же был сиротой, 00:50:44.768 --> 00:50:47.978 никто бы не скучал по нему. 00:50:47.978 --> 00:50:49.578 Таким образом, если вы 00:50:49.579 --> 00:50:50.829 сложите всё это 00:50:50.829 --> 00:50:52.649 и попробуете оценить 00:50:52.648 --> 00:50:53.998 соотношение 00:50:53.998 --> 00:50:56.598 счастья и страдания, 00:50:56.599 --> 00:50:58.838 то у вас будут основания 00:50:58.838 --> 00:51:02.768 утверждать, что они поступили правильно. 00:51:02.768 --> 00:51:09.468 Затем мы услышали по крайней мере три различных типа возражений. 00:51:09.469 --> 00:51:11.690 Например, возражение о том, 00:51:11.690 --> 00:51:14.108 что они поступили неправильно с категорической точки зрения. 00:51:14.108 --> 00:51:15.750 Вы так сказали. 00:51:15.750 --> 00:51:17.389 Неправильно с категорической точки зрения. 00:51:17.389 --> 00:51:19.820 Убийство есть убийство, и это всегда плохо, 00:51:19.820 --> 00:51:20.969 даже если 00:51:20.969 --> 00:51:23.349 при этом повысится общий уровень счастья 00:51:23.349 --> 00:51:25.639 в обществе. 00:51:25.639 --> 00:51:28.499 Это категорическое возражение. 00:51:28.498 --> 00:51:30.738 Но нам всё равно нужно понять, 00:51:30.739 --> 00:51:32.749 почему убийство 00:51:32.748 --> 00:51:35.448 является категорически неправильным. 00:51:35.449 --> 00:51:38.579 Потому ли, что 00:51:38.579 --> 00:51:42.339 даже у юнги есть фундаментальные права? 00:51:42.338 --> 00:51:44.400 И если в этом вся причина, 00:51:44.400 --> 00:51:47.880 то откуда возникат эти права, если не от идеи 00:51:47.880 --> 00:51:53.209 повышения общественного благосостояния, полезности или счастья? Это первый вопрос. 00:51:53.208 --> 00:51:56.308 Другие утверждали, 00:51:56.309 --> 00:51:58.449 что в случае со жребием было бы иначе. 00:51:58.449 --> 00:52:00.039 Справедливая процедура, 00:52:00.039 --> 00:52:05.949 как заметил Мэтт. 00:52:05.949 --> 00:52:08.769 И некоторые из вас склонились к этой точке зрения. 00:52:08.768 --> 00:52:12.188 Но это не совсем категорическое возражение. 00:52:12.188 --> 00:52:13.828 Это утверждение о том, 00:52:13.829 --> 00:52:16.798 что все должны считаться равными, 00:52:16.798 --> 00:52:18.469 даже если в конце концов 00:52:18.469 --> 00:52:20.769 один человек будет принесён в жертву 00:52:20.768 --> 00:52:23.288 ради общего блага. 00:52:23.289 --> 00:52:26.059 Это заставляет нас задуматься о следующем. 00:52:26.059 --> 00:52:29.670 Почему согласие на определённую процедуру, 00:52:29.670 --> 00:52:31.969 пусть даже справедливую, 00:52:31.969 --> 00:52:34.739 оправдывает любой результат, 00:52:34.739 --> 00:52:38.088 вытекающий из этой процедуры? 00:52:38.088 --> 00:52:39.898 Это второй вопрос. 00:52:39.898 --> 00:52:42.398 И наконец третий вопрос - 00:52:42.398 --> 00:52:45.338 фундаментальная идея о согласии. 00:52:45.338 --> 00:52:48.528 Эту мысль высказала Кэтлин. 00:52:48.528 --> 00:52:52.719 Если бы юнга согласился сам, 00:52:52.719 --> 00:52:54.499 и никто бы его к этому не принуждал, 00:52:54.498 --> 00:52:57.068 как было отмечено, 00:52:57.068 --> 00:53:01.918 то пожертвовать его жизнью ради жизни других было вполне нормальным. 00:53:01.918 --> 00:53:04.900 Эту идею поддержали ещё больше людей, 00:53:04.900 --> 00:53:06.630 но это приводит нас 00:53:06.630 --> 00:53:08.528 к третьему философскому вопросу. 00:53:08.528 --> 00:53:11.009 Какова моральная основа 00:53:11.009 --> 00:53:12.838 согласия? 00:53:12.838 --> 00:53:14.438 00:53:14.438 --> 00:53:16.978 Почему акт согласия 00:53:16.978 --> 00:53:19.188 так существенно меняет дело с моральной точки зрения? 00:53:19.188 --> 00:53:23.818 Так меняет, что поступок, который в любом другом случае мы бы посчитали неправильным и назвали бы убийством, 00:53:23.818 --> 00:53:25.369 является допустимым 00:53:25.369 --> 00:53:26.358 с точки зрения морали, 00:53:26.358 --> 00:53:29.619 если на него было дано согласие. 00:53:29.619 --> 00:53:31.699 Чтобы ответить на эти три вопроса, 00:53:31.699 --> 00:53:34.058 нам с вами нужно будет изучить сочинения неcкольких философов. 00:53:34.058 --> 00:53:38.688 В следующий раз мы начнём с Бентама и Джона Стюарта Милля — 00:53:38.688 --> 00:53:43.798 философов-утилитаристов. 00:53:43.798 --> 00:53:47.298 00:53:43.798 --> 00:53:47.298 00:53:49.869 --> 00:53:56.869 00:54:36.219 --> 00:54:40.269 00:54:40.268 --> 00:54:41.678