WEBVTT 00:00:04.200 --> 00:00:08.240 Pravednost Michael Sandel 00:00:08.240 --> 00:00:15.240 Moralna strana ubojstva 00:00:33.509 --> 00:00:36.587 Ovo je kolegij o pravednosti i započinjemo jednom pričom. 00:00:37.750 --> 00:00:39.735 Pretpostavimo da ste vozač tramvaja 00:00:40.179 --> 00:00:43.809 i vaš tramvaj juri tračnicama 90 km na sat, 00:00:44.640 --> 00:00:48.741 a na kraju tračnica uočavate pet radnika koji rade na pruzi. 00:00:49.390 --> 00:00:52.972 Pokušavate stati, ali ne možete, kočnice vam ne rade. 00:00:53.829 --> 00:00:56.077 Očajni ste jer znate 00:00:56.780 --> 00:01:01.090 da ako se zaletite u tih pet radnika, svi će poginuti. 00:01:01.490 --> 00:01:03.612 Pretpostavimo da to znate sa sigurnošću 00:01:05.079 --> 00:01:06.703 i osjećate se bespomoćni 00:01:07.420 --> 00:01:12.550 dok ne primijetite sporedni kolosijek s desne strane 00:01:13.170 --> 00:01:18.039 a na kraju tog kolosijeka je jedan radnik koji radi na pruzi. 00:01:19.079 --> 00:01:25.326 Vaš upravljač radi pa možete skrenuti tramvaj, ako želite, 00:01:26.010 --> 00:01:27.912 na sporedni kolosijek, 00:01:28.680 --> 00:01:31.751 i tako ubiti jednog radnika, ali poštedivši petoricu. 00:01:33.269 --> 00:01:35.199 Evo našeg prvog pitanja. 00:01:35.929 --> 00:01:37.809 Kako ispravno postupiti? 00:01:38.819 --> 00:01:40.478 Što biste vi učinili? 00:01:40.638 --> 00:01:42.030 Hajde da provedemo anketu. 00:01:42.470 --> 00:01:47.700 Koliko bi vas skrenulo tramvaj na sporedni kolosijek? 00:01:47.850 --> 00:01:49.030 Dignite ruke. 00:01:52.019 --> 00:01:55.330 Koliko vas ne bi? Koliko bi vas nastavilo ravno naprijed? 00:01:57.650 --> 00:02:00.630 Ostavite podignute ruke, oni koji bi išli ravno naprijed. 00:02:04.049 --> 00:02:07.334 Šačica ljudi bi, velika većina bi skrenula. 00:02:08.048 --> 00:02:09.548 Da čujemo prvo ... 00:02:09.878 --> 00:02:15.039 Sada moramo istražiti razloge zašto mislite da je to ispravno učiniti. 00:02:15.089 --> 00:02:20.769 Počnimo s većinom, koja bi skrenula na sporedni kolosijek. 00:02:21.798 --> 00:02:23.409 Zašto bi to učinili? 00:02:23.669 --> 00:02:25.241 Koji bi bio vaš razlog? 00:02:25.688 --> 00:02:28.569 Tko bi nam iznio svoj razlog? 00:02:29.808 --> 00:02:31.838 Samo naprijed, ustanite. 00:02:32.218 --> 00:02:37.916 Zato jer ne može biti ispravno ubiti petoro kad možete ubiti jednoga, umjesto toga. 00:02:39.579 --> 00:02:43.981 Ne bi bilo u redu ubiti petoricu, ako možete ubiti samo jednog umjesto toga. 00:02:46.748 --> 00:02:48.208 To je dobar razlog. 00:02:52.959 --> 00:02:53.778 Tko još? 00:02:53.848 --> 00:02:56.658 Da li se svi slažu s tim razlogom? 00:02:59.228 --> 00:03:00.078 Izvolite. 00:03:01.218 --> 00:03:07.400 Mislim da je to isti razlog zbog kojeg ljude koji su u 9/11 spustili avion 00:03:07.533 --> 00:03:09.309 u polje u Pennsilvaniji, smatramo herojima 00:03:09.399 --> 00:03:15.035 jer su odabrali da ubiju ljude u avionu, a ne puno više ljudi u velikim zgradama. 00:03:15.909 --> 00:03:20.650 Znači, princip je bio isti u 9/11, tragična okolnost, 00:03:21.379 --> 00:03:24.593 bolje ubiti jednoga da bi petorica preživjela? 00:03:25.359 --> 00:03:28.220 Je li to razlog za većinu vas koji bi skrenuli? 00:03:30.428 --> 00:03:34.598 Da čujemo sada one koji su u manjini, 00:03:35.508 --> 00:03:37.217 one koji ne bi skrenuli. 00:03:40.558 --> 00:03:44.966 Mislim da je to ista vrsta mentaliteta koja opravdava genocid i totalitarizam, 00:03:45.206 --> 00:03:49.156 kako bi spasili jednu naciju, istrebljujete drugu. 00:03:50.189 --> 00:03:52.538 Pa što bi vi učinili u tom slučaju? 00:03:53.038 --> 00:04:00.098 Kako bi izbjegli užase genocida, vi bi se zaletili u petoricu i ubili ih? 00:04:03.389 --> 00:04:05.018 Po svoj prilici, da. 00:04:07.408 --> 00:04:08.787 Dobro, tko još? 00:04:09.930 --> 00:04:11.908 To je hrabar odgovor, hvala. 00:04:13.348 --> 00:04:17.917 Razmotrimo drugi slučaj s tramvajem 00:04:20.078 --> 00:04:25.338 i pogledajmo da li se, oni od vas koji su u većini, 00:04:27.428 --> 00:04:29.864 i dalje žele držati tog principa, 00:04:30.990 --> 00:04:33.329 bolje da umre jedan, kako bi petorica preživjela. 00:04:33.500 --> 00:04:36.743 Ovaj puta vi niste vozač tramvaja, nego promatrač. 00:04:37.998 --> 00:04:41.231 Stojite na mostu iznad tramvajske pruge, 00:04:42.678 --> 00:04:44.898 a prugom se približava tramvaj. 00:04:45.658 --> 00:04:47.830 Na kraju pruge nalazi se 5 radnika, 00:04:49.620 --> 00:04:51.329 kočnice ne rade, 00:04:51.738 --> 00:04:55.453 tramvaj samo što nije naletio na petoricu i ubio ih. 00:04:55.949 --> 00:05:00.238 A sada, vi niste vozač i zaista se osjećate bespomoćni. 00:05:01.309 --> 00:05:04.263 Dok ne primijetite da pokraj vas stoji 00:05:06.499 --> 00:05:09.373 naginjući se preko ograde mosta, 00:05:09.889 --> 00:05:12.210 jedan vrlo debeli čovjek. 00:05:17.398 --> 00:05:20.874 I mogli biste ga malo pogurnuti 00:05:22.668 --> 00:05:25.752 on bi pao s mosta na tračnice 00:05:27.949 --> 00:05:31.198 točno ispred tramvaja, 00:05:32.199 --> 00:05:35.483 on bi poginuo, ali bi spasio petoricu. 00:05:38.798 --> 00:05:43.563 Koliko vas bi gurnulo debelog čovjeka s mosta? Dignite ruke. 00:05:48.089 --> 00:05:49.532 Koliko vas ne bi? 00:05:50.859 --> 00:05:52.489 Većina ljudi ne bi. 00:05:53.849 --> 00:05:55.337 Postavlja se očito pitanje, 00:05:55.788 --> 00:05:58.075 što se dogodilo s principom, 00:05:59.878 --> 00:06:03.739 bolje spasiti pet života, čak i po cijenu žrtvovanja jednog, 00:06:03.839 --> 00:06:08.279 što je s principom koji su skoro svi podržali u prvom slučaju? 00:06:09.240 --> 00:06:12.809 Želio bih čuti nekoga iz većine u oba slučaja. 00:06:13.349 --> 00:06:16.287 Kako objašnjavate razliku između ta dva slučaja? 00:06:18.629 --> 00:06:23.460 Mislim da drugi uključuje aktivni izbor da se osobu gurne. 00:06:24.279 --> 00:06:29.736 Mislim da se, u suprotnom, ta osoba sama ne bi uplela u tu situaciju, 00:06:29.829 --> 00:06:32.609 pa birati u njegovo ime 00:06:36.119 --> 00:06:39.340 da ga se uključi u nešto što bi u protivnom izbjegao, 00:06:39.990 --> 00:06:42.788 mislim da je više od onog što imate u prvoj situaciji 00:06:42.830 --> 00:06:49.828 gdje tri strane, vozač i dvije grupe radnika već jesu u toj situaciji. 00:06:50.598 --> 00:06:54.239 Ali momak koji radi na sporednom kolosijeku, 00:06:55.108 --> 00:06:59.208 on nije odabrao da žrtvuje svoj život ništa više od debelog čovjeka, zar ne? 00:07:02.069 --> 00:07:04.570 To je istina, ali bio je na pruzi. 00:07:05.339 --> 00:07:07.409 Ovaj momak je bio na mostu! 00:07:10.439 --> 00:07:12.570 Možete nastaviti ako želite. 00:07:13.550 --> 00:07:15.159 Dobro, to je teško pitanje. 00:07:15.329 --> 00:07:18.298 Bili ste dobri, jako dobri, to je teško pitanje. 00:07:19.629 --> 00:07:24.470 Tko bi još pokušao naći način za usaglašavanje 00:07:26.028 --> 00:07:28.928 reakciju većine u ova dva slučaja? 00:07:30.158 --> 00:07:34.190 Pretpostavljam, u prvom slučaju, gdje imate jednog radnika i petoricu, 00:07:35.178 --> 00:07:38.549 izbor je između te dvije grupe i morate jednu izabrati 00:07:38.549 --> 00:07:41.088 i ljude će poginuti zbog tramvaja, 00:07:41.218 --> 00:07:45.029 ne nužno zbog vaše direktne akcije. 00:07:45.029 --> 00:07:48.209 Tramvaj je van kontrole i vi u djeliću sekunde morate donijetu određenu odluku, 00:07:48.209 --> 00:07:52.658 dok je guranje čovjeka s mosta stvarni čin ubojstva s vaše strane, 00:07:52.658 --> 00:07:54.490 nad time imate kontrolu, dok nad tramvajem nemate kontrolu. 00:07:54.490 --> 00:07:57.278 00:07:57.278 --> 00:08:00.089 Zato mislim da je to malo drugačija situacija. 00:08:00.089 --> 00:08:04.359 U redu, tko ima odgovor? 00:08:04.360 --> 00:08:06.319 Tko želi odgovoriti? 00:08:06.319 --> 00:08:09.490 Je li to pravo objašnjenje? 00:08:09.490 --> 00:08:12.439 Ja mislim da to nije baš dobar razlog 00:08:12.439 --> 00:08:16.889 jer u oba slučaja morate odlučiti tko će umrijeti 00:08:16.889 --> 00:08:18.500 jer ili ćete izabrati da skrenete i ubijete osobu 00:08:18.500 --> 00:08:19.718 što je aktivna svjesna odluka da skrenete, 00:08:19.718 --> 00:08:21.319 ili ćete izabrati da gurnete deebelog čovjeka, što je također aktivni svjesni čin. 00:08:21.319 --> 00:08:23.609 00:08:23.608 --> 00:08:27.688 Dakle u oba slučaja radite izbor. 00:08:27.689 --> 00:08:29.729 Želite li odgovoriti? 00:08:29.728 --> 00:08:34.189 Nisam baš siguran da je tako, još uvijek mi se čini da je drrugačije, 00:08:34.190 --> 00:08:38.230 time što ste nekoga bacili na tračnice i ubili ga, 00:08:38.230 --> 00:08:42.600 vi ste ga ustvari sami ubili. 00:08:42.600 --> 00:08:43.710 Gurate ga, vlastitim rukama. 00:08:43.710 --> 00:08:47.090 Gurate ga, a to je drugačije od upravljanja nečim što će uzrokovati smrt. 00:08:47.090 --> 00:08:48.670 00:08:48.669 --> 00:08:52.829 To zaista ne zvuči ispravno kad to ovako govorim. 00:08:52.830 --> 00:08:54.740 Ne, to je dobro, kako se zovete? 00:08:54.740 --> 00:08:55.570 Andrew. 00:08:55.740 --> 00:08:59.570 Andrew, dozvoli da te pitam ovo: 00:08:59.570 --> 00:09:02.240 Pretpostavimo, 00:09:02.240 --> 00:09:03.680 stojeći na mostu kraj tog debelog čovjeka, 00:09:03.679 --> 00:09:04.809 00:09:04.809 --> 00:09:07.849 ne moram ga gurnuti, 00:09:07.850 --> 00:09:14.850 pretpostavimo da stoji na poklopcu koji mogu otvoriti okrećući neki kotač, ovako. 00:09:17.450 --> 00:09:18.690 Biste li ga okrenuli? 00:09:18.690 --> 00:09:20.960 Zbog nekog razloga to izgleda još više pogrešno. 00:09:20.960 --> 00:09:24.129 00:09:24.129 --> 00:09:30.350 Mislim, možda ako bi se slučajno naslonili na taj kotač ili tako nešto. 00:09:30.350 --> 00:09:31.060 00:09:31.059 --> 00:09:33.118 Ili recimo da tramvaj leti prema sklopci koja će otvoriti poklopac, 00:09:33.119 --> 00:09:37.850 onda bih se mogao složiti s tim. 00:09:37.850 --> 00:09:39.230 00:09:39.850 --> 00:09:42.230 Pošteno, to još uvijek izgleda pogrešno 00:09:42.230 --> 00:09:45.500 na način na koji nije izgledalo u prvom slučaju skretanja. 00:09:45.500 --> 00:09:50.419 I na još jedan način, u prvoj situaciji vi ste direktno uključeni u situaciju, 00:09:50.419 --> 00:09:52.449 u drugoj ste samo promatrač, 00:09:52.450 --> 00:09:56.920 pa imate izbor da se uključite ili ne guranjem debelog čovjeka. 00:09:56.919 --> 00:09:59.549 Zaboravimo na trenutak na ovaj slučaj. 00:09:59.549 --> 00:10:01.269 00:10:01.269 --> 00:10:06.460 Zamislimo drugačiji slučaj. Ovaj puta vi ste doktor na hitnoj 00:10:06.460 --> 00:10:11.629 i dolazi vam šest pacijenata 00:10:11.629 --> 00:10:18.500 koji su stradali u groznoj prometnoj nesreći. 00:10:18.500 --> 00:10:23.889 Njih pet zadobilo je srednje teške povrede, 00:10:23.889 --> 00:10:27.720 jedan je u kritičnom stanju i trebao bi vam cijeli dan da se pobrinete za njega, 00:10:27.720 --> 00:10:32.330 no za to vrijeme onih pet bi moglo umrijeti. 00:10:32.330 --> 00:10:35.490 Ili se možete pobrinuti za tu petoricu, ali za to vrijeme onaj kritični bi mogao umrijeti. 00:10:35.490 --> 00:10:36.470 00:10:36.470 --> 00:10:37.660 Koliko vas bi spasilo petoricu da ste doktor? 00:10:37.659 --> 00:10:39.539 00:10:39.539 --> 00:10:40.849 00:10:40.850 --> 00:10:44.480 Koliko bi vas spasilo jednoga? 00:10:44.480 --> 00:10:46.300 Vrlo malo ljudi, samo šačica. 00:10:46.299 --> 00:10:49.269 00:10:49.269 --> 00:10:51.439 Isti razlog, pretpostavljam? 00:10:51.440 --> 00:10:55.570 Jedan život nasuprot pet. 00:10:55.570 --> 00:10:57.230 Sada razmotrite slučaj drugog doktora. 00:10:57.230 --> 00:10:59.070 00:10:59.070 --> 00:11:02.080 Ovaj puta vi ste kirurg za transplantacije, 00:11:02.080 --> 00:11:06.160 imate 5 pacijenata i svakom je očajnički nužna transplantacija organa kako bi preživio. 00:11:06.159 --> 00:11:09.639 00:11:09.639 --> 00:11:12.220 Jednom treba srce, jednom pluća, jednom bubreg, jednom jetra 00:11:12.220 --> 00:11:13.550 i petom gušterača. 00:11:13.549 --> 00:11:15.089 00:11:15.090 --> 00:11:16.680 00:11:16.679 --> 00:11:20.209 00:11:20.210 --> 00:11:22.780 Ali nemate nijednog darivatelja organa. 00:11:22.779 --> 00:11:24.909 Uskoro ćete gledati kako umiru. 00:11:24.909 --> 00:11:27.649 00:11:27.649 --> 00:11:28.860 A onda vam sine, 00:11:28.860 --> 00:11:30.649 00:11:30.649 --> 00:11:32.470 da je u sobi do zdravi mladić koji je došao na pregled. 00:11:32.470 --> 00:11:35.720 00:11:39.450 --> 00:11:43.740 Sviđa vam se to? 00:11:43.740 --> 00:11:47.159 00:11:47.159 --> 00:11:50.740 I on je zadrijemao, 00:11:53.269 --> 00:11:56.769 mogli biste potiho ući, 00:11:56.769 --> 00:12:00.600 izvaditi mu pet organa, ta osoba bi umrla, 00:12:00.600 --> 00:12:03.170 ali mogli biste spasiti petoricu. 00:12:03.169 --> 00:12:10.169 Koliko bi vas to učinilo? Itko? 00:12:10.389 --> 00:12:17.389 Koliko? Dignite ruke, ako bi to učinili. 00:12:18.100 --> 00:12:21.840 Netko na balkonu? 00:12:21.840 --> 00:12:24.280 Vi bi? Budite oprezni, ne naginjite se previše. 00:12:26.269 --> 00:12:29.340 Koliko ne bi? 00:12:29.340 --> 00:12:30.360 U redu. 00:12:30.360 --> 00:12:33.600 Što vi kažete, govorite vi sa balkona koji bi izvadili organe, zašto? 00:12:33.600 --> 00:12:35.840 00:12:35.840 --> 00:12:38.629 Ja bi zapravo htio razmotriti malo drugačiju mogućnost, 00:12:38.629 --> 00:12:40.188 tako da uzmem jednog od onih kojima treba organ, 00:12:40.188 --> 00:12:44.419 koji će prvi umrijeti i iskoristio bi njegova četiri zdrava organa 00:12:44.419 --> 00:12:50.229 da spasim preostalu četvoricu. 00:12:50.230 --> 00:12:54.639 To je prilično dobra ideja. 00:12:54.639 --> 00:12:57.830 To je sjajna ideja, 00:12:57.830 --> 00:13:00.160 osim činjenice 00:13:00.159 --> 00:13:06.159 da ste upravo uništili filozofsku poantu. 00:13:06.159 --> 00:13:07.360 Odmaknimo se malo od ovih priča i argumenata. 00:13:07.360 --> 00:13:10.240 00:13:10.240 --> 00:13:12.750 da uočimo nekoliko stvari u načinu kako su se argumenti počeli razvijati. 00:13:12.750 --> 00:13:17.809 00:13:17.809 --> 00:13:18.649 Određeni moralni principi već su se počeli pojavljivati 00:13:18.649 --> 00:13:20.360 00:13:20.360 --> 00:13:23.340 00:13:23.340 --> 00:13:25.879 u diskusijama koje smo vodili. 00:13:25.879 --> 00:13:27.570 Pa hajde da vidimo koji su to moralni principi. 00:13:27.570 --> 00:13:29.740 00:13:29.740 --> 00:13:31.250 00:13:31.250 --> 00:13:35.710 Prvi moralni princip koji se pojavio u diskusiji kaže 00:13:35.710 --> 00:13:39.110 da spravna stvar, moralna stvar koju treba učiniti 00:13:39.110 --> 00:13:43.139 ovisi o posljedicama kojima će rezultirati vaše djelovanje. 00:13:43.139 --> 00:13:45.480 00:13:45.480 --> 00:13:47.080 Na kraju dana, bolje je da prežive petorica 00:13:47.080 --> 00:13:49.250 00:13:49.250 --> 00:13:52.320 čak i ako jedan mora umrijeti. 00:13:52.320 --> 00:13:53.700 To je primjer konsekvencijalnog (posljedičnog) moralnog rasuđivanja. 00:13:53.700 --> 00:13:56.280 00:13:56.279 --> 00:13:59.459 00:13:59.460 --> 00:14:04.310 Konsekvencijalno moralno rasuđivanje locira moralnost u posljedicama nekog čina 00:14:04.309 --> 00:14:06.549 u stanju svijeta koji će biti rezultat onoga što učinite. 00:14:06.549 --> 00:14:09.049 00:14:09.049 --> 00:14:12.789 Ali onda smo otišli malo dalje razmatrajući druge slučajeve 00:14:12.789 --> 00:14:15.319 i ljudi nisu baš bili sigurni 00:14:15.320 --> 00:14:17.300 u konsekvencijalno moralno rasuđivanje 00:14:17.299 --> 00:14:20.529 00:14:20.529 --> 00:14:22.419 kad su oklijevali gurnuti debelog čovjeka s mosta 00:14:22.419 --> 00:14:24.269 00:14:24.269 --> 00:14:25.789 00:14:25.789 --> 00:14:28.639 ili iščupati organe nevinog pacijenta. 00:14:28.639 --> 00:14:29.750 00:14:29.750 --> 00:14:32.259 Ljudi su ukazivali na razloge 00:14:32.259 --> 00:14:34.259 00:14:34.259 --> 00:14:35.379 povezane s intrinzičnom kvalitetom samog čina. 00:14:35.379 --> 00:14:37.250 00:14:37.250 --> 00:14:39.230 00:14:39.230 --> 00:14:40.690 00:14:40.690 --> 00:14:42.770 bez obzira na posljedice. 00:14:42.769 --> 00:14:45.179 Ljudi su se opirali, 00:14:45.179 --> 00:14:47.819 ljudi su mislili da je to jednostavno pogrešno, kategorički pogrešno, 00:14:47.820 --> 00:14:49.480 00:14:49.480 --> 00:14:50.500 ubiti osobu, nevinu osobu, čak i u ime spašavanja pet života. 00:14:50.500 --> 00:14:51.408 00:14:51.408 --> 00:14:53.509 00:14:53.509 --> 00:14:54.689 00:14:54.690 --> 00:14:55.819 00:14:55.818 --> 00:14:58.500 Bar su tako ljudi mislili u drugoj verziji priče koju smo razmatrali. 00:14:58.500 --> 00:15:00.610 00:15:00.610 --> 00:15:05.120 00:15:05.120 --> 00:15:06.519 To ukazuje na drugi kategorički način razmišljanja o moralnom rasuđivanju. 00:15:06.519 --> 00:15:09.539 00:15:09.539 --> 00:15:10.689 00:15:10.690 --> 00:15:12.660 00:15:12.659 --> 00:15:14.679 00:15:14.679 --> 00:15:16.429 00:15:16.429 --> 00:15:22.429 Kategoričko moralno rasuđivanje locira moralnost u određenim apslutnim moralnim uvjetima, 00:15:22.429 --> 00:15:24.439 određenim kategoričkim dužnostima i pravima bez obzira na posljedice. 00:15:24.440 --> 00:15:27.440 00:15:27.440 --> 00:15:29.230 U danima i tjednima pred nama istraživat ćemo razlike između 00:15:29.230 --> 00:15:33.070 00:15:33.070 --> 00:15:36.540 konsekvencijalnih i kategoričkih moralnih principa. 00:15:36.539 --> 00:15:38.370 Najutjecajniji primjer konsekvecijlanog moralnog rasuđivanja utilitarizam, 00:15:38.370 --> 00:15:40.419 00:15:40.419 --> 00:15:45.919 doktrina koju je razvio Jeremy Bentham, engleski političkii filozof 18. stoljeća. 00:15:45.919 --> 00:15:51.099 00:15:51.100 --> 00:15:54.139 Najvažniji filozof kategoričkog moralnog rasuđivanja 00:15:54.139 --> 00:15:56.850 00:15:56.850 --> 00:15:58.170 00:15:58.169 --> 00:16:02.589 je Emmanuel Kant, njemački filozof 18. stoljeća. 00:16:02.590 --> 00:16:03.860 Stoga ćemo razmotriti ova dva različita načina moralnog rasuđivanja 00:16:03.860 --> 00:16:07.259 00:16:07.259 --> 00:16:08.299 procijeniti ih i također razmotriti druge. 00:16:08.299 --> 00:16:10.669 00:16:10.669 --> 00:16:16.099 Ako pogledate nastavni program, primijetit ćete da čitamo niz sjajnih i čuvenih knjiga, 00:16:16.100 --> 00:16:18.310 knjige Aristotela, Johna Lockea, Immanuela Kanta, Johna Stewarta Milla i drugih. 00:16:18.309 --> 00:16:19.889 00:16:19.889 --> 00:16:22.080 00:16:22.080 --> 00:16:24.030 00:16:24.029 --> 00:16:28.169 Također ćete primijetiti u programu da ne čitamo samo te knjige, 00:16:28.169 --> 00:16:30.069 također se bavimo suvremenim političkim i pravnim kontraverzama 00:16:30.070 --> 00:16:32.010 00:16:32.009 --> 00:16:37.000 koja potiču filozofska pitanja. 00:16:37.000 --> 00:16:40.190 Diskutirat ćemo o jednakosti i nejednakosti, 00:16:40.190 --> 00:16:41.490 afirmativnu akciju (pozitivnu diskriminaciju), 00:16:41.490 --> 00:16:43.698 slobodu govora nasuprot govora mržnje, 00:16:43.698 --> 00:16:47.039 istospolne brakove, vojnu obavezu, 00:16:47.039 --> 00:16:50.980 spektar praktičnih pitanja. 00:16:50.980 --> 00:16:55.350 Zašto? Ne samo da bi oživjeli te apstraktne i daleke knjige, 00:16:55.350 --> 00:17:01.040 već da rasvjetlimo, razotkrijemo, kako filozofija utječe na 00:17:01.039 --> 00:17:03.519 naše svakidašnje živote, uključujući naše političke živote. 00:17:03.519 --> 00:17:05.639 00:17:05.640 --> 00:17:07.720 Zato ćemo čitati te knjige i raspravljati o tim pitanjima 00:17:07.720 --> 00:17:09.818 i vidjeti kako svaki od njih utječe i rasvjetljava druge. 00:17:09.818 --> 00:17:15.480 00:17:15.480 --> 00:17:17.599 To može zvučati dosta privlačno, ali ovdje vas moram upozoriti na nešto. 00:17:17.599 --> 00:17:19.109 00:17:19.109 --> 00:17:22.549 00:17:22.549 --> 00:17:25.210 A upozorenje je sljedeće: 00:17:25.210 --> 00:17:28.500 čitanje ovih knjiga na ovaj način, 00:17:28.500 --> 00:17:31.549 00:17:31.549 --> 00:17:34.119 kao vježbu u samo-spoznaji, 00:17:34.119 --> 00:17:38.849 čitanje na ovaj način nosi određene rizike, 00:17:38.849 --> 00:17:42.119 rizike koji su istovremeno osobni i politički, 00:17:42.119 --> 00:17:47.799 rizike koje poznaje svaki student političke filozofije. 00:17:47.799 --> 00:17:50.690 Ti rizici proizlaze iz činjenice 00:17:50.690 --> 00:17:52.580 da nas filozofija uči i zbunjuje 00:17:52.579 --> 00:17:54.220 00:17:54.220 --> 00:17:56.400 00:17:56.400 --> 00:18:01.390 suočavajući nas s onim što već znamo. 00:18:01.390 --> 00:18:03.390 Tu postoji jedna ironija, 00:18:03.390 --> 00:18:09.790 teškoća ovog kolegija skriva se u činjenici da vas uči ono što već znate. 00:18:09.789 --> 00:18:12.159 To radi uzimajući ono što znamo iz poznatih neupitnih okruženja, 00:18:12.160 --> 00:18:16.470 00:18:16.470 --> 00:18:20.370 i pretvarajući to u nešto nepoznato. 00:18:20.369 --> 00:18:22.389 Na taj način su funkcionirali oni primjeri, 00:18:22.390 --> 00:18:23.120 00:18:23.119 --> 00:18:29.029 s hipotetičkim pretpostavkama s kojima smo započinjali, mješavinom šaljivog i razboritog. 00:18:29.029 --> 00:18:33.940 Jednako tako funkcioniraju i te filozofske knjige. 00:18:33.940 --> 00:18:35.640 Filozofija nas otuđuje od poznatog, 00:18:35.640 --> 00:18:37.520 00:18:37.519 --> 00:18:40.389 ne tako da nam daje nove informacije, 00:18:40.390 --> 00:18:41.780 nego pozivajući i provocirajući 00:18:41.779 --> 00:18:43.599 00:18:43.599 --> 00:18:47.419 novi način gledanja, 00:18:47.420 --> 00:18:49.970 ali, i tu postoji rizik, 00:18:49.970 --> 00:18:50.720 jednom kada ono poznato postane strano, 00:18:50.720 --> 00:18:54.299 00:18:54.299 --> 00:18:58.259 nikada više nije potpuno isto. 00:18:58.259 --> 00:19:00.210 Samo-spoznaja je kao izgubljena nevinost, 00:19:00.210 --> 00:19:03.200 00:19:03.200 --> 00:19:04.720 kako god bilo uznemirujuće, kada ju nađete 00:19:04.720 --> 00:19:06.029 00:19:06.029 --> 00:19:07.289 nikada je više ne možete od-misliti 00:19:07.289 --> 00:19:09.720 00:19:09.720 --> 00:19:13.390 ili ne-znati. 00:19:13.390 --> 00:19:17.259 Ono što čini ovaj poduhvat teškim 00:19:17.259 --> 00:19:19.970 ali također intrigantnim, 00:19:19.970 --> 00:19:20.880 00:19:20.880 --> 00:19:25.400 je to da je moralna i politička filozofija priča 00:19:25.400 --> 00:19:29.340 i vi ne znate kuda ta priča vodi, ali ono što znate 00:19:29.339 --> 00:19:31.319 je da je to priča o vama. 00:19:31.319 --> 00:19:34.480 00:19:34.480 --> 00:19:37.079 To su osobni rizici, 00:19:37.079 --> 00:19:40.220 a što je s političkim rizicima? 00:19:40.220 --> 00:19:43.038 Jedan način predstavljanja kolegija poput ovog 00:19:43.038 --> 00:19:44.730 bio bi obečavajući vam da čitanjem ovih knjiga 00:19:44.730 --> 00:19:46.460 00:19:46.460 --> 00:19:48.069 i diskutiranjem o ovim pitanjima 00:19:48.069 --> 00:19:51.769 postat ćete bolji, odgovorniji građani. 00:19:51.769 --> 00:19:56.450 Propitivat ćete presumpcije javnih politika, 00:19:56.450 --> 00:19:57.289 dorađivati svoje političke prosudbe, 00:19:57.289 --> 00:20:02.819 postat ćete učinkovitiji sudionik javnih zbivanja. 00:20:02.819 --> 00:20:06.869 Ali to bi bilo nepotpuno i obmanjujuće obećanje. 00:20:06.869 --> 00:20:11.489 Politička fizofija uglavnom ne funkcionira na taj način. 00:20:11.490 --> 00:20:14.660 Morate dozvoliti mogućnost 00:20:14.660 --> 00:20:19.100 da vas politička filozofija može učiniti gorim građaninom, 00:20:19.099 --> 00:20:21.969 a ne boljim, 00:20:21.970 --> 00:20:23.809 ili barem gorim građaninom prije no što vas učini boljim. 00:20:23.809 --> 00:20:25.629 00:20:25.630 --> 00:20:27.950 00:20:27.950 --> 00:20:30.400 A to je zbog toga jer je filozofija 00:20:30.400 --> 00:20:32.620 00:20:32.619 --> 00:20:34.709 aktivnost koja udaljava i čak iscrpljuje. 00:20:34.710 --> 00:20:36.600 00:20:36.599 --> 00:20:37.759 A to vidite vraćajući se Sokratu; 00:20:37.759 --> 00:20:39.890 00:20:39.890 --> 00:20:42.290 ima jedan dijalog, Gorgija, 00:20:42.289 --> 00:20:44.680 u kojem jedan od Sokratovih prijatelja, Kalikle, pokušava odvratiti ga od filozofiranja. 00:20:44.680 --> 00:20:45.620 00:20:45.619 --> 00:20:47.239 00:20:47.240 --> 00:20:49.970 00:20:49.970 --> 00:20:54.400 Kalikle kaže Sokratu, 'Filozofija je zgodna igračka, 00:20:54.400 --> 00:20:57.980 ako se u nju upuštamo umjereno u primjereno životno doba, 00:20:57.980 --> 00:21:03.779 ali ako na njoj ustrajemo više no što treba, ona je apsolutna propast,' 00:21:03.779 --> 00:21:06.819 'Poslušaj moj savjet,' kaže Kalikle, 'ostavi se rasprave, 00:21:06.819 --> 00:21:08.369 nauči vještine aktivnog života, 00:21:08.369 --> 00:21:11.669 00:21:11.670 --> 00:21:16.880 neka ti modeli ne budu ti ljudi koji vrijeme provode u tim sitničavim igrama riječi, 00:21:16.880 --> 00:21:20.080 već oni koji imaju dobro situiran život i reputaciju i mnoge druge blagodati.' 00:21:20.079 --> 00:21:22.319 00:21:22.319 --> 00:21:26.808 Kalikle zapravo Sokratu kaže, 00:21:26.808 --> 00:21:28.690 'Okani se filozofiranja, uozbilji se, 00:21:28.690 --> 00:21:30.549 00:21:30.549 --> 00:21:35.169 upiši se u poslovnu školu.' 00:21:35.170 --> 00:21:38.300 I Kalikle je bio u pravu. 00:21:38.299 --> 00:21:39.690 Bio je u pravu utoliko 00:21:39.690 --> 00:21:42.210 što nas filozofija udaljava od konvencija, utvrđenih postavki i prihvaćenih vjerovanja. 00:21:42.210 --> 00:21:45.009 00:21:45.009 --> 00:21:46.750 00:21:46.750 --> 00:21:48.650 To su rizici, osobni i politički, 00:21:48.650 --> 00:21:49.970 00:21:49.970 --> 00:21:54.089 a unatoč tim rizicima postoji karakteristično odstupanje, 00:21:54.089 --> 00:21:57.470 ime tog odstupanja je skepticizam. 00:21:57.470 --> 00:21:58.990 To je ideja, ide ovako nekako: 00:21:58.990 --> 00:22:03.660 nismo riješili, jednom zauvijek, 00:22:03.660 --> 00:22:09.759 ni slučajeve ni principe o kojima smo raspravljali na početku, 00:22:09.759 --> 00:22:11.390 a kad Aristotel i Locke i Kant i Mill nisu mogli riješiti ta pitanja nakon svih tih godina, 00:22:11.390 --> 00:22:17.220 00:22:17.220 --> 00:22:19.589 tko smo mi da mislimo 00:22:19.589 --> 00:22:23.730 da ih mi, ovdje u Sanders Theatre tijekom jednog semestra možemo riješiti? 00:22:23.730 --> 00:22:26.430 00:22:26.430 --> 00:22:29.460 Možda je samo stvar u tome da svaka osoba ima vlastite principe 00:22:29.460 --> 00:22:33.519 i ništa se više o tome nema za reći, nikakvo rasuđivanje. 00:22:33.519 --> 00:22:34.170 00:22:34.170 --> 00:22:36.590 00:22:36.589 --> 00:22:37.649 To je izbjegavanje. 00:22:37.650 --> 00:22:39.440 Izbjegavanje spepticizmom 00:22:39.440 --> 00:22:41.279 na što bih ja dao sljedeći odgovor: 00:22:41.279 --> 00:22:42.660 00:22:42.660 --> 00:22:43.720 Istina, o ovim pitanjima se rspravlja već dugo vremena, 00:22:43.720 --> 00:22:47.559 00:22:47.559 --> 00:22:49.059 ali sam činjenica da se uvijek iznova pojavljuju i ustraju, 00:22:49.059 --> 00:22:52.700 00:22:52.700 --> 00:22:54.650 može sugerirati da, iako su u nekom smislu nemoguća, 00:22:54.650 --> 00:22:57.169 00:22:57.169 --> 00:22:59.800 neizbježna su u drugom, 00:22:59.799 --> 00:23:02.299 a razlog zašto su neizbježna. 00:23:02.299 --> 00:23:06.500 Razlog zašto su neizbježna je 00:23:06.500 --> 00:23:10.069 da mi svakoga dana živimo odgovarajući na ta pitanja. 00:23:10.069 --> 00:23:16.129 Zato skepticizam, dizanje ruku i odustajanje od moralnog promišljanja, 00:23:16.130 --> 00:23:18.280 nije rješenje. 00:23:18.279 --> 00:23:19.990 Immanuel Kant vrlo dobro je opisao problem sa skepticizmom kad je napisao: 00:23:19.990 --> 00:23:23.710 00:23:23.710 --> 00:23:26.308 'Skepticizam je počivalište za ljudski razum 00:23:26.308 --> 00:23:29.099 gdje mo razmišljati o svojim dogmatskim lutanjima, 00:23:29.099 --> 00:23:33.069 ali nije mjesto za trajno obitavanje.' 00:23:33.069 --> 00:23:35.939 'Jednostavno se pomiriti sa skepticizmom,' pisao je Kant, 00:23:35.940 --> 00:23:42.660 'nikada ne može biti dovoljno za prevladavanje nemira razuma.' 00:23:42.660 --> 00:23:47.040 Pokušao sam, kroz ove priče i argumente, izložiti neki vid rizika i iskušenja 00:23:47.039 --> 00:23:49.898 00:23:49.898 --> 00:23:55.589 opasnosti i mogućnosti. 00:23:55.589 --> 00:23:58.099 Zaključit ću rekavši: da je cilj ovog kolegija 00:23:58.099 --> 00:23:59.629 probuditi nemir razuma i vidjeti kuda bi mogao voditi. 00:23:59.630 --> 00:24:02.240 00:24:02.240 --> 00:24:04.380 00:24:04.380 --> 00:24:11.380 Hvala vam. 00:24:15.440 --> 00:24:16.980 U tako očajnoj situaciji morate učiniti ono što morate da bi preživjeli. 00:24:16.980 --> 00:24:21.259 Morate učiniti ono što morate? 00:24:21.259 --> 00:24:22.779 Što morate, morate, baš tako. 00:24:22.779 --> 00:24:23.619 00:24:23.619 --> 00:24:25.699 Ako 19 dana niste ništa jeli, netko se mora žrtvovati da ljudi mogu preživjeti. 00:24:25.700 --> 00:24:32.700 U redu, dobro je. Kako se zovete? 00:24:33.569 --> 00:24:40.349 Marcus. 00:24:40.349 --> 00:24:44.569 Što ćete kazati Marcusu? 00:24:44.569 --> 00:24:46.960 Prošli puta samo započeli s nekim pričama, 00:24:46.960 --> 00:24:48.980 moralnim dilemama u vezi tramvaja. 00:24:48.980 --> 00:24:51.019 00:24:51.019 --> 00:24:53.049 00:24:53.049 --> 00:24:54.509 i doktora i zdravih pacijenata u opasnosti da budu žrtve transplantacije organa. 00:24:54.509 --> 00:24:56.269 00:24:56.269 --> 00:24:57.559 00:24:57.559 --> 00:25:00.909 00:25:00.910 --> 00:25:04.090 Uočili smo dvije stvari u vezi diskusija koje smo imali 00:25:04.089 --> 00:25:06.889 00:25:06.890 --> 00:25:10.830 Jedna se odnosi na način na koji smo diskutirali; 00:25:10.829 --> 00:25:13.569 počelo s našim ocjenama u danim slučajevima. 00:25:13.569 --> 00:25:18.470 Pokušali smo artikulirati razloge odnosno principe 00:25:18.470 --> 00:25:22.549 koji leže iza naših ocjena, 00:25:22.549 --> 00:25:25.399 a onda, suočeni s drugim slučajem našli smo se da preispitujemo te principe 00:25:25.400 --> 00:25:30.759 00:25:30.759 --> 00:25:34.019 mijenjajući ih u ovisnosti o drugima. 00:25:34.019 --> 00:25:38.920 I primijetili smo ugrađeno nastojanje da ih uskladimo, 00:25:38.920 --> 00:25:41.680 naše ocjene danih slučajeva 00:25:41.680 --> 00:25:43.940 i principe koje bismo usvojili nakon promišljanja. 00:25:43.940 --> 00:25:46.360 00:25:46.359 --> 00:25:50.589 Također smo uočili nešto u vezi sadržaja argumenata 00:25:50.589 --> 00:25:55.250 koji su se pojavili tokom diskusije. 00:25:55.250 --> 00:26:00.859 Primijetili smo da smo ponekad u iskušenju locirati moralnost nekog čina u posljedicama, 00:26:00.859 --> 00:26:06.519 u rezultatima, u stanju svijeta koje proizvodi taj čin. 00:26:06.519 --> 00:26:09.019 To smo nazvali konsekvencijalnim moralnim rasuđivanjem. 00:26:09.019 --> 00:26:11.690 00:26:11.690 --> 00:26:13.240 No, primijetili smo također da u nekim slučajevima 00:26:13.240 --> 00:26:16.440 00:26:16.440 --> 00:26:18.610 nisu dominirali samo rezultati. 00:26:18.609 --> 00:26:22.089 00:26:22.089 --> 00:26:23.399 Ponekad mnogi od nas su osjećali 00:26:23.400 --> 00:26:25.350 00:26:25.349 --> 00:26:31.669 da ne samo posljedice, nego i intrinzična karakteristika čina ima moralnu važnost. 00:26:31.670 --> 00:26:35.370 00:26:35.369 --> 00:26:40.979 Neki ljudi su tvrdili da postoje određene stvari koje su kategorički neispravne, 00:26:40.980 --> 00:26:42.579 čak i ako donose dobar rezultat, 00:26:42.579 --> 00:26:44.460 00:26:44.460 --> 00:26:45.490 čak i ako spašavaju petoro ljudi po cijenu jednog života. 00:26:45.490 --> 00:26:47.200 00:26:47.200 --> 00:26:49.788 00:26:49.788 --> 00:26:52.730 Stoga smo suprotstavili konsekvencijalne moralne principe kategoričkima. 00:26:52.730 --> 00:26:54.569 00:26:54.569 --> 00:26:58.139 00:26:58.140 --> 00:26:59.790 Danas i sljedećih nekoliko dana 00:26:59.789 --> 00:27:00.819 00:27:00.819 --> 00:27:06.569 preispitat ćemo jednu od najutjecajnijih verzija konsekvencijalne teorije morala, 00:27:06.569 --> 00:27:08.839 00:27:08.839 --> 00:27:10.970 00:27:10.970 --> 00:27:16.329 a to je filozofija utilitarizma. 00:27:16.329 --> 00:27:17.429 Jeremy Bentham, engleski politički filozof 18. stoljeća, 00:27:17.430 --> 00:27:19.080 00:27:19.079 --> 00:27:21.689 00:27:21.690 --> 00:27:22.910 prvi je jasno sistematski izložio utilitarističku teoriju morala, 00:27:22.910 --> 00:27:26.630 00:27:26.630 --> 00:27:28.670 00:27:28.670 --> 00:27:32.210 00:27:32.210 --> 00:27:36.400 a Benthamova ideja, njegova ključna ideja, 00:27:36.400 --> 00:27:38.440 00:27:38.440 --> 00:27:42.930 vrlo je jednostavna 00:27:42.930 --> 00:27:44.808 i moralno intuitivno vrlo dopadljiva. 00:27:44.808 --> 00:27:46.329 00:27:46.329 --> 00:27:48.429 00:27:48.430 --> 00:27:50.450 Benthamova ideja je sljedeća: 00:27:50.450 --> 00:27:51.590 00:27:51.589 --> 00:27:54.439 ono što je ispravno učiniti, što je pravedno učiniti, 00:27:54.440 --> 00:27:57.799 00:27:57.799 --> 00:27:58.819 je maksimizirati korisnost. 00:27:58.819 --> 00:28:01.369 00:28:01.369 --> 00:28:02.339 00:28:02.339 --> 00:28:06.329 Što je mislio pod korisnost? 00:28:06.329 --> 00:28:11.490 Pod korisnost je podrazumijevao ravnotežu 00:28:11.490 --> 00:28:14.000 ugode i boli, radosti i patnje. 00:28:14.000 --> 00:28:16.778 00:28:16.778 --> 00:28:18.210 Tako smo došli do principa maksimiziranja korisnosti. 00:28:18.210 --> 00:28:19.259 00:28:19.259 --> 00:28:22.308 00:28:22.308 --> 00:28:24.450 Započeo uočivši da svima nama, 00:28:24.450 --> 00:28:26.399 00:28:26.398 --> 00:28:27.750 svim ljudskim bićima, 00:28:27.750 --> 00:28:31.490 upravljaju dva suverena gospodara, bol i ugoda. 00:28:31.490 --> 00:28:34.620 00:28:34.619 --> 00:28:37.479 Mi ljudska bića volimo ugodu i ne volimo bol 00:28:37.480 --> 00:28:42.308 00:28:42.308 --> 00:28:45.839 i zato bismo moralnost morali bazirati 00:28:45.839 --> 00:28:49.169 - bez obzira da li se radi o našem vlastitom životu 00:28:49.170 --> 00:28:50.490 ili kao zakonodavci ili građani razmišljamo kakav bi trebao biti zakon - 00:28:50.490 --> 00:28:52.579 00:28:52.579 --> 00:28:57.029 00:28:57.029 --> 00:29:02.069 - ispravno je da individualno ili kolektivno djelujemo tako da maksimiziramo 00:29:02.069 --> 00:29:05.838 00:29:05.838 --> 00:29:07.659 sveopću razinu sreće, 00:29:07.660 --> 00:29:11.519 00:29:11.519 --> 00:29:15.430 Benthamov utilitarizam se ponekad sažima sloganom: 00:29:15.430 --> 00:29:18.870 'najveće dobro za najveći broj'. 00:29:18.869 --> 00:29:20.398 S tim osnovnim principom korisnosti pri ruci, 00:29:20.398 --> 00:29:22.989 00:29:22.990 --> 00:29:26.410 krenimo ga testirati i propitivati kroz još jedan slučaj, 00:29:26.410 --> 00:29:28.409 00:29:28.409 --> 00:29:30.620 još jednu priču, ali ovoga puta to nije hipotetska priča, 00:29:30.619 --> 00:29:32.639 00:29:32.640 --> 00:29:34.120 nego priča iz stvarnog života, 00:29:34.119 --> 00:29:35.059 slučaj Kraljice protiv Dudley i Stevensa. 00:29:35.059 --> 00:29:38.329 00:29:38.329 --> 00:29:41.889 To je čuveni britanski pravni spor iz 19. stoljeća 00:29:41.890 --> 00:29:44.009 00:29:44.009 --> 00:29:47.538 o kojem se mnogo raspravlja na pravnim fakultetima. 00:29:47.538 --> 00:29:50.059 Evo što se dogodilo: 00:29:50.059 --> 00:29:51.869 - ukratko ću ispričati priču, a onda bih želio čuti kako bi vi presudili 00:29:51.869 --> 00:29:54.909 zamiljajući da ste vi porota. 00:29:54.910 --> 00:29:57.640 00:29:57.640 --> 00:30:04.350 00:30:04.349 --> 00:30:06.178 Tadašnja priča u novinama opisala je pozadinu. 00:30:06.179 --> 00:30:09.290 00:30:09.289 --> 00:30:11.460 Nikada nije bila ispričana tužnija priča o udesu na moru 00:30:11.460 --> 00:30:12.789 00:30:12.789 --> 00:30:15.288 no što je priča preživjelih sa broda Mignonette. 00:30:15.288 --> 00:30:16.240 00:30:16.240 --> 00:30:19.109 Brod je potonuo u Južnom Atlantiku 1300 milja od grada Cape. 00:30:19.109 --> 00:30:21.789 00:30:21.789 --> 00:30:24.000 Imao je četiri člana posade, Dudley je bio kapetan, 00:30:24.000 --> 00:30:26.500 00:30:26.500 --> 00:30:28.400 Stephens je bio prvi oficir, Brooks je bio mornar. 00:30:28.400 --> 00:30:30.220 00:30:30.220 --> 00:30:31.279 Sve ljudi odličnog karaktera kako nam govori novinska priča. 00:30:31.279 --> 00:30:32.490 00:30:32.490 --> 00:30:34.249 00:30:34.249 --> 00:30:35.819 00:30:35.819 --> 00:30:38.639 Četvrti član posade bio je mali od palube, Richard Parker star 17 godina. 00:30:38.640 --> 00:30:40.300 00:30:40.299 --> 00:30:42.849 00:30:42.849 --> 00:30:44.629 On je bio siroče, nije imao obitelj 00:30:44.630 --> 00:30:46.930 00:30:46.930 --> 00:30:51.410 i to je bilo njegovo prvo dulje putovanje morem. 00:30:51.410 --> 00:30:53.700 Pošao je, kaže novinska priča, unatoč savjetima svojih prijatelja, 00:30:53.700 --> 00:30:56.730 00:30:56.730 --> 00:31:00.210 pošao je u nadi mladenačke ambicije da će putovanje napraviti od njega čovjeka. 00:31:00.210 --> 00:31:03.390 00:31:03.390 --> 00:31:05.140 Nažalost, nije mu bilo suđeno. 00:31:05.140 --> 00:31:07.780 Činjenice slučaja nisu bile sporne, 00:31:07.779 --> 00:31:08.970 val je udario u brod i Mignonette je potonuo. 00:31:08.970 --> 00:31:12.000 00:31:12.000 --> 00:31:14.859 Četvoro članova posade spasilo se u čamcu za spasavanje. 00:31:14.859 --> 00:31:16.199 Jedina hrana koju su imali bile su dvije konzerve konzervirane repe. 00:31:16.200 --> 00:31:18.380 00:31:18.380 --> 00:31:19.659 00:31:19.659 --> 00:31:20.990 00:31:20.990 --> 00:31:21.779 00:31:21.779 --> 00:31:23.980 Bez pitke vode. 00:31:23.980 --> 00:31:26.610 Prva tri dana nisu jeli ništa. 00:31:26.609 --> 00:31:30.459 Četvrti dan otvorili su jednu konzervu repe i pjeli je. 00:31:30.460 --> 00:31:31.590 00:31:31.589 --> 00:31:34.449 Sljedeći dan uhvatili su kornjaču. 00:31:34.450 --> 00:31:36.960 Druga konzerva repe i kornjača omogućili su im da prežive 00:31:36.960 --> 00:31:38.549 sljedećih nekoliko dana 00:31:38.549 --> 00:31:40.058 00:31:40.058 --> 00:31:43.069 i onda osam dana nisu jeli ništa. Bez hrane i bez vode. 00:31:43.069 --> 00:31:44.038 00:31:44.038 --> 00:31:47.069 00:31:47.069 --> 00:31:50.069 Zamislite sebe u takvoj situaciji. 00:31:50.069 --> 00:31:52.849 Što biste vi učinili? 00:31:52.849 --> 00:31:55.119 Evo što su oni učinili. 00:31:55.119 --> 00:32:00.969 Mali od palube Parker je sada već ležao na dnu čamca za spasavanje, u ćošku, 00:32:00.970 --> 00:32:03.230 jer se bio napio morske vode protivno savjetima ostalih. 00:32:03.230 --> 00:32:05.490 00:32:05.490 --> 00:32:07.230 Bilo mu je zlo i izgledalo je da umire. 00:32:07.230 --> 00:32:10.669 00:32:10.669 --> 00:32:14.619 Pa je devetnaestog dana Dudley, kapetan, predložio da izvlače slamku, 00:32:14.618 --> 00:32:17.349 da bi trebali vući slamke da vide tko bi trebao umrijeti da spasi ostale. 00:32:17.349 --> 00:32:18.759 00:32:18.759 --> 00:32:19.619 00:32:19.619 --> 00:32:20.859 00:32:20.859 --> 00:32:24.079 00:32:24.079 --> 00:32:25.210 Brooks je odbio, nije mu se sviđala ideja o lutriji. 00:32:25.210 --> 00:32:26.539 00:32:26.539 --> 00:32:29.139 00:32:29.140 --> 00:32:30.619 Ne znamo je li to bilo zbog toga jer nije želio riskirati 00:32:30.618 --> 00:32:35.999 ili jer je vjerovao u kategoričke moralne principe. 00:32:35.999 --> 00:32:36.870 00:32:36.869 --> 00:32:38.619 No, u svakom slučaju, slamke se nisu izvlačile. 00:32:38.619 --> 00:32:42.129 00:32:42.130 --> 00:32:43.230 Sljedeći dan još uvijek nije bilo nijednog broda na vidiku 00:32:43.230 --> 00:32:45.028 00:32:45.028 --> 00:32:48.470 pa je Dudley rekao Brooksu da okrene glavu 00:32:48.470 --> 00:32:50.720 i dao znak Stephensu da bi bilo bolje da ubiju dječaka Parkera. 00:32:50.720 --> 00:32:53.929 00:32:53.929 --> 00:32:55.850 Dudley se pomolio, rekao dječaku da je kucnuo njegov čas 00:32:55.849 --> 00:32:58.480 00:32:58.480 --> 00:33:00.679 te ga usmrtio perorezom ubadajaći ga u vratnu venu. 00:33:00.679 --> 00:33:03.900 00:33:03.900 --> 00:33:09.750 Brooks se oporavio od svog prigovora savjesti kako bi sudjelovao u podjeli jezive blagodati. 00:33:09.750 --> 00:33:11.029 Četiri dana su se njih trojica hranila tijelom i krvlju malog od palube. 00:33:11.029 --> 00:33:15.230 00:33:15.230 --> 00:33:17.220 Istinita priča. 00:33:17.220 --> 00:33:19.390 I onda su bili spašeni. 00:33:19.390 --> 00:33:22.840 Dudley opisuje njihovo spašavanje u svom dnevniku; 00:33:22.839 --> 00:33:24.678 00:33:24.679 --> 00:33:27.570 zapanjujućim eufemizmom, citiram: 00:33:27.569 --> 00:33:29.648 '24-tog dana dok smo doručkovali konačno se pojavio brod.' 00:33:29.648 --> 00:33:34.750 00:33:34.750 --> 00:33:38.599 00:33:38.599 --> 00:33:44.309 Trojicu preživjelih pokupio je njemački brod i odveo natrag u Falmouth u Engleskoj 00:33:44.309 --> 00:33:47.079 gdje su uhapšeni i suđeni. 00:33:47.079 --> 00:33:47.829 Brooks je postao zaštićeni svjedok, Dudley i Stephensu se sudilo. 00:33:47.829 --> 00:33:49.949 00:33:49.950 --> 00:33:54.450 Oni nisu osporavali činjenice, tvrdili su da su postupali u krajnjoj nuždi. 00:33:54.450 --> 00:33:55.390 00:33:55.390 --> 00:33:58.140 00:33:58.140 --> 00:33:59.430 To je bila njihova obrana. 00:33:59.430 --> 00:34:01.220 Tvrdili su u suštini da je bolje da jedan umre da bi trojica preživjela. 00:34:01.220 --> 00:34:03.250 00:34:03.250 --> 00:34:06.420 00:34:06.420 --> 00:34:08.619 Tužilac nije bio uvjeren ovim argumentom, rekao je da je ubojstvo, ubojstvo 00:34:08.619 --> 00:34:10.849 00:34:10.849 --> 00:34:12.509 00:34:12.509 --> 00:34:16.429 i tako je slučaj dospio pred sud. 00:34:16.429 --> 00:34:19.489 Zamislite da ste vi porota, 00:34:19.489 --> 00:34:21.989 a da bismo pojednostavili diskusiju, 00:34:21.989 --> 00:34:23.010 ostavite po strani pitanje zakona i pretpostavimo da ste vi kao porota 00:34:23.010 --> 00:34:25.879 00:34:25.878 --> 00:34:28.278 zaduženi da odlučite da li je ono što su učinili moralno dopustivo ili nije. 00:34:28.278 --> 00:34:31.009 00:34:31.009 --> 00:34:34.378 00:34:34.378 --> 00:34:36.608 Koliko bi vas glasalo 'nisu krivi', 00:34:36.608 --> 00:34:39.808 00:34:39.809 --> 00:34:46.809 da je ono što su učinili moralno dopustivo? 00:34:49.528 --> 00:34:51.639 A koliko bi vas glasalo 'krivi', ono što su učinili je moralno neispravno? 00:34:51.639 --> 00:34:54.858 00:34:54.858 --> 00:34:57.998 Prilično znatna većina. 00:34:57.998 --> 00:35:03.808 Da vidimo sada razloge, a započet ću s onima u manjini. 00:35:03.809 --> 00:35:07.739 Da čujemo prvo obranu Dudleya i Stephensa. 00:35:07.739 --> 00:35:10.099 00:35:10.099 --> 00:35:14.160 Zašto bi ih oslobodili krivnje? 00:35:14.159 --> 00:35:17.989 Koji su vaši razlozi? 00:35:17.989 --> 00:35:20.798 Mislim da to zaslužuje moralnu osudu, 00:35:20.798 --> 00:35:24.349 ali također da postoji razlika između moralno nedopustivog 00:35:24.349 --> 00:35:26.609 i onog što nekog čini pravno odgovornim. 00:35:26.608 --> 00:35:30.690 Drugim riječima, kao što je rekao sudac, nemoralno nije nužno protiv zakona, 00:35:30.690 --> 00:35:34.789 pa iako ne mislim da nužnost opravdava krađu ili ubojstvo ili bilo koji nezakoniti čin, 00:35:34.789 --> 00:35:36.169 00:35:36.168 --> 00:35:38.578 00:35:38.579 --> 00:35:43.509 u nekom času stupanj nužnosti ustvari vas oslobađa krivnje. 00:35:43.509 --> 00:35:45.849 00:35:45.849 --> 00:35:50.588 Drugi branitelji, drugi glasovi u obrani? 00:35:50.588 --> 00:35:53.038 Moralna opravdanja za ono što su učinili? 00:35:53.039 --> 00:35:56.989 00:35:56.989 --> 00:35:57.619 00:35:57.619 --> 00:35:58.798 00:35:58.798 --> 00:35:59.570 Meni se čini u tako očajnoj situaciji morate činiti ono što morate kako bi preživjeli. 00:35:59.570 --> 00:36:03.139 00:36:03.139 --> 00:36:04.679 Morate učiniti ono što morate? 00:36:04.679 --> 00:36:06.789 Morate učiniti što morate, tako je. 00:36:06.789 --> 00:36:07.849 Ako ste izdržali 19 dana bez hrane 00:36:07.849 --> 00:36:09.899 00:36:09.898 --> 00:36:14.710 netko se jednostavno mora žrtvovati da ljudi mogu preživjeti. 00:36:14.710 --> 00:36:16.139 I štoviše, recimo da su preživjeli i postali produktivni članovi društva 00:36:16.139 --> 00:36:21.299 koji odu kući i, na primjer, dobrotvorne organizacije i svašta drugo za opću dobrobit. 00:36:21.300 --> 00:36:26.230 00:36:26.230 --> 00:36:28.519 Ja ne znam što su oni radili poslije, možda su ubili još ljudi ... 00:36:28.519 --> 00:36:30.478 00:36:30.478 --> 00:36:32.889 00:36:32.889 --> 00:36:35.708 Što ako su otišli kući i postali ubojice? 00:36:35.708 --> 00:36:38.908 Što ako su otišli kući i postali ubojice? 00:36:38.909 --> 00:36:42.878 Ne biste željeli znati koga su ubili? 00:36:42.878 --> 00:36:45.848 Istina, to je fer. 00:36:45.849 --> 00:36:49.609 Ne bih želio znati koga su ubili. 00:36:49.608 --> 00:36:50.708 Dobro je, kako se zovete? Marcus. 00:36:50.708 --> 00:36:52.489 Čuli smo obranu, par glasova u obrani, 00:36:52.489 --> 00:36:54.050 00:36:54.050 --> 00:36:55.660 sada treebamo čuti tužiteljstvo. 00:36:55.659 --> 00:36:57.298 00:36:57.298 --> 00:36:59.338 Većina ljudi misli da je ono što su učinili neispravno, Zašto? 00:36:59.338 --> 00:37:05.068 00:37:05.068 --> 00:37:09.898 Jedna od prvih stvari koju sam ja pomislila bilo je, 00:37:09.898 --> 00:37:11.409 'Pa, dobro, nisu jako dugo jeli, 00:37:11.409 --> 00:37:12.469 pa su možda mentalno oštećeni 00:37:12.469 --> 00:37:15.139 00:37:15.139 --> 00:37:16.408 pa se to može iskoristiti za obranu, mogući argument 00:37:16.409 --> 00:37:20.619 00:37:20.619 --> 00:37:24.179 da nisu bili prisebni i donosili su odluke koje inače ne bi, 00:37:24.179 --> 00:37:28.519 a ako je to prihvatljiv argument, 00:37:28.518 --> 00:37:33.608 da morate biti u stanju promijenjene svijesti da bi učinili tako nešto, 00:37:33.608 --> 00:37:36.108 to navodi da ljudi koji taj argument smatraju uvjerljivim 00:37:36.108 --> 00:37:40.088 zaista misle da postupaju nemoralno ... 00:37:40.088 --> 00:37:41.248 Ali ja želim znati što vi mislite. Vi ih branite ... 00:37:45.548 --> 00:37:49.449 Vi ste za to da budu optuženi, zar ne? 00:37:49.449 --> 00:37:51.088 Ja ne mislim da su postupali na moralno prihvatljiv način ... 00:37:51.088 --> 00:37:52.909 A zašto ne? Što kažete ... Tu je Marcus, on ih je upravo branio. 00:37:52.909 --> 00:37:53.880 On je rekao, čuli ste što je rekao, 00:37:53.880 --> 00:37:55.249 00:37:55.248 --> 00:37:56.558 00:37:56.559 --> 00:38:00.119 da morate učiniti ono što morate u takvoj situaciji. 00:38:00.119 --> 00:38:04.789 Što ćete mu odgovoriti? 00:38:04.789 --> 00:38:06.439 00:38:06.438 --> 00:38:13.438 Da ne postoji situacija u kojoj bi ljudima bilo dozvoljeno da uzmu 00:38:13.579 --> 00:38:17.959 ideju sudbine ili živote drugih ljudi u svoje ruke, 00:38:17.958 --> 00:38:19.328 da mi nemamo tu vrstu moći. 00:38:19.329 --> 00:38:21.399 Dobro, u redu, hvala. Kako se vi zovete? 00:38:21.398 --> 00:38:24.130 Britt. 00:38:24.130 --> 00:38:24.548 Tko još? 00:38:24.548 --> 00:38:26.028 Što vi kažete? Ustanite. 00:38:26.028 --> 00:38:28.159 Pitam se da li su Dudley i Stephens tražili Parkerov pristanak na umiranje. 00:38:28.159 --> 00:38:35.159 00:38:35.429 --> 00:38:37.568 I da li bi ih to oslobodilo krivnje za aktivno ubojstvo? 00:38:37.568 --> 00:38:41.228 00:38:41.228 --> 00:38:45.448 I ako je tako, da li je to još uvijek moralno opravdano? 00:38:45.449 --> 00:38:51.720 Zanimljivo, pristanak. Čekajte, kako se vi zovete? 00:38:51.719 --> 00:38:56.088 Kathleen. 00:38:56.088 --> 00:38:56.619 Kathleen kaže, pretpostavimo ... 00:38:56.619 --> 00:39:00.410 Kako bi izgledao taj scenario? 00:39:00.409 --> 00:39:02.608 Tu je Dudley, perorez u ruci, ali umjesto molitve, ili prije molitve, 00:39:02.608 --> 00:39:04.588 00:39:04.588 --> 00:39:07.599 kaže, 'Parker, bi li smetalo, 00:39:07.599 --> 00:39:11.519 mi smo očajno gladni, 00:39:11.518 --> 00:39:14.348 - s čim Marcus suosjeća - 00:39:14.349 --> 00:39:17.679 00:39:17.679 --> 00:39:19.769 očajno smo gladni, 00:39:19.768 --> 00:39:22.168 ti ionako nećeš dugo, 00:39:22.168 --> 00:39:23.498 - mogao bi biti mučenik - 00:39:23.498 --> 00:39:25.748 bili bio mučenik, što misliš o tome, Parker?' 00:39:25.748 --> 00:39:29.468 00:39:29.469 --> 00:39:33.220 Što mislite, bi li tada bilo moralno opravdano? 00:39:33.219 --> 00:39:37.639 00:39:37.639 --> 00:39:38.219 Pretpostavimo da Parker, napola pri svijesti, 00:39:38.219 --> 00:39:40.168 00:39:40.168 --> 00:39:42.498 kaže - ok. 00:39:42.498 --> 00:39:47.889 Ne mislim da bi bilo moralno opravdano, ali pitam se ... 00:39:47.889 --> 00:39:50.650 Čak i tada, ne bi bilo? 00:39:50.650 --> 00:39:52.490 Ne. 00:39:52.489 --> 00:39:54.568 Vi mislite da čak i sa njegovim pristankom to ne bi bilo moralno opravdano? 00:39:54.568 --> 00:39:56.369 Ima li ljudi koji misle ... 00:39:56.369 --> 00:39:57.200 koji žele preuzeti Kathleeninu ideju pristanka 00:39:57.199 --> 00:40:01.688 i koji misle da bi to tada bilo moralno opravdano? 00:40:01.688 --> 00:40:05.868 Dignite ruke, ako bi bilo? Ako mislite da bi bilo? 00:40:05.869 --> 00:40:07.588 To je vrlo zanimljivo. 00:40:07.588 --> 00:40:09.168 Zašto bi pristanak predstavljao moralnu razliku? 00:40:09.168 --> 00:40:15.888 Zašto bi? 00:40:15.889 --> 00:40:18.509 Ja samo mislim ako je to njegova vlastita originalna ideja, 00:40:18.509 --> 00:40:20.969 njegova ideja od početka, 00:40:20.969 --> 00:40:23.778 onda bi to bila jedina situacija u kojoj bi ja to smatrala prihvatljivim. 00:40:23.778 --> 00:40:25.940 Jer na taj način ne možete tvrditi da je bio pod pritiskom. 00:40:28.358 --> 00:40:30.579 Zante, tri protiv jednoga ili bilo koji omjer bio. 00:40:30.579 --> 00:40:32.759 00:40:32.759 --> 00:40:34.070 I mislim ako on odlučuje da daje svoj život, onda je njegova volja da se žrtvuje, 00:40:34.070 --> 00:40:38.009 00:40:38.009 --> 00:40:42.668 što neki ljudi mogu smatrati vrijednim divljenja, 00:40:42.668 --> 00:40:45.449 a drugi se mogu ne slagati s tom odlukom. 00:40:45.449 --> 00:40:49.099 Dakle, ako je on nadošao na tu ideju, 00:40:49.099 --> 00:40:52.820 to je jedina vrsta pristanka u koju se možemo pouzdati, moralno, 00:40:52.820 --> 00:40:55.359 onda bi to bilo u redu? 00:40:55.358 --> 00:40:57.268 00:40:57.268 --> 00:40:59.788 U protivnom bilo bi to nešto kao iznuđeni pristanak u tim okolnostima, 00:40:59.789 --> 00:41:01.469 mislite? 00:41:01.469 --> 00:41:05.278 00:41:05.278 --> 00:41:07.349 Da li itko misli da čak i Parkerov pristanak 00:41:07.349 --> 00:41:10.979 00:41:10.978 --> 00:41:13.419 ne bi opravdao njihovo ubojstvo? 00:41:13.420 --> 00:41:15.479 00:41:15.478 --> 00:41:18.088 Tko tako misli? 00:41:18.088 --> 00:41:19.538 Recite nam zašto, ustanite. 00:41:19.539 --> 00:41:21.260 Mislim da bi Parker bio ubijen u nadi da će drugi članovi posade biti spašeni, 00:41:21.260 --> 00:41:22.319 00:41:22.318 --> 00:41:26.558 00:41:26.559 --> 00:41:29.250 pa onda nema definitivnog razloga da on bude ubijen 00:41:29.250 --> 00:41:31.199 jer ne znate kada će oni biti spašeni. 00:41:31.199 --> 00:41:35.809 Pa ako ga ubijete i to bude uzalud, 00:41:35.809 --> 00:41:38.039 hoćete li nastaviti ubijati članove posade i na kraju nitko neće ostati? 00:41:38.039 --> 00:41:40.309 Jer netko će na koncu umrijeti. 00:41:40.309 --> 00:41:44.199 Pa, moralna logika situacije izgleda da je takva. 00:41:44.199 --> 00:41:45.829 Da bi oni nadalje odabirali najslabije, jednog po jednog, 00:41:45.829 --> 00:41:50.318 00:41:50.318 --> 00:41:51.818 dok ne bi bili spašeni. 00:41:51.818 --> 00:41:57.679 A u ovom slučaju, na sreću, bili su spašeni kad ih još bar troje bilo živo. 00:41:57.679 --> 00:41:58.880 Da je Parker da svoj pristanak, 00:41:58.880 --> 00:42:01.298 00:42:01.298 --> 00:42:04.068 bili tada bilo u redu ili ne? 00:42:04.068 --> 00:42:06.329 Ne, još uvijek ne bi bilo u redu. 00:42:06.329 --> 00:42:08.030 Recite nam zašto ne bi bilo u redu? 00:42:08.030 --> 00:42:10.028 Prije svega ja vjerujem da je kanibalizam moralno neispravan 00:42:10.028 --> 00:42:13.228 00:42:13.228 --> 00:42:14.509 i ne biste smjeli jesti ljudsko biće ni u kom slučaju. 00:42:14.510 --> 00:42:17.449 00:42:17.449 --> 00:42:19.380 Dakle, kanibalizam je moralno nedopušten izvan ... 00:42:19.380 --> 00:42:22.400 Dakle, čak i u scenariju u kojem bi se čekalo da netko umre 00:42:22.400 --> 00:42:24.568 00:42:24.568 --> 00:42:27.018 još uvijek bi to bilo nedopušteno? 00:42:27.018 --> 00:42:27.929 Da, za mene osobno. 00:42:27.929 --> 00:42:29.739 Čini mi se da to sve ovisi o osobnom moralu. 00:42:29.739 --> 00:42:31.199 00:42:31.199 --> 00:42:35.288 To je tek moje mišljenje. 00:42:35.289 --> 00:42:39.339 Naravno, drugi ljudi se neće složiti ... 00:42:39.338 --> 00:42:41.498 Pa da vidimo, da čujemo koja su njihova neslaganja 00:42:41.498 --> 00:42:42.639 i onda ćemo vidjeti da li imaju dovoljne razloge da vas razuvjere. 00:42:42.639 --> 00:42:44.259 00:42:44.259 --> 00:42:46.228 00:42:46.228 --> 00:42:48.358 00:42:48.358 --> 00:42:50.098 00:42:50.099 --> 00:42:53.249 Ima li netko tko bi mogao objasniti, vi koji ste skloni pristanku, 00:42:53.248 --> 00:42:57.908 00:42:57.909 --> 00:42:59.778 možete li objasniti zašto pristanak čini takvu moralnu razliku. 00:42:59.778 --> 00:43:02.028 00:43:02.028 --> 00:43:03.358 00:43:03.358 --> 00:43:05.650 Što je s idejom lutrije? 00:43:05.650 --> 00:43:08.930 Da li se to računa kao pristanak? 00:43:08.929 --> 00:43:11.308 Sjetite se, na početku Dudley je predložio lutriju. 00:43:11.309 --> 00:43:13.839 Pretpostavimo da su se složili s lutrijom, 00:43:13.838 --> 00:43:16.338 00:43:16.338 --> 00:43:17.369 00:43:17.369 --> 00:43:20.798 koliko vas bi tada reklo, to je bilo u redu. 00:43:20.798 --> 00:43:23.929 Pretpostavimo da su vukli slamku, mali od palube je izgubio i priča ide dalje. 00:43:23.929 --> 00:43:25.380 00:43:25.380 --> 00:43:32.380 Koliko ljudi bi reklo da je bilo moralno dopušteno? 00:43:33.199 --> 00:43:37.030 Brojevi rastu kad dodamo lutriju. Da čujemo jednog od vas 00:43:37.030 --> 00:43:41.609 za kojega bi lutrija činila moralnu razliku? 00:43:41.608 --> 00:43:43.458 Zašto bi? 00:43:43.458 --> 00:43:44.739 Mislim da ključni element koji po meni to čini zločinom 00:43:44.739 --> 00:43:45.718 00:43:45.719 --> 00:43:47.858 00:43:47.858 --> 00:43:53.848 je ideja da su oni u jednom času odlučili da su njihovi životi važniji od njegovog, 00:43:53.849 --> 00:43:56.609 a mislim da je to zapravo osnova svakog zločina. 00:43:56.608 --> 00:43:57.688 To je kao: moje potrebe, moje želje važnije su od tvojih i moje imaju prednost. 00:43:57.688 --> 00:44:01.949 A da su imali lutriju gdje su svi suglasni da netko mora umrijeti 00:44:01.949 --> 00:44:04.798 00:44:04.798 --> 00:44:06.478 00:44:06.478 --> 00:44:09.239 to je onda kao da se svi žrtvuju da spase ostale. 00:44:09.239 --> 00:44:11.008 00:44:11.009 --> 00:44:12.949 Onda bi to bilo u redu? 00:44:12.949 --> 00:44:15.880 Malo groteskno, ali ... 00:44:15.880 --> 00:44:18.959 Ali moralno prihvatljivo? 00:44:18.958 --> 00:44:22.688 Da. 00:44:22.688 --> 00:44:25.578 A kako se ti zoveš? 00:44:25.579 --> 00:44:27.329 Matt. 00:44:27.329 --> 00:44:31.389 Znači Matt ono što tebe muči nije kanibalizam nego izostanak propisanog postupka? 00:44:31.389 --> 00:44:34.689 Pretpostavljam da bi se moglo tako reći. 00:44:34.688 --> 00:44:38.170 A može li netko, tko se slaže s Mattom 00:44:38.170 --> 00:44:40.499 reći malo više o tome zašto bi lutrija, 00:44:40.498 --> 00:44:41.378 po vašem mišljenju, činila to moralno dopustivim? 00:44:41.378 --> 00:44:43.690 00:44:43.690 --> 00:44:47.099 00:44:47.099 --> 00:44:50.979 00:44:50.978 --> 00:44:55.568 Kako sam ja to prvobitno razumijela, malog od palube nikada nisu konzultirali 00:44:55.568 --> 00:44:56.398 00:44:56.398 --> 00:45:00.478 o tome da li će mu se ili ne, nešto dogoditi, 00:45:00.478 --> 00:45:01.088 čak ni da li će sudjelovati u lutriji, 00:45:01.088 --> 00:45:04.420 jednostavno je bilo odlučeno da je on taj koji će umrijeti. 00:45:04.420 --> 00:45:08.170 Točno, to se dogodilo u stvarnom slučaju, 00:45:08.170 --> 00:45:11.900 ali da je bila lutrija i svi su se složili oko procedure, mislite da bi bilo u redu? 00:45:11.900 --> 00:45:13.539 00:45:13.539 --> 00:45:16.418 Točno, jer onda svi znaju da će se dogoditi smrt, 00:45:16.418 --> 00:45:17.079 dok mali od palube nije znao čak ni da se vodi ta rasprava. 00:45:17.079 --> 00:45:18.878 00:45:18.878 --> 00:45:21.038 00:45:21.039 --> 00:45:21.919 Nije bilo nikakvog upozorenja njemu 00:45:21.918 --> 00:45:23.578 da bi znao: 'Hej, ja sam taj koji umire!'. 00:45:23.579 --> 00:45:28.829 Dobro, pretpostavimo da se svi slažu s lutrijom, lutrija se održi, 00:45:28.829 --> 00:45:35.089 mali od palube gubi, ali se predomisli. 00:45:35.088 --> 00:45:40.989 Već ste odlučili, to je kao usmeni ugovor, 00:45:40.989 --> 00:45:45.139 ne možete odustati od toga, odluka je donesena. 00:45:45.139 --> 00:45:45.999 Da znate da umirete kako bi drugi mogli živjeti vi bi ... 00:45:45.998 --> 00:45:47.688 Da je umro netko drugi znate da bi vi konzumirali njega, pa ... 00:45:47.688 --> 00:45:51.969 00:45:51.969 --> 00:45:57.429 Ali onda bi on mogao reći: 'Znam, ali ja sam izgubio.' 00:45:57.429 --> 00:46:01.939 Ja samo mislim da je baš u tome moralni spor, 00:46:01.938 --> 00:46:04.298 da nije konzultiran mali od palube i to je najjezivije 00:46:04.298 --> 00:46:08.909 da on uopće nije imao pojma što se zbiva. 00:46:08.909 --> 00:46:10.599 Da je on znao što se zbiva bilo bi malo razumljivije. 00:46:10.599 --> 00:46:13.109 00:46:13.108 --> 00:46:14.509 Dobro, sada želim čuti ... 00:46:14.510 --> 00:46:17.049 Dakle, postoje neki koji misle 00:46:17.048 --> 00:46:18.708 da je to moralno dopustivo, ali samo oko 20% vas 00:46:18.708 --> 00:46:24.048 00:46:24.048 --> 00:46:26.559 na čelu s Marcusom. 00:46:26.559 --> 00:46:28.439 Onda postoje neki koji kažu, 00:46:28.438 --> 00:46:30.208 pravi problem ovdje je izostanak suglasnosti, 00:46:30.208 --> 00:46:32.838 bilo suglasnosti o lutriji, fer proceduri 00:46:32.838 --> 00:46:37.139 ili, Katheenina ideja, suglasnosti u času smrti. 00:46:37.139 --> 00:46:38.588 00:46:38.588 --> 00:46:39.690 00:46:39.690 --> 00:46:40.749 00:46:40.748 --> 00:46:42.928 00:46:42.929 --> 00:46:45.139 00:46:45.139 --> 00:46:48.318 A ako dodamo suglasnost onda je više ljudi sklono žrtvu smatrati moralno opravdanom. 00:46:48.318 --> 00:46:49.019 00:46:49.019 --> 00:46:51.889 00:46:51.889 --> 00:46:54.528 00:46:54.528 --> 00:46:56.639 Sada bih na koncu želio čuti one od vas koji misle 00:46:56.639 --> 00:46:58.548 00:46:58.548 --> 00:47:00.199 da čak i s pristankom, čak i s lutrijom, 00:47:00.199 --> 00:47:01.898 00:47:01.898 --> 00:47:02.519 čak i s Parkerovim zadnjim promrmljanim riječima suglasnosti, 00:47:02.519 --> 00:47:04.579 00:47:04.579 --> 00:47:06.950 00:47:06.949 --> 00:47:08.018 u zadnjem času, 00:47:08.018 --> 00:47:09.179 00:47:09.179 --> 00:47:10.838 to biipak bilo neispravno. 00:47:10.838 --> 00:47:12.639 I zašto bi to bilo neispravno? 00:47:12.639 --> 00:47:14.248 00:47:14.248 --> 00:47:16.998 To želim čuti. 00:47:16.998 --> 00:47:18.818 Pa, cijelo vrijeme sam naginjala kategoričkom moralnom rasuđivanju 00:47:18.818 --> 00:47:22.639 00:47:22.639 --> 00:47:25.568 i mislim da postoji mogućnost da bi se složila s idejom lutrije 00:47:25.568 --> 00:47:29.608 i da se onda gubitnik ubije sam, 00:47:29.608 --> 00:47:31.440 00:47:31.440 --> 00:47:32.749 00:47:32.748 --> 00:47:33.679 00:47:33.679 --> 00:47:37.358 tako da onda to ne bi bio čin ubojstva, no ipak mislim da čak i na taj način 00:47:37.358 --> 00:47:42.278 to je pod prisilom. 00:47:42.278 --> 00:47:43.338 I također mislim da nema nikakvog kajanja 00:47:43.338 --> 00:47:44.909 Kao što Dudley piše u svom dnevniku: 'Jeli smo svoj doručak.' 00:47:44.909 --> 00:47:47.659 Izgleda kao da je on kao -Oh, ... 00:47:47.659 --> 00:47:51.440 Znate, cijela ideja nevrednovanja tuđeg života. 00:47:51.440 --> 00:47:53.639 Eto zbog toga mi se čini da trebam zauzeti kategorički stav. 00:47:53.639 --> 00:47:57.969 Želite baciti knjigu na njega? 00:47:57.969 --> 00:48:02.298 Zato što se ne kaje i nema osjećaj da je učinio išta loše. 00:48:02.298 --> 00:48:06.969 Točno. 00:48:06.969 --> 00:48:08.769 Ima li još branitelja 00:48:08.768 --> 00:48:13.268 koji kažu da je to jednostavno kategorički neispravno, sa ili bez suglasnosti. 00:48:13.268 --> 00:48:17.288 Da, ustanite. Zašto? 00:48:17.289 --> 00:48:21.829 Mislim da nesumnjivo, kako je oblikovano naše društvo, ubojstvo je ubojstvo 00:48:21.829 --> 00:48:24.780 na svaki način, a naše društvo na ubojstvo gleda uvijek jednako 00:48:24.780 --> 00:48:27.119 i mislim da nema razlike u bilo kojem slučaju. 00:48:27.119 --> 00:48:30.489 Dobro, da vas pitam nešto? 00:48:30.489 --> 00:48:33.028 Tri života su u pitanju, nasuprot jednom, 00:48:33.028 --> 00:48:34.509 taj jedan, mali od palube, nije imao nikoga od obitelji, 00:48:34.509 --> 00:48:38.739 nitko nije ovisio o njemu, 00:48:38.739 --> 00:48:41.418 ova trojica su imala obitelji kod kuće u Engleskoj, ovisili su o njima, 00:48:41.418 --> 00:48:43.328 imali su žene i djecu. 00:48:43.329 --> 00:48:44.989 Sjetite se Benthama. 00:48:44.989 --> 00:48:48.048 Bentham kaže moramo uzeti u obzir dobrobit, korisnost, sreću svakoga. 00:48:48.048 --> 00:48:51.288 Moramo sve to zbrojiti, pa onda to nisu samo brojevi tri prema jedan, 00:48:51.289 --> 00:48:54.640 00:48:54.639 --> 00:48:58.759 to su također svi ti ljudi kod kuće. 00:48:58.759 --> 00:49:00.909 Ustvari, londonske novine toga vremena i javno mnijenje suosjećali su s njima, 00:49:00.909 --> 00:49:04.248 00:49:04.248 --> 00:49:05.478 Dudleyem i Stephensom, 00:49:05.478 --> 00:49:07.919 a novine su rekle - da nisu bili motivirani ljubavlju i brigom 00:49:07.920 --> 00:49:08.280 00:49:08.280 --> 00:49:09.640 00:49:09.639 --> 00:49:13.489 za svoje voljene kod kuće sigurno to ne bi bili učinili. 00:49:13.489 --> 00:49:15.969 Dobro, ali kako se to razlikuje od ljudi na uglu 00:49:15.969 --> 00:49:17.369 00:49:17.369 --> 00:49:21.108 koji imaju istu želju da prehrane svoje obitelji? Ja mislim da nema razlike. 00:49:21.108 --> 00:49:25.279 Mislim da u svakom slučaju ako ja ubijem vas da bi popravio svoj status, to je ubojstvo 00:49:25.280 --> 00:49:28.430 i mislim da to trebamo gledati u istom svjetlu. 00:49:28.429 --> 00:49:30.278 Umjesto da kriminaliziramo određene aktivnosti 00:49:30.278 --> 00:49:33.760 i neke stvari prikazujemo više nasilne i surovije 00:49:33.760 --> 00:49:36.760 kad je u tom istom slučaju to isto, sve je to isti čin 00:49:36.760 --> 00:49:40.150 i mentalitet koji ide s ubojstvom, potreba da se nahrane svoje obitelji. 00:49:40.150 --> 00:49:43.028 Pretpostavimo da ih nije bilo tri, pretpostavimo da ih je bilo 30, 300. 00:49:43.028 --> 00:49:44.608 00:49:44.608 --> 00:49:47.358 Jedan život da se spasi tri stotine. 00:49:47.358 --> 00:49:48.349 Ili u vrijeme rata, tri tisuće ... 00:49:48.349 --> 00:49:49.589 00:49:49.590 --> 00:49:51.039 Ili pretpostavimo da su ulozi čak i veći. 00:49:51.039 --> 00:49:52.778 Pretpostavimo da su ulozi čak i veći. 00:49:52.778 --> 00:49:54.608 Misllim da je to još uvijek ista stvar. 00:49:54.608 --> 00:49:58.108 Mislite li da je Bentham imao krivo kad je rekao da je ispravno postupati tako 00:49:58.108 --> 00:49:58.929 da se zbroji skupna sreća? 00:49:58.929 --> 00:50:02.479 Mislite da nije u pravu? 00:50:02.478 --> 00:50:06.728 Ne mislim da je u krivu, ali mislim da je ubojstvo ubojstvo u svakom slučaju. 00:50:06.728 --> 00:50:09.568 Pa onda Bentham mora biti u krivu! 00:50:09.568 --> 00:50:12.818 Ako ste vi u pravu, on je u krivu! 00:50:12.818 --> 00:50:14.358 Dobro, on je u krivu. 00:50:14.358 --> 00:50:16.389 U redu je, hvala vam, bilo je dobro. 00:50:16.389 --> 00:50:19.728 Odmaknimo se od ove diskusije 00:50:19.728 --> 00:50:23.259 i uočimo koliko smo prigovora čuli u vezi onoga što su činili. 00:50:23.259 --> 00:50:26.048 Čuli smo neke obrane toga što su učinili. 00:50:26.048 --> 00:50:28.509 Obrana se odnosi na potrebu, njihove kobne okolnosti 00:50:28.509 --> 00:50:28.918 00:50:28.918 --> 00:50:32.588 00:50:32.588 --> 00:50:33.409 i, barem implicitno, ideju da su brojevi važni. 00:50:33.409 --> 00:50:36.018 00:50:36.018 --> 00:50:37.858 I ne samo da su važni brojevi, nego su važni i širi učinci, 00:50:37.858 --> 00:50:40.380 00:50:40.380 --> 00:50:43.459 njihove obitelji kod kuće, oni koji ovise o njima. 00:50:43.458 --> 00:50:44.768 Parker je bio siroče, nikome neće nedostajati. 00:50:44.768 --> 00:50:47.978 00:50:47.978 --> 00:50:49.578 Pa, ako sve zbrojite, ako pokušate izračunati 00:50:49.579 --> 00:50:50.829 00:50:50.829 --> 00:50:52.649 00:50:52.648 --> 00:50:53.998 bilancu sreće i patnje, 00:50:53.998 --> 00:50:56.598 00:50:56.599 --> 00:50:58.838 mogli biste imati osnovu da kažete da je ono što su učinili ispravno. 00:50:58.838 --> 00:51:02.768 00:51:02.768 --> 00:51:09.468 Onda smo čuli bar tri različite vrste prigovora. 00:51:09.469 --> 00:51:11.690 Čuli prigovor koji kaže, ono što su učinili kategorički je neispravno, 00:51:11.690 --> 00:51:14.108 upravo ovdje, na kraju, 00:51:14.108 --> 00:51:15.750 00:51:15.750 --> 00:51:17.389 kategorički neispravno. 00:51:17.389 --> 00:51:19.820 Ubojstvo je ubojstvo, uvijek je neispravno, 00:51:19.820 --> 00:51:20.969 čak i ako povećava ukupnu sreću društva. 00:51:20.969 --> 00:51:23.349 00:51:23.349 --> 00:51:25.639 00:51:25.639 --> 00:51:28.499 Kategorički prigovor, 00:51:28.498 --> 00:51:30.738 No, još uvijek nam ostaje istražiti zašto je ubojstvo kategorički neispravno. 00:51:30.739 --> 00:51:32.749 00:51:32.748 --> 00:51:35.448 00:51:35.449 --> 00:51:38.579 Da li je to zato jer čak i mali od palube imaju određena fundamentalna prava? 00:51:38.579 --> 00:51:42.339 00:51:42.338 --> 00:51:44.400 A ako je to razlog, 00:51:44.400 --> 00:51:47.880 odakle proizlaze ta prava ako ne iz ideje veće dobrobiti 00:51:47.880 --> 00:51:53.209 ili korisnosti ili sreće? 00:51:53.208 --> 00:51:56.308 Pitanje broj jedan. 00:51:56.309 --> 00:51:58.449 Drugi su rekli, lutrija bi činila razliku, fer procedura, 00:51:58.449 --> 00:52:00.039 00:52:00.039 --> 00:52:05.949 rekao je Matt. 00:52:05.949 --> 00:52:08.769 I neki ljudi su naginjali tome. 00:52:08.768 --> 00:52:12.188 To nije točno kategorički prigovor, 00:52:12.188 --> 00:52:13.828 nego kaže, svi se trebaju računati kao jednaki, 00:52:13.829 --> 00:52:16.798 00:52:16.798 --> 00:52:18.469 čak iako na koncu jedan može biti žrtvovan za opću dobrobit. 00:52:18.469 --> 00:52:20.769 00:52:20.768 --> 00:52:23.288 00:52:23.289 --> 00:52:26.059 To nam ostavlja još jedno pitanje za istraživanje. 00:52:26.059 --> 00:52:29.670 Zašto sporazum o određenoj proceduri, čak i fer proceduri, 00:52:29.670 --> 00:52:31.969 00:52:31.969 --> 00:52:34.739 opravdava bilo koji rezultat koji proizlazi iz izvođenja te procedure? 00:52:34.739 --> 00:52:38.088 00:52:38.088 --> 00:52:39.898 Pitanje broj dva. 00:52:39.898 --> 00:52:42.398 I pitanje broj tri, 00:52:42.398 --> 00:52:45.338 osnovna ideja pristanka. 00:52:45.338 --> 00:52:48.528 Kathleen nas je navela na to. 00:52:48.528 --> 00:52:52.719 Da se mali od palube složio samovoljno, a ne pod pritiskom, 00:52:52.719 --> 00:52:54.499 00:52:54.498 --> 00:52:57.068 kao ššto je bilo dodano, 00:52:57.068 --> 00:53:01.918 onda bi bilo u redu oduzeti mu život da bi se spasili ostali. 00:53:01.918 --> 00:53:04.900 Čak je više ljudi prihvatilo tu ideju, 00:53:04.900 --> 00:53:06.630 ali iz toga proizlazi treće filozofsko pitanje. 00:53:06.630 --> 00:53:08.528 00:53:08.528 --> 00:53:11.009 Kakvo je to moralno djelovanje pristanka? 00:53:11.009 --> 00:53:12.838 00:53:12.838 --> 00:53:14.438 00:53:14.438 --> 00:53:16.978 Zašto čin suglasnosti čini takvu moralnu razliku 00:53:16.978 --> 00:53:19.188 00:53:19.188 --> 00:53:23.818 da jedan čin koji bi bio neispravan, oduzimanje života, 00:53:23.818 --> 00:53:25.369 bez suglasnosti je moralno dopustivo uz suglasnost? 00:53:25.369 --> 00:53:26.358 00:53:26.358 --> 00:53:29.619 00:53:29.619 --> 00:53:31.699 Da bismo razmotrili ta tri pitanja morat ćemo čitati neke filozofe, 00:53:31.699 --> 00:53:34.108 00:53:34.108 --> 00:53:35.728 a od sljedećeg puta počet ćemo čitati Benthama i Johna Stewarta Milla 00:53:35.728 --> 00:53:36.939 filozofe utilitarizma. 00:53:36.940 --> 00:53:37.720 00:53:37.719 --> 00:53:43.798 00:53:43.798 --> 00:53:47.298 00:53:43.798 --> 00:53:47.298 00:53:49.869 --> 00:53:56.869 00:54:36.219 --> 00:54:40.269 00:54:40.268 --> 00:54:41.678