0:00:04.200,0:00:08.240 Pravednost Michael Sandel 0:00:08.240,0:00:15.240 Moralna strana ubojstva 0:00:33.509,0:00:36.587 Ovo je kolegij o pravednosti[br]i započinjemo jednom pričom. 0:00:37.750,0:00:39.735 Pretpostavimo da ste vozač tramvaja 0:00:40.179,0:00:43.809 i vaš tramvaj juri tračnicama[br]90 km na sat, 0:00:44.640,0:00:48.741 a na kraju tračnica uočavate[br]pet radnika koji rade na pruzi. 0:00:49.390,0:00:52.972 Pokušavate stati, ali ne možete,[br]kočnice vam ne rade. 0:00:53.829,0:00:56.077 Očajni ste jer znate 0:00:56.780,0:01:01.090 da ako se zaletite u tih pet radnika,[br]svi će poginuti. 0:01:01.490,0:01:03.612 Pretpostavimo da to znate sa sigurnošću 0:01:05.079,0:01:06.703 i osjećate se bespomoćni 0:01:07.420,0:01:12.550 dok ne primijetite sporedni kolosijek[br]s desne strane 0:01:13.170,0:01:18.039 a na kraju tog kolosijeka je jedan radnik[br]koji radi na pruzi.[br] 0:01:19.079,0:01:25.326 Vaš upravljač radi pa možete[br]skrenuti tramvaj, ako želite, 0:01:26.010,0:01:27.912 na sporedni kolosijek, 0:01:28.680,0:01:31.751 i tako ubiti jednog radnika,[br]ali poštedivši petoricu. 0:01:33.269,0:01:35.199 Evo našeg prvog pitanja. 0:01:35.929,0:01:37.809 Kako ispravno postupiti? 0:01:38.819,0:01:40.478 Što biste vi učinili? 0:01:40.638,0:01:42.030 Hajde da provedemo anketu. 0:01:42.470,0:01:47.700 Koliko bi vas skrenulo tramvaj[br]na sporedni kolosijek? 0:01:47.850,0:01:49.030 Dignite ruke. 0:01:52.019,0:01:55.330 Koliko vas ne bi?[br]Koliko bi vas nastavilo ravno naprijed? 0:01:57.650,0:02:00.630 Ostavite podignute ruke, [br]oni koji bi išli ravno naprijed. 0:02:04.049,0:02:07.334 Šačica ljudi bi,[br]velika većina bi skrenula. 0:02:08.048,0:02:09.548 Da čujemo prvo ... 0:02:09.878,0:02:15.039 Sada moramo istražiti razloge[br]zašto mislite da je to ispravno učiniti. 0:02:15.089,0:02:20.769 Počnimo s većinom,[br]koja bi skrenula na sporedni kolosijek. 0:02:21.798,0:02:23.409 Zašto bi to učinili? 0:02:23.669,0:02:25.241 Koji bi bio vaš razlog? 0:02:25.688,0:02:28.569 Tko bi nam iznio svoj razlog? 0:02:29.808,0:02:31.838 Samo naprijed, ustanite. 0:02:32.218,0:02:37.916 Zato jer ne može biti ispravno ubiti petoro[br]kad možete ubiti jednoga, umjesto toga. 0:02:39.579,0:02:43.981 Ne bi bilo u redu ubiti petoricu,[br]ako možete ubiti samo jednog umjesto toga. 0:02:46.748,0:02:48.208 To je dobar razlog. 0:02:52.959,0:02:53.778 Tko još? 0:02:53.848,0:02:56.658 Da li se svi slažu s tim razlogom? 0:02:59.228,0:03:00.078 Izvolite. 0:03:01.218,0:03:07.400 Mislim da je to isti razlog zbog kojeg ljude[br]koji su u 9/11 spustili avion 0:03:07.533,0:03:09.309 u polje u Pennsilvaniji,[br]smatramo herojima 0:03:09.399,0:03:15.035 jer su odabrali da ubiju ljude u avionu,[br]a ne puno više ljudi u velikim zgradama. 0:03:15.909,0:03:20.650 Znači, princip je bio isti u 9/11,[br]tragična okolnost, 0:03:21.379,0:03:24.593 bolje ubiti jednoga[br]da bi petorica preživjela? 0:03:25.359,0:03:28.220 Je li to razlog za većinu vas[br]koji bi skrenuli? 0:03:30.428,0:03:34.598 Da čujemo sada one [br]koji su u manjini, 0:03:35.508,0:03:37.217 one koji ne bi skrenuli. 0:03:40.558,0:03:44.966 Mislim da je to ista vrsta mentaliteta[br]koja opravdava genocid i totalitarizam, 0:03:45.206,0:03:49.156 kako bi spasili jednu naciju,[br]istrebljujete drugu. 0:03:50.189,0:03:52.538 Pa što bi vi učinili u tom slučaju? 0:03:53.038,0:04:00.098 Kako bi izbjegli užase genocida,[br]vi bi se zaletili u petoricu i ubili ih? 0:04:03.389,0:04:05.018 Po svoj prilici, da. 0:04:07.408,0:04:08.787 Dobro, tko još? 0:04:09.930,0:04:11.908 To je hrabar odgovor, hvala. 0:04:13.348,0:04:17.917 Razmotrimo drugi slučaj[br]s tramvajem 0:04:20.078,0:04:25.338 i pogledajmo da li se,[br]oni od vas koji su u većini, 0:04:27.428,0:04:29.864 i dalje žele držati tog principa, 0:04:30.990,0:04:33.329 bolje da umre jedan,[br]kako bi petorica preživjela. 0:04:33.500,0:04:36.743 Ovaj puta vi niste vozač tramvaja,[br]nego promatrač. 0:04:37.998,0:04:41.231 Stojite na mostu iznad [br]tramvajske pruge, 0:04:42.678,0:04:44.898 a prugom se približava tramvaj. 0:04:45.658,0:04:47.830 Na kraju pruge nalazi se 5 radnika, 0:04:49.620,0:04:51.329 kočnice ne rade, 0:04:51.738,0:04:55.453 tramvaj samo što nije naletio na petoricu[br]i ubio ih. 0:04:55.949,0:05:00.238 A sada, vi niste vozač i zaista[br]se osjećate bespomoćni. 0:05:01.309,0:05:04.263 Dok ne primijetite da pokraj vas stoji 0:05:06.499,0:05:09.373 naginjući se preko ograde mosta, 0:05:09.889,0:05:12.210 jedan vrlo debeli čovjek. 0:05:17.398,0:05:20.874 I mogli biste ga malo pogurnuti 0:05:22.668,0:05:25.752 on bi pao s mosta na tračnice 0:05:27.949,0:05:31.198 točno ispred tramvaja, 0:05:32.199,0:05:35.483 on bi poginuo, ali bi spasio petoricu. 0:05:38.798,0:05:43.563 Koliko vas bi gurnulo[br]debelog čovjeka s mosta? Dignite ruke. 0:05:48.089,0:05:49.532 Koliko vas ne bi? 0:05:50.859,0:05:52.489 Većina ljudi ne bi. 0:05:53.849,0:05:55.337 Postavlja se očito pitanje, 0:05:55.788,0:05:58.075 što se dogodilo s principom, 0:05:59.878,0:06:03.739 bolje spasiti pet života,[br]čak i po cijenu žrtvovanja jednog, 0:06:03.839,0:06:08.279 što je s principom koji su skoro svi[br]podržali u prvom slučaju? 0:06:09.240,0:06:12.809 Želio bih čuti nekoga iz većine[br]u oba slučaja. 0:06:13.349,0:06:16.287 Kako objašnjavate razliku[br]između ta dva slučaja? 0:06:18.629,0:06:23.460 Mislim da drugi uključuje[br]aktivni izbor da se osobu gurne. 0:06:24.279,0:06:29.736 Mislim da se, u suprotnom, ta osoba sama[br]ne bi uplela u tu situaciju, 0:06:29.829,0:06:32.609 pa birati u njegovo ime 0:06:36.119,0:06:39.340 da ga se uključi u nešto što bi[br]u protivnom izbjegao, 0:06:39.990,0:06:42.788 mislim da je više od onog[br]što imate u prvoj situaciji 0:06:42.830,0:06:49.828 gdje tri strane, vozač i dvije grupe radnika[br]već jesu u toj situaciji. 0:06:50.598,0:06:54.239 Ali momak koji radi na sporednom kolosijeku, 0:06:55.108,0:06:59.208 on nije odabrao da žrtvuje svoj život[br]ništa više od debelog čovjeka, zar ne? 0:07:02.069,0:07:04.570 To je istina, ali bio je na pruzi. 0:07:05.339,0:07:07.409 Ovaj momak je bio na mostu! 0:07:10.439,0:07:12.570 Možete nastaviti ako želite. 0:07:13.550,0:07:15.159 Dobro, to je teško pitanje. 0:07:15.329,0:07:18.298 Bili ste dobri, jako dobri,[br]to je teško pitanje. 0:07:19.629,0:07:24.470 Tko bi još pokušao naći način[br]za usaglašavanje 0:07:26.028,0:07:28.928 reakciju većine u ova dva slučaja? 0:07:30.158,0:07:34.190 Pretpostavljam, u prvom slučaju,[br]gdje imate jednog radnika i petoricu, 0:07:35.178,0:07:38.549 izbor je između te dvije grupe[br]i morate jednu izabrati 0:07:38.549,0:07:41.088 i ljude će poginuti zbog tramvaja, 0:07:41.218,0:07:45.029 ne nužno zbog vaše direktne akcije. 0:07:45.029,0:07:48.209 Tramvaj je van kontrole i vi u djeliću sekunde[br]morate donijetu određenu odluku, 0:07:48.209,0:07:52.658 dok je guranje čovjeka s mosta[br]stvarni čin ubojstva s vaše strane, 0:07:52.658,0:07:54.490 nad time imate kontrolu,[br]dok nad tramvajem nemate kontrolu. 0:07:54.490,0:07:57.278 0:07:57.278,0:08:00.089 Zato mislim da je to malo drugačija situacija. 0:08:00.089,0:08:04.359 U redu, tko ima odgovor? 0:08:04.360,0:08:06.319 Tko želi odgovoriti? 0:08:06.319,0:08:09.490 Je li to pravo objašnjenje? 0:08:09.490,0:08:12.439 Ja mislim da to nije baš dobar razlog 0:08:12.439,0:08:16.889 jer u oba slučaja morate odlučiti[br]tko će umrijeti 0:08:16.889,0:08:18.500 jer ili ćete izabrati da skrenete[br]i ubijete osobu 0:08:18.500,0:08:19.718 što je aktivna svjesna[br]odluka da skrenete, 0:08:19.718,0:08:21.319 ili ćete izabrati da gurnete deebelog čovjeka,[br]što je također aktivni svjesni čin. 0:08:21.319,0:08:23.609 0:08:23.608,0:08:27.688 Dakle u oba slučaja radite izbor. 0:08:27.689,0:08:29.729 Želite li odgovoriti? 0:08:29.728,0:08:34.189 Nisam baš siguran da je tako,[br]još uvijek mi se čini da je drrugačije, 0:08:34.190,0:08:38.230 time što ste nekoga bacili na tračnice[br]i ubili ga, 0:08:38.230,0:08:42.600 vi ste ga ustvari sami ubili. 0:08:42.600,0:08:43.710 Gurate ga, vlastitim rukama. 0:08:43.710,0:08:47.090 Gurate ga, a to je drugačije od[br]upravljanja nečim što će uzrokovati smrt. 0:08:47.090,0:08:48.670 0:08:48.669,0:08:52.829 To zaista ne zvuči ispravno[br]kad to ovako govorim. 0:08:52.830,0:08:54.740 Ne, to je dobro, kako se zovete? 0:08:54.740,0:08:55.570 Andrew. 0:08:55.740,0:08:59.570 Andrew, dozvoli da te pitam ovo: 0:08:59.570,0:09:02.240 Pretpostavimo, 0:09:02.240,0:09:03.680 stojeći na mostu kraj tog debelog čovjeka, 0:09:03.679,0:09:04.809 0:09:04.809,0:09:07.849 ne moram ga gurnuti, 0:09:07.850,0:09:14.850 pretpostavimo da stoji na poklopcu[br]koji mogu otvoriti okrećući neki kotač, ovako. 0:09:17.450,0:09:18.690 Biste li ga okrenuli? 0:09:18.690,0:09:20.960 Zbog nekog razloga to izgleda[br]još više pogrešno. 0:09:20.960,0:09:24.129 0:09:24.129,0:09:30.350 Mislim, možda ako bi se slučajno naslonili[br]na taj kotač ili tako nešto. 0:09:30.350,0:09:31.060 0:09:31.059,0:09:33.118 Ili recimo da tramvaj leti prema[br]sklopci koja će otvoriti poklopac, 0:09:33.119,0:09:37.850 onda bih se mogao složiti s tim. 0:09:37.850,0:09:39.230 0:09:39.850,0:09:42.230 Pošteno, to još uvijek izgleda pogrešno 0:09:42.230,0:09:45.500 na način na koji nije izgledalo[br]u prvom slučaju skretanja. 0:09:45.500,0:09:50.419 I na još jedan način, u prvoj situaciji[br]vi ste direktno uključeni u situaciju, 0:09:50.419,0:09:52.449 u drugoj ste samo promatrač, 0:09:52.450,0:09:56.920 pa imate izbor da se uključite ili ne[br]guranjem debelog čovjeka. 0:09:56.919,0:09:59.549 Zaboravimo na trenutak na ovaj slučaj. 0:09:59.549,0:10:01.269 0:10:01.269,0:10:06.460 Zamislimo drugačiji slučaj.[br]Ovaj puta vi ste doktor na hitnoj 0:10:06.460,0:10:11.629 i dolazi vam šest pacijenata 0:10:11.629,0:10:18.500 koji su stradali u groznoj[br]prometnoj nesreći. 0:10:18.500,0:10:23.889 Njih pet zadobilo je srednje teške povrede, 0:10:23.889,0:10:27.720 jedan je u kritičnom stanju i[br]trebao bi vam cijeli dan da se pobrinete za njega, 0:10:27.720,0:10:32.330 no za to vrijeme onih pet bi moglo umrijeti. 0:10:32.330,0:10:35.490 Ili se možete pobrinuti za tu petoricu, ali[br]za to vrijeme onaj kritični bi mogao umrijeti. 0:10:35.490,0:10:36.470 0:10:36.470,0:10:37.660 Koliko vas bi spasilo petoricu[br]da ste doktor? 0:10:37.659,0:10:39.539 0:10:39.539,0:10:40.849 0:10:40.850,0:10:44.480 Koliko bi vas spasilo jednoga? 0:10:44.480,0:10:46.300 Vrlo malo ljudi,[br]samo šačica. 0:10:46.299,0:10:49.269 0:10:49.269,0:10:51.439 Isti razlog, pretpostavljam? 0:10:51.440,0:10:55.570 Jedan život nasuprot pet. 0:10:55.570,0:10:57.230 Sada razmotrite slučaj drugog doktora. 0:10:57.230,0:10:59.070 0:10:59.070,0:11:02.080 Ovaj puta vi ste kirurg za transplantacije, 0:11:02.080,0:11:06.160 imate 5 pacijenata i svakom je očajnički nužna[br]transplantacija organa kako bi preživio. 0:11:06.159,0:11:09.639 0:11:09.639,0:11:12.220 Jednom treba srce, jednom pluća,[br]jednom bubreg, jednom jetra 0:11:12.220,0:11:13.550 i petom gušterača. 0:11:13.549,0:11:15.089 0:11:15.090,0:11:16.680 0:11:16.679,0:11:20.209 0:11:20.210,0:11:22.780 Ali nemate nijednog darivatelja organa. 0:11:22.779,0:11:24.909 Uskoro ćete gledati kako umiru. 0:11:24.909,0:11:27.649 0:11:27.649,0:11:28.860 A onda vam sine, 0:11:28.860,0:11:30.649 0:11:30.649,0:11:32.470 da je u sobi do zdravi mladić[br]koji je došao na pregled. 0:11:32.470,0:11:35.720 0:11:39.450,0:11:43.740 Sviđa vam se to? 0:11:43.740,0:11:47.159 0:11:47.159,0:11:50.740 I on je zadrijemao, 0:11:53.269,0:11:56.769 mogli biste potiho ući, 0:11:56.769,0:12:00.600 izvaditi mu pet organa,[br]ta osoba bi umrla, 0:12:00.600,0:12:03.170 ali mogli biste spasiti petoricu. 0:12:03.169,0:12:10.169 Koliko bi vas to učinilo? Itko? 0:12:10.389,0:12:17.389 Koliko? Dignite ruke, ako bi to učinili. 0:12:18.100,0:12:21.840 Netko na balkonu? 0:12:21.840,0:12:24.280 Vi bi? Budite oprezni,[br]ne naginjite se previše. 0:12:26.269,0:12:29.340 Koliko ne bi? 0:12:29.340,0:12:30.360 U redu. 0:12:30.360,0:12:33.600 Što vi kažete, govorite vi sa balkona[br]koji bi izvadili organe, zašto? 0:12:33.600,0:12:35.840 0:12:35.840,0:12:38.629 Ja bi zapravo htio razmotriti[br]malo drugačiju mogućnost, 0:12:38.629,0:12:40.188 tako da uzmem jednog od onih[br]kojima treba organ, 0:12:40.188,0:12:44.419 koji će prvi umrijeti i iskoristio[br]bi njegova četiri zdrava organa 0:12:44.419,0:12:50.229 da spasim preostalu četvoricu. 0:12:50.230,0:12:54.639 To je prilično dobra ideja. 0:12:54.639,0:12:57.830 To je sjajna ideja, 0:12:57.830,0:13:00.160 osim činjenice 0:13:00.159,0:13:06.159 da ste upravo uništili filozofsku poantu. 0:13:06.159,0:13:07.360 Odmaknimo se malo [br]od ovih priča i argumenata. 0:13:07.360,0:13:10.240 0:13:10.240,0:13:12.750 da uočimo nekoliko stvari u načinu[br]kako su se argumenti počeli razvijati. 0:13:12.750,0:13:17.809 0:13:17.809,0:13:18.649 Određeni moralni principi[br]već su se počeli pojavljivati 0:13:18.649,0:13:20.360 0:13:20.360,0:13:23.340 0:13:23.340,0:13:25.879 u diskusijama koje smo vodili. 0:13:25.879,0:13:27.570 Pa hajde da vidimo koji su to[br]moralni principi. 0:13:27.570,0:13:29.740 0:13:29.740,0:13:31.250 0:13:31.250,0:13:35.710 Prvi moralni princip koji se pojavio[br]u diskusiji kaže 0:13:35.710,0:13:39.110 da spravna stvar, moralna stvar[br]koju treba učiniti 0:13:39.110,0:13:43.139 ovisi o posljedicama kojima će rezultirati[br]vaše djelovanje. 0:13:43.139,0:13:45.480 0:13:45.480,0:13:47.080 Na kraju dana, bolje je da prežive petorica 0:13:47.080,0:13:49.250 0:13:49.250,0:13:52.320 čak i ako jedan mora umrijeti. 0:13:52.320,0:13:53.700 To je primjer konsekvencijalnog (posljedičnog)[br]moralnog rasuđivanja. 0:13:53.700,0:13:56.280 0:13:56.279,0:13:59.459 0:13:59.460,0:14:04.310 Konsekvencijalno moralno rasuđivanje[br]locira moralnost u posljedicama nekog čina 0:14:04.309,0:14:06.549 u stanju svijeta koji će biti rezultat[br]onoga što učinite. 0:14:06.549,0:14:09.049 0:14:09.049,0:14:12.789 Ali onda smo otišli malo dalje[br]razmatrajući druge slučajeve 0:14:12.789,0:14:15.319 i ljudi nisu baš bili sigurni 0:14:15.320,0:14:17.300 u konsekvencijalno moralno[br]rasuđivanje 0:14:17.299,0:14:20.529 0:14:20.529,0:14:22.419 kad su oklijevali gurnuti debelog čovjeka[br]s mosta 0:14:22.419,0:14:24.269 0:14:24.269,0:14:25.789 0:14:25.789,0:14:28.639 ili iščupati organe nevinog pacijenta. 0:14:28.639,0:14:29.750 0:14:29.750,0:14:32.259 Ljudi su ukazivali na razloge 0:14:32.259,0:14:34.259 0:14:34.259,0:14:35.379 povezane s intrinzičnom kvalitetom[br]samog čina. 0:14:35.379,0:14:37.250 0:14:37.250,0:14:39.230 0:14:39.230,0:14:40.690 0:14:40.690,0:14:42.770 bez obzira na posljedice. 0:14:42.769,0:14:45.179 Ljudi su se opirali, 0:14:45.179,0:14:47.819 ljudi su mislili da je to jednostavno pogrešno,[br]kategorički pogrešno, 0:14:47.820,0:14:49.480 0:14:49.480,0:14:50.500 ubiti osobu, nevinu osobu,[br]čak i u ime spašavanja pet života. 0:14:50.500,0:14:51.408 0:14:51.408,0:14:53.509 0:14:53.509,0:14:54.689 0:14:54.690,0:14:55.819 0:14:55.818,0:14:58.500 Bar su tako ljudi mislili u drugoj verziji[br]priče koju smo razmatrali. 0:14:58.500,0:15:00.610 0:15:00.610,0:15:05.120 0:15:05.120,0:15:06.519 To ukazuje na drugi kategorički način[br]razmišljanja o moralnom rasuđivanju. 0:15:06.519,0:15:09.539 0:15:09.539,0:15:10.689 0:15:10.690,0:15:12.660 0:15:12.659,0:15:14.679 0:15:14.679,0:15:16.429 0:15:16.429,0:15:22.429 Kategoričko moralno rasuđivanje locira moralnost[br]u određenim apslutnim moralnim uvjetima, 0:15:22.429,0:15:24.439 određenim kategoričkim dužnostima i pravima[br]bez obzira na posljedice. 0:15:24.440,0:15:27.440 0:15:27.440,0:15:29.230 U danima i tjednima pred nama[br]istraživat ćemo razlike između 0:15:29.230,0:15:33.070 0:15:33.070,0:15:36.540 konsekvencijalnih i kategoričkih[br]moralnih principa. 0:15:36.539,0:15:38.370 Najutjecajniji primjer konsekvecijlanog[br]moralnog rasuđivanja utilitarizam, 0:15:38.370,0:15:40.419 0:15:40.419,0:15:45.919 doktrina koju je razvio Jeremy Bentham,[br]engleski političkii filozof 18. stoljeća. 0:15:45.919,0:15:51.099 0:15:51.100,0:15:54.139 Najvažniji filozof kategoričkog[br]moralnog rasuđivanja 0:15:54.139,0:15:56.850 0:15:56.850,0:15:58.170 0:15:58.169,0:16:02.589 je Emmanuel Kant,[br]njemački filozof 18. stoljeća. 0:16:02.590,0:16:03.860 Stoga ćemo razmotriti ova dva[br]različita načina moralnog rasuđivanja 0:16:03.860,0:16:07.259 0:16:07.259,0:16:08.299 procijeniti ih[br]i također razmotriti druge. 0:16:08.299,0:16:10.669 0:16:10.669,0:16:16.099 Ako pogledate nastavni program, primijetit[br]ćete da čitamo niz sjajnih i čuvenih knjiga, 0:16:16.100,0:16:18.310 knjige Aristotela, Johna Lockea,[br]Immanuela Kanta, Johna Stewarta Milla i drugih. 0:16:18.309,0:16:19.889 0:16:19.889,0:16:22.080 0:16:22.080,0:16:24.030 0:16:24.029,0:16:28.169 Također ćete primijetiti u programu[br]da ne čitamo samo te knjige, 0:16:28.169,0:16:30.069 također se bavimo suvremenim političkim[br]i pravnim kontraverzama 0:16:30.070,0:16:32.010 0:16:32.009,0:16:37.000 koja potiču filozofska pitanja. 0:16:37.000,0:16:40.190 Diskutirat ćemo o jednakosti i nejednakosti, 0:16:40.190,0:16:41.490 afirmativnu akciju[br](pozitivnu diskriminaciju), 0:16:41.490,0:16:43.698 slobodu govora nasuprot[br]govora mržnje, 0:16:43.698,0:16:47.039 istospolne brakove,[br]vojnu obavezu, 0:16:47.039,0:16:50.980 spektar praktičnih pitanja. 0:16:50.980,0:16:55.350 Zašto? Ne samo da bi oživjeli[br]te apstraktne i daleke knjige, 0:16:55.350,0:17:01.040 već da rasvjetlimo, razotkrijemo,[br]kako filozofija utječe na 0:17:01.039,0:17:03.519 naše svakidašnje živote,[br]uključujući naše političke živote. 0:17:03.519,0:17:05.639 0:17:05.640,0:17:07.720 Zato ćemo čitati te knjige[br]i raspravljati o tim pitanjima 0:17:07.720,0:17:09.818 i vidjeti kako svaki od njih utječe[br]i rasvjetljava druge. 0:17:09.818,0:17:15.480 0:17:15.480,0:17:17.599 To može zvučati dosta privlačno,[br]ali ovdje vas moram upozoriti na nešto. 0:17:17.599,0:17:19.109 0:17:19.109,0:17:22.549 0:17:22.549,0:17:25.210 A upozorenje je sljedeće: 0:17:25.210,0:17:28.500 čitanje ovih knjiga[br]na ovaj način, 0:17:28.500,0:17:31.549 0:17:31.549,0:17:34.119 kao vježbu u samo-spoznaji, 0:17:34.119,0:17:38.849 čitanje na ovaj način[br]nosi određene rizike, 0:17:38.849,0:17:42.119 rizike koji su istovremeno [br]osobni i politički, 0:17:42.119,0:17:47.799 rizike koje poznaje svaki student[br]političke filozofije. 0:17:47.799,0:17:50.690 Ti rizici proizlaze iz činjenice 0:17:50.690,0:17:52.580 da nas filozofija uči i zbunjuje 0:17:52.579,0:17:54.220 0:17:54.220,0:17:56.400 0:17:56.400,0:18:01.390 suočavajući nas s onim [br]što već znamo. 0:18:01.390,0:18:03.390 Tu postoji jedna ironija, 0:18:03.390,0:18:09.790 teškoća ovog kolegija skriva se u činjenici[br]da vas uči ono što već znate. 0:18:09.789,0:18:12.159 To radi uzimajući ono što [br]znamo iz poznatih neupitnih okruženja, 0:18:12.160,0:18:16.470 0:18:16.470,0:18:20.370 i pretvarajući to u nešto nepoznato. 0:18:20.369,0:18:22.389 Na taj način su funkcionirali oni primjeri, 0:18:22.390,0:18:23.120 0:18:23.119,0:18:29.029 s hipotetičkim pretpostavkama s kojima smo[br]započinjali, mješavinom šaljivog i razboritog. 0:18:29.029,0:18:33.940 Jednako tako funkcioniraju i te[br]filozofske knjige. 0:18:33.940,0:18:35.640 Filozofija nas otuđuje od poznatog, 0:18:35.640,0:18:37.520 0:18:37.519,0:18:40.389 ne tako da nam daje nove informacije, 0:18:40.390,0:18:41.780 nego pozivajući i provocirajući 0:18:41.779,0:18:43.599 0:18:43.599,0:18:47.419 novi način gledanja, 0:18:47.420,0:18:49.970 ali, i tu postoji rizik, 0:18:49.970,0:18:50.720 jednom kada ono poznato[br]postane strano, 0:18:50.720,0:18:54.299 0:18:54.299,0:18:58.259 nikada više nije potpuno isto. 0:18:58.259,0:19:00.210 Samo-spoznaja je kao[br]izgubljena nevinost, 0:19:00.210,0:19:03.200 0:19:03.200,0:19:04.720 kako god bilo uznemirujuće,[br]kada ju nađete 0:19:04.720,0:19:06.029 0:19:06.029,0:19:07.289 nikada je više ne možete[br]od-misliti 0:19:07.289,0:19:09.720 0:19:09.720,0:19:13.390 ili ne-znati. 0:19:13.390,0:19:17.259 Ono što čini ovaj poduhvat teškim 0:19:17.259,0:19:19.970 ali također intrigantnim, 0:19:19.970,0:19:20.880 0:19:20.880,0:19:25.400 je to da je moralna i politička filozofija priča 0:19:25.400,0:19:29.340 i vi ne znate kuda ta priča vodi,[br]ali ono što znate 0:19:29.339,0:19:31.319 je da je to priča o vama. 0:19:31.319,0:19:34.480 0:19:34.480,0:19:37.079 To su osobni rizici, 0:19:37.079,0:19:40.220 a što je s političkim rizicima? 0:19:40.220,0:19:43.038 Jedan način predstavljanja kolegija[br]poput ovog 0:19:43.038,0:19:44.730 bio bi obečavajući vam da [br]čitanjem ovih knjiga 0:19:44.730,0:19:46.460 0:19:46.460,0:19:48.069 i diskutiranjem o ovim pitanjima 0:19:48.069,0:19:51.769 postat ćete bolji, odgovorniji građani. 0:19:51.769,0:19:56.450 Propitivat ćete presumpcije javnih politika, 0:19:56.450,0:19:57.289 dorađivati svoje političke prosudbe, 0:19:57.289,0:20:02.819 postat ćete učinkovitiji sudionik[br]javnih zbivanja. 0:20:02.819,0:20:06.869 Ali to bi bilo nepotpuno i obmanjujuće[br]obećanje. 0:20:06.869,0:20:11.489 Politička fizofija uglavnom[br]ne funkcionira na taj način. 0:20:11.490,0:20:14.660 Morate dozvoliti mogućnost 0:20:14.660,0:20:19.100 da vas politička filozofija može[br]učiniti gorim građaninom, 0:20:19.099,0:20:21.969 a ne boljim, 0:20:21.970,0:20:23.809 ili barem gorim građaninom[br]prije no što vas učini boljim. 0:20:23.809,0:20:25.629 0:20:25.630,0:20:27.950 0:20:27.950,0:20:30.400 A to je zbog toga jer je filozofija 0:20:30.400,0:20:32.620 0:20:32.619,0:20:34.709 aktivnost koja udaljava i čak iscrpljuje. 0:20:34.710,0:20:36.600 0:20:36.599,0:20:37.759 A to vidite vraćajući se Sokratu; 0:20:37.759,0:20:39.890 0:20:39.890,0:20:42.290 ima jedan dijalog, Gorgija, 0:20:42.289,0:20:44.680 u kojem jedan od Sokratovih prijatelja,[br]Kalikle, pokušava odvratiti ga od filozofiranja. 0:20:44.680,0:20:45.620 0:20:45.619,0:20:47.239 0:20:47.240,0:20:49.970 0:20:49.970,0:20:54.400 Kalikle kaže Sokratu, 'Filozofija[br]je zgodna igračka, 0:20:54.400,0:20:57.980 ako se u nju upuštamo umjereno[br]u primjereno životno doba, 0:20:57.980,0:21:03.779 ali ako na njoj ustrajemo više no što treba,[br]ona je apsolutna propast,' 0:21:03.779,0:21:06.819 'Poslušaj moj savjet,' kaže Kalikle,[br]'ostavi se rasprave, 0:21:06.819,0:21:08.369 nauči vještine aktivnog života, 0:21:08.369,0:21:11.669 0:21:11.670,0:21:16.880 neka ti modeli ne budu ti ljudi koji[br]vrijeme provode u tim sitničavim igrama riječi, 0:21:16.880,0:21:20.080 već oni koji imaju dobro situiran život[br]i reputaciju i mnoge druge blagodati.' 0:21:20.079,0:21:22.319 0:21:22.319,0:21:26.808 Kalikle zapravo Sokratu kaže, 0:21:26.808,0:21:28.690 'Okani se filozofiranja, uozbilji se, 0:21:28.690,0:21:30.549 0:21:30.549,0:21:35.169 upiši se u poslovnu školu.' 0:21:35.170,0:21:38.300 I Kalikle je bio u pravu. 0:21:38.299,0:21:39.690 Bio je u pravu utoliko 0:21:39.690,0:21:42.210 što nas filozofija udaljava od konvencija,[br]utvrđenih postavki i prihvaćenih vjerovanja. 0:21:42.210,0:21:45.009 0:21:45.009,0:21:46.750 0:21:46.750,0:21:48.650 To su rizici, osobni i politički, 0:21:48.650,0:21:49.970 0:21:49.970,0:21:54.089 a unatoč tim rizicima[br]postoji karakteristično odstupanje, 0:21:54.089,0:21:57.470 ime tog odstupanja je skepticizam. 0:21:57.470,0:21:58.990 To je ideja, ide ovako nekako: 0:21:58.990,0:22:03.660 nismo riješili, jednom zauvijek, 0:22:03.660,0:22:09.759 ni slučajeve ni principe o kojima smo[br]raspravljali na početku, 0:22:09.759,0:22:11.390 a kad Aristotel i Locke i Kant i Mill[br]nisu mogli riješiti ta pitanja nakon svih tih godina, 0:22:11.390,0:22:17.220 0:22:17.220,0:22:19.589 tko smo mi da mislimo 0:22:19.589,0:22:23.730 da ih mi, ovdje u Sanders Theatre[br]tijekom jednog semestra možemo riješiti? 0:22:23.730,0:22:26.430 0:22:26.430,0:22:29.460 Možda je samo stvar u tome da svaka osoba[br]ima vlastite principe 0:22:29.460,0:22:33.519 i ništa se više o tome nema za reći,[br]nikakvo rasuđivanje. 0:22:33.519,0:22:34.170 0:22:34.170,0:22:36.590 0:22:36.589,0:22:37.649 To je izbjegavanje. 0:22:37.650,0:22:39.440 Izbjegavanje spepticizmom 0:22:39.440,0:22:41.279 na što bih ja dao sljedeći odgovor: 0:22:41.279,0:22:42.660 0:22:42.660,0:22:43.720 Istina, o ovim pitanjima se rspravlja[br]već dugo vremena, 0:22:43.720,0:22:47.559 0:22:47.559,0:22:49.059 ali sam činjenica da se uvijek iznova[br]pojavljuju i ustraju, 0:22:49.059,0:22:52.700 0:22:52.700,0:22:54.650 može sugerirati da,[br]iako su u nekom smislu nemoguća, 0:22:54.650,0:22:57.169 0:22:57.169,0:22:59.800 neizbježna su u drugom, 0:22:59.799,0:23:02.299 a razlog zašto su neizbježna. 0:23:02.299,0:23:06.500 Razlog zašto su neizbježna je 0:23:06.500,0:23:10.069 da mi svakoga dana živimo[br]odgovarajući na ta pitanja. 0:23:10.069,0:23:16.129 Zato skepticizam, dizanje ruku[br]i odustajanje od moralnog promišljanja, 0:23:16.130,0:23:18.280 nije rješenje. 0:23:18.279,0:23:19.990 Immanuel Kant vrlo dobro je opisao[br]problem sa skepticizmom kad je napisao: 0:23:19.990,0:23:23.710 0:23:23.710,0:23:26.308 'Skepticizam je počivalište[br]za ljudski razum 0:23:26.308,0:23:29.099 gdje mo razmišljati o svojim[br]dogmatskim lutanjima, 0:23:29.099,0:23:33.069 ali nije mjesto za trajno obitavanje.' 0:23:33.069,0:23:35.939 'Jednostavno se pomiriti sa skepticizmom,'[br]pisao je Kant, 0:23:35.940,0:23:42.660 'nikada ne može biti dovoljno za[br]prevladavanje nemira razuma.' 0:23:42.660,0:23:47.040 Pokušao sam, kroz ove priče i argumente,[br]izložiti neki vid rizika i iskušenja 0:23:47.039,0:23:49.898 0:23:49.898,0:23:55.589 opasnosti i mogućnosti. 0:23:55.589,0:23:58.099 Zaključit ću rekavši:[br]da je cilj ovog kolegija 0:23:58.099,0:23:59.629 probuditi nemir razuma[br]i vidjeti kuda bi mogao voditi. 0:23:59.630,0:24:02.240 0:24:02.240,0:24:04.380 0:24:04.380,0:24:11.380 Hvala vam. 0:24:15.440,0:24:16.980 U tako očajnoj situaciji morate učiniti[br]ono što morate da bi preživjeli. 0:24:16.980,0:24:21.259 Morate učiniti ono što morate? 0:24:21.259,0:24:22.779 Što morate, morate, baš tako. 0:24:22.779,0:24:23.619 0:24:23.619,0:24:25.699 Ako 19 dana niste ništa jeli, netko se mora[br]žrtvovati da ljudi mogu preživjeti. 0:24:25.700,0:24:32.700 U redu, dobro je. Kako se zovete? 0:24:33.569,0:24:40.349 Marcus. 0:24:40.349,0:24:44.569 Što ćete kazati Marcusu? 0:24:44.569,0:24:46.960 Prošli puta samo započeli[br]s nekim pričama, 0:24:46.960,0:24:48.980 moralnim dilemama u vezi tramvaja. 0:24:48.980,0:24:51.019 0:24:51.019,0:24:53.049 0:24:53.049,0:24:54.509 i doktora i zdravih pacijenata[br]u opasnosti da budu žrtve transplantacije organa. 0:24:54.509,0:24:56.269 0:24:56.269,0:24:57.559 0:24:57.559,0:25:00.909 0:25:00.910,0:25:04.090 Uočili smo dvije stvari[br]u vezi diskusija koje smo imali 0:25:04.089,0:25:06.889 0:25:06.890,0:25:10.830 Jedna se odnosi na način[br]na koji smo diskutirali; 0:25:10.829,0:25:13.569 počelo s našim ocjenama[br]u danim slučajevima. 0:25:13.569,0:25:18.470 Pokušali smo artikulirati razloge[br]odnosno principe 0:25:18.470,0:25:22.549 koji leže iza naših ocjena, 0:25:22.549,0:25:25.399 a onda, suočeni s drugim slučajem[br]našli smo se da preispitujemo te principe 0:25:25.400,0:25:30.759 0:25:30.759,0:25:34.019 mijenjajući ih u ovisnosti[br]o drugima. 0:25:34.019,0:25:38.920 I primijetili smo ugrađeno nastojanje[br]da ih uskladimo, 0:25:38.920,0:25:41.680 naše ocjene danih slučajeva 0:25:41.680,0:25:43.940 i principe koje bismo usvojili[br]nakon promišljanja. 0:25:43.940,0:25:46.360 0:25:46.359,0:25:50.589 Također smo uočili nešto u vezi[br]sadržaja argumenata 0:25:50.589,0:25:55.250 koji su se pojavili tokom diskusije. 0:25:55.250,0:26:00.859 Primijetili smo da smo ponekad u iskušenju[br]locirati moralnost nekog čina u posljedicama, 0:26:00.859,0:26:06.519 u rezultatima, u stanju svijeta[br]koje proizvodi taj čin. 0:26:06.519,0:26:09.019 To smo nazvali konsekvencijalnim[br]moralnim rasuđivanjem. 0:26:09.019,0:26:11.690 0:26:11.690,0:26:13.240 No, primijetili smo također[br]da u nekim slučajevima 0:26:13.240,0:26:16.440 0:26:16.440,0:26:18.610 nisu dominirali samo rezultati. 0:26:18.609,0:26:22.089 0:26:22.089,0:26:23.399 Ponekad mnogi od nas su osjećali 0:26:23.400,0:26:25.350 0:26:25.349,0:26:31.669 da ne samo posljedice, nego i intrinzična[br]karakteristika čina ima moralnu važnost. 0:26:31.670,0:26:35.370 0:26:35.369,0:26:40.979 Neki ljudi su tvrdili da postoje određene[br]stvari koje su kategorički neispravne, 0:26:40.980,0:26:42.579 čak i ako donose dobar rezultat, 0:26:42.579,0:26:44.460 0:26:44.460,0:26:45.490 čak i ako spašavaju petoro ljudi[br]po cijenu jednog života. 0:26:45.490,0:26:47.200 0:26:47.200,0:26:49.788 0:26:49.788,0:26:52.730 Stoga smo suprotstavili konsekvencijalne[br]moralne principe kategoričkima. 0:26:52.730,0:26:54.569 0:26:54.569,0:26:58.139 0:26:58.140,0:26:59.790 Danas i sljedećih nekoliko dana 0:26:59.789,0:27:00.819 0:27:00.819,0:27:06.569 preispitat ćemo jednu od najutjecajnijih[br]verzija konsekvencijalne teorije morala, 0:27:06.569,0:27:08.839 0:27:08.839,0:27:10.970 0:27:10.970,0:27:16.329 a to je filozofija utilitarizma. 0:27:16.329,0:27:17.429 Jeremy Bentham, engleski politički[br]filozof 18. stoljeća, 0:27:17.430,0:27:19.080 0:27:19.079,0:27:21.689 0:27:21.690,0:27:22.910 prvi je jasno sistematski izložio[br]utilitarističku teoriju morala, 0:27:22.910,0:27:26.630 0:27:26.630,0:27:28.670 0:27:28.670,0:27:32.210 0:27:32.210,0:27:36.400 a Benthamova ideja,[br]njegova ključna ideja, 0:27:36.400,0:27:38.440 0:27:38.440,0:27:42.930 vrlo je jednostavna 0:27:42.930,0:27:44.808 i moralno intuitivno vrlo dopadljiva. 0:27:44.808,0:27:46.329 0:27:46.329,0:27:48.429 0:27:48.430,0:27:50.450 Benthamova ideja je sljedeća: 0:27:50.450,0:27:51.590 0:27:51.589,0:27:54.439 ono što je ispravno učiniti,[br]što je pravedno učiniti, 0:27:54.440,0:27:57.799 0:27:57.799,0:27:58.819 je maksimizirati korisnost. 0:27:58.819,0:28:01.369 0:28:01.369,0:28:02.339 0:28:02.339,0:28:06.329 Što je mislio pod korisnost? 0:28:06.329,0:28:11.490 Pod korisnost je podrazumijevao ravnotežu 0:28:11.490,0:28:14.000 ugode i boli,[br]radosti i patnje. 0:28:14.000,0:28:16.778 0:28:16.778,0:28:18.210 Tako smo došli do principa[br]maksimiziranja korisnosti. 0:28:18.210,0:28:19.259 0:28:19.259,0:28:22.308 0:28:22.308,0:28:24.450 Započeo uočivši da svima nama, 0:28:24.450,0:28:26.399 0:28:26.398,0:28:27.750 svim ljudskim bićima, 0:28:27.750,0:28:31.490 upravljaju dva suverena gospodara,[br]bol i ugoda. 0:28:31.490,0:28:34.620 0:28:34.619,0:28:37.479 Mi ljudska bića volimo ugodu[br]i ne volimo bol 0:28:37.480,0:28:42.308 0:28:42.308,0:28:45.839 i zato bismo moralnost[br]morali bazirati 0:28:45.839,0:28:49.169 - bez obzira da li se radi[br]o našem vlastitom životu 0:28:49.170,0:28:50.490 ili kao zakonodavci ili građani [br]razmišljamo kakav bi trebao biti zakon - 0:28:50.490,0:28:52.579 0:28:52.579,0:28:57.029 0:28:57.029,0:29:02.069 - ispravno je da individualno ili kolektivno[br]djelujemo tako da maksimiziramo 0:29:02.069,0:29:05.838 0:29:05.838,0:29:07.659 sveopću razinu sreće, 0:29:07.660,0:29:11.519 0:29:11.519,0:29:15.430 Benthamov utilitarizam se ponekad[br]sažima sloganom: 0:29:15.430,0:29:18.870 'najveće dobro za najveći broj'. 0:29:18.869,0:29:20.398 S tim osnovnim principom korisnosti[br]pri ruci, 0:29:20.398,0:29:22.989 0:29:22.990,0:29:26.410 krenimo ga testirati i propitivati[br]kroz još jedan slučaj, 0:29:26.410,0:29:28.409 0:29:28.409,0:29:30.620 još jednu priču, ali ovoga puta[br]to nije hipotetska priča, 0:29:30.619,0:29:32.639 0:29:32.640,0:29:34.120 nego priča iz stvarnog života, 0:29:34.119,0:29:35.059 slučaj Kraljice protiv Dudley i Stevensa. 0:29:35.059,0:29:38.329 0:29:38.329,0:29:41.889 To je čuveni britanski pravni spor[br]iz 19. stoljeća 0:29:41.890,0:29:44.009 0:29:44.009,0:29:47.538 o kojem se mnogo raspravlja[br]na pravnim fakultetima. 0:29:47.538,0:29:50.059 Evo što se dogodilo: 0:29:50.059,0:29:51.869 - ukratko ću ispričati priču,[br]a onda bih želio čuti kako bi vi presudili 0:29:51.869,0:29:54.909 zamiljajući da ste vi porota. 0:29:54.910,0:29:57.640 0:29:57.640,0:30:04.350 0:30:04.349,0:30:06.178 Tadašnja priča u novinama[br]opisala je pozadinu. 0:30:06.179,0:30:09.290 0:30:09.289,0:30:11.460 Nikada nije bila ispričana[br]tužnija priča o udesu na moru 0:30:11.460,0:30:12.789 0:30:12.789,0:30:15.288 no što je priča preživjelih [br]sa broda Mignonette. 0:30:15.288,0:30:16.240 0:30:16.240,0:30:19.109 Brod je potonuo u Južnom Atlantiku[br]1300 milja od grada Cape. 0:30:19.109,0:30:21.789 0:30:21.789,0:30:24.000 Imao je četiri člana posade,[br]Dudley je bio kapetan, 0:30:24.000,0:30:26.500 0:30:26.500,0:30:28.400 Stephens je bio prvi oficir,[br]Brooks je bio mornar. 0:30:28.400,0:30:30.220 0:30:30.220,0:30:31.279 Sve ljudi odličnog karaktera[br]kako nam govori novinska priča. 0:30:31.279,0:30:32.490 0:30:32.490,0:30:34.249 0:30:34.249,0:30:35.819 0:30:35.819,0:30:38.639 Četvrti član posade bio je mali od palube,[br]Richard Parker star 17 godina. 0:30:38.640,0:30:40.300 0:30:40.299,0:30:42.849 0:30:42.849,0:30:44.629 On je bio siroče,[br]nije imao obitelj 0:30:44.630,0:30:46.930 0:30:46.930,0:30:51.410 i to je bilo njegovo prvo[br]dulje putovanje morem. 0:30:51.410,0:30:53.700 Pošao je, kaže novinska priča,[br]unatoč savjetima svojih prijatelja, 0:30:53.700,0:30:56.730 0:30:56.730,0:31:00.210 pošao je u nadi mladenačke ambicije[br]da će putovanje napraviti od njega čovjeka. 0:31:00.210,0:31:03.390 0:31:03.390,0:31:05.140 Nažalost, nije mu bilo suđeno. 0:31:05.140,0:31:07.780 Činjenice slučaja nisu bile sporne, 0:31:07.779,0:31:08.970 val je udario u brod i Mignonette[br]je potonuo. 0:31:08.970,0:31:12.000 0:31:12.000,0:31:14.859 Četvoro članova posade[br]spasilo se u čamcu za spasavanje. 0:31:14.859,0:31:16.199 Jedina hrana koju su imali[br]bile su dvije konzerve konzervirane repe. 0:31:16.200,0:31:18.380 0:31:18.380,0:31:19.659 0:31:19.659,0:31:20.990 0:31:20.990,0:31:21.779 0:31:21.779,0:31:23.980 Bez pitke vode. 0:31:23.980,0:31:26.610 Prva tri dana nisu jeli ništa. 0:31:26.609,0:31:30.459 Četvrti dan otvorili su jednu konzervu repe[br]i pjeli je. 0:31:30.460,0:31:31.590 0:31:31.589,0:31:34.449 Sljedeći dan uhvatili su kornjaču. 0:31:34.450,0:31:36.960 Druga konzerva repe i kornjača[br]omogućili su im da prežive 0:31:36.960,0:31:38.549 sljedećih nekoliko dana 0:31:38.549,0:31:40.058 0:31:40.058,0:31:43.069 i onda osam dana nisu jeli ništa.[br]Bez hrane i bez vode. 0:31:43.069,0:31:44.038 0:31:44.038,0:31:47.069 0:31:47.069,0:31:50.069 Zamislite sebe u takvoj situaciji. 0:31:50.069,0:31:52.849 Što biste vi učinili? 0:31:52.849,0:31:55.119 Evo što su oni učinili. 0:31:55.119,0:32:00.969 Mali od palube Parker je sada već[br]ležao na dnu čamca za spasavanje, u ćošku, 0:32:00.970,0:32:03.230 jer se bio napio morske vode[br]protivno savjetima ostalih. 0:32:03.230,0:32:05.490 0:32:05.490,0:32:07.230 Bilo mu je zlo i izgledalo je da umire. 0:32:07.230,0:32:10.669 0:32:10.669,0:32:14.619 Pa je devetnaestog dana Dudley, kapetan,[br]predložio da izvlače slamku, 0:32:14.618,0:32:17.349 da bi trebali vući slamke da vide[br]tko bi trebao umrijeti da spasi ostale. 0:32:17.349,0:32:18.759 0:32:18.759,0:32:19.619 0:32:19.619,0:32:20.859 0:32:20.859,0:32:24.079 0:32:24.079,0:32:25.210 Brooks je odbio,[br]nije mu se sviđala ideja o lutriji. 0:32:25.210,0:32:26.539 0:32:26.539,0:32:29.139 0:32:29.140,0:32:30.619 Ne znamo je li to bilo zbog toga[br]jer nije želio riskirati 0:32:30.618,0:32:35.999 ili jer je vjerovao u[br]kategoričke moralne principe. 0:32:35.999,0:32:36.870 0:32:36.869,0:32:38.619 No, u svakom slučaju,[br]slamke se nisu izvlačile. 0:32:38.619,0:32:42.129 0:32:42.130,0:32:43.230 Sljedeći dan još uvijek nije bilo[br]nijednog broda na vidiku 0:32:43.230,0:32:45.028 0:32:45.028,0:32:48.470 pa je Dudley rekao Brooksu[br]da okrene glavu 0:32:48.470,0:32:50.720 i dao znak Stephensu[br]da bi bilo bolje da ubiju dječaka Parkera. 0:32:50.720,0:32:53.929 0:32:53.929,0:32:55.850 Dudley se pomolio,[br]rekao dječaku da je kucnuo njegov čas 0:32:55.849,0:32:58.480 0:32:58.480,0:33:00.679 te ga usmrtio perorezom[br]ubadajaći ga u vratnu venu. 0:33:00.679,0:33:03.900 0:33:03.900,0:33:09.750 Brooks se oporavio od svog prigovora savjesti[br]kako bi sudjelovao u podjeli jezive blagodati. 0:33:09.750,0:33:11.029 Četiri dana su se njih trojica hranila[br]tijelom i krvlju malog od palube. 0:33:11.029,0:33:15.230 0:33:15.230,0:33:17.220 Istinita priča. 0:33:17.220,0:33:19.390 I onda su bili spašeni. 0:33:19.390,0:33:22.840 Dudley opisuje njihovo spašavanje[br]u svom dnevniku; 0:33:22.839,0:33:24.678 0:33:24.679,0:33:27.570 zapanjujućim eufemizmom, citiram: 0:33:27.569,0:33:29.648 '24-tog dana dok smo doručkovali[br]konačno se pojavio brod.' 0:33:29.648,0:33:34.750 0:33:34.750,0:33:38.599 0:33:38.599,0:33:44.309 Trojicu preživjelih pokupio je njemački brod[br]i odveo natrag u Falmouth u Engleskoj 0:33:44.309,0:33:47.079 gdje su uhapšeni i suđeni. 0:33:47.079,0:33:47.829 Brooks je postao zaštićeni svjedok,[br]Dudley i Stephensu se sudilo. 0:33:47.829,0:33:49.949 0:33:49.950,0:33:54.450 Oni nisu osporavali činjenice,[br]tvrdili su da su postupali u krajnjoj nuždi. 0:33:54.450,0:33:55.390 0:33:55.390,0:33:58.140 0:33:58.140,0:33:59.430 To je bila njihova obrana. 0:33:59.430,0:34:01.220 Tvrdili su u suštini da je bolje[br]da jedan umre da bi trojica preživjela. 0:34:01.220,0:34:03.250 0:34:03.250,0:34:06.420 0:34:06.420,0:34:08.619 Tužilac nije bio uvjeren ovim argumentom,[br]rekao je da je ubojstvo, ubojstvo 0:34:08.619,0:34:10.849 0:34:10.849,0:34:12.509 0:34:12.509,0:34:16.429 i tako je slučaj dospio pred sud. 0:34:16.429,0:34:19.489 Zamislite da ste vi porota, 0:34:19.489,0:34:21.989 a da bismo pojednostavili diskusiju, 0:34:21.989,0:34:23.010 ostavite po strani pitanje zakona[br]i pretpostavimo da ste vi kao porota 0:34:23.010,0:34:25.879 0:34:25.878,0:34:28.278 zaduženi da odlučite da li je ono što[br]su učinili moralno dopustivo ili nije. 0:34:28.278,0:34:31.009 0:34:31.009,0:34:34.378 0:34:34.378,0:34:36.608 Koliko bi vas glasalo 'nisu krivi', 0:34:36.608,0:34:39.808 0:34:39.809,0:34:46.809 da je ono što su učinili[br]moralno dopustivo? 0:34:49.528,0:34:51.639 A koliko bi vas glasalo 'krivi',[br]ono što su učinili je moralno neispravno? 0:34:51.639,0:34:54.858 0:34:54.858,0:34:57.998 Prilično znatna većina. 0:34:57.998,0:35:03.808 Da vidimo sada razloge, [br]a započet ću s onima u manjini. 0:35:03.809,0:35:07.739 Da čujemo prvo obranu [br]Dudleya i Stephensa. 0:35:07.739,0:35:10.099 0:35:10.099,0:35:14.160 Zašto bi ih oslobodili krivnje? 0:35:14.159,0:35:17.989 Koji su vaši razlozi? 0:35:17.989,0:35:20.798 Mislim da to zaslužuje moralnu osudu, 0:35:20.798,0:35:24.349 ali također da postoji razlika između[br]moralno nedopustivog 0:35:24.349,0:35:26.609 i onog što nekog čini pravno odgovornim. 0:35:26.608,0:35:30.690 Drugim riječima, kao što je rekao sudac,[br]nemoralno nije nužno protiv zakona, 0:35:30.690,0:35:34.789 pa iako ne mislim da nužnost opravdava[br]krađu ili ubojstvo ili bilo koji nezakoniti čin, 0:35:34.789,0:35:36.169 0:35:36.168,0:35:38.578 0:35:38.579,0:35:43.509 u nekom času stupanj nužnosti ustvari[br]vas oslobađa krivnje. 0:35:43.509,0:35:45.849 0:35:45.849,0:35:50.588 Drugi branitelji, drugi glasovi u obrani? 0:35:50.588,0:35:53.038 Moralna opravdanja za ono[br]što su učinili? 0:35:53.039,0:35:56.989 0:35:56.989,0:35:57.619 0:35:57.619,0:35:58.798 0:35:58.798,0:35:59.570 Meni se čini u tako očajnoj situaciji morate[br]činiti ono što morate kako bi preživjeli. 0:35:59.570,0:36:03.139 0:36:03.139,0:36:04.679 Morate učiniti ono što morate? 0:36:04.679,0:36:06.789 Morate učiniti što morate, tako je. 0:36:06.789,0:36:07.849 Ako ste izdržali 19 dana bez hrane 0:36:07.849,0:36:09.899 0:36:09.898,0:36:14.710 netko se jednostavno mora žrtvovati[br]da ljudi mogu preživjeti. 0:36:14.710,0:36:16.139 I štoviše, recimo da su preživjeli i postali[br]produktivni članovi društva 0:36:16.139,0:36:21.299 koji odu kući i, na primjer, dobrotvorne[br]organizacije i svašta drugo za opću dobrobit. 0:36:21.300,0:36:26.230 0:36:26.230,0:36:28.519 Ja ne znam što su oni radili poslije,[br]možda su ubili još ljudi ... 0:36:28.519,0:36:30.478 0:36:30.478,0:36:32.889 0:36:32.889,0:36:35.708 Što ako su otišli kući i postali ubojice? 0:36:35.708,0:36:38.908 Što ako su otišli kući i postali ubojice? 0:36:38.909,0:36:42.878 Ne biste željeli znati koga su ubili? 0:36:42.878,0:36:45.848 Istina, to je fer. 0:36:45.849,0:36:49.609 Ne bih želio znati koga su ubili. 0:36:49.608,0:36:50.708 Dobro je, kako se zovete?[br]Marcus. 0:36:50.708,0:36:52.489 Čuli smo obranu,[br]par glasova u obrani, 0:36:52.489,0:36:54.050 0:36:54.050,0:36:55.660 sada treebamo čuti tužiteljstvo. 0:36:55.659,0:36:57.298 0:36:57.298,0:36:59.338 Većina ljudi misli da je ono[br]što su učinili neispravno, Zašto? 0:36:59.338,0:37:05.068 0:37:05.068,0:37:09.898 Jedna od prvih stvari koju sam ja pomislila[br]bilo je, 0:37:09.898,0:37:11.409 'Pa, dobro, nisu jako dugo jeli, 0:37:11.409,0:37:12.469 pa su možda mentalno oštećeni 0:37:12.469,0:37:15.139 0:37:15.139,0:37:16.408 pa se to može iskoristiti za obranu,[br]mogući argument 0:37:16.409,0:37:20.619 0:37:20.619,0:37:24.179 da nisu bili prisebni i donosili su odluke[br]koje inače ne bi, 0:37:24.179,0:37:28.519 a ako je to prihvatljiv argument, 0:37:28.518,0:37:33.608 da morate biti u stanju promijenjene svijesti[br]da bi učinili tako nešto, 0:37:33.608,0:37:36.108 to navodi da ljudi koji taj argument[br]smatraju uvjerljivim 0:37:36.108,0:37:40.088 zaista misle da postupaju nemoralno ... 0:37:40.088,0:37:41.248 Ali ja želim znati što vi mislite.[br]Vi ih branite ... 0:37:45.548,0:37:49.449 Vi ste za to da budu optuženi, zar ne? 0:37:49.449,0:37:51.088 Ja ne mislim da su postupali[br]na moralno prihvatljiv način ... 0:37:51.088,0:37:52.909 A zašto ne? Što kažete ...[br]Tu je Marcus, on ih je upravo branio. 0:37:52.909,0:37:53.880 On je rekao, čuli ste što je rekao, 0:37:53.880,0:37:55.249 0:37:55.248,0:37:56.558 0:37:56.559,0:38:00.119 da morate učiniti ono što morate[br]u takvoj situaciji. 0:38:00.119,0:38:04.789 Što ćete mu odgovoriti? 0:38:04.789,0:38:06.439 0:38:06.438,0:38:13.438 Da ne postoji situacija u kojoj bi [br]ljudima bilo dozvoljeno da uzmu 0:38:13.579,0:38:17.959 ideju sudbine ili živote drugih ljudi[br]u svoje ruke, 0:38:17.958,0:38:19.328 da mi nemamo tu vrstu moći. 0:38:19.329,0:38:21.399 Dobro, u redu, hvala.[br]Kako se vi zovete? 0:38:21.398,0:38:24.130 Britt. 0:38:24.130,0:38:24.548 Tko još? 0:38:24.548,0:38:26.028 Što vi kažete? Ustanite. 0:38:26.028,0:38:28.159 Pitam se da li su Dudley i Stephens[br]tražili Parkerov pristanak na umiranje. 0:38:28.159,0:38:35.159 0:38:35.429,0:38:37.568 I da li bi ih to oslobodilo krivnje[br]za aktivno ubojstvo? 0:38:37.568,0:38:41.228 0:38:41.228,0:38:45.448 I ako je tako, da li je to još uvijek[br]moralno opravdano? 0:38:45.449,0:38:51.720 Zanimljivo, pristanak.[br]Čekajte, kako se vi zovete? 0:38:51.719,0:38:56.088 Kathleen. 0:38:56.088,0:38:56.619 Kathleen kaže, pretpostavimo ... 0:38:56.619,0:39:00.410 Kako bi izgledao taj scenario? 0:39:00.409,0:39:02.608 Tu je Dudley, perorez u ruci,[br]ali umjesto molitve, ili prije molitve, 0:39:02.608,0:39:04.588 0:39:04.588,0:39:07.599 kaže, 'Parker, bi li smetalo, 0:39:07.599,0:39:11.519 mi smo očajno gladni, 0:39:11.518,0:39:14.348 - s čim Marcus suosjeća - 0:39:14.349,0:39:17.679 0:39:17.679,0:39:19.769 očajno smo gladni, 0:39:19.768,0:39:22.168 ti ionako nećeš dugo, 0:39:22.168,0:39:23.498 - mogao bi biti mučenik - 0:39:23.498,0:39:25.748 bili bio mučenik,[br]što misliš o tome, Parker?' 0:39:25.748,0:39:29.468 0:39:29.469,0:39:33.220 Što mislite, bi li tada bilo[br]moralno opravdano? 0:39:33.219,0:39:37.639 0:39:37.639,0:39:38.219 Pretpostavimo da Parker,[br]napola pri svijesti, 0:39:38.219,0:39:40.168 0:39:40.168,0:39:42.498 kaže - ok. 0:39:42.498,0:39:47.889 Ne mislim da bi bilo moralno opravdano,[br]ali pitam se ... 0:39:47.889,0:39:50.650 Čak i tada, ne bi bilo? 0:39:50.650,0:39:52.490 Ne. 0:39:52.489,0:39:54.568 Vi mislite da čak i sa njegovim pristankom[br]to ne bi bilo moralno opravdano? 0:39:54.568,0:39:56.369 Ima li ljudi koji misle ... 0:39:56.369,0:39:57.200 koji žele preuzeti Kathleeninu[br]ideju pristanka 0:39:57.199,0:40:01.688 i koji misle da bi to tada bilo[br]moralno opravdano? 0:40:01.688,0:40:05.868 Dignite ruke, ako bi bilo?[br]Ako mislite da bi bilo? 0:40:05.869,0:40:07.588 To je vrlo zanimljivo. 0:40:07.588,0:40:09.168 Zašto bi pristanak[br]predstavljao moralnu razliku? 0:40:09.168,0:40:15.888 Zašto bi? 0:40:15.889,0:40:18.509 Ja samo mislim ako je to njegova[br]vlastita originalna ideja, 0:40:18.509,0:40:20.969 njegova ideja od početka, 0:40:20.969,0:40:23.778 onda bi to bila jedina situacija[br]u kojoj bi ja to smatrala prihvatljivim. 0:40:23.778,0:40:25.940 Jer na taj način ne možete tvrditi[br]da je bio pod pritiskom. 0:40:28.358,0:40:30.579 Zante, tri protiv jednoga[br]ili bilo koji omjer bio. 0:40:30.579,0:40:32.759 0:40:32.759,0:40:34.070 I mislim ako on odlučuje da daje svoj život,[br]onda je njegova volja da se žrtvuje, 0:40:34.070,0:40:38.009 0:40:38.009,0:40:42.668 što neki ljudi mogu smatrati [br]vrijednim divljenja, 0:40:42.668,0:40:45.449 a drugi se mogu ne slagati s tom odlukom. 0:40:45.449,0:40:49.099 Dakle, ako je on nadošao na tu ideju, 0:40:49.099,0:40:52.820 to je jedina vrsta pristanka[br]u koju se možemo pouzdati, moralno, 0:40:52.820,0:40:55.359 onda bi to bilo u redu? 0:40:55.358,0:40:57.268 0:40:57.268,0:40:59.788 U protivnom bilo bi to nešto kao[br]iznuđeni pristanak u tim okolnostima, 0:40:59.789,0:41:01.469 mislite? 0:41:01.469,0:41:05.278 0:41:05.278,0:41:07.349 Da li itko misli da čak i [br]Parkerov pristanak 0:41:07.349,0:41:10.979 0:41:10.978,0:41:13.419 ne bi opravdao njihovo ubojstvo? 0:41:13.420,0:41:15.479 0:41:15.478,0:41:18.088 Tko tako misli? 0:41:18.088,0:41:19.538 Recite nam zašto, ustanite. 0:41:19.539,0:41:21.260 Mislim da bi Parker bio ubijen u nadi[br]da će drugi članovi posade biti spašeni, 0:41:21.260,0:41:22.319 0:41:22.318,0:41:26.558 0:41:26.559,0:41:29.250 pa onda nema definitivnog razloga[br]da on bude ubijen 0:41:29.250,0:41:31.199 jer ne znate kada će oni biti spašeni. 0:41:31.199,0:41:35.809 Pa ako ga ubijete i to bude uzalud, 0:41:35.809,0:41:38.039 hoćete li nastaviti ubijati članove [br]posade i na kraju nitko neće ostati? 0:41:38.039,0:41:40.309 Jer netko će na koncu umrijeti. 0:41:40.309,0:41:44.199 Pa, moralna logika situacije[br]izgleda da je takva. 0:41:44.199,0:41:45.829 Da bi oni nadalje odabirali najslabije,[br]jednog po jednog, 0:41:45.829,0:41:50.318 0:41:50.318,0:41:51.818 dok ne bi bili spašeni. 0:41:51.818,0:41:57.679 A u ovom slučaju, na sreću, bili su spašeni[br]kad ih još bar troje bilo živo. 0:41:57.679,0:41:58.880 Da je Parker da svoj pristanak, 0:41:58.880,0:42:01.298 0:42:01.298,0:42:04.068 bili tada bilo u redu ili ne? 0:42:04.068,0:42:06.329 Ne, još uvijek ne bi bilo u redu. 0:42:06.329,0:42:08.030 Recite nam zašto ne bi bilo u redu? 0:42:08.030,0:42:10.028 Prije svega ja vjerujem da je kanibalizam[br]moralno neispravan 0:42:10.028,0:42:13.228 0:42:13.228,0:42:14.509 i ne biste smjeli jesti[br]ljudsko biće ni u kom slučaju. 0:42:14.510,0:42:17.449 0:42:17.449,0:42:19.380 Dakle, kanibalizam je moralno nedopušten[br]izvan ... 0:42:19.380,0:42:22.400 Dakle, čak i u scenariju[br]u kojem bi se čekalo da netko umre 0:42:22.400,0:42:24.568 0:42:24.568,0:42:27.018 još uvijek bi to bilo nedopušteno? 0:42:27.018,0:42:27.929 Da, za mene osobno. 0:42:27.929,0:42:29.739 Čini mi se da to sve ovisi[br]o osobnom moralu. 0:42:29.739,0:42:31.199 0:42:31.199,0:42:35.288 To je tek moje mišljenje. 0:42:35.289,0:42:39.339 Naravno, drugi ljudi se neće složiti ... 0:42:39.338,0:42:41.498 Pa da vidimo, da čujemo koja su [br]njihova neslaganja 0:42:41.498,0:42:42.639 i onda ćemo vidjeti da li imaju[br]dovoljne razloge da vas razuvjere. 0:42:42.639,0:42:44.259 0:42:44.259,0:42:46.228 0:42:46.228,0:42:48.358 0:42:48.358,0:42:50.098 0:42:50.099,0:42:53.249 Ima li netko tko bi mogao objasniti,[br]vi koji ste skloni pristanku, 0:42:53.248,0:42:57.908 0:42:57.909,0:42:59.778 možete li objasniti zašto pristanak[br]čini takvu moralnu razliku. 0:42:59.778,0:43:02.028 0:43:02.028,0:43:03.358 0:43:03.358,0:43:05.650 Što je s idejom lutrije? 0:43:05.650,0:43:08.930 Da li se to računa kao pristanak? 0:43:08.929,0:43:11.308 Sjetite se, na početku Dudley je[br]predložio lutriju. 0:43:11.309,0:43:13.839 Pretpostavimo da su se složili[br]s lutrijom, 0:43:13.838,0:43:16.338 0:43:16.338,0:43:17.369 0:43:17.369,0:43:20.798 koliko vas bi tada reklo,[br]to je bilo u redu. 0:43:20.798,0:43:23.929 Pretpostavimo da su vukli slamku,[br]mali od palube je izgubio i priča ide dalje. 0:43:23.929,0:43:25.380 0:43:25.380,0:43:32.380 Koliko ljudi bi reklo[br]da je bilo moralno dopušteno? 0:43:33.199,0:43:37.030 Brojevi rastu kad dodamo lutriju.[br]Da čujemo jednog od vas 0:43:37.030,0:43:41.609 za kojega bi lutrija činila[br]moralnu razliku? 0:43:41.608,0:43:43.458 Zašto bi? 0:43:43.458,0:43:44.739 Mislim da ključni element koji[br]po meni to čini zločinom 0:43:44.739,0:43:45.718 0:43:45.719,0:43:47.858 0:43:47.858,0:43:53.848 je ideja da su oni u jednom času odlučili[br]da su njihovi životi važniji od njegovog, 0:43:53.849,0:43:56.609 a mislim da je to zapravo[br]osnova svakog zločina. 0:43:56.608,0:43:57.688 To je kao: moje potrebe, moje želje[br]važnije su od tvojih i moje imaju prednost. 0:43:57.688,0:44:01.949 A da su imali lutriju gdje su svi suglasni[br]da netko mora umrijeti 0:44:01.949,0:44:04.798 0:44:04.798,0:44:06.478 0:44:06.478,0:44:09.239 to je onda kao da se svi žrtvuju[br]da spase ostale. 0:44:09.239,0:44:11.008 0:44:11.009,0:44:12.949 Onda bi to bilo u redu? 0:44:12.949,0:44:15.880 Malo groteskno, ali ... 0:44:15.880,0:44:18.959 Ali moralno prihvatljivo? 0:44:18.958,0:44:22.688 Da. 0:44:22.688,0:44:25.578 A kako se ti zoveš? 0:44:25.579,0:44:27.329 Matt. 0:44:27.329,0:44:31.389 Znači Matt ono što tebe muči nije kanibalizam[br]nego izostanak propisanog postupka? 0:44:31.389,0:44:34.689 Pretpostavljam da bi se moglo tako reći. 0:44:34.688,0:44:38.170 A može li netko, tko se slaže s Mattom 0:44:38.170,0:44:40.499 reći malo više o tome zašto bi lutrija, 0:44:40.498,0:44:41.378 po vašem mišljenju, činila to[br]moralno dopustivim? 0:44:41.378,0:44:43.690 0:44:43.690,0:44:47.099 0:44:47.099,0:44:50.979 0:44:50.978,0:44:55.568 Kako sam ja to prvobitno razumijela,[br]malog od palube nikada nisu konzultirali 0:44:55.568,0:44:56.398 0:44:56.398,0:45:00.478 o tome da li će mu se ili ne,[br]nešto dogoditi, 0:45:00.478,0:45:01.088 čak ni da li će sudjelovati u lutriji, 0:45:01.088,0:45:04.420 jednostavno je bilo odlučeno[br]da je on taj koji će umrijeti. 0:45:04.420,0:45:08.170 Točno, to se dogodilo u stvarnom slučaju, 0:45:08.170,0:45:11.900 ali da je bila lutrija i svi su se složili[br]oko procedure, mislite da bi bilo u redu? 0:45:11.900,0:45:13.539 0:45:13.539,0:45:16.418 Točno, jer onda svi znaju [br]da će se dogoditi smrt, 0:45:16.418,0:45:17.079 dok mali od palube nije znao[br]čak ni da se vodi ta rasprava. 0:45:17.079,0:45:18.878 0:45:18.878,0:45:21.038 0:45:21.039,0:45:21.919 Nije bilo nikakvog upozorenja njemu 0:45:21.918,0:45:23.578 da bi znao: 'Hej, ja sam taj koji umire!'. 0:45:23.579,0:45:28.829 Dobro, pretpostavimo da se svi slažu[br]s lutrijom, lutrija se održi, 0:45:28.829,0:45:35.089 mali od palube gubi,[br]ali se predomisli. 0:45:35.088,0:45:40.989 Već ste odlučili, to je kao [br]usmeni ugovor, 0:45:40.989,0:45:45.139 ne možete odustati od toga,[br]odluka je donesena. 0:45:45.139,0:45:45.999 Da znate da umirete kako bi drugi[br]mogli živjeti vi bi ... 0:45:45.998,0:45:47.688 Da je umro netko drugi [br]znate da bi vi konzumirali njega, pa ... 0:45:47.688,0:45:51.969 0:45:51.969,0:45:57.429 Ali onda bi on mogao reći:[br]'Znam, ali ja sam izgubio.' 0:45:57.429,0:46:01.939 Ja samo mislim da je baš u tome[br]moralni spor, 0:46:01.938,0:46:04.298 da nije konzultiran mali od palube[br]i to je najjezivije 0:46:04.298,0:46:08.909 da on uopće nije imao pojma[br]što se zbiva. 0:46:08.909,0:46:10.599 Da je on znao što se zbiva[br]bilo bi malo razumljivije. 0:46:10.599,0:46:13.109 0:46:13.108,0:46:14.509 Dobro, sada želim čuti ... 0:46:14.510,0:46:17.049 Dakle, postoje neki koji misle 0:46:17.048,0:46:18.708 da je to moralno dopustivo,[br]ali samo oko 20% vas 0:46:18.708,0:46:24.048 0:46:24.048,0:46:26.559 na čelu s Marcusom. 0:46:26.559,0:46:28.439 Onda postoje neki koji kažu, 0:46:28.438,0:46:30.208 pravi problem ovdje je[br]izostanak suglasnosti, 0:46:30.208,0:46:32.838 bilo suglasnosti o lutriji, fer proceduri 0:46:32.838,0:46:37.139 ili, Katheenina ideja, [br]suglasnosti u času smrti. 0:46:37.139,0:46:38.588 0:46:38.588,0:46:39.690 0:46:39.690,0:46:40.749 0:46:40.748,0:46:42.928 0:46:42.929,0:46:45.139 0:46:45.139,0:46:48.318 A ako dodamo suglasnost onda je više ljudi[br]sklono žrtvu smatrati moralno opravdanom. 0:46:48.318,0:46:49.019 0:46:49.019,0:46:51.889 0:46:51.889,0:46:54.528 0:46:54.528,0:46:56.639 Sada bih na koncu želio čuti[br]one od vas koji misle 0:46:56.639,0:46:58.548 0:46:58.548,0:47:00.199 da čak i s pristankom,[br]čak i s lutrijom, 0:47:00.199,0:47:01.898 0:47:01.898,0:47:02.519 čak i s Parkerovim zadnjim[br]promrmljanim riječima suglasnosti, 0:47:02.519,0:47:04.579 0:47:04.579,0:47:06.950 0:47:06.949,0:47:08.018 u zadnjem času, 0:47:08.018,0:47:09.179 0:47:09.179,0:47:10.838 to biipak bilo neispravno. 0:47:10.838,0:47:12.639 I zašto bi to bilo neispravno? 0:47:12.639,0:47:14.248 0:47:14.248,0:47:16.998 To želim čuti. 0:47:16.998,0:47:18.818 Pa, cijelo vrijeme sam naginjala[br]kategoričkom moralnom rasuđivanju 0:47:18.818,0:47:22.639 0:47:22.639,0:47:25.568 i mislim da postoji mogućnost[br]da bi se složila s idejom lutrije 0:47:25.568,0:47:29.608 i da se onda gubitnik ubije sam, 0:47:29.608,0:47:31.440 0:47:31.440,0:47:32.749 0:47:32.748,0:47:33.679 0:47:33.679,0:47:37.358 tako da onda to ne bi bio čin ubojstva,[br]no ipak mislim da čak i na taj način 0:47:37.358,0:47:42.278 to je pod prisilom. 0:47:42.278,0:47:43.338 I također mislim da nema nikakvog kajanja 0:47:43.338,0:47:44.909 Kao što Dudley piše u svom dnevniku: [br]'Jeli smo svoj doručak.' 0:47:44.909,0:47:47.659 Izgleda kao da je on kao -Oh, ... 0:47:47.659,0:47:51.440 Znate, cijela ideja nevrednovanja[br]tuđeg života. 0:47:51.440,0:47:53.639 Eto zbog toga mi se čini da trebam[br]zauzeti kategorički stav. 0:47:53.639,0:47:57.969 Želite baciti knjigu na njega? 0:47:57.969,0:48:02.298 Zato što se ne kaje i nema osjećaj[br]da je učinio išta loše. 0:48:02.298,0:48:06.969 Točno. 0:48:06.969,0:48:08.769 Ima li još branitelja 0:48:08.768,0:48:13.268 koji kažu da je to jednostavno[br]kategorički neispravno, sa ili bez suglasnosti. 0:48:13.268,0:48:17.288 Da, ustanite. Zašto? 0:48:17.289,0:48:21.829 Mislim da nesumnjivo, kako je[br]oblikovano naše društvo, ubojstvo je ubojstvo 0:48:21.829,0:48:24.780 na svaki način, a naše društvo[br]na ubojstvo gleda uvijek jednako 0:48:24.780,0:48:27.119 i mislim da nema razlike[br]u bilo kojem slučaju. 0:48:27.119,0:48:30.489 Dobro, da vas pitam nešto? 0:48:30.489,0:48:33.028 Tri života su u pitanju,[br]nasuprot jednom, 0:48:33.028,0:48:34.509 taj jedan, mali od palube,[br]nije imao nikoga od obitelji, 0:48:34.509,0:48:38.739 nitko nije ovisio o njemu, 0:48:38.739,0:48:41.418 ova trojica su imala obitelji[br]kod kuće u Engleskoj, ovisili su o njima, 0:48:41.418,0:48:43.328 imali su žene i djecu. 0:48:43.329,0:48:44.989 Sjetite se Benthama. 0:48:44.989,0:48:48.048 Bentham kaže moramo uzeti u obzir[br]dobrobit, korisnost, sreću svakoga. 0:48:48.048,0:48:51.288 Moramo sve to zbrojiti, pa onda to nisu[br]samo brojevi tri prema jedan, 0:48:51.289,0:48:54.640 0:48:54.639,0:48:58.759 to su također svi ti ljudi kod kuće. 0:48:58.759,0:49:00.909 Ustvari, londonske novine toga vremena[br]i javno mnijenje suosjećali su s njima, 0:49:00.909,0:49:04.248 0:49:04.248,0:49:05.478 Dudleyem i Stephensom, 0:49:05.478,0:49:07.919 a novine su rekle - da nisu bili[br]motivirani ljubavlju i brigom 0:49:07.920,0:49:08.280 0:49:08.280,0:49:09.640 0:49:09.639,0:49:13.489 za svoje voljene kod kuće[br]sigurno to ne bi bili učinili. 0:49:13.489,0:49:15.969 Dobro, ali kako se to razlikuje od [br]ljudi na uglu 0:49:15.969,0:49:17.369 0:49:17.369,0:49:21.108 koji imaju istu želju da prehrane svoje[br]obitelji? Ja mislim da nema razlike. 0:49:21.108,0:49:25.279 Mislim da u svakom slučaju ako ja ubijem vas[br]da bi popravio svoj status, to je ubojstvo 0:49:25.280,0:49:28.430 i mislim da to trebamo gledati[br]u istom svjetlu. 0:49:28.429,0:49:30.278 Umjesto da kriminaliziramo[br]određene aktivnosti 0:49:30.278,0:49:33.760 i neke stvari prikazujemo više nasilne[br]i surovije 0:49:33.760,0:49:36.760 kad je u tom istom slučaju to isto,[br]sve je to isti čin 0:49:36.760,0:49:40.150 i mentalitet koji ide s ubojstvom,[br]potreba da se nahrane svoje obitelji. 0:49:40.150,0:49:43.028 Pretpostavimo da ih nije bilo tri,[br]pretpostavimo da ih je bilo 30, 300. 0:49:43.028,0:49:44.608 0:49:44.608,0:49:47.358 Jedan život da se spasi tri stotine. 0:49:47.358,0:49:48.349 Ili u vrijeme rata, tri tisuće ... 0:49:48.349,0:49:49.589 0:49:49.590,0:49:51.039 Ili pretpostavimo da su ulozi čak i veći. 0:49:51.039,0:49:52.778 Pretpostavimo da su ulozi[br]čak i veći. 0:49:52.778,0:49:54.608 Misllim da je to još uvijek ista stvar. 0:49:54.608,0:49:58.108 Mislite li da je Bentham imao krivo[br]kad je rekao da je ispravno postupati tako 0:49:58.108,0:49:58.929 da se zbroji skupna sreća? 0:49:58.929,0:50:02.479 Mislite da nije u pravu? 0:50:02.478,0:50:06.728 Ne mislim da je u krivu, ali mislim[br]da je ubojstvo ubojstvo u svakom slučaju. 0:50:06.728,0:50:09.568 Pa onda Bentham mora biti u krivu! 0:50:09.568,0:50:12.818 Ako ste vi u pravu, on je u krivu! 0:50:12.818,0:50:14.358 Dobro, on je u krivu. 0:50:14.358,0:50:16.389 U redu je, hvala vam, bilo je dobro. 0:50:16.389,0:50:19.728 Odmaknimo se od ove diskusije 0:50:19.728,0:50:23.259 i uočimo koliko smo prigovora čuli[br]u vezi onoga što su činili. 0:50:23.259,0:50:26.048 Čuli smo neke obrane[br]toga što su učinili. 0:50:26.048,0:50:28.509 Obrana se odnosi na potrebu,[br]njihove kobne okolnosti 0:50:28.509,0:50:28.918 0:50:28.918,0:50:32.588 0:50:32.588,0:50:33.409 i, barem implicitno, ideju[br]da su brojevi važni. 0:50:33.409,0:50:36.018 0:50:36.018,0:50:37.858 I ne samo da su važni brojevi,[br]nego su važni i širi učinci, 0:50:37.858,0:50:40.380 0:50:40.380,0:50:43.459 njihove obitelji kod kuće,[br]oni koji ovise o njima. 0:50:43.458,0:50:44.768 Parker je bio siroče,[br]nikome neće nedostajati. 0:50:44.768,0:50:47.978 0:50:47.978,0:50:49.578 Pa, ako sve zbrojite,[br]ako pokušate izračunati 0:50:49.579,0:50:50.829 0:50:50.829,0:50:52.649 0:50:52.648,0:50:53.998 bilancu sreće i patnje, 0:50:53.998,0:50:56.598 0:50:56.599,0:50:58.838 mogli biste imati osnovu da kažete[br]da je ono što su učinili ispravno. 0:50:58.838,0:51:02.768 0:51:02.768,0:51:09.468 Onda smo čuli bar tri različite[br]vrste prigovora. 0:51:09.469,0:51:11.690 Čuli prigovor koji kaže,[br]ono što su učinili kategorički je neispravno, 0:51:11.690,0:51:14.108 upravo ovdje, na kraju, 0:51:14.108,0:51:15.750 0:51:15.750,0:51:17.389 kategorički neispravno. 0:51:17.389,0:51:19.820 Ubojstvo je ubojstvo,[br]uvijek je neispravno, 0:51:19.820,0:51:20.969 čak i ako povećava ukupnu sreću[br]društva. 0:51:20.969,0:51:23.349 0:51:23.349,0:51:25.639 0:51:25.639,0:51:28.499 Kategorički prigovor, 0:51:28.498,0:51:30.738 No, još uvijek nam ostaje istražiti[br]zašto je ubojstvo kategorički neispravno. 0:51:30.739,0:51:32.749 0:51:32.748,0:51:35.448 0:51:35.449,0:51:38.579 Da li je to zato jer čak i mali od palube[br]imaju određena fundamentalna prava? 0:51:38.579,0:51:42.339 0:51:42.338,0:51:44.400 A ako je to razlog, 0:51:44.400,0:51:47.880 odakle proizlaze ta prava[br]ako ne iz ideje veće dobrobiti 0:51:47.880,0:51:53.209 ili korisnosti ili sreće? 0:51:53.208,0:51:56.308 Pitanje broj jedan. 0:51:56.309,0:51:58.449 Drugi su rekli, lutrija bi činila razliku,[br]fer procedura, 0:51:58.449,0:52:00.039 0:52:00.039,0:52:05.949 rekao je Matt. 0:52:05.949,0:52:08.769 I neki ljudi su naginjali tome. 0:52:08.768,0:52:12.188 To nije točno kategorički prigovor, 0:52:12.188,0:52:13.828 nego kaže, svi se trebaju računati[br]kao jednaki, 0:52:13.829,0:52:16.798 0:52:16.798,0:52:18.469 čak iako na koncu jedan može[br]biti žrtvovan za opću dobrobit. 0:52:18.469,0:52:20.769 0:52:20.768,0:52:23.288 0:52:23.289,0:52:26.059 To nam ostavlja još jedno pitanje[br]za istraživanje. 0:52:26.059,0:52:29.670 Zašto sporazum o određenoj proceduri,[br]čak i fer proceduri, 0:52:29.670,0:52:31.969 0:52:31.969,0:52:34.739 opravdava bilo koji rezultat[br]koji proizlazi iz izvođenja te procedure? 0:52:34.739,0:52:38.088 0:52:38.088,0:52:39.898 Pitanje broj dva. 0:52:39.898,0:52:42.398 I pitanje broj tri, 0:52:42.398,0:52:45.338 osnovna ideja pristanka. 0:52:45.338,0:52:48.528 Kathleen nas je navela na to. 0:52:48.528,0:52:52.719 Da se mali od palube složio samovoljno,[br]a ne pod pritiskom, 0:52:52.719,0:52:54.499 0:52:54.498,0:52:57.068 kao ššto je bilo dodano, 0:52:57.068,0:53:01.918 onda bi bilo u redu oduzeti mu život[br]da bi se spasili ostali. 0:53:01.918,0:53:04.900 Čak je više ljudi prihvatilo tu ideju, 0:53:04.900,0:53:06.630 ali iz toga proizlazi[br]treće filozofsko pitanje. 0:53:06.630,0:53:08.528 0:53:08.528,0:53:11.009 Kakvo je to moralno djelovanje[br]pristanka? 0:53:11.009,0:53:12.838 0:53:12.838,0:53:14.438 0:53:14.438,0:53:16.978 Zašto čin suglasnosti[br]čini takvu moralnu razliku 0:53:16.978,0:53:19.188 0:53:19.188,0:53:23.818 da jedan čin koji bi bio neispravan,[br]oduzimanje života, 0:53:23.818,0:53:25.369 bez suglasnosti je moralno dopustivo[br]uz suglasnost? 0:53:25.369,0:53:26.358 0:53:26.358,0:53:29.619 0:53:29.619,0:53:31.699 Da bismo razmotrili ta tri pitanja[br]morat ćemo čitati neke filozofe, 0:53:31.699,0:53:34.108 0:53:34.108,0:53:35.728 a od sljedećeg puta počet ćemo čitati[br]Benthama i Johna Stewarta Milla 0:53:35.728,0:53:36.939 filozofe utilitarizma. 0:53:36.940,0:53:37.720 0:53:37.719,0:53:43.798 0:53:43.798,0:53:47.298 0:53:43.798,0:53:47.298 0:53:49.869,0:53:56.869 0:54:36.219,0:54:40.269 0:54:40.268,0:54:41.678