0:00:04.200,0:00:08.240 Pravednost Michael Sandel 0:00:08.240,0:00:15.240 Moralna strana ubojstva 0:00:33.509,0:00:36.587 Ovo je kolegij o pravednosti[br]i započinjemo jednom pričom. 0:00:37.750,0:00:39.735 Pretpostavimo da ste vozač tramvaja 0:00:40.179,0:00:43.809 i vaš tramvaj juri tračnicama[br]90 km na sat, 0:00:44.640,0:00:48.741 a na kraju tračnica uočavate[br]pet radnika koji rade na pruzi. 0:00:49.390,0:00:52.972 Pokušavate stati, ali ne možete,[br]kočnice vam ne rade. 0:00:53.829,0:00:56.077 Očajni ste jer znate 0:00:56.780,0:01:01.090 da ako se zaletite u tih pet radnika,[br]svi će poginuti. 0:01:01.490,0:01:03.612 Pretpostavimo da to znate sa sigurnošću 0:01:05.079,0:01:06.703 i osjećate se bespomoćni 0:01:07.420,0:01:12.550 dok ne primijetite sporedni kolosijek[br]s desne strane 0:01:13.170,0:01:18.039 a na kraju tog kolosijeka je jedan radnik[br]koji radi na pruzi.[br] 0:01:19.079,0:01:25.326 Vaš upravljač radi pa možete[br]skrenuti tramvaj, ako želite, 0:01:26.010,0:01:27.912 na sporedni kolosijek, 0:01:28.680,0:01:31.751 i tako ubiti jednog radnika,[br]ali poštedivši petoricu. 0:01:33.269,0:01:35.199 Evo našeg prvog pitanja. 0:01:35.929,0:01:37.809 Kako ispravno postupiti? 0:01:38.819,0:01:40.478 Što biste vi učinili? 0:01:40.638,0:01:42.030 Hajde da provedemo anketu. 0:01:42.470,0:01:47.700 Koliko bi vas skrenulo tramvaj[br]na sporedni kolosijek? 0:01:47.850,0:01:49.030 Dignite ruke. 0:01:52.019,0:01:55.330 Koliko vas ne bi?[br]Koliko bi vas nastavilo ravno naprijed? 0:01:57.650,0:02:00.630 Ostavite podignute ruke, [br]oni koji bi išli ravno naprijed. 0:02:04.049,0:02:07.334 Šačica ljudi bi,[br]velika većina bi skrenula. 0:02:08.048,0:02:09.548 Da čujemo prvo ... 0:02:09.878,0:02:15.039 Sada moramo istražiti razloge[br]zašto mislite da je to ispravno učiniti. 0:02:15.089,0:02:20.769 Počnimo s većinom,[br]koja bi skrenula na sporedni kolosijek. 0:02:21.798,0:02:23.409 Zašto bi to učinili? 0:02:23.669,0:02:25.241 Koji bi bio vaš razlog? 0:02:25.688,0:02:28.569 Tko bi nam iznio svoj razlog? 0:02:29.808,0:02:31.838 Samo naprijed, ustanite. 0:02:32.218,0:02:37.916 Zato jer ne može biti ispravno ubiti petoro[br]kad možete ubiti jednoga, umjesto toga. 0:02:39.579,0:02:43.981 Ne bi bilo u redu ubiti petoricu,[br]ako možete ubiti samo jednog umjesto toga. 0:02:46.748,0:02:48.208 To je dobar razlog. 0:02:52.959,0:02:53.778 Tko još? 0:02:53.848,0:02:56.658 Da li se svi slažu s tim razlogom? 0:02:59.228,0:03:00.078 Izvolite. 0:03:01.218,0:03:07.400 Mislim da je to isti razlog zbog kojeg ljude[br]koji su u 9/11 spustili avion 0:03:07.533,0:03:09.309 u polje u Pennsilvaniji,[br]smatramo herojima 0:03:09.399,0:03:15.035 jer su odabrali da ubiju ljude u avionu,[br]a ne puno više ljudi u velikim zgradama. 0:03:15.909,0:03:20.650 Znači, princip je bio isti u 9/11,[br]tragična okolnost, 0:03:21.379,0:03:24.593 bolje ubiti jednoga[br]da bi petorica preživjela? 0:03:25.359,0:03:28.220 Je li to razlog za većinu vas[br]koji bi skrenuli? 0:03:30.428,0:03:34.598 Da čujemo sada one [br]koji su u manjini, 0:03:35.508,0:03:37.217 one koji ne bi skrenuli. 0:03:40.558,0:03:44.966 Mislim da je to ista vrsta mentaliteta[br]koja opravdava genocid i totalitarizam, 0:03:45.206,0:03:49.156 kako bi spasili jednu naciju,[br]istrebljujete drugu. 0:03:50.189,0:03:52.538 Pa što bi vi učinili u tom slučaju? 0:03:53.038,0:04:00.098 Kako bi izbjegli užase genocida,[br]vi bi se zaletili u petoricu i ubili ih? 0:04:03.389,0:04:05.018 Po svoj prilici, da. 0:04:07.408,0:04:08.787 Dobro, tko još? 0:04:09.930,0:04:11.908 To je hrabar odgovor, hvala. 0:04:13.348,0:04:17.917 Razmotrimo drugi slučaj[br]s tramvajem 0:04:20.078,0:04:25.338 i pogledajmo da li se,[br]oni od vas koji su u većini, 0:04:27.428,0:04:29.864 i dalje žele držati tog principa, 0:04:30.990,0:04:33.329 bolje da umre jedan,[br]kako bi petorica preživjela. 0:04:33.500,0:04:36.743 Ovaj puta vi niste vozač tramvaja,[br]nego promatrač. 0:04:37.998,0:04:41.231 Stojite na mostu iznad [br]tramvajske pruge, 0:04:42.678,0:04:44.898 a prugom se približava tramvaj. 0:04:45.658,0:04:47.830 Na kraju pruge nalazi se 5 radnika, 0:04:49.620,0:04:51.329 kočnice ne rade, 0:04:51.738,0:04:55.453 tramvaj samo što nije naletio na petoricu[br]i ubio ih. 0:04:55.949,0:05:00.238 A sada, vi niste vozač i zaista[br]se osjećate bespomoćni. 0:05:01.309,0:05:04.263 Dok ne primijetite da pokraj vas stoji 0:05:06.499,0:05:09.373 naginjući se preko ograde mosta, 0:05:09.889,0:05:12.210 jedan vrlo debeli čovjek. 0:05:17.398,0:05:20.874 I mogli biste ga malo pogurnuti 0:05:22.668,0:05:25.752 on bi pao s mosta na tračnice 0:05:27.949,0:05:31.198 točno ispred tramvaja, 0:05:32.199,0:05:35.483 on bi poginuo, ali bi spasio petoricu. 0:05:38.798,0:05:43.563 Koliko vas bi gurnulo[br]debelog čovjeka s mosta? Dignite ruke. 0:05:48.089,0:05:49.532 Koliko vas ne bi? 0:05:50.859,0:05:52.489 Većina ljudi ne bi. 0:05:53.849,0:05:55.337 Postavlja se očito pitanje, 0:05:55.788,0:05:58.075 što se dogodilo s principom, 0:05:59.878,0:06:03.739 bolje spasiti pet života,[br]čak i po cijenu žrtvovanja jednog, 0:06:03.839,0:06:08.279 što je s principom koji su skoro svi[br]podržali u prvom slučaju? 0:06:09.240,0:06:12.809 Želio bih čuti nekoga iz većine[br]u oba slučaja. 0:06:13.349,0:06:16.287 Kako objašnjavate razliku[br]između ta dva slučaja? 0:06:18.629,0:06:23.460 Mislim da drugi uključuje[br]aktivni izbor da se osobu gurne. 0:06:24.279,0:06:29.736 Mislim da se, u suprotnom, ta osoba sama[br]ne bi uplela u tu situaciju, 0:06:29.829,0:06:32.609 pa birati u njegovo ime 0:06:36.119,0:06:39.340 da ga se uključi u nešto što bi[br]u protivnom izbjegao, 0:06:39.990,0:06:42.788 mislim da je više od onog[br]što imate u prvoj situaciji 0:06:42.830,0:06:49.828 gdje tri strane, vozač i dvije grupe radnika[br]već jesu u toj situaciji. 0:06:50.598,0:06:54.239 Ali momak koji radi na sporednom kolosijeku, 0:06:55.108,0:06:59.208 on nije odabrao da žrtvuje svoj život[br]ništa više od debelog čovjeka, zar ne? 0:07:02.069,0:07:04.570 To je istina, ali bio je na pruzi. 0:07:05.339,0:07:07.409 Ovaj momak je bio na mostu! 0:07:10.439,0:07:12.570 Možete nastaviti ako želite. 0:07:13.550,0:07:15.159 Dobro, to je teško pitanje. 0:07:15.329,0:07:18.298 Bili ste dobri, jako dobri,[br]to je teško pitanje. 0:07:19.629,0:07:24.470 Tko bi još pokušao naći način[br]za usaglašavanje 0:07:26.028,0:07:28.928 reakciju većine u ova dva slučaja? 0:07:30.158,0:07:34.190 Pretpostavljam, u prvom slučaju,[br]gdje imate jednog radnika i petoricu, 0:07:35.178,0:07:38.549 izbor je između te dvije grupe[br]i morate jednu izabrati, 0:07:38.839,0:07:42.887 a ljudi će poginuti zbog tramvaja,[br]ne nužno zbog vaše direktne akcije. 0:07:42.911,0:07:47.558 Tramvaj je van kontrole i vi u djeliću sekunde[br]morate donijetu određenu odluku, 0:07:48.209,0:07:51.798 dok je guranje čovjeka s mosta[br]stvarni čin ubojstva s vaše strane, 0:07:52.078,0:07:56.328 nad time imate kontrolu,[br]dok nad tramvajem nemate kontrolu. 0:07:57.278,0:07:59.549 Zato mislim da je to[br]malo drugačija situacija. 0:08:00.089,0:08:01.701 U redu, tko ima odgovor? 0:08:04.360,0:08:05.842 Tko želi odgovoriti? 0:08:06.319,0:08:07.708 Je li to pravo objašnjenje? 0:08:09.490,0:08:11.439 Ja mislim da to nije baš dobar razlog 0:08:11.599,0:08:14.099 jer u oba slučaja morate odlučiti[br]tko će umrijeti 0:08:14.099,0:08:16.660 jer ili ćete izabrati da skrenete[br]i ubijete osobu 0:08:16.660,0:08:19.301 što je aktivna svjesna[br]odluka da skrenete, 0:08:19.718,0:08:24.263 ili ćete izabrati da gurnete deebelog čovjeka,[br]što je također aktivni svjesni čin. 0:08:24.438,0:08:26.766 Dakle u oba slučaja radite izbor. 0:08:27.689,0:08:29.128 Vi želite li odgovoriti? 0:08:29.728,0:08:32.908 Nisam baš siguran da je tako,[br]još uvijek mi se čini da je drugačije, 0:08:33.030,0:08:37.070 time što ste nekoga bacili na tračnice[br]i ubili ga, 0:08:37.340,0:08:39.700 vi ste ga ustvari sami ubili. 0:08:39.810,0:08:41.370 Gurate ga, vlastitim rukama. 0:08:41.470,0:08:46.452 Gurate ga, a to je drugačije od[br]upravljanja nečim što će uzrokovati smrt. 0:08:48.669,0:08:51.525 To zaista ne zvuči ispravno[br]kad to ovako govorim. 0:08:52.650,0:08:54.310 Ne, to je dobro, kako se zovete? 0:08:54.310,0:08:55.190 Andrew. 0:08:55.250,0:08:57.537 Andrew, dozvoli da te pitam ovo: 0:08:59.310,0:09:00.230 Pretpostavimo, 0:09:02.050,0:09:04.455 stojeći na mostu kraj tog debelog čovjeka, 0:09:04.809,0:09:05.969 ne moram ga gurnuti, 0:09:05.969,0:09:11.728 pretpostavimo da stoji na poklopcu[br]koji mogu otvoriti okrećući neki kotač, ovako. 0:09:17.140,0:09:18.380 Biste li ga okrenuli? 0:09:18.690,0:09:22.502 Iz nekog razloga to izgleda[br]još više pogrešno. 0:09:23.859,0:09:28.200 Mislim, možda ako bi se slučajno naslonili[br]na taj kotač ili tako nešto. 0:09:30.899,0:09:35.676 Ili recimo da tramvaj leti prema[br]sklopci koja će otvoriti poklopac, 0:09:37.569,0:09:39.140 onda bih se mogao složiti s tim. 0:09:39.140,0:09:42.052 Pošteno, to još uvijek izgleda pogrešno 0:09:42.230,0:09:45.124 na način na koji nije izgledalo[br]u prvom slučaju skretanja. 0:09:46.110,0:09:50.069 I na još jedan način, u prvoj situaciji[br]vi ste direktno uključeni u situaciju, 0:09:50.419,0:09:52.232 u drugoj ste samo promatrač, 0:09:52.450,0:09:55.818 pa imate izbor da se uključite ili ne[br]guranjem debelog čovjeka. 0:09:55.958,0:09:58.588 Zaboravimo na trenutak na ovaj slučaj. 0:10:01.269,0:10:05.700 Zamislimo drugačiji slučaj.[br]Ovaj puta vi ste doktor na hitnoj 0:10:06.160,0:10:09.117 i dolazi vam šest pacijenata. 0:10:11.249,0:10:14.796 Stradali su u groznom[br]prometnom udesu tramvaja. 0:10:18.240,0:10:21.719 Njih pet zadobilo je srednje teške povrede,[br]jedan je u kritičnom stanju, 0:10:21.719,0:10:26.000 trebao bi vam cijeli dan[br]da se pobrinete za kritično povrijeđenog, 0:10:27.260,0:10:29.610 no za to vrijeme onih pet bi umrlo. 0:10:29.650,0:10:35.880 Ili se možete pobrinuti za tu petoricu,[br]ali za to vrijeme onaj kritični bi umro. 0:10:36.470,0:10:40.363 Koliko vas bi spasilo petoricu[br]da ste doktor? 0:10:40.850,0:10:42.772 Koliko bi vas bi spasilo jednoga? 0:10:44.480,0:10:47.635 Vrlo malo ljudi,[br]samo šačica ljudi. 0:10:49.089,0:10:51.259 Isti razlog, pretpostavljam? 0:10:51.440,0:10:53.372 Jedan život nasuprot pet? 0:10:55.570,0:10:58.422 Sada razmotrite slučaj drugog doktora. 0:10:58.890,0:11:01.543 Ovaj puta vi ste kirurg za transplantacije, 0:11:02.080,0:11:05.655 imate 5 pacijenata i svakom je[br]očajnički nužna 0:11:06.159,0:11:08.847 transplantacija organa kako bi preživio. 0:11:09.639,0:11:14.122 Jednom treba srce, jednom pluća,[br]jednom bubreg, jednom jetra 0:11:15.130,0:11:17.535 i petom gušterača. 0:11:20.210,0:11:22.081 Ali nemate nijednog darivatelja organa. 0:11:22.779,0:11:26.229 Uskoro ćete ih gledati kako umiru. 0:11:27.649,0:11:29.671 A onda vam sine, 0:11:30.649,0:11:34.800 da je u sobi do zdravi mladić[br]koji je došao na pregled. 0:11:43.470,0:11:44.940 Sviđa vam se to? 0:11:46.469,0:11:48.946 I on je zadrijemao, 0:11:53.269,0:11:55.413 mogli biste potiho ući, 0:11:56.769,0:11:59.548 iščupati mu pet organa,[br]ta osoba bi umrla, 0:12:00.600,0:12:02.490 ali mogli biste spasiti petoricu. 0:12:03.169,0:12:04.554 Koliko bi vas to učinilo? 0:12:06.971,0:12:07.971 Itko? 0:12:10.229,0:12:12.546 Koliko? Dignite ruke, ako bi to učinili. 0:12:17.820,0:12:19.250 Netko na balkonu? 0:12:20.465,0:12:21.465 Vi bi? 0:12:21.790,0:12:24.230 Budite oprezni,[br]ne naginjite se previše. 0:12:26.709,0:12:28.190 Koliko ne bi? 0:12:29.340,0:12:30.360 U redu. 0:12:30.760,0:12:35.228 Što vi kažete, govorite vi sa balkona[br]koji bi iščupali organe, zašto? 0:12:35.840,0:12:38.629 Ja bi zapravo htio razmotriti[br]malo drugačiju mogućnost, 0:12:38.629,0:12:41.358 tako da uzmem jednog od onih[br]kojima treba organ, 0:12:41.358,0:12:42.888 koji će prvi umrijeti 0:12:43.108,0:12:46.619 i iskoristio bi njegova četiri zdrava[br]organa da spasim ostalu četvoricu. 0:12:49.920,0:12:51.909 To je prilično dobra ideja. 0:12:54.389,0:12:55.943 To je sjajna ideja, 0:12:57.830,0:12:59.189 osim činjenice 0:13:00.159,0:13:03.108 da ste upravo upropastili filozofsku poantu. 0:13:06.159,0:13:09.240 Odmaknimo se malo [br]od ovih priča i argumenata. 0:13:10.240,0:13:15.897 da uočimo nekoliko stvari u načinu[br]kako su se argumenti počeli razvijati. 0:13:17.199,0:13:22.062 Određeni moralni principi[br]već su se počeli pojavljivati 0:13:23.340,0:13:24.919 u diskusijama koje smo vodili. 0:13:25.879,0:13:30.439 Pa hajde da vidimo koji su to[br]moralni principi. 0:13:31.250,0:13:35.215 Prvi moralni princip koji se pojavio[br]u diskusiji kaže 0:13:35.710,0:13:38.550 ispravna stvar, moralna stvar[br]koju treba učiniti 0:13:38.610,0:13:43.899 ovisi o posljedicama kojima će rezultirati[br]vaše djelovanje. 0:13:45.480,0:13:48.650 Na kraju dana, bolje je da prežive petorica 0:13:49.140,0:13:51.160 čak i ako jedan mora umrijeti. 0:13:51.950,0:13:57.360 To je primjer konsekvencijalističkog[br]moralnog rasuđivanja. 0:13:58.710,0:14:03.110 Konsekvencijalističko moralno rasuđivanje[br]locira moralnost u posljedicama nekog čina 0:14:03.160,0:14:07.235 u stanju svijeta koji će biti rezultat[br]onoga što učinite. 0:14:08.779,0:14:11.989 Ali onda smo otišli malo dalje[br]razmatrajući druge slučajeve 0:14:12.789,0:14:14.438 i ljudi nisu baš bili sigurni 0:14:14.960,0:14:18.385 u konsekvencijalistčko moralno[br]rasuđivanje. 0:14:20.529,0:14:24.745 Kad su oklijevali gurnuti debelog čovjeka[br]s mosta 0:14:25.789,0:14:28.778 ili iščupati organe nevinog pacijenta, 0:14:29.330,0:14:32.529 ljudi su ukazivali na razloge 0:14:33.839,0:14:39.589 povezane s intrinzičnom kvalitetom[br]samog čina, 0:14:39.800,0:14:42.154 kakve god mogle biti posljedice. 0:14:42.439,0:14:44.172 Ljudi su se opirali, 0:14:44.819,0:14:48.539 ljudi su mislili da je to jednostavno pogrešno,[br]kategorički pogrešno, 0:14:49.480,0:14:56.274 ubiti osobu, nevinu osobu,[br]čak i u ime spašavanja pet života. 0:14:56.284,0:15:02.964 Bar su tako ljudi mislili u drugoj verziji[br]priča koje smo razmatrali. 0:15:05.420,0:15:11.065 To ukazuje na drugi kategorički način 0:15:12.617,0:15:15.567 razmišljanja o moralnom rasuđivanju. 0:15:15.749,0:15:18.639 Kategoričko moralno rasuđivanje[br]postavlja moralnost 0:15:18.814,0:15:21.304 u određene apsolutne moralne zahtjeve, 0:15:21.354,0:15:25.718 određene kategoričke dužnosti i prava[br]bez obzira na posljedice. 0:15:27.440,0:15:30.490 U danima i tjednima pred nama[br]istraživat ćemo 0:15:30.680,0:15:35.163 razlike između konsekvencijalističkih[br]i kategoričkih moralnih principa. 0:15:36.539,0:15:42.650 Najutjecajniji primjer konsekvencijalističkog[br]moralnog rasuđivanja je utilitarizam, 0:15:42.959,0:15:48.929 doktrina koju je razvio Jeremy Bentham,[br]engleski političkii filozof 18. stoljeća. 0:15:51.100,0:15:56.319 Najvažniji filozof kategoričkog[br]moralnog rasuđivanja 0:15:56.619,0:16:01.472 je Emmanuel Kant,[br]njemački filozof 18. stoljeća. 0:16:02.590,0:16:06.221 Stoga ćemo razmotriti ova dva[br]različita načina moralnog rasuđivanja 0:16:07.259,0:16:09.709 procijeniti ih[br]i također razmotriti druge. 0:16:10.669,0:16:15.239 Ako pogledate nastavni program, primijetit[br]ćete da čitamo niz sjajnih i čuvenih knjiga, 0:16:15.650,0:16:21.910 knjige Aristotela, Johna Lockea,[br]Immanuela Kanta, Johna Stewarta Milla 0:16:22.080,0:16:22.983 i drugih. 0:16:24.029,0:16:27.749 Također ćete primijetiti u programu[br]da ne čitamo samo te knjige, 0:16:28.169,0:16:30.447 bavimo se također 0:16:31.039,0:16:36.040 suvremenim političkim i pravnim[br]kontraverzama koje potiču filozofska pitanja. 0:16:37.000,0:16:39.433 Diskutirat ćemo o jednakosti i nejednakosti, 0:16:39.820,0:16:41.420 afirmativnu akciju[br](pozitivnu diskriminaciju), 0:16:41.490,0:16:43.453 slobodu govora nasuprot[br]govora mržnje, 0:16:43.698,0:16:46.538 istospolne brakove,[br]vojnu obavezu, 0:16:46.799,0:16:48.960 spektar praktičnih pitanja. 0:16:49.770,0:16:54.545 Zašto? Ne tek da bi oživjeli[br]te apstraktne i daleke knjige, 0:16:55.350,0:16:58.450 već da rasvjetlimo, razotkrijemo,[br]kako filozofija utječe na 0:16:58.450,0:17:01.380 naše svakidašnje živote,[br]uključujući naše političke živote. 0:17:05.480,0:17:09.730 Zato ćemo čitati te knjige[br]i raspravljati o tim pitanjima 0:17:09.870,0:17:14.008 i vidjeti kako svaki od njih utječe[br]i rasvjetljava druge. 0:17:15.480,0:17:20.439 To može zvučati dosta privlačno,[br]ali ovdje vas moram upozoriti na nešto. 0:17:22.329,0:17:24.120 A upozorenje je sljedeće: 0:17:25.210,0:17:29.220 čitati ove knjige, na ovaj način, 0:17:31.549,0:17:33.428 kao vježbu u samo-spoznaji, 0:17:34.119,0:17:36.758 čitati ih na ovaj način[br]nosi određene rizike, 0:17:38.019,0:17:40.719 rizike koji su istovremeno [br]osobni i politički, 0:17:41.649,0:17:46.539 rizike koje poznaje svaki student[br]političke filozofije. 0:17:47.399,0:17:49.766 Ti rizici proizlaze iz činjenice 0:17:50.330,0:17:55.106 da nas filozofija uči i uznemiruje 0:17:56.400,0:17:59.430 suočavajući nas s onim [br]što već znamo. 0:18:01.390,0:18:02.620 Tu postoji jedna ironija, 0:18:03.390,0:18:08.424 teškoća ovog kolegija skriva se u činjenici[br]da vas uči ono što već znate. 0:18:09.789,0:18:15.059 To radi uzimajući ono što [br]znamo iz poznatih neupitnih okruženja, 0:18:16.470,0:18:18.544 i pretvarajući to u nešto nepoznato. 0:18:19.979,0:18:22.259 Na taj način su funkcionirali oni primjeri, 0:18:23.119,0:18:28.467 s hipotetičkim pretpostavkama s kojima smo[br]započinjali, mješavinom šaljivog i razboritog. 0:18:29.029,0:18:31.610 Jednako tako funkcioniraju i te[br]filozofske knjige. 0:18:31.650,0:18:36.380 Filozofija nas otuđuje od poznatog, 0:18:37.519,0:18:39.620 ne tako da nam daje nove informacije, 0:18:40.390,0:18:42.610 nego pozivajući i potičući 0:18:43.599,0:18:45.299 novi način opažanja, 0:18:47.420,0:18:49.010 ali, i tu je rizik, 0:18:49.970,0:18:53.109 jednom kada ono poznato[br]postane strano, 0:18:54.299,0:18:56.602 nikada više nije potpuno isto. 0:18:57.329,0:19:01.500 Samo-spoznaja je kao[br]izgubljena nevinost, 0:19:03.030,0:19:05.449 kako god uznemirujuća bila[br]kada ju nađete 0:19:06.029,0:19:08.209 nikada je više ne možete[br]od-misliti 0:19:09.720,0:19:11.102 ili ne-znati. 0:19:13.390,0:19:15.533 Ono što čini ovaj poduhvat teškim 0:19:17.259,0:19:18.841 ali također intrigantnim, 0:19:19.490,0:19:23.155 je to da je moralna i politička filozofija priča 0:19:25.400,0:19:28.654 i vi ne znate kuda će vas ta priča odvesti,[br]ali ono što znate 0:19:29.339,0:19:32.423 je da je to priča o vama. 0:19:34.410,0:19:36.269 To su osobni rizici. 0:19:37.079,0:19:39.055 A što je s političkim rizicima? 0:19:39.980,0:19:42.798 Jedan način predstavljanja kolegija[br]poput ovog 0:19:43.038,0:19:45.878 bio bi obećavajući vam da ćete[br]čitanjem ovih knjiga 0:19:46.370,0:19:47.919 i diskutiranjem o ovim pitanjima 0:19:48.069,0:19:50.680 postati bolji, odgovorniji građani. 0:19:51.769,0:19:54.510 Propitivat ćete presumpcije javnih politika, 0:19:54.510,0:19:57.109 brusiti svoje političke prosudbe, 0:19:57.289,0:20:00.524 postat ćete učinkovitiji sudionik[br]javnih zbivanja. 0:20:02.549,0:20:05.669 Ali to bi bilo nepotpuno i obmanjujuće[br]obećanje. 0:20:06.369,0:20:09.849 Politička fizofija uglavnom[br]ne funkcionira na taj način. 0:20:11.490,0:20:13.516 Morate dozvoliti mogućnost 0:20:14.430,0:20:17.760 da vas politička filozofija može[br]učiniti gorim građaninom, 0:20:18.809,0:20:19.789 a ne boljim, 0:20:21.390,0:20:26.469 ili barem gorim građaninom[br]prije no što vas učini boljim. 0:20:27.950,0:20:30.400 A to je zbog toga jer je filozofija 0:20:30.400,0:20:35.100 aktivnost koja udaljava i čak iscrpljuje. 0:20:36.199,0:20:39.071 A to vidite vraćajući se Sokratu; 0:20:39.560,0:20:41.480 ima jedan dijalog, Gorgija, 0:20:41.480,0:20:48.231 u kojem jedan od Sokratovih prijatelja,[br]Kalikle, pokušava odvratiti ga od filozofiranja. 0:20:49.620,0:20:53.040 Kalikle kaže Sokratu, 'Filozofija[br]je zgodna igračka, 0:20:54.400,0:20:57.600 ako se u nju upuštamo umjereno[br]u primjereno životno doba, 0:20:57.980,0:21:02.889 ali ako na njoj ustrajemo više no što treba,[br]ona je apsolutna propast,' 0:21:03.779,0:21:07.484 'Poslušaj moj savjet,' kaže Kalikle,[br]'ostavi se rasprave, 0:21:08.199,0:21:10.720 nauči vještine aktivnog života, 0:21:11.180,0:21:16.390 neka ti modeli ne budu ti ljudi koji[br]vrijeme provode u tim sitničavim igrama riječi, 0:21:16.880,0:21:21.220 već oni koji imaju dobro situiran život[br]i reputaciju i mnoge druge blagodati.' 0:21:22.079,0:21:26.038 Kalikle zapravo Sokratu kaže, 0:21:26.808,0:21:29.329 'Okani se filozofiranja, uozbilji se, 0:21:30.549,0:21:33.032 upiši se u poslovnu školu.' 0:21:35.170,0:21:37.215 I Kalikle je bio u pravu. 0:21:38.299,0:21:39.900 Bio je u pravu utoliko 0:21:39.900,0:21:46.308 što nas filozofija udaljava od konvencija,[br]utvrđenih postavki i prihvaćenih vjerovanja. 0:21:46.750,0:21:49.508 To su rizici, osobni i politički, 0:21:49.970,0:21:53.439 a unatoč tim rizicima[br]postoji karakteristično odstupanje, 0:21:54.089,0:21:56.260 ime tog odstupanja je skepticizam. 0:21:56.340,0:21:58.782 To je ideja, ide otprilike ovako: 0:21:58.990,0:22:02.000 nismo riješili, jednom zauvijek, 0:22:03.660,0:22:08.068 ni slučajeve ni principe o kojima smo[br]raspravljali na početku, 0:22:09.759,0:22:15.857 a kad Aristotel i Locke i Kant i Mill nisu[br]riješili ta pitanja nakon svih tih godina, 0:22:17.220,0:22:18.670 tko smo mi da mislimo 0:22:19.589,0:22:24.400 da ih mi, ovdje u Sanders Theatre[br]tijekom jednog semestra možemo riješiti? 0:22:26.430,0:22:31.690 Možda je samo stvar u tome[br]da svaka osoba ima vlastite principe 0:22:31.690,0:22:35.639 i ništa se više o tome nema za reći,[br]nikakvo rasuđivanje. 0:22:36.084,0:22:37.144 To je izbjegavanje. 0:22:37.630,0:22:39.100 Izbjegavanje skepticizmom 0:22:39.440,0:22:42.043 na što bih ja dao sljedeći odgovor: 0:22:42.660,0:22:46.530 Istina, o ovim pitanjima se rspravlja[br]već dugo vremena, 0:22:47.559,0:22:51.189 ali sam činjenica da se uvijek iznova[br]pojavljuju i ustraju, 0:22:52.700,0:22:56.581 može sugerirati da,[br]iako su u nekom smislu nemoguća, 0:22:57.169,0:22:59.426 neizbježna su u drugom. 0:22:59.799,0:23:02.002 A razlog zašto su neizbježna, 0:23:02.299,0:23:04.340 razlog zašto su neizbježna je 0:23:04.340,0:23:08.746 da mi svakoga dana živimo[br]odgovarajući na ta pitanja. 0:23:09.949,0:23:14.578 Zato skepticizam, dizanje ruku[br]i odustajanje od moralnog promišljanja, 0:23:16.130,0:23:17.468 nije rješenje. 0:23:18.279,0:23:22.540 Immanuel Kant vrlo dobro je opisao[br]problem sa skepticizmom kad je napisao: 0:23:22.860,0:23:25.458 'Skepticizam je počivalište[br]za ljudski razum 0:23:25.918,0:23:28.709 gdje može razmišljati o svojim[br]dogmatskim lutanjima, 0:23:29.099,0:23:32.380 ali nije mjesto za trajno obitavanje.' 0:23:33.069,0:23:35.739 'Jednostavno se pomiriti sa skepticizmom,'[br]pisao je Kant, 0:23:35.940,0:23:40.320 'nikada ne može biti dovoljno za[br]prevladavanje nemira razuma.' 0:23:42.660,0:23:49.140 Pokušao sam, kroz ove priče i argumente,[br]izložiti neki vid rizika i iskušenja 0:23:49.898,0:23:51.859 opasnosti i mogućnosti. 0:23:51.959,0:23:57.069 Zaključit ću rekavši:[br]da je cilj ovog kolegija 0:23:58.099,0:24:03.791 probuditi nemir razuma[br]i vidjeti kuda bi to moglo voditi. 0:24:04.380,0:24:05.498 Hvala vam. 0:24:15.440,0:24:18.828 U tako očajnoj situaciji morate učiniti[br]ono što morate da bi preživjeli. 0:24:19.078,0:24:20.729 Morate učiniti ono što morate? 0:24:20.989,0:24:22.509 Što morate, morate, baš tako. 0:24:22.789,0:24:29.792 Ako 19 dana niste ništa jeli,[br]netko se mora žrtvovati da bi ljudi preživjeli. 0:24:30.500,0:24:32.230 U redu, dobro je. Kako se zovete? 0:24:32.300,0:24:33.220 Marcus. 0:24:33.640,0:24:34.580 Što kažete Marcusu? 0:24:34.610,0:24:35.610 SLUČAJ KANIBALIZMA 0:24:44.569,0:24:48.086 Prošli puta smo započeli[br]s nekim pričama, 0:24:49.110,0:24:52.040 moralnim dilemama u vezi tramvaja. 0:24:52.699,0:24:54.159 i doktora 0:24:54.509,0:25:00.179 i zdravih pacijenata u opasnosti[br]da budu žrtve transplantacije organa. 0:25:00.910,0:25:05.490 Uočili smo dvije stvari[br]u vezi diskusija koje smo imali 0:25:06.560,0:25:09.123 Jedna se odnosi na način[br]na koji smo diskutirali. 0:25:09.899,0:25:13.136 Počelo je s našim prosudbama[br]u danim slučajevima. 0:25:13.569,0:25:16.625 Pokušali smo artikulirati razloge[br]odnosno principe 0:25:18.060,0:25:20.048 u podlozi naših prosudbi, 0:25:22.549,0:25:24.541 a onda, suočeni s novim slučajem 0:25:25.120,0:25:28.339 našli smo se preispitujući te principe 0:25:30.069,0:25:32.585 revidirajući svakog u svjetlu drugog. 0:25:34.019,0:25:37.873 I primijetili smo ugrađeno nastojanje[br]da ih uskladimo, 0:25:38.600,0:25:40.661 naše ocjene danih slučajeva 0:25:41.680,0:25:44.677 i principe koje bismo usvojili[br]nakon promišljanja. 0:25:46.359,0:25:50.110 Također smo uočili nešto u vezi[br]sadržaja argumenata 0:25:50.589,0:25:52.805 koji su se pojavili tokom diskusije. 0:25:55.250,0:26:00.859 Primijetili smo da smo ponekad u iskušenju[br]locirati moralnost nekog čina u posljedicama, 0:26:00.969,0:26:04.671 u rezultatima, u stanju svijeta[br]koji nastaje tim činom. 0:26:06.519,0:26:09.928 To smo nazvali konsekvencijalnim[br]moralnim rasuđivanjem. 0:26:11.690,0:26:14.319 No, primijetili smo također[br]da u nekim slučajevima 0:26:16.440,0:26:19.466 nismo se povodili samo rezultatima. 0:26:21.039,0:26:24.325 Ponekad mnogi od nas su osjećali 0:26:25.349,0:26:33.029 da ne samo posljedice, nego i intrinzična[br]kvaliteta čina ima moralnu važnost. 0:26:35.129,0:26:40.099 Neki ljudi su tvrdili da postoje određene[br]stvari koje su kategorički neispravne, 0:26:40.440,0:26:43.461 čak i ako donose dobar rezultat, 0:26:44.460,0:26:48.720 čak i ako spašavaju petoro ljudi[br]po cijenu jednog života. 0:26:49.788,0:26:56.315 Stoga smo suprotstavili konsekvencijalne[br]moralne principe kategoričkima. 0:26:57.920,0:27:01.000 Danas i sljedećih nekoliko dana 0:27:01.099,0:27:09.571 preispitat ćemo jednu od najutjecajnijih[br]verzija konsekvencijalističke teorije morala, 0:27:10.970,0:27:13.789 a to je filozofija utilitarizma. 0:27:15.729,0:27:20.563 Jeremy Bentham, engleski politički[br]filozof 18. stoljeća, 0:27:21.690,0:27:29.122 prvi je jasno sistematski izložio[br]utilitarističku teoriju morala, 0:27:32.210,0:27:37.612 a Benthamova ideja,[br]njegova ključna ideja, 0:27:38.190,0:27:40.000 vrlo je jednostavna 0:27:42.680,0:27:47.392 i moralno intuitivno vrlo dopadljiva. 0:27:48.220,0:27:51.085 Benthamova ideja je sljedeća: 0:27:51.589,0:27:55.791 ono što je ispravno učiniti,[br]što je pravedno učiniti, 0:27:57.419,0:28:01.997 je maksimizirati korisnost. 0:28:02.339,0:28:04.035 Što je mislio pod korisnost? 0:28:05.529,0:28:08.860 Pod korisnost je podrazumijevao ravnotežu 0:28:11.140,0:28:14.880 ugode i boli,[br]radosti i patnje. 0:28:16.538,0:28:20.590 Tako smo došli do principa[br]maksimiziranja korisnosti. 0:28:22.308,0:28:25.250 Započeo uočivši da svima nama, 0:28:26.088,0:28:27.440 svim ljudskim bićima, 0:28:27.750,0:28:30.320 upravljaju dva suverena gospodara, 0:28:31.040,0:28:32.468 bol i ugoda. 0:28:34.369,0:28:38.989 Mi ljudska bića volimo ugodu[br]i ne volimo bol 0:28:42.038,0:28:45.279 i zato bismo moralnost[br]morali bazirati 0:28:45.839,0:28:48.449 - bez obzira da li se radi[br]o našem vlastitom životu 0:28:48.940,0:28:54.177 ili kao zakonodavci ili građani [br]razmišljamo kakav bi trebao biti zakon - 0:28:57.029,0:29:05.069 - ispravno je da individualno ili kolektivno[br]djelujemo tako da maksimiziramo 0:29:05.838,0:29:08.771 sveopću razinu sreće. 0:29:11.369,0:29:14.947 Benthamov utilitarizam se ponekad[br]sažima sloganom: 0:29:15.430,0:29:17.844 'najveće dobro za najveći broj'. 0:29:18.869,0:29:22.255 S tim osnovnim principom korisnosti[br]pri ruci, 0:29:22.730,0:29:27.700 krenimo ga testirati i propitivati[br]kroz još jedan slučaj, 0:29:28.179,0:29:31.898 još jednu priču, ali ovoga puta[br]to nije hipotetska priča, 0:29:32.640,0:29:34.230 nego priča iz stvarnog života, 0:29:34.339,0:29:37.438 slučaj Kraljice protiv Dudley i Stevensa. 0:29:38.099,0:29:42.520 To je čuveni britanski pravni spor[br]iz 19. stoljeća 0:29:44.009,0:29:46.763 o kojem se mnogo raspravlja[br]na pravnim fakultetima. 0:29:47.348,0:29:49.869 Evo što se dogodilo: 0:29:50.059,0:29:55.896 - ukratko ću ispričati priču,[br]a onda bih želio čuti kako bi vi presudili 0:29:57.059,0:29:59.314 zamišljajući da ste vi porota. 0:30:03.989,0:30:07.243 Tadašnja priča u novinama[br]opisala je pozadinu. 0:30:08.819,0:30:12.370 Nikada nije bila ispričana[br]tužnija priča o udesu na moru 0:30:12.789,0:30:15.680 no što je priča preživjelih [br]sa broda Mignonette. 0:30:16.240,0:30:20.994 Brod je potonuo u Južnom Atlantiku[br]1300 milja od Cape Towna. 0:30:21.789,0:30:25.097 Imao je četiri člana posade,[br]Dudley je bio kapetan, 0:30:25.710,0:30:29.331 Stephens je bio prvi oficir,[br]Brooks je bio mornar. 0:30:29.890,0:30:34.559 Sve ljudi odličnog karaktera,[br]kako nam govori novinska priča. 0:30:35.819,0:30:40.919 Četvrti član posade bio je mali od palube,[br]Richard Parker star 17 godina. 0:30:42.689,0:30:45.679 On je bio siroče,[br]nije imao nikoga od obitelji 0:30:46.930,0:30:50.270 i to je bilo njegovo prvo[br]dulje putovanje morem. 0:30:51.410,0:30:55.570 Pošao je, kaže novinska priča,[br]unatoč savjetima svojih prijatelja, 0:30:56.730,0:31:02.187 pošao je u nadi mladenačke ambicije[br]da će putovanje napraviti od njega čovjeka. 0:31:02.940,0:31:04.690 Nažalost, nije mu bilo suđeno. 0:31:05.140,0:31:07.410 Činjenice slučaja nisu bile sporne, 0:31:07.639,0:31:10.321 val je udario u brod i Mignonette[br]je potonuo. 0:31:12.000,0:31:14.649 Četvoro članova posade[br]spasilo se u čamcu za spasavanje. 0:31:14.859,0:31:20.979 Jedina hrana koju su imali[br]bile su dvije konzerve konzervirane repe. 0:31:21.429,0:31:22.740 Bez pitke vode. 0:31:23.980,0:31:26.070 Prva tri dana nisu jeli ništa. 0:31:26.609,0:31:30.889 Četvrti dan otvorili su jednu[br]konzervu repe i pojeli je. 0:31:31.589,0:31:33.509 Sljedeći dan uhvatili su kornjaču. 0:31:33.980,0:31:37.330 Druga konzerva repe i kornjača 0:31:38.220,0:31:40.798 omogućili su im da prežive[br]sljedećih nekoliko dana 0:31:40.798,0:31:45.630 i onda osam dana nisu jeli ništa.[br]Bez hrane i bez vode. 0:31:46.529,0:31:49.529 Zamislite sebe u takvoj situaciji. 0:31:49.839,0:31:50.874 Što biste vi učinili? 0:31:52.479,0:31:54.062 Evo što su oni učinili. 0:31:55.119,0:31:59.993 Mali od palube Parker je sada već[br]ležao na dnu čamca za spasavanje, u ćošku, 0:32:00.630,0:32:04.621 jer se bio napio morske vode[br]protivno savjetima ostalih. 0:32:05.490,0:32:09.312 Bilo mu je zlo i izgledalo je da umire. 0:32:10.289,0:32:17.419 Devetnaestog dana Dudley, kapetan,[br]predložio je da svi izvlače lutriju, 0:32:17.768,0:32:21.979 da bi trebali vući slamke da vide[br]tko bi trebao umrijeti da spasi ostale. 0:32:23.489,0:32:28.059 Brooks je odbio,[br]nije mu se sviđala ideja o lutriji. 0:32:29.030,0:32:32.998 Ne znamo je li to bilo zbog toga[br]jer nije želio riskirati 0:32:33.238,0:32:36.084 ili jer je vjerovao u[br]kategoričke moralne principe. 0:32:36.869,0:32:39.887 No, u svakom slučaju,[br]slamke se nisu izvlačile. 0:32:41.860,0:32:44.643 Sljedeći dan još uvijek nije bilo[br]nijednog broda na vidiku 0:32:45.028,0:32:48.092 pa je Dudley rekao Brooksu[br]da odvrati pogled 0:32:48.470,0:32:52.833 i dao znak Stephensu[br]da bi bilo dobro da ubiju dječaka Parkera. 0:32:53.659,0:32:57.567 Dudley se pomolio,[br]rekao dječaku da je kucnuo njegov čas 0:32:58.480,0:33:02.362 i usmrtio ga perorezom[br]ubadajaći ga u vratnu venu. 0:33:03.220,0:33:09.070 Brooks se oporavio od svog prigovora savjesti[br]kako bi sudjelovao u podjeli jezive blagodati. 0:33:09.750,0:33:11.029 Četiri dana su se njih trojica hranila[br]tijelom i krvlju malog od palube. 0:33:11.029,0:33:15.230 0:33:15.230,0:33:17.220 Istinita priča. 0:33:17.220,0:33:19.390 I onda su bili spašeni. 0:33:19.390,0:33:22.840 Dudley opisuje njihovo spašavanje[br]u svom dnevniku; 0:33:22.839,0:33:24.678 0:33:24.679,0:33:27.570 zapanjujućim eufemizmom, citiram: 0:33:27.569,0:33:29.648 '24-tog dana dok smo doručkovali[br]konačno se pojavio brod.' 0:33:29.648,0:33:34.750 0:33:34.750,0:33:38.599 0:33:38.599,0:33:44.309 Trojicu preživjelih pokupio je njemački brod[br]i odveo natrag u Falmouth u Engleskoj 0:33:44.309,0:33:47.079 gdje su uhapšeni i suđeni. 0:33:47.079,0:33:47.829 Brooks je postao zaštićeni svjedok,[br]Dudley i Stephensu se sudilo. 0:33:47.829,0:33:49.949 0:33:49.950,0:33:54.450 Oni nisu osporavali činjenice,[br]tvrdili su da su postupali u krajnjoj nuždi. 0:33:54.450,0:33:55.390 0:33:55.390,0:33:58.140 0:33:58.140,0:33:59.430 To je bila njihova obrana. 0:33:59.430,0:34:01.220 Tvrdili su u suštini da je bolje[br]da jedan umre da bi trojica preživjela. 0:34:01.220,0:34:03.250 0:34:03.250,0:34:06.420 0:34:06.420,0:34:08.619 Tužilac nije bio uvjeren ovim argumentom,[br]rekao je da je ubojstvo, ubojstvo 0:34:08.619,0:34:10.849 0:34:10.849,0:34:12.509 0:34:12.509,0:34:16.429 i tako je slučaj dospio pred sud. 0:34:16.429,0:34:19.489 Zamislite da ste vi porota, 0:34:19.489,0:34:21.989 a da bismo pojednostavili diskusiju, 0:34:21.989,0:34:23.010 ostavite po strani pitanje zakona[br]i pretpostavimo da ste vi kao porota 0:34:23.010,0:34:25.879 0:34:25.878,0:34:28.278 zaduženi da odlučite da li je ono što[br]su učinili moralno dopustivo ili nije. 0:34:28.278,0:34:31.009 0:34:31.009,0:34:34.378 0:34:34.378,0:34:36.608 Koliko bi vas glasalo 'nisu krivi', 0:34:36.608,0:34:39.808 0:34:39.809,0:34:46.809 da je ono što su učinili[br]moralno dopustivo? 0:34:49.528,0:34:51.639 A koliko bi vas glasalo 'krivi',[br]ono što su učinili je moralno neispravno? 0:34:51.639,0:34:54.858 0:34:54.858,0:34:57.998 Prilično znatna većina. 0:34:57.998,0:35:03.808 Da vidimo sada razloge, [br]a započet ću s onima u manjini. 0:35:03.809,0:35:07.739 Da čujemo prvo obranu [br]Dudleya i Stephensa. 0:35:07.739,0:35:10.099 0:35:10.099,0:35:14.160 Zašto bi ih oslobodili krivnje? 0:35:14.159,0:35:17.989 Koji su vaši razlozi? 0:35:17.989,0:35:20.798 Mislim da to zaslužuje moralnu osudu, 0:35:20.798,0:35:24.349 ali također da postoji razlika između[br]moralno nedopustivog 0:35:24.349,0:35:26.609 i onog što nekog čini pravno odgovornim. 0:35:26.608,0:35:30.690 Drugim riječima, kao što je rekao sudac,[br]nemoralno nije nužno protiv zakona, 0:35:30.690,0:35:34.789 pa iako ne mislim da nužnost opravdava[br]krađu ili ubojstvo ili bilo koji nezakoniti čin, 0:35:34.789,0:35:36.169 0:35:36.168,0:35:38.578 0:35:38.579,0:35:43.509 u nekom času stupanj nužnosti ustvari[br]vas oslobađa krivnje. 0:35:43.509,0:35:45.849 0:35:45.849,0:35:50.588 Drugi branitelji, drugi glasovi u obrani? 0:35:50.588,0:35:53.038 Moralna opravdanja za ono[br]što su učinili? 0:35:53.039,0:35:56.989 0:35:56.989,0:35:57.619 0:35:57.619,0:35:58.798 0:35:58.798,0:35:59.570 Meni se čini u tako očajnoj situaciji morate[br]činiti ono što morate kako bi preživjeli. 0:35:59.570,0:36:03.139 0:36:03.139,0:36:04.679 Morate učiniti ono što morate? 0:36:04.679,0:36:06.789 Morate učiniti što morate, tako je. 0:36:06.789,0:36:07.849 Ako ste izdržali 19 dana bez hrane 0:36:07.849,0:36:09.899 0:36:09.898,0:36:14.710 netko se jednostavno mora žrtvovati[br]da ljudi mogu preživjeti. 0:36:14.710,0:36:16.139 I štoviše, recimo da su preživjeli i postali[br]produktivni članovi društva 0:36:16.139,0:36:21.299 koji odu kući i, na primjer, dobrotvorne[br]organizacije i svašta drugo za opću dobrobit. 0:36:21.300,0:36:26.230 0:36:26.230,0:36:28.519 Ja ne znam što su oni radili poslije,[br]možda su ubili još ljudi ... 0:36:28.519,0:36:30.478 0:36:30.478,0:36:32.889 0:36:32.889,0:36:35.708 Što ako su otišli kući i postali ubojice? 0:36:35.708,0:36:38.908 Što ako su otišli kući i postali ubojice? 0:36:38.909,0:36:42.878 Ne biste željeli znati koga su ubili? 0:36:42.878,0:36:45.848 Istina, to je fer. 0:36:45.849,0:36:49.609 Ne bih želio znati koga su ubili. 0:36:49.608,0:36:50.708 Dobro je, kako se zovete?[br]Marcus. 0:36:50.708,0:36:52.489 Čuli smo obranu,[br]par glasova u obrani, 0:36:52.489,0:36:54.050 0:36:54.050,0:36:55.660 sada treebamo čuti tužiteljstvo. 0:36:55.659,0:36:57.298 0:36:57.298,0:36:59.338 Većina ljudi misli da je ono[br]što su učinili neispravno, Zašto? 0:36:59.338,0:37:05.068 0:37:05.068,0:37:09.898 Jedna od prvih stvari koju sam ja pomislila[br]bilo je, 0:37:09.898,0:37:11.409 'Pa, dobro, nisu jako dugo jeli, 0:37:11.409,0:37:12.469 pa su možda mentalno oštećeni 0:37:12.469,0:37:15.139 0:37:15.139,0:37:16.408 pa se to može iskoristiti za obranu,[br]mogući argument 0:37:16.409,0:37:20.619 0:37:20.619,0:37:24.179 da nisu bili prisebni i donosili su odluke[br]koje inače ne bi, 0:37:24.179,0:37:28.519 a ako je to prihvatljiv argument, 0:37:28.518,0:37:33.608 da morate biti u stanju promijenjene svijesti[br]da bi učinili tako nešto, 0:37:33.608,0:37:36.108 to navodi da ljudi koji taj argument[br]smatraju uvjerljivim 0:37:36.108,0:37:40.088 zaista misle da postupaju nemoralno ... 0:37:40.088,0:37:41.248 Ali ja želim znati što vi mislite.[br]Vi ih branite ... 0:37:45.548,0:37:49.449 Vi ste za to da budu optuženi, zar ne? 0:37:49.449,0:37:51.088 Ja ne mislim da su postupali[br]na moralno prihvatljiv način ... 0:37:51.088,0:37:52.909 A zašto ne? Što kažete ...[br]Tu je Marcus, on ih je upravo branio. 0:37:52.909,0:37:53.880 On je rekao, čuli ste što je rekao, 0:37:53.880,0:37:55.249 0:37:55.248,0:37:56.558 0:37:56.559,0:38:00.119 da morate učiniti ono što morate[br]u takvoj situaciji. 0:38:00.119,0:38:04.789 Što ćete mu odgovoriti? 0:38:04.789,0:38:06.439 0:38:06.438,0:38:13.438 Da ne postoji situacija u kojoj bi [br]ljudima bilo dozvoljeno da uzmu 0:38:13.579,0:38:17.959 ideju sudbine ili živote drugih ljudi[br]u svoje ruke, 0:38:17.958,0:38:19.328 da mi nemamo tu vrstu moći. 0:38:19.329,0:38:21.399 Dobro, u redu, hvala.[br]Kako se vi zovete? 0:38:21.398,0:38:24.130 Britt. 0:38:24.130,0:38:24.548 Tko još? 0:38:24.548,0:38:26.028 Što vi kažete? Ustanite. 0:38:26.028,0:38:28.159 Pitam se da li su Dudley i Stephens[br]tražili Parkerov pristanak na umiranje. 0:38:28.159,0:38:35.159 0:38:35.429,0:38:37.568 I da li bi ih to oslobodilo krivnje[br]za aktivno ubojstvo? 0:38:37.568,0:38:41.228 0:38:41.228,0:38:45.448 I ako je tako, da li je to još uvijek[br]moralno opravdano? 0:38:45.449,0:38:51.720 Zanimljivo, pristanak.[br]Čekajte, kako se vi zovete? 0:38:51.719,0:38:56.088 Kathleen. 0:38:56.088,0:38:56.619 Kathleen kaže, pretpostavimo ... 0:38:56.619,0:39:00.410 Kako bi izgledao taj scenario? 0:39:00.409,0:39:02.608 Tu je Dudley, perorez u ruci,[br]ali umjesto molitve, ili prije molitve, 0:39:02.608,0:39:04.588 0:39:04.588,0:39:07.599 kaže, 'Parker, bi li smetalo, 0:39:07.599,0:39:11.519 mi smo očajno gladni, 0:39:11.518,0:39:14.348 - s čim Marcus suosjeća - 0:39:14.349,0:39:17.679 0:39:17.679,0:39:19.769 očajno smo gladni, 0:39:19.768,0:39:22.168 ti ionako nećeš dugo, 0:39:22.168,0:39:23.498 - mogao bi biti mučenik - 0:39:23.498,0:39:25.748 bili bio mučenik,[br]što misliš o tome, Parker?' 0:39:25.748,0:39:29.468 0:39:29.469,0:39:33.220 Što mislite, bi li tada bilo[br]moralno opravdano? 0:39:33.219,0:39:37.639 0:39:37.639,0:39:38.219 Pretpostavimo da Parker,[br]napola pri svijesti, 0:39:38.219,0:39:40.168 0:39:40.168,0:39:42.498 kaže - ok. 0:39:42.498,0:39:47.889 Ne mislim da bi bilo moralno opravdano,[br]ali pitam se ... 0:39:47.889,0:39:50.650 Čak i tada, ne bi bilo? 0:39:50.650,0:39:52.490 Ne. 0:39:52.489,0:39:54.568 Vi mislite da čak i sa njegovim pristankom[br]to ne bi bilo moralno opravdano? 0:39:54.568,0:39:56.369 Ima li ljudi koji misle ... 0:39:56.369,0:39:57.200 koji žele preuzeti Kathleeninu[br]ideju pristanka 0:39:57.199,0:40:01.688 i koji misle da bi to tada bilo[br]moralno opravdano? 0:40:01.688,0:40:05.868 Dignite ruke, ako bi bilo?[br]Ako mislite da bi bilo? 0:40:05.869,0:40:07.588 To je vrlo zanimljivo. 0:40:07.588,0:40:09.168 Zašto bi pristanak[br]predstavljao moralnu razliku? 0:40:09.168,0:40:15.888 Zašto bi? 0:40:15.889,0:40:18.509 Ja samo mislim ako je to njegova[br]vlastita originalna ideja, 0:40:18.509,0:40:20.969 njegova ideja od početka, 0:40:20.969,0:40:23.778 onda bi to bila jedina situacija[br]u kojoj bi ja to smatrala prihvatljivim. 0:40:23.778,0:40:25.940 Jer na taj način ne možete tvrditi[br]da je bio pod pritiskom. 0:40:28.358,0:40:30.579 Zante, tri protiv jednoga[br]ili bilo koji omjer bio. 0:40:30.579,0:40:32.759 0:40:32.759,0:40:34.070 I mislim ako on odlučuje da daje svoj život,[br]onda je njegova volja da se žrtvuje, 0:40:34.070,0:40:38.009 0:40:38.009,0:40:42.668 što neki ljudi mogu smatrati [br]vrijednim divljenja, 0:40:42.668,0:40:45.449 a drugi se mogu ne slagati s tom odlukom. 0:40:45.449,0:40:49.099 Dakle, ako je on nadošao na tu ideju, 0:40:49.099,0:40:52.820 to je jedina vrsta pristanka[br]u koju se možemo pouzdati, moralno, 0:40:52.820,0:40:55.359 onda bi to bilo u redu? 0:40:55.358,0:40:57.268 0:40:57.268,0:40:59.788 U protivnom bilo bi to nešto kao[br]iznuđeni pristanak u tim okolnostima, 0:40:59.789,0:41:01.469 mislite? 0:41:01.469,0:41:05.278 0:41:05.278,0:41:07.349 Da li itko misli da čak i [br]Parkerov pristanak 0:41:07.349,0:41:10.979 0:41:10.978,0:41:13.419 ne bi opravdao njihovo ubojstvo? 0:41:13.420,0:41:15.479 0:41:15.478,0:41:18.088 Tko tako misli? 0:41:18.088,0:41:19.538 Recite nam zašto, ustanite. 0:41:19.539,0:41:21.260 Mislim da bi Parker bio ubijen u nadi[br]da će drugi članovi posade biti spašeni, 0:41:21.260,0:41:22.319 0:41:22.318,0:41:26.558 0:41:26.559,0:41:29.250 pa onda nema definitivnog razloga[br]da on bude ubijen 0:41:29.250,0:41:31.199 jer ne znate kada će oni biti spašeni. 0:41:31.199,0:41:35.809 Pa ako ga ubijete i to bude uzalud, 0:41:35.809,0:41:38.039 hoćete li nastaviti ubijati članove [br]posade i na kraju nitko neće ostati? 0:41:38.039,0:41:40.309 Jer netko će na koncu umrijeti. 0:41:40.309,0:41:44.199 Pa, moralna logika situacije[br]izgleda da je takva. 0:41:44.199,0:41:45.829 Da bi oni nadalje odabirali najslabije,[br]jednog po jednog, 0:41:45.829,0:41:50.318 0:41:50.318,0:41:51.818 dok ne bi bili spašeni. 0:41:51.818,0:41:57.679 A u ovom slučaju, na sreću, bili su spašeni[br]kad ih još bar troje bilo živo. 0:41:57.679,0:41:58.880 Da je Parker da svoj pristanak, 0:41:58.880,0:42:01.298 0:42:01.298,0:42:04.068 bili tada bilo u redu ili ne? 0:42:04.068,0:42:06.329 Ne, još uvijek ne bi bilo u redu. 0:42:06.329,0:42:08.030 Recite nam zašto ne bi bilo u redu? 0:42:08.030,0:42:10.028 Prije svega ja vjerujem da je kanibalizam[br]moralno neispravan 0:42:10.028,0:42:13.228 0:42:13.228,0:42:14.509 i ne biste smjeli jesti[br]ljudsko biće ni u kom slučaju. 0:42:14.510,0:42:17.449 0:42:17.449,0:42:19.380 Dakle, kanibalizam je moralno nedopušten[br]izvan ... 0:42:19.380,0:42:22.400 Dakle, čak i u scenariju[br]u kojem bi se čekalo da netko umre 0:42:22.400,0:42:24.568 0:42:24.568,0:42:27.018 još uvijek bi to bilo nedopušteno? 0:42:27.018,0:42:27.929 Da, za mene osobno. 0:42:27.929,0:42:29.739 Čini mi se da to sve ovisi[br]o osobnom moralu. 0:42:29.739,0:42:31.199 0:42:31.199,0:42:35.288 To je tek moje mišljenje. 0:42:35.289,0:42:39.339 Naravno, drugi ljudi se neće složiti ... 0:42:39.338,0:42:41.498 Pa da vidimo, da čujemo koja su [br]njihova neslaganja 0:42:41.498,0:42:42.639 i onda ćemo vidjeti da li imaju[br]dovoljne razloge da vas razuvjere. 0:42:42.639,0:42:44.259 0:42:44.259,0:42:46.228 0:42:46.228,0:42:48.358 0:42:48.358,0:42:50.098 0:42:50.099,0:42:53.249 Ima li netko tko bi mogao objasniti,[br]vi koji ste skloni pristanku, 0:42:53.248,0:42:57.908 0:42:57.909,0:42:59.778 možete li objasniti zašto pristanak[br]čini takvu moralnu razliku. 0:42:59.778,0:43:02.028 0:43:02.028,0:43:03.358 0:43:03.358,0:43:05.650 Što je s idejom lutrije? 0:43:05.650,0:43:08.930 Da li se to računa kao pristanak? 0:43:08.929,0:43:11.308 Sjetite se, na početku Dudley je[br]predložio lutriju. 0:43:11.309,0:43:13.839 Pretpostavimo da su se složili[br]s lutrijom, 0:43:13.838,0:43:16.338 0:43:16.338,0:43:17.369 0:43:17.369,0:43:20.798 koliko vas bi tada reklo,[br]to je bilo u redu. 0:43:20.798,0:43:23.929 Pretpostavimo da su vukli slamku,[br]mali od palube je izgubio i priča ide dalje. 0:43:23.929,0:43:25.380 0:43:25.380,0:43:32.380 Koliko ljudi bi reklo[br]da je bilo moralno dopušteno? 0:43:33.199,0:43:37.030 Brojevi rastu kad dodamo lutriju.[br]Da čujemo jednog od vas 0:43:37.030,0:43:41.609 za kojega bi lutrija činila[br]moralnu razliku? 0:43:41.608,0:43:43.458 Zašto bi? 0:43:43.458,0:43:44.739 Mislim da ključni element koji[br]po meni to čini zločinom 0:43:44.739,0:43:45.718 0:43:45.719,0:43:47.858 0:43:47.858,0:43:53.848 je ideja da su oni u jednom času odlučili[br]da su njihovi životi važniji od njegovog, 0:43:53.849,0:43:56.609 a mislim da je to zapravo[br]osnova svakog zločina. 0:43:56.608,0:43:57.688 To je kao: moje potrebe, moje želje[br]važnije su od tvojih i moje imaju prednost. 0:43:57.688,0:44:01.949 A da su imali lutriju gdje su svi suglasni[br]da netko mora umrijeti 0:44:01.949,0:44:04.798 0:44:04.798,0:44:06.478 0:44:06.478,0:44:09.239 to je onda kao da se svi žrtvuju[br]da spase ostale. 0:44:09.239,0:44:11.008 0:44:11.009,0:44:12.949 Onda bi to bilo u redu? 0:44:12.949,0:44:15.880 Malo groteskno, ali ... 0:44:15.880,0:44:18.959 Ali moralno prihvatljivo? 0:44:18.958,0:44:22.688 Da. 0:44:22.688,0:44:25.578 A kako se ti zoveš? 0:44:25.579,0:44:27.329 Matt. 0:44:27.329,0:44:31.389 Znači Matt ono što tebe muči nije kanibalizam[br]nego izostanak propisanog postupka? 0:44:31.389,0:44:34.689 Pretpostavljam da bi se moglo tako reći. 0:44:34.688,0:44:38.170 A može li netko, tko se slaže s Mattom 0:44:38.170,0:44:40.499 reći malo više o tome zašto bi lutrija, 0:44:40.498,0:44:41.378 po vašem mišljenju, činila to[br]moralno dopustivim? 0:44:41.378,0:44:43.690 0:44:43.690,0:44:47.099 0:44:47.099,0:44:50.979 0:44:50.978,0:44:55.568 Kako sam ja to prvobitno razumijela,[br]malog od palube nikada nisu konzultirali 0:44:55.568,0:44:56.398 0:44:56.398,0:45:00.478 o tome da li će mu se ili ne,[br]nešto dogoditi, 0:45:00.478,0:45:01.088 čak ni da li će sudjelovati u lutriji, 0:45:01.088,0:45:04.420 jednostavno je bilo odlučeno[br]da je on taj koji će umrijeti. 0:45:04.420,0:45:08.170 Točno, to se dogodilo u stvarnom slučaju, 0:45:08.170,0:45:11.900 ali da je bila lutrija i svi su se složili[br]oko procedure, mislite da bi bilo u redu? 0:45:11.900,0:45:13.539 0:45:13.539,0:45:16.418 Točno, jer onda svi znaju [br]da će se dogoditi smrt, 0:45:16.418,0:45:17.079 dok mali od palube nije znao[br]čak ni da se vodi ta rasprava. 0:45:17.079,0:45:18.878 0:45:18.878,0:45:21.038 0:45:21.039,0:45:21.919 Nije bilo nikakvog upozorenja njemu 0:45:21.918,0:45:23.578 da bi znao: 'Hej, ja sam taj koji umire!'. 0:45:23.579,0:45:28.829 Dobro, pretpostavimo da se svi slažu[br]s lutrijom, lutrija se održi, 0:45:28.829,0:45:35.089 mali od palube gubi,[br]ali se predomisli. 0:45:35.088,0:45:40.989 Već ste odlučili, to je kao [br]usmeni ugovor, 0:45:40.989,0:45:45.139 ne možete odustati od toga,[br]odluka je donesena. 0:45:45.139,0:45:45.999 Da znate da umirete kako bi drugi[br]mogli živjeti vi bi ... 0:45:45.998,0:45:47.688 Da je umro netko drugi [br]znate da bi vi konzumirali njega, pa ... 0:45:47.688,0:45:51.969 0:45:51.969,0:45:57.429 Ali onda bi on mogao reći:[br]'Znam, ali ja sam izgubio.' 0:45:57.429,0:46:01.939 Ja samo mislim da je baš u tome[br]moralni spor, 0:46:01.938,0:46:04.298 da nije konzultiran mali od palube[br]i to je najjezivije 0:46:04.298,0:46:08.909 da on uopće nije imao pojma[br]što se zbiva. 0:46:08.909,0:46:10.599 Da je on znao što se zbiva[br]bilo bi malo razumljivije. 0:46:10.599,0:46:13.109 0:46:13.108,0:46:14.509 Dobro, sada želim čuti ... 0:46:14.510,0:46:17.049 Dakle, postoje neki koji misle 0:46:17.048,0:46:18.708 da je to moralno dopustivo,[br]ali samo oko 20% vas 0:46:18.708,0:46:24.048 0:46:24.048,0:46:26.559 na čelu s Marcusom. 0:46:26.559,0:46:28.439 Onda postoje neki koji kažu, 0:46:28.438,0:46:30.208 pravi problem ovdje je[br]izostanak suglasnosti, 0:46:30.208,0:46:32.838 bilo suglasnosti o lutriji, fer proceduri 0:46:32.838,0:46:37.139 ili, Katheenina ideja, [br]suglasnosti u času smrti. 0:46:37.139,0:46:38.588 0:46:38.588,0:46:39.690 0:46:39.690,0:46:40.749 0:46:40.748,0:46:42.928 0:46:42.929,0:46:45.139 0:46:45.139,0:46:48.318 A ako dodamo suglasnost onda je više ljudi[br]sklono žrtvu smatrati moralno opravdanom. 0:46:48.318,0:46:49.019 0:46:49.019,0:46:51.889 0:46:51.889,0:46:54.528 0:46:54.528,0:46:56.639 Sada bih na koncu želio čuti[br]one od vas koji misle 0:46:56.639,0:46:58.548 0:46:58.548,0:47:00.199 da čak i s pristankom,[br]čak i s lutrijom, 0:47:00.199,0:47:01.898 0:47:01.898,0:47:02.519 čak i s Parkerovim zadnjim[br]promrmljanim riječima suglasnosti, 0:47:02.519,0:47:04.579 0:47:04.579,0:47:06.950 0:47:06.949,0:47:08.018 u zadnjem času, 0:47:08.018,0:47:09.179 0:47:09.179,0:47:10.838 to biipak bilo neispravno. 0:47:10.838,0:47:12.639 I zašto bi to bilo neispravno? 0:47:12.639,0:47:14.248 0:47:14.248,0:47:16.998 To želim čuti. 0:47:16.998,0:47:18.818 Pa, cijelo vrijeme sam naginjala[br]kategoričkom moralnom rasuđivanju 0:47:18.818,0:47:22.639 0:47:22.639,0:47:25.568 i mislim da postoji mogućnost[br]da bi se složila s idejom lutrije 0:47:25.568,0:47:29.608 i da se onda gubitnik ubije sam, 0:47:29.608,0:47:31.440 0:47:31.440,0:47:32.749 0:47:32.748,0:47:33.679 0:47:33.679,0:47:37.358 tako da onda to ne bi bio čin ubojstva,[br]no ipak mislim da čak i na taj način 0:47:37.358,0:47:42.278 to je pod prisilom. 0:47:42.278,0:47:43.338 I također mislim da nema nikakvog kajanja 0:47:43.338,0:47:44.909 Kao što Dudley piše u svom dnevniku: [br]'Jeli smo svoj doručak.' 0:47:44.909,0:47:47.659 Izgleda kao da je on kao -Oh, ... 0:47:47.659,0:47:51.440 Znate, cijela ideja nevrednovanja[br]tuđeg života. 0:47:51.440,0:47:53.639 Eto zbog toga mi se čini da trebam[br]zauzeti kategorički stav. 0:47:53.639,0:47:57.969 Želite baciti knjigu na njega? 0:47:57.969,0:48:02.298 Zato što se ne kaje i nema osjećaj[br]da je učinio išta loše. 0:48:02.298,0:48:06.969 Točno. 0:48:06.969,0:48:08.769 Ima li još branitelja 0:48:08.768,0:48:13.268 koji kažu da je to jednostavno[br]kategorički neispravno, sa ili bez suglasnosti. 0:48:13.268,0:48:17.288 Da, ustanite. Zašto? 0:48:17.289,0:48:21.829 Mislim da nesumnjivo, kako je[br]oblikovano naše društvo, ubojstvo je ubojstvo 0:48:21.829,0:48:24.780 na svaki način, a naše društvo[br]na ubojstvo gleda uvijek jednako 0:48:24.780,0:48:27.119 i mislim da nema razlike[br]u bilo kojem slučaju. 0:48:27.119,0:48:30.489 Dobro, da vas pitam nešto? 0:48:30.489,0:48:33.028 Tri života su u pitanju,[br]nasuprot jednom, 0:48:33.028,0:48:34.509 taj jedan, mali od palube,[br]nije imao nikoga od obitelji, 0:48:34.509,0:48:38.739 nitko nije ovisio o njemu, 0:48:38.739,0:48:41.418 ova trojica su imala obitelji[br]kod kuće u Engleskoj, ovisili su o njima, 0:48:41.418,0:48:43.328 imali su žene i djecu. 0:48:43.329,0:48:44.989 Sjetite se Benthama. 0:48:44.989,0:48:48.048 Bentham kaže moramo uzeti u obzir[br]dobrobit, korisnost, sreću svakoga. 0:48:48.048,0:48:51.288 Moramo sve to zbrojiti, pa onda to nisu[br]samo brojevi tri prema jedan, 0:48:51.289,0:48:54.640 0:48:54.639,0:48:58.759 to su također svi ti ljudi kod kuće. 0:48:58.759,0:49:00.909 Ustvari, londonske novine toga vremena[br]i javno mnijenje suosjećali su s njima, 0:49:00.909,0:49:04.248 0:49:04.248,0:49:05.478 Dudleyem i Stephensom, 0:49:05.478,0:49:07.919 a novine su rekle - da nisu bili[br]motivirani ljubavlju i brigom 0:49:07.920,0:49:08.280 0:49:08.280,0:49:09.640 0:49:09.639,0:49:13.489 za svoje voljene kod kuće[br]sigurno to ne bi bili učinili. 0:49:13.489,0:49:15.969 Dobro, ali kako se to razlikuje od [br]ljudi na uglu 0:49:15.969,0:49:17.369 0:49:17.369,0:49:21.108 koji imaju istu želju da prehrane svoje[br]obitelji? Ja mislim da nema razlike. 0:49:21.108,0:49:25.279 Mislim da u svakom slučaju ako ja ubijem vas[br]da bi popravio svoj status, to je ubojstvo 0:49:25.280,0:49:28.430 i mislim da to trebamo gledati[br]u istom svjetlu. 0:49:28.429,0:49:30.278 Umjesto da kriminaliziramo[br]određene aktivnosti 0:49:30.278,0:49:33.760 i neke stvari prikazujemo više nasilne[br]i surovije 0:49:33.760,0:49:36.760 kad je u tom istom slučaju to isto,[br]sve je to isti čin 0:49:36.760,0:49:40.150 i mentalitet koji ide s ubojstvom,[br]potreba da se nahrane svoje obitelji. 0:49:40.150,0:49:43.028 Pretpostavimo da ih nije bilo tri,[br]pretpostavimo da ih je bilo 30, 300. 0:49:43.028,0:49:44.608 0:49:44.608,0:49:47.358 Jedan život da se spasi tri stotine. 0:49:47.358,0:49:48.349 Ili u vrijeme rata, tri tisuće ... 0:49:48.349,0:49:49.589 0:49:49.590,0:49:51.039 Ili pretpostavimo da su ulozi čak i veći. 0:49:51.039,0:49:52.778 Pretpostavimo da su ulozi[br]čak i veći. 0:49:52.778,0:49:54.608 Misllim da je to još uvijek ista stvar. 0:49:54.608,0:49:58.108 Mislite li da je Bentham imao krivo[br]kad je rekao da je ispravno postupati tako 0:49:58.108,0:49:58.929 da se zbroji skupna sreća? 0:49:58.929,0:50:02.479 Mislite da nije u pravu? 0:50:02.478,0:50:06.728 Ne mislim da je u krivu, ali mislim[br]da je ubojstvo ubojstvo u svakom slučaju. 0:50:06.728,0:50:09.568 Pa onda Bentham mora biti u krivu! 0:50:09.568,0:50:12.818 Ako ste vi u pravu, on je u krivu! 0:50:12.818,0:50:14.358 Dobro, on je u krivu. 0:50:14.358,0:50:16.389 U redu je, hvala vam, bilo je dobro. 0:50:16.389,0:50:19.728 Odmaknimo se od ove diskusije 0:50:19.728,0:50:23.259 i uočimo koliko smo prigovora čuli[br]u vezi onoga što su činili. 0:50:23.259,0:50:26.048 Čuli smo neke obrane[br]toga što su učinili. 0:50:26.048,0:50:28.509 Obrana se odnosi na potrebu,[br]njihove kobne okolnosti 0:50:28.509,0:50:28.918 0:50:28.918,0:50:32.588 0:50:32.588,0:50:33.409 i, barem implicitno, ideju[br]da su brojevi važni. 0:50:33.409,0:50:36.018 0:50:36.018,0:50:37.858 I ne samo da su važni brojevi,[br]nego su važni i širi učinci, 0:50:37.858,0:50:40.380 0:50:40.380,0:50:43.459 njihove obitelji kod kuće,[br]oni koji ovise o njima. 0:50:43.458,0:50:44.768 Parker je bio siroče,[br]nikome neće nedostajati. 0:50:44.768,0:50:47.978 0:50:47.978,0:50:49.578 Pa, ako sve zbrojite,[br]ako pokušate izračunati 0:50:49.579,0:50:50.829 0:50:50.829,0:50:52.649 0:50:52.648,0:50:53.998 bilancu sreće i patnje, 0:50:53.998,0:50:56.598 0:50:56.599,0:50:58.838 mogli biste imati osnovu da kažete[br]da je ono što su učinili ispravno. 0:50:58.838,0:51:02.768 0:51:02.768,0:51:09.468 Onda smo čuli bar tri različite[br]vrste prigovora. 0:51:09.469,0:51:11.690 Čuli prigovor koji kaže,[br]ono što su učinili kategorički je neispravno, 0:51:11.690,0:51:14.108 upravo ovdje, na kraju, 0:51:14.108,0:51:15.750 0:51:15.750,0:51:17.389 kategorički neispravno. 0:51:17.389,0:51:19.820 Ubojstvo je ubojstvo,[br]uvijek je neispravno, 0:51:19.820,0:51:20.969 čak i ako povećava ukupnu sreću[br]društva. 0:51:20.969,0:51:23.349 0:51:23.349,0:51:25.639 0:51:25.639,0:51:28.499 Kategorički prigovor, 0:51:28.498,0:51:30.738 No, još uvijek nam ostaje istražiti[br]zašto je ubojstvo kategorički neispravno. 0:51:30.739,0:51:32.749 0:51:32.748,0:51:35.448 0:51:35.449,0:51:38.579 Da li je to zato jer čak i mali od palube[br]imaju određena fundamentalna prava? 0:51:38.579,0:51:42.339 0:51:42.338,0:51:44.400 A ako je to razlog, 0:51:44.400,0:51:47.880 odakle proizlaze ta prava[br]ako ne iz ideje veće dobrobiti 0:51:47.880,0:51:53.209 ili korisnosti ili sreće? 0:51:53.208,0:51:56.308 Pitanje broj jedan. 0:51:56.309,0:51:58.449 Drugi su rekli, lutrija bi činila razliku,[br]fer procedura, 0:51:58.449,0:52:00.039 0:52:00.039,0:52:05.949 rekao je Matt. 0:52:05.949,0:52:08.769 I neki ljudi su naginjali tome. 0:52:08.768,0:52:12.188 To nije točno kategorički prigovor, 0:52:12.188,0:52:13.828 nego kaže, svi se trebaju računati[br]kao jednaki, 0:52:13.829,0:52:16.798 0:52:16.798,0:52:18.469 čak iako na koncu jedan može[br]biti žrtvovan za opću dobrobit. 0:52:18.469,0:52:20.769 0:52:20.768,0:52:23.288 0:52:23.289,0:52:26.059 To nam ostavlja još jedno pitanje[br]za istraživanje. 0:52:26.059,0:52:29.670 Zašto sporazum o određenoj proceduri,[br]čak i fer proceduri, 0:52:29.670,0:52:31.969 0:52:31.969,0:52:34.739 opravdava bilo koji rezultat[br]koji proizlazi iz izvođenja te procedure? 0:52:34.739,0:52:38.088 0:52:38.088,0:52:39.898 Pitanje broj dva. 0:52:39.898,0:52:42.398 I pitanje broj tri, 0:52:42.398,0:52:45.338 osnovna ideja pristanka. 0:52:45.338,0:52:48.528 Kathleen nas je navela na to. 0:52:48.528,0:52:52.719 Da se mali od palube složio samovoljno,[br]a ne pod pritiskom, 0:52:52.719,0:52:54.499 0:52:54.498,0:52:57.068 kao ššto je bilo dodano, 0:52:57.068,0:53:01.918 onda bi bilo u redu oduzeti mu život[br]da bi se spasili ostali. 0:53:01.918,0:53:04.900 Čak je više ljudi prihvatilo tu ideju, 0:53:04.900,0:53:06.630 ali iz toga proizlazi[br]treće filozofsko pitanje. 0:53:06.630,0:53:08.528 0:53:08.528,0:53:11.009 Kakvo je to moralno djelovanje[br]pristanka? 0:53:11.009,0:53:12.838 0:53:12.838,0:53:14.438 0:53:14.438,0:53:16.978 Zašto čin suglasnosti[br]čini takvu moralnu razliku 0:53:16.978,0:53:19.188 0:53:19.188,0:53:23.818 da jedan čin koji bi bio neispravan,[br]oduzimanje života, 0:53:23.818,0:53:25.369 bez suglasnosti je moralno dopustivo[br]uz suglasnost? 0:53:25.369,0:53:26.358 0:53:26.358,0:53:29.619 0:53:29.619,0:53:31.699 Da bismo razmotrili ta tri pitanja[br]morat ćemo čitati neke filozofe, 0:53:31.699,0:53:34.108 0:53:34.108,0:53:35.728 a od sljedećeg puta počet ćemo čitati[br]Benthama i Johna Stewarta Milla 0:53:35.728,0:53:36.939 filozofe utilitarizma. 0:53:36.940,0:53:37.720 0:53:37.719,0:53:43.798 0:53:43.798,0:53:47.298 0:53:43.798,0:53:47.298 0:53:49.869,0:53:56.869 0:54:36.219,0:54:40.269 0:54:40.268,0:54:41.678