0:00:04.200,0:00:08.240 Pravednost Michael Sandel 0:00:08.240,0:00:15.240 Moralna strana ubojstva 0:00:33.509,0:00:36.587 Ovo je kolegij o pravednosti[br]i započinjemo jednom pričom. 0:00:37.750,0:00:39.735 Pretpostavimo da ste vozač tramvaja 0:00:40.179,0:00:43.809 i vaš tramvaj juri tračnicama[br]90 km na sat, 0:00:44.640,0:00:48.741 a na kraju tračnica uočavate[br]pet radnika koji rade na pruzi. 0:00:49.390,0:00:52.972 Pokušavate stati, ali ne možete,[br]kočnice vam ne rade. 0:00:53.829,0:00:56.077 Očajni ste jer znate 0:00:56.780,0:01:01.090 da ako se zaletite u tih pet radnika,[br]svi će poginuti. 0:01:01.490,0:01:03.612 Pretpostavimo da to znate sa sigurnošću 0:01:05.079,0:01:06.703 i osjećate se bespomoćni 0:01:07.420,0:01:12.550 dok ne primijetite sporedni kolosijek[br]s desne strane 0:01:13.170,0:01:18.039 a na kraju tog kolosijeka je jedan radnik[br]koji radi na pruzi.[br] 0:01:19.079,0:01:25.326 Vaš upravljač radi pa možete[br]skrenuti tramvaj, ako želite, 0:01:26.010,0:01:27.912 na sporedni kolosijek, 0:01:28.680,0:01:31.751 i tako ubiti jednog radnika,[br]ali poštedivši petoricu. 0:01:33.269,0:01:35.199 Evo našeg prvog pitanja. 0:01:35.929,0:01:37.809 Kako ispravno postupiti? 0:01:38.819,0:01:40.478 Što biste vi učinili? 0:01:40.638,0:01:42.030 Hajde da provedemo anketu. 0:01:42.470,0:01:47.700 Koliko bi vas skrenulo tramvaj[br]na sporedni kolosijek? 0:01:47.850,0:01:49.030 Dignite ruke. 0:01:52.019,0:01:55.330 Koliko vas ne bi?[br]Koliko bi vas nastavilo ravno naprijed? 0:01:57.650,0:02:00.630 Ostavite podignute ruke, [br]oni koji bi išli ravno naprijed. 0:02:04.049,0:02:07.334 Šačica ljudi bi,[br]velika većina bi skrenula. 0:02:08.048,0:02:09.548 Da čujemo prvo ... 0:02:09.878,0:02:15.039 Sada moramo istražiti razloge[br]zašto mislite da je to ispravno učiniti. 0:02:15.089,0:02:20.769 Počnimo s većinom,[br]koja bi skrenula na sporedni kolosijek. 0:02:21.798,0:02:23.409 Zašto bi to učinili? 0:02:23.669,0:02:25.241 Koji bi bio vaš razlog? 0:02:25.688,0:02:28.569 Tko bi nam iznio svoj razlog? 0:02:29.808,0:02:31.838 Samo naprijed, ustanite. 0:02:32.218,0:02:37.916 Zato jer ne može biti ispravno ubiti petoro[br]kad možete ubiti jednoga, umjesto toga. 0:02:39.579,0:02:43.981 Ne bi bilo u redu ubiti petoricu,[br]ako možete ubiti samo jednog umjesto toga. 0:02:46.748,0:02:48.208 To je dobar razlog. 0:02:52.959,0:02:53.778 Tko još? 0:02:53.848,0:02:56.658 Da li se svi slažu s tim razlogom? 0:02:59.228,0:03:00.078 Izvolite. 0:03:01.218,0:03:07.400 Mislim da je to isti razlog zbog kojeg ljude[br]koji su u 9/11 spustili avion 0:03:07.533,0:03:09.309 u polje u Pennsilvaniji,[br]smatramo herojima 0:03:09.399,0:03:15.035 jer su odabrali da ubiju ljude u avionu,[br]a ne puno više ljudi u velikim zgradama. 0:03:15.909,0:03:20.650 Znači, princip je bio isti u 9/11,[br]tragična okolnost, 0:03:21.379,0:03:24.593 bolje ubiti jednoga[br]da bi petorica preživjela? 0:03:25.359,0:03:28.220 Je li to razlog za većinu vas[br]koji bi skrenuli? 0:03:30.428,0:03:34.598 Da čujemo sada one [br]koji su u manjini, 0:03:35.508,0:03:37.217 one koji ne bi skrenuli. 0:03:40.558,0:03:44.966 Mislim da je to ista vrsta mentaliteta[br]koja opravdava genocid i totalitarizam, 0:03:45.206,0:03:49.156 kako bi spasili jednu naciju,[br]istrebljujete drugu. 0:03:50.189,0:03:52.538 Pa što bi vi učinili u tom slučaju? 0:03:53.038,0:04:00.098 Kako bi izbjegli užase genocida,[br]vi bi se zaletili u petoricu i ubili ih? 0:04:03.389,0:04:05.018 Po svoj prilici, da. 0:04:07.408,0:04:08.787 Dobro, tko još? 0:04:09.930,0:04:11.908 To je hrabar odgovor, hvala. 0:04:13.348,0:04:17.917 Razmotrimo drugi slučaj[br]s tramvajem 0:04:20.078,0:04:25.338 i pogledajmo da li se,[br]oni od vas koji su u većini, 0:04:27.428,0:04:29.864 i dalje žele držati tog principa, 0:04:30.990,0:04:33.329 bolje da umre jedan,[br]kako bi petorica preživjela. 0:04:33.500,0:04:36.743 Ovaj puta vi niste vozač tramvaja,[br]nego promatrač. 0:04:37.998,0:04:41.231 Stojite na mostu iznad [br]tramvajske pruge, 0:04:42.678,0:04:44.898 a prugom se približava tramvaj. 0:04:45.658,0:04:47.830 Na kraju pruge nalazi se 5 radnika, 0:04:49.620,0:04:51.329 kočnice ne rade, 0:04:51.738,0:04:55.453 tramvaj samo što nije naletio na petoricu[br]i ubio ih. 0:04:55.949,0:05:00.238 A sada, vi niste vozač i zaista[br]se osjećate bespomoćni. 0:05:01.309,0:05:04.263 Dok ne primijetite da pokraj vas stoji 0:05:06.499,0:05:09.373 naginjući se preko ograde mosta, 0:05:09.889,0:05:12.210 jedan vrlo debeli čovjek. 0:05:17.398,0:05:20.874 I mogli biste ga malo pogurnuti 0:05:22.668,0:05:25.752 on bi pao s mosta na tračnice 0:05:27.949,0:05:31.198 točno ispred tramvaja, 0:05:32.199,0:05:35.483 on bi poginuo, ali bi spasio petoricu. 0:05:38.798,0:05:43.563 Koliko vas bi gurnulo[br]debelog čovjeka s mosta? Dignite ruke. 0:05:48.089,0:05:49.532 Koliko vas ne bi? 0:05:50.859,0:05:52.489 Većina ljudi ne bi. 0:05:53.849,0:05:55.337 Postavlja se očito pitanje, 0:05:55.788,0:05:58.075 što se dogodilo s principom, 0:05:59.878,0:06:03.739 bolje spasiti pet života,[br]čak i po cijenu žrtvovanja jednog, 0:06:03.839,0:06:08.279 što je s principom koji su skoro svi[br]podržali u prvom slučaju? 0:06:09.240,0:06:12.809 Želio bih čuti nekoga iz većine[br]u oba slučaja. 0:06:13.349,0:06:16.287 Kako objašnjavate razliku[br]između ta dva slučaja? 0:06:18.629,0:06:23.460 Mislim da drugi uključuje[br]aktivni izbor da se osobu gurne. 0:06:24.279,0:06:29.736 Mislim da se, u suprotnom, ta osoba sama[br]ne bi uplela u tu situaciju, 0:06:29.829,0:06:32.609 pa birati u njegovo ime 0:06:36.119,0:06:39.340 da ga se uključi u nešto što bi[br]u protivnom izbjegao, 0:06:39.990,0:06:42.788 mislim da je više od onog[br]što imate u prvoj situaciji 0:06:42.830,0:06:49.828 gdje tri strane, vozač i dvije grupe radnika[br]već jesu u toj situaciji. 0:06:50.598,0:06:54.239 Ali momak koji radi na sporednom kolosijeku, 0:06:55.108,0:06:59.208 on nije odabrao da žrtvuje svoj život[br]ništa više od debelog čovjeka, zar ne? 0:07:02.069,0:07:04.570 To je istina, ali bio je na pruzi. 0:07:05.339,0:07:07.409 Ovaj momak je bio na mostu! 0:07:10.439,0:07:12.570 Možete nastaviti ako želite. 0:07:13.550,0:07:15.159 Dobro, to je teško pitanje. 0:07:15.329,0:07:18.298 Bili ste dobri, jako dobri,[br]to je teško pitanje. 0:07:19.629,0:07:24.470 Tko bi još pokušao naći način[br]za usaglašavanje 0:07:26.028,0:07:28.928 reakciju većine u ova dva slučaja? 0:07:30.158,0:07:34.190 Pretpostavljam, u prvom slučaju,[br]gdje imate jednog radnika i petoricu, 0:07:35.178,0:07:38.549 izbor je između te dvije grupe[br]i morate jednu izabrati, 0:07:38.839,0:07:42.887 a ljudi će poginuti zbog tramvaja,[br]ne nužno zbog vaše direktne akcije. 0:07:42.911,0:07:47.558 Tramvaj je van kontrole i vi u djeliću sekunde[br]morate donijetu određenu odluku, 0:07:48.209,0:07:51.798 dok je guranje čovjeka s mosta[br]stvarni čin ubojstva s vaše strane, 0:07:52.078,0:07:56.328 nad time imate kontrolu,[br]dok nad tramvajem nemate kontrolu. 0:07:57.278,0:07:59.549 Zato mislim da je to[br]malo drugačija situacija. 0:08:00.089,0:08:01.701 U redu, tko ima odgovor? 0:08:04.360,0:08:05.842 Tko želi odgovoriti? 0:08:06.319,0:08:07.708 Je li to pravo objašnjenje? 0:08:09.490,0:08:11.439 Ja mislim da to nije baš dobar razlog 0:08:11.599,0:08:14.099 jer u oba slučaja morate odlučiti[br]tko će umrijeti 0:08:14.099,0:08:16.660 jer ili ćete izabrati da skrenete[br]i ubijete osobu 0:08:16.660,0:08:19.301 što je aktivna svjesna[br]odluka da skrenete, 0:08:19.718,0:08:24.263 ili ćete izabrati da gurnete deebelog čovjeka,[br]što je također aktivni svjesni čin. 0:08:24.438,0:08:26.766 Dakle u oba slučaja radite izbor. 0:08:27.689,0:08:29.128 Vi želite li odgovoriti? 0:08:29.728,0:08:32.908 Nisam baš siguran da je tako,[br]još uvijek mi se čini da je drugačije, 0:08:33.030,0:08:37.070 time što ste nekoga bacili na tračnice[br]i ubili ga, 0:08:37.340,0:08:39.700 vi ste ga ustvari sami ubili. 0:08:39.810,0:08:41.370 Gurate ga, vlastitim rukama. 0:08:41.470,0:08:46.452 Gurate ga, a to je drugačije od[br]upravljanja nečim što će uzrokovati smrt. 0:08:48.669,0:08:51.525 To zaista ne zvuči ispravno[br]kad to ovako govorim. 0:08:52.650,0:08:54.310 Ne, to je dobro, kako se zovete? 0:08:54.310,0:08:55.190 Andrew. 0:08:55.250,0:08:57.537 Andrew, dozvoli da te pitam ovo: 0:08:59.310,0:09:00.230 Pretpostavimo, 0:09:02.050,0:09:04.455 stojeći na mostu kraj tog debelog čovjeka, 0:09:04.809,0:09:05.969 ne moram ga gurnuti, 0:09:05.969,0:09:11.728 pretpostavimo da stoji na poklopcu[br]koji mogu otvoriti okrećući neki kotač, ovako. 0:09:17.140,0:09:18.380 Biste li ga okrenuli? 0:09:18.690,0:09:22.502 Iz nekog razloga to izgleda[br]još više pogrešno. 0:09:23.859,0:09:28.200 Mislim, možda ako bi se slučajno naslonili[br]na taj kotač ili tako nešto. 0:09:30.899,0:09:35.676 Ili recimo da tramvaj leti prema[br]sklopci koja će otvoriti poklopac, 0:09:37.569,0:09:39.140 onda bih se mogao složiti s tim. 0:09:39.140,0:09:42.052 Pošteno, to još uvijek izgleda pogrešno 0:09:42.230,0:09:45.124 na način na koji nije izgledalo[br]u prvom slučaju skretanja. 0:09:46.110,0:09:50.069 I na još jedan način, u prvoj situaciji[br]vi ste direktno uključeni u situaciju, 0:09:50.419,0:09:52.232 u drugoj ste samo promatrač, 0:09:52.450,0:09:55.818 pa imate izbor da se uključite ili ne[br]guranjem debelog čovjeka. 0:09:55.958,0:09:58.588 Zaboravimo na trenutak na ovaj slučaj. 0:10:01.269,0:10:05.700 Zamislimo drugačiji slučaj.[br]Ovaj puta vi ste doktor na hitnoj 0:10:06.160,0:10:09.117 i dolazi vam šest pacijenata. 0:10:11.249,0:10:14.796 Stradali su u groznom[br]prometnom udesu tramvaja. 0:10:18.240,0:10:21.719 Njih pet zadobilo je srednje teške povrede,[br]jedan je u kritičnom stanju, 0:10:21.719,0:10:26.000 trebao bi vam cijeli dan[br]da se pobrinete za kritično povrijeđenog, 0:10:27.260,0:10:29.610 no za to vrijeme onih pet bi umrlo. 0:10:29.650,0:10:35.880 Ili se možete pobrinuti za tu petoricu,[br]ali za to vrijeme onaj kritični bi umro. 0:10:36.470,0:10:40.363 Koliko vas bi spasilo petoricu[br]da ste doktor? 0:10:40.850,0:10:42.772 Koliko bi vas bi spasilo jednoga? 0:10:44.480,0:10:47.635 Vrlo malo ljudi,[br]samo šačica ljudi. 0:10:49.089,0:10:51.259 Isti razlog, pretpostavljam? 0:10:51.440,0:10:53.372 Jedan život nasuprot pet? 0:10:55.570,0:10:58.422 Sada razmotrite slučaj drugog doktora. 0:10:58.890,0:11:01.543 Ovaj puta vi ste kirurg za transplantacije, 0:11:02.080,0:11:05.655 imate 5 pacijenata i svakom je[br]očajnički nužna 0:11:06.159,0:11:08.847 transplantacija organa kako bi preživio. 0:11:09.639,0:11:14.122 Jednom treba srce, jednom pluća,[br]jednom bubreg, jednom jetra 0:11:15.130,0:11:17.535 i petom gušterača. 0:11:20.210,0:11:22.081 Ali nemate nijednog darivatelja organa. 0:11:22.779,0:11:26.229 Uskoro ćete ih gledati kako umiru. 0:11:27.649,0:11:29.671 A onda vam sine, 0:11:30.649,0:11:34.800 da je u sobi do zdravi mladić[br]koji je došao na pregled. 0:11:43.470,0:11:44.940 Sviđa vam se to? 0:11:46.469,0:11:48.946 I on je zadrijemao, 0:11:53.269,0:11:55.413 mogli biste potiho ući, 0:11:56.769,0:11:59.548 iščupati mu pet organa,[br]ta osoba bi umrla, 0:12:00.600,0:12:02.490 ali mogli biste spasiti petoricu. 0:12:03.169,0:12:04.554 Koliko bi vas to učinilo? 0:12:06.971,0:12:07.971 Itko? 0:12:10.229,0:12:12.546 Koliko? Dignite ruke, ako bi to učinili. 0:12:17.820,0:12:19.250 Netko na balkonu? 0:12:20.465,0:12:21.465 Vi bi? 0:12:21.790,0:12:24.230 Budite oprezni,[br]ne naginjite se previše. 0:12:26.709,0:12:28.190 Koliko ne bi? 0:12:29.340,0:12:30.360 U redu. 0:12:30.760,0:12:35.228 Što vi kažete, govorite vi sa balkona[br]koji bi iščupali organe, zašto? 0:12:35.840,0:12:38.629 Ja bi zapravo htio razmotriti[br]malo drugačiju mogućnost, 0:12:38.629,0:12:41.358 tako da uzmem jednog od onih[br]kojima treba organ, 0:12:41.358,0:12:42.888 koji će prvi umrijeti 0:12:43.108,0:12:46.619 i iskoristio bi njegova četiri zdrava[br]organa da spasim ostalu četvoricu. 0:12:49.920,0:12:51.909 To je prilično dobra ideja. 0:12:54.389,0:12:55.943 To je sjajna ideja, 0:12:57.830,0:12:59.189 osim činjenice 0:13:00.159,0:13:03.108 da ste upravo upropastili filozofsku poantu. 0:13:06.159,0:13:09.240 Odmaknimo se malo [br]od ovih priča i argumenata. 0:13:10.240,0:13:15.897 da uočimo nekoliko stvari u načinu[br]kako su se argumenti počeli razvijati. 0:13:17.199,0:13:22.062 Određeni moralni principi[br]već su se počeli pojavljivati 0:13:23.340,0:13:24.919 u diskusijama koje smo vodili. 0:13:25.879,0:13:30.439 Pa hajde da vidimo koji su to[br]moralni principi. 0:13:31.250,0:13:35.215 Prvi moralni princip koji se pojavio[br]u diskusiji kaže 0:13:35.710,0:13:38.550 ispravna stvar, moralna stvar[br]koju treba učiniti 0:13:38.610,0:13:43.899 ovisi o posljedicama kojima će rezultirati[br]vaše djelovanje. 0:13:45.480,0:13:48.650 Na kraju dana, bolje je da prežive petorica 0:13:49.140,0:13:51.160 čak i ako jedan mora umrijeti. 0:13:51.950,0:13:57.360 To je primjer konsekvencijalističkog[br]moralnog rasuđivanja. 0:13:58.710,0:14:03.110 Konsekvencijalističko moralno rasuđivanje[br]locira moralnost u posljedicama nekog čina 0:14:03.160,0:14:07.235 u stanju svijeta koji će biti rezultat[br]onoga što učinite. 0:14:08.779,0:14:11.989 Ali onda smo otišli malo dalje[br]razmatrajući druge slučajeve 0:14:12.789,0:14:14.438 i ljudi nisu baš bili sigurni 0:14:14.960,0:14:18.385 u konsekvencijalistčko moralno[br]rasuđivanje. 0:14:20.529,0:14:24.745 Kad su oklijevali gurnuti debelog čovjeka[br]s mosta 0:14:25.789,0:14:28.778 ili iščupati organe nevinog pacijenta, 0:14:29.330,0:14:32.529 ljudi su ukazivali na razloge 0:14:33.839,0:14:39.589 povezane s intrinzičnom kvalitetom[br]samog čina, 0:14:39.800,0:14:42.154 kakve god mogle biti posljedice. 0:14:42.439,0:14:44.172 Ljudi su se opirali, 0:14:44.819,0:14:48.539 ljudi su mislili da je to jednostavno pogrešno,[br]kategorički pogrešno, 0:14:49.480,0:14:56.274 ubiti osobu, nevinu osobu,[br]čak i u ime spašavanja pet života. 0:14:56.284,0:15:02.964 Bar su tako ljudi mislili u drugoj verziji[br]priča koje smo razmatrali. 0:15:05.420,0:15:11.065 To ukazuje na drugi kategorički način 0:15:12.617,0:15:15.567 razmišljanja o moralnom rasuđivanju. 0:15:15.749,0:15:18.639 Kategoričko moralno rasuđivanje[br]postavlja moralnost 0:15:18.814,0:15:21.304 u određene apsolutne moralne zahtjeve, 0:15:21.354,0:15:25.718 određene kategoričke dužnosti i prava[br]bez obzira na posljedice. 0:15:27.440,0:15:30.490 U danima i tjednima pred nama[br]istraživat ćemo 0:15:30.680,0:15:35.163 razlike između konsekvencijalističkih[br]i kategoričkih moralnih principa. 0:15:36.539,0:15:42.650 Najutjecajniji primjer konsekvencijalističkog[br]moralnog rasuđivanja je utilitarizam, 0:15:42.959,0:15:48.929 doktrina koju je razvio Jeremy Bentham,[br]engleski političkii filozof 18. stoljeća. 0:15:51.100,0:15:56.319 Najvažniji filozof kategoričkog[br]moralnog rasuđivanja 0:15:56.619,0:16:01.472 je Emmanuel Kant,[br]njemački filozof 18. stoljeća. 0:16:02.590,0:16:06.221 Stoga ćemo razmotriti ova dva[br]različita načina moralnog rasuđivanja 0:16:07.259,0:16:09.709 procijeniti ih[br]i također razmotriti druge. 0:16:10.669,0:16:15.239 Ako pogledate nastavni program, primijetit[br]ćete da čitamo niz sjajnih i čuvenih knjiga, 0:16:15.650,0:16:21.910 knjige Aristotela, Johna Lockea,[br]Immanuela Kanta, Johna Stewarta Milla 0:16:22.080,0:16:22.983 i drugih. 0:16:24.029,0:16:27.749 Također ćete primijetiti u programu[br]da ne čitamo samo te knjige, 0:16:28.169,0:16:30.447 bavimo se također 0:16:31.039,0:16:36.040 suvremenim političkim i pravnim[br]kontraverzama koje potiču filozofska pitanja. 0:16:37.000,0:16:39.433 Diskutirat ćemo o jednakosti i nejednakosti, 0:16:39.820,0:16:41.420 afirmativnu akciju[br](pozitivnu diskriminaciju), 0:16:41.490,0:16:43.453 slobodu govora nasuprot[br]govora mržnje, 0:16:43.698,0:16:46.538 istospolne brakove,[br]vojnu obavezu, 0:16:46.799,0:16:48.960 spektar praktičnih pitanja. 0:16:49.770,0:16:54.545 Zašto? Ne tek da bi oživjeli[br]te apstraktne i daleke knjige, 0:16:55.350,0:16:58.450 već da rasvjetlimo, razotkrijemo,[br]kako filozofija utječe na 0:16:58.450,0:17:01.380 naše svakidašnje živote,[br]uključujući naše političke živote. 0:17:05.480,0:17:09.730 Zato ćemo čitati te knjige[br]i raspravljati o tim pitanjima 0:17:09.870,0:17:14.008 i vidjeti kako svaki od njih utječe[br]i rasvjetljava druge. 0:17:15.480,0:17:20.439 To može zvučati dosta privlačno,[br]ali ovdje vas moram upozoriti na nešto. 0:17:22.329,0:17:24.120 A upozorenje je sljedeće: 0:17:25.210,0:17:29.220 čitati ove knjige, na ovaj način, 0:17:31.549,0:17:33.428 kao vježbu u samo-spoznaji, 0:17:34.119,0:17:36.758 čitati ih na ovaj način[br]nosi određene rizike, 0:17:38.019,0:17:40.719 rizike koji su istovremeno [br]osobni i politički, 0:17:41.649,0:17:46.539 rizike koje poznaje svaki student[br]političke filozofije. 0:17:47.399,0:17:49.766 Ti rizici proizlaze iz činjenice 0:17:50.330,0:17:55.106 da nas filozofija uči i uznemiruje 0:17:56.400,0:17:59.430 suočavajući nas s onim [br]što već znamo. 0:18:01.390,0:18:02.620 Tu postoji jedna ironija, 0:18:03.390,0:18:08.424 teškoća ovog kolegija skriva se u činjenici[br]da vas uči ono što već znate. 0:18:09.789,0:18:15.059 To radi uzimajući ono što [br]znamo iz poznatih neupitnih okruženja, 0:18:16.470,0:18:18.544 i pretvarajući to u nešto nepoznato. 0:18:19.979,0:18:22.259 Na taj način su funkcionirali oni primjeri, 0:18:23.119,0:18:28.467 s hipotetičkim pretpostavkama s kojima smo[br]započinjali, mješavinom šaljivog i razboritog. 0:18:29.029,0:18:31.610 Jednako tako funkcioniraju i te[br]filozofske knjige. 0:18:31.650,0:18:36.380 Filozofija nas otuđuje od poznatog, 0:18:37.519,0:18:39.620 ne tako da nam daje nove informacije, 0:18:40.390,0:18:42.610 nego pozivajući i potičući 0:18:43.599,0:18:45.299 novi način opažanja, 0:18:47.420,0:18:49.010 ali, i tu je rizik, 0:18:49.970,0:18:53.109 jednom kada ono poznato[br]postane strano, 0:18:54.299,0:18:56.602 nikada više nije potpuno isto. 0:18:57.329,0:19:01.500 Samo-spoznaja je kao[br]izgubljena nevinost, 0:19:03.030,0:19:05.449 kako god uznemirujuća bila[br]kada ju nađete 0:19:06.029,0:19:08.209 nikada je više ne možete[br]od-misliti 0:19:09.720,0:19:11.102 ili ne-znati. 0:19:13.390,0:19:15.533 Ono što čini ovaj poduhvat teškim 0:19:17.259,0:19:18.841 ali također intrigantnim, 0:19:19.490,0:19:23.155 je to da je moralna i politička filozofija priča 0:19:25.400,0:19:28.654 i vi ne znate kuda će vas ta priča odvesti,[br]ali ono što znate 0:19:29.339,0:19:32.423 je da je to priča o vama. 0:19:34.410,0:19:36.269 To su osobni rizici. 0:19:37.079,0:19:39.055 A što je s političkim rizicima? 0:19:39.980,0:19:42.798 Jedan način predstavljanja kolegija[br]poput ovog 0:19:43.038,0:19:45.878 bio bi obećavajući vam da ćete[br]čitanjem ovih knjiga 0:19:46.370,0:19:47.919 i diskutiranjem o ovim pitanjima 0:19:48.069,0:19:50.680 postati bolji, odgovorniji građani. 0:19:51.769,0:19:54.510 Propitivat ćete presumpcije javnih politika, 0:19:54.510,0:19:57.109 brusiti svoje političke prosudbe, 0:19:57.289,0:20:00.524 postat ćete učinkovitiji sudionik[br]javnih zbivanja. 0:20:02.549,0:20:05.669 Ali to bi bilo nepotpuno i obmanjujuće[br]obećanje. 0:20:06.369,0:20:09.849 Politička fizofija uglavnom[br]ne funkcionira na taj način. 0:20:11.490,0:20:13.516 Morate dozvoliti mogućnost 0:20:14.430,0:20:17.760 da vas politička filozofija može[br]učiniti gorim građaninom, 0:20:18.809,0:20:19.789 a ne boljim, 0:20:21.390,0:20:26.469 ili barem gorim građaninom[br]prije no što vas učini boljim. 0:20:27.950,0:20:30.400 A to je zbog toga jer je filozofija 0:20:30.400,0:20:35.100 aktivnost koja udaljava i čak iscrpljuje. 0:20:36.199,0:20:39.071 A to vidite vraćajući se Sokratu; 0:20:39.560,0:20:41.480 ima jedan dijalog, Gorgija, 0:20:41.480,0:20:48.231 u kojem jedan od Sokratovih prijatelja,[br]Kalikle, pokušava odvratiti ga od filozofiranja. 0:20:49.620,0:20:53.040 Kalikle kaže Sokratu, 'Filozofija[br]je zgodna igračka, 0:20:54.400,0:20:57.600 ako se u nju upuštamo umjereno[br]u primjereno životno doba, 0:20:57.980,0:21:02.889 ali ako na njoj ustrajemo više no što treba,[br]ona je apsolutna propast,' 0:21:03.779,0:21:07.484 'Poslušaj moj savjet,' kaže Kalikle,[br]'ostavi se rasprave, 0:21:08.199,0:21:10.720 nauči vještine aktivnog života, 0:21:11.180,0:21:16.390 neka ti modeli ne budu ti ljudi koji[br]vrijeme provode u tim sitničavim igrama riječi, 0:21:16.880,0:21:21.220 već oni koji imaju dobro situiran život[br]i reputaciju i mnoge druge blagodati.' 0:21:22.079,0:21:26.038 Kalikle zapravo Sokratu kaže, 0:21:26.808,0:21:29.329 'Okani se filozofiranja, uozbilji se, 0:21:30.549,0:21:33.032 upiši se u poslovnu školu.' 0:21:35.170,0:21:37.215 I Kalikle je bio u pravu. 0:21:38.299,0:21:39.900 Bio je u pravu utoliko 0:21:39.900,0:21:46.308 što nas filozofija udaljava od konvencija,[br]utvrđenih postavki i prihvaćenih vjerovanja. 0:21:46.750,0:21:49.508 To su rizici, osobni i politički, 0:21:49.970,0:21:53.439 a unatoč tim rizicima[br]postoji karakteristično odstupanje, 0:21:54.089,0:21:56.260 ime tog odstupanja je skepticizam. 0:21:56.340,0:21:58.782 To je ideja, ide otprilike ovako: 0:21:58.990,0:22:02.000 nismo riješili, jednom zauvijek, 0:22:03.660,0:22:08.068 ni slučajeve ni principe o kojima smo[br]raspravljali na početku, 0:22:09.759,0:22:15.857 a kad Aristotel i Locke i Kant i Mill nisu[br]riješili ta pitanja nakon svih tih godina, 0:22:17.220,0:22:18.670 tko smo mi da mislimo 0:22:19.589,0:22:24.400 da ih mi, ovdje u Sanders Theatre[br]tijekom jednog semestra možemo riješiti? 0:22:26.430,0:22:31.690 Možda je samo stvar u tome[br]da svaka osoba ima vlastite principe 0:22:31.690,0:22:35.639 i ništa se više o tome nema za reći,[br]nikakvo rasuđivanje. 0:22:36.084,0:22:37.144 To je izbjegavanje. 0:22:37.630,0:22:39.100 Izbjegavanje skepticizmom 0:22:39.440,0:22:42.043 na što bih ja dao sljedeći odgovor: 0:22:42.660,0:22:46.530 Istina, o ovim pitanjima se rspravlja[br]već dugo vremena, 0:22:47.559,0:22:51.189 ali sam činjenica da se uvijek iznova[br]pojavljuju i ustraju, 0:22:52.700,0:22:56.581 može sugerirati da,[br]iako su u nekom smislu nemoguća, 0:22:57.169,0:22:59.426 neizbježna su u drugom. 0:22:59.799,0:23:02.002 A razlog zašto su neizbježna, 0:23:02.299,0:23:04.340 razlog zašto su neizbježna je 0:23:04.340,0:23:08.746 da mi svakoga dana živimo[br]odgovarajući na ta pitanja. 0:23:09.949,0:23:14.578 Zato skepticizam, dizanje ruku[br]i odustajanje od moralnog promišljanja, 0:23:16.130,0:23:17.468 nije rješenje. 0:23:18.279,0:23:22.540 Immanuel Kant vrlo dobro je opisao[br]problem sa skepticizmom kad je napisao: 0:23:22.860,0:23:25.458 'Skepticizam je počivalište[br]za ljudski razum 0:23:25.918,0:23:28.709 gdje može razmišljati o svojim[br]dogmatskim lutanjima, 0:23:29.099,0:23:32.380 ali nije mjesto za trajno obitavanje.' 0:23:33.069,0:23:35.739 'Jednostavno se pomiriti sa skepticizmom,'[br]pisao je Kant, 0:23:35.940,0:23:40.320 'nikada ne može biti dovoljno za[br]prevladavanje nemira razuma.' 0:23:42.660,0:23:49.140 Pokušao sam, kroz ove priče i argumente,[br]izložiti neki vid rizika i iskušenja 0:23:49.898,0:23:51.859 opasnosti i mogućnosti. 0:23:51.959,0:23:57.069 Zaključit ću rekavši:[br]da je cilj ovog kolegija 0:23:58.099,0:24:03.791 probuditi nemir razuma[br]i vidjeti kuda bi to moglo voditi. 0:24:04.380,0:24:05.498 Hvala vam. 0:24:15.440,0:24:18.828 U tako očajnoj situaciji morate učiniti[br]ono što morate da bi preživjeli. 0:24:19.078,0:24:20.729 Morate učiniti ono što morate? 0:24:20.989,0:24:22.509 Što morate, morate, baš tako. 0:24:22.789,0:24:29.792 Ako 19 dana niste ništa jeli,[br]netko se mora žrtvovati da bi ljudi preživjeli. 0:24:30.500,0:24:32.230 U redu, dobro je. Kako se zovete? 0:24:32.300,0:24:33.220 Marcus. 0:24:33.640,0:24:34.580 Što kažete Marcusu? 0:24:34.610,0:24:35.610 SLUČAJ KANIBALIZMA 0:24:44.569,0:24:48.086 Prošli puta smo započeli[br]s nekim pričama, 0:24:49.110,0:24:52.040 moralnim dilemama u vezi tramvaja. 0:24:52.699,0:24:54.159 i doktora 0:24:54.509,0:25:00.179 i zdravih pacijenata u opasnosti[br]da budu žrtve transplantacije organa. 0:25:00.910,0:25:05.490 Uočili smo dvije stvari[br]u vezi diskusija koje smo imali 0:25:06.560,0:25:09.123 Jedna se odnosi na način[br]na koji smo diskutirali. 0:25:09.899,0:25:13.136 Počelo je s našim prosudbama[br]u danim slučajevima. 0:25:13.569,0:25:16.625 Pokušali smo artikulirati razloge[br]odnosno principe 0:25:18.060,0:25:20.048 u podlozi naših prosudbi, 0:25:22.549,0:25:24.541 a onda, suočeni s novim slučajem 0:25:25.120,0:25:28.339 našli smo se preispitujući te principe 0:25:30.069,0:25:32.585 revidirajući svakog u svjetlu drugog. 0:25:34.019,0:25:37.873 I primijetili smo ugrađeno nastojanje[br]da ih uskladimo, 0:25:38.600,0:25:40.661 naše ocjene danih slučajeva 0:25:41.680,0:25:44.677 i principe koje bismo usvojili[br]nakon promišljanja. 0:25:46.359,0:25:50.110 Također smo uočili nešto u vezi[br]sadržaja argumenata 0:25:50.589,0:25:52.805 koji su se pojavili tokom diskusije. 0:25:55.250,0:26:00.859 Primijetili smo da smo ponekad u iskušenju[br]locirati moralnost nekog čina u posljedicama, 0:26:00.969,0:26:04.671 u rezultatima, u stanju svijeta[br]koji nastaje tim činom. 0:26:06.519,0:26:09.928 To smo nazvali konsekvencijalnim[br]moralnim rasuđivanjem. 0:26:11.690,0:26:14.319 No, primijetili smo također[br]da u nekim slučajevima 0:26:16.440,0:26:19.466 nismo se povodili samo rezultatima. 0:26:21.039,0:26:24.325 Ponekad mnogi od nas su osjećali 0:26:25.349,0:26:33.029 da ne samo posljedice, nego i intrinzična[br]kvaliteta čina ima moralnu važnost. 0:26:35.129,0:26:40.099 Neki ljudi su tvrdili da postoje određene[br]stvari koje su kategorički neispravne, 0:26:40.440,0:26:43.461 čak i ako donose dobar rezultat, 0:26:44.460,0:26:48.720 čak i ako spašavaju petoro ljudi[br]po cijenu jednog života. 0:26:49.788,0:26:56.315 Stoga smo suprotstavili konsekvencijalne[br]moralne principe kategoričkima. 0:26:57.920,0:27:01.000 Danas i sljedećih nekoliko dana 0:27:01.099,0:27:09.571 preispitat ćemo jednu od najutjecajnijih[br]verzija konsekvencijalističke teorije morala, 0:27:10.970,0:27:13.789 a to je filozofija utilitarizma. 0:27:15.729,0:27:20.563 Jeremy Bentham, engleski politički[br]filozof 18. stoljeća, 0:27:21.690,0:27:29.122 prvi je jasno sistematski izložio[br]utilitarističku teoriju morala, 0:27:32.210,0:27:37.612 a Benthamova ideja,[br]njegova ključna ideja, 0:27:38.190,0:27:40.000 vrlo je jednostavna 0:27:42.680,0:27:47.392 i moralno intuitivno vrlo dopadljiva. 0:27:48.220,0:27:51.085 Benthamova ideja je sljedeća: 0:27:51.589,0:27:55.791 ono što je ispravno učiniti,[br]što je pravedno učiniti, 0:27:57.419,0:28:01.997 je maksimizirati korisnost. 0:28:02.339,0:28:04.035 Što je mislio pod korisnost? 0:28:05.529,0:28:08.860 Pod korisnost je podrazumijevao ravnotežu 0:28:11.140,0:28:14.880 ugode i boli,[br]radosti i patnje. 0:28:16.538,0:28:20.590 Tako smo došli do principa[br]maksimiziranja korisnosti. 0:28:22.308,0:28:25.250 Započeo uočivši da svima nama, 0:28:26.088,0:28:27.440 svim ljudskim bićima, 0:28:27.750,0:28:30.320 upravljaju dva suverena gospodara, 0:28:31.040,0:28:32.468 bol i ugoda. 0:28:34.369,0:28:38.989 Mi ljudska bića volimo ugodu[br]i ne volimo bol 0:28:42.038,0:28:45.279 i zato bismo moralnost[br]morali bazirati 0:28:45.839,0:28:48.449 - bez obzira da li se radi[br]o našem vlastitom životu 0:28:48.940,0:28:54.177 ili kao zakonodavci ili građani [br]razmišljamo kakav bi trebao biti zakon - 0:28:57.029,0:29:05.069 - ispravno je da individualno ili kolektivno[br]djelujemo tako da maksimiziramo 0:29:05.838,0:29:08.771 sveopću razinu sreće. 0:29:11.369,0:29:14.947 Benthamov utilitarizam se ponekad[br]sažima sloganom: 0:29:15.430,0:29:17.844 'najveće dobro za najveći broj'. 0:29:18.869,0:29:22.255 S tim osnovnim principom korisnosti[br]pri ruci, 0:29:22.730,0:29:27.700 krenimo ga testirati i propitivati[br]kroz još jedan slučaj, 0:29:28.179,0:29:31.898 još jednu priču, ali ovoga puta[br]to nije hipotetska priča, 0:29:32.640,0:29:34.230 nego priča iz stvarnog života, 0:29:34.339,0:29:37.438 slučaj Kraljice protiv Dudley i Stevensa. 0:29:38.099,0:29:42.520 To je čuveni britanski pravni spor[br]iz 19. stoljeća 0:29:44.009,0:29:46.763 o kojem se mnogo raspravlja[br]na pravnim fakultetima. 0:29:47.348,0:29:49.869 Evo što se dogodilo: 0:29:50.059,0:29:55.896 - ukratko ću ispričati priču,[br]a onda bih želio čuti kako bi vi presudili 0:29:57.059,0:29:59.314 zamišljajući da ste vi porota. 0:30:03.989,0:30:07.243 Tadašnja priča u novinama[br]opisala je pozadinu. 0:30:08.819,0:30:12.370 Nikada nije bila ispričana[br]tužnija priča o udesu na moru 0:30:12.789,0:30:15.680 no što je priča preživjelih [br]sa broda Mignonette. 0:30:16.240,0:30:20.994 Brod je potonuo u Južnom Atlantiku[br]1300 milja od Cape Towna. 0:30:21.789,0:30:25.097 Imao je četiri člana posade,[br]Dudley je bio kapetan, 0:30:25.710,0:30:29.331 Stephens je bio prvi oficir,[br]Brooks je bio mornar. 0:30:29.890,0:30:34.559 Sve ljudi odličnog karaktera,[br]kako nam govori novinska priča. 0:30:35.819,0:30:40.919 Četvrti član posade bio je mali od palube,[br]Richard Parker star 17 godina. 0:30:42.689,0:30:45.679 On je bio siroče,[br]nije imao nikoga od obitelji 0:30:46.930,0:30:50.270 i to je bilo njegovo prvo[br]dulje putovanje morem. 0:30:51.410,0:30:55.570 Pošao je, kaže novinska priča,[br]unatoč savjetima svojih prijatelja, 0:30:56.730,0:31:02.187 pošao je u nadi mladenačke ambicije[br]da će putovanje napraviti od njega čovjeka. 0:31:02.940,0:31:04.690 Nažalost, nije mu bilo suđeno. 0:31:05.140,0:31:07.410 Činjenice slučaja nisu bile sporne, 0:31:07.639,0:31:10.321 val je udario u brod i Mignonette[br]je potonuo. 0:31:12.000,0:31:14.649 Četvoro članova posade[br]spasilo se u čamcu za spasavanje. 0:31:14.859,0:31:20.979 Jedina hrana koju su imali[br]bile su dvije konzerve konzervirane repe. 0:31:21.429,0:31:22.740 Bez pitke vode. 0:31:23.980,0:31:26.070 Prva tri dana nisu jeli ništa. 0:31:26.609,0:31:30.889 Četvrti dan otvorili su jednu[br]konzervu repe i pojeli je. 0:31:31.589,0:31:33.509 Sljedeći dan uhvatili su kornjaču. 0:31:33.980,0:31:37.330 Druga konzerva repe i kornjača 0:31:38.220,0:31:40.798 omogućili su im da prežive[br]sljedećih nekoliko dana 0:31:40.798,0:31:45.630 i onda osam dana nisu jeli ništa.[br]Bez hrane i bez vode. 0:31:46.529,0:31:49.529 Zamislite sebe u takvoj situaciji. 0:31:49.839,0:31:50.874 Što biste vi učinili? 0:31:52.479,0:31:54.062 Evo što su oni učinili. 0:31:55.119,0:31:59.993 Mali od palube Parker je sada već[br]ležao na dnu čamca za spasavanje, u ćošku, 0:32:00.630,0:32:04.621 jer se bio napio morske vode[br]protivno savjetima ostalih. 0:32:05.490,0:32:09.312 Bilo mu je zlo i izgledalo je da umire. 0:32:10.289,0:32:17.419 Devetnaestog dana Dudley, kapetan,[br]predložio je da svi izvlače lutriju, 0:32:17.768,0:32:21.979 da bi trebali vući slamke da vide[br]tko bi trebao umrijeti da spasi ostale. 0:32:23.489,0:32:28.059 Brooks je odbio,[br]nije mu se sviđala ideja o lutriji. 0:32:29.030,0:32:32.998 Ne znamo je li to bilo zbog toga[br]jer nije želio riskirati 0:32:33.238,0:32:36.084 ili jer je vjerovao u[br]kategoričke moralne principe. 0:32:36.869,0:32:39.887 No, u svakom slučaju,[br]slamke se nisu izvlačile. 0:32:41.860,0:32:44.643 Sljedeći dan još uvijek nije bilo[br]nijednog broda na vidiku 0:32:45.028,0:32:48.092 pa je Dudley rekao Brooksu[br]da odvrati pogled 0:32:48.470,0:32:52.833 i dao znak Stephensu[br]da bi bilo dobro da ubiju dječaka Parkera. 0:32:53.659,0:32:57.567 Dudley se pomolio,[br]rekao dječaku da je kucnuo njegov čas 0:32:58.480,0:33:02.362 i usmrtio ga perorezom[br]ubadajaći ga u vratnu venu. 0:33:03.220,0:33:09.070 Brooks je odustao od prigovora savjesti[br]kako bi sudjelovao u podjeli jezive nagrade. 0:33:09.750,0:33:14.111 Četiri dana njih su se trojica hranila[br]tijelom i krvlju malog od palube. 0:33:15.130,0:33:16.310 Istinita priča. 0:33:16.810,0:33:18.235 I onda su bili spašeni. 0:33:18.780,0:33:23.602 Dudley opisuje njihovo spašavanje[br]u svom dnevniku; 0:33:24.679,0:33:26.998 zapanjujućim eufemizmom, citiram: 0:33:27.569,0:33:31.468 'Dvadeset i četvrtog dana[br]dok smo doručkovali 0:33:34.903,0:33:36.533 konačno se pojavio brod.' 0:33:38.429,0:33:43.349 Trojicu preživjelih pokupio je njemački brod[br]i odveo natrag u Falmouth u Engleskoj 0:33:44.309,0:33:46.086 gdje su uhapšeni i suđeni. 0:33:46.719,0:33:49.006 Brooks je postao zaštićeni svjedok, 0:33:49.819,0:33:51.829 Dudley i Stephensu se sudilo. 0:33:52.010,0:33:53.710 Oni nisu osporavali činjenice, 0:33:54.390,0:33:57.140 tvrdili su da su postupali[br]u krajnjoj nuždi. 0:33:57.610,0:33:58.900 To je bila njihova obrana. 0:33:59.430,0:34:04.904 Tvrdili su u suštini da je bolje[br]da jedan umre da bi trojica preživjela. 0:34:06.420,0:34:10.079 Tužilac nije bio uvjeren ovim argumentom, 0:34:10.639,0:34:13.849 rekao je, 'Ubojstvo je ubojstvo'[br]i tako je slučaj dospio pred sud. 0:34:13.849,0:34:15.569 Zamislite sad da ste vi porota, 0:34:16.329,0:34:18.243 a da bismo pojednostavili diskusiju, 0:34:19.269,0:34:24.025 ostavite po strani pitanje zakona[br]i pretpostavimo da ste vi kao porota 0:34:25.878,0:34:31.408 zaduženi da odlučite da li je ono što[br]su učinili moralno dopustivo ili nije. 0:34:34.378,0:34:40.071 Koliko bi vas glasalo 'nisu krivi', 0:34:40.539,0:34:42.844 da je ono što su učinili[br]moralno dopustivo? 0:34:49.528,0:34:53.379 A koliko bi vas glasalo 'krivi',[br]ono što su učinili je moralno neispravno? 0:34:54.858,0:34:56.630 Prilično brojna većina. 0:34:57.998,0:35:02.794 Da vidimo sada razloge, [br]a započet ću s onima u manjini. 0:35:03.809,0:35:08.875 Da prvo čujemo obranu [br]Dudleya i Stephensa. 0:35:10.099,0:35:12.867 Zašto bi ih oslobodili krivnje? 0:35:14.159,0:35:15.486 Koji su vaši razlozi? 0:35:17.989,0:35:20.348 Mislim da to zaslužuje moralnu osudu, 0:35:20.798,0:35:23.645 ali također da postoji razlika između[br]moralno neprimjerenog 0:35:23.989,0:35:26.249 i onog što nekog čini pravno odgovornim. 0:35:26.608,0:35:31.296 Drugim riječima, kao što je rekao sudac,[br]nemoralno nije nužno protiv zakona, 0:35:31.930,0:35:38.059 pa iako ne mislim da nužnost opravdava[br]krađu ili ubojstvo ili bilo koji nezakoniti čin, 0:35:38.579,0:35:44.618 u nekom času stupanj nužnosti ustvari[br]vas oslobađa krivnje. 0:35:45.849,0:35:49.247 Drugi branitelji, drugi glasovi za obranu? 0:35:50.588,0:35:53.846 Moralna opravdanja za ono[br]što su učinili? 0:35:58.468,0:36:03.040 Meni se čini u tako očajnoj situaciji morate[br]činiti ono što morate kako bi preživjeli. 0:36:03.139,0:36:04.789 Morate učiniti ono što morate? 0:36:04.929,0:36:06.789 Morate učiniti što morate, tako je. 0:36:06.979,0:36:09.529 Ako ste izdržali 19 dana bez hrane 0:36:10.168,0:36:14.351 netko se jednostavno mora žrtvovati[br]da ljudi mogu preživjeti. 0:36:14.710,0:36:18.979 I štoviše, recimo da su preživjeli[br]i postali produktivni članovi društva 0:36:18.979,0:36:25.449 koji odu kući i, na primjer, osnuju dobrotvorne[br]organizacije i svašta drugo za opću dobrobit. 0:36:25.610,0:36:29.649 Ja ne znam što su oni radili poslije,[br]možda su ubili još ljudi ... 0:36:30.618,0:36:31.339 Što? 0:36:32.889,0:36:35.414 Što ako su otišli kući i postali ubojice? 0:36:35.708,0:36:38.416 Što ako su otišli kući i postali ubojice? 0:36:38.909,0:36:41.721 Ne biste željeli znati koga su ubili? 0:36:42.408,0:36:43.488 Istina, to je fer. 0:36:44.809,0:36:46.362 Ne bih želio znati koga su ubili. 0:36:46.428,0:36:47.848 Dobro je, kako se zovete? 0:36:47.998,0:36:48.998 Marcus. 0:36:50.708,0:36:53.499 Čuli smo obranu,[br]par glasova za obranu, 0:36:54.050,0:36:56.723 sada trebamo čuti tužiteljstvo. 0:36:57.218,0:37:02.066 Većina ljudi misli da je ono[br]što su učinili neispravno. Zašto? 0:37:04.508,0:37:06.938 Jedna od prvih stvari[br]koju sam ja pomislila bilo je, 0:37:06.958,0:37:08.759 'Pa, dobro, nisu jako dugo jeli, 0:37:10.339,0:37:14.439 pa su možda mentalno pogođeni 0:37:15.139,0:37:17.978 pa se to može iskoristiti za obranu, 0:37:17.978,0:37:25.583 mogući argument da nisu bili prisebni[br]i donosili su odluke koje inače ne bi, 0:37:25.779,0:37:27.529 a ako je to prihvatljiv argument, 0:37:27.569,0:37:31.199 da morate biti u stanju promijenjene svijesti[br]da bi učinili tako nešto, 0:37:31.229,0:37:35.309 to navodi da ljudi koji taj argument[br]smatraju uvjerljivim 0:37:36.108,0:37:38.118 zaista misle da postupaju nemoralno ... 0:37:38.138,0:37:40.318 Ali ja želim znati što vi mislite.[br]Vi ih branite ... 0:37:41.398,0:37:43.409 Vi ste za to da budu optuženi, zar ne? 0:37:43.469,0:37:46.399 Ja ne mislim da su postupali[br]na moralno prihvatljiv način ... 0:37:46.509,0:37:50.612 A zašto ne? Što kažete ...[br]Tu je Marcus, on ih je upravo branio. 0:37:50.919,0:37:53.800 On je rekao, čuli ste što je rekao, 0:37:56.559,0:37:59.319 da morate učiniti ono što morate[br]u takvoj situaciji. 0:38:00.119,0:38:01.729 Što ćete reći Marcusu? 0:38:06.438,0:38:11.738 Da ne postoji situacija u kojoj bi [br]ljudima bilo dozvoljeno da uzmu 0:38:13.579,0:38:16.959 ideju sudbine ili živote drugih ljudi[br]u svoje ruke, 0:38:17.198,0:38:19.815 da mi nemamo tu vrstu moći. 0:38:20.079,0:38:22.078 Dobro, u redu, hvala.[br]Kako se vi zovete? 0:38:22.228,0:38:23.050 Britt. 0:38:24.640,0:38:25.378 Tko još? 0:38:25.778,0:38:27.748 Što vi kažete? Ustanite. 0:38:27.758,0:38:34.908 Pitam se da li su Dudley i Stephens[br]tražili Parkerovu suglasnost za umiranje. 0:38:35.429,0:38:41.738 I da li bi ih to oslobodilo krivnje[br]za aktivno ubojstvo? 0:38:41.918,0:38:44.958 I ako je tako, da li je to još uvijek[br]moralno opravdano? 0:38:45.449,0:38:49.204 Zanimljivo, suglasnost.[br]Čekajte, kako se vi zovete? 0:38:49.559,0:38:50.348 Kathleen. 0:38:51.403,0:38:53.154 Kathleen kaže, pretpostavimo ... 0:38:53.214,0:38:54.715 Kako bi izgledao taj scenario? 0:38:56.929,0:39:03.507 Tu je Dudley, perorez u ruci,[br]ali umjesto molitve, ili prije molitve, 0:39:04.588,0:39:08.469 kaže, 'Parker, bi li zamjerio, 0:39:11.478,0:39:12.987 mi smo očajno gladni, 0:39:14.538,0:39:17.368 - s čim Marcus suosjeća - 0:39:17.679,0:39:19.179 očajno smo gladni, 0:39:19.768,0:39:21.508 ti ionako nećeš dugo, 0:39:22.168,0:39:23.498 - mogao bi biti mučenik - 0:39:23.568,0:39:26.828 bili htio biti mučenik,[br]što misliš o tome, Parker?' 0:39:33.519,0:39:35.970 Što mislite, bi li tada bilo[br]moralno opravdano? 0:39:36.580,0:39:40.693 Pretpostavimo da Parker,[br]napola pri svijesti, kaže - Ok. 0:39:42.808,0:39:45.559 Ne mislim da bi bilo moralno opravdano,[br]ali pitam se ... 0:39:45.739,0:39:47.260 Čak i tada, ne bi bilo? 0:39:47.310,0:39:48.030 Ne. 0:39:48.329,0:39:52.268 Vi mislite da čak i sa njegovim pristankom[br]to ne bi bilo moralno opravdano? 0:39:52.278,0:39:54.079 Ima li ljudi koji misle ... 0:39:54.879,0:39:57.050 koji žele preuzeti Kathleeninu[br]ideju suglasnosti 0:39:57.199,0:39:59.978 i koji misle da bi to tada bilo[br]moralno opravdano? 0:40:00.088,0:40:02.781 Dignite ruke, ako bi bilo?[br]Ako mislite da bi bilo? 0:40:05.609,0:40:07.328 To je vrlo zanimljivo. 0:40:07.588,0:40:10.858 Zašto bi suglasnost[br]predstavljala moralnu razliku? 0:40:13.848,0:40:14.698 Zašto bi? 0:40:15.729,0:40:20.451 Ja samo mislim ako je to njegova vlastita[br]originalna ideja, njegova ideja od početka, 0:40:20.839,0:40:25.578 onda bi to bila jedina situacija[br]u kojoj bi ja to smatrala prihvatljivim. 0:40:26.098,0:40:29.130 Jer na taj način ne možete tvrditi[br]da je bio pod pritiskom, 0:40:29.238,0:40:32.139 znate, tri protiv jednoga[br]ili bilo koji omjer bio. 0:40:32.759,0:40:36.080 I mislim ako je on donio odluku[br]da daje svoj život, 0:40:36.080,0:40:41.088 onda se on samovoljno žrtvuje, [br]što neki mogu smatrati vrijednim divljenja, 0:40:41.279,0:40:44.060 a drugi se mogu ne slagati s tom odlukom. 0:40:45.449,0:40:47.839 Dakle, ako je on nadošao na tu ideju, 0:40:49.099,0:40:52.860 to je jedina vrsta suglasnosti[br]u koju se možemo pouzdati, moralno, 0:40:53.010,0:40:54.479 onda bi to bilo u redu? 0:40:54.788,0:40:59.283 U protivnom bilo bi to nešto kao[br]iznuđena suglasnost 0:40:59.509,0:41:02.105 u danim okolnostima, mislite? 0:41:05.048,0:41:09.763 Da li itko misli da čak i [br]Parkerova suglasnost 0:41:10.728,0:41:14.097 ne bi opravdala njihov čin ubojstva? 0:41:15.178,0:41:16.288 Tko tako misli? 0:41:17.928,0:41:19.378 Recite nam zašto, ustanite. 0:41:19.539,0:41:25.108 Mislim da bi Parker bio ubijen u nadi[br]da će drugi članovi posade biti spašeni, 0:41:26.209,0:41:28.900 pa onda nema definitivnog razloga[br]da on bude ubijen 0:41:29.250,0:41:32.169 jer ne znate kada će oni biti spašeni. 0:41:32.269,0:41:34.169 Pa ako ga ubijete i to bude uzalud, 0:41:34.199,0:41:37.820 hoćete li nastaviti ubijati članove [br]posade i na kraju nitko neće ostati? 0:41:38.039,0:41:39.909 Jer netko će na koncu umrijeti. 0:41:40.259,0:41:43.605 Pa, moralna logika situacije[br]izgleda da je ta. 0:41:44.199,0:41:48.729 Da bi oni nadalje odabirali najslabije,[br]jednog po jednog, 0:41:49.928,0:41:51.928 dok ne bi bili spašeni. 0:41:51.958,0:41:56.806 A u ovom slučaju, na sreću, bili su spašeni[br]kad ih bar troje još bilo živo. 0:41:58.639,0:42:00.420 Da je Parker da svoj pristanak, 0:42:00.968,0:42:03.118 bili tada bilo u redu ili ne? 0:42:03.438,0:42:05.699 Ne, još uvijek ne bi bilo u redu. 0:42:06.149,0:42:07.850 Recite nam zašto ne bi bilo u redu? 0:42:08.030,0:42:11.588 Prije svega ja vjerujem da je kanibalizam[br]moralno neispravan 0:42:12.908,0:42:15.439 i ne biste smjeli jesti[br]ljudsko biće ni u kom slučaju. 0:42:16.579,0:42:19.279 Dakle, kanibalizam je moralno nedopušten[br]kao takav ... 0:42:19.380,0:42:23.730 Dakle, čak i u scenariju[br]u kojem bi se čekalo da netko umre 0:42:24.190,0:42:25.918 još uvijek bi to bilo nedopustivo? 0:42:26.018,0:42:27.629 Da, za mene osobno. 0:42:27.723,0:42:32.793 Čini mi se da to sve ovisi[br]o osobnom moralu. 0:42:35.460,0:42:36.939 To je tek moje mišljenje. 0:42:37.009,0:42:39.029 Naravno, drugi ljudi se neće složiti ... 0:42:39.338,0:42:41.326 Pa da vidimo koja su [br]njihova neslaganja 0:42:41.498,0:42:45.821 i onda ćemo vidjeti da li imaju[br]dovoljne razloge da vas razuvjere. 0:42:50.489,0:42:56.439 Ima li netko tko bi mogao objasniti,[br]vi koji ste skloni suglasnosti, 0:42:57.789,0:43:02.726 možete li objasniti zašto suglasnost[br]čini takvu moralnu razliku. 0:43:03.358,0:43:04.930 Što je s idejom lutrije? 0:43:05.460,0:43:07.040 Da li se to računa kao suglasnost? 0:43:07.130,0:43:10.209 Sjetite se, na početku Dudley je[br]predložio lutriju. 0:43:10.779,0:43:14.599 Pretpostavimo da su se složili[br]s lutrijom, 0:43:17.369,0:43:21.488 koliko vas bi tada reklo[br]- to je bilo u redu? 0:43:21.809,0:43:26.440 Pretpostavimo da su vukli slamku,[br]mali od palube je izgubio i priča ide dalje. 0:43:26.530,0:43:29.228 Koliko ljudi bi tada reklo[br]da je bilo moralno dopustivo? 0:43:33.199,0:43:36.640 Brojevi rastu kad dodamo lutriju.[br]Da čujemo jednog od vas 0:43:37.030,0:43:40.359 za kojega bi lutrija činila[br]moralnu razliku? 0:43:41.368,0:43:42.228 Zašto bi? 0:43:43.458,0:43:47.149 Mislim da ključni element koji[br]po meni to čini zločinom 0:43:47.539,0:43:52.495 je ideja da su oni u jednom času odlučili[br]da su njihovi životi važniji od njegovog, 0:43:53.849,0:43:56.140 a mislim da je to zapravo[br]osnova svakog zločina. 0:43:56.608,0:44:01.587 To je kao: moje potrebe, moje želje[br]važnije su od tvojih i moje imaju prednost. 0:44:01.977,0:44:05.829 A da su imali lutriju gdje su svi suglasni[br]da netko mora umrijeti 0:44:06.478,0:44:10.119 to je onda kao da se svi žrtvuju[br]da spase ostale. 0:44:10.779,0:44:12.079 Onda bi to bilo u redu? 0:44:12.949,0:44:14.740 Malo groteskno, ali ... 0:44:15.880,0:44:17.467 Ali moralno dopustivo? 0:44:17.578,0:44:18.318 Da. 0:44:18.748,0:44:20.218 A kako se ti zoveš? 0:44:20.308,0:44:21.288 Matt. 0:44:25.239,0:44:30.024 Znači Matt ono što tebe muči nije kanibalizam[br]nego izostanak propisanog postupka? 0:44:31.389,0:44:33.779 Pretpostavljam da bi se moglo tako reći. 0:44:34.688,0:44:36.853 A može li netko, tko se slaže s Mattom 0:44:38.180,0:44:42.059 reći malo više o tome zašto bi lutrija, 0:44:43.968,0:44:47.938 po vašem mišljenju, činila to[br]moralno dopustivim? 0:44:50.208,0:44:53.578 Kako sam ja to prvobitno razumijela,[br]cijeli problem je bio u tome da 0:44:53.578,0:44:55.726 malog od palube nikada nisu konzultirali 0:44:56.078,0:44:58.718 o tome da li će mu se ili ne,[br]nešto dogoditi, 0:44:58.718,0:45:02.818 čak i sa prvobitnom lutrijom,[br]hoće li u njoj sudjelovati, 0:45:02.818,0:45:05.810 jednostavno je bilo odlučeno[br]da je on taj koji će umrijeti. 0:45:05.900,0:45:07.891 Točno, to se dogodilo u stvarnom slučaju, 0:45:08.170,0:45:12.897 ali da je bila lutrija i svi su se složili[br]oko procedure, mislite da bi bilo u redu? 0:45:13.269,0:45:16.148 Točno, jer onda svi znaju [br]da će se dogoditi smrt, 0:45:16.418,0:45:20.399 dok mali od palube nije znao[br]čak ni da se vodi ta rasprava. 0:45:20.649,0:45:26.191 Nije bilo nikakvog upozorenja njemu[br]da bi znao: 'Hej, ja sam možda taj koji umire!'. 0:45:26.509,0:45:30.259 Dobro, pretpostavimo da se svi slažu[br]s lutrijom, lutrija se održi, 0:45:30.259,0:45:33.499 mali od palube gubi,[br]ali se predomisli. 0:45:34.338,0:45:36.959 Već ste odlučili, to je kao [br]usmeni ugovor, 0:45:37.099,0:45:40.859 ne možete odustati od toga,[br]odluka je donesena. 0:45:41.229,0:45:45.599 Da znate da umirete kako bi drugi[br]mogli živjeti vi bi ... 0:45:45.998,0:45:49.968 Da je umro netko drugi [br]znate da bi vi konzumirali njega, pa ... 0:45:51.969,0:45:54.896 Ali onda bi on mogao reći:[br]'Znam, ali ja sam izgubio.' 0:45:56.089,0:45:58.439 Ja samo mislim da je u tome[br]cijeli moralni spor, 0:45:58.439,0:46:04.099 da nije konzultiran mali od palube[br]i to je najjezivije 0:46:04.778,0:46:06.945 da on uopće nije imao pojma[br]što se zbiva. 0:46:07.199,0:46:12.064 Da je on znao što se zbiva[br]bilo bi malo razumljivije. 0:46:12.198,0:46:13.599 Dobro, sada želim čuti ... 0:46:14.510,0:46:16.819 Dakle, postoje neki koji misle 0:46:17.048,0:46:20.388 da je to moralno dopustivo,[br]ali samo oko 20% vas 0:46:23.698,0:46:25.779 na čelu s Marcusom. 0:46:26.239,0:46:28.119 Onda postoje neki koji kažu, 0:46:28.149,0:46:31.669 pravi problem ovdje je[br]izostanak suglasnosti, 0:46:32.618,0:46:35.959 bilo suglasnosti o lutriji, fer proceduri 0:46:38.138,0:46:43.829 ili, Kathleenina ideja, [br]suglasnosti u času smrti. 0:46:45.139,0:46:53.438 A ako dodamo suglasnost onda je više ljudi[br]sklono žrtvovanje smatrati moralno opravdanim. 0:46:54.528,0:46:58.072 Sada bih na koncu želio čuti[br]one od vas koji misle 0:46:58.242,0:47:00.983 da čak i s pristankom,[br]čak i s lutrijom, 0:47:01.508,0:47:06.294 čak i s Parkerovim zadnjim[br]promrmljanim riječima suglasnosti, 0:47:06.949,0:47:08.774 u zadnjem času, 0:47:09.179,0:47:11.538 to bi ipak bilo neispravno. 0:47:12.447,0:47:14.848 I zašto bi to bilo neispravno?[br]To želim čuti. 0:47:16.998,0:47:21.378 Pa, cijelo vrijeme sam naginjala[br]kategoričkom moralnom rasuđivanju 0:47:22.639,0:47:28.488 i mislim da postoji mogućnost[br]da bi se složila s idejom lutrije 0:47:28.698,0:47:32.174 i da se onda gubitnik ubije sam, 0:47:33.349,0:47:35.588 tako da to onda ne bi bio[br]aktivno ubojstvo, 0:47:35.718,0:47:38.908 no ipak mislim da čak i na taj način[br]to je iznuđeno. 0:47:39.308,0:47:41.598 I također mislim da nema nimalo kajanja 0:47:41.598,0:47:44.499 Kao što Dudley piše u svom dnevniku: [br]'Jeli smo svoj doručak.' 0:47:44.909,0:47:47.164 Izgleda kao da je on kao -Oh, ... 0:47:47.659,0:47:50.872 Znate, cijela ideja nevrednovanja[br]tuđeg života. 0:47:51.440,0:47:55.719 Eto zbog toga mi se čini da trebam[br]zauzeti kategorički stav. 0:47:55.719,0:47:57.289 Želite baciti knjigu na njega? 0:47:57.739,0:48:00.718 Zato što se ne kaje i nema osjećaj[br]da je učinio išta loše. 0:48:00.908,0:48:01.789 Točno. 0:48:04.129,0:48:06.849 Ima li još branitelja 0:48:08.318,0:48:11.668 koji kažu da je to jednostavno[br]kategorički neispravno, sa ili bez suglasnosti. 0:48:11.668,0:48:13.644 Da, ustanite. Zašto? 0:48:13.804,0:48:16.874 Mislim da nesumnjivo, kako je[br]oblikovano naše društvo, ubojstvo je ubojstvo, 0:48:16.874,0:48:18.461 ubojstvo je ubojstvo[br]na svaki način. 0:48:18.461,0:48:21.562 a naše društvo[br]na ubojstvo gleda uvijek jednako 0:48:21.562,0:48:23.441 i mislim da nema razlike[br]u bilo kojem slučaju. 0:48:23.441,0:48:24.801 Dobro, da vas pitam nešto? 0:48:25.051,0:48:27.590 Tri života su u pitanju,[br]nasuprot jednom, 0:48:30.328,0:48:32.719 taj jedan, mali od palube,[br]nije imao nikoga od obitelji, 0:48:32.789,0:48:34.319 nitko nije ovisio o njemu, 0:48:34.489,0:48:38.348 ova trojica su imala obitelji[br]kod kuće u Engleskoj, ovisili su o njima, 0:48:38.498,0:48:40.408 imali su žene i djecu. 0:48:41.159,0:48:42.819 Sjetite se Benthama. 0:48:43.219,0:48:48.703 Bentham kaže moramo uzeti u obzir[br]dobrobit, korisnost, sreću svakoga. 0:48:49.188,0:48:53.168 Moramo sve to zbrojiti, pa onda to nisu[br]samo brojevi tri prema jedan, 0:48:54.299,0:48:57.171 to su također svi ti ljudi kod kuće. 0:48:58.759,0:49:03.269 Ustvari, londonske novine toga vremena[br]i javno mnijenje suosjećali su s njima, 0:49:03.918,0:49:05.148 Dudleyem i Stephensom, 0:49:05.478,0:49:10.343 a novine su rekle - da nisu bili[br]motivirani ljubavlju i brigom 0:49:10.359,0:49:13.679 za svoje voljene kod kuće[br]sigurno to ne bi bili učinili. 0:49:14.239,0:49:16.719 Dobro, ali kako se to razlikuje od [br]ljudi na uglu 0:49:16.939,0:49:20.088 koji imaju istu želju da prehrane svoje[br]obitelji? Ja mislim da nema razlike. 0:49:20.088,0:49:24.259 Mislim da u svakom slučaju ako ja ubijem vas[br]da bi popravio svoj status, to je ubojstvo 0:49:24.340,0:49:26.620 i mislim da to trebamo gledati[br]u istom svjetlu. 0:49:26.683,0:49:29.442 Umjesto da kriminaliziramo[br]određene aktivnosti 0:49:30.278,0:49:33.511 i neke stvari prikazujemo više nasilne[br]i surovije 0:49:33.760,0:49:36.490 kad je u tom istom slučaju to isto,[br]sve je to isti čin 0:49:36.760,0:49:39.980 i mentalitet koji ide s ubojstvom,[br]potreba da se nahrane svoje obitelji. 0:49:40.150,0:49:43.648 Pretpostavimo da ih nije bilo tri,[br]pretpostavimo da ih je bilo 30, 300. 0:49:44.268,0:49:46.558 Jedan život da se spasi tri stotine. 0:49:47.268,0:49:48.931 Ili u vrijeme rata, tri tisuće ... 0:49:49.440,0:49:51.179 Ili pretpostavimo da su ulozi čak i veći. 0:49:51.349,0:49:52.748 Pretpostavimo da su ulozi[br]čak i veći. 0:49:52.788,0:49:54.508 Misllim da je to još uvijek ista stvar. 0:49:54.678,0:49:58.228 Mislite li da je Bentham imao krivo[br]kad je rekao da je ispravno postupati 0:49:58.308,0:50:00.339 tako da se zbroji skupna sreća? 0:50:00.719,0:50:02.221 Mislite da je u krivu? 0:50:02.478,0:50:05.158 Ne mislim da je u krivu, ali mislim[br]da je ubojstvo ubojstvo u svakom slučaju. 0:50:05.158,0:50:08.038 Pa onda Bentham mora biti u krivu![br]Ako ste vi u pravu, on je u krivu! 0:50:08.038,0:50:09.578 Dobro, on je u krivu. 0:50:09.708,0:50:11.739 U redu je, hvala vam, bilo je dobro. 0:50:13.539,0:50:15.418 Odmaknimo se od ove diskusije 0:50:18.218,0:50:22.339 i uočimo koliko smo prigovora čuli[br]u vezi onoga što su činili. 0:50:23.259,0:50:25.479 Čuli smo neke obrane[br]toga što su učinili. 0:50:26.048,0:50:29.879 Obrana se odnosi na potrebu,[br]njihove kobne okolnosti 0:50:30.098,0:50:34.847 i, barem implicitno, ideju[br]da su brojevi važni. 0:50:36.018,0:50:39.298 I ne samo da su važni brojevi,[br]nego su važni i širi učinci, 0:50:40.020,0:50:42.770 njihove obitelji kod kuće,[br]oni koji ovise o njima. 0:50:43.178,0:50:45.598 Parker je bio siroče,[br]nikome neće nedostajati. 0:50:47.978,0:50:52.023 Pa, ako sve zbrojite,[br]ako pokušate izračunati 0:50:52.648,0:50:55.208 bilancu sreće i patnje, 0:50:56.599,0:51:00.208 mogli biste imati osnovu da kažete[br]da je ono što su učinili ispravno. 0:51:02.398,0:51:05.988 Onda smo čuli bar tri različite[br]vrste prigovora. 0:51:09.469,0:51:13.930 Čuli smo prigovor koji kaže,[br]ono što su učinili kategorički je neispravno, 0:51:14.172,0:51:16.979 upravo ovdje, na kraju,[br]kategorički neispravno. 0:51:17.079,0:51:19.510 Ubojstvo je ubojstvo,[br]uvijek je neispravno, 0:51:19.820,0:51:23.759 čak i ako povećava ukupnu sreću[br]društva. 0:51:25.639,0:51:27.256 Kategorički prigovor, 0:51:28.498,0:51:33.967 No, još uvijek nam ostaje istražiti[br]zašto je ubojstvo kategorički neispravno. 0:51:35.449,0:51:41.189 Da li je to zato jer čak i mali od palube[br]imaju određena fundamentalna prava? 0:51:42.338,0:51:43.510 A ako je to razlog, 0:51:44.400,0:51:50.760 odakle proizlaze ta prava ako ne iz[br]ideje veće dobrobiti ili korisnosti ili sreće? 0:51:50.810,0:51:52.110 Pitanje broj jedan. 0:51:52.759,0:52:00.455 Drugi su rekli, lutrija bi činila razliku,[br]fer procedura, rekao je Matt, 0:52:05.949,0:52:07.650 I neki ljudi su naginjali tome. 0:52:08.768,0:52:11.568 To nije točno kategorički prigovor, 0:52:12.188,0:52:15.709 nego kaže, svi se trebaju računati[br]kao jednaki, 0:52:16.388,0:52:21.980 čak iako na koncu jedan može[br]biti žrtvovan za opću dobrobit. 0:52:23.009,0:52:25.779 To nam ostavlja još jedno pitanje[br]za istraživanje. 0:52:26.059,0:52:30.590 Zašto sporazum o određenoj proceduri,[br]čak i fer proceduri, 0:52:31.339,0:52:36.360 opravdava bilo koji rezultat[br]koji proizlazi iz izvođenja te procedure? 0:52:37.488,0:52:38.878 Pitanje broj dva. 0:52:39.898,0:52:41.338 I pitanje broj tri, 0:52:42.398,0:52:44.393 osnovna ideja suglasnosti. 0:52:44.968,0:52:46.702 Kathleen nas je navela na to. 0:52:48.278,0:52:54.169 Da se mali od palube složio samovoljno,[br]a ne pod pritiskom, 0:52:54.498,0:52:56.110 kao što je bilo dodano, 0:52:56.728,0:53:00.528 onda bi bilo u redu oduzeti mu život[br]da bi se spasili ostali. 0:53:01.918,0:53:04.450 Čak je više ljudi prihvatilo tu ideju, 0:53:04.900,0:53:08.155 ali iz toga proizlazi[br]treće filozofsko pitanje. 0:53:08.528,0:53:13.018 Kakvo je moralno djelovanje pristanka? 0:53:14.438,0:53:18.338 Zašto čin pristanka[br]čini takvu moralnu razliku 0:53:19.188,0:53:22.578 da jedan čin koji bi bio neispravan,[br]oduzimanje života bez pristanka, 0:53:23.998,0:53:27.569 moralno je dopustivo uz pristanak? 0:53:29.619,0:53:33.211 Da bismo razmotrili ta tri pitanja[br]morat ćemo čitati neke filozofe, 0:53:34.108,0:53:38.578 a od sljedećeg puta počet ćemo čitati[br]Benthama i Johna Stewarta Milla 0:53:38.648,0:53:40.299 filozofe utilitarizma.