WEBVTT 00:00:04.200 --> 00:00:08.240 Pravednost Michael Sandel 00:00:08.240 --> 00:00:15.240 Moralna strana ubojstva 00:00:33.509 --> 00:00:36.587 Ovo je kolegij o pravednosti i započinjemo jednom pričom. 00:00:37.750 --> 00:00:39.735 Pretpostavimo da ste vozač tramvaja 00:00:40.179 --> 00:00:43.809 i vaš tramvaj juri tračnicama 90 km na sat, 00:00:44.640 --> 00:00:48.741 a na kraju tračnica uočavate pet radnika koji rade na pruzi. 00:00:49.390 --> 00:00:52.972 Pokušavate stati, ali ne možete, kočnice vam ne rade. 00:00:53.829 --> 00:00:56.077 Očajni ste jer znate 00:00:56.780 --> 00:01:01.090 da ako se zaletite u tih pet radnika, svi će poginuti. 00:01:01.490 --> 00:01:03.612 Pretpostavimo da to znate sa sigurnošću 00:01:05.079 --> 00:01:06.703 i osjećate se bespomoćni 00:01:07.420 --> 00:01:12.550 dok ne primijetite sporedni kolosijek s desne strane 00:01:13.170 --> 00:01:18.039 a na kraju tog kolosijeka je jedan radnik koji radi na pruzi. 00:01:19.079 --> 00:01:25.326 Vaš upravljač radi pa možete skrenuti tramvaj, ako želite, 00:01:26.010 --> 00:01:27.912 na sporedni kolosijek, 00:01:28.680 --> 00:01:31.751 i tako ubiti jednog radnika, ali poštedivši petoricu. 00:01:33.269 --> 00:01:35.199 Evo našeg prvog pitanja. 00:01:35.929 --> 00:01:37.809 Kako ispravno postupiti? 00:01:38.819 --> 00:01:40.478 Što biste vi učinili? 00:01:40.638 --> 00:01:42.030 Hajde da provedemo anketu. 00:01:42.470 --> 00:01:47.700 Koliko bi vas skrenulo tramvaj na sporedni kolosijek? 00:01:47.850 --> 00:01:49.030 Dignite ruke. 00:01:52.019 --> 00:01:55.330 Koliko vas ne bi? Koliko bi vas nastavilo ravno naprijed? 00:01:57.650 --> 00:02:00.630 Ostavite podignute ruke, oni koji bi išli ravno naprijed. 00:02:04.049 --> 00:02:07.334 Šačica ljudi bi, velika većina bi skrenula. 00:02:08.048 --> 00:02:09.548 Da čujemo prvo ... 00:02:09.878 --> 00:02:15.039 Sada moramo istražiti razloge zašto mislite da je to ispravno učiniti. 00:02:15.089 --> 00:02:20.769 Počnimo s većinom, koja bi skrenula na sporedni kolosijek. 00:02:21.798 --> 00:02:23.409 Zašto bi to učinili? 00:02:23.669 --> 00:02:25.241 Koji bi bio vaš razlog? 00:02:25.688 --> 00:02:28.569 Tko bi nam iznio svoj razlog? 00:02:29.808 --> 00:02:31.838 Samo naprijed, ustanite. 00:02:32.218 --> 00:02:37.916 Zato jer ne može biti ispravno ubiti petoro kad možete ubiti jednoga, umjesto toga. 00:02:39.579 --> 00:02:43.981 Ne bi bilo u redu ubiti petoricu, ako možete ubiti samo jednog umjesto toga. 00:02:46.748 --> 00:02:48.208 To je dobar razlog. 00:02:52.959 --> 00:02:53.778 Tko još? 00:02:53.848 --> 00:02:56.658 Da li se svi slažu s tim razlogom? 00:02:59.228 --> 00:03:00.078 Izvolite. 00:03:01.218 --> 00:03:07.400 Mislim da je to isti razlog zbog kojeg ljude koji su u 9/11 spustili avion 00:03:07.533 --> 00:03:09.309 u polje u Pennsilvaniji, smatramo herojima 00:03:09.399 --> 00:03:15.035 jer su odabrali da ubiju ljude u avionu, a ne puno više ljudi u velikim zgradama. 00:03:15.909 --> 00:03:20.650 Znači, princip je bio isti u 9/11, tragična okolnost, 00:03:21.379 --> 00:03:24.593 bolje ubiti jednoga da bi petorica preživjela? 00:03:25.359 --> 00:03:28.220 Je li to razlog za većinu vas koji bi skrenuli? 00:03:30.428 --> 00:03:34.598 Da čujemo sada one koji su u manjini, 00:03:35.508 --> 00:03:37.217 one koji ne bi skrenuli. 00:03:40.558 --> 00:03:44.966 Mislim da je to ista vrsta mentaliteta koja opravdava genocid i totalitarizam, 00:03:45.206 --> 00:03:49.156 kako bi spasili jednu naciju, istrebljujete drugu. 00:03:50.189 --> 00:03:52.538 Pa što bi vi učinili u tom slučaju? 00:03:53.038 --> 00:04:00.098 Kako bi izbjegli užase genocida, vi bi se zaletili u petoricu i ubili ih? 00:04:03.389 --> 00:04:05.018 Po svoj prilici, da. 00:04:07.408 --> 00:04:08.787 Dobro, tko još? 00:04:09.930 --> 00:04:11.908 To je hrabar odgovor, hvala. 00:04:13.348 --> 00:04:17.917 Razmotrimo drugi slučaj s tramvajem 00:04:20.078 --> 00:04:25.338 i pogledajmo da li se, oni od vas koji su u većini, 00:04:27.428 --> 00:04:29.864 i dalje žele držati tog principa, 00:04:30.990 --> 00:04:33.329 bolje da umre jedan, kako bi petorica preživjela. 00:04:33.500 --> 00:04:36.743 Ovaj puta vi niste vozač tramvaja, nego promatrač. 00:04:37.998 --> 00:04:41.231 Stojite na mostu iznad tramvajske pruge, 00:04:42.678 --> 00:04:44.898 a prugom se približava tramvaj. 00:04:45.658 --> 00:04:47.830 Na kraju pruge nalazi se 5 radnika, 00:04:49.620 --> 00:04:51.329 kočnice ne rade, 00:04:51.738 --> 00:04:55.453 tramvaj samo što nije naletio na petoricu i ubio ih. 00:04:55.949 --> 00:05:00.238 A sada, vi niste vozač i zaista se osjećate bespomoćni. 00:05:01.309 --> 00:05:04.263 Dok ne primijetite da pokraj vas stoji 00:05:06.499 --> 00:05:09.373 naginjući se preko ograde mosta, 00:05:09.889 --> 00:05:12.210 jedan vrlo debeli čovjek. 00:05:17.398 --> 00:05:20.874 I mogli biste ga malo pogurnuti 00:05:22.668 --> 00:05:25.752 on bi pao s mosta na tračnice 00:05:27.949 --> 00:05:31.198 točno ispred tramvaja, 00:05:32.199 --> 00:05:35.483 on bi poginuo, ali bi spasio petoricu. 00:05:38.798 --> 00:05:43.563 Koliko vas bi gurnulo debelog čovjeka s mosta? Dignite ruke. 00:05:48.089 --> 00:05:49.532 Koliko vas ne bi? 00:05:50.859 --> 00:05:52.489 Većina ljudi ne bi. 00:05:53.849 --> 00:05:55.337 Postavlja se očito pitanje, 00:05:55.788 --> 00:05:58.075 što se dogodilo s principom, 00:05:59.878 --> 00:06:03.739 bolje spasiti pet života, čak i po cijenu žrtvovanja jednog, 00:06:03.839 --> 00:06:08.279 što je s principom koji su skoro svi podržali u prvom slučaju? 00:06:09.240 --> 00:06:12.809 Želio bih čuti nekoga iz većine u oba slučaja. 00:06:13.349 --> 00:06:16.287 Kako objašnjavate razliku između ta dva slučaja? 00:06:18.629 --> 00:06:23.460 Mislim da drugi uključuje aktivni izbor da se osobu gurne. 00:06:24.279 --> 00:06:29.736 Mislim da se, u suprotnom, ta osoba sama ne bi uplela u tu situaciju, 00:06:29.829 --> 00:06:32.609 pa birati u njegovo ime 00:06:36.119 --> 00:06:39.340 da ga se uključi u nešto što bi u protivnom izbjegao, 00:06:39.990 --> 00:06:42.788 mislim da je više od onog što imate u prvoj situaciji 00:06:42.830 --> 00:06:49.828 gdje tri strane, vozač i dvije grupe radnika već jesu u toj situaciji. 00:06:50.598 --> 00:06:54.239 Ali momak koji radi na sporednom kolosijeku, 00:06:55.108 --> 00:06:59.208 on nije odabrao da žrtvuje svoj život ništa više od debelog čovjeka, zar ne? 00:07:02.069 --> 00:07:04.570 To je istina, ali bio je na pruzi. 00:07:05.339 --> 00:07:07.409 Ovaj momak je bio na mostu! 00:07:10.439 --> 00:07:12.570 Možete nastaviti ako želite. 00:07:13.550 --> 00:07:15.159 Dobro, to je teško pitanje. 00:07:15.329 --> 00:07:18.298 Bili ste dobri, jako dobri, to je teško pitanje. 00:07:19.629 --> 00:07:24.470 Tko bi još pokušao naći način za usaglašavanje 00:07:26.028 --> 00:07:28.928 reakciju većine u ova dva slučaja? 00:07:30.158 --> 00:07:34.190 Pretpostavljam, u prvom slučaju, gdje imate jednog radnika i petoricu, 00:07:35.178 --> 00:07:38.549 izbor je između te dvije grupe i morate jednu izabrati, 00:07:38.839 --> 00:07:42.887 a ljudi će poginuti zbog tramvaja, ne nužno zbog vaše direktne akcije. 00:07:42.911 --> 00:07:47.558 Tramvaj je van kontrole i vi u djeliću sekunde morate donijetu određenu odluku, 00:07:48.209 --> 00:07:51.798 dok je guranje čovjeka s mosta stvarni čin ubojstva s vaše strane, 00:07:52.078 --> 00:07:56.328 nad time imate kontrolu, dok nad tramvajem nemate kontrolu. 00:07:57.278 --> 00:07:59.549 Zato mislim da je to malo drugačija situacija. 00:08:00.089 --> 00:08:01.701 U redu, tko ima odgovor? 00:08:04.360 --> 00:08:05.842 Tko želi odgovoriti? 00:08:06.319 --> 00:08:07.708 Je li to pravo objašnjenje? 00:08:09.490 --> 00:08:11.439 Ja mislim da to nije baš dobar razlog 00:08:11.599 --> 00:08:14.099 jer u oba slučaja morate odlučiti tko će umrijeti 00:08:14.099 --> 00:08:16.660 jer ili ćete izabrati da skrenete i ubijete osobu 00:08:16.660 --> 00:08:19.301 što je aktivna svjesna odluka da skrenete, 00:08:19.718 --> 00:08:24.263 ili ćete izabrati da gurnete deebelog čovjeka, što je također aktivni svjesni čin. 00:08:24.438 --> 00:08:26.766 Dakle u oba slučaja radite izbor. 00:08:27.689 --> 00:08:29.128 Vi želite li odgovoriti? 00:08:29.728 --> 00:08:32.908 Nisam baš siguran da je tako, još uvijek mi se čini da je drugačije, 00:08:33.030 --> 00:08:37.070 time što ste nekoga bacili na tračnice i ubili ga, 00:08:37.340 --> 00:08:39.700 vi ste ga ustvari sami ubili. 00:08:39.810 --> 00:08:41.370 Gurate ga, vlastitim rukama. 00:08:41.470 --> 00:08:46.452 Gurate ga, a to je drugačije od upravljanja nečim što će uzrokovati smrt. 00:08:48.669 --> 00:08:51.525 To zaista ne zvuči ispravno kad to ovako govorim. 00:08:52.650 --> 00:08:54.310 Ne, to je dobro, kako se zovete? 00:08:54.310 --> 00:08:55.190 Andrew. 00:08:55.250 --> 00:08:57.537 Andrew, dozvoli da te pitam ovo: 00:08:59.310 --> 00:09:00.230 Pretpostavimo, 00:09:02.050 --> 00:09:04.455 stojeći na mostu kraj tog debelog čovjeka, 00:09:04.809 --> 00:09:05.969 ne moram ga gurnuti, 00:09:05.969 --> 00:09:11.728 pretpostavimo da stoji na poklopcu koji mogu otvoriti okrećući neki kotač, ovako. 00:09:17.140 --> 00:09:18.380 Biste li ga okrenuli? 00:09:18.690 --> 00:09:22.502 Iz nekog razloga to izgleda još više pogrešno. 00:09:23.859 --> 00:09:28.200 Mislim, možda ako bi se slučajno naslonili na taj kotač ili tako nešto. 00:09:30.899 --> 00:09:35.676 Ili recimo da tramvaj leti prema sklopci koja će otvoriti poklopac, 00:09:37.569 --> 00:09:39.140 onda bih se mogao složiti s tim. 00:09:39.140 --> 00:09:42.052 Pošteno, to još uvijek izgleda pogrešno 00:09:42.230 --> 00:09:45.124 na način na koji nije izgledalo u prvom slučaju skretanja. 00:09:46.110 --> 00:09:50.069 I na još jedan način, u prvoj situaciji vi ste direktno uključeni u situaciju, 00:09:50.419 --> 00:09:52.232 u drugoj ste samo promatrač, 00:09:52.450 --> 00:09:55.818 pa imate izbor da se uključite ili ne guranjem debelog čovjeka. 00:09:55.958 --> 00:09:58.588 Zaboravimo na trenutak na ovaj slučaj. 00:10:01.269 --> 00:10:05.700 Zamislimo drugačiji slučaj. Ovaj puta vi ste doktor na hitnoj 00:10:06.160 --> 00:10:09.117 i dolazi vam šest pacijenata. 00:10:11.249 --> 00:10:14.796 Stradali su u groznom prometnom udesu tramvaja. 00:10:18.240 --> 00:10:21.719 Njih pet zadobilo je srednje teške povrede, jedan je u kritičnom stanju, 00:10:21.719 --> 00:10:26.000 trebao bi vam cijeli dan da se pobrinete za kritično povrijeđenog, 00:10:27.260 --> 00:10:29.610 no za to vrijeme onih pet bi umrlo. 00:10:29.650 --> 00:10:35.880 Ili se možete pobrinuti za tu petoricu, ali za to vrijeme onaj kritični bi umro. 00:10:36.470 --> 00:10:40.363 Koliko vas bi spasilo petoricu da ste doktor? 00:10:40.850 --> 00:10:42.772 Koliko bi vas bi spasilo jednoga? 00:10:44.480 --> 00:10:47.635 Vrlo malo ljudi, samo šačica ljudi. 00:10:49.089 --> 00:10:51.259 Isti razlog, pretpostavljam? 00:10:51.440 --> 00:10:53.372 Jedan život nasuprot pet? 00:10:55.570 --> 00:10:58.422 Sada razmotrite slučaj drugog doktora. 00:10:58.890 --> 00:11:01.543 Ovaj puta vi ste kirurg za transplantacije, 00:11:02.080 --> 00:11:05.655 imate 5 pacijenata i svakom je očajnički nužna 00:11:06.159 --> 00:11:08.847 transplantacija organa kako bi preživio. 00:11:09.639 --> 00:11:14.122 Jednom treba srce, jednom pluća, jednom bubreg, jednom jetra 00:11:15.130 --> 00:11:17.535 i petom gušterača. 00:11:20.210 --> 00:11:22.081 Ali nemate nijednog darivatelja organa. 00:11:22.779 --> 00:11:26.229 Uskoro ćete ih gledati kako umiru. 00:11:27.649 --> 00:11:29.671 A onda vam sine, 00:11:30.649 --> 00:11:34.800 da je u sobi do zdravi mladić koji je došao na pregled. 00:11:43.470 --> 00:11:44.940 Sviđa vam se to? 00:11:46.469 --> 00:11:48.946 I on je zadrijemao, 00:11:53.269 --> 00:11:55.413 mogli biste potiho ući, 00:11:56.769 --> 00:11:59.548 iščupati mu pet organa, ta osoba bi umrla, 00:12:00.600 --> 00:12:02.490 ali mogli biste spasiti petoricu. 00:12:03.169 --> 00:12:04.554 Koliko bi vas to učinilo? 00:12:06.971 --> 00:12:07.971 Itko? 00:12:10.229 --> 00:12:12.546 Koliko? Dignite ruke, ako bi to učinili. 00:12:17.820 --> 00:12:19.250 Netko na balkonu? 00:12:20.465 --> 00:12:21.465 Vi bi? 00:12:21.790 --> 00:12:24.230 Budite oprezni, ne naginjite se previše. 00:12:26.709 --> 00:12:28.190 Koliko ne bi? 00:12:29.340 --> 00:12:30.360 U redu. 00:12:30.760 --> 00:12:35.228 Što vi kažete, govorite vi sa balkona koji bi iščupali organe, zašto? 00:12:35.840 --> 00:12:38.629 Ja bi zapravo htio razmotriti malo drugačiju mogućnost, 00:12:38.629 --> 00:12:41.358 tako da uzmem jednog od onih kojima treba organ, 00:12:41.358 --> 00:12:42.888 koji će prvi umrijeti 00:12:43.108 --> 00:12:46.619 i iskoristio bi njegova četiri zdrava organa da spasim ostalu četvoricu. 00:12:49.920 --> 00:12:51.909 To je prilično dobra ideja. 00:12:54.389 --> 00:12:55.943 To je sjajna ideja, 00:12:57.830 --> 00:12:59.189 osim činjenice 00:13:00.159 --> 00:13:03.108 da ste upravo upropastili filozofsku poantu. 00:13:06.159 --> 00:13:09.240 Odmaknimo se malo od ovih priča i argumenata. 00:13:10.240 --> 00:13:15.897 da uočimo nekoliko stvari u načinu kako su se argumenti počeli razvijati. 00:13:17.199 --> 00:13:22.062 Određeni moralni principi već su se počeli pojavljivati 00:13:23.340 --> 00:13:24.919 u diskusijama koje smo vodili. 00:13:25.879 --> 00:13:30.439 Pa hajde da vidimo koji su to moralni principi. 00:13:31.250 --> 00:13:35.215 Prvi moralni princip koji se pojavio u diskusiji kaže 00:13:35.710 --> 00:13:38.550 ispravna stvar, moralna stvar koju treba učiniti 00:13:38.610 --> 00:13:43.899 ovisi o posljedicama kojima će rezultirati vaše djelovanje. 00:13:45.480 --> 00:13:48.650 Na kraju dana, bolje je da prežive petorica 00:13:49.140 --> 00:13:51.160 čak i ako jedan mora umrijeti. 00:13:51.950 --> 00:13:57.360 To je primjer konsekvencijalističkog moralnog rasuđivanja. 00:13:58.710 --> 00:14:03.110 Konsekvencijalističko moralno rasuđivanje locira moralnost u posljedicama nekog čina 00:14:03.160 --> 00:14:07.235 u stanju svijeta koji će biti rezultat onoga što učinite. 00:14:08.779 --> 00:14:11.989 Ali onda smo otišli malo dalje razmatrajući druge slučajeve 00:14:12.789 --> 00:14:14.438 i ljudi nisu baš bili sigurni 00:14:14.960 --> 00:14:18.385 u konsekvencijalistčko moralno rasuđivanje. 00:14:20.529 --> 00:14:24.745 Kad su oklijevali gurnuti debelog čovjeka s mosta 00:14:25.789 --> 00:14:28.778 ili iščupati organe nevinog pacijenta, 00:14:29.330 --> 00:14:32.529 ljudi su ukazivali na razloge 00:14:33.839 --> 00:14:39.589 povezane s intrinzičnom kvalitetom samog čina, 00:14:39.800 --> 00:14:42.154 kakve god mogle biti posljedice. 00:14:42.439 --> 00:14:44.172 Ljudi su se opirali, 00:14:44.819 --> 00:14:48.539 ljudi su mislili da je to jednostavno pogrešno, kategorički pogrešno, 00:14:49.480 --> 00:14:56.274 ubiti osobu, nevinu osobu, čak i u ime spašavanja pet života. 00:14:56.284 --> 00:15:02.964 Bar su tako ljudi mislili u drugoj verziji priča koje smo razmatrali. 00:15:05.420 --> 00:15:11.065 To ukazuje na drugi kategorički način 00:15:12.617 --> 00:15:15.567 razmišljanja o moralnom rasuđivanju. 00:15:15.749 --> 00:15:18.639 Kategoričko moralno rasuđivanje postavlja moralnost 00:15:18.814 --> 00:15:21.304 u određene apsolutne moralne zahtjeve, 00:15:21.354 --> 00:15:25.718 određene kategoričke dužnosti i prava bez obzira na posljedice. 00:15:27.440 --> 00:15:30.490 U danima i tjednima pred nama istraživat ćemo 00:15:30.680 --> 00:15:35.163 razlike između konsekvencijalističkih i kategoričkih moralnih principa. 00:15:36.539 --> 00:15:42.650 Najutjecajniji primjer konsekvencijalističkog moralnog rasuđivanja je utilitarizam, 00:15:42.959 --> 00:15:48.929 doktrina koju je razvio Jeremy Bentham, engleski političkii filozof 18. stoljeća. 00:15:51.100 --> 00:15:56.319 Najvažniji filozof kategoričkog moralnog rasuđivanja 00:15:56.619 --> 00:16:01.472 je Emmanuel Kant, njemački filozof 18. stoljeća. 00:16:02.590 --> 00:16:06.221 Stoga ćemo razmotriti ova dva različita načina moralnog rasuđivanja 00:16:07.259 --> 00:16:09.709 procijeniti ih i također razmotriti druge. 00:16:10.669 --> 00:16:15.239 Ako pogledate nastavni program, primijetit ćete da čitamo niz sjajnih i čuvenih knjiga, 00:16:15.650 --> 00:16:21.910 knjige Aristotela, Johna Lockea, Immanuela Kanta, Johna Stewarta Milla 00:16:22.080 --> 00:16:22.983 i drugih. 00:16:24.029 --> 00:16:27.749 Također ćete primijetiti u programu da ne čitamo samo te knjige, 00:16:28.169 --> 00:16:30.447 bavimo se također 00:16:31.039 --> 00:16:36.040 suvremenim političkim i pravnim kontraverzama koje potiču filozofska pitanja. 00:16:37.000 --> 00:16:39.433 Diskutirat ćemo o jednakosti i nejednakosti, 00:16:39.820 --> 00:16:41.420 afirmativnu akciju (pozitivnu diskriminaciju), 00:16:41.490 --> 00:16:43.453 slobodu govora nasuprot govora mržnje, 00:16:43.698 --> 00:16:46.538 istospolne brakove, vojnu obavezu, 00:16:46.799 --> 00:16:48.960 spektar praktičnih pitanja. 00:16:49.770 --> 00:16:54.545 Zašto? Ne tek da bi oživjeli te apstraktne i daleke knjige, 00:16:55.350 --> 00:16:58.450 već da rasvjetlimo, razotkrijemo, kako filozofija utječe na 00:16:58.450 --> 00:17:01.380 naše svakidašnje živote, uključujući naše političke živote. 00:17:05.480 --> 00:17:09.730 Zato ćemo čitati te knjige i raspravljati o tim pitanjima 00:17:09.870 --> 00:17:14.008 i vidjeti kako svaki od njih utječe i rasvjetljava druge. 00:17:15.480 --> 00:17:20.439 To može zvučati dosta privlačno, ali ovdje vas moram upozoriti na nešto. 00:17:22.329 --> 00:17:24.120 A upozorenje je sljedeće: 00:17:25.210 --> 00:17:29.220 čitati ove knjige, na ovaj način, 00:17:31.549 --> 00:17:33.428 kao vježbu u samo-spoznaji, 00:17:34.119 --> 00:17:36.758 čitati ih na ovaj način nosi određene rizike, 00:17:38.019 --> 00:17:40.719 rizike koji su istovremeno osobni i politički, 00:17:41.649 --> 00:17:46.539 rizike koje poznaje svaki student političke filozofije. 00:17:47.399 --> 00:17:49.766 Ti rizici proizlaze iz činjenice 00:17:50.330 --> 00:17:55.106 da nas filozofija uči i uznemiruje 00:17:56.400 --> 00:17:59.430 suočavajući nas s onim što već znamo. 00:18:01.390 --> 00:18:02.620 Tu postoji jedna ironija, 00:18:03.390 --> 00:18:08.424 teškoća ovog kolegija skriva se u činjenici da vas uči ono što već znate. 00:18:09.789 --> 00:18:15.059 To radi uzimajući ono što znamo iz poznatih neupitnih okruženja, 00:18:16.470 --> 00:18:18.544 i pretvarajući to u nešto nepoznato. 00:18:19.979 --> 00:18:22.259 Na taj način su funkcionirali oni primjeri, 00:18:23.119 --> 00:18:28.467 s hipotetičkim pretpostavkama s kojima smo započinjali, mješavinom šaljivog i razboritog. 00:18:29.029 --> 00:18:31.610 Jednako tako funkcioniraju i te filozofske knjige. 00:18:31.650 --> 00:18:36.380 Filozofija nas otuđuje od poznatog, 00:18:37.519 --> 00:18:39.620 ne tako da nam daje nove informacije, 00:18:40.390 --> 00:18:42.610 nego pozivajući i potičući 00:18:43.599 --> 00:18:45.299 novi način opažanja, 00:18:47.420 --> 00:18:49.010 ali, i tu je rizik, 00:18:49.970 --> 00:18:53.109 jednom kada ono poznato postane strano, 00:18:54.299 --> 00:18:56.602 nikada više nije potpuno isto. 00:18:57.329 --> 00:19:01.500 Samo-spoznaja je kao izgubljena nevinost, 00:19:03.030 --> 00:19:05.449 kako god uznemirujuća bila kada ju nađete 00:19:06.029 --> 00:19:08.209 nikada je više ne možete od-misliti 00:19:09.720 --> 00:19:11.102 ili ne-znati. 00:19:13.390 --> 00:19:15.533 Ono što čini ovaj poduhvat teškim 00:19:17.259 --> 00:19:18.841 ali također intrigantnim, 00:19:19.490 --> 00:19:23.155 je to da je moralna i politička filozofija priča 00:19:25.400 --> 00:19:28.654 i vi ne znate kuda će vas ta priča odvesti, ali ono što znate 00:19:29.339 --> 00:19:32.423 je da je to priča o vama. 00:19:34.410 --> 00:19:36.269 To su osobni rizici. 00:19:37.079 --> 00:19:39.055 A što je s političkim rizicima? 00:19:39.980 --> 00:19:42.798 Jedan način predstavljanja kolegija poput ovog 00:19:43.038 --> 00:19:45.878 bio bi obećavajući vam da ćete čitanjem ovih knjiga 00:19:46.370 --> 00:19:47.919 i diskutiranjem o ovim pitanjima 00:19:48.069 --> 00:19:50.680 postati bolji, odgovorniji građani. 00:19:51.769 --> 00:19:54.510 Propitivat ćete presumpcije javnih politika, 00:19:54.510 --> 00:19:57.109 brusiti svoje političke prosudbe, 00:19:57.289 --> 00:20:00.524 postat ćete učinkovitiji sudionik javnih zbivanja. 00:20:02.549 --> 00:20:05.669 Ali to bi bilo nepotpuno i obmanjujuće obećanje. 00:20:06.369 --> 00:20:09.849 Politička fizofija uglavnom ne funkcionira na taj način. 00:20:11.490 --> 00:20:13.516 Morate dozvoliti mogućnost 00:20:14.430 --> 00:20:17.760 da vas politička filozofija može učiniti gorim građaninom, 00:20:18.809 --> 00:20:19.789 a ne boljim, 00:20:21.390 --> 00:20:26.469 ili barem gorim građaninom prije no što vas učini boljim. 00:20:27.950 --> 00:20:30.400 A to je zbog toga jer je filozofija 00:20:30.400 --> 00:20:35.100 aktivnost koja udaljava i čak iscrpljuje. 00:20:36.199 --> 00:20:39.071 A to vidite vraćajući se Sokratu; 00:20:39.560 --> 00:20:41.480 ima jedan dijalog, Gorgija, 00:20:41.480 --> 00:20:48.231 u kojem jedan od Sokratovih prijatelja, Kalikle, pokušava odvratiti ga od filozofiranja. 00:20:49.620 --> 00:20:53.040 Kalikle kaže Sokratu, 'Filozofija je zgodna igračka, 00:20:54.400 --> 00:20:57.600 ako se u nju upuštamo umjereno u primjereno životno doba, 00:20:57.980 --> 00:21:02.889 ali ako na njoj ustrajemo više no što treba, ona je apsolutna propast,' 00:21:03.779 --> 00:21:07.484 'Poslušaj moj savjet,' kaže Kalikle, 'ostavi se rasprave, 00:21:08.199 --> 00:21:10.720 nauči vještine aktivnog života, 00:21:11.180 --> 00:21:16.390 neka ti modeli ne budu ti ljudi koji vrijeme provode u tim sitničavim igrama riječi, 00:21:16.880 --> 00:21:21.220 već oni koji imaju dobro situiran život i reputaciju i mnoge druge blagodati.' 00:21:22.079 --> 00:21:26.038 Kalikle zapravo Sokratu kaže, 00:21:26.808 --> 00:21:29.329 'Okani se filozofiranja, uozbilji se, 00:21:30.549 --> 00:21:33.032 upiši se u poslovnu školu.' 00:21:35.170 --> 00:21:37.215 I Kalikle je bio u pravu. 00:21:38.299 --> 00:21:39.900 Bio je u pravu utoliko 00:21:39.900 --> 00:21:46.308 što nas filozofija udaljava od konvencija, utvrđenih postavki i prihvaćenih vjerovanja. 00:21:46.750 --> 00:21:49.508 To su rizici, osobni i politički, 00:21:49.970 --> 00:21:53.439 a unatoč tim rizicima postoji karakteristično odstupanje, 00:21:54.089 --> 00:21:56.260 ime tog odstupanja je skepticizam. 00:21:56.340 --> 00:21:58.782 To je ideja, ide otprilike ovako: 00:21:58.990 --> 00:22:02.000 nismo riješili, jednom zauvijek, 00:22:03.660 --> 00:22:08.068 ni slučajeve ni principe o kojima smo raspravljali na početku, 00:22:09.759 --> 00:22:15.857 a kad Aristotel i Locke i Kant i Mill nisu riješili ta pitanja nakon svih tih godina, 00:22:17.220 --> 00:22:18.670 tko smo mi da mislimo 00:22:19.589 --> 00:22:24.400 da ih mi, ovdje u Sanders Theatre tijekom jednog semestra možemo riješiti? 00:22:26.430 --> 00:22:31.690 Možda je samo stvar u tome da svaka osoba ima vlastite principe 00:22:31.690 --> 00:22:35.639 i ništa se više o tome nema za reći, nikakvo rasuđivanje. 00:22:36.084 --> 00:22:37.144 To je izbjegavanje. 00:22:37.630 --> 00:22:39.100 Izbjegavanje skepticizmom 00:22:39.440 --> 00:22:42.043 na što bih ja dao sljedeći odgovor: 00:22:42.660 --> 00:22:46.530 Istina, o ovim pitanjima se rspravlja već dugo vremena, 00:22:47.559 --> 00:22:51.189 ali sam činjenica da se uvijek iznova pojavljuju i ustraju, 00:22:52.700 --> 00:22:56.581 može sugerirati da, iako su u nekom smislu nemoguća, 00:22:57.169 --> 00:22:59.426 neizbježna su u drugom. 00:22:59.799 --> 00:23:02.002 A razlog zašto su neizbježna, 00:23:02.299 --> 00:23:04.340 razlog zašto su neizbježna je 00:23:04.340 --> 00:23:08.746 da mi svakoga dana živimo odgovarajući na ta pitanja. 00:23:09.949 --> 00:23:14.578 Zato skepticizam, dizanje ruku i odustajanje od moralnog promišljanja, 00:23:16.130 --> 00:23:17.468 nije rješenje. 00:23:18.279 --> 00:23:22.540 Immanuel Kant vrlo dobro je opisao problem sa skepticizmom kad je napisao: 00:23:22.860 --> 00:23:25.458 'Skepticizam je počivalište za ljudski razum 00:23:25.918 --> 00:23:28.709 gdje može razmišljati o svojim dogmatskim lutanjima, 00:23:29.099 --> 00:23:32.380 ali nije mjesto za trajno obitavanje.' 00:23:33.069 --> 00:23:35.739 'Jednostavno se pomiriti sa skepticizmom,' pisao je Kant, 00:23:35.940 --> 00:23:40.320 'nikada ne može biti dovoljno za prevladavanje nemira razuma.' 00:23:42.660 --> 00:23:49.140 Pokušao sam, kroz ove priče i argumente, izložiti neki vid rizika i iskušenja 00:23:49.898 --> 00:23:51.859 opasnosti i mogućnosti. 00:23:51.959 --> 00:23:57.069 Zaključit ću rekavši: da je cilj ovog kolegija 00:23:58.099 --> 00:24:03.791 probuditi nemir razuma i vidjeti kuda bi to moglo voditi. 00:24:04.380 --> 00:24:05.498 Hvala vam. 00:24:15.440 --> 00:24:18.828 U tako očajnoj situaciji morate učiniti ono što morate da bi preživjeli. 00:24:19.078 --> 00:24:20.729 Morate učiniti ono što morate? 00:24:20.989 --> 00:24:22.509 Što morate, morate, baš tako. 00:24:22.789 --> 00:24:29.792 Ako 19 dana niste ništa jeli, netko se mora žrtvovati da bi ljudi preživjeli. 00:24:30.500 --> 00:24:32.230 U redu, dobro je. Kako se zovete? 00:24:32.300 --> 00:24:33.220 Marcus. 00:24:33.640 --> 00:24:34.580 Što kažete Marcusu? 00:24:34.610 --> 00:24:35.610 SLUČAJ KANIBALIZMA 00:24:44.569 --> 00:24:48.086 Prošli puta smo započeli s nekim pričama, 00:24:49.110 --> 00:24:52.040 moralnim dilemama u vezi tramvaja. 00:24:52.699 --> 00:24:54.159 i doktora 00:24:54.509 --> 00:25:00.179 i zdravih pacijenata u opasnosti da budu žrtve transplantacije organa. 00:25:00.910 --> 00:25:05.490 Uočili smo dvije stvari u vezi diskusija koje smo imali 00:25:06.560 --> 00:25:09.123 Jedna se odnosi na način na koji smo diskutirali. 00:25:09.899 --> 00:25:13.136 Počelo je s našim prosudbama u danim slučajevima. 00:25:13.569 --> 00:25:16.625 Pokušali smo artikulirati razloge odnosno principe 00:25:18.060 --> 00:25:20.048 u podlozi naših prosudbi, 00:25:22.549 --> 00:25:24.541 a onda, suočeni s novim slučajem 00:25:25.120 --> 00:25:28.339 našli smo se preispitujući te principe 00:25:30.069 --> 00:25:32.585 revidirajući svakog u svjetlu drugog. 00:25:34.019 --> 00:25:37.873 I primijetili smo ugrađeno nastojanje da ih uskladimo, 00:25:38.600 --> 00:25:40.661 naše ocjene danih slučajeva 00:25:41.680 --> 00:25:44.677 i principe koje bismo usvojili nakon promišljanja. 00:25:46.359 --> 00:25:50.110 Također smo uočili nešto u vezi sadržaja argumenata 00:25:50.589 --> 00:25:52.805 koji su se pojavili tokom diskusije. 00:25:55.250 --> 00:26:00.859 Primijetili smo da smo ponekad u iskušenju locirati moralnost nekog čina u posljedicama, 00:26:00.969 --> 00:26:04.671 u rezultatima, u stanju svijeta koji nastaje tim činom. 00:26:06.519 --> 00:26:09.928 To smo nazvali konsekvencijalnim moralnim rasuđivanjem. 00:26:11.690 --> 00:26:14.319 No, primijetili smo također da u nekim slučajevima 00:26:16.440 --> 00:26:19.466 nismo se povodili samo rezultatima. 00:26:21.039 --> 00:26:24.325 Ponekad mnogi od nas su osjećali 00:26:25.349 --> 00:26:33.029 da ne samo posljedice, nego i intrinzična kvaliteta čina ima moralnu važnost. 00:26:35.129 --> 00:26:40.099 Neki ljudi su tvrdili da postoje određene stvari koje su kategorički neispravne, 00:26:40.440 --> 00:26:43.461 čak i ako donose dobar rezultat, 00:26:44.460 --> 00:26:48.720 čak i ako spašavaju petoro ljudi po cijenu jednog života. 00:26:49.788 --> 00:26:56.315 Stoga smo suprotstavili konsekvencijalne moralne principe kategoričkima. 00:26:57.920 --> 00:27:01.000 Danas i sljedećih nekoliko dana 00:27:01.099 --> 00:27:09.571 preispitat ćemo jednu od najutjecajnijih verzija konsekvencijalističke teorije morala, 00:27:10.970 --> 00:27:13.789 a to je filozofija utilitarizma. 00:27:15.729 --> 00:27:20.563 Jeremy Bentham, engleski politički filozof 18. stoljeća, 00:27:21.690 --> 00:27:29.122 prvi je jasno sistematski izložio utilitarističku teoriju morala, 00:27:32.210 --> 00:27:37.612 a Benthamova ideja, njegova ključna ideja, 00:27:38.190 --> 00:27:40.000 vrlo je jednostavna 00:27:42.680 --> 00:27:47.392 i moralno intuitivno vrlo dopadljiva. 00:27:48.220 --> 00:27:51.085 Benthamova ideja je sljedeća: 00:27:51.589 --> 00:27:55.791 ono što je ispravno učiniti, što je pravedno učiniti, 00:27:57.419 --> 00:28:01.997 je maksimizirati korisnost. 00:28:02.339 --> 00:28:04.035 Što je mislio pod korisnost? 00:28:05.529 --> 00:28:08.860 Pod korisnost je podrazumijevao ravnotežu 00:28:11.140 --> 00:28:14.880 ugode i boli, radosti i patnje. 00:28:16.538 --> 00:28:20.590 Tako smo došli do principa maksimiziranja korisnosti. 00:28:22.308 --> 00:28:25.250 Započeo uočivši da svima nama, 00:28:26.088 --> 00:28:27.440 svim ljudskim bićima, 00:28:27.750 --> 00:28:30.320 upravljaju dva suverena gospodara, 00:28:31.040 --> 00:28:32.468 bol i ugoda. 00:28:34.369 --> 00:28:38.989 Mi ljudska bića volimo ugodu i ne volimo bol 00:28:42.038 --> 00:28:45.279 i zato bismo moralnost morali bazirati 00:28:45.839 --> 00:28:48.449 - bez obzira da li se radi o našem vlastitom životu 00:28:48.940 --> 00:28:54.177 ili kao zakonodavci ili građani razmišljamo kakav bi trebao biti zakon - 00:28:57.029 --> 00:29:05.069 - ispravno je da individualno ili kolektivno djelujemo tako da maksimiziramo 00:29:05.838 --> 00:29:08.771 sveopću razinu sreće. 00:29:11.369 --> 00:29:14.947 Benthamov utilitarizam se ponekad sažima sloganom: 00:29:15.430 --> 00:29:17.844 'najveće dobro za najveći broj'. 00:29:18.869 --> 00:29:22.255 S tim osnovnim principom korisnosti pri ruci, 00:29:22.730 --> 00:29:27.700 krenimo ga testirati i propitivati kroz još jedan slučaj, 00:29:28.179 --> 00:29:31.898 još jednu priču, ali ovoga puta to nije hipotetska priča, 00:29:32.640 --> 00:29:34.230 nego priča iz stvarnog života, 00:29:34.339 --> 00:29:37.438 slučaj Kraljice protiv Dudley i Stevensa. 00:29:38.099 --> 00:29:42.520 To je čuveni britanski pravni spor iz 19. stoljeća 00:29:44.009 --> 00:29:46.763 o kojem se mnogo raspravlja na pravnim fakultetima. 00:29:47.348 --> 00:29:49.869 Evo što se dogodilo: 00:29:50.059 --> 00:29:55.896 - ukratko ću ispričati priču, a onda bih želio čuti kako bi vi presudili 00:29:57.059 --> 00:29:59.314 zamišljajući da ste vi porota. 00:30:03.989 --> 00:30:07.243 Tadašnja priča u novinama opisala je pozadinu. 00:30:08.819 --> 00:30:12.370 Nikada nije bila ispričana tužnija priča o udesu na moru 00:30:12.789 --> 00:30:15.680 no što je priča preživjelih sa broda Mignonette. 00:30:16.240 --> 00:30:20.994 Brod je potonuo u Južnom Atlantiku 1300 milja od Cape Towna. 00:30:21.789 --> 00:30:25.097 Imao je četiri člana posade, Dudley je bio kapetan, 00:30:25.710 --> 00:30:29.331 Stephens je bio prvi oficir, Brooks je bio mornar. 00:30:29.890 --> 00:30:34.559 Sve ljudi odličnog karaktera, kako nam govori novinska priča. 00:30:35.819 --> 00:30:40.919 Četvrti član posade bio je mali od palube, Richard Parker star 17 godina. 00:30:42.689 --> 00:30:45.679 On je bio siroče, nije imao nikoga od obitelji 00:30:46.930 --> 00:30:50.270 i to je bilo njegovo prvo dulje putovanje morem. 00:30:51.410 --> 00:30:55.570 Pošao je, kaže novinska priča, unatoč savjetima svojih prijatelja, 00:30:56.730 --> 00:31:02.187 pošao je u nadi mladenačke ambicije da će putovanje napraviti od njega čovjeka. 00:31:02.940 --> 00:31:04.690 Nažalost, nije mu bilo suđeno. 00:31:05.140 --> 00:31:07.410 Činjenice slučaja nisu bile sporne, 00:31:07.639 --> 00:31:10.321 val je udario u brod i Mignonette je potonuo. 00:31:12.000 --> 00:31:14.649 Četvoro članova posade spasilo se u čamcu za spasavanje. 00:31:14.859 --> 00:31:20.979 Jedina hrana koju su imali bile su dvije konzerve konzervirane repe. 00:31:21.429 --> 00:31:22.740 Bez pitke vode. 00:31:23.980 --> 00:31:26.070 Prva tri dana nisu jeli ništa. 00:31:26.609 --> 00:31:30.889 Četvrti dan otvorili su jednu konzervu repe i pojeli je. 00:31:31.589 --> 00:31:33.509 Sljedeći dan uhvatili su kornjaču. 00:31:33.980 --> 00:31:37.330 Druga konzerva repe i kornjača 00:31:38.220 --> 00:31:40.798 omogućili su im da prežive sljedećih nekoliko dana 00:31:40.798 --> 00:31:45.630 i onda osam dana nisu jeli ništa. Bez hrane i bez vode. 00:31:46.529 --> 00:31:49.529 Zamislite sebe u takvoj situaciji. 00:31:49.839 --> 00:31:50.874 Što biste vi učinili? 00:31:52.479 --> 00:31:54.062 Evo što su oni učinili. 00:31:55.119 --> 00:31:59.993 Mali od palube Parker je sada već ležao na dnu čamca za spasavanje, u ćošku, 00:32:00.630 --> 00:32:04.621 jer se bio napio morske vode protivno savjetima ostalih. 00:32:05.490 --> 00:32:09.312 Bilo mu je zlo i izgledalo je da umire. 00:32:10.289 --> 00:32:17.419 Devetnaestog dana Dudley, kapetan, predložio je da svi izvlače lutriju, 00:32:17.768 --> 00:32:21.979 da bi trebali vući slamke da vide tko bi trebao umrijeti da spasi ostale. 00:32:23.489 --> 00:32:28.059 Brooks je odbio, nije mu se sviđala ideja o lutriji. 00:32:29.030 --> 00:32:32.998 Ne znamo je li to bilo zbog toga jer nije želio riskirati 00:32:33.238 --> 00:32:36.084 ili jer je vjerovao u kategoričke moralne principe. 00:32:36.869 --> 00:32:39.887 No, u svakom slučaju, slamke se nisu izvlačile. 00:32:41.860 --> 00:32:44.643 Sljedeći dan još uvijek nije bilo nijednog broda na vidiku 00:32:45.028 --> 00:32:48.092 pa je Dudley rekao Brooksu da odvrati pogled 00:32:48.470 --> 00:32:52.833 i dao znak Stephensu da bi bilo dobro da ubiju dječaka Parkera. 00:32:53.659 --> 00:32:57.567 Dudley se pomolio, rekao dječaku da je kucnuo njegov čas 00:32:58.480 --> 00:33:02.362 i usmrtio ga perorezom ubadajaći ga u vratnu venu. 00:33:03.220 --> 00:33:09.070 Brooks je odustao od prigovora savjesti kako bi sudjelovao u podjeli jezive nagrade. 00:33:09.750 --> 00:33:14.111 Četiri dana njih su se trojica hranila tijelom i krvlju malog od palube. 00:33:15.130 --> 00:33:16.310 Istinita priča. 00:33:16.810 --> 00:33:18.235 I onda su bili spašeni. 00:33:18.780 --> 00:33:23.602 Dudley opisuje njihovo spašavanje u svom dnevniku; 00:33:24.679 --> 00:33:26.998 zapanjujućim eufemizmom, citiram: 00:33:27.569 --> 00:33:31.468 'Dvadeset i četvrtog dana dok smo doručkovali 00:33:34.903 --> 00:33:36.533 konačno se pojavio brod.' 00:33:38.429 --> 00:33:43.349 Trojicu preživjelih pokupio je njemački brod i odveo natrag u Falmouth u Engleskoj 00:33:44.309 --> 00:33:46.086 gdje su uhapšeni i suđeni. 00:33:46.719 --> 00:33:49.006 Brooks je postao zaštićeni svjedok, 00:33:49.819 --> 00:33:51.829 Dudley i Stephensu se sudilo. 00:33:52.010 --> 00:33:53.710 Oni nisu osporavali činjenice, 00:33:54.390 --> 00:33:57.140 tvrdili su da su postupali u krajnjoj nuždi. 00:33:57.610 --> 00:33:58.900 To je bila njihova obrana. 00:33:59.430 --> 00:34:04.904 Tvrdili su u suštini da je bolje da jedan umre da bi trojica preživjela. 00:34:06.420 --> 00:34:10.079 Tužilac nije bio uvjeren ovim argumentom, 00:34:10.639 --> 00:34:13.849 rekao je, 'Ubojstvo je ubojstvo' i tako je slučaj dospio pred sud. 00:34:13.849 --> 00:34:15.569 Zamislite sad da ste vi porota, 00:34:16.329 --> 00:34:18.243 a da bismo pojednostavili diskusiju, 00:34:19.269 --> 00:34:24.025 ostavite po strani pitanje zakona i pretpostavimo da ste vi kao porota 00:34:25.878 --> 00:34:31.408 zaduženi da odlučite da li je ono što su učinili moralno dopustivo ili nije. 00:34:34.378 --> 00:34:40.071 Koliko bi vas glasalo 'nisu krivi', 00:34:40.539 --> 00:34:42.844 da je ono što su učinili moralno dopustivo? 00:34:49.528 --> 00:34:53.379 A koliko bi vas glasalo 'krivi', ono što su učinili je moralno neispravno? 00:34:54.858 --> 00:34:56.630 Prilično brojna većina. 00:34:57.998 --> 00:35:02.794 Da vidimo sada razloge, a započet ću s onima u manjini. 00:35:03.809 --> 00:35:08.875 Da prvo čujemo obranu Dudleya i Stephensa. 00:35:10.099 --> 00:35:12.867 Zašto bi ih oslobodili krivnje? 00:35:14.159 --> 00:35:15.486 Koji su vaši razlozi? 00:35:17.989 --> 00:35:20.348 Mislim da to zaslužuje moralnu osudu, 00:35:20.798 --> 00:35:23.645 ali također da postoji razlika između moralno neprimjerenog 00:35:23.989 --> 00:35:26.249 i onog što nekog čini pravno odgovornim. 00:35:26.608 --> 00:35:31.296 Drugim riječima, kao što je rekao sudac, nemoralno nije nužno protiv zakona, 00:35:31.930 --> 00:35:38.059 pa iako ne mislim da nužnost opravdava krađu ili ubojstvo ili bilo koji nezakoniti čin, 00:35:38.579 --> 00:35:44.618 u nekom času stupanj nužnosti ustvari vas oslobađa krivnje. 00:35:45.849 --> 00:35:49.247 Drugi branitelji, drugi glasovi za obranu? 00:35:50.588 --> 00:35:53.846 Moralna opravdanja za ono što su učinili? 00:35:58.468 --> 00:36:03.040 Meni se čini u tako očajnoj situaciji morate činiti ono što morate kako bi preživjeli. 00:36:03.139 --> 00:36:04.789 Morate učiniti ono što morate? 00:36:04.929 --> 00:36:06.789 Morate učiniti što morate, tako je. 00:36:06.979 --> 00:36:09.529 Ako ste izdržali 19 dana bez hrane 00:36:10.168 --> 00:36:14.351 netko se jednostavno mora žrtvovati da ljudi mogu preživjeti. 00:36:14.710 --> 00:36:18.979 I štoviše, recimo da su preživjeli i postali produktivni članovi društva 00:36:18.979 --> 00:36:25.449 koji odu kući i, na primjer, osnuju dobrotvorne organizacije i svašta drugo za opću dobrobit. 00:36:25.610 --> 00:36:29.649 Ja ne znam što su oni radili poslije, možda su ubili još ljudi ... 00:36:30.618 --> 00:36:31.339 Što? 00:36:32.889 --> 00:36:35.414 Što ako su otišli kući i postali ubojice? 00:36:35.708 --> 00:36:38.416 Što ako su otišli kući i postali ubojice? 00:36:38.909 --> 00:36:41.721 Ne biste željeli znati koga su ubili? 00:36:42.408 --> 00:36:43.488 Istina, to je fer. 00:36:44.809 --> 00:36:46.362 Ne bih želio znati koga su ubili. 00:36:46.428 --> 00:36:47.848 Dobro je, kako se zovete? 00:36:47.998 --> 00:36:48.998 Marcus. 00:36:50.708 --> 00:36:53.499 Čuli smo obranu, par glasova za obranu, 00:36:54.050 --> 00:36:56.723 sada trebamo čuti tužiteljstvo. 00:36:57.218 --> 00:37:02.066 Većina ljudi misli da je ono što su učinili neispravno. Zašto? 00:37:04.508 --> 00:37:06.938 Jedna od prvih stvari koju sam ja pomislila bilo je, 00:37:06.958 --> 00:37:08.759 'Pa, dobro, nisu jako dugo jeli, 00:37:10.339 --> 00:37:14.439 pa su možda mentalno pogođeni 00:37:15.139 --> 00:37:17.978 pa se to može iskoristiti za obranu, 00:37:17.978 --> 00:37:25.583 mogući argument da nisu bili prisebni i donosili su odluke koje inače ne bi, 00:37:25.779 --> 00:37:27.529 a ako je to prihvatljiv argument, 00:37:27.569 --> 00:37:31.199 da morate biti u stanju promijenjene svijesti da bi učinili tako nešto, 00:37:31.229 --> 00:37:35.309 to navodi da ljudi koji taj argument smatraju uvjerljivim 00:37:36.108 --> 00:37:38.118 zaista misle da postupaju nemoralno ... 00:37:38.138 --> 00:37:40.318 Ali ja želim znati što vi mislite. Vi ih branite ... 00:37:41.398 --> 00:37:43.409 Vi ste za to da budu optuženi, zar ne? 00:37:43.469 --> 00:37:46.399 Ja ne mislim da su postupali na moralno prihvatljiv način ... 00:37:46.509 --> 00:37:50.612 A zašto ne? Što kažete ... Tu je Marcus, on ih je upravo branio. 00:37:50.919 --> 00:37:53.800 On je rekao, čuli ste što je rekao, 00:37:56.559 --> 00:37:59.319 da morate učiniti ono što morate u takvoj situaciji. 00:38:00.119 --> 00:38:01.729 Što ćete reći Marcusu? 00:38:06.438 --> 00:38:11.738 Da ne postoji situacija u kojoj bi ljudima bilo dozvoljeno da uzmu 00:38:13.579 --> 00:38:16.959 ideju sudbine ili živote drugih ljudi u svoje ruke, 00:38:17.198 --> 00:38:19.815 da mi nemamo tu vrstu moći. 00:38:20.079 --> 00:38:22.078 Dobro, u redu, hvala. Kako se vi zovete? 00:38:22.228 --> 00:38:23.050 Britt. 00:38:24.640 --> 00:38:25.378 Tko još? 00:38:25.778 --> 00:38:27.748 Što vi kažete? Ustanite. 00:38:27.758 --> 00:38:34.908 Pitam se da li su Dudley i Stephens tražili Parkerovu suglasnost za umiranje. 00:38:35.429 --> 00:38:41.738 I da li bi ih to oslobodilo krivnje za aktivno ubojstvo? 00:38:41.918 --> 00:38:44.958 I ako je tako, da li je to još uvijek moralno opravdano? 00:38:45.449 --> 00:38:49.204 Zanimljivo, suglasnost. Čekajte, kako se vi zovete? 00:38:49.559 --> 00:38:50.348 Kathleen. 00:38:51.403 --> 00:38:53.154 Kathleen kaže, pretpostavimo ... 00:38:53.214 --> 00:38:54.715 Kako bi izgledao taj scenario? 00:38:56.929 --> 00:39:03.507 Tu je Dudley, perorez u ruci, ali umjesto molitve, ili prije molitve, 00:39:04.588 --> 00:39:08.469 kaže, 'Parker, bi li zamjerio, 00:39:11.478 --> 00:39:12.987 mi smo očajno gladni, 00:39:14.538 --> 00:39:17.368 - s čim Marcus suosjeća - 00:39:17.679 --> 00:39:19.179 očajno smo gladni, 00:39:19.768 --> 00:39:21.508 ti ionako nećeš dugo, 00:39:22.168 --> 00:39:23.498 - mogao bi biti mučenik - 00:39:23.568 --> 00:39:26.828 bili htio biti mučenik, što misliš o tome, Parker?' 00:39:33.519 --> 00:39:35.970 Što mislite, bi li tada bilo moralno opravdano? 00:39:36.580 --> 00:39:40.693 Pretpostavimo da Parker, napola pri svijesti, kaže - Ok. 00:39:42.808 --> 00:39:45.559 Ne mislim da bi bilo moralno opravdano, ali pitam se ... 00:39:45.739 --> 00:39:47.260 Čak i tada, ne bi bilo? 00:39:47.310 --> 00:39:48.030 Ne. 00:39:48.329 --> 00:39:52.268 Vi mislite da čak i sa njegovim pristankom to ne bi bilo moralno opravdano? 00:39:52.278 --> 00:39:54.079 Ima li ljudi koji misle ... 00:39:54.879 --> 00:39:57.050 koji žele preuzeti Kathleeninu ideju suglasnosti 00:39:57.199 --> 00:39:59.978 i koji misle da bi to tada bilo moralno opravdano? 00:40:00.088 --> 00:40:02.781 Dignite ruke, ako bi bilo? Ako mislite da bi bilo? 00:40:05.609 --> 00:40:07.328 To je vrlo zanimljivo. 00:40:07.588 --> 00:40:10.858 Zašto bi suglasnost predstavljala moralnu razliku? 00:40:13.848 --> 00:40:14.698 Zašto bi? 00:40:15.729 --> 00:40:20.451 Ja samo mislim ako je to njegova vlastita originalna ideja, njegova ideja od početka, 00:40:20.839 --> 00:40:25.578 onda bi to bila jedina situacija u kojoj bi ja to smatrala prihvatljivim. 00:40:26.098 --> 00:40:29.130 Jer na taj način ne možete tvrditi da je bio pod pritiskom, 00:40:29.238 --> 00:40:32.139 znate, tri protiv jednoga ili bilo koji omjer bio. 00:40:32.759 --> 00:40:36.080 I mislim ako je on donio odluku da daje svoj život, 00:40:36.080 --> 00:40:41.088 onda se on samovoljno žrtvuje, što neki mogu smatrati vrijednim divljenja, 00:40:41.279 --> 00:40:44.060 a drugi se mogu ne slagati s tom odlukom. 00:40:45.449 --> 00:40:47.839 Dakle, ako je on nadošao na tu ideju, 00:40:49.099 --> 00:40:52.860 to je jedina vrsta suglasnosti u koju se možemo pouzdati, moralno, 00:40:53.010 --> 00:40:54.479 onda bi to bilo u redu? 00:40:54.788 --> 00:40:59.283 U protivnom bilo bi to nešto kao iznuđena suglasnost 00:40:59.509 --> 00:41:02.105 u danim okolnostima, mislite? 00:41:05.048 --> 00:41:09.763 Da li itko misli da čak i Parkerova suglasnost 00:41:10.728 --> 00:41:14.097 ne bi opravdala njihov čin ubojstva? 00:41:15.178 --> 00:41:16.288 Tko tako misli? 00:41:17.928 --> 00:41:19.378 Recite nam zašto, ustanite. 00:41:19.539 --> 00:41:25.108 Mislim da bi Parker bio ubijen u nadi da će drugi članovi posade biti spašeni, 00:41:26.209 --> 00:41:28.900 pa onda nema definitivnog razloga da on bude ubijen 00:41:29.250 --> 00:41:32.169 jer ne znate kada će oni biti spašeni. 00:41:32.269 --> 00:41:34.169 Pa ako ga ubijete i to bude uzalud, 00:41:34.199 --> 00:41:37.820 hoćete li nastaviti ubijati članove posade i na kraju nitko neće ostati? 00:41:38.039 --> 00:41:39.909 Jer netko će na koncu umrijeti. 00:41:40.259 --> 00:41:43.605 Pa, moralna logika situacije izgleda da je ta. 00:41:44.199 --> 00:41:48.729 Da bi oni nadalje odabirali najslabije, jednog po jednog, 00:41:49.928 --> 00:41:51.928 dok ne bi bili spašeni. 00:41:51.958 --> 00:41:56.806 A u ovom slučaju, na sreću, bili su spašeni kad ih bar troje još bilo živo. 00:41:58.639 --> 00:42:00.420 Da je Parker da svoj pristanak, 00:42:00.968 --> 00:42:03.118 bili tada bilo u redu ili ne? 00:42:03.438 --> 00:42:05.699 Ne, još uvijek ne bi bilo u redu. 00:42:06.149 --> 00:42:07.850 Recite nam zašto ne bi bilo u redu? 00:42:08.030 --> 00:42:11.588 Prije svega ja vjerujem da je kanibalizam moralno neispravan 00:42:12.908 --> 00:42:15.439 i ne biste smjeli jesti ljudsko biće ni u kom slučaju. 00:42:16.579 --> 00:42:19.279 Dakle, kanibalizam je moralno nedopušten kao takav ... 00:42:19.380 --> 00:42:23.730 Dakle, čak i u scenariju u kojem bi se čekalo da netko umre 00:42:24.190 --> 00:42:25.918 još uvijek bi to bilo nedopustivo? 00:42:26.018 --> 00:42:27.629 Da, za mene osobno. 00:42:27.723 --> 00:42:32.793 Čini mi se da to sve ovisi o osobnom moralu. 00:42:35.460 --> 00:42:36.939 To je tek moje mišljenje. 00:42:37.009 --> 00:42:39.029 Naravno, drugi ljudi se neće složiti ... 00:42:39.338 --> 00:42:41.326 Pa da vidimo koja su njihova neslaganja 00:42:41.498 --> 00:42:45.821 i onda ćemo vidjeti da li imaju dovoljne razloge da vas razuvjere. 00:42:50.489 --> 00:42:56.439 Ima li netko tko bi mogao objasniti, vi koji ste skloni suglasnosti, 00:42:57.789 --> 00:43:02.726 možete li objasniti zašto suglasnost čini takvu moralnu razliku. 00:43:03.358 --> 00:43:04.930 Što je s idejom lutrije? 00:43:05.460 --> 00:43:07.040 Da li se to računa kao suglasnost? 00:43:07.130 --> 00:43:10.209 Sjetite se, na početku Dudley je predložio lutriju. 00:43:10.779 --> 00:43:14.599 Pretpostavimo da su se složili s lutrijom, 00:43:17.369 --> 00:43:21.488 koliko vas bi tada reklo - to je bilo u redu? 00:43:21.809 --> 00:43:26.440 Pretpostavimo da su vukli slamku, mali od palube je izgubio i priča ide dalje. 00:43:26.530 --> 00:43:29.228 Koliko ljudi bi tada reklo da je bilo moralno dopustivo? 00:43:33.199 --> 00:43:36.640 Brojevi rastu kad dodamo lutriju. Da čujemo jednog od vas 00:43:37.030 --> 00:43:40.359 za kojega bi lutrija činila moralnu razliku? 00:43:41.368 --> 00:43:42.228 Zašto bi? 00:43:43.458 --> 00:43:47.149 Mislim da ključni element koji po meni to čini zločinom 00:43:47.539 --> 00:43:52.495 je ideja da su oni u jednom času odlučili da su njihovi životi važniji od njegovog, 00:43:53.849 --> 00:43:56.140 a mislim da je to zapravo osnova svakog zločina. 00:43:56.608 --> 00:44:01.587 To je kao: moje potrebe, moje želje važnije su od tvojih i moje imaju prednost. 00:44:01.977 --> 00:44:05.829 A da su imali lutriju gdje su svi suglasni da netko mora umrijeti 00:44:06.478 --> 00:44:10.119 to je onda kao da se svi žrtvuju da spase ostale. 00:44:10.779 --> 00:44:12.079 Onda bi to bilo u redu? 00:44:12.949 --> 00:44:14.740 Malo groteskno, ali ... 00:44:15.880 --> 00:44:17.467 Ali moralno dopustivo? 00:44:17.578 --> 00:44:18.318 Da. 00:44:18.748 --> 00:44:20.218 A kako se ti zoveš? 00:44:20.308 --> 00:44:21.288 Matt. 00:44:25.239 --> 00:44:30.024 Znači Matt ono što tebe muči nije kanibalizam nego izostanak propisanog postupka? 00:44:31.389 --> 00:44:33.779 Pretpostavljam da bi se moglo tako reći. 00:44:34.688 --> 00:44:36.853 A može li netko, tko se slaže s Mattom 00:44:38.180 --> 00:44:42.059 reći malo više o tome zašto bi lutrija, 00:44:43.968 --> 00:44:47.938 po vašem mišljenju, činila to moralno dopustivim? 00:44:50.208 --> 00:44:53.578 Kako sam ja to prvobitno razumijela, cijeli problem je bio u tome da 00:44:53.578 --> 00:44:55.726 malog od palube nikada nisu konzultirali 00:44:56.078 --> 00:44:58.718 o tome da li će mu se ili ne, nešto dogoditi, 00:44:58.718 --> 00:45:02.818 čak i sa prvobitnom lutrijom, hoće li u njoj sudjelovati, 00:45:02.818 --> 00:45:05.810 jednostavno je bilo odlučeno da je on taj koji će umrijeti. 00:45:05.900 --> 00:45:07.891 Točno, to se dogodilo u stvarnom slučaju, 00:45:08.170 --> 00:45:12.897 ali da je bila lutrija i svi su se složili oko procedure, mislite da bi bilo u redu? 00:45:13.269 --> 00:45:16.148 Točno, jer onda svi znaju da će se dogoditi smrt, 00:45:16.418 --> 00:45:20.399 dok mali od palube nije znao čak ni da se vodi ta rasprava. 00:45:20.649 --> 00:45:26.191 Nije bilo nikakvog upozorenja njemu da bi znao: 'Hej, ja sam možda taj koji umire!'. 00:45:26.509 --> 00:45:30.259 Dobro, pretpostavimo da se svi slažu s lutrijom, lutrija se održi, 00:45:30.259 --> 00:45:33.499 mali od palube gubi, ali se predomisli. 00:45:34.338 --> 00:45:36.959 Već ste odlučili, to je kao usmeni ugovor, 00:45:37.099 --> 00:45:40.859 ne možete odustati od toga, odluka je donesena. 00:45:41.229 --> 00:45:45.599 Da znate da umirete kako bi drugi mogli živjeti vi bi ... 00:45:45.998 --> 00:45:49.968 Da je umro netko drugi znate da bi vi konzumirali njega, pa ... 00:45:51.969 --> 00:45:54.896 Ali onda bi on mogao reći: 'Znam, ali ja sam izgubio.' 00:45:56.089 --> 00:45:58.439 Ja samo mislim da je u tome cijeli moralni spor, 00:45:58.439 --> 00:46:04.099 da nije konzultiran mali od palube i to je najjezivije 00:46:04.778 --> 00:46:06.945 da on uopće nije imao pojma što se zbiva. 00:46:07.199 --> 00:46:12.064 Da je on znao što se zbiva bilo bi malo razumljivije. 00:46:12.198 --> 00:46:13.599 Dobro, sada želim čuti ... 00:46:14.510 --> 00:46:16.819 Dakle, postoje neki koji misle 00:46:17.048 --> 00:46:20.388 da je to moralno dopustivo, ali samo oko 20% vas 00:46:23.698 --> 00:46:25.779 na čelu s Marcusom. 00:46:26.239 --> 00:46:28.119 Onda postoje neki koji kažu, 00:46:28.149 --> 00:46:31.669 pravi problem ovdje je izostanak suglasnosti, 00:46:32.618 --> 00:46:35.959 bilo suglasnosti o lutriji, fer proceduri 00:46:38.138 --> 00:46:43.829 ili, Kathleenina ideja, suglasnosti u času smrti. 00:46:45.139 --> 00:46:53.438 A ako dodamo suglasnost onda je više ljudi sklono žrtvovanje smatrati moralno opravdanim. 00:46:54.528 --> 00:46:58.072 Sada bih na koncu želio čuti one od vas koji misle 00:46:58.242 --> 00:47:00.983 da čak i s pristankom, čak i s lutrijom, 00:47:01.508 --> 00:47:06.294 čak i s Parkerovim zadnjim promrmljanim riječima suglasnosti, 00:47:06.949 --> 00:47:08.774 u zadnjem času, 00:47:09.179 --> 00:47:11.538 to bi ipak bilo neispravno. 00:47:12.447 --> 00:47:14.848 I zašto bi to bilo neispravno? To želim čuti. 00:47:16.998 --> 00:47:21.378 Pa, cijelo vrijeme sam naginjala kategoričkom moralnom rasuđivanju 00:47:22.639 --> 00:47:28.488 i mislim da postoji mogućnost da bi se složila s idejom lutrije 00:47:28.698 --> 00:47:32.174 i da se onda gubitnik ubije sam, 00:47:33.349 --> 00:47:35.588 tako da to onda ne bi bio aktivno ubojstvo, 00:47:35.718 --> 00:47:38.908 no ipak mislim da čak i na taj način to je iznuđeno. 00:47:39.308 --> 00:47:41.598 I također mislim da nema nimalo kajanja 00:47:41.598 --> 00:47:44.499 Kao što Dudley piše u svom dnevniku: 'Jeli smo svoj doručak.' 00:47:44.909 --> 00:47:47.164 Izgleda kao da je on kao -Oh, ... 00:47:47.659 --> 00:47:50.872 Znate, cijela ideja nevrednovanja tuđeg života. 00:47:51.440 --> 00:47:55.719 Eto zbog toga mi se čini da trebam zauzeti kategorički stav. 00:47:55.719 --> 00:47:57.289 Želite baciti knjigu na njega? 00:47:57.739 --> 00:48:00.718 Zato što se ne kaje i nema osjećaj da je učinio išta loše. 00:48:00.908 --> 00:48:01.789 Točno. 00:48:04.129 --> 00:48:06.849 Ima li još branitelja 00:48:08.318 --> 00:48:11.668 koji kažu da je to jednostavno kategorički neispravno, sa ili bez suglasnosti. 00:48:11.668 --> 00:48:13.644 Da, ustanite. Zašto? 00:48:13.804 --> 00:48:16.874 Mislim da nesumnjivo, kako je oblikovano naše društvo, ubojstvo je ubojstvo, 00:48:16.874 --> 00:48:18.461 ubojstvo je ubojstvo na svaki način. 00:48:18.461 --> 00:48:21.562 a naše društvo na ubojstvo gleda uvijek jednako 00:48:21.562 --> 00:48:23.441 i mislim da nema razlike u bilo kojem slučaju. 00:48:23.441 --> 00:48:24.801 Dobro, da vas pitam nešto? 00:48:25.051 --> 00:48:27.590 Tri života su u pitanju, nasuprot jednom, 00:48:30.328 --> 00:48:32.719 taj jedan, mali od palube, nije imao nikoga od obitelji, 00:48:32.789 --> 00:48:34.319 nitko nije ovisio o njemu, 00:48:34.489 --> 00:48:38.348 ova trojica su imala obitelji kod kuće u Engleskoj, ovisili su o njima, 00:48:38.498 --> 00:48:40.408 imali su žene i djecu. 00:48:41.159 --> 00:48:42.819 Sjetite se Benthama. 00:48:43.219 --> 00:48:48.703 Bentham kaže moramo uzeti u obzir dobrobit, korisnost, sreću svakoga. 00:48:49.188 --> 00:48:53.168 Moramo sve to zbrojiti, pa onda to nisu samo brojevi tri prema jedan, 00:48:54.299 --> 00:48:57.171 to su također svi ti ljudi kod kuće. 00:48:58.759 --> 00:49:03.269 Ustvari, londonske novine toga vremena i javno mnijenje suosjećali su s njima, 00:49:03.918 --> 00:49:05.148 Dudleyem i Stephensom, 00:49:05.478 --> 00:49:10.343 a novine su rekle - da nisu bili motivirani ljubavlju i brigom 00:49:10.359 --> 00:49:13.679 za svoje voljene kod kuće sigurno to ne bi bili učinili. 00:49:14.239 --> 00:49:16.719 Dobro, ali kako se to razlikuje od ljudi na uglu 00:49:16.939 --> 00:49:20.088 koji imaju istu želju da prehrane svoje obitelji? Ja mislim da nema razlike. 00:49:20.088 --> 00:49:24.259 Mislim da u svakom slučaju ako ja ubijem vas da bi popravio svoj status, to je ubojstvo 00:49:24.340 --> 00:49:26.620 i mislim da to trebamo gledati u istom svjetlu. 00:49:26.683 --> 00:49:29.442 Umjesto da kriminaliziramo određene aktivnosti 00:49:30.278 --> 00:49:33.511 i neke stvari prikazujemo više nasilne i surovije 00:49:33.760 --> 00:49:36.490 kad je u tom istom slučaju to isto, sve je to isti čin 00:49:36.760 --> 00:49:39.980 i mentalitet koji ide s ubojstvom, potreba da se nahrane svoje obitelji. 00:49:40.150 --> 00:49:43.648 Pretpostavimo da ih nije bilo tri, pretpostavimo da ih je bilo 30, 300. 00:49:44.268 --> 00:49:46.558 Jedan život da se spasi tri stotine. 00:49:47.268 --> 00:49:48.931 Ili u vrijeme rata, tri tisuće ... 00:49:49.440 --> 00:49:51.179 Ili pretpostavimo da su ulozi čak i veći. 00:49:51.349 --> 00:49:52.748 Pretpostavimo da su ulozi čak i veći. 00:49:52.788 --> 00:49:54.508 Misllim da je to još uvijek ista stvar. 00:49:54.678 --> 00:49:58.228 Mislite li da je Bentham imao krivo kad je rekao da je ispravno postupati 00:49:58.308 --> 00:50:00.339 tako da se zbroji skupna sreća? 00:50:00.719 --> 00:50:02.221 Mislite da je u krivu? 00:50:02.478 --> 00:50:05.158 Ne mislim da je u krivu, ali mislim da je ubojstvo ubojstvo u svakom slučaju. 00:50:05.158 --> 00:50:08.038 Pa onda Bentham mora biti u krivu! Ako ste vi u pravu, on je u krivu! 00:50:08.038 --> 00:50:09.578 Dobro, on je u krivu. 00:50:09.708 --> 00:50:11.739 U redu je, hvala vam, bilo je dobro. 00:50:13.539 --> 00:50:15.418 Odmaknimo se od ove diskusije 00:50:18.218 --> 00:50:22.339 i uočimo koliko smo prigovora čuli u vezi onoga što su činili. 00:50:23.259 --> 00:50:25.479 Čuli smo neke obrane toga što su učinili. 00:50:26.048 --> 00:50:29.879 Obrana se odnosi na potrebu, njihove kobne okolnosti 00:50:30.098 --> 00:50:34.847 i, barem implicitno, ideju da su brojevi važni. 00:50:36.018 --> 00:50:39.298 I ne samo da su važni brojevi, nego su važni i širi učinci, 00:50:40.020 --> 00:50:42.770 njihove obitelji kod kuće, oni koji ovise o njima. 00:50:43.178 --> 00:50:45.598 Parker je bio siroče, nikome neće nedostajati. 00:50:47.978 --> 00:50:52.023 Pa, ako sve zbrojite, ako pokušate izračunati 00:50:52.648 --> 00:50:55.208 bilancu sreće i patnje, 00:50:56.599 --> 00:51:00.208 mogli biste imati osnovu da kažete da je ono što su učinili ispravno. 00:51:02.398 --> 00:51:05.988 Onda smo čuli bar tri različite vrste prigovora. 00:51:09.469 --> 00:51:13.930 Čuli smo prigovor koji kaže, ono što su učinili kategorički je neispravno, 00:51:14.172 --> 00:51:16.979 upravo ovdje, na kraju, kategorički neispravno. 00:51:17.079 --> 00:51:19.510 Ubojstvo je ubojstvo, uvijek je neispravno, 00:51:19.820 --> 00:51:23.759 čak i ako povećava ukupnu sreću društva. 00:51:25.639 --> 00:51:27.256 Kategorički prigovor, 00:51:28.498 --> 00:51:33.967 No, još uvijek nam ostaje istražiti zašto je ubojstvo kategorički neispravno. 00:51:35.449 --> 00:51:41.189 Da li je to zato jer čak i mali od palube imaju određena fundamentalna prava? 00:51:42.338 --> 00:51:43.510 A ako je to razlog, 00:51:44.400 --> 00:51:50.760 odakle proizlaze ta prava ako ne iz ideje veće dobrobiti ili korisnosti ili sreće? 00:51:50.810 --> 00:51:52.110 Pitanje broj jedan. 00:51:52.759 --> 00:52:00.455 Drugi su rekli, lutrija bi činila razliku, fer procedura, rekao je Matt, 00:52:05.949 --> 00:52:07.650 I neki ljudi su naginjali tome. 00:52:08.768 --> 00:52:11.568 To nije točno kategorički prigovor, 00:52:12.188 --> 00:52:15.709 nego kaže, svi se trebaju računati kao jednaki, 00:52:16.388 --> 00:52:21.980 čak iako na koncu jedan može biti žrtvovan za opću dobrobit. 00:52:23.009 --> 00:52:25.779 To nam ostavlja još jedno pitanje za istraživanje. 00:52:26.059 --> 00:52:30.590 Zašto sporazum o određenoj proceduri, čak i fer proceduri, 00:52:31.339 --> 00:52:36.360 opravdava bilo koji rezultat koji proizlazi iz izvođenja te procedure? 00:52:37.488 --> 00:52:38.878 Pitanje broj dva. 00:52:39.898 --> 00:52:41.338 I pitanje broj tri, 00:52:42.398 --> 00:52:44.393 osnovna ideja suglasnosti. 00:52:44.968 --> 00:52:46.702 Kathleen nas je navela na to. 00:52:48.278 --> 00:52:54.169 Da se mali od palube složio samovoljno, a ne pod pritiskom, 00:52:54.498 --> 00:52:56.110 kao što je bilo dodano, 00:52:56.728 --> 00:53:00.528 onda bi bilo u redu oduzeti mu život da bi se spasili ostali. 00:53:01.918 --> 00:53:04.450 Čak je više ljudi prihvatilo tu ideju, 00:53:04.900 --> 00:53:08.155 ali iz toga proizlazi treće filozofsko pitanje. 00:53:08.528 --> 00:53:13.018 Kakvo je moralno djelovanje pristanka? 00:53:14.438 --> 00:53:18.338 Zašto čin pristanka čini takvu moralnu razliku 00:53:19.188 --> 00:53:22.578 da jedan čin koji bi bio neispravan, oduzimanje života bez pristanka, 00:53:23.998 --> 00:53:27.569 moralno je dopustivo uz pristanak? 00:53:29.619 --> 00:53:33.211 Da bismo razmotrili ta tri pitanja morat ćemo čitati neke filozofe, 00:53:34.108 --> 00:53:38.578 a od sljedećeg puta počet ćemo čitati Benthama i Johna Stewarta Milla 00:53:38.648 --> 00:53:40.299 filozofe utilitarizma.