1 00:00:04,200 --> 00:00:08,240 Pravednost Michael Sandel 2 00:00:08,240 --> 00:00:15,240 Moralna strana ubojstva 3 00:00:33,509 --> 00:00:36,587 Ovo je kolegij o pravednosti i započinjemo jednom pričom. 4 00:00:37,750 --> 00:00:39,735 Pretpostavimo da ste vozač tramvaja 5 00:00:40,179 --> 00:00:43,809 i vaš tramvaj juri tračnicama 90 km na sat, 6 00:00:44,640 --> 00:00:48,741 a na kraju tračnica uočavate pet radnika koji rade na pruzi. 7 00:00:49,390 --> 00:00:52,972 Pokušavate stati, ali ne možete, kočnice vam ne rade. 8 00:00:53,829 --> 00:00:56,077 Očajni ste jer znate 9 00:00:56,780 --> 00:01:01,090 da ako se zaletite u tih pet radnika, svi će poginuti. 10 00:01:01,490 --> 00:01:03,612 Pretpostavimo da to znate sa sigurnošću 11 00:01:05,079 --> 00:01:06,703 i osjećate se bespomoćni 12 00:01:07,420 --> 00:01:12,550 dok ne primijetite sporedni kolosijek s desne strane 13 00:01:13,170 --> 00:01:18,039 a na kraju tog kolosijeka je jedan radnik koji radi na pruzi. 14 00:01:19,079 --> 00:01:25,326 Vaš upravljač radi pa možete skrenuti tramvaj, ako želite, 15 00:01:26,010 --> 00:01:27,912 na sporedni kolosijek, 16 00:01:28,680 --> 00:01:31,751 i tako ubiti jednog radnika, ali poštedivši petoricu. 17 00:01:33,269 --> 00:01:35,199 Evo našeg prvog pitanja. 18 00:01:35,929 --> 00:01:37,809 Kako ispravno postupiti? 19 00:01:38,819 --> 00:01:40,478 Što biste vi učinili? 20 00:01:40,638 --> 00:01:42,030 Hajde da provedemo anketu. 21 00:01:42,470 --> 00:01:47,700 Koliko bi vas skrenulo tramvaj na sporedni kolosijek? 22 00:01:47,850 --> 00:01:49,030 Dignite ruke. 23 00:01:52,019 --> 00:01:55,330 Koliko vas ne bi? Koliko bi vas nastavilo ravno naprijed? 24 00:01:57,650 --> 00:02:00,630 Ostavite podignute ruke, oni koji bi išli ravno naprijed. 25 00:02:04,049 --> 00:02:07,334 Šačica ljudi bi, velika većina bi skrenula. 26 00:02:08,048 --> 00:02:09,548 Da čujemo prvo ... 27 00:02:09,878 --> 00:02:15,039 Sada moramo istražiti razloge zašto mislite da je to ispravno učiniti. 28 00:02:15,089 --> 00:02:20,769 Počnimo s većinom, koja bi skrenula na sporedni kolosijek. 29 00:02:21,798 --> 00:02:23,409 Zašto bi to učinili? 30 00:02:23,669 --> 00:02:25,241 Koji bi bio vaš razlog? 31 00:02:25,688 --> 00:02:28,569 Tko bi nam iznio svoj razlog? 32 00:02:29,808 --> 00:02:31,838 Samo naprijed, ustanite. 33 00:02:32,218 --> 00:02:37,916 Zato jer ne može biti ispravno ubiti petoro kad možete ubiti jednoga, umjesto toga. 34 00:02:39,579 --> 00:02:43,981 Ne bi bilo u redu ubiti petoricu, ako možete ubiti samo jednog umjesto toga. 35 00:02:46,748 --> 00:02:48,208 To je dobar razlog. 36 00:02:52,959 --> 00:02:53,778 Tko još? 37 00:02:53,848 --> 00:02:56,658 Da li se svi slažu s tim razlogom? 38 00:02:59,228 --> 00:03:00,078 Izvolite. 39 00:03:01,218 --> 00:03:07,400 Mislim da je to isti razlog zbog kojeg ljude koji su u 9/11 spustili avion 40 00:03:07,533 --> 00:03:09,309 u polje u Pennsilvaniji, smatramo herojima 41 00:03:09,399 --> 00:03:15,035 jer su odabrali da ubiju ljude u avionu, a ne puno više ljudi u velikim zgradama. 42 00:03:15,909 --> 00:03:20,650 Znači, princip je bio isti u 9/11, tragična okolnost, 43 00:03:21,379 --> 00:03:24,593 bolje ubiti jednoga da bi petorica preživjela? 44 00:03:25,359 --> 00:03:28,220 Je li to razlog za većinu vas koji bi skrenuli? 45 00:03:30,428 --> 00:03:34,598 Da čujemo sada one koji su u manjini, 46 00:03:35,508 --> 00:03:37,217 one koji ne bi skrenuli. 47 00:03:40,558 --> 00:03:44,966 Mislim da je to ista vrsta mentaliteta koja opravdava genocid i totalitarizam, 48 00:03:45,206 --> 00:03:49,156 kako bi spasili jednu naciju, istrebljujete drugu. 49 00:03:50,189 --> 00:03:52,538 Pa što bi vi učinili u tom slučaju? 50 00:03:53,038 --> 00:04:00,098 Kako bi izbjegli užase genocida, vi bi se zaletili u petoricu i ubili ih? 51 00:04:03,389 --> 00:04:05,018 Po svoj prilici, da. 52 00:04:07,408 --> 00:04:08,787 Dobro, tko još? 53 00:04:09,930 --> 00:04:11,908 To je hrabar odgovor, hvala. 54 00:04:13,348 --> 00:04:17,917 Razmotrimo drugi slučaj s tramvajem 55 00:04:20,078 --> 00:04:25,338 i pogledajmo da li se, oni od vas koji su u većini, 56 00:04:27,428 --> 00:04:29,864 i dalje žele držati tog principa, 57 00:04:30,990 --> 00:04:33,329 bolje da umre jedan, kako bi petorica preživjela. 58 00:04:33,500 --> 00:04:36,743 Ovaj puta vi niste vozač tramvaja, nego promatrač. 59 00:04:37,998 --> 00:04:41,231 Stojite na mostu iznad tramvajske pruge, 60 00:04:42,678 --> 00:04:44,898 a prugom se približava tramvaj. 61 00:04:45,658 --> 00:04:47,830 Na kraju pruge nalazi se 5 radnika, 62 00:04:49,620 --> 00:04:51,329 kočnice ne rade, 63 00:04:51,738 --> 00:04:55,453 tramvaj samo što nije naletio na petoricu i ubio ih. 64 00:04:55,949 --> 00:05:00,238 A sada, vi niste vozač i zaista se osjećate bespomoćni. 65 00:05:01,309 --> 00:05:04,263 Dok ne primijetite da pokraj vas stoji 66 00:05:06,499 --> 00:05:09,373 naginjući se preko ograde mosta, 67 00:05:09,889 --> 00:05:12,210 jedan vrlo debeli čovjek. 68 00:05:17,398 --> 00:05:20,874 I mogli biste ga malo pogurnuti 69 00:05:22,668 --> 00:05:25,752 on bi pao s mosta na tračnice 70 00:05:27,949 --> 00:05:31,198 točno ispred tramvaja, 71 00:05:32,199 --> 00:05:35,483 on bi poginuo, ali bi spasio petoricu. 72 00:05:38,798 --> 00:05:43,563 Koliko vas bi gurnulo debelog čovjeka s mosta? Dignite ruke. 73 00:05:48,089 --> 00:05:49,532 Koliko vas ne bi? 74 00:05:50,859 --> 00:05:52,489 Većina ljudi ne bi. 75 00:05:53,849 --> 00:05:55,337 Postavlja se očito pitanje, 76 00:05:55,788 --> 00:05:58,075 što se dogodilo s principom, 77 00:05:59,878 --> 00:06:03,739 bolje spasiti pet života, čak i po cijenu žrtvovanja jednog, 78 00:06:03,839 --> 00:06:08,279 što je s principom koji su skoro svi podržali u prvom slučaju? 79 00:06:09,240 --> 00:06:12,809 Želio bih čuti nekoga iz većine u oba slučaja. 80 00:06:13,349 --> 00:06:16,287 Kako objašnjavate razliku između ta dva slučaja? 81 00:06:18,629 --> 00:06:23,460 Mislim da drugi uključuje aktivni izbor da se osobu gurne. 82 00:06:24,279 --> 00:06:29,736 Mislim da se, u suprotnom, ta osoba sama ne bi uplela u tu situaciju, 83 00:06:29,829 --> 00:06:32,609 pa birati u njegovo ime 84 00:06:36,119 --> 00:06:39,340 da ga se uključi u nešto što bi u protivnom izbjegao, 85 00:06:39,990 --> 00:06:42,788 mislim da je više od onog što imate u prvoj situaciji 86 00:06:42,830 --> 00:06:49,828 gdje tri strane, vozač i dvije grupe radnika već jesu u toj situaciji. 87 00:06:50,598 --> 00:06:54,239 Ali momak koji radi na sporednom kolosijeku, 88 00:06:55,108 --> 00:06:59,208 on nije odabrao da žrtvuje svoj život ništa više od debelog čovjeka, zar ne? 89 00:07:02,069 --> 00:07:04,570 To je istina, ali bio je na pruzi. 90 00:07:05,339 --> 00:07:07,409 Ovaj momak je bio na mostu! 91 00:07:10,439 --> 00:07:12,570 Možete nastaviti ako želite. 92 00:07:13,550 --> 00:07:15,159 Dobro, to je teško pitanje. 93 00:07:15,329 --> 00:07:18,298 Bili ste dobri, jako dobri, to je teško pitanje. 94 00:07:19,629 --> 00:07:24,470 Tko bi još pokušao naći način za usaglašavanje 95 00:07:26,028 --> 00:07:28,928 reakciju većine u ova dva slučaja? 96 00:07:30,158 --> 00:07:34,190 Pretpostavljam, u prvom slučaju, gdje imate jednog radnika i petoricu, 97 00:07:35,178 --> 00:07:38,549 izbor je između te dvije grupe i morate jednu izabrati, 98 00:07:38,839 --> 00:07:42,887 a ljudi će poginuti zbog tramvaja, ne nužno zbog vaše direktne akcije. 99 00:07:42,911 --> 00:07:47,558 Tramvaj je van kontrole i vi u djeliću sekunde morate donijetu određenu odluku, 100 00:07:48,209 --> 00:07:51,798 dok je guranje čovjeka s mosta stvarni čin ubojstva s vaše strane, 101 00:07:52,078 --> 00:07:56,328 nad time imate kontrolu, dok nad tramvajem nemate kontrolu. 102 00:07:57,278 --> 00:07:59,549 Zato mislim da je to malo drugačija situacija. 103 00:08:00,089 --> 00:08:01,701 U redu, tko ima odgovor? 104 00:08:04,360 --> 00:08:05,842 Tko želi odgovoriti? 105 00:08:06,319 --> 00:08:07,708 Je li to pravo objašnjenje? 106 00:08:09,490 --> 00:08:11,439 Ja mislim da to nije baš dobar razlog 107 00:08:11,599 --> 00:08:14,099 jer u oba slučaja morate odlučiti tko će umrijeti 108 00:08:14,099 --> 00:08:16,660 jer ili ćete izabrati da skrenete i ubijete osobu 109 00:08:16,660 --> 00:08:19,301 što je aktivna svjesna odluka da skrenete, 110 00:08:19,718 --> 00:08:24,263 ili ćete izabrati da gurnete deebelog čovjeka, što je također aktivni svjesni čin. 111 00:08:24,438 --> 00:08:26,766 Dakle u oba slučaja radite izbor. 112 00:08:27,689 --> 00:08:29,128 Vi želite li odgovoriti? 113 00:08:29,728 --> 00:08:32,908 Nisam baš siguran da je tako, još uvijek mi se čini da je drugačije, 114 00:08:33,030 --> 00:08:37,070 time što ste nekoga bacili na tračnice i ubili ga, 115 00:08:37,340 --> 00:08:39,700 vi ste ga ustvari sami ubili. 116 00:08:39,810 --> 00:08:41,370 Gurate ga, vlastitim rukama. 117 00:08:41,470 --> 00:08:46,452 Gurate ga, a to je drugačije od upravljanja nečim što će uzrokovati smrt. 118 00:08:48,669 --> 00:08:51,525 To zaista ne zvuči ispravno kad to ovako govorim. 119 00:08:52,650 --> 00:08:54,310 Ne, to je dobro, kako se zovete? 120 00:08:54,310 --> 00:08:55,190 Andrew. 121 00:08:55,250 --> 00:08:57,537 Andrew, dozvoli da te pitam ovo: 122 00:08:59,310 --> 00:09:00,230 Pretpostavimo, 123 00:09:02,050 --> 00:09:04,455 stojeći na mostu kraj tog debelog čovjeka, 124 00:09:04,809 --> 00:09:05,969 ne moram ga gurnuti, 125 00:09:05,969 --> 00:09:11,728 pretpostavimo da stoji na poklopcu koji mogu otvoriti okrećući neki kotač, ovako. 126 00:09:17,140 --> 00:09:18,380 Biste li ga okrenuli? 127 00:09:18,690 --> 00:09:22,502 Iz nekog razloga to izgleda još više pogrešno. 128 00:09:23,859 --> 00:09:28,200 Mislim, možda ako bi se slučajno naslonili na taj kotač ili tako nešto. 129 00:09:30,899 --> 00:09:35,676 Ili recimo da tramvaj leti prema sklopci koja će otvoriti poklopac, 130 00:09:37,569 --> 00:09:39,140 onda bih se mogao složiti s tim. 131 00:09:39,140 --> 00:09:42,052 Pošteno, to još uvijek izgleda pogrešno 132 00:09:42,230 --> 00:09:45,124 na način na koji nije izgledalo u prvom slučaju skretanja. 133 00:09:46,110 --> 00:09:50,069 I na još jedan način, u prvoj situaciji vi ste direktno uključeni u situaciju, 134 00:09:50,419 --> 00:09:52,232 u drugoj ste samo promatrač, 135 00:09:52,450 --> 00:09:55,818 pa imate izbor da se uključite ili ne guranjem debelog čovjeka. 136 00:09:55,958 --> 00:09:58,588 Zaboravimo na trenutak na ovaj slučaj. 137 00:10:01,269 --> 00:10:05,700 Zamislimo drugačiji slučaj. Ovaj puta vi ste doktor na hitnoj 138 00:10:06,160 --> 00:10:09,117 i dolazi vam šest pacijenata. 139 00:10:11,249 --> 00:10:14,796 Stradali su u groznom prometnom udesu tramvaja. 140 00:10:18,240 --> 00:10:21,719 Njih pet zadobilo je srednje teške povrede, jedan je u kritičnom stanju, 141 00:10:21,719 --> 00:10:26,000 trebao bi vam cijeli dan da se pobrinete za kritično povrijeđenog, 142 00:10:27,260 --> 00:10:29,610 no za to vrijeme onih pet bi umrlo. 143 00:10:29,650 --> 00:10:35,880 Ili se možete pobrinuti za tu petoricu, ali za to vrijeme onaj kritični bi umro. 144 00:10:36,470 --> 00:10:40,363 Koliko vas bi spasilo petoricu da ste doktor? 145 00:10:40,850 --> 00:10:42,772 Koliko bi vas bi spasilo jednoga? 146 00:10:44,480 --> 00:10:47,635 Vrlo malo ljudi, samo šačica ljudi. 147 00:10:49,089 --> 00:10:51,259 Isti razlog, pretpostavljam? 148 00:10:51,440 --> 00:10:53,372 Jedan život nasuprot pet? 149 00:10:55,570 --> 00:10:58,422 Sada razmotrite slučaj drugog doktora. 150 00:10:58,890 --> 00:11:01,543 Ovaj puta vi ste kirurg za transplantacije, 151 00:11:02,080 --> 00:11:05,655 imate 5 pacijenata i svakom je očajnički nužna 152 00:11:06,159 --> 00:11:08,847 transplantacija organa kako bi preživio. 153 00:11:09,639 --> 00:11:14,122 Jednom treba srce, jednom pluća, jednom bubreg, jednom jetra 154 00:11:15,130 --> 00:11:17,535 i petom gušterača. 155 00:11:20,210 --> 00:11:22,081 Ali nemate nijednog darivatelja organa. 156 00:11:22,779 --> 00:11:26,229 Uskoro ćete ih gledati kako umiru. 157 00:11:27,649 --> 00:11:29,671 A onda vam sine, 158 00:11:30,649 --> 00:11:34,800 da je u sobi do zdravi mladić koji je došao na pregled. 159 00:11:43,470 --> 00:11:44,940 Sviđa vam se to? 160 00:11:46,469 --> 00:11:48,946 I on je zadrijemao, 161 00:11:53,269 --> 00:11:55,413 mogli biste potiho ući, 162 00:11:56,769 --> 00:11:59,548 iščupati mu pet organa, ta osoba bi umrla, 163 00:12:00,600 --> 00:12:02,490 ali mogli biste spasiti petoricu. 164 00:12:03,169 --> 00:12:04,554 Koliko bi vas to učinilo? 165 00:12:06,971 --> 00:12:07,971 Itko? 166 00:12:10,229 --> 00:12:12,546 Koliko? Dignite ruke, ako bi to učinili. 167 00:12:17,820 --> 00:12:19,250 Netko na balkonu? 168 00:12:20,465 --> 00:12:21,465 Vi bi? 169 00:12:21,790 --> 00:12:24,230 Budite oprezni, ne naginjite se previše. 170 00:12:26,709 --> 00:12:28,190 Koliko ne bi? 171 00:12:29,340 --> 00:12:30,360 U redu. 172 00:12:30,760 --> 00:12:35,228 Što vi kažete, govorite vi sa balkona koji bi iščupali organe, zašto? 173 00:12:35,840 --> 00:12:38,629 Ja bi zapravo htio razmotriti malo drugačiju mogućnost, 174 00:12:38,629 --> 00:12:41,358 tako da uzmem jednog od onih kojima treba organ, 175 00:12:41,358 --> 00:12:42,888 koji će prvi umrijeti 176 00:12:43,108 --> 00:12:46,619 i iskoristio bi njegova četiri zdrava organa da spasim ostalu četvoricu. 177 00:12:49,920 --> 00:12:51,909 To je prilično dobra ideja. 178 00:12:54,389 --> 00:12:55,943 To je sjajna ideja, 179 00:12:57,830 --> 00:12:59,189 osim činjenice 180 00:13:00,159 --> 00:13:03,108 da ste upravo upropastili filozofsku poantu. 181 00:13:06,159 --> 00:13:09,240 Odmaknimo se malo od ovih priča i argumenata. 182 00:13:10,240 --> 00:13:15,897 da uočimo nekoliko stvari u načinu kako su se argumenti počeli razvijati. 183 00:13:17,199 --> 00:13:22,062 Određeni moralni principi već su se počeli pojavljivati 184 00:13:23,340 --> 00:13:24,919 u diskusijama koje smo vodili. 185 00:13:25,879 --> 00:13:30,439 Pa hajde da vidimo koji su to moralni principi. 186 00:13:31,250 --> 00:13:35,215 Prvi moralni princip koji se pojavio u diskusiji kaže 187 00:13:35,710 --> 00:13:38,550 ispravna stvar, moralna stvar koju treba učiniti 188 00:13:38,610 --> 00:13:43,899 ovisi o posljedicama kojima će rezultirati vaše djelovanje. 189 00:13:45,480 --> 00:13:48,650 Na kraju dana, bolje je da prežive petorica 190 00:13:49,140 --> 00:13:51,160 čak i ako jedan mora umrijeti. 191 00:13:51,950 --> 00:13:57,360 To je primjer konsekvencijalističkog moralnog rasuđivanja. 192 00:13:58,710 --> 00:14:03,110 Konsekvencijalističko moralno rasuđivanje locira moralnost u posljedicama nekog čina 193 00:14:03,160 --> 00:14:07,235 u stanju svijeta koji će biti rezultat onoga što učinite. 194 00:14:08,779 --> 00:14:11,989 Ali onda smo otišli malo dalje razmatrajući druge slučajeve 195 00:14:12,789 --> 00:14:14,438 i ljudi nisu baš bili sigurni 196 00:14:14,960 --> 00:14:18,385 u konsekvencijalistčko moralno rasuđivanje. 197 00:14:20,529 --> 00:14:24,745 Kad su oklijevali gurnuti debelog čovjeka s mosta 198 00:14:25,789 --> 00:14:28,778 ili iščupati organe nevinog pacijenta, 199 00:14:29,330 --> 00:14:32,529 ljudi su ukazivali na razloge 200 00:14:33,839 --> 00:14:39,589 povezane s intrinzičnom kvalitetom samog čina, 201 00:14:39,800 --> 00:14:42,154 kakve god mogle biti posljedice. 202 00:14:42,439 --> 00:14:44,172 Ljudi su se opirali, 203 00:14:44,819 --> 00:14:48,539 ljudi su mislili da je to jednostavno pogrešno, kategorički pogrešno, 204 00:14:49,480 --> 00:14:56,274 ubiti osobu, nevinu osobu, čak i u ime spašavanja pet života. 205 00:14:56,284 --> 00:15:02,964 Bar su tako ljudi mislili u drugoj verziji priča koje smo razmatrali. 206 00:15:05,420 --> 00:15:11,065 To ukazuje na drugi kategorički način 207 00:15:12,617 --> 00:15:15,567 razmišljanja o moralnom rasuđivanju. 208 00:15:15,749 --> 00:15:18,639 Kategoričko moralno rasuđivanje postavlja moralnost 209 00:15:18,814 --> 00:15:21,304 u određene apsolutne moralne zahtjeve, 210 00:15:21,354 --> 00:15:25,718 određene kategoričke dužnosti i prava bez obzira na posljedice. 211 00:15:27,440 --> 00:15:30,490 U danima i tjednima pred nama istraživat ćemo 212 00:15:30,680 --> 00:15:35,163 razlike između konsekvencijalističkih i kategoričkih moralnih principa. 213 00:15:36,539 --> 00:15:42,650 Najutjecajniji primjer konsekvencijalističkog moralnog rasuđivanja je utilitarizam, 214 00:15:42,959 --> 00:15:48,929 doktrina koju je razvio Jeremy Bentham, engleski političkii filozof 18. stoljeća. 215 00:15:51,100 --> 00:15:56,319 Najvažniji filozof kategoričkog moralnog rasuđivanja 216 00:15:56,619 --> 00:16:01,472 je Emmanuel Kant, njemački filozof 18. stoljeća. 217 00:16:02,590 --> 00:16:06,221 Stoga ćemo razmotriti ova dva različita načina moralnog rasuđivanja 218 00:16:07,259 --> 00:16:09,709 procijeniti ih i također razmotriti druge. 219 00:16:10,669 --> 00:16:15,239 Ako pogledate nastavni program, primijetit ćete da čitamo niz sjajnih i čuvenih knjiga, 220 00:16:15,650 --> 00:16:21,910 knjige Aristotela, Johna Lockea, Immanuela Kanta, Johna Stewarta Milla 221 00:16:22,080 --> 00:16:22,983 i drugih. 222 00:16:24,029 --> 00:16:27,749 Također ćete primijetiti u programu da ne čitamo samo te knjige, 223 00:16:28,169 --> 00:16:30,447 bavimo se također 224 00:16:31,039 --> 00:16:36,040 suvremenim političkim i pravnim kontraverzama koje potiču filozofska pitanja. 225 00:16:37,000 --> 00:16:39,433 Diskutirat ćemo o jednakosti i nejednakosti, 226 00:16:39,820 --> 00:16:41,420 afirmativnu akciju (pozitivnu diskriminaciju), 227 00:16:41,490 --> 00:16:43,453 slobodu govora nasuprot govora mržnje, 228 00:16:43,698 --> 00:16:46,538 istospolne brakove, vojnu obavezu, 229 00:16:46,799 --> 00:16:48,960 spektar praktičnih pitanja. 230 00:16:49,770 --> 00:16:54,545 Zašto? Ne tek da bi oživjeli te apstraktne i daleke knjige, 231 00:16:55,350 --> 00:16:58,450 već da rasvjetlimo, razotkrijemo, kako filozofija utječe na 232 00:16:58,450 --> 00:17:01,380 naše svakidašnje živote, uključujući naše političke živote. 233 00:17:05,480 --> 00:17:09,730 Zato ćemo čitati te knjige i raspravljati o tim pitanjima 234 00:17:09,870 --> 00:17:14,008 i vidjeti kako svaki od njih utječe i rasvjetljava druge. 235 00:17:15,480 --> 00:17:20,439 To može zvučati dosta privlačno, ali ovdje vas moram upozoriti na nešto. 236 00:17:22,329 --> 00:17:24,120 A upozorenje je sljedeće: 237 00:17:25,210 --> 00:17:29,220 čitati ove knjige, na ovaj način, 238 00:17:31,549 --> 00:17:33,428 kao vježbu u samo-spoznaji, 239 00:17:34,119 --> 00:17:36,758 čitati ih na ovaj način nosi određene rizike, 240 00:17:38,019 --> 00:17:40,719 rizike koji su istovremeno osobni i politički, 241 00:17:41,649 --> 00:17:46,539 rizike koje poznaje svaki student političke filozofije. 242 00:17:47,399 --> 00:17:49,766 Ti rizici proizlaze iz činjenice 243 00:17:50,330 --> 00:17:55,106 da nas filozofija uči i uznemiruje 244 00:17:56,400 --> 00:17:59,430 suočavajući nas s onim što već znamo. 245 00:18:01,390 --> 00:18:02,620 Tu postoji jedna ironija, 246 00:18:03,390 --> 00:18:08,424 teškoća ovog kolegija skriva se u činjenici da vas uči ono što već znate. 247 00:18:09,789 --> 00:18:15,059 To radi uzimajući ono što znamo iz poznatih neupitnih okruženja, 248 00:18:16,470 --> 00:18:18,544 i pretvarajući to u nešto nepoznato. 249 00:18:19,979 --> 00:18:22,259 Na taj način su funkcionirali oni primjeri, 250 00:18:23,119 --> 00:18:28,467 s hipotetičkim pretpostavkama s kojima smo započinjali, mješavinom šaljivog i razboritog. 251 00:18:29,029 --> 00:18:31,610 Jednako tako funkcioniraju i te filozofske knjige. 252 00:18:31,650 --> 00:18:36,380 Filozofija nas otuđuje od poznatog, 253 00:18:37,519 --> 00:18:39,620 ne tako da nam daje nove informacije, 254 00:18:40,390 --> 00:18:42,610 nego pozivajući i potičući 255 00:18:43,599 --> 00:18:45,299 novi način opažanja, 256 00:18:47,420 --> 00:18:49,010 ali, i tu je rizik, 257 00:18:49,970 --> 00:18:53,109 jednom kada ono poznato postane strano, 258 00:18:54,299 --> 00:18:56,602 nikada više nije potpuno isto. 259 00:18:57,329 --> 00:19:01,500 Samo-spoznaja je kao izgubljena nevinost, 260 00:19:03,030 --> 00:19:05,449 kako god uznemirujuća bila kada ju nađete 261 00:19:06,029 --> 00:19:08,209 nikada je više ne možete od-misliti 262 00:19:09,720 --> 00:19:11,102 ili ne-znati. 263 00:19:13,390 --> 00:19:15,533 Ono što čini ovaj poduhvat teškim 264 00:19:17,259 --> 00:19:18,841 ali također intrigantnim, 265 00:19:19,490 --> 00:19:23,155 je to da je moralna i politička filozofija priča 266 00:19:25,400 --> 00:19:28,654 i vi ne znate kuda će vas ta priča odvesti, ali ono što znate 267 00:19:29,339 --> 00:19:32,423 je da je to priča o vama. 268 00:19:34,410 --> 00:19:36,269 To su osobni rizici. 269 00:19:37,079 --> 00:19:39,055 A što je s političkim rizicima? 270 00:19:39,980 --> 00:19:42,798 Jedan način predstavljanja kolegija poput ovog 271 00:19:43,038 --> 00:19:45,878 bio bi obećavajući vam da ćete čitanjem ovih knjiga 272 00:19:46,370 --> 00:19:47,919 i diskutiranjem o ovim pitanjima 273 00:19:48,069 --> 00:19:50,680 postati bolji, odgovorniji građani. 274 00:19:51,769 --> 00:19:54,510 Propitivat ćete presumpcije javnih politika, 275 00:19:54,510 --> 00:19:57,109 brusiti svoje političke prosudbe, 276 00:19:57,289 --> 00:20:00,524 postat ćete učinkovitiji sudionik javnih zbivanja. 277 00:20:02,549 --> 00:20:05,669 Ali to bi bilo nepotpuno i obmanjujuće obećanje. 278 00:20:06,369 --> 00:20:09,849 Politička fizofija uglavnom ne funkcionira na taj način. 279 00:20:11,490 --> 00:20:13,516 Morate dozvoliti mogućnost 280 00:20:14,430 --> 00:20:17,760 da vas politička filozofija može učiniti gorim građaninom, 281 00:20:18,809 --> 00:20:19,789 a ne boljim, 282 00:20:21,390 --> 00:20:26,469 ili barem gorim građaninom prije no što vas učini boljim. 283 00:20:27,950 --> 00:20:30,400 A to je zbog toga jer je filozofija 284 00:20:30,400 --> 00:20:35,100 aktivnost koja udaljava i čak iscrpljuje. 285 00:20:36,199 --> 00:20:39,071 A to vidite vraćajući se Sokratu; 286 00:20:39,560 --> 00:20:41,480 ima jedan dijalog, Gorgija, 287 00:20:41,480 --> 00:20:48,231 u kojem jedan od Sokratovih prijatelja, Kalikle, pokušava odvratiti ga od filozofiranja. 288 00:20:49,620 --> 00:20:53,040 Kalikle kaže Sokratu, 'Filozofija je zgodna igračka, 289 00:20:54,400 --> 00:20:57,600 ako se u nju upuštamo umjereno u primjereno životno doba, 290 00:20:57,980 --> 00:21:02,889 ali ako na njoj ustrajemo više no što treba, ona je apsolutna propast,' 291 00:21:03,779 --> 00:21:07,484 'Poslušaj moj savjet,' kaže Kalikle, 'ostavi se rasprave, 292 00:21:08,199 --> 00:21:10,720 nauči vještine aktivnog života, 293 00:21:11,180 --> 00:21:16,390 neka ti modeli ne budu ti ljudi koji vrijeme provode u tim sitničavim igrama riječi, 294 00:21:16,880 --> 00:21:21,220 već oni koji imaju dobro situiran život i reputaciju i mnoge druge blagodati.' 295 00:21:22,079 --> 00:21:26,038 Kalikle zapravo Sokratu kaže, 296 00:21:26,808 --> 00:21:29,329 'Okani se filozofiranja, uozbilji se, 297 00:21:30,549 --> 00:21:33,032 upiši se u poslovnu školu.' 298 00:21:35,170 --> 00:21:37,215 I Kalikle je bio u pravu. 299 00:21:38,299 --> 00:21:39,900 Bio je u pravu utoliko 300 00:21:39,900 --> 00:21:46,308 što nas filozofija udaljava od konvencija, utvrđenih postavki i prihvaćenih vjerovanja. 301 00:21:46,750 --> 00:21:49,508 To su rizici, osobni i politički, 302 00:21:49,970 --> 00:21:53,439 a unatoč tim rizicima postoji karakteristično odstupanje, 303 00:21:54,089 --> 00:21:56,260 ime tog odstupanja je skepticizam. 304 00:21:56,340 --> 00:21:58,782 To je ideja, ide otprilike ovako: 305 00:21:58,990 --> 00:22:02,000 nismo riješili, jednom zauvijek, 306 00:22:03,660 --> 00:22:08,068 ni slučajeve ni principe o kojima smo raspravljali na početku, 307 00:22:09,759 --> 00:22:15,857 a kad Aristotel i Locke i Kant i Mill nisu riješili ta pitanja nakon svih tih godina, 308 00:22:17,220 --> 00:22:18,670 tko smo mi da mislimo 309 00:22:19,589 --> 00:22:24,400 da ih mi, ovdje u Sanders Theatre tijekom jednog semestra možemo riješiti? 310 00:22:26,430 --> 00:22:31,690 Možda je samo stvar u tome da svaka osoba ima vlastite principe 311 00:22:31,690 --> 00:22:35,639 i ništa se više o tome nema za reći, nikakvo rasuđivanje. 312 00:22:36,084 --> 00:22:37,144 To je izbjegavanje. 313 00:22:37,630 --> 00:22:39,100 Izbjegavanje skepticizmom 314 00:22:39,440 --> 00:22:42,043 na što bih ja dao sljedeći odgovor: 315 00:22:42,660 --> 00:22:46,530 Istina, o ovim pitanjima se rspravlja već dugo vremena, 316 00:22:47,559 --> 00:22:51,189 ali sam činjenica da se uvijek iznova pojavljuju i ustraju, 317 00:22:52,700 --> 00:22:56,581 može sugerirati da, iako su u nekom smislu nemoguća, 318 00:22:57,169 --> 00:22:59,426 neizbježna su u drugom. 319 00:22:59,799 --> 00:23:02,002 A razlog zašto su neizbježna, 320 00:23:02,299 --> 00:23:04,340 razlog zašto su neizbježna je 321 00:23:04,340 --> 00:23:08,746 da mi svakoga dana živimo odgovarajući na ta pitanja. 322 00:23:09,949 --> 00:23:14,578 Zato skepticizam, dizanje ruku i odustajanje od moralnog promišljanja, 323 00:23:16,130 --> 00:23:17,468 nije rješenje. 324 00:23:18,279 --> 00:23:22,540 Immanuel Kant vrlo dobro je opisao problem sa skepticizmom kad je napisao: 325 00:23:22,860 --> 00:23:25,458 'Skepticizam je počivalište za ljudski razum 326 00:23:25,918 --> 00:23:28,709 gdje može razmišljati o svojim dogmatskim lutanjima, 327 00:23:29,099 --> 00:23:32,380 ali nije mjesto za trajno obitavanje.' 328 00:23:33,069 --> 00:23:35,739 'Jednostavno se pomiriti sa skepticizmom,' pisao je Kant, 329 00:23:35,940 --> 00:23:40,320 'nikada ne može biti dovoljno za prevladavanje nemira razuma.' 330 00:23:42,660 --> 00:23:49,140 Pokušao sam, kroz ove priče i argumente, izložiti neki vid rizika i iskušenja 331 00:23:49,898 --> 00:23:51,859 opasnosti i mogućnosti. 332 00:23:51,959 --> 00:23:57,069 Zaključit ću rekavši: da je cilj ovog kolegija 333 00:23:58,099 --> 00:24:03,791 probuditi nemir razuma i vidjeti kuda bi to moglo voditi. 334 00:24:04,380 --> 00:24:05,498 Hvala vam. 335 00:24:15,440 --> 00:24:18,828 U tako očajnoj situaciji morate učiniti ono što morate da bi preživjeli. 336 00:24:19,078 --> 00:24:20,729 Morate učiniti ono što morate? 337 00:24:20,989 --> 00:24:22,509 Što morate, morate, baš tako. 338 00:24:22,789 --> 00:24:29,792 Ako 19 dana niste ništa jeli, netko se mora žrtvovati da bi ljudi preživjeli. 339 00:24:30,500 --> 00:24:32,230 U redu, dobro je. Kako se zovete? 340 00:24:32,300 --> 00:24:33,220 Marcus. 341 00:24:33,640 --> 00:24:34,580 Što kažete Marcusu? 342 00:24:34,610 --> 00:24:35,610 SLUČAJ KANIBALIZMA 343 00:24:44,569 --> 00:24:48,086 Prošli puta smo započeli s nekim pričama, 344 00:24:49,110 --> 00:24:52,040 moralnim dilemama u vezi tramvaja. 345 00:24:52,699 --> 00:24:54,159 i doktora 346 00:24:54,509 --> 00:25:00,179 i zdravih pacijenata u opasnosti da budu žrtve transplantacije organa. 347 00:25:00,910 --> 00:25:05,490 Uočili smo dvije stvari u vezi diskusija koje smo imali 348 00:25:06,560 --> 00:25:09,123 Jedna se odnosi na način na koji smo diskutirali. 349 00:25:09,899 --> 00:25:13,136 Počelo je s našim prosudbama u danim slučajevima. 350 00:25:13,569 --> 00:25:16,625 Pokušali smo artikulirati razloge odnosno principe 351 00:25:18,060 --> 00:25:20,048 u podlozi naših prosudbi, 352 00:25:22,549 --> 00:25:24,541 a onda, suočeni s novim slučajem 353 00:25:25,120 --> 00:25:28,339 našli smo se preispitujući te principe 354 00:25:30,069 --> 00:25:32,585 revidirajući svakog u svjetlu drugog. 355 00:25:34,019 --> 00:25:37,873 I primijetili smo ugrađeno nastojanje da ih uskladimo, 356 00:25:38,600 --> 00:25:40,661 naše ocjene danih slučajeva 357 00:25:41,680 --> 00:25:44,677 i principe koje bismo usvojili nakon promišljanja. 358 00:25:46,359 --> 00:25:50,110 Također smo uočili nešto u vezi sadržaja argumenata 359 00:25:50,589 --> 00:25:52,805 koji su se pojavili tokom diskusije. 360 00:25:55,250 --> 00:26:00,859 Primijetili smo da smo ponekad u iskušenju locirati moralnost nekog čina u posljedicama, 361 00:26:00,969 --> 00:26:04,671 u rezultatima, u stanju svijeta koji nastaje tim činom. 362 00:26:06,519 --> 00:26:09,928 To smo nazvali konsekvencijalnim moralnim rasuđivanjem. 363 00:26:11,690 --> 00:26:14,319 No, primijetili smo također da u nekim slučajevima 364 00:26:16,440 --> 00:26:19,466 nismo se povodili samo rezultatima. 365 00:26:21,039 --> 00:26:24,325 Ponekad mnogi od nas su osjećali 366 00:26:25,349 --> 00:26:33,029 da ne samo posljedice, nego i intrinzična kvaliteta čina ima moralnu važnost. 367 00:26:35,129 --> 00:26:40,099 Neki ljudi su tvrdili da postoje određene stvari koje su kategorički neispravne, 368 00:26:40,440 --> 00:26:43,461 čak i ako donose dobar rezultat, 369 00:26:44,460 --> 00:26:48,720 čak i ako spašavaju petoro ljudi po cijenu jednog života. 370 00:26:49,788 --> 00:26:56,315 Stoga smo suprotstavili konsekvencijalne moralne principe kategoričkima. 371 00:26:57,920 --> 00:27:01,000 Danas i sljedećih nekoliko dana 372 00:27:01,099 --> 00:27:09,571 preispitat ćemo jednu od najutjecajnijih verzija konsekvencijalističke teorije morala, 373 00:27:10,970 --> 00:27:13,789 a to je filozofija utilitarizma. 374 00:27:15,729 --> 00:27:20,563 Jeremy Bentham, engleski politički filozof 18. stoljeća, 375 00:27:21,690 --> 00:27:29,122 prvi je jasno sistematski izložio utilitarističku teoriju morala, 376 00:27:32,210 --> 00:27:37,612 a Benthamova ideja, njegova ključna ideja, 377 00:27:38,190 --> 00:27:40,000 vrlo je jednostavna 378 00:27:42,680 --> 00:27:47,392 i moralno intuitivno vrlo dopadljiva. 379 00:27:48,220 --> 00:27:51,085 Benthamova ideja je sljedeća: 380 00:27:51,589 --> 00:27:55,791 ono što je ispravno učiniti, što je pravedno učiniti, 381 00:27:57,419 --> 00:28:01,997 je maksimizirati korisnost. 382 00:28:02,339 --> 00:28:04,035 Što je mislio pod korisnost? 383 00:28:05,529 --> 00:28:08,860 Pod korisnost je podrazumijevao ravnotežu 384 00:28:11,140 --> 00:28:14,880 ugode i boli, radosti i patnje. 385 00:28:16,538 --> 00:28:20,590 Tako smo došli do principa maksimiziranja korisnosti. 386 00:28:22,308 --> 00:28:25,250 Započeo uočivši da svima nama, 387 00:28:26,088 --> 00:28:27,440 svim ljudskim bićima, 388 00:28:27,750 --> 00:28:30,320 upravljaju dva suverena gospodara, 389 00:28:31,040 --> 00:28:32,468 bol i ugoda. 390 00:28:34,369 --> 00:28:38,989 Mi ljudska bića volimo ugodu i ne volimo bol 391 00:28:42,038 --> 00:28:45,279 i zato bismo moralnost morali bazirati 392 00:28:45,839 --> 00:28:48,449 - bez obzira da li se radi o našem vlastitom životu 393 00:28:48,940 --> 00:28:54,177 ili kao zakonodavci ili građani razmišljamo kakav bi trebao biti zakon - 394 00:28:57,029 --> 00:29:05,069 - ispravno je da individualno ili kolektivno djelujemo tako da maksimiziramo 395 00:29:05,838 --> 00:29:08,771 sveopću razinu sreće. 396 00:29:11,369 --> 00:29:14,947 Benthamov utilitarizam se ponekad sažima sloganom: 397 00:29:15,430 --> 00:29:17,844 'najveće dobro za najveći broj'. 398 00:29:18,869 --> 00:29:22,255 S tim osnovnim principom korisnosti pri ruci, 399 00:29:22,730 --> 00:29:27,700 krenimo ga testirati i propitivati kroz još jedan slučaj, 400 00:29:28,179 --> 00:29:31,898 još jednu priču, ali ovoga puta to nije hipotetska priča, 401 00:29:32,640 --> 00:29:34,230 nego priča iz stvarnog života, 402 00:29:34,339 --> 00:29:37,438 slučaj Kraljice protiv Dudley i Stevensa. 403 00:29:38,099 --> 00:29:42,520 To je čuveni britanski pravni spor iz 19. stoljeća 404 00:29:44,009 --> 00:29:46,763 o kojem se mnogo raspravlja na pravnim fakultetima. 405 00:29:47,348 --> 00:29:49,869 Evo što se dogodilo: 406 00:29:50,059 --> 00:29:55,896 - ukratko ću ispričati priču, a onda bih želio čuti kako bi vi presudili 407 00:29:57,059 --> 00:29:59,314 zamišljajući da ste vi porota. 408 00:30:03,989 --> 00:30:07,243 Tadašnja priča u novinama opisala je pozadinu. 409 00:30:08,819 --> 00:30:12,370 Nikada nije bila ispričana tužnija priča o udesu na moru 410 00:30:12,789 --> 00:30:15,680 no što je priča preživjelih sa broda Mignonette. 411 00:30:16,240 --> 00:30:20,994 Brod je potonuo u Južnom Atlantiku 1300 milja od Cape Towna. 412 00:30:21,789 --> 00:30:25,097 Imao je četiri člana posade, Dudley je bio kapetan, 413 00:30:25,710 --> 00:30:29,331 Stephens je bio prvi oficir, Brooks je bio mornar. 414 00:30:29,890 --> 00:30:34,559 Sve ljudi odličnog karaktera, kako nam govori novinska priča. 415 00:30:35,819 --> 00:30:40,919 Četvrti član posade bio je mali od palube, Richard Parker star 17 godina. 416 00:30:42,689 --> 00:30:45,679 On je bio siroče, nije imao nikoga od obitelji 417 00:30:46,930 --> 00:30:50,270 i to je bilo njegovo prvo dulje putovanje morem. 418 00:30:51,410 --> 00:30:55,570 Pošao je, kaže novinska priča, unatoč savjetima svojih prijatelja, 419 00:30:56,730 --> 00:31:02,187 pošao je u nadi mladenačke ambicije da će putovanje napraviti od njega čovjeka. 420 00:31:02,940 --> 00:31:04,690 Nažalost, nije mu bilo suđeno. 421 00:31:05,140 --> 00:31:07,410 Činjenice slučaja nisu bile sporne, 422 00:31:07,639 --> 00:31:10,321 val je udario u brod i Mignonette je potonuo. 423 00:31:12,000 --> 00:31:14,649 Četvoro članova posade spasilo se u čamcu za spasavanje. 424 00:31:14,859 --> 00:31:20,979 Jedina hrana koju su imali bile su dvije konzerve konzervirane repe. 425 00:31:21,429 --> 00:31:22,740 Bez pitke vode. 426 00:31:23,980 --> 00:31:26,070 Prva tri dana nisu jeli ništa. 427 00:31:26,609 --> 00:31:30,889 Četvrti dan otvorili su jednu konzervu repe i pojeli je. 428 00:31:31,589 --> 00:31:33,509 Sljedeći dan uhvatili su kornjaču. 429 00:31:33,980 --> 00:31:37,330 Druga konzerva repe i kornjača 430 00:31:38,220 --> 00:31:40,798 omogućili su im da prežive sljedećih nekoliko dana 431 00:31:40,798 --> 00:31:45,630 i onda osam dana nisu jeli ništa. Bez hrane i bez vode. 432 00:31:46,529 --> 00:31:49,529 Zamislite sebe u takvoj situaciji. 433 00:31:49,839 --> 00:31:50,874 Što biste vi učinili? 434 00:31:52,479 --> 00:31:54,062 Evo što su oni učinili. 435 00:31:55,119 --> 00:31:59,993 Mali od palube Parker je sada već ležao na dnu čamca za spasavanje, u ćošku, 436 00:32:00,630 --> 00:32:04,621 jer se bio napio morske vode protivno savjetima ostalih. 437 00:32:05,490 --> 00:32:09,312 Bilo mu je zlo i izgledalo je da umire. 438 00:32:10,289 --> 00:32:17,419 Devetnaestog dana Dudley, kapetan, predložio je da svi izvlače lutriju, 439 00:32:17,768 --> 00:32:21,979 da bi trebali vući slamke da vide tko bi trebao umrijeti da spasi ostale. 440 00:32:23,489 --> 00:32:28,059 Brooks je odbio, nije mu se sviđala ideja o lutriji. 441 00:32:29,030 --> 00:32:32,998 Ne znamo je li to bilo zbog toga jer nije želio riskirati 442 00:32:33,238 --> 00:32:36,084 ili jer je vjerovao u kategoričke moralne principe. 443 00:32:36,869 --> 00:32:39,887 No, u svakom slučaju, slamke se nisu izvlačile. 444 00:32:41,860 --> 00:32:44,643 Sljedeći dan još uvijek nije bilo nijednog broda na vidiku 445 00:32:45,028 --> 00:32:48,092 pa je Dudley rekao Brooksu da odvrati pogled 446 00:32:48,470 --> 00:32:52,833 i dao znak Stephensu da bi bilo dobro da ubiju dječaka Parkera. 447 00:32:53,659 --> 00:32:57,567 Dudley se pomolio, rekao dječaku da je kucnuo njegov čas 448 00:32:58,480 --> 00:33:02,362 i usmrtio ga perorezom ubadajaći ga u vratnu venu. 449 00:33:03,220 --> 00:33:09,070 Brooks je odustao od prigovora savjesti kako bi sudjelovao u podjeli jezive nagrade. 450 00:33:09,750 --> 00:33:14,111 Četiri dana njih su se trojica hranila tijelom i krvlju malog od palube. 451 00:33:15,130 --> 00:33:16,310 Istinita priča. 452 00:33:16,810 --> 00:33:18,235 I onda su bili spašeni. 453 00:33:18,780 --> 00:33:23,602 Dudley opisuje njihovo spašavanje u svom dnevniku; 454 00:33:24,679 --> 00:33:26,998 zapanjujućim eufemizmom, citiram: 455 00:33:27,569 --> 00:33:31,468 'Dvadeset i četvrtog dana dok smo doručkovali 456 00:33:34,903 --> 00:33:36,533 konačno se pojavio brod.' 457 00:33:38,429 --> 00:33:43,349 Trojicu preživjelih pokupio je njemački brod i odveo natrag u Falmouth u Engleskoj 458 00:33:44,309 --> 00:33:46,086 gdje su uhapšeni i suđeni. 459 00:33:46,719 --> 00:33:49,006 Brooks je postao zaštićeni svjedok, 460 00:33:49,819 --> 00:33:51,829 Dudley i Stephensu se sudilo. 461 00:33:52,010 --> 00:33:53,710 Oni nisu osporavali činjenice, 462 00:33:54,390 --> 00:33:57,140 tvrdili su da su postupali u krajnjoj nuždi. 463 00:33:57,610 --> 00:33:58,900 To je bila njihova obrana. 464 00:33:59,430 --> 00:34:04,904 Tvrdili su u suštini da je bolje da jedan umre da bi trojica preživjela. 465 00:34:06,420 --> 00:34:10,079 Tužilac nije bio uvjeren ovim argumentom, 466 00:34:10,639 --> 00:34:13,849 rekao je, 'Ubojstvo je ubojstvo' i tako je slučaj dospio pred sud. 467 00:34:13,849 --> 00:34:15,569 Zamislite sad da ste vi porota, 468 00:34:16,329 --> 00:34:18,243 a da bismo pojednostavili diskusiju, 469 00:34:19,269 --> 00:34:24,025 ostavite po strani pitanje zakona i pretpostavimo da ste vi kao porota 470 00:34:25,878 --> 00:34:31,408 zaduženi da odlučite da li je ono što su učinili moralno dopustivo ili nije. 471 00:34:34,378 --> 00:34:40,071 Koliko bi vas glasalo 'nisu krivi', 472 00:34:40,539 --> 00:34:42,844 da je ono što su učinili moralno dopustivo? 473 00:34:49,528 --> 00:34:53,379 A koliko bi vas glasalo 'krivi', ono što su učinili je moralno neispravno? 474 00:34:54,858 --> 00:34:56,630 Prilično brojna većina. 475 00:34:57,998 --> 00:35:02,794 Da vidimo sada razloge, a započet ću s onima u manjini. 476 00:35:03,809 --> 00:35:08,875 Da prvo čujemo obranu Dudleya i Stephensa. 477 00:35:10,099 --> 00:35:12,867 Zašto bi ih oslobodili krivnje? 478 00:35:14,159 --> 00:35:15,486 Koji su vaši razlozi? 479 00:35:17,989 --> 00:35:20,348 Mislim da to zaslužuje moralnu osudu, 480 00:35:20,798 --> 00:35:23,645 ali također da postoji razlika između moralno neprimjerenog 481 00:35:23,989 --> 00:35:26,249 i onog što nekog čini pravno odgovornim. 482 00:35:26,608 --> 00:35:31,296 Drugim riječima, kao što je rekao sudac, nemoralno nije nužno protiv zakona, 483 00:35:31,930 --> 00:35:38,059 pa iako ne mislim da nužnost opravdava krađu ili ubojstvo ili bilo koji nezakoniti čin, 484 00:35:38,579 --> 00:35:44,618 u nekom času stupanj nužnosti ustvari vas oslobađa krivnje. 485 00:35:45,849 --> 00:35:49,247 Drugi branitelji, drugi glasovi za obranu? 486 00:35:50,588 --> 00:35:53,846 Moralna opravdanja za ono što su učinili? 487 00:35:58,468 --> 00:36:03,040 Meni se čini u tako očajnoj situaciji morate činiti ono što morate kako bi preživjeli. 488 00:36:03,139 --> 00:36:04,789 Morate učiniti ono što morate? 489 00:36:04,929 --> 00:36:06,789 Morate učiniti što morate, tako je. 490 00:36:06,979 --> 00:36:09,529 Ako ste izdržali 19 dana bez hrane 491 00:36:10,168 --> 00:36:14,351 netko se jednostavno mora žrtvovati da ljudi mogu preživjeti. 492 00:36:14,710 --> 00:36:18,979 I štoviše, recimo da su preživjeli i postali produktivni članovi društva 493 00:36:18,979 --> 00:36:25,449 koji odu kući i, na primjer, osnuju dobrotvorne organizacije i svašta drugo za opću dobrobit. 494 00:36:25,610 --> 00:36:29,649 Ja ne znam što su oni radili poslije, možda su ubili još ljudi ... 495 00:36:30,618 --> 00:36:31,339 Što? 496 00:36:32,889 --> 00:36:35,414 Što ako su otišli kući i postali ubojice? 497 00:36:35,708 --> 00:36:38,416 Što ako su otišli kući i postali ubojice? 498 00:36:38,909 --> 00:36:41,721 Ne biste željeli znati koga su ubili? 499 00:36:42,408 --> 00:36:43,488 Istina, to je fer. 500 00:36:44,809 --> 00:36:46,362 Ne bih želio znati koga su ubili. 501 00:36:46,428 --> 00:36:47,848 Dobro je, kako se zovete? 502 00:36:47,998 --> 00:36:48,998 Marcus. 503 00:36:50,708 --> 00:36:53,499 Čuli smo obranu, par glasova za obranu, 504 00:36:54,050 --> 00:36:56,723 sada trebamo čuti tužiteljstvo. 505 00:36:57,218 --> 00:37:02,066 Većina ljudi misli da je ono što su učinili neispravno. Zašto? 506 00:37:04,508 --> 00:37:06,938 Jedna od prvih stvari koju sam ja pomislila bilo je, 507 00:37:06,958 --> 00:37:08,759 'Pa, dobro, nisu jako dugo jeli, 508 00:37:10,339 --> 00:37:14,439 pa su možda mentalno pogođeni 509 00:37:15,139 --> 00:37:17,978 pa se to može iskoristiti za obranu, 510 00:37:17,978 --> 00:37:25,583 mogući argument da nisu bili prisebni i donosili su odluke koje inače ne bi, 511 00:37:25,779 --> 00:37:27,529 a ako je to prihvatljiv argument, 512 00:37:27,569 --> 00:37:31,199 da morate biti u stanju promijenjene svijesti da bi učinili tako nešto, 513 00:37:31,229 --> 00:37:35,309 to navodi da ljudi koji taj argument smatraju uvjerljivim 514 00:37:36,108 --> 00:37:38,118 zaista misle da postupaju nemoralno ... 515 00:37:38,138 --> 00:37:40,318 Ali ja želim znati što vi mislite. Vi ih branite ... 516 00:37:41,398 --> 00:37:43,409 Vi ste za to da budu optuženi, zar ne? 517 00:37:43,469 --> 00:37:46,399 Ja ne mislim da su postupali na moralno prihvatljiv način ... 518 00:37:46,509 --> 00:37:50,612 A zašto ne? Što kažete ... Tu je Marcus, on ih je upravo branio. 519 00:37:50,919 --> 00:37:53,800 On je rekao, čuli ste što je rekao, 520 00:37:56,559 --> 00:37:59,319 da morate učiniti ono što morate u takvoj situaciji. 521 00:38:00,119 --> 00:38:01,729 Što ćete reći Marcusu? 522 00:38:06,438 --> 00:38:11,738 Da ne postoji situacija u kojoj bi ljudima bilo dozvoljeno da uzmu 523 00:38:13,579 --> 00:38:16,959 ideju sudbine ili živote drugih ljudi u svoje ruke, 524 00:38:17,198 --> 00:38:19,815 da mi nemamo tu vrstu moći. 525 00:38:20,079 --> 00:38:22,078 Dobro, u redu, hvala. Kako se vi zovete? 526 00:38:22,228 --> 00:38:23,050 Britt. 527 00:38:24,640 --> 00:38:25,378 Tko još? 528 00:38:25,778 --> 00:38:27,748 Što vi kažete? Ustanite. 529 00:38:27,758 --> 00:38:34,908 Pitam se da li su Dudley i Stephens tražili Parkerovu suglasnost za umiranje. 530 00:38:35,429 --> 00:38:41,738 I da li bi ih to oslobodilo krivnje za aktivno ubojstvo? 531 00:38:41,918 --> 00:38:44,958 I ako je tako, da li je to još uvijek moralno opravdano? 532 00:38:45,449 --> 00:38:49,204 Zanimljivo, suglasnost. Čekajte, kako se vi zovete? 533 00:38:49,559 --> 00:38:50,348 Kathleen. 534 00:38:51,403 --> 00:38:53,154 Kathleen kaže, pretpostavimo ... 535 00:38:53,214 --> 00:38:54,715 Kako bi izgledao taj scenario? 536 00:38:56,929 --> 00:39:03,507 Tu je Dudley, perorez u ruci, ali umjesto molitve, ili prije molitve, 537 00:39:04,588 --> 00:39:08,469 kaže, 'Parker, bi li zamjerio, 538 00:39:11,478 --> 00:39:12,987 mi smo očajno gladni, 539 00:39:14,538 --> 00:39:17,368 - s čim Marcus suosjeća - 540 00:39:17,679 --> 00:39:19,179 očajno smo gladni, 541 00:39:19,768 --> 00:39:21,508 ti ionako nećeš dugo, 542 00:39:22,168 --> 00:39:23,498 - mogao bi biti mučenik - 543 00:39:23,568 --> 00:39:26,828 bili htio biti mučenik, što misliš o tome, Parker?' 544 00:39:33,519 --> 00:39:35,970 Što mislite, bi li tada bilo moralno opravdano? 545 00:39:36,580 --> 00:39:40,693 Pretpostavimo da Parker, napola pri svijesti, kaže - Ok. 546 00:39:42,808 --> 00:39:45,559 Ne mislim da bi bilo moralno opravdano, ali pitam se ... 547 00:39:45,739 --> 00:39:47,260 Čak i tada, ne bi bilo? 548 00:39:47,310 --> 00:39:48,030 Ne. 549 00:39:48,329 --> 00:39:52,268 Vi mislite da čak i sa njegovim pristankom to ne bi bilo moralno opravdano? 550 00:39:52,278 --> 00:39:54,079 Ima li ljudi koji misle ... 551 00:39:54,879 --> 00:39:57,050 koji žele preuzeti Kathleeninu ideju suglasnosti 552 00:39:57,199 --> 00:39:59,978 i koji misle da bi to tada bilo moralno opravdano? 553 00:40:00,088 --> 00:40:02,781 Dignite ruke, ako bi bilo? Ako mislite da bi bilo? 554 00:40:05,609 --> 00:40:07,328 To je vrlo zanimljivo. 555 00:40:07,588 --> 00:40:10,858 Zašto bi suglasnost predstavljala moralnu razliku? 556 00:40:13,848 --> 00:40:14,698 Zašto bi? 557 00:40:15,729 --> 00:40:20,451 Ja samo mislim ako je to njegova vlastita originalna ideja, njegova ideja od početka, 558 00:40:20,839 --> 00:40:25,578 onda bi to bila jedina situacija u kojoj bi ja to smatrala prihvatljivim. 559 00:40:26,098 --> 00:40:29,130 Jer na taj način ne možete tvrditi da je bio pod pritiskom, 560 00:40:29,238 --> 00:40:32,139 znate, tri protiv jednoga ili bilo koji omjer bio. 561 00:40:32,759 --> 00:40:36,080 I mislim ako je on donio odluku da daje svoj život, 562 00:40:36,080 --> 00:40:41,088 onda se on samovoljno žrtvuje, što neki mogu smatrati vrijednim divljenja, 563 00:40:41,279 --> 00:40:44,060 a drugi se mogu ne slagati s tom odlukom. 564 00:40:45,449 --> 00:40:47,839 Dakle, ako je on nadošao na tu ideju, 565 00:40:49,099 --> 00:40:52,860 to je jedina vrsta suglasnosti u koju se možemo pouzdati, moralno, 566 00:40:53,010 --> 00:40:54,479 onda bi to bilo u redu? 567 00:40:54,788 --> 00:40:59,283 U protivnom bilo bi to nešto kao iznuđena suglasnost 568 00:40:59,509 --> 00:41:02,105 u danim okolnostima, mislite? 569 00:41:05,048 --> 00:41:09,763 Da li itko misli da čak i Parkerova suglasnost 570 00:41:10,728 --> 00:41:14,097 ne bi opravdala njihov čin ubojstva? 571 00:41:15,178 --> 00:41:16,288 Tko tako misli? 572 00:41:17,928 --> 00:41:19,378 Recite nam zašto, ustanite. 573 00:41:19,539 --> 00:41:25,108 Mislim da bi Parker bio ubijen u nadi da će drugi članovi posade biti spašeni, 574 00:41:26,209 --> 00:41:28,900 pa onda nema definitivnog razloga da on bude ubijen 575 00:41:29,250 --> 00:41:32,169 jer ne znate kada će oni biti spašeni. 576 00:41:32,269 --> 00:41:34,169 Pa ako ga ubijete i to bude uzalud, 577 00:41:34,199 --> 00:41:37,820 hoćete li nastaviti ubijati članove posade i na kraju nitko neće ostati? 578 00:41:38,039 --> 00:41:39,909 Jer netko će na koncu umrijeti. 579 00:41:40,259 --> 00:41:43,605 Pa, moralna logika situacije izgleda da je ta. 580 00:41:44,199 --> 00:41:48,729 Da bi oni nadalje odabirali najslabije, jednog po jednog, 581 00:41:49,928 --> 00:41:51,928 dok ne bi bili spašeni. 582 00:41:51,958 --> 00:41:56,806 A u ovom slučaju, na sreću, bili su spašeni kad ih bar troje još bilo živo. 583 00:41:58,639 --> 00:42:00,420 Da je Parker da svoj pristanak, 584 00:42:00,968 --> 00:42:03,118 bili tada bilo u redu ili ne? 585 00:42:03,438 --> 00:42:05,699 Ne, još uvijek ne bi bilo u redu. 586 00:42:06,149 --> 00:42:07,850 Recite nam zašto ne bi bilo u redu? 587 00:42:08,030 --> 00:42:11,588 Prije svega ja vjerujem da je kanibalizam moralno neispravan 588 00:42:12,908 --> 00:42:15,439 i ne biste smjeli jesti ljudsko biće ni u kom slučaju. 589 00:42:16,579 --> 00:42:19,279 Dakle, kanibalizam je moralno nedopušten kao takav ... 590 00:42:19,380 --> 00:42:23,730 Dakle, čak i u scenariju u kojem bi se čekalo da netko umre 591 00:42:24,190 --> 00:42:25,918 još uvijek bi to bilo nedopustivo? 592 00:42:26,018 --> 00:42:27,629 Da, za mene osobno. 593 00:42:27,723 --> 00:42:32,793 Čini mi se da to sve ovisi o osobnom moralu. 594 00:42:35,460 --> 00:42:36,939 To je tek moje mišljenje. 595 00:42:37,009 --> 00:42:39,029 Naravno, drugi ljudi se neće složiti ... 596 00:42:39,338 --> 00:42:41,326 Pa da vidimo koja su njihova neslaganja 597 00:42:41,498 --> 00:42:45,821 i onda ćemo vidjeti da li imaju dovoljne razloge da vas razuvjere. 598 00:42:50,489 --> 00:42:56,439 Ima li netko tko bi mogao objasniti, vi koji ste skloni suglasnosti, 599 00:42:57,789 --> 00:43:02,726 možete li objasniti zašto suglasnost čini takvu moralnu razliku. 600 00:43:03,358 --> 00:43:04,930 Što je s idejom lutrije? 601 00:43:05,460 --> 00:43:07,040 Da li se to računa kao suglasnost? 602 00:43:07,130 --> 00:43:10,209 Sjetite se, na početku Dudley je predložio lutriju. 603 00:43:10,779 --> 00:43:14,599 Pretpostavimo da su se složili s lutrijom, 604 00:43:17,369 --> 00:43:21,488 koliko vas bi tada reklo - to je bilo u redu? 605 00:43:21,809 --> 00:43:26,440 Pretpostavimo da su vukli slamku, mali od palube je izgubio i priča ide dalje. 606 00:43:26,530 --> 00:43:29,228 Koliko ljudi bi tada reklo da je bilo moralno dopustivo? 607 00:43:33,199 --> 00:43:36,640 Brojevi rastu kad dodamo lutriju. Da čujemo jednog od vas 608 00:43:37,030 --> 00:43:40,359 za kojega bi lutrija činila moralnu razliku? 609 00:43:41,368 --> 00:43:42,228 Zašto bi? 610 00:43:43,458 --> 00:43:47,149 Mislim da ključni element koji po meni to čini zločinom 611 00:43:47,539 --> 00:43:52,495 je ideja da su oni u jednom času odlučili da su njihovi životi važniji od njegovog, 612 00:43:53,849 --> 00:43:56,140 a mislim da je to zapravo osnova svakog zločina. 613 00:43:56,608 --> 00:44:01,587 To je kao: moje potrebe, moje želje važnije su od tvojih i moje imaju prednost. 614 00:44:01,977 --> 00:44:05,829 A da su imali lutriju gdje su svi suglasni da netko mora umrijeti 615 00:44:06,478 --> 00:44:10,119 to je onda kao da se svi žrtvuju da spase ostale. 616 00:44:10,779 --> 00:44:12,079 Onda bi to bilo u redu? 617 00:44:12,949 --> 00:44:14,740 Malo groteskno, ali ... 618 00:44:15,880 --> 00:44:17,467 Ali moralno dopustivo? 619 00:44:17,578 --> 00:44:18,318 Da. 620 00:44:18,748 --> 00:44:20,218 A kako se ti zoveš? 621 00:44:20,308 --> 00:44:21,288 Matt. 622 00:44:25,239 --> 00:44:30,024 Znači Matt ono što tebe muči nije kanibalizam nego izostanak propisanog postupka? 623 00:44:31,389 --> 00:44:33,779 Pretpostavljam da bi se moglo tako reći. 624 00:44:34,688 --> 00:44:36,853 A može li netko, tko se slaže s Mattom 625 00:44:38,180 --> 00:44:42,059 reći malo više o tome zašto bi lutrija, 626 00:44:43,968 --> 00:44:47,938 po vašem mišljenju, činila to moralno dopustivim? 627 00:44:50,208 --> 00:44:53,578 Kako sam ja to prvobitno razumijela, cijeli problem je bio u tome da 628 00:44:53,578 --> 00:44:55,726 malog od palube nikada nisu konzultirali 629 00:44:56,078 --> 00:44:58,718 o tome da li će mu se ili ne, nešto dogoditi, 630 00:44:58,718 --> 00:45:02,818 čak i sa prvobitnom lutrijom, hoće li u njoj sudjelovati, 631 00:45:02,818 --> 00:45:05,810 jednostavno je bilo odlučeno da je on taj koji će umrijeti. 632 00:45:05,900 --> 00:45:07,891 Točno, to se dogodilo u stvarnom slučaju, 633 00:45:08,170 --> 00:45:12,897 ali da je bila lutrija i svi su se složili oko procedure, mislite da bi bilo u redu? 634 00:45:13,269 --> 00:45:16,148 Točno, jer onda svi znaju da će se dogoditi smrt, 635 00:45:16,418 --> 00:45:20,399 dok mali od palube nije znao čak ni da se vodi ta rasprava. 636 00:45:20,649 --> 00:45:26,191 Nije bilo nikakvog upozorenja njemu da bi znao: 'Hej, ja sam možda taj koji umire!'. 637 00:45:26,509 --> 00:45:30,259 Dobro, pretpostavimo da se svi slažu s lutrijom, lutrija se održi, 638 00:45:30,259 --> 00:45:33,499 mali od palube gubi, ali se predomisli. 639 00:45:34,338 --> 00:45:36,959 Već ste odlučili, to je kao usmeni ugovor, 640 00:45:37,099 --> 00:45:40,859 ne možete odustati od toga, odluka je donesena. 641 00:45:41,229 --> 00:45:45,599 Da znate da umirete kako bi drugi mogli živjeti vi bi ... 642 00:45:45,998 --> 00:45:49,968 Da je umro netko drugi znate da bi vi konzumirali njega, pa ... 643 00:45:51,969 --> 00:45:54,896 Ali onda bi on mogao reći: 'Znam, ali ja sam izgubio.' 644 00:45:56,089 --> 00:45:58,439 Ja samo mislim da je u tome cijeli moralni spor, 645 00:45:58,439 --> 00:46:04,099 da nije konzultiran mali od palube i to je najjezivije 646 00:46:04,778 --> 00:46:06,945 da on uopće nije imao pojma što se zbiva. 647 00:46:07,199 --> 00:46:12,064 Da je on znao što se zbiva bilo bi malo razumljivije. 648 00:46:12,198 --> 00:46:13,599 Dobro, sada želim čuti ... 649 00:46:14,510 --> 00:46:16,819 Dakle, postoje neki koji misle 650 00:46:17,048 --> 00:46:20,388 da je to moralno dopustivo, ali samo oko 20% vas 651 00:46:23,698 --> 00:46:25,779 na čelu s Marcusom. 652 00:46:26,239 --> 00:46:28,119 Onda postoje neki koji kažu, 653 00:46:28,149 --> 00:46:31,669 pravi problem ovdje je izostanak suglasnosti, 654 00:46:32,618 --> 00:46:35,959 bilo suglasnosti o lutriji, fer proceduri 655 00:46:38,138 --> 00:46:43,829 ili, Kathleenina ideja, suglasnosti u času smrti. 656 00:46:45,139 --> 00:46:53,438 A ako dodamo suglasnost onda je više ljudi sklono žrtvovanje smatrati moralno opravdanim. 657 00:46:54,528 --> 00:46:58,072 Sada bih na koncu želio čuti one od vas koji misle 658 00:46:58,242 --> 00:47:00,983 da čak i s pristankom, čak i s lutrijom, 659 00:47:01,508 --> 00:47:06,294 čak i s Parkerovim zadnjim promrmljanim riječima suglasnosti, 660 00:47:06,949 --> 00:47:08,774 u zadnjem času, 661 00:47:09,179 --> 00:47:11,538 to bi ipak bilo neispravno. 662 00:47:12,447 --> 00:47:14,848 I zašto bi to bilo neispravno? To želim čuti. 663 00:47:16,998 --> 00:47:21,378 Pa, cijelo vrijeme sam naginjala kategoričkom moralnom rasuđivanju 664 00:47:22,639 --> 00:47:28,488 i mislim da postoji mogućnost da bi se složila s idejom lutrije 665 00:47:28,698 --> 00:47:32,174 i da se onda gubitnik ubije sam, 666 00:47:33,349 --> 00:47:35,588 tako da to onda ne bi bio aktivno ubojstvo, 667 00:47:35,718 --> 00:47:38,908 no ipak mislim da čak i na taj način to je iznuđeno. 668 00:47:39,308 --> 00:47:41,598 I također mislim da nema nimalo kajanja 669 00:47:41,598 --> 00:47:44,499 Kao što Dudley piše u svom dnevniku: 'Jeli smo svoj doručak.' 670 00:47:44,909 --> 00:47:47,164 Izgleda kao da je on kao -Oh, ... 671 00:47:47,659 --> 00:47:50,872 Znate, cijela ideja nevrednovanja tuđeg života. 672 00:47:51,440 --> 00:47:55,719 Eto zbog toga mi se čini da trebam zauzeti kategorički stav. 673 00:47:55,719 --> 00:47:57,289 Želite baciti knjigu na njega? 674 00:47:57,739 --> 00:48:00,718 Zato što se ne kaje i nema osjećaj da je učinio išta loše. 675 00:48:00,908 --> 00:48:01,789 Točno. 676 00:48:04,129 --> 00:48:06,849 Ima li još branitelja 677 00:48:08,318 --> 00:48:11,668 koji kažu da je to jednostavno kategorički neispravno, sa ili bez suglasnosti. 678 00:48:11,668 --> 00:48:13,644 Da, ustanite. Zašto? 679 00:48:13,804 --> 00:48:16,874 Mislim da nesumnjivo, kako je oblikovano naše društvo, ubojstvo je ubojstvo, 680 00:48:16,874 --> 00:48:18,461 ubojstvo je ubojstvo na svaki način. 681 00:48:18,461 --> 00:48:21,562 a naše društvo na ubojstvo gleda uvijek jednako 682 00:48:21,562 --> 00:48:23,441 i mislim da nema razlike u bilo kojem slučaju. 683 00:48:23,441 --> 00:48:24,801 Dobro, da vas pitam nešto? 684 00:48:25,051 --> 00:48:27,590 Tri života su u pitanju, nasuprot jednom, 685 00:48:30,328 --> 00:48:32,719 taj jedan, mali od palube, nije imao nikoga od obitelji, 686 00:48:32,789 --> 00:48:34,319 nitko nije ovisio o njemu, 687 00:48:34,489 --> 00:48:38,348 ova trojica su imala obitelji kod kuće u Engleskoj, ovisili su o njima, 688 00:48:38,498 --> 00:48:40,408 imali su žene i djecu. 689 00:48:41,159 --> 00:48:42,819 Sjetite se Benthama. 690 00:48:43,219 --> 00:48:48,703 Bentham kaže moramo uzeti u obzir dobrobit, korisnost, sreću svakoga. 691 00:48:49,188 --> 00:48:53,168 Moramo sve to zbrojiti, pa onda to nisu samo brojevi tri prema jedan, 692 00:48:54,299 --> 00:48:57,171 to su također svi ti ljudi kod kuće. 693 00:48:58,759 --> 00:49:03,269 Ustvari, londonske novine toga vremena i javno mnijenje suosjećali su s njima, 694 00:49:03,918 --> 00:49:05,148 Dudleyem i Stephensom, 695 00:49:05,478 --> 00:49:10,343 a novine su rekle - da nisu bili motivirani ljubavlju i brigom 696 00:49:10,359 --> 00:49:13,679 za svoje voljene kod kuće sigurno to ne bi bili učinili. 697 00:49:14,239 --> 00:49:16,719 Dobro, ali kako se to razlikuje od ljudi na uglu 698 00:49:16,939 --> 00:49:20,088 koji imaju istu želju da prehrane svoje obitelji? Ja mislim da nema razlike. 699 00:49:20,088 --> 00:49:24,259 Mislim da u svakom slučaju ako ja ubijem vas da bi popravio svoj status, to je ubojstvo 700 00:49:24,340 --> 00:49:26,620 i mislim da to trebamo gledati u istom svjetlu. 701 00:49:26,683 --> 00:49:29,442 Umjesto da kriminaliziramo određene aktivnosti 702 00:49:30,278 --> 00:49:33,511 i neke stvari prikazujemo više nasilne i surovije 703 00:49:33,760 --> 00:49:36,490 kad je u tom istom slučaju to isto, sve je to isti čin 704 00:49:36,760 --> 00:49:39,980 i mentalitet koji ide s ubojstvom, potreba da se nahrane svoje obitelji. 705 00:49:40,150 --> 00:49:43,648 Pretpostavimo da ih nije bilo tri, pretpostavimo da ih je bilo 30, 300. 706 00:49:44,268 --> 00:49:46,558 Jedan život da se spasi tri stotine. 707 00:49:47,268 --> 00:49:48,931 Ili u vrijeme rata, tri tisuće ... 708 00:49:49,440 --> 00:49:51,179 Ili pretpostavimo da su ulozi čak i veći. 709 00:49:51,349 --> 00:49:52,748 Pretpostavimo da su ulozi čak i veći. 710 00:49:52,788 --> 00:49:54,508 Misllim da je to još uvijek ista stvar. 711 00:49:54,678 --> 00:49:58,228 Mislite li da je Bentham imao krivo kad je rekao da je ispravno postupati 712 00:49:58,308 --> 00:50:00,339 tako da se zbroji skupna sreća? 713 00:50:00,719 --> 00:50:02,221 Mislite da je u krivu? 714 00:50:02,478 --> 00:50:05,158 Ne mislim da je u krivu, ali mislim da je ubojstvo ubojstvo u svakom slučaju. 715 00:50:05,158 --> 00:50:08,038 Pa onda Bentham mora biti u krivu! Ako ste vi u pravu, on je u krivu! 716 00:50:08,038 --> 00:50:09,578 Dobro, on je u krivu. 717 00:50:09,708 --> 00:50:11,739 U redu je, hvala vam, bilo je dobro. 718 00:50:13,539 --> 00:50:15,418 Odmaknimo se od ove diskusije 719 00:50:18,218 --> 00:50:22,339 i uočimo koliko smo prigovora čuli u vezi onoga što su činili. 720 00:50:23,259 --> 00:50:25,479 Čuli smo neke obrane toga što su učinili. 721 00:50:26,048 --> 00:50:29,879 Obrana se odnosi na potrebu, njihove kobne okolnosti 722 00:50:30,098 --> 00:50:34,847 i, barem implicitno, ideju da su brojevi važni. 723 00:50:36,018 --> 00:50:39,298 I ne samo da su važni brojevi, nego su važni i širi učinci, 724 00:50:40,020 --> 00:50:42,770 njihove obitelji kod kuće, oni koji ovise o njima. 725 00:50:43,178 --> 00:50:45,598 Parker je bio siroče, nikome neće nedostajati. 726 00:50:47,978 --> 00:50:52,023 Pa, ako sve zbrojite, ako pokušate izračunati 727 00:50:52,648 --> 00:50:55,208 bilancu sreće i patnje, 728 00:50:56,599 --> 00:51:00,208 mogli biste imati osnovu da kažete da je ono što su učinili ispravno. 729 00:51:02,398 --> 00:51:05,988 Onda smo čuli bar tri različite vrste prigovora. 730 00:51:09,469 --> 00:51:13,930 Čuli smo prigovor koji kaže, ono što su učinili kategorički je neispravno, 731 00:51:14,172 --> 00:51:16,979 upravo ovdje, na kraju, kategorički neispravno. 732 00:51:17,079 --> 00:51:19,510 Ubojstvo je ubojstvo, uvijek je neispravno, 733 00:51:19,820 --> 00:51:23,759 čak i ako povećava ukupnu sreću društva. 734 00:51:25,639 --> 00:51:27,256 Kategorički prigovor, 735 00:51:28,498 --> 00:51:33,967 No, još uvijek nam ostaje istražiti zašto je ubojstvo kategorički neispravno. 736 00:51:35,449 --> 00:51:41,189 Da li je to zato jer čak i mali od palube imaju određena fundamentalna prava? 737 00:51:42,338 --> 00:51:43,510 A ako je to razlog, 738 00:51:44,400 --> 00:51:50,760 odakle proizlaze ta prava ako ne iz ideje veće dobrobiti ili korisnosti ili sreće? 739 00:51:50,810 --> 00:51:52,110 Pitanje broj jedan. 740 00:51:52,759 --> 00:52:00,455 Drugi su rekli, lutrija bi činila razliku, fer procedura, rekao je Matt, 741 00:52:05,949 --> 00:52:07,650 I neki ljudi su naginjali tome. 742 00:52:08,768 --> 00:52:11,568 To nije točno kategorički prigovor, 743 00:52:12,188 --> 00:52:15,709 nego kaže, svi se trebaju računati kao jednaki, 744 00:52:16,388 --> 00:52:21,980 čak iako na koncu jedan može biti žrtvovan za opću dobrobit. 745 00:52:23,009 --> 00:52:25,779 To nam ostavlja još jedno pitanje za istraživanje. 746 00:52:26,059 --> 00:52:30,590 Zašto sporazum o određenoj proceduri, čak i fer proceduri, 747 00:52:31,339 --> 00:52:36,360 opravdava bilo koji rezultat koji proizlazi iz izvođenja te procedure? 748 00:52:37,488 --> 00:52:38,878 Pitanje broj dva. 749 00:52:39,898 --> 00:52:41,338 I pitanje broj tri, 750 00:52:42,398 --> 00:52:44,393 osnovna ideja suglasnosti. 751 00:52:44,968 --> 00:52:46,702 Kathleen nas je navela na to. 752 00:52:48,278 --> 00:52:54,169 Da se mali od palube složio samovoljno, a ne pod pritiskom, 753 00:52:54,498 --> 00:52:56,110 kao što je bilo dodano, 754 00:52:56,728 --> 00:53:00,528 onda bi bilo u redu oduzeti mu život da bi se spasili ostali. 755 00:53:01,918 --> 00:53:04,450 Čak je više ljudi prihvatilo tu ideju, 756 00:53:04,900 --> 00:53:08,155 ali iz toga proizlazi treće filozofsko pitanje. 757 00:53:08,528 --> 00:53:13,018 Kakvo je moralno djelovanje pristanka? 758 00:53:14,438 --> 00:53:18,338 Zašto čin pristanka čini takvu moralnu razliku 759 00:53:19,188 --> 00:53:22,578 da jedan čin koji bi bio neispravan, oduzimanje života bez pristanka, 760 00:53:23,998 --> 00:53:27,569 moralno je dopustivo uz pristanak? 761 00:53:29,619 --> 00:53:33,211 Da bismo razmotrili ta tri pitanja morat ćemo čitati neke filozofe, 762 00:53:34,108 --> 00:53:38,578 a od sljedećeg puta počet ćemo čitati Benthama i Johna Stewarta Milla 763 00:53:38,648 --> 00:53:40,299 filozofe utilitarizma.